Skip Navigation

Intelligence artificielle : prendre en compte ses risques concrets, plutôt que de potentielles menaces existentielles

theconversation.com Intelligence artificielle : prendre en compte ses risques concrets, plutôt que de potentielles menaces existentielles

La question de savoir si l’intelligence artificielle pourrait potentiellement anéantir la civilisation humaine détourne l’attention de défis plus urgents.

8
8 comments
  • Oui, ce qui rapport du temps de cerveau c’est les crises et l’inquiétude. Les menaces de l’IA sont réelles, mais pas du tout là où les média se focalisent.

    La question des biais est centrale, bien plus inquiétante que le fait que l’IA remplace les humains.

    EDIT : Je me permet de copier la liste des menaces identifiées, que je trouve intéressantes.

    Certains défis d’une importance cruciale devraient être notre priorité :

    • La manipulation du comportement humain par les algorithmes d’IA avec des conséquences sociales potentiellement dévastatrices dans la diffusion de fausses informations, la formation des opinions publiques et les résultats des processus démocratiques.
    • Les biais et discriminations algorithmiques qui non seulement perpétuent mais exacerbent les stéréotypes, les schémas de discrimination, voire l’oppression.
    • Le manque de transparence des modèles et de leur utilisation.
    • La violation de la vie privée et l’utilisation de quantités massives de données de formation sans le consentement ou la compensation de leurs créateurs.
    • L’exploitation des travailleurs qui annotent, forment et corrigent les systèmes d’IA, dont beaucoup se trouvent dans des pays en développement où les salaires sont dérisoires.
    • L’empreinte carbone massive des grands centres de données et des réseaux neuronaux nécessaires à la construction de ces systèmes d’IA.
    • Le manque de véracité des systèmes d’IA générative qui inventent des contenus crédibles (images, textes, audios, vidéos…) sans correspondance avec le monde réel.
    • La fragilité de ces grands modèles qui peuvent se tromper et être trompés.
    • Le déplacement des emplois et des professions.
    • La concentration du pouvoir entre les mains d’un oligopole de ceux qui contrôlent les systèmes d’IA d’aujourd’hui.
    • Moi je trouve cette liste pas du tout intéréssante. 80% est vraiment pas dans les priorité, sur le sujet de l'IA.

      La manipulation du comportement humain par les algorithmes d’IA avec des conséquences sociales potentiellement dévastatrices dans la diffusion de fausses informations

      L’exploitation des travailleurs qui annotent, forment et corrigent les systèmes d’IA, dont beaucoup se trouvent dans des pays en développement où les salaires sont dérisoires.

      Pas besoin d'IA pour répéter les fausses informations, comme cette liste l'indique.
      T'as des articles très orienté comme celui là, qui donne le salaire "less than $2 per hour":
      https://time.com/6247678/openai-chatgpt-kenya-workers/
      Comme si c'était de l'exclavagisme.
      Le salaire moyen horaire là bas c'est $1.25 par heure. $2 par heure c'est presque le double. Un salaire ca doit se mettre en contexte.

      La violation de la vie privée et l’utilisation de quantités massives de données de formation sans le consentement ou la compensation de leurs créateurs.

      Ca oriente dès le début le débat au lieu de poser des questions coeurs:
      Il y en a d'autres avant:

      • Le contenu que tu poste publiquement sur des plateformes, est il sous ton controle (majorité des EULA/autre disent que non, et aujourd'hui légalement tu donne le droit de la plateforme de faire ce qu'ils veulent).
      • Quels est la différence entre une IA qui apprend, et un humain, où place ton la limite entre les 2?

      Le manque de transparence des modèles et de leur utilisation.

      Avant GPT4 OpenAI publiait leur papier de recherches, meme si les modèles&code était pas publié, ils étaient plutot transparent sur tout le reste. Donc de quel manque de transparence ils parlent? Et surtout, OpenAI est une des exceptions dans le manque de transparences.

      La violation de la vie privée

      Hors sujet ici, c'est le problème avec tout services web, pas les IA spécifiquement.

      L’empreinte carbone massive des grands centres de données et des réseaux neuronaux nécessaires à la construction de ces systèmes d’IA.

      Pareil hors sujet. Des datacenters entier sont construit pour prédire la météo, simuler de la fusion nucléaire, pourquoi ca serait un problème spécifiquement pour l'IA ? Pourquoi empreinte carbonne massive ? Ils ont meme pas les chiffres pour le plus gros modèle (ceux pour train ChatGPT ne sont pas publiques).
      Meta pour entrainer le plus gros modèle disponible publiquement ont utilisé 2000 GPU sur 23 jours, en calcul de coin de table, ca fait 331MWh pour entrainer le modèle, donc 99 tonnes de CO2 a 300g/kWh (un francais en emets en moyenne 11tonnes par ans). On est loin de l'empreinte de carbonne massive.

      La fragilité de ces grands modèles qui peuvent se tromper et être trompés potentiellement dévastatrices dans la diffusion de fausses information
      Le manque de véracité des systèmes d’IA générative qui inventent des contenus crédibles

      • Tu peux aussi arguer qu'éthiquement c'est moyen bof d'aller dans un pays du tiers monde faire faire un taf qu'on sait éprouvant psychologiquement pour 4 x moins que le salaire minimum chez eux.

        Et selon l'article que tu cites, les paiements ça a l'air plus nuancé que ce que tu en ressors :

        An agent working nine-hour shifts could expect to take home a total of at least $1.32 per hour after tax, rising to as high as $1.44 per hour if they exceeded all their targets. [...] (There is no universal minimum wage in Kenya, but at the time these workers were employed the minimum wage for a receptionist in Nairobi was $1.52 per hour.)

        Pour le reste, c'est pas hors sujet parce que c'est applicable a d'autres services webs, c'est tout autant problématique, que ça soit sur la protection de tes données ou l'emprunte carbone. C'est les dérives globales de notre système technologique, autant profiter d'avoir un débat public sur les IAs pour ramener ces sujets sur la table. C'est pas parce que ça fait parti d'un tout que c'est caduque.

  • Les plus mauvaises langues d'entre nous diront que c'est pour détourner l'attention de ces risques concrets que quelques stars du secteurs aiment alimenter les délires type SkyNet, et que ces délires contribuent à exagérer l'efficacité des ces approaches d'apprentissages statistiques.

8 comments