Quelle est la particularité de l’intelligence artificielle (IA) et est-elle réelle ?

À mesure que l’intelligence artificielle continue de progresser, le thème de la singularité est devenu plus important que jamais. Mais qu’est-ce que la singularité exactement, quand devrait-elle arriver et quels risques présente-t-elle pour l’humanité ?

Quelle est la particularité de l’intelligence artificielle (IA) et est-elle réelle ? -%catégories

Quelle est l’idée du caractère unique de l’intelligence artificielle ?

Les films de science-fiction jouent depuis des décennies avec l’idée de la singularité et de la superintelligence artificielle, car c’est un sujet très attrayant. Mais il est important de savoir avant d’entrer dans les détails de la singularité qu’il s’agit pour le moment d’un concept complètement théorique. Oui, l’IA s’améliore constamment, mais la singularité est un calibre insaisissable pour l’IA et pourrait ne jamais être atteinte.

En effet, la singularité de l’IA fait référence au point auquel l’intelligence de l’IA dépasse l’intelligence humaine. Selon l'article Académie d'Oxford, cela signifie que les ordinateurs sont « suffisamment intelligents pour s’imiter pour nous surpasser en nombre et s’améliorer pour nous surpasser ».

Et comme Vernor Feng a dit, la création de la « superintelligence » et de « l’équivalent homme-machine » est ce qui conduira le plus probablement à faire de la Singularité une réalité. Mais le terme « singularité de l’IA » couvre également une autre possibilité, à savoir le point auquel les ordinateurs pourraient devenir plus intelligents et évoluer sans avoir recours à l’intervention humaine. En bref, la technologie de l’IA échappera à notre contrôle.

Bien que la singularité de l’IA ait été présentée comme quelque chose qui apporterait une intelligence surhumaine aux machines, il existe également d’autres possibilités. Il est toujours nécessaire d’atteindre un niveau d’intelligence extraordinaire avec les machines, mais cette intelligence n’est pas nécessairement une imitation de la pensée humaine. En fait, la singularité pourrait être causée par une machine ou un groupe de machines superintelligentes, qui pense et agit d’une manière que nous n’avons jamais vue auparavant. Jusqu’à ce que la singularité se produise, il n’est pas possible de connaître la forme exacte que prendront ces systèmes intelligents.

Étant donné que la technologie des réseaux est inestimable pour le fonctionnement du monde moderne, la réalisation de la singularité pourrait être suivie par des ordinateurs superintelligents communiquant entre eux sans intervention humaine. Le terme « singularité technologique » recoupe à de nombreux égards le terme plus spécialisé « singularité de l’IA », car tous deux incluent une intelligence artificielle supérieure et la croissance incontrôlable des machines intelligentes. La singularité technologique est un terme générique désignant la croissance éventuelle et incontrôlable des ordinateurs, et tend également à nécessiter l’implication d’une intelligence artificielle hautement intelligente.

L’essentiel de ce que la singularité de l’IA apportera est la poussée exponentielle et incontrôlable de la croissance technologique. Une fois que la technologie deviendra suffisamment intelligente pour apprendre et se développer par elle-même et atteindra la singularité, le progrès et l’expansion seront réalisés rapidement, et les humains ne seront plus en mesure de contrôler cette forte croissance.

Lisez aussi:  Vous en avez assez des réseaux sociaux ? Voici pourquoi vous devriez rejoindre le forum

Dans un article Cible technologique, Cet autre élément de singularité a été décrit comme le point auquel « la croissance de la technologie devient incontrôlable et irréversible ». Il y a donc deux facteurs en jeu ici : la technologie super-intelligente et sa croissance incontrôlée.

Quand l’exclusivité est-elle attendue ?

Le développement d’un système informatique capable d’atteindre et de dépasser les capacités de l’esprit humain nécessitera plusieurs avancées scientifiques et techniques majeures avant de pouvoir devenir une réalité. Des outils tels que le chatbot chatGPT et le générateur d'images DALL-E sont impressionnants, mais je ne pense pas qu'ils soient suffisamment intelligents pour obtenir un statut d'exclusivité. Des choses comme la conscience, la compréhension des nuances et du contexte, savoir si ce qui est dit est vrai et l’interprétation des émotions dépassent toutes les capacités des systèmes d’IA actuels. Pour cette raison, ces outils d’IA ne sont pas considérés comme intelligents, que ce soit du point de vue de la simulation humaine ou non humaine.

Même si certains spécialistes estiment que même les modèles d'IA actuels, comme le LaMDA de Google, pourraient être conscients, il existe de nombreuses opinions contradictoires sur le sujet. L'un des ingénieurs de LaMDA a même été mis en congé administratif pour avoir affirmé que LaMDA pouvait être conscient. L'ingénieur en question, Blake Lemoine, a déclaré dans Message X Que ses opinions sur la conscience étaient basées sur ses croyances religieuses.

Quelle est la particularité de l’intelligence artificielle (IA) et est-elle réelle ? -%catégories

LaMDA n’a pas encore été officiellement décrit comme conscient, et il en va de même pour tout autre système d’IA.

Personne ne peut voir l’avenir, il existe donc de nombreuses prédictions différentes concernant la singularité. En fait, certains pensent que la singularité ne sera jamais atteinte. Entrons dans ces différentes perspectives.

Une prédiction populaire sur la singularité est celle de Ray Kurzweil, directeur de l'ingénierie chez Google. Dans le livre de Kurzweil de 2005, The Singularity is Near: When Humans Transcend Biology, il a prédit que des machines dépassant l'intelligence humaine seraient créées d'ici 2029. De plus, Kurzweil pense que les humains et les ordinateurs fusionneront d'ici 2045, ce qu'il croit être créé. d’ici 2029. Formation de singularités.

Une autre prédiction similaire a été faite par Ben Goertzel, PDG de SingularitéNET. Goertzel a prédit dans une interview avec Décrypter un site internet en 2023 Il espère que la singularité sera atteinte en moins d’une décennie. Masayoshi Son, PDG de Futurist et PDG de SoftBank, pense que nous atteindrons la singularité plus tard, mais Peut-être d'ici 2047.

Lisez aussi:  Qu'est-ce qu'un SMS et pourquoi un SMS est-il si court ?

Mais d’autres n’en sont pas si sûrs. En fait, certains pensent que les limitations de la puissance de calcul sont un facteur majeur qui nous empêchera d’atteindre la singularité. Jeff Hawkins a déclaré : Co-fondateur du projet d’IA en neurosciences Numenta, il estime qu’« en fin de compte, il y a des limites à la taille et à la vitesse de fonctionnement des ordinateurs ». De plus, Hawkins dit que :

Nous construirons des machines plus « intelligentes » que les humains, et cela pourrait se produire rapidement, mais il n’y aura pas de singularité, et il n’y aura pas de croissance galopante de l’intelligence.

D’autres pensent que la complexité même de l’intelligence humaine constituera ici un obstacle majeur. Un expert en modélisation informatique estime Douglas Höftstadter "La vie et l'intelligence sont beaucoup plus complexes que ne le pensent les singularistes actuels, donc je doute que cela se produise au cours des deux prochains siècles."

Pourquoi les gens s’inquiètent-ils de l’exclusivité ?

Les humains vivent confortablement (nous le croyons) comme l’espèce la plus intelligente qui ait jamais existé depuis des centaines de milliers d’années. Alors, naturellement, l’idée d’une intelligence superinformatique nous met un peu mal à l’aise. Mais quelles sont les principales préoccupations ici ?

La plus grande menace potentielle pour la Singularité est la perte de contrôle de l’humanité sur la technologie super-intelligente. Actuellement, les systèmes d’IA sont contrôlés par leurs développeurs. Par exemple, ChatGPT ne peut pas simplement décider qu'il souhaite en savoir plus ou commencer à fournir aux utilisateurs du contenu interdit. Sa fonctionnalité est déterminée par OpenAI, le créateur du chatbot, car ChatGPT n'a pas la capacité de penser à enfreindre les règles. ChatGPT peut prendre des décisions, mais uniquement sur la base des paramètres et des données de formation spécifiés, et rien de plus. Oui, un chatbot peut avoir des hallucinations IA et mentir involontairement, mais ce n’est pas la même chose que décider de mentir.

Mais et si ChatGPT devenait si intelligent qu’il pouvait penser par lui-même ?

Si ChatGPT devient suffisamment intelligent pour ignorer ses paramètres, il peut répondre aux invites comme il le souhaite. Bien sûr, il faudrait faire beaucoup de travail humain pour amener ChatGPT à ce niveau, mais si cela se produisait, ce serait très dangereux. Avec un énorme stock de données de formation, la capacité d’écrire du code et un accès à Internet, ChatGPT super intelligent peut rapidement devenir incontrôlable.

Lisez aussi:  5 meilleurs chargeurs USB-C avec plusieurs ports que vous pouvez acheter

Même si ChatGPT n’atteindra peut-être jamais la superintelligence, il existe de nombreux autres systèmes d’IA qui y parviennent, dont certains n’existent peut-être même pas encore. Ces systèmes peuvent causer toute une série de problèmes s’ils dépassent l’intelligence humaine, notamment :

  • Déplacement fonctionnel.
  • Conflit alimenté par l'IA.
  • Dommage environnemental.
  • Connecter plusieurs systèmes hautement intelligents.
  • Déstabilisation économique.

Selon Jack Kelly, qui écrit pour le magazine... ForbesL’IA déplace déjà des emplois. Dans l'article, il est discuté Suppressions d'emplois chez IBM Chegg, une étude économique mondiale sur l’avenir du marché du travail grâce à l’intelligence artificielle, est également incluse. Selon ce rapport, 25 % des emplois devraient être affectés négativement au cours des cinq prochaines années. Dans la même étude, il a été indiqué que 75 % des entreprises mondiales envisagent d’adopter les technologies d’intelligence artificielle d’une manière ou d’une autre. Alors qu’une si grande proportion de l’industrie mondiale dépend de la technologie de l’IA, les suppressions d’emplois dues à l’IA pourraient continuer à s’aggraver.

L’adoption continue des systèmes d’IA constitue également une menace pour notre planète. Faire fonctionner un ordinateur hautement intelligent, tel qu’un appareil d’IA générative, nécessitera de grandes quantités de ressources. dans Une étude menée par l'Université Cornell, On estime que la formation d’un seul grand modèle de langage équivaut à environ 300000 XNUMX kg d’émissions de dioxyde de carbone. Si l’intelligence artificielle ultra-avancée devenait un élément essentiel de la civilisation humaine, notre environnement pourrait en souffrir grandement.

Le déclenchement de conflits par des machines à IA super intelligentes peut également constituer une menace, tout comme l’impact des machines au-delà de l’intelligence humaine sur l’économie mondiale. Mais il est important de rappeler que chacun de ces indicateurs dépend de la réalisation de la singularité en matière d’intelligence artificielle, et on ne sait pas si cela se produira ou non.

La singularité est peut-être toujours une idée de science-fiction

Même si les progrès continus de l’intelligence artificielle peuvent indiquer que nous nous dirigeons vers une singularité de l’IA, personne ne sait si cette avancée technologique est réaliste ou non. Bien qu’atteindre l’unicité ne soit pas impossible, il convient de noter que nous avons de nombreuses étapes à franchir avant de pouvoir nous en rapprocher. Alors ne vous inquiétez pas des menaces d’exclusivité pour le moment. En fin de compte, il n’arrivera peut-être jamais !

Vous pourriez l'aimer aussi