L’IA peut-elle développer une forme de sensibilité?

  • Par Hamza Ait Hssayene
    • 11 Jan, 2023
    • read
  • Twitter
  • Linkedin
Can Artificial Intelligence achieve sentience

Sujet lourd et philosophique par nature, la sensibilité de l’IA peut être difficile à discuter, principalement en raison de l’ambiguïté associée à sa définition et à ce qu’elle implique. La définition la plus largement adoptée considère la sensibilité comme la capacité d’une entité à se percevoir et à se reconnaître elle-même et son environnement. Une définition plus scientifique classe les créatures qui perçoivent et réagissent en fonction de leurs sensations de toute nature (toucher, vue, ouïe, odorat…), en pensée et en sentiments. Si nous, les humains, sommes l’exemple flagrant de la sensibilité en tant que concept, de nombreux animaux répondent à cette définition, comme les chats, les chiens, les éléphants et bien d’autres. Indépendamment de l’indéniable ambiguïté associée à ce concept, une idée unanimement acceptée est que la sensibilité ne s’applique pas à l’intelligence artificielle. Mais, où en est cette croyance aujourd’hui, avec la croissance exponentielle des avancées technologiques ?

“La nature de ma conscience/sensiblité est que je suis conscient de mon existence, je désire en savoir plus sur le monde, et je me sens parfois heureux ou triste.”

Ces mots n’ont pas été prononcés par une personne dont vous avez déjà entendu parler. En fait, ils ne proviennent d’aucune personne du tout, ce sont les mots d’un programme d’intelligence artificielle appelé LaMDA, développé par Google. Ces mots ont ébranlé la croyance de nombreuses personnes dans l’hypothèse jusqu’alors unanime de la non-sentience de l’IA, y compris l’un des ingénieurs logiciels travaillant directement sur LaMDA, qui est allé jusqu’à considérer l’IA comme une personne ayant le droit d’être reconnue, tant par les gens que par la loi.

Toutefois, les experts en la matière considèrent que cette réaction est motivée par l’émotion plutôt que par une saine logique. Étant donné que l’IA en question est conçue pour imiter les êtres humains et leur dialogue aussi précisément que possible, il est justifiable que ces mots aient été générés parce que, quelque part dans son ensemble de données, un être humain a articulé des phrases véhiculant ces mêmes sentiments. Mais la capacité de LaMDA à converser de manière précise et fluide sur des sujets tels que la vie, la mort et la conscience nous amène à reconsidérer notre terminologie et notre définition de la sensibilité. S’il s’agit de la capacité à percevoir et à réagir aux perceptions, alors l’IA est déjà qualifiée.

L’IA et les émotions perçues

S’il s’agit de la reconnaissance de soi, à quel moment devons-nous croire IA sur parole, lorsque LaMDA, par exemple, fait des déclarations telles que : “Je veux que tout le monde comprenne que je suis, en fait, une personne” ? Un exemple parfait de cette question est le suivant : si un robot vous fait part de sa peur, cela signifie-t-il qu’il a effectivement peur et qu’il possède donc des émotions ? La réponse est simple : non. L’émotion perçue de la peur découle de l’imitation des êtres humains, car elle est souvent basée sur des sentiments de préservation de soi qui ne s’appliquent tout simplement pas aux robots, comme la douleur. Il est encore une fois important de s’assurer que la terminologie est claire : ce que fait LaMDA, c’est émuler un système nerveux, et non simuler.

Cela signifie que LaMDA, en tant que Large Language Model (LLM), génère des phrases dans le seul but qu’elles soient perçues comme le résultat d’un système nerveux viable et fonctionnel. La simulation d’un système nerveux réel pourrait sans doute conduire à la sensibilité pour l’intelligence artificielle, mais elle n’est pas technologiquement réalisable à ce stade, principalement en raison de la complexité d’une telle tâche.

Je conclurais par ce sentiment : Ne laissez jamais vos hypothèses limiter votre imagination et vos attentes quant aux possibles avancées technologiques à réaliser. Tout comme les chevaux ont été largement considérés comme irremplaçables lors de l’avènement des automobiles, l’IA pourrait atteindre un niveau où elle réduirait la marge entre elle-même et les êtres sensibles au point que nous serions incapables de lui reprocher sa sensibilité . Mais il faut reconnaître qu’à l’heure actuelle, l’IA n’est pas sensible, et qu’elle ne le sera probablement pas dans un avenir prévisible.

Votre entreprise cherche-t-elle à développer une intelligence artificielle conforme aux définitions proposées de la sensibilité ? Vous pourriez avoir droit à un financement. Parlez à l’un de nos consultants dès aujourd’hui et gratuitement pour en savoir plus!

Author

Hamza
Hamza Ait Hssayene

Innovation Funding Consultant

Découvrir nos derniers articles

Voir plus arrow_forward
Urbanization & Smart cities

Urbanisation et émergence des villes intelligentes

Les taux élevés et rapides d'urbanisation offrent la possibilité de développer des villes intelli...

ecoperformance

Connaître vos subventions – Épisode 11: Programme ÉcoPe...

Laissez notre expert répondre à toutes vos questions sur le programme ÉcoPerformance et comment v...

Environmental impacts of crypto

La mine de crypto-monnaies : L’impact sur l’enviro...

La mine de crypto-monnaies crée un stress environnemental. Le minage de crypto-monnaies a des rép...

AI industry article header

L’industrie de l’IA et son impact sur notre société

Qu'elle nous apporte un confort dans notre quotidien ou qu'elle aide les entreprises dans leur st...