Un nouveau brevet technologique reçu par Microsoft a déclenché une série de débats en ligne.

En décembre 2020, Microsoft a reçu un brevet époustouflant du United States Patent and Trademark Office.

Son titre est «CRÉER UN CHATBOT CONVERSATIONNEL D’UNE PERSONNE SPÉCIFIQUE».

Bots modelés sur les gens

Le brevet décrit une méthode pour construire un chatbot sur le modèle d’une «personne spécifique».

Selon le dossier, il peut s’agir d’une «entité passée ou présente» – c’est-à-dire une personne décédée ou une personne vivante – «comme un ami, un parent, une connaissance, une célébrité, un personnage fictif, un personnage historique…»

Vous pouvez associer un «chatbot» au «Hello! Comment puis-je vous aider? » boîte de messagerie instantanée qui apparaît lorsque vous réservez une chambre d’hôtel ou que vous faites des achats en ligne.

Le dépôt, cependant, semble aller au-delà de cela. Une section du brevet se lit comme suit: «Un modèle 2D ou 3D d’une personne spécifique peut être généré…».

Ainsi, le brevet ouvre effectivement la voie à la création non seulement d’un «chatbot conversationnel»… Mais une version 3D réaliste et grandeur nature de n’importe qui, de votre personnage fictif préféré à vos grands-parents décédés.

Comment cela fonctionnerait-il?

Des données telles que «images, publications sur les réseaux sociaux, messages, données vocales et lettres écrites», attributs comportementaux tels que «intérêts des utilisateurs, opinions, etc.» et des informations démographiques telles que «l’âge, le sexe, l’éducation, la profession, le niveau de revenu, l’état de la relation, etc.» serait enseigné au bot.

Le but serait un robot qui pourrait «converser et interagir dans la personnalité de la personne spécifique».

Selon le brevet, cela signifie: « Converser dans la personnalité d’une personne spécifique peut inclure la détermination et / ou l’utilisation des attributs conversationnels de la personne spécifique, tels que le style, la diction, le ton, la voix, l’intention, la longueur et la complexité de la phrase / dialogue, sujet et cohérence. »

«C’est dérangeant»

, a approuvé le directeur général des programmes d’IA de Microsoft Tim O’Brien.

Le Tweet d’O’Brien a fait suite au choc en ligne causé par le brevet, des gens comparant la situation à un certain épisode de Black Mirror et exprimant leur inquiétude concernant la confidentialité et l’éthique.

«Avantages» et «problèmes»

O’Brien a commenté les avantages et les problèmes de la technologie sur Twitter, concluant finalement que le brevet n’est «tout simplement pas un scénario sur lequel nous travaillons».

Cependant, on ne sait pas du tout ce que Microsoft fera de ce brevet qu’il détient désormais à l’avenir.

Basé sur des niveaux d’éthique dépassés?

Microsoft a déposé une demande pour cette technologie en avril 2017, ce qui, selon O’Brien, «est antérieur aux examens éthiques de l’IA que nous effectuons aujourd’hui».

2017 était il y a seulement quatre ans et bien dans l’ère du développement de l’IA.

Mais apparemment, c’était trop tôt pour une stratégie d’éthique de l’IA non «dérangeante» chez Microsoft.

Ce n’est pas seulement pour soulever des questions sur Microsoft.

L’éthique et les processus d’un autre acteur devraient également être évalués – ceux de l’organisme gouvernemental américain qui a approuvé ce brevet tel quel.

Que pensez-vous de ce brevet?