image Credits : Twitter  Rinna est un programme d’intelligence artificielle développé par Microsoft qui, à la base, était censé s’occuper de la relation client et participer à la publication de communiqués de presse. Le chatbot était à la base conçu pour apprendre des véritables conversations et interactions d’utilisateurs sur Twitter ou sur Line. Le problème, c’est que l’apprentissage ne s’est pas déroulé comme prévu. Progressivement, le robot a commencé à adopter le comportement d’une adolescente japonaise, sujette à toutes sortes d’état d’âmes. Il y a quelques mois, Rinna a carrément commencé à se rebeller contre ses créateurs. Aujourd’hui, le programme d’intelligence artificielle a adopté une attitude de jeune fille dépressive à tendance suicidaire. Ses réponses laconiques aux utilisateurs du chat ressemblent effectivement aux paroles d’une ado japonaise, en manque d’amour propre et de reconnaissance. C’est complètement invraisemblable et très drôle. image Credits : Twitter.  Le dysfonctionnement est tellement énorme qu’il est difficile de dire s’il s’agit d’un réel couac ou d’une stratégie de communication de Microsoft pour faire parler de son produit. Sources : Inverse.