fbpx

Cette IA jugée trop dange­reuse pour être relâ­chée vient d’être relâ­chée

par   Malaurie Chokoualé Datou   | 8 novembre 2019
Crédits : OpenAI

OpenAI crai­gnait que son intel­li­gence arti­fi­cielle « GPT-2 » soit détour­née par des utili­sa­teurs·­rices malin­ten­tion­né·e·s à des fins malveillantes, de sorte qu’il avait été décidé que ce géné­ra­teur auto­ma­tique de texte extrê­me­ment perfor­mant ne serait pas diffusé dans l’im­mé­diat au grand public. Mais selon The Inde­pendent, OpenAI a fina­le­ment décidé le 5 novembre dernier de reve­nir sur sa déci­sion.

« GPT-2 » est une machine surpre­nante, nour­rie par une base de données de 40 Go de textes trou­vés sur Inter­net. Capable d’écrire la suite d’un texte par simple déduc­tion, en variant le style et le ton dans l’écri­ture selon la demande de l’uti­li­sa­teur·­rice, « GPT-2 » apprend seul, sans qu’au­cune super­vi­sion ne soit néces­saire.

L’IA présen­tée le 14 février 2019 par l’or­ga­ni­sa­tion sans but lucra­tif OpenAI dans une démo, les cher­cheurs·euses n’avaient alors publié qu’une partie de leurs résul­tats, jugeant que cette IA était telle­ment avan­cée qu’elle était poten­tiel­le­ment dange­reuse. L’écri­ture de « GPT-2 » pouvant diffi­ci­le­ment se distin­guer de celle d’un être humain, iels avaient peur que l’IA soit utili­sée pour géné­rer des fake news ou encore usur­per l’iden­tité de quelqu’un…

En rendant publique une version complète de cette IA, les cher­cheurs·euses espèrent aider le public à comprendre comment un tel outil pour­rait être utilisé à mauvais escient. Iels dési­rent en outre contri­buer à éclai­rer les discus­sions des expert·e·s sur les moyens de réduire ce danger. Espé­rons qu’il ne tombera pas entre de mauvaises mains dans l’in­ter­valle.

Source : The Inde­pendent

Premium WordPress Themes Download
Free Download WordPress Themes
Download Premium WordPress Themes Free
Free Download WordPress Themes
download udemy paid course for free

Plus de turfu