OpenAI fixe un cadre pour l’avenir de l’IA

0

[ad_1]

La division recherche d’OpenAI se structure pour anticiper et corriger les drives du futur de l’IA. Une quipe ddie ce contrle a t cre et des moyens supplmentaires sont affectes.

Les chercheurs d’OpenAI travaillent sur les Ă©volutions de l’IA, capable de surpasser l’humain. Un problĂšme si ce dĂ©veloppement se fait sans contrĂŽle et sans Ă©thique. « Actuellement, nous n’avons aucune solution pour diriger ou contrĂŽler une IA potentiellement super intelligente et l’empĂȘcher de se comporter de maniĂšre dĂ©voyĂ©e », ont Ă©crit Jan Leike, chercheur en machine learning, et Ilya Sutskever, cofondateur et scientifique en chef d’OpenAI dans un billet de blog de la sociĂ©tĂ©. Ils ont ajoutĂ© que, mĂȘme si la probabilitĂ© de voir Ă©merger une IA supĂ©rieurement intelligente peut sembler lointaine, certains experts pensent que cela pourrait arriver dans le courant de la dĂ©cennie.

Parmi les techniques actuelles de bridage de l’IA Jan Leike et Ilya Sutskever citent l’apprentissage par renforcement Ă  partir du feedback humain, mĂ©thode dĂ©jĂ  utilisĂ©e dans le cadre du GPT. Mais, selon eux, Ă  mesure que les systĂšmes d’IA deviennent plus pertinents que les humains, il n’est plus possible de compter sur ces derniers pour superviser la technologie. « Les techniques d’alignement actuelles ne permettront pas d’atteindre la super intelligence. Il faut de nouvelles percĂ©es scientifiques et techniques », ont-ils Ă©crit.

AttĂ©nuer les dĂ©rives d’une super IA

Ilya Sutskever et Jan Leike codirigeront la nouvelle Ă©quipe en charge de l’alignement de l’OpenAI. Pour mener Ă  bien sa mission, la division aura accĂšs, au cours des quatre prochaines annĂ©es, Ă  20 % de la capacitĂ© de traitement de l’entreprise afin de dĂ©velopper un « systĂšme automatisĂ© capable d’aligner l’IA sur les capacitĂ©s humaines », lequel pourra ĂȘtre Ă©tendu pour superviser la super intelligence. Pour ĂȘtre en adĂ©quation avec l’éthique, les deux experts prĂ©conisent une approche en trois Ă©tapes : dĂ©velopper une mĂ©thode de formation Ă©volutive, valider le modĂšle rĂ©sultant et tester l’ensemble du pipeline d’alignement. « Il est certain que nos prioritĂ©s de recherche vont Ă©voluer de maniĂšre considĂ©rable Ă  mesure de notre comprĂ©hension du problĂšme et que nous orienterons nos recherches vers des domaines entiĂšrement nouveaux », prĂ©cisent-ils, ajoutant qu’ils prĂ©voient de fournir plus de dĂ©tails sur la feuille de route de la division.

Ce n’est pas la premiĂšre fois qu’OpenAI reconnaĂźt publiquement la nĂ©cessitĂ© d’attĂ©nuer les risques posĂ©s par une IA non rĂ©gulĂ©e. En mai, dans une lettre ouverte, le CEO de l’entreprise, Sam Altman, a affirmĂ© que le contrĂŽle de la technologie devrait ĂȘtre une prioritĂ© mondiale absolue, car l’Ă©volution de l’IA pourrait conduire Ă  une forme d’extinction de l’humanitĂ©. « Ce risque d’extinction par l’IA devrait ĂȘtre une prioritĂ© mondiale au mĂȘme titre que d’autres risques sociĂ©taux comme les pandĂ©mies et les guerres nuclĂ©aires », peut-on lire dans cette lettre. Dans une section dĂ©diĂ©e du site web d’OpenAI, le public peut accĂ©der Ă  des documents relatifs Ă  ce que l’entreprise appelle le dĂ©veloppement d’une « IA sĂ»re et responsable », ainsi qu’Ă  une charte dĂ©crivant les principes auxquels elle adhĂšre pour mener Ă  bien sa mission. Cependant, ces principes se rapportent essentiellement au concept d’intelligence artificielle gĂ©nĂ©rale (AGI), c’est-Ă -dire Ă  des systĂšmes hautement autonomes qui surpassent les humains dans la plupart des tĂąches Ă©conomiquement utiles. « Nous essaierons de construire des AGI d’emblĂ©e sĂ»res et bĂ©nĂ©fiques, mais nous considĂ©rerons aussi que notre mission est remplie si notre travail aide d’autres personnes Ă  atteindre ce rĂ©sultat », peut-on lire dans la charte publiĂ©e en 2018.

 

[ad_2]

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *