DeepMind diu que no tenia res a veure amb el document de recerca que digués que la intel·ligència artificial podria acabar amb la humanitat

Imatge: NurPhoto / Col·laborador a través de Getty Images

Després que un investigador amb una posició a DeepMind, l'empresa d'intel·ligència de màquines propietat de la matriu de Google, Alphabet, va ser coautor d'un article que afirmava que la IA podria acabar amb la humanitat algun dia, DeepMind s'està distanciant del treball.



El document es va publicar recentment a la revista peer-reviewed Revista AI, i va ser coautor d'investigadors de la Universitat d'Oxford i de Marcus Hutter, un investigador d'IA que treballa a DeepMind. La primera línia del lloc web de Hutter diu el següent: 'Sóc investigador sènior de Google DeepMind a Londres, i professor honorari a la Research School of Computer Science ( RSCS ) a la Universitat Nacional d'Austràlia ( cosa umajig ) a Canberra.' El diari, que actualment enumera la seva afiliació a DeepMind i ANU, realitza alguns experiments de pensament sobre el futur de la humanitat amb una IA superintel·ligent que funciona utilitzant esquemes similars als programes d'aprenentatge automàtic actuals, com ara la recerca de recompenses. Va concloure que aquest escenari podria esclatar en un joc de suma zero entre humans i IA que seria 'fatal' si la humanitat perd.






Després de la publicació de la placa base un article en aquest article amb el títol 'Google Deepmind Researcher Co-Authors Paper Saying AI Will Eliminate Humanity', la companyia va decidir distanciar-se del document i demanar a Motherboard que retirés la menció de l'empresa. En una declaració a Motherboard, DeepMind va afirmar que l'afiliació figurava com a 'error' i s'estava eliminant (no ho havia estat en el moment d'escriure aquest escrit), i que la contribució de Hutter estava únicament sota la bandera de la seva posició universitària.





'DeepMind no va participar en aquest treball i els autors del document han sol·licitat correccions per reflectir-ho', va dir un portaveu de DeepMind a Motherboard en un correu electrònic. 'Hi ha una àmplia gamma d'opinions i interessos acadèmics a DeepMind, i molts del nostre equip també ho mantenen. professors universitaris i realitzar investigacions acadèmiques separades del seu treball a DeepMind, a través de les seves afiliacions universitàries'.

El portaveu va dir que, tot i que DeepMind no va participar en el document, la companyia inverteix esforços en protegir-se dels usos nocius de la IA i pensa 'profundament en la seguretat, l'ètica i els impactes socials més amplis de la IA i investigar i desenvolupar models d'IA que siguin segurs. , eficaç i alineat amb els valors humans”.






DeepMind es va negar a comentar si estava d'acord amb les conclusions del document coautor de Hutter.



Michael Cohen, un dels coautors del document, també va demanar a Motherboard una correcció similar. La política editorial de la placa base és no corregir un titular tret que contingui un error de fet.

Tot i que l'empresa diu que està compromesa amb la seguretat i l'ètica de la intel·ligència artificial, anteriorment va demostrar que quan les crítiques són una mica massa fortes per part de persones amb càrrecs a l'empresa, independentment de si també tenen compromisos externs, està molt content de tallar-se i executar-se.

Per exemple, el 2020, el destacat investigador d'IA Timnit Gebru, que en aquell moment tenia una posició a Google, va ser coautor d'un article sobre consideracions ètiques en grans models d'aprenentatge automàtic. Google va exigir que retirés el seu nom de la publicació i la retractés, i finalment la va acomiadar . L'expulsió de Gebru va provocar que els empleats de Google publiquessin un bloc explicant els detalls que van conduir a l'acomiadament, inclòs que el document s'havia aprovat internament; només després que va passar a l'atenció pública, Google va decidir que no es podia associar amb l'obra i va exigir que s'eliminés de la situació. Quan no va poder, l'empresa va deixar anar Gebru.

En resposta a la primera història de la placa base sobre el diari, Gerbu va piular que quan li va preguntar a Google si podia afegir el seu nom al document d'ètica de la IA que finalment la va portar a acomiadar-la amb una afiliació que no era Google, 'es va trobar amb un riure'.

Margret Mitchell, una altra ètica de la IA que va ser acomiadat de Google al mateix temps que Gerbu va piular que Google els va dir que, sempre que treballessin a l'empresa, Google 'va tenir tota la veu sobre el que vam publicar'.

Tenir múltiples afiliacions a l'acadèmia i al sector privat és relativament normal, i ve amb el seu propi conjunt de preocupacions ètiques plenes a veure amb la llarga història de les corporacions de captar l'acadèmia per produir investigacions favorables. El que Google ha demostrat és que aprofitarà aquesta divisió borrosa per treure les crítiques quan li convingui.