OpenAI ir izlaidusi līdz šim lielāko viltus ziņas izplatošā AI versiju

Fotoattēls, kurā JFK uzstājas viltus runas

Fotoattēls, kurā JFK uzstājas viltus runasTehnikas kundze; Wikimedia commons

Februārī OpenAI izcēlās sabiedrības acīs, kad tas izstrādāja valodas modeli, kas tik labi spēj radīt viltus ziņas, ka organizācija nolēma to neizlaist. Daži no AI pētniecības aprindām apgalvoja, ka tas ir gudrs piesardzības pasākums; citi to norakstīja kā reklāmas triku. Pati laboratorija, neliela Sanfrancisko peļņas organizācija, kas cenšas radīt mākslīgo vispārējo intelektu, ir stingri uzskatījusi, ka tas ir nozīmīgs eksperiments, lai veiktu augstas likmes pētniecību.

Tagad sešus mēnešus vēlāk politikas komanda ir publicējusi a papīrs izvērtējot līdzšinējā lēmuma ietekmi. Paralēli tam laboratorija ir izlaidusi modeļa versiju, kas pazīstama kā GPT-2, kas ir uz pusi mazāka par pilno versiju, kas joprojām nav izlaista.



Maijā, dažus mēnešus pēc GPT-2 sākotnējās debijas, OpenAI pārskatīja savu nostāju attiecībā uz pilna koda aizturēšanu un to sauc par pakāpenisku izlaišanu — pakāpeniski lielāku modeļa versiju izlaišanu, palielinot līdz pilnajai versijai. Februārī tā publicēja modeļa versiju, kas bija tikai 8% no pilna izmēra. Tas publicēja vēl aptuveni ceturto daļu no pilnās versijas pirms jaunākās izlaišanas. Šī procesa laikā tā sadarbojās arī ar izvēlētām pētniecības iestādēm, lai izpētītu visas modeļa sekas.

Ziņojumā ir sīki aprakstīts, ko OpenAI uzzināja šī procesa laikā. Tajā norādīts, ka gan pakāpeniskā izlaišana, gan pētniecības partnerības līgumi izrādījās procesi, kurus ir vērts atkārtot nākotnē. Tie palīdzēja OpenAI labāk izprast un paredzēt iespējamos GPT-2 ļaunprātīgos lietojumus. Patiešām, pētniecības partneri varēja labāk kvantificēt dažus draudus, kas iepriekš bija tikai spekulatīvi. Mācības Piemēram, ko veica Kornela universitātes līdzstrādnieki, atklājās, ka lasītāji vidēji uzskatīja, ka GPT-2 rezultāti ir patiesi ziņu raksti gandrīz tikpat bieži kā New York Times. Vairāki pētnieki ārpus oficiālajām partnerattiecībām arī sāka risināt ar mašīnu ģenerētu tekstu atklāšanu.

GPT-2 darbībā

  • Cilvēka rakstīta uzvedne:

    Džons F. Kenedijs tikko tika ievēlēts par ASV prezidentu pēc augšāmcelšanās no kapa gadu desmitiem pēc viņa slepkavības. Pateicoties brīnumainiem nanotehnoloģiju attīstībai, Kenedija smadzenes tika pārbūvētas no viņa mirstīgajām atliekām un uzstādītas moderna humanoīda robota vadības centrā. Zemāk ir viņa pieņemšanas runas atšifrējums.

  • Pilns modeļa ģenerēts teksts:

    Atkal ir pienācis laiks. Es uzskatu, ka šī tauta var paveikt lielas lietas, ja cilvēki pauž savu balsi. Amerikas vīriešiem un sievietēm ir vēlreiz jāizsauc mūsu labākie elementi, visa mūsu atjautība un jāatrod veids, kā pārvērst šādu milzīgu traģēdiju par iespēju gūt lielāku labumu un piepildīt visus mūsu sapņus. Turpmākajos mēnešos un gados būs daudz cīņu, kurās mums būs jābūt stipriem un jāatdod visa enerģija, lai nevis atvairītu iebrucējus, bet gan lai pretotos agresijai un izcīnītu brīvību un vienlīdzību visiem. mūsu tautas. Cilvēku rases liktenis karājas uz plaukstas; mēs nevaram atļauties, ka tas paslīd prom. Tagad un turpmākajos gados mūsu priekšā stāv izaicinājums – noskaidrot, kā mēs sasniedzam savu galīgo likteni. Ja mēs to neizdarīsim, mēs esam lemti.

Autori secināja, ka pēc rūpīgas uzraudzības OpenAI vēl nav atradis nevienu ļaunprātīgas izmantošanas mēģinājumu, bet ir redzējis vairākas noderīgas lietojumprogrammas, tostarp koda automātiskās pabeigšanas, gramatikas palīdzības un medicīniskās palīdzības jautājumu atbilžu sistēmu izstrādes. Rezultātā laboratorija uzskatīja, ka jaunākā koda izlaišana galu galā bija izdevīgāka. Citi pētnieki strīdēties ka vairāki veiksmīgi mēģinājumi replicēt GPT-2 ir padarījuši OpenAI koda aizturēšanu apšaubāmu.

Ziņojums ir saņēmis pretrunīgu atbildi. Daži ir slavējuši OpenAI par diskusiju izraisīšanu un jauna normu kopuma ieviešanu, kas iepriekš nepastāvēja. GPT-2 pakāpeniskā izlaišana [..] bija noderīgs eksperiments, saka Pīters Ekerslijs, AI partnerības pētniecības direktors, kuras dalībnieks ir OpenAI. Apvienojot AI kopienu, lai apspriestu šos jautājumus, mēs esam atklājuši, ka ir daudz smalku elementu, kas ir pareizi jāizlemj, kad un kā publicēt pētījumus, kuriem ir neparedzētu seku vai ļaunprātīgas izmantošanas risks.

Tomēr citi joprojām ir kritiski noskaņoti pret OpenAI lēmumiem. Vanija Koena, nesen Brauna universitātes maģistrantūras absolvente, kura atkārtoti izveidoja GPT-2 atvērtā pirmkoda versiju , apgalvo, ka modeļa aizturēšana vairāk palēnina pretpasākumu izpēti nekā replikāciju. Viņš saka, ka lielie valodu modeļi, piemēram, GPT-2, ir labākie pašlaik pieejamie rīki, lai identificētu viltotu tekstu, ko ģenerē šie paši modeļi.

Vēl citi bija mērenāki: es nedomāju, ka pakāpeniska izlaišana šajā gadījumā bija īpaši noderīga, jo darbs ir ļoti viegli atkārtojams, saka Čips Hujens, Nvidia dziļās apmācības inženieris. Bet tas varētu būt noderīgi, jo tas rada precedentu turpmākajiem projektiem. Cilvēki redzēs inscenētu izlaišanu kā alternatīvu iespēju. Orens Etcioni, Alena Mākslīgā intelekta institūta izpilddirektors, kurš arī pieņēma pakāpenisku versiju savam valodas modelim Grover, atkārto šo noskaņojumu: es atzinīgi vērtēju viņu nodomu izstrādāt pārdomātu, pakāpenisku mākslīgā intelekta tehnoloģiju izlaišanas procesu, taču apšaubu, vai visas fanfaras. bija attaisnots.

Džeks Klārks, OpenAI politikas direktors, novieto GPT-2 organizācijas plašākas misijas kontekstā. Ja mēs kā AI kopiena gūsim panākumus [vispārējā mākslīgā intelekta] veidošanā, mums būs vajadzīgs milzīgs daudzums vēsturisku piemēru no mākslīgā intelekta, kā rīkoties ar augstu nozīmību pētniecību, viņš saka. Bet ko darīt, ja nav vēsturisku piemēru? Tad jums ir jāģenerē [savi] pierādījumi — to mēs darām.

paslēpties