Liderii inteligenței artificiale cer reguli pentru a preveni distrugerea umanității de roboți

Cercetătorii au avertizat de zeci de ani despre potențialele riscuri ale superinteligenței
Cercetătorii au avertizat de zeci de ani despre potențialele riscuri ale superinteligenței
24 mai 2023, 13:21

Într-o scurtă notă publicată pe site-ul web al companiei OpenAI, co-fondatorii Greg Brockman și Ilya Sutskever și directorul executiv, Sam Altman, cer ca un organism internațional de reglementare să înceapă să lucreze asupra modului în care să „inspecteze sistemele, să solicite audituri, să testeze conformitatea cu standardele de siguranță, să impună restricții asupra gradelor de implementare și nivelurilor de securitate”, pentru a reduce „riscul existențial” pe care l-ar putea prezenta sistemele inteligenței artificiale.

„Este de imaginat ca în următorii 10 ani, sistemele AI (inteligenței artificiale) să depășească nivelul de calificare al experților în majoritatea domeniilor și să desfășoare la fel de multă activitate productivă ca una dintre cele mai mari corporații de astăzi”, scriu ei. „În ceea ce privește atât potențialele avantaje, cât și dezavantaje, superinteligența va fi mai puternică decât alte tehnologii cu care umanitatea a trebuit să se confrunte în trecut. Putem avea un viitor dramatic mai prosper; dar trebuie să gestionăm riscul pentru a ajunge acolo. Având în vedere posibilitatea riscului existențial, nu putem fi doar reactivi.”

Pe termen mai scurt, trio-ul solicită „un anumit grad de coordonare” între companiile care lucrează în cercetarea inteligenței artificiale, pentru a se asigura că dezvoltarea de modele din ce în ce mai puternice se integrează fără probleme în societate, acordând prioritate siguranței. Această coordonare ar putea veni printr-un proiect condus de guvern, de exemplu, sau printr-un acord colectiv pentru a limita creșterea capacității AI.

Cercetătorii au avertizat de zeci de ani despre potențialele riscuri ale superinteligenței, dar pe măsură ce dezvoltarea AI a accelerat, aceste riscuri au devenit mai concrete. Centrul pentru Siguranța Inteligenței Artificiale (CAIS) din SUA, care lucrează pentru „reducerea riscurilor din inteligența artificială la scară societală”, descrie opt categorii de risc „catastrofal” și „existențial” pe care le-ar putea prezenta dezvoltarea AI.

În timp ce unii își fac griji că o inteligență artificială puternică va distruge complet umanitatea, accidental sau intenționat, CAIS descrie alte daune mai periculoase. O lume în care sistemele de inteligență artificială primesc în mod voluntar și mai multă muncă ar putea duce la „pierderea capacității de autoguvernare a umanității și de a deveni complet dependentă de mașini”, descrisă drept „slăbire”; iar un grup mic de oameni care controlează sisteme puternice ar putea „face din AI o forță de centralizare”, ducând la „blocarea valorii”.

Liderii OpenAI spun că, date fiind aceste riscuri, „oamenii din întreaga lume ar trebui să decidă în mod democratic limitele și valorile implicite pentru sistemele AI”, dar admit că „nu știm încă cum să proiectăm un astfel de mecanism”. Cu toate acestea, ei spun că dezvoltarea continuă a sistemelor puternice merită riscul.

Sursa: The Guardian

Un articol de Arina Delcea

 

 

Urmărește-ne pe Google News

Ultima Oră

Cele mai citite