23 octombrie, 2025

Un grup de personalități proeminente, inclusiv experți în inteligență artificială și tehnologie, a cerut încetarea eforturilor de a crea „superinteligență” — o formă de inteligență artificială care ar depăși oamenii în practic toate sarcinile cognitive, scrie CNBC.

Peste 850 de persoane, inclusiv lideri din domeniul tehnologiei precum fondatorul Virgin Group, Richard Branson, și cofondatorul Apple, Steve Wozniak, au semnat o declarație publicată miercuri prin care se solicită o pauză în dezvoltarea superinteligenței.

Lista semnatarilor este condusă de pionieri proeminenți ai inteligenței artificiale, inclusiv informaticienii Yoshua Bengio și Geoff Hinton, considerați pe scară largă „părinții” inteligenței artificiale moderne. Printre semnatari se numără și cercetători de top în domeniu, precum Stuart Russell de la Universitatea California, Berkeley.


Termenul „superinteligență” a devenit un cuvânt la modă în lumea AI, pe măsură ce companii precum xAI a lui Elon Musk și OpenAI a lui Sam Altman concurează pentru a lansa modele lingvistice de mari dimensiuni tot mai avansate. Meta, în mod notabil, a mers până la a-și numi divizia de LLM-uri „Meta Superintelligence Labs.”

Riscurile invocate: Pierderea puterii de decizie, limitarea libertăților, riscuri de securitate națională și chiar posibila dispariție a omenirii

Însă semnatarii recentei declarații avertizează că perspectiva superinteligenței a „stârnit îngrijorări ce variază de la înlocuirea economică a oamenilor și pierderea puterii de decizie, la limitarea libertăților, demnității și controlului uman, până la riscuri de securitate națională și chiar posibila dispariție a omenirii.”

Aceștia cer interzicerea dezvoltării superinteligenței până când va exista un sprijin public solid pentru această tehnologie și un consens științific că ea poate fi construită și controlată în siguranță.

Pe lângă figuri din domeniul AI și al tehnologiei, semnatarii provin dintr-o coaliție largă ce include academicieni, personalități media, lideri religioși și un grup bipartizan de foști politicieni și oficiali americani.

Printre acești foști oficiali se numără fostul președinte al Comitetului Întrunit al Șefilor de State Majore, Mike Mullen, și fosta consilieră pentru securitate națională, Susan Rice.


În același timp, Steve Bannon și Glenn Beck — influenți aliați media ai președintelui american Donald Trump — apar, de asemenea, proeminent pe listă.

Alți semnatari de rang înalt includ membri ai familiei regale britanice, Prințul Harry și soția sa, Meghan, Ducesa de Sussex, precum și fosta președintă a Irlandei, Mary Robinson. Până miercuri, lista continua să crească.

„Apocalipticii AI” versus „Optimiștii AI”

Se conturează tot mai mult o diviziune în lumea tehnologiei între cei care văd AI-ul ca o forță benefică, ce merită o dezvoltare liberă, și cei care cred că este periculos și necesită o reglementare mai strictă.

Totuși, după cum subliniază site-ul care găzduiește „Declarația privind Superinteligența”, chiar și liderii unora dintre cele mai mari companii de inteligență artificială din lume, precum Musk și Altman, au avertizat în trecut asupra pericolelor superinteligenței.

Înainte de a deveni CEO al OpenAI, Altman scria într-o postare pe blog din 2015 că „dezvoltarea unei inteligențe artificiale supraomenești (SMI) este probabil cea mai mare amenințare la adresa existenței continue a umanității.”


La rândul său, Elon Musk a declarat într-un podcast, la începutul acestui an, că există „doar o șansă de 20% de anihilare” atunci când a vorbit despre riscurile ca AI-ul avansat să depășească inteligența umană.

Doar 5% dintre americani susțin „status quo-ul dezvoltării rapide și nereglementate” a superinteligenței

„Declarația privind Superinteligența” citează un sondaj recent al Future of Life Institute, care arată că doar 5% dintre americani susțin „status quo-ul dezvoltării rapide și nereglementate” a superinteligenței.

Sondajul, realizat pe un eșantion de 2.000 de adulți americani, a constatat, de asemenea, că majoritatea cred că „AI-ul suprauman” nu ar trebui creat până când nu se dovedește sigur sau controlabil și cer reglementări stricte privind AI-ul avansat.

Într-o declarație publicată pe site, informaticianul Yoshua Bengio a afirmat că sistemele AI ar putea depăși majoritatea oamenilor în cele mai multe sarcini cognitive în doar câțiva ani. El a adăugat că, deși astfel de progrese ar putea ajuta la rezolvarea provocărilor globale, ele aduc și riscuri semnificative.

„Pentru a avansa în siguranță către superinteligență, trebuie să determinăm științific cum să proiectăm sisteme AI care să fie fundamental incapabile să provoace daune oamenilor, fie prin nealiniere, fie prin utilizare malițioasă”, a spus el.


„De asemenea, trebuie să ne asigurăm că publicul are un cuvânt mult mai puternic de spus în deciziile care vor modela viitorul nostru colectiv.”

(Citește și: ”FMI: Boom-ul investițiilor în inteligență artificială ar putea duce la o prăbușire, dar este puțin probabil să provoace o criză sistemică”)

***

[newsman_subscribe_widget formid="nzm-container-91885-6936-62e2a1251fbbbf9d28a8dd5a"]

Articole recomandate:

citește și

lasă un comentariu

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

toate comentariile

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

articole categorie

Lucrăm momentan la conferința viitoare.

Îți trimitem cele mai noi evenimente pe e-mail pe măsură ce apar: