Peste 200 de politicieni și oameni de știință proeminenți, printre care 10 laureați ai Premiului Nobel și mulți cercetători de renume în domeniul Inteligenței Artificiale, au lansat luni dimineață un apel urgent pentru adoptarea de măsuri internaționale obligatorii împotriva utilizărilor periculoase ale IA.
Maria Ressa (foto), laureată a Premiului Nobel pentru Pace a anunțat scrisoarea în discursul său de deschidere a Adunării Generale a Națiunilor Unite. Ea a implorat guvernele să se unească pentru a „preveni riscurile universal inacceptabile” ale IA și pentru a „defini ceea ce IA nu ar trebui să aibă voie să facă niciodată”.
Avertizând că „traiectoria actuală a IA prezintă pericole fără precedent”, declarația, Apelul global pentru stabilirea unor limite în folosirea IA declară că „este necesar un acord internațional privind limite clare și verificabile”.
Scrisoarea deschisă îndeamnă factorii de decizie să adopte acordul până la sfârșitul anului 2026, având în vedere progresul rapid al capacităților IA, relateaz[ NBC News.
Semnatarii cer limite clare în folosirea IA, înainte ca tehnologia să remodeleze societatea dincolo de înțelegerea noastră și să distrugă fundamentele umanității
Pe lângă laureații Premiului Nobel pentru chimie, economie, pace și fizică, printre semnatari se numără autori celebri precum Stephen Fry și Yuval Noah Harari, precum și foști șefi de stat, printre care fosta președintă a Irlandei Mary Robinson, și fostul președinte al Columbiei Juan Manuel Santos, care a primit Premiul Nobel pentru Pace în 2016.
Geoffrey Hinton și Yoshua Bengio, laureați ai prestigiosului premiu Turing și doi dintre cei trei așa-numiți „nași ai IA”, au semnat și ei scrisoarea deschisă. Premiul Turing este adesea considerat drept Premiul Nobel pentru informatică.
Hinton a părăsit o poziție prestigioasă la Google în urmă cu doi ani pentru a sensibiliza opinia publică cu privire la pericolele dezvoltării necontrolate a IA.
Semnatarii provin din zeci de țări, inclusiv din țări lider în domeniul IA, precum Statele Unite și China.
„De mii de ani, oamenii au învățat – uneori pe calea cea grea – că tehnologiile puternice pot avea consecințe periculoase, dar și benefice”, a spus Harari. „Oamenii trebuie să cadă de acord asupra unor limite clare pentru IA înainte ca tehnologia să remodeleze societatea dincolo de înțelegerea noastră și să distrugă fundamentele umanității noastre,” a adăugat Harari.
IA atrage o atenție din ce în ce mai mare și apar tot mai des știri despre utilizarea sa în scopul supravegherii în masă, despre capacitatea sa de a răspândi dezinformarea și chiar de a submina simțul nostru comun al realității.
Riscul folosirii IA pentru pandemii provocate intenționat și încălcării sistematice ale drepturilor omului
Scrisoarea avertizează că riscurile actuale ale IA ar putea fi rapid umbrite de impacturi mai devastatoare și la scară mai largă.
De exemplu, scrisoarea face referire la afirmațiile recente ale experților potrivit cărora IA ar putea contribui în curând la șomajul în masă, la pandemii provocate artificial și la încălcări sistematice ale drepturilor omului.
Scrisoarea nu oferă recomandări concrete, afirmând că oficialii guvernamentali și oamenii de știință trebuie să negocieze unde se află limitele, pentru a asigura consensul internațional.
Apelul oferă însă sugestii pentru unele limite, cum ar fi interzicerea armelor autonome letale, replicarea autonomă a sistemelor de IA și utilizarea IA în războiul nuclear.
„Este în interesul nostru comun vital să împiedicăm IA să provoace daune grave și potențial ireversibile umanității și ar trebui să acționăm în consecință”, a declarat Ahmet Üzümcü, fostul director general al Organizației pentru Interzicerea Armelor Chimice, care a primit Premiul Nobel pentru Pace în 2013.
Ca semn al fezabilității efortului, declarația face referire la rezoluții internaționale similare care au stabilit limite în alte domenii periculoase, cum ar fi interzicerea armelor biologice sau a clorofluorocarburilor care distrug stratul de ozon.
Avertismentele cu privire la amenințările potențial existențiale ale IA nu sunt noi. În martie 2023, peste 1.000 de cercetători și lideri din domeniul tehnologiei, printre care Elon Musk, au solicitat o pauză în dezvoltarea sistemelor puternice de IA. Două luni mai târziu, liderii unor laboratoare de IA de renume, printre care Sam Altman de la OpenAI, Dario Amodei de la Anthropic și Demis Hassabis de la Google DeepMind, au semnat o declarație de o singură propoziție care pleda pentru tratarea riscului existențial al IA pentru umanitate cu aceeași seriozitate ca amenințările reprezentate de războiul nuclear și pandemii.
Altman, Amodei și Hassabis nu au semnat ultima scrisoare, deși cercetători proeminenți în domeniul IA, precum cofondatorul OpenAI, Wojciech Zaremba, și omul de știință de la DeepMind, Ian Goodfellow, au făcut-o.
În ultimii ani, companiile americane de top din domeniul IA au semnalat adesea dorința de a dezvolta sisteme de IA sigure și fiabile, de exemplu prin semnarea unui acord axat pe siguranță cu Casa Albă în iulie 2023 și aderarea la Frontier AI Safety Commitments (Angajamentele Frontier AI privind siguranța) la Summitul IA de la Seul din mai 2024.
Cu toate acestea, cercetări recente au arătat că, în medie, aceste companii îndeplinesc doar aproximativ jumătate din aceste angajamente voluntare, iar liderii mondiali le-au acuzat că acordă prioritate profitului și progresului tehnic în detrimentul bunăstării sociale.
Companii precum OpenAI și Anthropic permit, de asemenea, în mod voluntar, Centrului pentru Standarde și Inovare în domeniul IA, un birou federal axat pe eforturile americane în domeniul IA, și Institutului pentru Securitate în domeniul IA din Regatul Unit să testeze și să evalueze modelele de IA din punct de vedere al siguranței înainte de lansarea publică a acestora. Cu toate acestea, mulți observatori au pus la îndoială eficacitatea și limitele unei astfel de colaborări voluntare.
Apelul adresat luni diferă de cele din trecut prin faptul că pledează pentru limitări obligatorii.
Scrisoarea deschisă este prima care include câștigători ai Premiului Nobel dintr-o gamă largă de discipline științifice. Printre semnatarii câștigători ai Premiului Nobel se numără biochimista Jennifer Doudna, economistul Daron Acemoglu și fizicianul Giorgio Parisi.
Primul organism ONU dedicat IA
ONU va lansa joi primul său organism diplomatic dedicat IA, în cadrul unui eveniment prezidat de prim-ministrul spaniol Pedro Sanchez și secretarul general al ONU, António Guterres.
Peste 60 de organizații ale societății civile din întreaga lume și-au exprimat sprijinul pentru scrisoare, de la grupul de reflecție Demos din Regatul Unit până la Institutul de Siguranță și Guvernanță în domeniul IA din Beijing.
Apelul global pentru stabilirea unor limite în domeniul IA este organizat de trei organizații non-profit: Centrul pentru IA compatibilă cu omul de la Universitatea din California, Berkeley, The Future Society și Centrul francez pentru siguranța IA.
(Citește și: OpenAI lansează ChatGPT-5 – Cursa globală pentru inteligența artificială accelerează)
****