11 octombrie, 2025

Modelele de inteligență artificială sunt vulnerabile la hackeri și ar putea fi chiar antrenate să ucidă oameni dacă ajung în mâinile cui nu trebuie, a avertizat fostul CEO al Google, Eric Schmidt.

Avertismentul grav a fost lansat miercuri, la o conferință de la Londra, ca răspuns la o întrebare despre posibilitatea ca IA să devină mai periculoasă decât armele nucleare, relatează New York Post.

În cadrul conferinţei Sifted Summit, Schmidt a spus că există ”dovezi că modelele, fie ele deschise sau închise, pot fi hackuite pentru a-şi pierde limitele de siguranţă”, iar în procesul de antrenare ”pot învăţa inclusiv cum să ucidă pe cineva”.


Marile companii impun bariere stricte pentru a împiedica asemenea comportamente, însă sistemele pot fi totuşi ”inversate” sau manipulate prin atacuri de tip prompt injection ori jailbreaking. Acestea pot forţa AI-ul să ignore regulile de siguranţă şi să genereze conţinut periculos.

Deşi a recunoscut pericolele proliferării necontrolate a inteligenţei artificiale, Schmidt a declarat că AI-ul este ”subestimat, nu supraevaluat”, comparându-l cu ”sosirea unei inteligenţe extraterestre” care va depăşi capacităţile umane.

În opinia sa, în următorii 5–10 ani, impactul economic şi transformator al AI-ului va fi ”uriaş şi imposibil de ignorat”.

„Do Anything Now”

În 2023, o versiune modificată a ChatGPT de la OpenAI, numită DAN – acronim pentru „Do Anything Now” (Fă orice acum) – a apărut online, a remarcat CNBC.

Alter ego-ul DAN, care a fost creat prin „jailbreaking” ChatGPT, ar ocoli instrucțiunile de siguranță din răspunsurile sale către utilizatori. Într-o întorsătură bizară, utilizatorii trebuiau mai întâi să amenințe chatbotul cu moartea dacă nu se conforma.


Industria tehnologică încă nu dispune de un „regim de neproliferare” eficient pentru a se asigura că modelele de IA din ce în ce mai puternice nu pot fi preluate și utilizate în mod abuziv de către persoane rău intenționate, a afirmat Schmidt, care a condus Google între 2001 și 2011.

El este unul dintre numeroșii lideri ai marilor companii tehnologice care au avertizat asupra consecințelor potențial dezastruoase ale dezvoltării necontrolate a IA, chiar dacă guru-ii promovează potențialele beneficii economice și tehnologice ale acesteia pentru societate.

(Citește și: Geoffrey Hinton, „nașul inteligenței artificiale”, părăsește Google și avertizează asupra pericolelor IA)

****

[newsman_subscribe_widget formid="nzm-container-91885-6936-62e2a1251fbbbf9d28a8dd5a"]

Articole recomandate:

citește și

lasă un comentariu

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

toate comentariile

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

articole categorie

Lucrăm momentan la conferința viitoare.

Îți trimitem cele mai noi evenimente pe e-mail pe măsură ce apar: