Add Your Heading Text Here

11 octombrie, 2025

Modelele de inteligență artificială sunt vulnerabile la hackeri și ar putea fi chiar antrenate să ucidă oameni dacă ajung în mâinile cui nu trebuie, a avertizat fostul CEO al Google, Eric Schmidt.

Avertismentul grav a fost lansat miercuri, la o conferință de la Londra, ca răspuns la o întrebare despre posibilitatea ca IA să devină mai periculoasă decât armele nucleare, relatează New York Post.

În cadrul conferinţei Sifted Summit, Schmidt a spus că există ”dovezi că modelele, fie ele deschise sau închise, pot fi hackuite pentru a-şi pierde limitele de siguranţă”, iar în procesul de antrenare ”pot învăţa inclusiv cum să ucidă pe cineva”.


Marile companii impun bariere stricte pentru a împiedica asemenea comportamente, însă sistemele pot fi totuşi ”inversate” sau manipulate prin atacuri de tip prompt injection ori jailbreaking. Acestea pot forţa AI-ul să ignore regulile de siguranţă şi să genereze conţinut periculos.

Deşi a recunoscut pericolele proliferării necontrolate a inteligenţei artificiale, Schmidt a declarat că AI-ul este ”subestimat, nu supraevaluat”, comparându-l cu ”sosirea unei inteligenţe extraterestre” care va depăşi capacităţile umane.

În opinia sa, în următorii 5–10 ani, impactul economic şi transformator al AI-ului va fi ”uriaş şi imposibil de ignorat”.

„Do Anything Now”

În 2023, o versiune modificată a ChatGPT de la OpenAI, numită DAN – acronim pentru „Do Anything Now” (Fă orice acum) – a apărut online, a remarcat CNBC.

Alter ego-ul DAN, care a fost creat prin „jailbreaking” ChatGPT, ar ocoli instrucțiunile de siguranță din răspunsurile sale către utilizatori. Într-o întorsătură bizară, utilizatorii trebuiau mai întâi să amenințe chatbotul cu moartea dacă nu se conforma.


Industria tehnologică încă nu dispune de un „regim de neproliferare” eficient pentru a se asigura că modelele de IA din ce în ce mai puternice nu pot fi preluate și utilizate în mod abuziv de către persoane rău intenționate, a afirmat Schmidt, care a condus Google între 2001 și 2011.

El este unul dintre numeroșii lideri ai marilor companii tehnologice care au avertizat asupra consecințelor potențial dezastruoase ale dezvoltării necontrolate a IA, chiar dacă guru-ii promovează potențialele beneficii economice și tehnologice ale acesteia pentru societate.

(Citește și: Geoffrey Hinton, „nașul inteligenței artificiale”, părăsește Google și avertizează asupra pericolelor IA)

****

[newsman_subscribe_widget formid="nzm-container-91885-6936-62e2a1251fbbbf9d28a8dd5a"]

Articole recomandate:

citește și

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.

lasă un comentariu

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

toate comentariile

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

articole categorie

Citește și:

Lucrăm momentan la conferința viitoare.

Îți trimitem cele mai noi evenimente pe e-mail pe măsură ce apar: