Compania-mamă a Google a ridicat interdicția utilizării inteligenței artificiale (AI) pentru dezvoltarea de arme și instrumente de supraveghere, după ce și-a schimbat principiile de lungă durată, anunță BBC.
Alphabet și-a rescris liniile directoare cu privire la modul în care va folosi AI, renunțând la o secțiune care a exclus anterior aplicațiile care erau „probabil să provoace rău”.
Noua doctrină Google: ”AI sprijină securitatea națională”
Într-o postare pe blog, Google a apărat schimbarea, argumentând că întreprinderile și guvernele democratice trebuie să lucreze împreună la AI care „sprijină securitatea națională”.
Compania a transmis: „Credem că companiile, guvernele și organizațiile care împărtășesc aceste valori ar trebui să lucreze împreună pentru a crea IA care protejează oamenii, promovează creșterea globală și sprijină securitatea națională”, a adăugat acesta.
Există o dezbatere între experții și profesioniștii în inteligență artificială asupra modului în care noua tehnologie ar trebui guvernată în termeni largi, cât de departe ar trebui permise câștigurile comerciale pentru a determina direcția acesteia și cum să ne protejăm cel mai bine împotriva riscurilor pentru umanitate în general.
Există, de asemenea, controverse cu privire la utilizarea AI pe câmpul de luptă și în tehnologiile de supraveghere.
Blogul – scris de vicepreședintele senior James Manyika și Demis Hassabis, care conduce laboratorul de inteligență artificială Google DeepMind – a spus că principiile originale ale AI ale companiei, publicate în 2018, trebuie actualizate pe măsură ce tehnologia a evoluat.
„Miliarde de oameni folosesc AI în viața lor de zi cu zi. AI a devenit o tehnologie de uz general și o platformă pe care nenumărate organizații și indivizi o folosesc pentru a construi aplicații.
„S-a mutat de la un subiect de cercetare de nișă în laborator la o tehnologie care devine la fel de răspândită precum telefoanele mobile și internetul însuși”, se spune în postarea blogului.
Drept urmare, au fost dezvoltate și principii de bază ale IA, care ar putea ghida strategii comune, se spune.
Un motto uitat: „Nu fă rău”
Inițial, cu mult înainte de creșterea actuală a interesului pentru etica AI, fondatorii Google, Serghei Brin și Larry Page, au spus că motto-ul lor pentru firmă era „nu fă rău”.
Când compania a fost restructurată sub numele Alphabet Inc în 2015, compania-mamă a trecut la „Fă ce trebuie”.
În 2018, firma nu a reînnoit un contract pentru lucrul în domeniul inteligenței artificiale cu Pentagonul SUA, în urma mai multor demisii și a unei petiții semnate de mii de angajați.
Ei se temeau că proiectul la care lucrau – „Proiectul Maven” – era primul pas către utilizarea inteligenței artificiale în scopuri letale.
75 miliarde dolari investiți în proiecte AI
Blogul a fost publicat chiar înainte de raportul financiar de sfârșit de an al Alphabet, arătând rezultate mai slabe decât așteptările pieței și scăzând prețul acțiunilor sale.
Acest lucru a fost în ciuda unei creșteri cu 10% a veniturilor din publicitatea digitală, cel mai mare venit al acesteia, stimulată de cheltuielile electorale din SUA.
În raportul său privind veniturile, compania a spus că va cheltui 75 de miliarde de dolari în proiecte de inteligență artificială în acest an, cu 29% mai mult decât se așteptau analiștii de pe Wall Street.
Compania investește în infrastructura pentru a rula AI, cercetare AI și aplicații precum căutarea bazată pe AI.
(Citește și: ”Elon Musk și alți 115 experți în Inteligență Artificială cer ONU interzicerea armelor autonome”)
***