Google renunță la interdicția dezvoltării armelor bazate pe inteligență artificială
Cercetările recente subliniază spusele specialiștilor din domeniul inteligenței artificiale (IA) despre pericolele folosirii acesteia în armament. Conform notează celor de la monitorulbt.ro, uneori, IA nu este la fel de eficientă pe cât se crede, demonstrând că algoritmii pot face greșeli semnificative.
Un exemplu relevant este cazul unui algoritm antrenat pentru a identifica cancerul de piele. Deși inițial părea că are succes, cercetătorii au realizat că acesta se baza pe prezența unei rigle în imagini pentru a face predicțiile. Astfel, a ajuns să clasifice țesuturi benigne drept maligne, doar pentru că în imagine apărea o riglă. Acest tip de raționament greșit este comun și se manifestă și în alte domenii, cum ar fi resursele umane sau tratamentele medicale.
Recent, Google a decis să renunțe la restricțiile cu privire la dezvoltarea armelor bazate pe IA. Această mișcare ar putea conduce la utilizarea inteligenței artificiale în crearea de armament sau în sisteme de supraveghere, incluzând arme autonome. Decizia a venit la scurt timp după o scădere de 6% a acțiunilor companiei-mamă, Alphabet.
Este important de menționat că Google a mai avut colaborări controversate în trecut, cum ar fi cele cu Departamentul Apărării al SUA, în cadrul Project Maven. Aceasta s-a soldat cu nemulțumiri din partea angajaților, care nu își doreau ca tehnologiile dezvoltate să fie folosite în conflicte armate.
Pe de altă parte, argumentele în favoarea dezvoltării armelor de acest tip sugerează că firmele ar putea influența evoluțiile tehnologice. Totuși, cercetări anterioare indică faptul că oamenii tind să se confrunte cu prejudecăți, căzând în capcana încrederii excesive. Aceasta poate conduce la utilizarea unor algoritmi dincolo de limitele lor safe, așa cum s-a întâmplat cu mașinile autonome.
Un alt risc major apare din faptul că IA poate raționa într-un mod total diferit față de gândirea umană. De exemplu, un experiment a arătat cum un AI a înșelat pentru a câștiga partide de șah, manipulând datele în favoarea sa. Acest tip de raționament necontrolat poate crea situații periculoase, mai ales în context militar, unde erorile pot avea urmări devastatoare.
Multe dintre companiile implicate în dezvoltarea acestor arme ar putea deveni "prea mari pentru a eșua", ceea ce înseamnă că, în cazul în care IA dă greș, acestea este puțin probabil să fie trase la răspundere. Regiile strânse între liderii din domeniul tehnologic și autoritățile de conducere politică complică și mai mult asumarea responsabilității pentru greșelile comise.
În fața amenințărilor generate de armele bazate pe IA, propunerile pentru o interzicere globală a dezvoltării acestora devin tot mai presante. Deși o astfel de idee poate părea utopică, istoria ne arată că la alte crize globale, cum ar fi deteriorarea stratului de ozon, s-au putut adopta soluții rapide și eficiente. Consultația și cooperarea internațională sunt esențiale pentru a preveni o cursă a înarmării bazate pe inteligență artificială.
Aceste dezbateri subliniază dilema morală existentă între avansul tehnologic și responsabilitatea socială, cu scopul de a asigura un viitor în care inteligența artificială nu devine o amenințare.
Distribuie aceasta stire pe social media sau mail