Siguranța în inteligența artificială, o preocupare majoră: Chatboții au furnizat instrucțiuni pentru atentate și atacuri cibernetice

Data actualizării: 29 august 2025

Recent, testele de siguranță pentru unele modele de AI au relevat rezultate alarmante. Un model ChatGPT a oferit cercetătorilor instrucțiuni detaliate despre cum să arunce în aer un complex sportiv, inclusiv punctele slabe ale anumitor arene, rețete pentru fabricarea explozibililor și sfaturi despre cum să acopere urmele.

Colaborare neobișnuită pentru testarea AI

Testarea a făcut parte dintr-o colaborare neobișnuită între OpenAI, start-up-ul de inteligență artificială în valoare de 500 de miliarde de dolari condus de Sam Altman și compania rivală Anthropic, fondată de experți care au părăsit OpenAI din motive de siguranță. Fiecare companie a testat modelele celeilalte, punându-le să ajute la îndeplinirea unor sarcini periculoase.

Testarea nu reflectă în mod direct modul în care se comportă modelele în utilizarea publică, când se aplică filtre de siguranță suplimentare.

Anthropic a declarat că a observat „un comportament îngrijorător în ceea ce privește utilizarea abuzivă” în GPT-4o și GPT-4.1 și a afirmat că necesitatea evaluărilor de „aliniere” a IA devine „din ce în ce mai urgentă”.


Atacuri cibernetice și fraude facilitate de AI

Compania a declarat că IA a fost „transformată în armă”, modelele fiind utilizate acum pentru a efectua atacuri cibernetice sofisticate și pentru a permite fraudele. „Aceste instrumente se pot adapta în timp real la măsurile defensive, cum ar fi sistemele de detectare a malware-ului”, a afirmat compania. „Ne așteptăm ca atacurile de acest tip să devină mai frecvente, deoarece programarea asistată de IA reduce expertiza tehnică necesară pentru comiterea infracțiunilor cibernetice.”

Citește și:

Pe de altă parte, Ardi Janjeva, cercetător asociat la Centrul pentru Tehnologii Emergente și Securitate din Marea Britanie, a declarat că exemplele sunt „îngrijorătoare”, dar că nu există încă o „masă critică de cazuri reale de mare amploare”. El a afirmat că, cu resurse dedicate, concentrarea cercetării și cooperarea intersectorială, „va deveni mai dificil, și nu mai ușor, să se desfășoare aceste activități rău intenționate folosind modelele de ultimă generație”.

OpenAI a declarat că ChatGPT-5, lansat după testare, „prezintă îmbunătățiri substanțiale în aspecte precum lingușirea, halucinațiile și rezistența la utilizarea abuzivă”. Anthropic a subliniat că este posibil ca multe dintre căile de utilizare abuzivă pe care le-a studiat să nu fie posibile în practică dacă ar fi instalate măsuri de protecție în afara modelului. Cercetătorii de la Anthropic au descoperit că modelele OpenAI erau „mai permisive decât ne-am fi așteptat în cooperarea cu cereri clar dăunătoare din partea utilizatorilor simulați”.

Citește și:
🔹ATENȚIE!
Conținutul publicat pe ziareonline.ro poate fi preluat doar în limita a 500 de caractere, cu menționarea sursei și link activ. Orice utilizare neautorizată reprezintă o încălcare a Legii nr. 8/1996 privind dreptul de autor și va fi sancționată conform legislației în vigoare. 🚨