Salt la conținut
AI as Attack Vector — The New Cybersecurity Frontier
Înapoi la Perspective
AI / ML·10 min de citit

Când inteligența artificială devine o amenințare: O nouă eră în securitatea cibernetică

De Osman Kuzucu·Publicat pe 2026-02-21

O săptămână decisivă pentru securitatea AI

Ani de zile, industria securității cibernetice a dezbătut dacă inteligența artificială va beneficia mai mult apărătorii sau atacatorii. A treia săptămână din februarie 2026 a oferit un răspuns categoric: pe amândoi, simultan. În doar șapte zile, trei incidente distincte au demonstrat că AI nu mai este doar un instrument pentru construirea unor apărări mai bune — a devenit deopotrivă suprafață de atac, armă și complice involuntar. De la primul malware Android care folosește AI generativ la runtime, la un bug în Microsoft Copilot care a citit e-mailuri confidențiale timp de săptămâni, și până la o vulnerabilitate critică în SDK-ul pe care dezvoltatorii îl folosesc pentru a construi aplicații AI — mesajul este clar. Era amenințărilor bazate pe AI a sosit, iar organizațiile care tratează adoptarea AI exclusiv ca o oportunitate sunt periculos de nepregătite.

PromptSpy: Malware-ul care gândește singur

Pe 19 februarie, cercetătorii ESET au publicat descoperirile lor despre PromptSpy — primul malware Android cunoscut care utilizează AI generativ la runtime. Spre deosebire de amenințările mobile tradiționale bazate pe rutine precodificate, PromptSpy se integrează cu API-ul Gemini de la Google pentru a naviga dinamic prin interfețele dispozitivelor. Când trebuie să asigure persistența pe un dispozitiv, face o captură de ecran, o trimite către Gemini și primește instrucțiuni pas cu pas pentru a se fixa în lista aplicațiilor recente. Apoi execută acești pași prin Accessibility Service, verifică rezultatul și repetă ciclul până la succes. Aceasta înseamnă că malware-ul se adaptează automat la orice versiune Android, producător sau interfață personalizată — o capacitate care anterior necesita luni de reverse engineering manual pentru fiecare dispozitiv.

Payload-ul principal al PromptSpy este un modul VNC integrat care oferă operatorilor la distanță acces complet la dispozitivul infectat. Poate captura credențialele de pe ecranul de blocare, bloca tentativele de dezinstalare, face capturi de ecran, înregistra video activitatea de pe ecran și exfiltra datele dispozitivului. Deși ESET menționează că PromptSpy nu a apărut încă în telemetria la scară largă — sugerând că ar putea fi încă un proof of concept — descoperirea unui domeniu de distribuție care vizează utilizatori din Argentina semnalează că acesta depășește stadiul de laborator. Nu este prima dată când ESET descoperă malware bazat pe AI: PromptLock, o tulpină de ransomware condusă de AI, a fost descoperită în august 2025. Tiparul se accelerează.

Microsoft Copilot: Când asistentul AI citește ce nu ar trebui

Pe 18 februarie, Microsoft a confirmat că un bug în Microsoft 365 Copilot citea și rezuma în tăcere e-mailuri marcate ca confidențiale — ocolind politicile de Data Loss Prevention (DLP) configurate explicit pentru a bloca un astfel de acces. Bug-ul, urmărit sub codul CW1226324, a fost detectat prima dată pe 21 ianuarie și a afectat funcția de chat din tab-ul „work" al Copilot. Problema a determinat Copilot să proceseze incorect mesajele din folderele Sent Items și Drafts, inclusiv e-mailuri cu etichete de confidențialitate concepute special pentru a restricționa accesul instrumentelor automatizate. Timp de săptămâni, un instrument AI în care întreprinderile aveau încredere pentru productivitate făcea exact ceea ce politicile DLP ar fi trebuit să prevină.

Microsoft nu a dezvăluit câte organizații au fost afectate și a declarat doar că a început să implementeze o remediere „la începutul lunii februarie", continuând să monitorizeze utilizatorii afectați. Incidentul lovește în inima unei provocări fundamentale: când integrezi un LLM în fluxul de lucru al întreprinderii și îi oferi acces larg la date, ai creat efectiv un insider cu privilegii de citire aproape nelimitate. Politicile DLP tradiționale au fost concepute pentru utilizatori umani și software determinist — nu pentru sisteme AI probabilistice care interpretează instrucțiunile diferit la fiecare invocare. Acest incident ar trebui să fie un semnal de alarmă pentru orice organizație care implementează asistenți AI cu acces la date corporative sensibile.

Semantic Kernel RCE: O breșă în stiva de dezvoltare AI

Pentru a completa trifecta, o vulnerabilitate critică de execuție de cod la distanță (CVE-2026-26030) a fost dezvăluită în Semantic Kernel Python SDK de la Microsoft — framework-ul pe care mulți dezvoltatori îl folosesc pentru a integra LLM-uri în aplicațiile lor. Cu un scor CVSS de 9,9 din 10, această vulnerabilitate ar putea permite atacatorilor să execute cod arbitrar pe serverele care rulează aplicații AI bazate pe Semantic Kernel. Vulnerabilitatea este deosebit de îngrijorătoare deoarece Semantic Kernel se află la baza multor implementări AI enterprise. Este codul de legătură dintre logica de business și modelele de limbaj, ceea ce înseamnă că o compromitere aici s-ar putea propaga prin întreaga stivă AI. Când instrumentele pe care dezvoltatorii le folosesc pentru a construi AI sunt ele însele vulnerabile, securitatea fiecărei aplicații construite pe ele este pusă sub semnul întrebării.

Firul roșu: AI extinde suprafața de atac

Privite izolat, fiecare dintre aceste incidente spune o poveste tehnică specifică. Privite împreună, ele dezvăluie un tipar sistemic: fiecare strat al stivei AI este acum un potențial vector de atac. La nivelul aplicațiilor, asistenților AI li se acordă acces la date care depășește limitele lor de securitate. La nivelul infrastructurii, SDK-urile și framework-urile care susțin aplicațiile AI au propriile vulnerabilități. Iar la nivelul actorilor de amenințare, adversarii transformă în arme aceleași capabilități de AI generativ pe care întreprinderile se grăbesc să le adopte. Nu este o coincidență — este rezultatul inevitabil al implementării unor sisteme puternice și probabilistice în medii proiectate pentru software determinist și predictibil.

Riscurile cheie cu care se confruntă organizațiile în acest nou peisaj:

  • Malware-ul bazat pe AI care se adaptează în timp real elimină avantajul fragmentării dispozitivelor ca barieră naturală de apărare — atacatorii nu mai trebuie să construiască exploit-uri separat pentru fiecare variantă de dispozitiv.
  • Instrumentele AI enterprise cu acces larg la date devin de facto insideri — capabili să citească, să rezume și să exfiltreze potențial informații sensibile la o scară pe care niciun angajat uman nu o poate egala.
  • Riscul supply chain se extinde acum la framework-urile și SDK-urile AI — o singură vulnerabilitate într-un toolkit de dezvoltare AI larg utilizat poate compromite simultan mii de aplicații downstream.
  • Controalele de securitate tradiționale — firewall-uri, politici DLP, liste de control al accesului — au fost concepute pentru software predictibil și sunt fundamental inadecvate pentru guvernarea sistemelor AI probabilistice.

Construirea apărării pentru era AI

Aceste incidente nu înseamnă că organizațiile ar trebui să abandoneze adoptarea AI — costul competitiv al rămânerii în urmă este prea mare. Dar cer o schimbare fundamentală în modul în care întreprinderile abordează securitatea AI. Zilele în care instrumentele AI erau tratate ca un simplu software enterprise au apus. Sistemele AI necesită framework-uri de securitate construite special, care să țină cont de caracteristicile lor unice: comportament probabilistic, nevoi ample de acces la date și capacitatea de a fi simultan instrument și țintă.

Pași practici pe care organizațiile ar trebui să îi facă acum:

  • Implementați controale de acces specifice AI. Acordați instrumentelor AI accesul minim la date necesar pentru funcția lor. Tratați fiecare asistent AI ca un insider de neîncredere și aplicați principii zero-trust accesului la date — inclusiv monitorizarea output-ului și analiza comportamentală.
  • Auditați-vă lanțul de aprovizionare AI. Catalogați fiecare framework AI, SDK și furnizor de modele din stiva voastră. Abonați-vă la avizele de securitate pentru fiecare. Stabiliți un proces rapid de patching specific pentru componentele infrastructurii AI, cu SLA-uri la fel de agresive ca cele pentru patch-urile de sistem de operare.
  • Implementați monitorizare conștientă de AI. Instrumentele tradiționale SIEM și EDR trebuie completate cu capabilități de detecție specifice AI. Monitorizați apelurile API anormale către serviciile AI, tiparele neobișnuite de acces la date ale instrumentelor AI și comportamentul neașteptat al modelelor care ar putea indica compromiterea sau utilizarea abuzivă.
  • Dezvoltați playbook-uri de incident response specifice AI. Procedurile IR existente probabil nu acoperă scenarii precum „asistentul nostru AI a scurs date confidențiale" sau „un atacator folosește AI generativ pentru a naviga pe dispozitivele noastre mobile." Construiți playbook-uri specifice pentru incidentele legate de AI, inclusiv strategii de izolare care țin cont de natura adaptivă în timp real a amenințărilor bazate pe AI.

Drumul Înainte

Februarie 2026 va fi probabil amintit ca săptămâna în care industria securității cibernetice nu a mai putut ignora natura duală a AI-ului. Tehnologia care promite să revoluționeze productivitatea afacerilor creează simultan vectori de atac pe care infrastructura noastră de securitate existentă nu a fost niciodată proiectată să îi gestioneze. Organizațiile care recunosc această dualitate și investesc astăzi în strategii de securitate conștiente de AI vor fi mult mai bine poziționate decât cele surprinse reacționând la următorul incident inevitabil. Întrebarea nu mai este dacă AI va fi transformat în armă — deja a fost. Întrebarea este dacă apărările voastre evoluează la fel de rapid ca amenințările.

ai securitycybersecuritymalwarepromptspymicrosoft copilotenterprise securityai threatsgenerative aisemantic kernelzero trust

Vrei să discuți aceste subiecte în profunzime?

Echipa noastră este disponibilă pentru revizuiri arhitecturale și sesiuni strategice.

Programează o consultanță