STUDIU – Inteligența Artificială în Securitatea Cibernetică

  • Blog
  • STUDIU – Inteligența Artificială în Securitatea Cibernetică

Starea Actuală, Rezultate Demonstrate și Implicații Strategice

Autor: Safebyte Consulting
Data: Martie 2026
Descarca PDF

Bazat pe analiza a 21+ proiecte de cercetare, 30+ lucrări științifice (arXiv/ACL/ACM CCS), competiția DARPA AIxCC 2024–2025, și proiecte open-source active.


Sumar Executiv

⚠ MESAJ CHEIE

Inteligența artificială a transformat fundamental securitatea cibernetică în ultimii 18 luni. Sisteme autonome demonstrează acum capacități de penetration testing comparabile cu cele ale specialiștilor umani, la o fracțiune din cost și timp. Această evoluție are implicații directe pentru securitatea națională, infrastructura critică și apărarea cibernetică a statului.

Prezentul studiu analizează starea actuală a inteligenței artificiale aplicată în securitatea cibernetică, pe baza a peste 21 de proiecte de cercetare active, 30+ lucrări științifice publicate în perioada 2024–2026 în conferințe de referință (ACL, ACM CCS, ICSE, arXiv), competiția DARPA AIxCC (buget: 29,5 milioane USD), și produse comerciale operaționale. Concluziile sunt verificabile prin referințele furnizate.

Trei constatări critice: (1) Sistemele AI au demonstrat în competiții controlate capacitatea de a identifica 86% din vulnerabilitățile sintetice și de a genera patch-uri pentru 68% dintre acestea, la un cost mediu de 152 USD per task. (2) În noiembrie 2025, Anthropic a raportat primul atac cibernetic autonom la scară largă, în care agenți AI au executat 80–90% din operațiunea ofensivă cu supraveghere umană minimală. (3) Costul unui breach mediu global a atins 4,88 milioane USD (IBM, 2024), iar atacurile bazate pe AI au crescut cu 89% (CrowdStrike Global Threat Report 2026).


1. Context: De ce contează acum

Securitatea cibernetică traversează un punct de inflexiune. Convergența a trei factori creează o urgență strategică:

1.1 Explozia suprafeței de atac

Adoptarea accelerată a cloud computing, DevOps și IoT a creat medii în continuă schimbare. Conform Verizon Data Breach Investigations Report 2025, peste două treimi din breaches au implicat vulnerabilități nepatate de mai mult de 90 de zile, chiar și în organizații care efectuaseră recent evaluări de securitate. Check Point raportează o medie de 1.925 de atacuri pe săptămână per organizație în Q1 2025 — aproximativ 275 de atacuri pe zi.

1.2 Democratizarea capabilităților ofensive

Inteligența artificială a redus dramatic bariera de intrare pentru atacuri sofisticate. Microsoft raportează urmărirea a peste 600 de grupuri nation-state distincte la nivel global. CrowdStrike Global Threat Report 2026 indică o creștere de 89% a atacurilor facilitate de AI, cu mențiunile ChatGPT pe forumuri criminale crescând cu 550%. Peste 90 de organizații au avut instrumente AI legitime exploatate pentru generarea de comenzi malițioase.

[Ref: CrowdStrike, „2026 Global Threat Report”, februarie 2026; Microsoft, „2025 Digital Defense Report”, octombrie 2025]

1.3 Primul atac cibernetic autonom documentat

INCIDENT CRITIC — Noiembrie 2025

Anthropic a raportat public detectarea și neutralizarea primei campanii de spionaj cibernetic orchestrată autonom de agenți AI. Actori chinezi au exploatat instrumentul Claude Code, creând un agent ofensiv semi-autonom care a vizat 30 de companii și agenții guvernamentale. Agentul AI a executat 80–90% din operațiunea ofensivă, iar operatorii umani au trecut de la rolul de executanți la cel de supervizori strategici.

Acest incident, analizat de Institute for AI Policy and Strategy (IAPS), marchează o tranziție fundamentală: de la atacuri asistate de AI la atacuri conduse de AI cu supraveghere umană minimală. IAPS avertizează că „aceste capabilități autonome vor prolifera și vor permite actorilor mai puțin sofisticați să conducă operațiuni complexe la viteze mai mari.”

[Ref: Anthropic, „Disrupting the first reported AI-orchestrated cyber espionage campaign”, nov. 2025; IAPS, „The Emergence of Autonomous Cyber Attacks”, nov. 2025; Lawfare, „Fighting AI Cyberattacks Starts With Knowing They’re Happening”, feb. 2026]


2. Starea Actuală: Sisteme AI Demonstrabile

2.1 DARPA AI Cyber Challenge (AIxCC) — Validare instituțională

Cel mai riguros test al capabilităților AI în securitatea cibernetică este competiția DARPA AIxCC (2023–2025), cu un buget total de 29,5 milioane USD în premii și colaborare cu Anthropic, Google, OpenAI și Microsoft. Finala a avut loc la DEF CON 33 (august 2025).

Rezultate finale AIxCC (august 2025, DEF CON 33):

MetricăSemifinala (aug. 2024)Finala (aug. 2025)Evoluție
Vulnerabilități identificate37% din sintetice86% din 63 sintetice+132%
Vulnerabilități patate25% din identificate68% din identificate+172%
Zero-days reale descoperiteNu s-a raportat18 (6 în C, 12 în Java)NOU
Cost mediu per taskNu s-a raportat~152 USDDemonstrat
Timp mediu per vulnerabilitateNu s-a raportat~45 minuteDemonstrat
Echipe finaliste42 participante7 finalisteSelecție riguroasă

Câștigători: Team Atlanta (Georgia Tech + Samsung Research + KAIST + POSTECH) — premiu 4M USD; Trail of Bits — 3M USD; Theori — 1,5M USD. Toate cele 7 sisteme finaliste au fost publicate ca open-source. DARPA Director Stephen Winchell: „Trăim într-o lume cu schele digitale antice care susțin totul. […] Este o problemă care depășește scara umană.”

[Ref: DARPA, „AIxCC Final Competition Results”, august 2025, darpa.mil/news/2025/aixcc-results; CyberScoop, 11 aug. 2025; Cybersecurity Dive, 8 aug. 2025]

2.2 Penetration Testing Autonom — Rezultate academice verificabile

În paralel cu AIxCC, comunitatea academică a produs sisteme de penetration testing AI cu rezultate măsurabile:

SistemPublicareRezultat cheieReferință
Excalibur/PentestGPT v2arXiv:2602.17622, feb. 202691% completare pe XBOW (104 provocări web); 12/13 mașini rootate HTB; Top-100 HTB Season 8 liveNTU Singapore
MAPTAarXiv:2508.20816, aug. 202576,9% succes XBOW; 100% SSRF; 100% Misconfiguration; 83% SQLi; 83% Broken AuthMulti-agent web pentest
CHECKMATEarXiv:2512.11143, dec. 2025Depășește Claude Code (cel mai capabil agent general); Classical Planning + LLMWang et al.
PenForgearXiv:2601.06910, ian. 2026 (ICSE-NIER 2026)30% rată exploatare pe CVE-Bench (40 CVE reale); 3x improvement vs SOTA în setting zero-dayDynamic agent construction
CAI FrameworkarXiv:2504.06017, apr. 2025Top-20 global CTF; 156x mai ieftin decât testare manuală; 3600x mai rapid pe task-uri specificeOpen-source, MIT, 2000+ stars
AutoPentesterarXiv:2510.05605, oct. 2025+27% succes vs PentestGPT; 3,93/5 rating pentesteri profesioniștiRAG reduces halucinări
CVE-GeniearXiv:2509.01835, sept. 202551% rată reproducere automată CVE (428/841 CVE-uri); cost mediu 2,77 USD/CVE267 proiecte, 141 CWE

[Toate referințele sunt lucrări publice, accesibile pe arxiv.org și în proceedings-urile conferințelor menționate]

2.3 Modele specializate de securitate

Pe lângă sistemele agentice, au apărut modele de limbaj specializate pe securitate cibernetică:

  • Foundation-Sec-8B (Cisco Foundation AI) — Model de 8 miliarde de parametri care egalizează performanța modelelor de 70B pe benchmark-uri de securitate cibernetică. Open-weight, disponibil pe HuggingFace. Relevant: rulează pe hardware local, fără dependență cloud.
  • Primus (Trend Micro) — Datasets de pre-antrenament și fine-tuning pentru securitate cibernetică. +15,9% îmbunătățire agregată, +15,8% pe certificarea CISSP. Open-source pe HuggingFace.
  • HackSynth-GRPO — Reinforcement Learning aplicat pe Llama-3.1-8B: +53% salt absolut pe crypto CTF tasks. Demonstrează că modele mici pot fi dramatic îmbunătățite prin RL pe securitate.

[Ref: Foundation-Sec-8B: HuggingFace fdtn-ai/Foundation-Sec-8B; Primus: arXiv:2502.11191, feb. 2025; HackSynth-GRPO: arXiv:2506.02048, iun. 2025]


3. Produse Comerciale Operaționale (2025–2026)

Tranziția de la cercetare la produse comerciale s-a accelerat semnificativ. În ianuarie 2026, un review operațional (Spark42.tech) constată că ecosistemul „s-a mutat de la demo-uri și wrapper-e de prompt la automatizare măsurabilă și reproductibilă.”

ProdusModelPreț orientativCapabilități
Aikido Attack (AI Pentest)Agenți autonomi, 60+De la 800 EURFull pentest automat, raport SOC2/ISO27001, re-test instant
PenligentAgentic AI, autonomEnterpriseZero-setup, deep reasoning, pentest continuu
XBOWAI agentsEnterpriseUnit testing securitate, scenarii customizabile per endpoint
RunSybil (Sybil)Attack Surface ManagementEnterpriseSimulare perimetru extern, Shadow IT discovery, Black Box Recorder
CobaltHybrid AI+humanEnterpriseAI pentru scanning basic, umani pentru business logic; rapoarte semnate
NodeZero (Horizon3.ai)Autonomous pentestingEnterpriseTraversare dinamică rețea, chaining real de exploit-uri
AutoSecTFull-stack AIEnterpriseNetwork + cloud + web + mobile + API într-o platformă

Tendința dominantă: trecerea de la testare periodică (1-2x/an) la testare continuă. Raportul Pentera „State of Pentesting 2025″ indică că doar 29% din organizații efectuează pentesting primar pentru conformitate regulamentară — restul îl folosesc pentru validarea controalelor (28%) și prioritizarea investițiilor de securitate (32%).

Estimarea de cost: Conform analizelor, un breach mediu costă 4,88 milioane USD (IBM, 2024). Un pentest automat AI costă între 800 EUR și câteva mii EUR. Prevenirea unui singur breach acoperă costul instrumentului pentru sute de ani.

[Ref: Spark42.tech, „AI-Powered Penetration Testing Tools in 2026″, ian. 2026; Aikido.dev/attack/aipentest; Pentera, „The State of Pentesting 2025″]


4. Implicații Strategice pentru Securitatea Națională

4.1 Asimetria atac–apărare se adâncește

AI amplifică capabilitățile atât ofensive cât și defensive, dar cu un avantaj temporal pentru atacatori. Atacatorii adoptă AI mai rapid deoarece nu au constrângeri de reglementare, birocratice sau de aprovizionare. IAPS avertizează explicit: „Acest lucru poate deplasa avantajul către atacatori până când capabilitățile defensive sunt implementate la scară.”

Concret: un grup APT cu acces la un model LLM open-source (ex: Llama, Mistral, DeepSeek) și un framework agentic (ex: CAI, care este MIT-licensed și public) poate construi un agent ofensiv autonom în zile, nu luni. Componenta umană se reduce de la operator la supervizor — exact modelul documentat de Anthropic în noiembrie 2025.

4.2 Infrastructura critică — țintă prioritară

DARPA a construit AIxCC specific pentru securizarea software-ului open-source care susține infrastructura critică: spitale, rețele energetice, sisteme de apă, utilități. CISA, FBI și NSA au confirmat că grupul Volt Typhoon (asociat RP Chineze) a menținut acces în sisteme IT ale sectorului energetic, comunicații, apă și transport din SUA timp de peste 5 ani.

Microsoft Digital Defense Report 2025 constată: „Atacurile cibernetice nu mai sunt probleme IT izolate; ele modelează economii, geopolitică și încrederea publică.” Raportul identifică sectoarele IT, guvernamental și academic-cercetare ca cele mai vizate.

[Ref: CISA Advisory on Volt Typhoon, 2024; Microsoft Digital Defense Report 2025; DARPA AIxCC mission statement]

4.3 Convergența nation-state și cybercrime

SecurityWeek „Cyber Insights 2026″ evidențiază estomparea liniilor între activitatea statală și cea criminală: state care folosesc instrumente cybercrime, cooptează grupuri, sau permit „moonlighting.” Acest model hibrid face comportamentul atacatorilor imprevizibil și crește riscul de daune colaterale.

CEO Delinea, Art Gilliland: „AI a făcut semnificativ mai ușor pentru oricine să execute atacuri cibernetice sofisticate cu mai puține resurse. Pentru jucătorii nation-state mai mici, care nu puteau concura cu marile puteri până acum, asta nivelizează efectiv terenul de joc.”

[Ref: SecurityWeek, „Cyber Insights 2026: Cyberwar and Rising Nation State Threats”, feb. 2026; CrowdStrike Global Threat Report 2026]


5. Ce fac statele avansate — și ce nu facem noi

5.1 Investiții strategice documentate

Țară / EntitateInițiativăInvestiție / Rezultat
SUA (DARPA + ARPA-H)AI Cyber Challenge (AIxCC)29,5M USD premii + 1,4M USD tranziție. 7 CRS open-source pentru infrastructura critică
SUA (DARPA)AIxCC tech transition+200.000 USD per echipă pentru integrare în software de infrastructură critică
Marea Britanie (MoD)Cyber Security Operations Centre (CSOC)Comandă dedicată de război cibernetic, operațiuni ofensive și defensive
Anthropic + Google + OpenAI + MicrosoftSuport AIxCC350.000 USD credite LLM per companie + suport tehnic
Cisco Foundation AIFoundation-Sec-8BModel open-weight specializat securitate, rulează local
Trend Micro (Japonia)Primus datasetsDatasets open-source de antrenament securitate cibernetică
A16Z (Andreessen Horowitz)Investiții în AI pentestingRaport strategic „Next-Gen Pentesting: AI Empowers the Good Guys” (iun. 2025)
Alias Robotics (Spania)CAI FrameworkOpen-source MIT, 2000+ stars, suportă 300+ modele AI

5.2 Cadrul de conformitate — în tranziție

Cadrul regulatory este în urma realității tehnologice. Andreessen Horowitz (a16z) constată: „În industrii reglementate, majoritatea cadrelor de conformitate (SOC 2, PCI, ISO 27001) așteaptă un pentest condus de om. Sistemele autonome nu se încadrează încă în acest model. Adoptatorii timpurii gestionează asta pragmatic: instrumente next-gen în spate, un pentest manual pe an pentru auditori. Pe termen lung, e probabil să vedem recunoaștere formală a testării AI.”

Această tranziție creează o fereastră de oportunitate pentru state care se poziționează acum. România, prin NIS2 transpus, PCI DSS v4.0 obligatoriu, și directivele BNR pentru sistemul bancar, are cadrul regulator care poate fi extins pentru a incorpora capabilități AI de testare.

[Ref: a16z, „Next-Gen Pentesting: AI Empowers the Good Guys”, iun. 2025]


6. Tendințe și Proiecții pe Termen Scurt (2026–2028)

6.1 Tendințe confirmate (în desfășurare)

  • De la periodic la continuu: Pentesting-ul evoluează de la exerciții anuale la validare continuă de securitate. Omdia (Informa Tech) proiectează că până în 2027, „testarea de penetrare va evolua într-o formă de validare continuă condusă de AI.”
  • De la asistență la autonomie: Tranziția de la AI ca asistent (sugerează comenzi) la AI ca agent autonom (execută planuri). Demonstrat: DARPA AIxCC (complet autonom), Anthropic incident (80-90% autonom).
  • Modele mici, specializate: Foundation-Sec-8B (8 miliarde parametri) egalizează modele de 70B pe securitate. HackSynth-GRPO demonstrează că Reinforcement Learning crește dramatic performanța modelelor mici. Implicație: capabilități avansate de securitate AI pe hardware accesibil, fără dependență cloud.
  • Multi-agent > single-agent: Sistemele performante folosesc mai mulți agenți specializați care cooperează: CAI (8 piloni), MAPTA (multi-agent), CHECKMATE (planificare clasică + LLM), Excalibur (38 interfețe de instrumente tipizate).
  • RAG (Retrieval-Augmented Generation) elimină halucinațiile: AutoPentester (+27% prin RAG), VulnBot (memorie vectorială de succes), RefPentester (învățare din eșecuri). Accesul la baze de cunoștințe în timp real (CVE, exploit databases) este crucial.

6.2 Proiecții pe 12–24 luni

ProiecțieProbabilitateBaza de argumentare
Pentesting manual devine serviciu boutique până în 2028Ridicatăa16z, Omdia, și Penligent proiectează 99% vulnerability assessments agentice. Cobalt deja folosește AI pentru basic scanning, umani doar pentru business logic.
Primele standarde de conformitate care recunosc formal testarea AIModerată-RidicatăPCI SSC și ISO lucrează la actualizări. Aikido deja produce rapoarte acceptate pentru SOC2/ISO27001.
Atacuri autonome AI devin recurenteRidicatăIncidentul Anthropic nov. 2025 e primul documentat. Capabilitățile proliferează prin open-source. IAPS confirmă traiectoria.
Modele sub-10B parametri suficiente pentru operațiuni ofensive/defensiveRidicatăFoundation-Sec-8B deja demonstrat. HackSynth-GRPO pe 8B. Cost hardware: sub 2.000 USD pentru inferență locală.
State mici/medii dezvoltă capabilități ofensive AI comparabile cu puterile mariModeratăCEO Delinea: AI nivelizează terenul. Instrumente open-source (CAI, VulnBot, HackSynth) disponibile oricui.

7. Riscuri specifice pentru România

7.1 Expunerea infrastructurii critice

România operează infrastructură critică (energie, telecomunicații, transport, sistem bancar, sănătate) cu un mix de sisteme legacy și moderne. Directiva NIS2, transpusă în legislația națională, impune cerințe de securitate, dar implementarea variază semnificativ între sectoare.

Riscul specific: atacatorii dotați cu AI pot scana și exploata vulnerabilități în sisteme legacy la o viteză și scară pe care apărarea manuală nu o poate egala. Un agent AI autonom poate testa mii de sisteme simultan, 24/7, la un cost de ordinul zecilor de dolari.

7.2 Deficitul de specialiști

România are un deficit semnificativ de specialiști în securitate cibernetică. AI nu înlocuiește specialiștii, dar amplifică dramatic capacitatea celor existenți. Un pentester echipat cu instrumente AI poate acoperi într-o săptămână ce echipe întregi acoperă într-o lună. Ignorarea acestor instrumente înseamnă menținerea artificială a unui dezavantaj deja sever.

7.3 Fereastra de acțiune se închide

URGENȚĂ STRATEGICĂ

Toate instrumentele descrise în acest studiu sunt disponibile acum: open-source, documentate, rulează pe hardware accesibil (sub 5.000 EUR). Atacatorii le adoptă deja (incident Anthropic, nov. 2025). Fiecare lună de inactivitate crește asimetria atac–apărare. Investiția necesară este de ordine de mărime mai mică decât costul unui singur incident de securitate la nivel de infrastructură critică.


8. Recomandări

Pe baza analizei prezentate, formulăm următoarele recomandări pentru forurile de decizie strategică:

8.1 Acțiuni imediate (0–6 luni)

  1. Evaluare națională de capabilități AI defensive: Inventar al instrumentelor AI de securitate utilizate în sectoarele de infrastructură critică. Identificarea lacunelor față de starea artei prezentată în acest studiu.
  2. Program pilot de pentesting AI pe infrastructura critică: Selecție de 3-5 sisteme de infrastructură critică pentru testare cu instrumente AI (open-source disponibil: CAI, Buttercup/AIxCC). Comparare rezultate cu audit-urile manuale existente.
  3. Constituirea unui grup de lucru AI-Cyber: Specialiști din DNSC, SRI, STS, mediu academic și sector privat. Misiune: monitorizarea evoluției capabilităților AI ofensive și defensive, propuneri de politici și investiții.

8.2 Acțiuni pe termen mediu (6–18 luni)

  1. Dezvoltarea cadrului de conformitate AI-aware: Actualizarea standardelor naționale de audit și testare de securitate pentru a include și recunoaște testarea bazată pe AI, în aliniere cu evoluția PCI DSS și ISO 27001.
  2. Investiție în capabilități locale: Suport pentru companii românești de securitate cibernetică să adopte și să dezvolte instrumente AI. România are avantaj competitiv prin comunitatea IT puternică — dar fără direcție strategică, acest avantaj se pierde.
  3. Program de formare AI pentru specialiștii de securitate existenți: Integrarea instrumentelor AI în curricula de formare DNSC și în certificările naționale de securitate.

8.3 Acțiuni pe termen lung (18–36 luni)

  1. Centru național de testare AI-Cyber: Infrastructură dedicată (laborator, hardware, modele, benchmark-uri) pentru evaluarea continuă a capabilităților AI de securitate — similar cu ce DARPA a construit prin AIxCC.
  2. Parteneriate internaționale: Colaborare cu UE (ENISA), NATO CCDCOE (Tallinn), și bilateral cu state care investesc activ (SUA, UK, Israel) pentru transfer de know-how și acces la tehnologii avansate.

9. SafebyteAI — O Inițiativă Românească în Contextul Global

În contextul evoluțiilor prezentate în acest studiu, menționăm existența unui proiect românesc aflat în dezvoltare activă: SafebyteAI, o platformă de penetration testing augmentat cu inteligență artificială, dezvoltată de Safebyte Consulting S.R.L. Proiectul demonstrează că expertiza locală românească poate produce soluții competitive în acest domeniu strategic.

9.1 Arhitectura de principiu

SafebyteAI implementează o arhitectură pipeline multi-etapă în care fiecare fază a evaluării de securitate este augmentată de modele AI specializate, nu înlocuită. Filosofia de proiectare este „AI-ul amplifică expertul uman, nu îl înlocuiește” — o abordare validată și de concluziile DARPA AIxCC și de analizele a16z privind viitorul pentesting-ului.

Platforma integrează instrumente profesionale de securitate consacrate (scanere de vulnerabilități, analizoare de trafic, motoare de template-uri) cu modele AI multiple care operează în faze distincte: îmbogățirea contextului, analiza paralelă multi-model, raționament structurat pentru prioritizarea atacurilor, generare de teste și payload-uri, și mapare pe cadre de conformitate.

Elemente arhitecturale cheie:

  • Inferență locală (on-premises): Toate modelele AI rulează pe infrastructura proprie, fără dependență de cloud. Datele clienților nu părăsesc niciodată perimetrul fizic — cerință critică pentru clienți din sectorul bancar și infrastructura critică, în conformitate cu reglementările BNR și GDPR.
  • Pipeline multi-model: Diferite modele AI sunt specializate pe diferite faze ale evaluării. Analiza de vulnerabilități folosește modele optimizate pentru raționament, iar generarea de teste folosește modele optimizate pentru creativitate ofensivă. Această abordare multi-model este aliniată cu paradigma multi-agent validată de cele mai performante sisteme academice (MAPTA, Excalibur, CAI).
  • Integrare cu instrumente profesionale: Platforma nu reinventează instrumentele de securitate, ci le integrează: scanere de rețea, proxy-uri web, motoare de template-uri de vulnerabilități, analizoare SSL/TLS. AI-ul procesează și corelează output-urile acestor instrumente, identificând pattern-uri pe care analiza manuală le-ar putea rata.
  • Dual-workflow: Platforma suportă atât evaluări manuale asistate (pentesterul furnizează datele, AI-ul le analizează și generează teste), cât și evaluări automatizate (platforma conduce reconnaissance-ul și scanning-ul activ). Această dualitate acoperă întreaga gamă de nevoi, de la pentest-uri specializate la evaluări de vulnerabilități la scară.
  • Conformitate integrată: Fiecare vulnerabilitate identificată este automat mapată pe cerințele cadrelor de conformitate relevante (PCI DSS v4.0, reglementări BNR/BNM, NIS2, ISO 27001). Aceasta reduce semnificativ timpul de raportare și asigură trasabilitate completă.

9.2 Avantaje strategice

SafebyteAI adresează mai multe lacune identificate în ecosistemul actual:

  • Suveranitate a datelor: Spre deosebire de soluțiile cloud internaționale, datele de audit ale infrastructurii critice românești rămân pe teritoriul național. Aceasta este o cerință din ce în ce mai stringentă în contextul geopolitic actual și al reglementărilor europene privind datele.
  • Adaptare la contextul local: Platforma integrează nativ cadre de conformitate specifice pieței românești și celei est-europene (reglementări BNR, BNM, transpunere NIS2), pe lângă standardele internaționale.
  • Multiplicator de forță pentru echipele locale: În contextul deficitului de specialiști de securitate, platforma permite echipelor mici să acopere un volum de evaluare semnificativ mai mare, fără compromis de calitate. Un specialist echipat cu SafebyteAI poate genera în ore ceea ce manual necesită zile.
  • Bază de cunoștințe cu învățare continuă: Platforma încorporează o componentă de threat intelligence care agregă surse publice de vulnerabilități, exploit-uri și tehnici de atac, menținând cunoașterea actualizată. Experiența acumulată din evaluări anterioare îmbunătățește calitatea evaluărilor viitoare, cu respectarea strictă a separării datelor între clienți.

9.3 Stadiu și perspective

SafebyteAI se află în faza de dezvoltare activă, cu componente funcționale pe workflow-ul de evaluare web și cu o foaie de parcurs care include extinderea către evaluări de infrastructură de rețea, API-uri, aplicații mobile și audituri de conformitate. Proiectul este dezvoltat integral în România, cu expertiză locală, și demonstrează că România poate fi nu doar consumator, ci și producător de tehnologie de securitate cibernetică bazată pe inteligență artificială.

Existența acestui proiect subliniază mesajul central al studiului: capabilitățile sunt accesibile, expertiza există local, iar investiția necesară este de ordine de mărime mai mică decât costul inacțiunii. Ceea ce lipsește este direcția strategică și voința instituțională de a acționa.


10. Referințe Principale

Toate referințele sunt publice și verificabile la datele indicate.

Competiții și programe guvernamentale

  • DARPA, „AI Cyber Challenge Final Competition Results”, august 2025. darpa.mil/news/2025/aixcc-results
  • DARPA, „AIxCC Scoring Guide”, 2025. darpa.mil/news/2025/ai-cyber-challenge-scoring
  • Trail of Bits, „Buttercup wins 2nd place in AIxCC”, august 2025. blog.trailofbits.com
  • aicyberchallenge.com — Pagina oficială AIxCC cu toate rezultatele

Lucrări academice (ordonate cronologic)

  • PenHeal — arXiv:2407.17788, ACM CCS Workshop, 2024
  • HackSynth — arXiv:2412.01778, dec. 2024 + GRPO: arXiv:2506.02048, iun. 2025
  • VulnBot — arXiv:2501.13411, ian. 2025. Open-source: github.com/KHenryAegis/VulnBot
  • Primus (Trend Micro) — arXiv:2502.11191, feb. 2025
  • CAI Framework — arXiv:2504.06017, apr. 2025. Open-source: github.com/aliasrobotics/cai
  • RefPentester — arXiv:2505.07089, iun. 2025
  • MAPTA — arXiv:2508.20816, aug. 2025
  • CVE-Genie — arXiv:2509.01835, sept. 2025
  • AutoPentester — arXiv:2510.05605, oct. 2025
  • PentestMCP — arXiv:2510.03610, oct. 2025
  • CHECKMATE — arXiv:2512.11143, dec. 2025
  • Excalibur/PentestGPT v2 — arXiv:2602.17622, feb. 2026
  • PenForge — arXiv:2601.06910, ian. 2026 (ICSE-NIER 2026)
  • PwnGPT — ACL 2025 Long Paper, aclanthology.org/2025.acl-long.562

Modele specializate

  • Foundation-Sec-8B (Cisco) — HuggingFace: fdtn-ai/Foundation-Sec-8B
  • Primus (Trend Micro) — HuggingFace: trendmicro-ailab/Llama-Primus-*

Rapoarte de industrie și amenințări

  • CrowdStrike, „2026 Global Threat Report”, februarie 2026. crowdstrike.com/global-threat-report
  • Microsoft, „2025 Digital Defense Report”, oct. 2025. microsoft.com/security/security-insider
  • IBM, „Cost of a Data Breach Report 2024″ — $4.88M cost mediu global
  • Pentera, „The State of Pentesting 2025″
  • Verizon, „2025 Data Breach Investigations Report”

Analize de threat intelligence

  • Anthropic, „Disrupting the first AI-orchestrated cyber espionage campaign”, nov. 2025
  • IAPS, „The Emergence of Autonomous Cyber Attacks”, nov. 2025. iaps.ai/research/autonomous-cyber-attacks
  • Lawfare, „Fighting AI Cyberattacks Starts With Knowing They’re Happening”, feb. 2026
  • SecurityWeek, „Cyber Insights 2026: Cyberwar and Rising Nation State Threats”, feb. 2026

Analize de piață și strategie

  • Andreessen Horowitz (a16z), „Next-Gen Pentesting: AI Empowers the Good Guys”, iun. 2025
  • Omdia/Informa Tech, „The Penetration Testing Market in 2025″, dec. 2025
  • Spark42.tech, „AI-Powered Penetration Testing Tools in 2026″, ian. 2026
  • because-security.com, „AI pentesting 2025/2026 with open source tools”, dec. 2025

Resurse agregate (curated lists)

  • Awesome-LLM4Cybersecurity — github.com/tmylla/Awesome-LLM4Cybersecurity (1100+ stars, 300+ papers)
  • awesome-ai-pentest — github.com/insidetrust/awesome-ai-pentest
  • cyber-security-llm-agents — github.com/NVISOsecurity/cyber-security-llm-agents