Inteligența artificială a trecut rapid de la stadiul de experiment la infrastructură critică pentru business. Instanțe Large Language Models (LLMs) rulate on-premises, agenți AI, aplicații GenAI utilizate mai mult sau mai puțin legitim…AI-ul este deja integrat în procesele organizațiilor – de la customer support și analiză de date, până la dezvoltare software, securitate și decizie operațională. În acest context, o întrebare devine esențială: cât de pregătite sunt organizațiile să protejeze aceste sisteme și dacă AI Security este o responsabilitate sau necesitate?
De la AI training la AI inference: o schimbare de paradigmă cu impact direct asupra securității
Relația dintre AI și cybersecurity este profund asimetrică. Organizațiile investesc masiv în utilizarea AI pentru detecția amenințărilor și automatizarea securității, dar neglijează adesea securizarea propriilor sisteme AI. Astfel, modele GenAI, agenți autonomi și aplicații AI ajung să aibă acces la date sensibile, API-uri critice și procese de business, însă fără controale de securitate proporționale cu impactul lor real.

În același timp, industria traversează o schimbare majoră: accentul se mută de la AI training la AI inference. Valoarea nu mai stă în antrenarea modelelor de la zero, ci în rularea modelelor pre-antrenate, integrarea lor în aplicații existente și conectarea AI la date și procese critice. Este de altfel și ceea ce oferă Datanet Systems prin soluția ”AI end-to-end” despre care puteți citi mai multe aici: ”Rulați aplicații AI pe propria infrastructură IT, cu o soluție la cheie dezvoltată de Datanet Systems”.
Această tranziție transformă aplicațiile AI în suprafețe de atac active, expuse utilizatorilor și integrărilor externe. În acest context, securizarea AI devine o necesitate operațională și de conformitate, nu un „nice to have”. Un sistem AI compromis poate genera decizii eronate, pierderi financiare și încălcări grave de conformitate, amplificate de fenomenul Shadow AI – utilizarea necontrolată a uneltelor GenAI în organizații.
Noi tipuri de atacuri și riscuri asociate AI
Adopția accelerată a AI introduce riscuri noi și amplifică atacuri deja cunoscute. La nivel de date, tehnici precum prompt injection sau data poisoning pot altera comportamentul modelelor, ducând la scurgeri de date, exfiltrare controlată de informații sensibile sau re-identificarea datelor aparent anonimizate. La nivel de integritate și încredere, atacatorii pot manipula interacțiunea cu AI-ul pentru a obține acces neautorizat, a induce decizii greșite sau a transforma un asistent AI într-un facilitator de acces privilegiat.
Din perspectivă de guvernanță, lipsa vizibilității asupra modului în care AI-ul procesează date și ia decizii poate genera neconformitate cu reglementări precum GDPR sau AI Act. În paralel, AI supply chain devine o nouă zonă de risc: modele, biblioteci și API-uri externe introduc dependențe greu de controlat, unde compromiterea unui singur element poate afecta întregul ecosistem. Toate aceste evoluții arată clar că, pe măsură ce AI-ul trece din faza experimentală în cea operațională, securitatea sa trebuie tratată ca o componentă fundamentală a arhitecturii enterprise.
AI Security cu Prisma Browser și Prisma AIRS

Întreaga piață vorbește astăzi despre ”AI security” o abordare care protejează sistemele de inteligență artificială împotriva amenințărilor ce le pot compromite confidențialitatea, integritatea sau fiabilitatea. Aceasta acoperă întreg ciclul de viață al AI: date, modele, pipeline-uri, infrastructură și aplicații. Pentru a răspunde acestor provocări, Palo Alto Networks a dezvoltat soluții dedicate securizării utilizării și rulării AI în mediul enterprise, iar Datanet Systems, partener certificat, le poate integra în arhitecturi de securitate extinse.
Prisma Browser – Securizarea utilizării aplicațiilor web, SaaS și AI direct în browser
Pe măsură ce angajații folosesc tot mai intens aplicații web, SaaS și GenAI pentru activitatea zilnică, protejarea accesului la aceste resurse devine critică. Prisma Browser este un browser enterprise securizat, conceput pentru a oferi vizibilitate și control asupra modului în care utilizatorii interacționează cu aplicațiile web, SaaS și GenAI, indiferent dacă acestea sunt accesate din internet sau din infrastructura internă a organizației.
Adresabilitate
Prisma Browser se adresează organizațiilor care:
- Utilizează aplicații GenAI publice precum ChatGPT, Microsoft Copilot, Claude sau alte modele AI accesibile prin browser.
- Accesează aplicații AI interne prin browser, inclusiv portaluri, dashboard-uri și aplicații custom dezvoltate intern.
- Utilizează intensiv aplicații web și SaaS pentru procese de business critice.
- Lucrează remote sau în mod hibrid, unde securitatea și controlul accesului web sunt esențiale.
- Oferă acces la aplicații și date sensibile contractorilor, partenerilor sau terților (3rd party), folosind endpoint-uri neadministrate sau parțial controlate.
- Doresc să augmenteze și să optimizeze costurile unor soluții de tip VDI, oferind un nivel ridicat de securitate pentru acces web și SaaS, fără a le înlocui complet (soluții complementare).
Funcționalități cheie
- Vizibilitate la nivel de utilizator și sesiune. Monitorizarea în timp real a modului în care utilizatorii interacționează cu aplicațiile web, SaaS și GenAI, inclusiv tipurile de date transmise și aplicațiile utilizate (ex. ChatGPT, Copilot etc.), fără a pretinde vizibilitate asupra modelului AI intern din spate.
- Prevenirea scurgerilor de date (DLP) direct din browser. Politici integrate care detectează și blochează transmiterea informațiilor sensibile către aplicații externe. Prisma Browser poate restricționa trimiterea anumitor tipuri de date către aplicații web sau GenAI; poate bloca sau controla acțiuni precum copy–paste, upload sau download între aplicații; dar și masca în timp real datele sensibile (ex. înlocuirea cu „puncte”), astfel încât acestea să nu fie efectiv transmise.
- Control contextual al interacțiunilor cu aplicațiile AI. Prisma Browser permite controlul acțiunilor utilizatorilor (nu modificarea semantică a prompturilor), prevenind exfiltrarea de date sensibile și utilizarea neautorizată a informațiilor în interacțiunile cu GenAI.
- Izolarea aplicațiilor enterprise față de endpoint-uri neîncredere. Prisma Browser protejează aplicațiile și datele enterprise atunci când sunt accesate de pe endpoint-uri unmanaged sau parțial gestionate, reducând riscurile asociate malware-ului, phishing-ului sau compromiterii dispozitivului
- Aplicarea politicilor Zero Trust pentru toate aplicațiile. Prisma Browser extinde politicile context-based Zero Trust asupra tuturor acțiunilor, în toate aplicațiile – web, SaaS și GenAI și aplică controale de identitate, acces privilegiat și protecție a datelor „last-mile”. De asemenea, criptează fișierele descărcate din aplicațiile accesate, asigurând protecția data at rest, chiar și în afara infrastructurii organizației.
Rezultate
Implementarea Prisma Browser oferă beneficii concrete:
- Reducerea riscului de expunere a datelor sensibile, inclusiv în utilizarea aplicațiilor GenAI.
- Vizibilitate și control complet asupra utilizării aplicațiilor web, SaaS și GenAI de către angajați, contractori și colaboratori 3rd party.
- Audit avansat al activităților: pe lângă logurile detaliate de interacțiune, pot fi configurate înregistrări video ale sesiunilor în momentele în care sunt încălcate politici (ex. DLP).
- Reducerea suprafeței de atac prin limitarea accesului și izolarea aplicațiilor de endpoint-uri neîncredere.
- Conformitate cu reglementările GDPR, AI Act și politicile interne, fără impact negativ asupra productivității.
Prisma AIRS – Securitate la nivel de runtime pentru aplicații AI
Pe măsură ce organizațiile integrează AI în procesele critice, protejarea aplicațiilor, modelelor și fluxurilor de date devine esențială. Prisma AI Runtime Security (AIRS) este o soluție avansată pentru securizarea aplicațiilor AI în timpul rulării (runtime), adresând instanțele LLM, agenții AI și workflow-urile autonome.
Adresabilitate
Prisma AIRS este conceput pentru:
- Aplicații AI custom dezvoltate intern, rulate on-premises sau în cloud, inclusiv microservicii AI containerizate.
- LLM-uri self-hosted sau integrate prin API (open-source sau comerciale), monitorizate în timp real.
- Agenți AI și workflow-uri autonome care interacționează cu date sensibile și sisteme de business.
Funcționalități cheie
- Protecție împotriva prompt injection și jailbreak. Detectează și blochează tentativele de manipulare a comportamentului modelelor AI prin prompturi malițioase sau payload-uri ascunse.
- Monitorizare comportamentală în runtime. Analizează răspunsurile și fluxurile de date pentru a identifica anomalii, abuzuri sau deviații de la comportamentul normal.
- Detectarea scurgerilor de date și a utilizării neautorizate. Auditează în timp real accesul la date sensibile, prevenind exfiltrarea accidentală sau intenționată.
- Control granular al accesului. Politici detaliate pentru accesul la date, modele și API-uri, integrate cu mecanisme de autentificare și autorizare bazate pe roluri.
- Guvernanță și audit pentru aplicațiile AI. Loguri detaliate, rapoarte de conformitate și integrare cu soluții SIEM și platforme de management al riscurilor.
Rezultate
Implementarea Prisma AIRS aduce beneficii măsurabile:
- Creșterea încrederii în aplicațiile AI utilizate în producție.
- Reducerea riscurilor operaționale și de conformitate, inclusiv în raport cu GDPR și AI Act.
- Protejarea modelelor, agenților și datelor, asigurând integritatea și confidențialitatea întregului ecosistem AI, de la input la output.
Private AI securizat end-to-end, cu Datanet Systems
Pentru organizațiile care își doresc control deplin asupra modului în care folosesc inteligența artificială, Datanet Systems oferă o soluție AI end-to-end, de nivel enterprise, concepută pentru rularea aplicațiilor AI pe infrastructură proprie – on-premises, în cloud privat sau în arhitecturi hibride. Soluția este livrată „la cheie” și acoperă întregul lanț tehnologic necesar adoptării AI: infrastructură de calcul, stocare, rețea, orchestrare și integrare cu aplicațiile existente.
Complementar, Datanet Systems asigură securizarea completă a aplicațiilor AI, conform principiilor moderne de AI Security, prin integrarea soluțiilor dedicate de la Palo Alto Networks. Prin Prisma Browser, este securizată utilizarea aplicațiilor web, SaaS și AI I la nivel de utilizator, prevenind scurgerile de date și utilizarea necontrolată a GenAI, inclusiv scenariile de Shadow AI. Prin Prisma AI Runtime Security (AIRS), sunt protejate aplicațiile AI, modelele, agenții și fluxurile de date în timpul rulării, împotriva atacurilor precum prompt injection, data leakage, acces neautorizat sau abuz de modele.
Prin această abordare integrată, Datanet Systems oferă nu doar o platformă de Private AI, ci un cadru complet și coerent de AI securizat end-to-end, care acoperă atât infrastructura și execuția aplicațiilor AI, cât și guvernanța, protecția datelor și securitatea în runtime. Partener Platinum al Palo Alto Networks în România încă din 2024, Datanet Systems are abilitați avansate pentru a implementa sau integra soluțiile de la acest vendor în arhitecturile de securitate ale organizațiilor private sau publice. Consultanții noștri pot fi contactați prin email la sales@datanets.ro.
Rulați aplicații AI pe propria...