Secondo quanto riportato da Wiz Research, un database collegato ai sistemi DeepSeek è rimasto accessibile pubblicamente; senza alcun tipo di autenticazione. Il problema non riguarda la sicurezza dei modelli AI di DeepSeek, ma piuttosto una falla nella gestione dei dati del suo sito web e dei suoi servizi. Questa vulnerabilità avrebbe permesso a chiunque di visionare e potenzialmente modificare informazioni sensibili.
Wiz Research è un team di ricerca specializzato in sicurezza informatica, appartenente all’azienda Wiz, nota per il suo lavoro nel campo della cloud security. Il team analizza vulnerabilità nei sistemi esposti su internet, evidenziando rischi legati alla protezione dei dati e alle infrastrutture IT. Nel caso di DeepSeek, ha individuato una falla in un database ClickHouse non protetto; hanno segnalato il problema in modo responsabile all’azienda prima che potesse essere sfruttato da attori malevoli.
I dati esposti comprendono cronologie di chat, chiavi API e dettagli operativi interni. Il problema è stato individuato su due sottodomini di DeepSeek, entrambi configurati per esporre un database senza protezione adeguata.
L’accesso non autorizzato a Deepseek e i rischi per la sicurezza
Il team di Wiz ha scoperto la vulnerabilità attraverso una scansione delle risorse di DeepSeek esposte su internet. Le porte 8123 e 9000 erano aperte e permettevano l’interrogazione diretta del database ClickHouse tramite semplici comandi SQL. I ricercatori hanno così potuto accedere a oltre un milione di log, contenenti:
- Cronologia testuale delle conversazioni tra gli utilizzatori e i modelli AI di DeepSeek.
- Chiavi API e segreti crittografici che avrebbero potuto essere sfruttati per compromettere altri sistemi.
- Strutture delle directory server e dettagli operativi interni.
- Endpoint API interni con possibili implicazioni per la sicurezza aziendale.
ClickHouse è un sistema di gestione di database colonnare open-source progettato per query analitiche veloci su grandi set di dati. Sviluppato da Yandex, è ampiamente utilizzato per l’elaborazione dati in tempo reale, l’archiviazione dei log e l’analisi dei big data.
Il rischio principale derivante da questa esposizione è che un attaccante avrebbe potuto eseguire comandi dannosi; accedere a informazioni riservate o persino manipolare i dati presenti nel database. Anche se DeepSeek ha risolto rapidamente la vulnerabilità (appena 30 minuti dopo la segnalazione), il caso evidenzia come le aziende che operano nel settore debbano prestare massima attenzione alla sicurezza delle loro infrastrutture.
Deepseek e il precedente di OpenAI
DeepSeek non è la prima azienda AI a trovarsi in una situazione del genere. Anche OpenAI ha affrontato sfide simili in passato.
Ad esempio, nel 2023, OpenAI ha dovuto affrontare una vulnerabilità nella sua API che poteva essere sfruttata per attacchi DDoS. Anche in quel caso, il problema non riguardava i modelli AI stessi, ma l’infrastruttura che li supportava. La corsa per portare nuovi prodotti sul mercato può portare a trascurare misure di sicurezza basilari; come l’autenticazione e la protezione dei database.
Le aziende tendono a concentrarsi principalmente sulle performance dei modelli, talvolta trascurando aspetti cruciali della sicurezza IT. La crescita rapida e la competizione accesa tra di loro hanno portato a un’espansione accelerata delle infrastrutture, spesso senza una pianificazione adeguata della sicurezza informatica.
Il ban in Italia di Deepseek
Prima ancora di questo evento riportato da WIZ Research, il Garante per la Protezione dei Dati Personali italiano ha bloccato l’app cinese di intelligenza artificiale DeepSeek a causa di preoccupazioni sulla gestione dei dati personali degli utenti.
Non avendo ricevuto informazioni sufficienti riguardo alla raccolta, alle fonti, alle finalità e alla base legale del trattamento dei dati, nonché sulla loro eventuale conservazione in Cina, l’autorità ha deciso di interrompere l’elaborazione dei dati degli utenti italiani e ha avviato un’indagine. L’app DeepSeek non è più disponibile negli store Apple e Google in Italia; sebbene sia ancora aperto l’accesso al sito Deepseek.com.
Una simile operazione di ban fu fatta dal Garante anche per ChatGPT e non venne gradita da molti utilizzatori in Italia. In questo caso, alla luce degli ultimi eventi, non è stata un decisione del tutto sbagliata.
Conclusione: la sicurezza dei dati deve essere una priorità
Il problema non riguardava la qualità o l’affidabilità dei modelli AI di DeepSekk, ma l’esposizione di dati critici nell’infrastruttura dei servizi web, che potevano essere sfruttati per scopi malevoli. L’industria AI deve riconoscere che, oltre a sviluppare modelli sempre più avanzati, è fondamentale garantire che le infrastrutture su cui si basano siano protette adeguatamente.
Le aziende che operano nel settore dell’AI, ed hanno uno stretto rapporto con milioni di utenti, dovrebbero sempre adottare pratiche di sicurezza adeguate. Questo include una maggiore attenzione alla protezione dei dati sensibili e una collaborazione più stretta tra i team di sicurezza e gli ingegneri AI.