Digital Crimes Unit (DCU) di Microsoft Digital Crimes Unit (DCU) di Microsoft

Microsoft agisce contro l’abuso dell’AI: bloccati cybercriminali

Microsoft intraprende azioni legali per contrastare l’abuso dell’AI e proteggere i suoi servizi dalle manipolazioni di cybercriminali.

L’unità Digital Crimes Unit (DCU) di Microsoft ha intrapreso un’azione legale per garantire la sicurezza e l‘integrità dei propri servizi di intelligenza artificiale. In una denuncia resa pubblica presso il Distretto Orientale della Virginia, Microsoft sta agendo per interrompere le attività di cybercriminali che sviluppano intenzionalmente strumenti mirati a eludere le misure di sicurezza dei servizi di intelligenza artificiale generativa, incluso quello di Microsoft, con l’obiettivo di creare contenuti offensivi e dannosi. Nonostante gli sforzi continui per rendere i propri prodotti e servizi più resilienti agli abusi, i cybercriminali continuano a innovare le loro tecniche per superare anche le misure di sicurezza più avanzate. Con questa azione, Microsoft vuole inviare un messaggio chiaro: l’uso improprio della tecnologia AI non sarà tollerato.

Minaccia straniera

cybercriminale
Image: AI

I servizi AI di Microsoft integrano solide misure di sicurezza, con protezioni implementate a livello di modello AI, piattaforma e applicazione. Come descritto nei documenti depositati in tribunale, Microsoft ha individuato un gruppo di minaccia con base straniera che ha sviluppato software sofisticati sfruttando credenziali di clienti esposte su siti web pubblici. Questi cybercriminali hanno cercato di accedere in modo illecito a account di servizi di AI generativa, alterandone intenzionalmente le capacità. Successivamente, tali strumenti sono stati utilizzati e rivenduti ad altri soggetti malintenzionati, fornendo loro istruzioni dettagliate su come generare contenuti dannosi e illeciti. Dopo aver scoperto tali attività, Microsoft ha revocato l’accesso ai criminali, implementato contromisure e rafforzato ulteriormente i sistemi di sicurezza per prevenire attacchi futuri.

Violazione legge americana

Questa attività viola direttamente la legge statunitense, nonché le politiche di utilizzo e il codice di condotta previsti per i servizi Microsoft. I documenti giudiziari resi pubblici oggi fanno parte di un’indagine in corso sui creatori di tali strumenti e servizi illeciti. In particolare, un’ordinanza del tribunale ha consentito di sequestrare un sito web centrale per le operazioni criminali, permettendo di raccogliere prove cruciali sugli autori di queste attività, comprendere come tali servizi vengano monetizzati e identificare altre infrastrutture tecniche coinvolte. Nel frattempo, Microsoft ha implementato nuove misure di sicurezza per contrastare le attività osservate e continuerà a rafforzare le sue difese sulla base dei risultati dell’indagine.

AI usata a scopo dannoso

Ogni giorno, numerosi utenti sfruttano gli strumenti di intelligenza artificiale generativa per esprimersi creativamente e migliorare la produttività. Tuttavia, come accade con altre tecnologie emergenti, tali strumenti attraggono individui malintenzionati che cercano di sfruttarli per scopi dannosi. Microsoft riconosce l’importanza del proprio ruolo nella protezione contro l’abuso dei suoi strumenti e, insieme ad altre organizzazioni del settore, continua a introdurre nuove funzionalità per tutelare gli utenti. Lo scorso anno, Microsoft si è impegnata a innovare continuamente per garantire la sicurezza, adottando un approccio completo per combattere i contenuti abusivi generati dall’AI e proteggere le comunità. L’azione legale più recente conferma tale impegno.

Oltre alle azioni legali e al continuo rafforzamento delle misure di sicurezza, Microsoft persegue ulteriori iniziative proattive e collaborazioni con altre realtà per contrastare i rischi online, promuovendo anche nuove leggi che offrano alle autorità gli strumenti necessari per combattere efficacemente l’abuso dell’intelligenza artificiale, in particolare quando utilizzata per danneggiare gli altri. Di recente, Microsoft ha pubblicato un rapporto approfondito intitolato “Proteggere il pubblico dai contenuti abusivi generati dall’AI”, contenente raccomandazioni per il settore e il governo per tutelare meglio il pubblico, con un focus specifico su donne e bambini.

Da quasi due decenni, la DCU di Microsoft si dedica a contrastare i cybercriminali che cercano di sfruttare le tecnologie di uso quotidiano per scopi illeciti. Oggi, la DCU applica le conoscenze acquisite in ambito di cybersecurity per prevenire l’abuso dell’intelligenza artificiale generativa. Microsoft continuerà a fare la propria parte, sviluppando nuove strategie per proteggere le persone online, riferendo in modo trasparente le proprie scoperte, intraprendendo azioni legali contro chi tenta di sfruttare l’AI per scopi illeciti e collaborando con partner pubblici e privati a livello globale per garantire la sicurezza delle piattaforme di AI.