De nouvelles données de Netskope ont affirmé que les employés continuaient de partager des informations sensibles sur l’entreprise avec Écrivains IA et les chatbots comme ChatGPT malgré le risque évident de fuites ou de brèches.
La recherche couvre quelque 1,7 million d’utilisateurs dans 70 organisations mondiales et a trouvé une moyenne de 158 incidents mensuels de code source publiés sur ChatGPT pour 10 000 utilisateurs, ce qui en fait la vulnérabilité la plus importante de l’entreprise devant d’autres types de données sensibles.
Alors que les cas de données réglementées (18 incidents/10 000 utilisateurs/mois) et de propriété intellectuelle (quatre incidents/10 000 utilisateurs/mois) publiés sur ChatGPT sont beaucoup moins courants, il est clair que de nombreux développeurs ne réalisent tout simplement pas les dommages qui peuvent être causés par une fuite de code source.
Faites attention à ce que vous publiez sur ChatGPT
Parallèlement aux expositions continues qui pourraient conduire à des points faibles pour les entreprises, Netskope a également souligné le boom de l’intérêt pour l’intelligence artificielle. Les chiffres indiquent une croissance de 22,5 % de l’utilisation des applications GenAI au cours des deux derniers mois, les grandes entreprises de plus de 10 000 utilisateurs utilisant en moyenne cinq applications d’IA par jour.
ChatGPT prend les devants, comptant huit fois plus d’utilisateurs actifs quotidiens que toute autre application GenAI. Avec une moyenne de six invites par jour, chaque utilisateur a le potentiel de causer des dommages considérables à son employeur.
Les trois principales applications d’IA génératives utilisées par les organisations dans le monde en plus de ChatGPT (84 %) sont Grammarly (9,9 %) et Bard (4,5 %), qui elle-même connaît une croissance saine de 7,1 % par semaine contre 1,6 % par semaine pour ChatGPT.
Beaucoup diront que le téléchargement de code source ou d’autres informations sensibles peut être évité, mais le directeur de la recherche sur les menaces de Netskope, Ray Canzanese, affirme que c’est «inévitable». Au lieu de cela, Canzanese place la responsabilité sur les organisations pour mettre en œuvre des contrôles autour de l’IA.
James Robinson, directeur adjoint de la sécurité de l’information de l’entreprise, a ajouté : « Les organisations devraient se concentrer sur l’évolution de la sensibilisation de leurs effectifs et de leurs politiques de données pour répondre aux besoins des employés qui utilisent les produits d’IA de manière productive.
Pour les administrateurs et les équipes informatiques, la société suggère de bloquer l’accès aux applications inutiles ou à celles qui présentent un risque disproportionné, de fournir un coaching fréquent aux utilisateurs et d’adopter suffisamment de technologies modernes de prévention des pertes de données.