Pour gérer vos consentements :

Apple interdit l'utilisation de ChatGPT à ses employés

Publié par Ixia Costea le - mis à jour à

Pourquoi Apple veut-il interdire ChatGPT ?

L'entreprise américaine Apple interdit à ses équipes l'utilisation du chatbot d'OpenAI, ChatGPT. Apple craint en effet une collecte des données sensibles.

Apple interdit ChatGPT à ses employés pour éviter les fuites d'informations

Le géant américain Apple décide d'interdire l'utilisation de ChatGPT à ses salariés selon un document interne officiel, dévoilé par le Wall Street Journal.

Le chatbot d'OpenAI est en effet utilisé pour de nombreuses tâches professionnelles : codage, élaboration de présentations, etc. Certains employés du groupe Apple auraient profité de ces fonctionnalités permises par l'IA à des fins professionnelles. L'entreprise craint qu'OpenAI collecte et transmette ainsi ce type d'information.

Cette interdiction fait écho à l'annonce de la sortie de l'application ChatGPT, disponible gratuitement pour le moment sur l'App Store aux États-Unis.

Les conversations avec ChatGPT gardées pendant 30 jours

De façon à améliorer le chatbot, OpenAI conserve l'ensemble des discussions entre les internautes et ChatGPT pour une durée de 30 jours. Néanmoins, il y a quelques semaines, une nouvelle fonctionnalité est sortie, qui permet de désactiver l'historique des discussions.

GitHub, un autre logiciel créé à partir d'une Intelligence Artificielle représenterait aussi un risque pour les données de l'entreprise. Cet outil génère de manière automatique des lignes de code pour aider les développeurs.

Samsung, Verizon...D'autres entreprises ont également interdit ChatGPT

Verizon ou Samsung ont aussi été amenés à interdire l'utilisation de ChatGPT à leurs employés, invoquant les mêmes raisons de protection des données confidentielles de l'entreprise.