Une vulnérabilité dans l’application Mac de ChatGPT
OpenAI, célèbre pour ses innovations comme ChatGPT et DALL-E, a été récemment confrontée à des problèmes de sécurité préoccupants. Pedro José Pereira Vieito, un ingénieur en développement Swift, a révélé une faille dans l’application Mac de ChatGPT. Il a découvert que les échanges des utilisateurs étaient stockés localement en clair, sans chiffrement. Étant donné que cette application n’est disponible que via le site d’OpenAI et pas sur l’App Store, elle échappe aux protocoles de sécurité stricts d’Apple, comme le sandboxing. Ce dernier est essentiel pour limiter la propagation de failles de sécurité.
L’enregistrement en clair expose des données sensibles à des accès non autorisés. Suite à cette découverte, OpenAI a déployé une mise à jour pour intégrer le chiffrement des conversations stockées localement, mais cette négligence soulève des questions sur la confidentialité des utilisateurs.
Une attaque interne révélatrice
La seconde faille, bien qu’elle ait eu lieu en 2023, continue d’avoir des répercussions. Un hacker a réussi à infiltrer les systèmes de messagerie interne d’OpenAI, récupérant des informations confidentielles. Leopold Aschenbrenner, un responsable technique chez OpenAI, a alerté le conseil d’administration sur des vulnérabilités internes, signalant que cette intrusion pouvait être exploitée par des acteurs malveillants.
Aschenbrenner a été licencié après avoir partagé des préoccupations concernant la sécurité de l’entreprise. OpenAI a contesté certaines de ses affirmations, affirmant que son départ n’était pas lié à son rôle de lanceur d’alerte. Cependant, cela soulève des doutes quant à la transparence de l’entreprise. OpenAI a souvent été critiquée pour son manque de clarté sur ses opérations et ses décisions stratégiques, laissant le public dans l’ignorance concernant ses pratiques de sécurité.
