26 C
Marrakech
dimanche 3 août 2025

Best Selling BLOG and MAGAZINE

Thème of All Time

Experience the change!

Publicité gauche
Publicité gauche
Accueil A La Une Que cache OpenAI ? Les lanceurs d’alerte exigent une protection contre les...

Que cache OpenAI ? Les lanceurs d’alerte exigent une protection contre les poursuites

0
58

OpenAI fait face à des allégations selon lesquelles elle aurait imposé des accords restrictifs de non-divulgation à ses employés, un lanceur d’alerte ayant déposé une plainte auprès de la Securities and Exchange Commission des États-Unis. Les lanceurs d’alerte réclament une enquête sur ces accords, qui, selon eux, obligent les employés à renoncer à leurs droits fédéraux à indemnisation s’ils dénoncent.

Selon Reuters, une lettre a été envoyée par le bureau du sénateur Chuck Grassley appelant à une enquête immédiate sur les pratiques d’OpenAI et à examiner les efforts actuels de l’entreprise pour garantir le respect des règles de la SEC. La lettre allègue que les contrats de travail stricts d’OpenAI incluent des conditions de licenciement et de non-divulgation qui pourraient entraîner des sanctions pour les employés qui signalent des actes répréhensibles aux autorités fédérales.

Les lanceurs d’alerte ont demandé à la SEC d’imposer une amende à OpenAI pour chaque accord inapproprié et d’exiger de l’entreprise qu’elle soumette pour examen tous les contrats contenant des accords de non-divulgation.

Dans une déclaration envoyée par courrier électronique à Reuters, un porte-parole de la SEC n’a pas commenté la présence ou l’absence d’une éventuelle demande de dénonciation.

Le sénateur Grassley a déclaré que l’intelligence artificielle change très rapidement le paysage technologique et que les pratiques d’OpenAI semblent avoir un impact négatif sur le droit des lanceurs d’alerte de s’exprimer et de recevoir une compensation pour leurs divulgations protégées.

Ces développements surviennent alors que les chatbots d’OpenAI, dotés de capacités d’IA générative, ont soulevé des problèmes de sécurité à mesure que les modèles d’IA deviennent plus puissants. En mai, OpenAI a formé un comité de sûreté et de sécurité dirigé par des membres du conseil d’administration, dont le PDG Sam Altman, pour répondre à ces préoccupations.

poup

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici