Maison Nouvelles Chatgpt Maker soupçonne que les modèles de l'IA profonde de la terre chinoise pas cher ont été construits à l'aide de données Openai - et l'ironie n'est pas perdue sur Internet

Chatgpt Maker soupçonne que les modèles de l'IA profonde de la terre chinoise pas cher ont été construits à l'aide de données Openai - et l'ironie n'est pas perdue sur Internet

Auteur : Carter Mise à jour : Mar 21,2025

OpenAI a exprimé ses inquiétudes selon lesquelles les modèles d'IA profonde de la Chine, connus pour leur faible coût, ont peut-être été développés à l'aide des données d'OpenAI. Cela a provoqué une forte réaction, Donald Trump appelant Deepseek un réveil pour l'industrie de la technologie américaine après une baisse significative de la valeur marchande de Nvidia - une perte de près de 600 milliards de dollars. L'émergence de Deepseek a déclenché une forte baisse des cours des actions des grandes sociétés axées sur l'IA. Nvidia, un acteur dominant du marché GPU crucial pour l'opération du modèle d'IA, a connu l'automne la plus spectaculaire, avec une baisse de 16,86% - la plus grande perte d'une journée dans l'histoire de Wall Street. Microsoft, Meta, Alphabet et Dell Technologies ont également connu des diminutions significatives de leurs valeurs de part.

Deepseek promeut son modèle R1 en tant qu'alternative beaucoup moins chère aux offres d'IA occidentales comme Chatgpt. Construit sur la profondeur open-source-v3, il nécessiterait beaucoup moins de puissance de calcul et avait un coût de formation estimé à seulement 6 millions de dollars. Bien que cette réclamation ait été contestée, elle a alimenté les préoccupations concernant les investissements massifs réalisés par les entreprises technologiques américaines dans l'IA, les investisseurs troublants. La popularité de Deepseek a encore augmenté, atteignant le sommet des tableaux de téléchargement de l'application gratuits américains au milieu de discussions croissantes sur ses capacités.

Bloomberg a rapporté qu'Openai et Microsoft étudient si Deepseek a exploité l'API d'Openai pour intégrer les modèles d'IA d'Openai dans ses propres. OpenAI a reconnu que les entreprises chinoises, et d'autres, tentent constamment d'extraire les données de la conduite des entreprises américaines de l'IA par le biais de la distillation, une technique violant les conditions d'utilisation d'Openai. Openai a souligné son engagement à protéger sa propriété intellectuelle et à collaborer avec le gouvernement américain pour protéger sa technologie.

David Sacks, le tsar de l'IA du président Trump, a indiqué que des preuves substantielles suggèrent que Deepseek a utilisé la distillation pour extraire les connaissances des modèles OpenAI. Il prévoit que les contre-mesures de la tête des sociétés d'IA pour prévenir les actions similaires à l'avenir.

La situation met en évidence une ironie importante, étant donné qu'Openai lui-même a été confronté à des accusations d'utilisation du matériel protégé par le droit d'auteur sans autorisation dans la création de Chatgpt. Ed Zitron, un écrivain de relations publiques technologiques, a souligné cette hypocrisie sur Twitter.

Openai a précédemment déclaré dans une soumission à la Chambre des Lords du Royaume-Uni que la formation de modèles d'IA comme Chatgpt sans matériel protégé par le droit d'auteur est impossible en raison de l'étendue générale des lois actuelles sur le droit d'auteur. Cette position s'aligne sur leur réponse aux poursuites du New York Times et à 17 auteurs, qui allèguent l'utilisation illégale de leur travail dans les produits d'Openai et de Microsoft. Openai soutient que ses pratiques de formation constituent une «utilisation équitable». Les complexités entourant le droit d'auteur dans le contexte de la formation de l'IA sont en outre soulignées par un bureau de droit d'auteur américain de 2018, constatant que l'art généré par l'AI ne peut pas être protégé par le droit d'auteur.

Deepseek est accusé d'utiliser le modèle d'Openai pour former son concurrent en utilisant la distillation. Crédit d'image: Andrey Rudakov / Bloomberg via Getty Images.