- Disiz Yyov
- Posts
- DeepSeek vient de confirmer mes soupçons sur OpenAI
DeepSeek vient de confirmer mes soupçons sur OpenAI
Pourquoi ChatGPT mène un jeu perdant 👇

Habituellement, il y a trois raisons pour lesquelles OpenAI fait la une des journaux :
Un fiasco parmi les membres du conseil d'administration
Le lancement d'un nouveau produit
Ou ils se plaignent de ne toujours pas faire de profits
Récemment, ils ont fait la une pour la raison numéro 3 👇
Début janvier, Sam Altman a publié ce tweet :

Pour vous donner un peu de contexte, le 5 décembre 2024, OpenAI a lancé un abonnement ChatGPT Pro à 200 $ qui, selon leurs dires, "permet un accès plus large aux meilleurs modèles et outils d'OpenAI."
Un abonnement de 200 $ par mois est assez cher, mais les abonnés auront un accès illimité aux modèles les plus intelligents d'OpenAI. On parle de certains des outils les plus cool sur le marché de l'IA actuellement : OpenAI o1, o1-mini, GPT-4o, Advanced Voice, et plus encore.
Qu'OpenAI perde encore de l'argent malgré ce modèle d'abonnement ne me surprend pas du tout.
Pour commencer, cela confirme une position que je défends depuis longtemps : l'approche d'OpenAI consistant à lancer trop de modèles n'est pas une stratégie judicieuse.
J'ai perdu le compte du nombre d'outils brillants qu'OpenAI a lancés depuis le début de ChatGPT en 2022. Lancer de nouveaux produits avancés semble être leur principale stratégie pour atteindre la rentabilité.
Il y a toujours un nouveau produit du fabricant d'IA avant même que le marché ne s'habitue à celui qu'ils ont lancé précédemment.
Mais ce n'était pas comme ça pour les plus grandes entreprises d'aujourd'hui.
Google est devenu rentable alors qu'il n'avait que deux produits sur le marché : Google Search et Google AdWord
Facebook est devenu rentable avec seulement l'application Facebook et les publicités comme principales offres
Apple a commencé à faire des profits deux ans après sa création, avec l'Apple I et II comme produits principaux
Microsoft a commencé à faire des profits immédiatement après son lancement, en étant le seul fournisseur de l'interpréteur BASIC pour le kit Altair 8800
OpenAI, avec plus de 10 produits lancés, n'est toujours pas rentable.
Et je comprends, les principales raisons de cette non-rentabilité sont les coûts insensés de formation et d'exécution des modèles d'IA, ainsi que les investissements massifs dans la recherche et le développement.
Cela coûte à OpenAI jusqu'à 700 000 $ par jour pour faire fonctionner ses modèles, et ils dépensent des milliards chaque année en recherche et développement.
La conséquence est que, malgré un chiffre d'affaires de plus de 3,7 milliards de dollars l'année dernière, l'entreprise a enregistré une perte nette de plus de 5 milliards de dollars.
Tout chez OpenAI est énorme : les utilisateurs, la valorisation, le chiffre d'affaires, le nombre de produits et les pertes. Tout, sauf les profits… !
Je pense que lancer trop de produits comme moyen de rechercher la rentabilité n'est pas une stratégie judicieuse, car cela ne fait qu'augmenter considérablement les coûts de formation et d'exécution.
C'est une question de mathématiques simples.
Si cela coûte à OpenAI un hypothétique 0,10 $ par requête lorsqu'un utilisateur utilise l'un de ses produits, ce coût est voué à augmenter avec le nombre d'utilisateurs, que ce soit pour un seul produit ou pour 10 de plus.
Plus de produits et d'utilisateurs signifient que vous brûlez plus d'argent.

Toute startup donnerait tout pour avoir un million d'utilisateurs et ferait tout pour avoir plus d'un produit que les gens recherchent.
Avec plus de 300 millions d'utilisateurs pour ChatGPT seul, et jusqu'à 10 produits sur le marché, OpenAI devrait vivre le rêve. Mais avec la réalité des coûts, le rêve de toute startup est, dans ce cas, le cauchemar d'OpenAI.
Je ne sais pas pourquoi OpenAI a continué à suivre cette voie de plus en plus de produits.
Bref, pour revenir à notre scénario hypothétique, si le coût par requête peut être réduit à 0,01 $ par utilisateur, cela représenterait une réduction par 10 des coûts d'exécution. Et qui a dit qu'ils s'arrêteraient là ?
SpaceX a suivi le modèle de réduction des coûts avec la construction et le lancement de fusées.
Est-ce que je dis que c'est facile à faire ? Certainement pas.
J'avais des doutes sur la possibilité d'appliquer cette approche de réduction des coûts à la formation et à l'exécution de l'IA, surtout en considérant à quel point l'industrie est naissante, et le risque qu'OpenAI perd face à ses concurrents s'il choisit de se concentrer sur la réduction des coûts plutôt que sur le lancement de nouveaux produits.
Ces doutes ont persisté jusqu'au lancement de DeepSeek…
L'exploration spatiale était autrefois un domaine extrêmement complexe et coûteux. Tout, des théories qui la sous-tendent à la construction pratique des fusées, est d'une complexité qui dépasse la plupart des gens.
Pire encore, tout ce qui concerne l'exploration spatiale est ridiculement cher. Envoyer une fusée dans l'espace coûtait généralement près de 2 milliards de dollars à la NASA.
Les implications de ce coût sont doubles :
Moins de fusées sont envoyées dans l'espace.
L'exploration spatiale progresse plus lentement.
Puis, Elon Musk a décidé de faire quelque chose de différent.
Grâce à SpaceX, Musk a réussi à rendre la construction de fusées beaucoup moins chère. Les vols de SpaceX peuvent coûter entre 62 et 90 millions de dollars, soit une réduction de plus de 90 % du prix.
Cela a permis d'envoyer plus de fusées dans l'espace et d'accélérer l'exploration spatiale.
La société a réussi cela grâce à une combinaison de facteurs :
Fabrication en interne (au lieu de sous-traiter)
Simplification de la conception
Réutilisabilité
Résultat : en avril 2024, SpaceX lançait une mission tous les 2,7 jours.
Un chiffre qui prend tout son sens quand on sait que, des années 1980 aux années 2010, une mission était lancée tous les 2,8 jours, non seulement par la NASA, mais dans le monde entier !
L'arrivée de DeepSeek
DeepSeek fait sensation dans le monde de la tech après le lancement de son dernier modèle R-1 le 20 janvier.
Pas besoin de connaissances techniques pour comprendre le génie et l'importance de ce lancement.

Seuls trois points méritent d'être mentionnés :
Ses performances égalent ou surpassent celles du modèle o1 d'OpenAI sur certains benchmarks d'IA.
L'utilisation est gratuite, avec des coûts d'API trente fois moins chers que ceux du modèle o1 d'OpenAI.
La formation d'un de ses modèles coûte 5,6 millions de dollars, contre 100 000 à 1 milliard de dollars pour construire un modèle chez les concurrents.
Au lieu de suivre ce que les acteurs établis de l'industrie de l'IA faisaient, DeepSeek a choisi une approche différente.
Cela leur a permis de réduire les coûts tout en obtenant des résultats presque équivalents à ceux des autres acteurs.
Ils ont fait au moins quatre choses différemment :
Utilisé une optimisation intelligente pour faire fonctionner leurs ressources existantes de manière plus efficace.
Formé uniquement les parties importantes des modèles.
Opté pour une mémoire plus petite, ce qui a conduit à des résultats plus rapides et à des coûts réduits.
Exploité l'apprentissage par renforcement.
Les détails sont plus complexes qu'ils n'y paraissent, mais le résultat est évident pour tout le monde.
Espérons qu'OpenAI verra la nécessité d'innover en matière de réduction des coûts plutôt que de continuer à inonder le marché avec de nombreux produits et à facturer des abonnements exorbitants aux utilisateurs. C'est encore possible !
D’ailleurs, après le nouveau modèle o3-mini et o3 mini high, ils viennent de lancer Deep Research.
Dès que ce sera disponible en Europe, je vous ferai un petit debrief. Ca m’a l’air pas mal, c’st un agent capable de faire des recherches et des rapports en quelques minutes au lieu de quelques heures pour nous les humains.
L’avenir nous dira si cette fonctionnalité sera également rendue gratuite ou du moins, accessible à tou(te)s !
Reply