Bonjour à tous et bienvenue dans le récap’ des résultats de Broadcom du Q3 2025 !

Avant de commencer, je tiens à te dire que je suis content de te retrouver. Vous êtes actuellement 1 306 lecteurs ! Je souhaite la bienvenue aux nouveaux et je tiens tous à vous remercier pour votre confiance.

Si on t’a transféré cet e-mail, sache que tu peux t’inscrire gratuitement à cette newsletter en cliquant sur le bouton ci-dessous 👇

Toutes les illustrations proviennent de Le Biais Financier

Le Biais Financier

Le Biais Financier

À travers des analyses claires et des contenus éducatifs, je vous aide à démystifier les marchés financiers tout en partageant mes stratégies d’investissement.

Points forts du commentaire du management 💬

Comme attendu, Broadcom dépasse les attentes avec un chiffre d’affaires publié de 18.015B$ (+3.24% vs consensus), en hausse 📈 de 28% YoY, et un EPS de 1.95$ (+4.28% vs consensus), en hausse 📈 de 37% YoY. La guidance est aussi battue assez largement avec un chiffre d’affaires anticipé à 19.1B$, soit une guidance supérieure de 4.4% face au consensus.

Le management ajoute que les résultats sont soutenus principalement par la croissance de leur sous-segment “AI Semiconductors” qui voit une croissance 📈 de 74% YoY. Ce segment comprend à la fois les programmes XPU (dont les TPUs de Google) mais aussi les routeurs et switch Ethernet.

Le segment semi-conducteurs est en hausse 📈 de 35% YoY à 11.072B$ (61% du CA) tandis que le segment infrastructure software est en croissance de 19% YoY à 6.943B$ (39% du CA).

Concernant les marges, la marge brute est en hausse de 395 points de base YoY à 68%. La marge EBITDA est elle aussi en croissance, de 250 points de base, à 54%. Niveau guidance, le management s’attend à une marge EBITDA ajustée de 67% au Q1, soit 100 points de base de moins que la marge actuelle.

Hock Tan, le CEO de Broadcom ajoute qu’il anticipe une poursuite du momentum sur le sous-segment “AI Semiconductors” et attend une croissance d’environ 100% 💥 avec un CA de 8.2B$ au Q1 2026.

Ces résultats sont clairement bons sur le papier et les commentaires du management sont en ligne avec la solidité de cette publication.

Ce qu’il faut retenir du call

Comme d’habitude, le call post publication est une mine d’informations, et c’est souvent là que sont expliqués les mouvements boursiers post-résultats. Commençons par le positif 👇

Hock Tan a annoncé que Broadcom avait acquis un 5è client pour son programme XPU, le 4è étant désormais connu (il s’agit d’Anthropic), qui a placé une commande d’1B$ avec une livraison estimée pour fin 2026.

Ce 5è client commence un contrat pluriannuel pour designer ses propres XPUs (personnellement, et c’est un pari personnel - rien ne vient d’une source interne - mais je pense que c’est AWS avec Trainium 4). On le verra plus tard, mais les clients qui conçoivent eux-même leurs puces ne le font jamais sur le court terme.

“Je suis heureux d’annoncer qu’au cours de ce trimestre, nous avons acquis un cinquième client XPU grâce à une commande de 1B$ prévue pour une livraison fin 2026. […]

C’est le cinquième client, et c’est un vrai client, et cela va monter en puissance. Ils sont engagés dans un effort pluriannuel pour développer leurs propres XPU. Et je m’arrêterai là.”

Hock Tan, CEO Broadcom

Hock Tan a aussi annoncé plusieurs chiffres sur le backlog, avec 73B$ sur les semiconducteurs IA (puce + optiques), dont 53B$ uniquement sur les programmes XPU, 10B$ sur TomaHawk 6 et 10B$ sur le reste. Ce backlog s’étale sur les 18 prochains mois (6 prochains trimestres) 👇

“Et tous ces composants, combinés à nos XPU, portent notre carnet de commandes total à plus de 73B$ aujourd’hui, soit presque la moitié du backlog consolidé de Broadcom, qui s’élève à 162B$. Nous prévoyons que ces 73B$ de backlog IA seront livrés au cours des 18 prochains mois […]

Notre carnet de commandes actuel pour les switches IA dépasse les 10B$, alors que notre dernier switch Tomahawk 6 de 102 Tbit/s — le premier et le seul de cette catégorie sur le marché — continue d’enregistrer des prises de commandes record.“

Hock Tan, CEO Broadcom

Hock Tan a aussi confirmé que la demande était sans précédent et que le backlog de 73B$ était plus à voir comme une borne basse et qu’elle allait probablement être dépassée 👇

“Donc ne considérez pas ces 73B$ comme un plafond correspondant aux revenus des 18 prochains mois. Nous disons simplement que c’est ce que nous avons aujourd’hui, et les commandes s’accélèrent. Honnêtement, cette accélération concerne non seulement les XPU, mais aussi les switches, les DSP et l’ensemble des composants destinés aux data centers IA. Nous n’avions jamais vu des prises de commandes de cette ampleur, en particulier pour les switches Tomahawk 6 au cours des trois derniers mois.”

Hock Tan, CEO Broadcom

Malheureusement, c’est tout pour les bonnes nouvelles. La première vraie inquiétude se situe sur le “customer tooling”, c’est-à-dire les clients qui souhaiteraient réduire le rôle de Broadcom dans la conception et internaliser le maximum de savoir faire.

Tout a commencé par cette question de Vivek Arya 👇

“Et puis la question principale, Hock, c’est qu’il existe une sorte de débat émergent autour du customer-owned tooling : vos clients hyperscale voudraient potentiellement faire davantage de choses eux-mêmes. Comment voyez-vous l’évolution de votre contenu XPU et de votre part chez votre plus gros client au cours des un à deux prochaines années ? Merci.”

Vivek Arya, Analyste Bank of America

Et le soucis, c’est que je ne suis vraiment pas convaincu par la réponse d’Hock Tan (et je ne suis pas le seul) 👇

“Mais pour ce qui est de l’avenir — votre question est plus largement : quelle est la trajectoire des XPU ? — ma réponse est la suivante: ne prenez pas pour parole d’évangile tout ce que vous entendez à ce sujet. C’est une trajectoire. C’est un effort pluriannuel, et beaucoup d’acteurs — il n’y en a pas beaucoup qui font des LLM — veulent développer leur propre accélérateur IA sur mesure, et pour de très bonnes raisons. Vous pouvez implémenter dans le matériel ce qu’avec un GPU généraliste vous ne pouvez faire qu’en logiciel, via des kernels et du code.

En matière de performances, vous obtenez des résultats bien supérieurs avec un XPU conçu spécifiquement pour une fonction donnée et optimisé matériellement. Nous le constatons avec les TPU, et avec tous les accélérateurs que nous développons pour nos autres clients. Les gains sont très supérieurs dans les domaines du Sparse Core, de l’entraînement, de l’inférence, du reasoning, etc. Maintenant, est-ce que cela signifie qu’à terme ils voudront tous le faire eux-mêmes ? Pas nécessairement. En réalité, la technologie du silicium continue à se mettre à jour et à évoluer en permanence. Et si vous êtes un acteur des LLM, où investissez-vous vos ressources pour rester compétitif, surtout quand vous devez concurrencer des GPU du marché qui ne ralentissent absolument pas leur rythme d’évolution ?

Donc, selon moi, ce concept de customer tooling est une hypothèse largement exagérée, et franchement, je ne pense pas qu’elle se réalisera. En fait, ils préfèrent garder la main sur leur destinée en poursuivant leur trajectoire pluriannuelle visant à créer leurs propres accélérateurs IA sur mesure — ou XPU Rex, comme nous les appelons.”

Hock Tan, CEO Broadcom

Ici, il y a beaucoup de points à analyser. Premièrement, Hock Tan indique que le marché pour les XPUs est très limité: concevoir sa puce est lourd en investissement et il faut être capable d’avoir une échelle suffisante pour rentabiliser l’investissement.

Là où je le rejoins, c’est qu’il mentionne le fait qu’il faut bien cibler ses investissements et que concurrencer Nvidia (qui n’est pas cité, mais c’est tout comme) est extrêmement difficile.

Mais là où ma vision des choses est différente de la sienne, c’est que, comme c’est extrêmement difficile de concurrencer les GPUs et que concevoir des puces n’est pas chose aisée, il va y avoir un grand nombre de projets ASIC qui seront abandonnés.

“Chacun de ces cinq clients peut désormais créer sa propre version d’un accélérateur XPU sur mesure pour l’entraînement et l’inférence. Et en pratique, ce sont presque deux trajectoires parallèles qui avancent quasiment en même temps pour chacun d’eux. Donc j’ai largement assez de versions à gérer ; je n’ai pas besoin d’en créer davantage. Nous avons déjà énormément de contenus différents rien qu’avec la création de ces accélérateurs sur mesure. Et au passage, lorsqu’on fabrique des accélérateurs personnalisés, on a tendance à intégrer davantage de matériel unique et différenciant, plutôt que d’essayer de tout faire fonctionner via le logiciel et des kernels logiciels.”

Hock Tan, CEO Broadcom

Ces puces sont extrêmement spécialisées et très peu évolutives et chaque XPU est différent. C’est vraiment ce qui pourrait mettre en péril le développement des ASIC: les chemins de développement pris dicteront la performance des puces.

Et avec un software en constante évolution et un écosystème IA qui évolue littéralement toutes les 3 semaines, difficile d’anticiper chaque changement technologique, là où les GPUs s’adapteront bien plus facilement et rapidement.

Ce n’est pas donné à tout le monde de concevoir une puce, le logiciel derrière et surtout d’avoir une stack technologique cohérente. C’est beaucoup plus facile de déléguer à Nvidia tout ce travail.

Puis le soucis, c’est que les clients qui ont des puces compétitives, comme Google (qui a plus de 10 ans d’expérience soit dit en passant), ont déjà internalisé une partie du savoir faire. AWS avec Trainium fait aussi une grosse partie de la conception (ils ne délèguent que le front-end à AlChip).

Ainsi, affirmer que les clients vont rester chez Broadcom est illusoire. Leur marge est supérieure à la concurrence Taïwanaise qui n’a pas grand chose à perdre et qui est en train de grignoter leur marché, en témoigne Google avec ses TPU v8 qui va déléguer une partie à MediaTek.

Alors oui, tout ne va pas se passer du jour au lendemain, mais il y a fort à parier qu’à l’horizon 2028, Google se tourne vers d’autres options pour ses TPUs, surtout si la marge de Broadcom reste si élevée. Et le soucis, c’est que Google représente environ 90% du CA sur la partie XPU.

Sur la supply chain, Hock Tan ne s’est pas non plus révélé très convaincant. C’est assez connu dans le milieu, Nvidia réserve la majorité des capacités CoWoS chez TSMC et les autres clients se battent pour des miettes.

Prévisions JP Morgan - Source

Là où Broadcom n’a pas de mal pour se fournir en capacité front-end (gravure des puces), avec un accès aux noeuds 2 et 3nm qui ne connaissent pas encore de pénurie, ce n’est pas du tout le cas pour les capacités de packaging avancé 👇

“Nos délais, selon le produit concerné, vont de six mois à un an. En ce qui concerne la chaîne d’approvisionnement — c’est ce que vous demandez — la partie critique concerne le silicium et le packaging ?

Oui. C’est un défi intéressant que nous traitons en permanence et que nous continuerons de traiter. Avec la vigueur de la demande et le besoin de packaging plus innovants, de packaging avancé — puisque chaque accélérateur sur mesure implique désormais du multi-chip — le packaging devient un défi technique majeur. La construction de notre fab à Singapour vise précisément à internaliser partiellement ces capacités de packaging avancé. Nous pensons que la demande est suffisamment forte pour justifier cette internalisation, non seulement pour des raisons de coûts, mais surtout pour sécuriser la chaîne d’approvisionnement et les livraisons. Nous construisons donc une installation de taille significative à Singapour dédiée au packaging avancé, comme vous l’avez indiqué, spécifiquement pour répondre à ce besoin.

Pour ce qui est du silicium, non, nous nous approvisionnons toujours auprès de la même source de fabrication chez TSMC, et nous continuons à demander toujours plus de capacité en 2nm, 3nm. Jusqu’à présent, nous n’avons pas cette contrainte. Mais encore une fois, le temps nous le dira, à mesure que nous progresserons et que notre carnet de commandes continuera d’augmenter.”

Hock Tan, CEO Broadcom

L’usine à Singapour qu’est en train de construire Broadcom devrait aider en ce sens, mais, contrairement à ce que l’on peut penser, le packaging est loin d’être simple. Pas pour rien que les clients s’intéressent de nouveau à Intel avec EMIB et Forevos: c’est uniquement parce que TSMC est complet et que les clients cherchent des alternatives.

Jusqu’ici, les problèmes restaient de l’ordre technique et assez peu analysables en l’état par un public non averti. Cependant, Hock Tan a lâché 2 bombes 💣 lors de cet appel. La première concerne OpenAI 👇

“Pour ce qui est de la vision côté OpenAI, nous apprécions le fait qu’il s’agisse d’un effort pluriannuel qui s’étendra jusqu’en 2029, comme l’indiquait notre communiqué de presse avec OpenAI. Les 10 gigawatts concernent la période allant de 2026 — en réalité plutôt 2027, 2028 et 2029, Ben, pas 2026. C’est plutôt 2027, 2028, 2029 — pour atteindre ces 10GW.”

Hock Tan, CEO Broadcom

Plus tôt dans l’année, Broadcom a annoncé un partenariat avec OpenAI sur leur plan pour accroître la capacité de calcul disponible pour l’entreprise de 10GW. Le soucis avec ce deal, c’est qu’il n’aura pas d’impact avant au moins fin 2026.

Or, OpenAI est déjà largement déficitaire. Donc ce deal, qui était très beau en apparence, repose sur des financements plus qu’incertain qu’OpenAI serait en mesure de lever à horizon 2028/2029. Pour ce qui est de 2026/2027, ça devrait passer, mais au-delà, rien n’est moins sûr.

Parce que, quand bien même OpenAI arriverait à trouver les financements nécessaires pour ce projet, encore reste-t’il la question de la performance de ces puces. C’est fort peu probable que les premières générations soient pertinentes et si OpenAI a du mal à se financer, ils privilégieront des valeurs sûres.

Mais la plus grosse bombe n’est pas sur le deal avec OpenAI, mais bien sur les marges. Tout a commencé avec une question de Stacy Rasgon de Bernstein 👇

“Salut à tous. Merci de prendre ma question. Je voulais parler des marges brutes, et cela rejoint peut-être un peu la question précédente. Je comprends pourquoi l’activité IA dilue quelque peu les marges brutes : nous avons le pass-through de la HBM, et ensuite, avec les ventes de systèmes, cela sera probablement encore plus dilutif. Vous l’avez déjà évoqué par le passé, mais je me demandais si vous pouviez être un peu plus explicites. À mesure que les revenus liés à l’IA montent en puissance, et que nous commençons à avoir des ventes de systèmes, comment devons-nous envisager le niveau de marge brute, disons en regardant à quatre ou six trimestres ? Est-ce que cela se situe dans la fourchette basse des 70 % ? Est-ce que cela pourrait commencer par un 6 au niveau consolidé du groupe ?

Et j’essaie aussi de comprendre : je vois bien pourquoi les marges brutes baissent, mais qu’en est-il des marges opérationnelles ? Pensez-vous obtenir suffisamment de levier opérationnel sur les dépenses OpEx pour maintenir des marges opérationnelles stables, ou doivent-elles aussi baisser ?”

Stacy Rasgon, Analyste Bernstein Research

Et le management n’as pas du tout été convaincant 👇

“Les revenus liés à l’IA ont une marge brute plus faible que, évidemment, le reste de notre activité — y compris le logiciel, bien sûr. Mais nous nous attendons à ce que le rythme de croissance, à mesure que nous générons de plus en plus de revenus IA, soit tel que nous obtenions du levier opérationnel sur nos dépenses d’exploitation. Ainsi, la marge opérationnelle continuera de générer en dollars un niveau de croissance très élevé par rapport à ce qu’il a été. Donc nous pensons que le levier opérationnel jouera en notre faveur au niveau de la marge opérationnelle, même si la marge brute commencera à se dégrader. Voilà pour la vue d’ensemble.”

Hock Tan, CEO Broadcom

“Oui. Je pense que Hock l’a bien résumé, et pour la seconde moitié de l’année, lorsque nous commencerons à expédier davantage de systèmes, la situation est simple : nous répercuterons davantage de composants qui ne sont pas les nôtres. Voyez cela comme pour les XPU, où nous intégrons de la mémoire sur ces XPU et où nous répercutons ce coût. Nous répercuterons davantage de coûts au niveau du rack, et donc les marges brutes seront plus faibles.

Cependant, globalement — comme Hock l’a expliqué — les dollars de marge brute vont augmenter, même si les pourcentages de marge diminuent. Les marges opérationnelles, grâce au levier opérationnel, verront elles aussi les dollars générés augmenter, mais la marge en pourcentage du chiffre d’affaires baissera un peu. Mais nous donnerons des indications plus précises à l’approche de la fin de l’année.”

Kristen Spears, CFO Broadcom

Ce que nous explique le management ici, c’est que non seulement leur segment semiconducteurs IA a des marges plus faibles que leur business principal, mais qu’elles vont baisser.

Certes, c’est pour des raisons structurelles, quoiqu’Nvidia n’a pas ce problème, mais ça reste quand même un point noir. Sans parler du fait que le management s’attend à faire croître la marge opérationnelle grâce à un levier opérationnel, mais au vu du discours, ce n’est pas très rassurant…

Mon analyse à chaud 🔥

Je pense que vous aurez déjà deviné mon avis sur ces résultats… Ils sont bons en apparence mais le call avec les analystes a été très décevant. D’ailleurs, le marché l’a aussi fait savoir avec une baisse de 4.5% après le call 📉.

Je trouve que le marché a été particulièrement sympa avec Broadcom, qui reste valorisée à 100 fois les bénéfices 🤯… Normalement, le marché aurait dû corriger bien plus. 28% de croissance, c’est loin d’être suffisant pour justifier cette valorisation, et si on combine avec ce qui a été dit pendant le call, ça ne m’aurait pas étonné de voir un -10/15%.

Je trouve que le management n’a pas du tout été rassurant et Hock Tan semble à côté de la plaque concernant le COT (customer-owned tooling). Le marché devient de plus en plus concurrentiel et l’avantage compétitif est plus que discutable.

À court terme, il ne devrait pas y avoir trop de grabuge, mais à horizon 2027-2028, le discours risque d’être différent. Il est fort probable que Broadcom doive baisser 📉 ses marges pour garder ses clients.

Cette publication ne m’a pas conforté dans ma position sur Broadcom et je pense que tout est déjà inclus dans les cours pour les 2-3 prochaines années. Le soucis, c’est que post-2028 risque d’être compliqué pour l’entreprise si les acteurs Taïwanais arrivent avec une offre alléchante sur la co-conception.

Donc, vous l’aurez deviné, à la suite de cette publication, j’abaisse ma fair value sur Broadcom à 185$ - 240$ (entre 30 et 40 fois les bénéfices 2026, ce qui reste généreux) contre 240$ - 280$ au trimestre précédent. J’estime que l’entreprise est plus que survalorisée actuellement.

Par ailleurs, je révise aussi mes anticipation sur les parts de marché des accélérateurs IA à horizon 2030. Ainsi, je pense que les ASIC ne représenteront pas plus de 25% de parts de marché. Nvidia devrait conserver dans les 65% et j’anticipe qu’AMD monte à 8%. Le reste devrait être capté par les autres fabricants.

Paradoxalement, ces résultats m’ont fait passer beaucoup plus bullish sur AMD que je ne l’étais il n’y ne serait-ce que 3 semaines.

Commenter

or to participate