Explorez 14 principales alternatives et concurrents Nvidia en 2026
NVIDIA domine le marché des GPU discrets pour ordinateurs de bureau, détenant près de 88 % de part de marché en 2024, principalement grâce à sa gamme de produits GeForce, populaire auprès des joueurs et des utilisateurs professionnels.
C'est également le leader du marché du matériel d'IA et d'apprentissage automatique, avec près de 98 % de part de marché pour les GPU et les processeurs d'IA utilisés dans les centres de données. Selon TechInsights, une société d'analyse des semi-conducteurs, Nvidia a expédié 3,76 millions de GPU pour centres de données en 2023, contre 2,64 millions en 2022. [1]
Cette augmentation a contribué à ce que les revenus de NVIDIA atteignent 96,3 milliards de dollars pour l'exercice se terminant en juillet 2024, soit une augmentation stupéfiante de 194,6 % d'une année sur l'autre. Environ 78 % de ce chiffre d'affaires provenait de son activité de centres de données, et 17,1 % de son segment de GPU pour ordinateurs de bureau.
Au cours de l’exercice 2025, les revenus de Nvidia ont atteint 165,21 milliards de dollars, en hausse de 71,55 % par rapport à l’année précédente. Son bénéfice brut a atteint le chiffre stupéfiant de 115,39 milliards de dollars, soit une augmentation de 57,71 % sur un an.
Si les revenus de Nvidia augmentent rapidement, elle est également confrontée à une forte concurrence sur plusieurs marchés clés. Nous mettons ici en avant les principaux concurrents qui contestent la domination de NVIDIA dans des domaines tels que les puces IA, les centres de données, les GPU de jeu et les technologies de conduite autonome.
Le saviez-vous ?
L'acquisition la plus coûteuse de NVIDIA à ce jour a été l'achat de Mellanox Technologies pour 6,9 milliards de dollars en 2019. Cette acquisition a permis à Nvidia de renforcer sa position sur le marché des centres de données en proposant des solutions informatiques de bout en bout combinant GPU et réseau. [2]
14. IBM
Fondé :1911
Revenu annuel :64,03 milliards de dollars+
Concurrence :IA et HPC
IBM est en concurrence avec NVIDIA principalement dans les domaines de l'IA, du calcul haute performance (HPC) et des solutions pour centres de données. Plus précisément, ses Watson AI et Power Systems rivalisent avec les GPU accélérés par l'IA de NVIDIA utilisés pour les charges de travail d'apprentissage automatique.
IBM est fortement présent dans les services cloud hybrides :il fournit des solutions d'IA et d'automatisation adaptées à divers secteurs tels que la finance, la santé et la logistique. Sa division de conseil aide les entreprises à intégrer en profondeur les technologies de l'IA et du cloud, en proposant une approche plus complète que la stratégie axée sur le matériel de Nvidia.
Selon un rapport d'étude de marché, les services mondiaux d'IBM Watson étaient évalués à 5,5 milliards de dollars en 2023 et devraient atteindre 76,47 milliards de dollars d'ici 2033, avec un TCAC de 30,1 %. [3]
IBM investit également massivement dans l'informatique quantique. En 2023, elle a dévoilé le puissant processeur Condor doté de 1 121 qubits supraconducteurs, qui pourrait concurrencer les futures entreprises de NVIDIA dans ce domaine. [4]
Du côté de la recherche, le matériel quantique d'IBM est utilisé pour des expériences plus complexes, notamment des simulations de la théorie de jauge sur réseau et des études de phases topologiques. Ces expériences mettent en évidence la maturité croissante des dispositifs quantiques « bruyants à échelle intermédiaire ».
13. Technologie Marvell
Fondé :1995
Revenu annuel :6,5 milliards de dollars+
Concurrence :Infrastructure de données
Marvell Technology est une société de semi-conducteurs qui concurrence NVIDIA sur certains segments, notamment sur les marchés des centres de données, du cloud et des infrastructures 5G. Alors que NVIDIA se concentre sur les GPU, Marvell se concentre sur les technologies de réseau, de stockage et de processeur pour les centres de données.
Marvell développe Ethernet, des commutateurs pour centres de données, des unités de traitement de données et des contrôleurs de stockage, qu'elle vend aux constructeurs OEM, aux fournisseurs de services cloud et aux entreprises de télécommunications. Elle a une forte empreinte sur le marché des infrastructures 5G :elle travaille avec les principaux fournisseurs de télécommunications et propose des produits spécifiquement conçus pour optimiser les stations de base 5G.
En 2025, la société a lancé la solution UALink Scale-up, visant à maximiser l'utilisation du calcul sur les accélérateurs et les commutateurs. Ses principales caractéristiques incluent une faible latence, la prise en charge des normes ouvertes et des options de packaging flexibles telles que le cuivre ou l'optique co-packagés.
Marvell détient plus de 20 290 brevets dans le monde, couvrant les technologies des semi-conducteurs, des réseaux et de la 5G. Parmi eux, 49,6 % sont actuellement actifs. La majorité des brevets ont été déposés aux États-Unis, suivis par la Chine et les pays européens. [5]
12. Synopsis
Fondé :1986
Revenu annuel :6,43 milliards de dollars+
Concurrence :Fournit des outils d'automatisation de la conception basés sur l'IA
Synopsys fournit des logiciels et de la propriété intellectuelle (IP) pour la conception, la vérification et les tests de puces, que les sociétés de semi-conducteurs comme Nvidia utilisent pour créer des GPU complexes, des accélérateurs d'IA et des SoC (système sur puce). Alors que Synopsys se concentre sur le processus de conception, Nvidia se concentre sur la construction et la commercialisation des puces elles-mêmes.
Synopsys propose également des solutions en matière de sécurité logicielle et de vérification matérielle. Synopsys et Nvidia se rejoignent pour assurer la sécurité des systèmes basés sur l'IA, bien que le premier se concentre davantage sur la phase de vérification et de test.
Synopsys a connu une croissance constante dans les outils d'automatisation de la conception électronique (EDA) et les licences IP de semi-conducteurs, avec une croissance annuelle des revenus de 13 à 15 %. Cette croissance est tirée par la demande croissante d’IA et de conceptions de puces personnalisées. [6]
En 2025, Synopsys a acquis Ansys, créant de nouvelles synergies en combinant les outils d'automatisation de la conception électronique (EDA) de Synopsys avec la simulation et la modélisation basée sur la physique d'Ansys. L’objectif est de fournir des capacités « du silicium aux systèmes » plus solides dans tous les secteurs.
11. Amazon (puces AWS Inferentia et Trainium)
Fondé :1994
Revenu annuel :111 milliards de dollars+ (d'AWS)
Concurrence :Processeurs Graviton et Inferentia
AWS a développé son propre silicium personnalisé, notamment des processeurs Graviton pour les charges de travail de calcul générales et des puces Inferentia optimisées pour l'inférence d'apprentissage automatique. Avec ces deux puces, Amazon vise à réduire sa dépendance vis-à-vis du matériel tiers. [7]
Les processeurs Inferentia d'Amazon ciblent les processeurs A100 et H100 de Nvidia, conçus pour les charges de travail d'inférence d'apprentissage automatique. Il a également introduit des puces Trainium pour l'apprentissage en profondeur de modèles comportant plus de 100 milliards de paramètres. [8][9]
Amazon propose des services d'IA et d'apprentissage automatique, tels que SageMaker (un service d'apprentissage automatique entièrement géré), via AWS. En revanche, Nvidia alimente les systèmes d'IA avec ses GPU et ses plates-formes logicielles comme CUDA.
L'entreprise a également réalisé des progrès significatifs dans le domaine des systèmes autonomes en acquérant Zoox, une startup de conduite autonome. Cette acquisition a renforcé la position d'Amazon dans les brevets sur les technologies de conduite autonome et a aidé l'entreprise à améliorer l'automatisation de son réseau de distribution, en particulier pour la livraison du dernier kilomètre.
De plus, AWS s'efforce de réduire sa dépendance à l'égard des fournisseurs de GPU (principalement Nvidia) pour les charges de travail de formation et d'inférence en développant et en mettant à l'échelle ses propres puces. Cela réduit les coûts (la soi-disant « taxe Nvidia ») et donne à AWS plus de contrôle sur les performances, l'énergie et l'évolutivité.
10. Alibaba Cloud
Hanguang 800 NPU
Fondé :2009
Revenu annuel :15 milliards de dollars+
Concurrence : Infrastructure matérielle d'IA
Alibaba Cloud est l'un des plus grands fournisseurs de services cloud, détenant près de 4 % du marché mondial des services cloud. Il propose des services IaaS, PaaS et IA. Comme AWS, Alibaba Cloud utilise les GPU Nvidia pour les charges de travail d'IA et de ML, mais a également développé ses propres puces pour concurrencer le matériel de Nvidia.
Par exemple, son Hanguang 800 (puce d’inférence IA) est en concurrence avec les GPU A100 et H100 de Nvidia pour l’inférence IA dans le cloud. Optimisé pour une faible consommation d'énergie, le Hanguang 800 peut effectuer des tâches telles que l'analyse d'images pilotée par l'IA (qui prend généralement une heure) en seulement cinq minutes. [10]
En 2022, Alibaba Cloud a présenté sa plate-forme de développement de puces, Wujian 600. Elle peut aider les fabricants à concevoir des SoC hautes performances pour l'informatique Edge-AI, en tirant parti de l'architecture de jeu d'instructions RISC-V de manière rentable et efficace. [11]
En 2023, les dépenses annuelles de R&D d’Alibaba ont atteint 7,6 milliards de dollars, se concentrant sur les puces IA, l’infrastructure cloud et le développement de puces personnalisées. Pour l'exercice 2024, Alibaba Cloud Intelligence Group a déclaré un chiffre d'affaires annuel de 14,73 milliards de dollars, soit une augmentation de 3 % sur un an, avec un EBITA atteignant 848 millions de dollars.
En 2025, Alibaba s’est engagé à investir près de 52 milliards de dollars au cours des trois prochaines années pour développer son infrastructure cloud et ses capacités d’IA. C'est plus que ce qu'il prétend avoir dépensé en IA + cloud au cours de la dernière décennie.
9. Google (Tensor Processing Units – TPU)
Google TPU :Bois de fer
Fondé :2008 (plateforme Google Cloud)
Revenu annuel : 36 milliards de dollars+ (de Google Cloud)
Concurrence : Unités de traitement tensoriel (TPU)
Google a développé des unités de traitement Tensor (TPU) pour accélérer les charges de travail d'apprentissage automatique. Les TPU sont optimisés pour TensorFlow, le framework d'apprentissage automatique open source de Google qui s'intègre au CUDA de NVIDIA.
Les TPU offrent une grande efficacité pour la formation de modèles d’IA. Par exemple, Google a signalé que les TPU pourraient entraîner des modèles comme ResNet-50 jusqu'à 15 fois plus rapidement que les GPU conventionnels (tels que Nvidia P100) lors de leur introduction.
En 2024, Google a annoncé la sixième génération de son TPU, qui offre 4,7 fois plus de calcul de pointe par puce et est plus de 67 % plus économe en énergie que la génération précédente. Ce nouveau TPU est conçu pour accélérer la prochaine vague de modèles d’IA, en offrant des performances plus rapides et plus efficaces avec une latence réduite. [12]
Google est également leader en matière de recherche et d'innovation en matière d'IA, avec des développements pionniers dans les domaines de l'apprentissage profond, du traitement du langage naturel, du cloud computing et du matériel personnalisé pour l'IA. Pour l'exercice 2024, l'entreprise a dépensé 47,13 milliards de dollars en R&D, soit une augmentation de 10,65 % d'une année sur l'autre. [13]
En 2025, Google a annoncé Ironwood, son premier TPU spécialement conçu pour l'inférence, fournissant environ 4 614 TFLOP par puce et évoluant jusqu'à 9 216 puces par cluster pour environ 42,5 exaflops revendiqués.
8. Huawei
Fondé :1987
Revenu annuel :99,37 milliards de dollars
Concurrence : Infrastructure IA et 5G
Huawei développe ses propres puces IA, notamment les processeurs Ascend. Les puces Ascend 910 et Ascend 310, par exemple, sont conçues pour des tâches d'IA hautes performances. Les puces de la série Ascend 910B de deuxième génération ont augmenté les performances théoriques maximales de 80 TFLOPS (FP16) par rapport aux puces de la série Ascend 910 de première génération. [14]
Ces puces alimentent Huawei Cloud Services, le deuxième fournisseur de cloud en Chine continentale. NVIDIA est en concurrence ici en fournissant des GPU à d'autres grands fournisseurs de cloud et entreprises pour les charges de travail d'IA et de ML.
Huawei prépare de nouvelles puces, telles que l'Ascend 910D, avec l'ambition d'égaler ou de dépasser certaines des offres de Nvidia en matière de capacité de formation.
Huawei est également le leader des télécommunications 5G et de l'informatique de pointe, détenant près de 30 % du marché mondial des équipements de télécommunications. Ses technologies IA et 5G recoupent les ambitions de NVIDIA de dominer l’IA à la périphérie, en particulier pour les systèmes autonomes et l’IoT. [15]
7. Technologie micronique
Fondé :1978
Revenu annuel :21,37 milliards de dollars
Concurrence : Solutions de mémoire pour les charges de travail d'IA
Micron développe des solutions de stockage DRAM, mémoire flash NAND et SSD. Bien que l'entreprise ne soit pas directement en concurrence dans le domaine des GPU ou du matériel d'IA, ses produits sont cruciaux pour les performances des modèles d'IA et des infrastructures cloud, dans lesquels NVIDIA opère également.
Les solutions de mémoire de Micron stockent et gèrent des ensembles de données massifs (traités par des puces d'IA), offrant un accès à haut débit requis par les algorithmes d'IA. La société est le principal fournisseur de mémoire GDDR6X, essentielle pour les GPU hautes performances de NVIDIA utilisés dans les applications d'IA et de centres de données.
Micron est le troisième producteur de puces DRAM, détenant environ 21,5 % du marché mondial de la DRAM, derrière Samsung et SK Hynix. Elle détient également 9,9 % du marché des mémoires flash NAND. [16]
En 2025, la société a lancé son nœud DRAM 1-gamma, qui utilise la lithographie EUV (ultraviolet extrême). Ils ont également introduit de nouveaux modules de facteur de forme DDR5 qui incluent un pilote d'horloge sur le module de mémoire (plutôt que de s'appuyer entièrement sur l'horloge du processeur). Ces modules peuvent atteindre des vitesses allant jusqu'à 6 400 MT/s.
6. Systèmes Cisco
Fondé :1984
Revenu annuel :56,6 milliards de dollars+
Concurrence : IA, infrastructure de centre de données et mise en réseau
La principale force de Cisco réside dans le matériel (tel que les commutateurs et les routeurs) et les solutions logicielles pour les centres de données. Il fournit également des outils de mise en réseau cloud et de réseau défini par logiciel (SDN), qui représentent près de 40 % du marché des infrastructures de réseau d'entreprise. [17]
Ses commutateurs Nexus haut de gamme, en particulier ceux conçus pour les centres de données, offrent une bande passante élevée et une mise en réseau à faible latence, essentielles aux charges de travail de l'IA et du cloud. L'architecture ACI de Cisco prend en charge l'automatisation du réseau et l'optimisation de la charge de travail, en se concentrant sur le marché du calcul haute performance (HPC).
Cisco investit également dans l'informatique de pointe en intégrant des réseaux avec une puissance de traitement en temps réel à la périphérie, un marché sur lequel la plate-forme Jetson de NVIDIA est également dominante. Les deux sociétés abordent le traitement de l’IA à la périphérie pour des applications telles que l’IoT et les systèmes autonomes.
Au cours de l'exercice 2024, Cisco a dépensé plus de 7,9 milliards de dollars pour faire progresser les technologies de réseau, l'automatisation des réseaux basée sur l'IA, l'informatique de pointe et les solutions de cybersécurité. [18]
Cisco a annoncé plusieurs initiatives en matière d'IA au Moyen-Orient, notamment des collaborations avec G42 et l'alliance HUMAIN en Arabie Saoudite pour construire une infrastructure d'IA. Ces efforts montrent l'objectif de Cisco de jouer un rôle central dans la croissance de l'IA dans la région.
En 2025, Cisco a élargi son partenariat avec NVIDIA pour fournir une infrastructure réseau de centre de données prête pour l'IA. L'un des résultats clés est une « architecture unifiée multi-portefeuille » qui combine le silicium de commutation Silicon One de Cisco avec l'Ethernet Spectrum-X de NVIDIA, permettant aux commutateurs Cisco de s'intégrer directement dans la plate-forme Spectrum-X.
5. Pomme
Fondé :1976
Revenu annuel :29,36 milliards de dollars (depuis Mac)
Concurrence :Puces des séries A et M
Le silicium personnalisé d’Apple, y compris les puces M1, M2 et M3 pour sa gamme Mac, concurrence directement Nvidia dans les charges de travail de calcul haute performance et d’IA. En 2024, Apple a présenté la puce M4, dotée du moteur neuronal le plus rapide à ce jour, capable d'exécuter 38 000 milliards d'opérations par seconde. [19]
Apple développe également des puces Bionic de la série A, qui intègrent des accélérateurs d'apprentissage automatique et des moteurs neuronaux dans les iPhones, permettant un traitement puissant de l'IA sur l'appareil. Leur puce la plus avancée, l'A18 Pro, dispose d'un moteur neuronal à 16 cœurs capable de gérer 35 000 milliards d'opérations par seconde.
Puce Apple Bionic A18 Pro 3 nm pour les modèles iPhone 16 Pro.
Processeur 6 cœurs
GPU 6 cœurs#AppleEvent #AppleEvent24 #BionicA18Pro pic.twitter.com/1uKkQseltL
– Abhishek Yadav (@yabhishekhd) 9 septembre 2024
En 2023, Apple a vendu environ 231 millions d'iPhone, représentant 52 % de son chiffre d'affaires total. En 2024, elle a investi 31,37 milliards de dollars en R&D, contre 29,9 milliards de dollars en 2023 et 26,2 milliards de dollars en 2022, en mettant fortement l'accent sur les technologies de l'IA, de l'apprentissage automatique, du silicium personnalisé et de la réalité augmentée.
Apple a rejoint l'Ultra Accelerator Link Consortium (UALink), qui développe des interconnexions standard pour les accélérateurs et les puces d'IA dans les clusters de centres de données. L'objectif d'UALink est de surmonter les goulots d'étranglement de connectivité entre les accélérateurs tels que les GPU, les TPU et les puces IA personnalisées, permettant ainsi à de grands groupes de puces de fonctionner ensemble dans des pods avec une bande passante élevée et une faible latence.
4. AMD (micro-appareils avancés)
GPU AMD Instinct MI355X
Fondé :1969
Revenu annuel :23,7 milliards de dollars
Concurrence : GPU Radeon et processeurs EPYC dans les centres de données.
AMD (abréviation de Advanced Micro Devices) est le concurrent direct de Nvidia sur le marché du GPU, des centres de données et du matériel IA. Elle conçoit également du silicium personnalisé pour des consoles comme Xbox et PlayStation.
La série Radeon d'AMD est en concurrence avec la série GeForce de NVIDIA dans les GPU de jeu et professionnels. Sa série MI, comprenant les accélérateurs MI100 et MI200, cible les charges de travail d’apprentissage profond et d’IA, en concurrence avec les GPU Tensor Core de Nvidia.
De plus, ses processeurs EPYC et ses GPU Instinct offrent une combinaison puissante pour les centres de données, en particulier dans les environnements de calcul haute performance et de cloud computing. La série EYPC Milan, en particulier, a montré des améliorations de performances substantielles, défiant à la fois Nvidia et Intel. [20]
La part de marché d’AMD a augmenté ces derniers trimestres. Sur le marché des ordinateurs de bureau, la part unitaire d'AMD est de 23,9 % et la part des revenus est de 19,2 %. Sur le marché des ordinateurs portables, la part unitaire d’AMD est d’environ 19 %. Cependant, il ne contrôle que 12 % du marché des GPU discrets, NVIDIA détenant la part dominante. [21]
En 2025, AMD a présenté ses accélérateurs Instinct MI350 Series (MI350X et MI355X), marquant un saut générationnel majeur. La série offre des performances de calcul IA environ quatre fois supérieures pour la formation et le HPC par rapport à la génération précédente.
Il fait partie de la stratégie plus large d’infrastructure d’IA d’AMD, offrant des performances par watt plus élevées, une mémoire plus grande et une évolutivité améliorée.
3. Qualcomm
Fondé :1985
Revenu annuel :37,34 milliards de dollars
Concurrence :IA mobile et systèmes de conduite autonome
Bien que Qualcomm soit surtout connu pour son leadership dans les processeurs mobiles et la technologie 5G, la société s'est étendue aux plates-formes d'IA et automobiles, où elle défie directement Nvidia. Ses puces Snapdragon populaires alimentent le traitement de l'IA sur les appareils mobiles et les applications IoT, avec des moteurs d'IA intégrés pour l'inférence sur l'appareil.
Qualcomm a également développé la plateforme Snapdragon Ride qui propose des solutions basées sur l'IA pour l'assistance à la conduite et la conduite autonome. Il a des partenariats avec des constructeurs automobiles comme General Motors, en concurrence directe avec l’écosystème Drive de Nvidia. [22]
Actuellement, Qualcomm est la troisième plus grande entreprise de semi-conducteurs, avec une part de marché mondiale de 5,4 %. De plus, il contrôle près de 30 % du marché des puces pour smartphones. [23]
Outre les puces et les technologies sans fil comme la 5G, Qualcomm génère des revenus en octroyant des licences à certaines parties de son vaste portefeuille de propriété intellectuelle. Cela inclut certains droits de brevet qui sont cruciaux pour la fabrication de produits sans fil spécifiques.
En 2025, la société a introduit une solution d'appliance IA sur site + une suite d'inférence IA, permettant aux entreprises/fabricants d'exécuter des charges de travail d'IA générative et de vision par ordinateur localement (sur site) plutôt que dans le cloud.
2. Intel
Fondé :1968
Revenu annuel :53,07 milliards de dollars
Concurrence : CPU, GPU et plateforme de conduite autonome
Intel conçoit et fabrique des puces informatiques, alors que la plupart de ses concurrents (dont Nvidia) ne font que l'un ou l'autre. Elle développe des CPU, des GPU, des accélérateurs d'IA pour les centres de données et des technologies de véhicules autonomes.
Plus précisément, Intel est en concurrence grâce à ses processeurs Xeon et à ses accélérateurs d'IA comme les processeurs Habana Gaudi2 et Nervana Neural Network. Sa plate-forme oneAPI fournit un modèle de programmation unifié pour les CPU et les GPU, rivalisant avec l'écosystème CUDA de NVIDIA.
Intel détient une part de marché importante sur le marché mondial des GPU. Alors que Nvidia contrôle plus de 90 % du marché des GPU utilisés dans les centres de données, Intel domine le marché des graphiques intégrés avec une part de marché de 68 %. [24]
Intel concurrence également Nvidia dans la conduite autonome via sa filiale Mobileye. Les puces EyeQ de Mobileye sont utilisées dans les systèmes avancés d'aide à la conduite (ADAS). Ces puces utilisent un seul capteur de caméra pour fournir des fonctionnalités ADAS, telles que le régulateur de vitesse adaptatif, l'assistance aux embouteillages, l'assistance au maintien de voie, l'avertissement de collision avant et le freinage d'urgence automatique. Plus de 50 constructeurs automobiles intègrent les puces EyeQ dans leurs technologies de conduite assistée. [25]
Selon les résultats des tests de référence, les processeurs Intel alimentent près de 71 % des processeurs d'ordinateurs portables, tandis que les processeurs AMD représentent 21 % des processeurs d'ordinateurs portables détectés via les tests.
Intel a récemment été confronté à des défis financiers majeurs dus à une concurrence croissante, aux évolutions du marché et à des problèmes internes. Son chiffre d'affaires annuel a chuté de 20 % en 2022 et de 14 % supplémentaires en 2023. Au cours de l'exercice 2025, le chiffre d'affaires a encore chuté pour atteindre 53 milliards de dollars. Pour se redresser, Intel se concentre sur des stratégies à long terme telles que l’augmentation des investissements en R&D et l’expansion de la production nationale de puces.
1. TSMC (société de fabrication de semi-conducteurs de Taiwan)
Fondé :1987
Revenu annuel :104,4 milliards de dollars+
Concurrence : Fabricant de puces permettant l'IA
TSMC opère dans différentes parties de la chaîne d'approvisionnement des semi-conducteurs. Contrairement à Nvidia qui conçoit les puces, TSMC les fabrique. Elle concurrence indirectement NVIDIA en influençant le développement et l'adoption de technologies de pointe en matière de semi-conducteurs.
TSMC est la plus grande fonderie de semi-conducteurs au monde, fabriquant des puces pour divers géants de la technologie, notamment Apple, Qualcomm, AMD et Nvidia lui-même. Elle se spécialise dans les nœuds avancés tels que 5 nm et 4 nm, et se lance désormais dans la production de 3 nm et 2 nm. Les clients de TSMC utilisent ses nœuds avancés pour concurrencer directement les produits de Nvidia.
La société détient près de 53 % des parts du marché mondial de la fabrication de semi-conducteurs. C'est le fabricant incontournable pour les puces avancées, en particulier à 7 nm et moins. En 2023, TSMC a expédié 12 millions de tranches équivalentes à 12 pouces, les puces de 7 nm et moins représentant 58 % du chiffre d’affaires total des tranches de l’entreprise. En 2024, ils ont livré 12,9 millions de plaquettes équivalentes à 12 pouces. [26]
TSMC pousse désormais de manière agressive sa technologie de procédé 2 nm (« N2 ») vers la production de masse. La société a révélé que la densité de défauts de ses nœuds N2 (D0) est inférieure à celle des nœuds précédents à un stade de développement comparable, ce qui indique une rampe de rendement plus rapide et une maturité de processus plus forte malgré le passage aux transistors à nanofeuilles à grille complète.
Lire la suite
- 13 principaux concurrents Intel
- Analyse SWOT NVIDIA [Vue détaillée]
Sources citées et références supplémentaires
- Agam Shah, Nvidia a livré 3,76 millions de GPU pour centres de données en 2023, HPCWire
- Communiqué de presse, Nvidia va acquérir Mellanox pour 6,9 milliards de dollars, Nvidia
- Rapport sur l'analyse du marché des services IBM Watson, Facts.mr
- Quantum Research, Le matériel et les logiciels pour l'ère de l'utilité quantique, IBM
- Points clés :Marvell Technology détient un total de 16 347 brevets dans le monde, GreyB
- Rapport du troisième trimestre 2024, Synopsys publie ses résultats financiers pour le troisième trimestre de l'exercice 2024, Synopsys
- Produits, processeurs AWS Graviton, Amazon
- Produits, accélérateurs AWS Inferentia, Amazon
- Produits, AWS Trainium pour l'apprentissage profond et la formation à l'IA générative, Amazon
- Hanguang 800 NPU, solution d'inférence d'IA pour centres de données, groupe Alibaba
- Blogs, Alibaba Cloud dévoile sa plateforme de développement de puces, Alibaba Cloud
- Compute :annonce de Trillium, la sixième génération de Google Cloud TPU, Google Cloud
- Présentation de l'entreprise, dépenses de R&D d'Alphabet, macrotendances
- Jacob Feldgoise, la puce IA de Huawei teste les contrôles américains à l'exportation, CSET
- Barry Elad, statistiques Huawei par chiffre d'affaires et segment d'activité, Coolest-Gadgets
- Technologie et télécommunications, part des revenus des fabricants de DRAM dans le monde, Statista
- Technologie et télécommunications, part de marché mondiale des fournisseurs d'infrastructures de réseaux d'entreprise, Statista
- Présentation de l'entreprise, dépenses de R&D de Cisco, macrotendances
- Communiqué de presse, Apple présente la puce M4, Apple
- Processeurs AMD Milan. Les nœuds Milan sont installés à l'étage des ordinateurs du bâtiment principal du NAS, NASA
- Anton Shilov, AMD prend des parts de marché des processeurs à Intel dans les ordinateurs de bureau et les serveurs, tom'sHardware
- Notes de presse, General Motors et Qualcomm prolongent leur relation de longue date, Qualcomm
- Technologie et télécommunications, part des revenus du marché mondial des semi-conducteurs Qualcomm, Statista
- Timothy Fries, Intel et AMD peuvent-ils rivaliser avec Nvidia ?, Investir
- EyeQ, le SoC pour les applications automobiles, Mobileye
- Rapport annuel 2023, lettre aux actionnaires et faits marquants financiers, TSMC
Technologie industrielle
- La société Unilever examine l'approvisionnement trouble des avocats
- Comment les solutions numériques créent des chaînes d'approvisionnement plus résilientes
- Vidéo :Conception de treillis et remplacement de la mousse dans l'impression 3D
- Trois façons dont la chaîne d'approvisionnement post-pandémique sera très différente
- Guide des tailles de boulons et vis Allen :mesures en mm et en pouces
- Température critique pour les supraconducteurs
- Pièces moulées sous pression :comment fonctionne le moulage sous pression en aluminium
- Fusion 360 :une solution pour les projets de jet d'eau, de découpe laser et de table plasma
- 7 choses à considérer avant de passer à des pièces non OEM