Samsung Electronics — Objectif de cours Citi à ₩460 000 : le vrai message n'est pas « Samsung va monter », c'est « le cycle mémoire tel qu'on le connaît depuis 30 ans est peut-être caduc »

Citi relève son objectif de cours sur Samsung Electronics de ₩300 000 à ₩460 000, soit un potentiel de +61 % par rapport au cours du 11 mai à ₩285 500. Le fond du rapport n'est pas « Samsung est une excellente valeur » — c'est que la conviction vieille de 30 ans selon laquelle « les prix de la mémoire culminent puis s'effondrent » pourrait être fausse cette fois-ci, parce que l'IA a structurellement transformé la nature de la demande en mémoire. Cet article explique ce qu'est la mémoire, ce qu'est la HBM, pourquoi l'IA en consomme autant, et si la logique de Citi tient réellement. Le résultat opérationnel du T1 2026 s'établit à ₩57,2 tn avec une marge de la division DS à 65,7 % — ce n'est plus le profil d'un fabricant de semi-conducteurs, c'est celui d'une plateforme en position de monopole. La question centrale est de savoir si ce niveau est tenable, et la réponse arrivera avec la trajectoire des prix au T2 2026 et les qualifications clients de la HBM4E.

🔗 À lire également : Samsung Electronics 2026 — Plongée approfondie IA / HBM / Fonderie · Samsung Electronics vs. Samsung Electro-Mechanics — Réaccélération des dépenses d’investissement IA des grandes technos · Le poids de Samsung Electronics dans l’indice KOSPI · SK hynix — Part de marché HBM 2026 · Pourquoi la Corée — Partie 3 : Samsung / SK hynix et la re-valorisation de l’économie coréenne · Hub d’investissement HBM / KOSPI

Citi relève son objectif de cours sur Samsung Electronics de ₩300 000 à ₩460 000. Par rapport à la clôture du 11 mai à ₩285 500, cela représente un potentiel de +61 %, soit environ ₩1 020 tn de capitalisation boursière supplémentaire. Cela peut sembler agressif. Mais le fond du rapport n’est pas « Samsung va monter ». C’est que la conviction vieille de 30 ans — « les prix de la mémoire culminent puis s’effondrent » — pourrait être fausse cette fois-ci, parce que l’IA a structurellement transformé la nature de la demande en mémoire. Que ce point de vue soit juste ou non importe davantage que l’objectif lui-même. Pour en juger, il faut d’abord comprendre ce qu’est la mémoire et ce que l’IA a changé.


En bref

  • Objectif Citi à ₩460 000. En hausse depuis ₩300 000 (+53 % de révision). Potentiel de +61 % par rapport à la clôture du 11 mai à ₩285 500.
  • Les résultats du T1 comme point de départ. Le résultat opérationnel consolidé de Samsung Electronics au T1 2026 s’établit à ₩57,2 tn. La seule division DS (semi-conducteurs) a dégagé un résultat opérationnel de ₩53,7 tn avec une marge de 65,7 %. Ce n’est plus le profil financier d’un fabricant de puces — c’est celui d’une plateforme en position de monopole.
  • La thèse centrale de Citi. Il ne s’agit pas seulement de la montée en prix de la HBM (mémoire à haute bande passante pour l’IA). La demande IA absorbe la capacité des usines mémoire de façon globale, tirant à la hausse les prix de la DRAM et de la NAND grand public en même temps que la HBM. L’argument est que c’est un changement structurel de la forme de la demande, et non un simple effet de cycle.
  • Pour que ₩460 000 soit atteint. Les résultats du niveau T1 doivent être « structurellement soutenus tout au long du second semestre 2026 » plutôt que de représenter un pic. Les deux variables à surveiller sont la trajectoire des prix de la mémoire au T2 et les qualifications clients de la HBM4E.

1. Les fondamentaux — ce qu’est la mémoire et pourquoi cela compte pour l’IA

1.1 La mémoire = le « bureau de travail » d’un ordinateur

Un ordinateur a besoin de deux choses : des unités de calcul (CPU, GPU) et des unités de stockage et de mise en attente (mémoire, stockage).

Analogie : un employé de bureau.
CPU/GPU = le cerveau. Il calcule, prend des décisions.
Mémoire (DRAM) = le bureau de travail. Il contient les documents en cours d'utilisation.
                 Un bureau plus grand permet de gérer plus de dossiers simultanément.
Stockage (NAND) = le classeur. Il contient les fichiers non utilisés.
                  Un classeur plus grand signifie plus de documents au total.

DRAM : mémoire volatile ; les données disparaissent à l’extinction. Utilisée pour les « données en cours d’utilisation » — lecture/écriture rapide. Présente dans les smartphones, les PC, les serveurs.

NAND : mémoire non volatile ; les données sont conservées à l’extinction. Utilisée dans les SSD. Stocke photos, vidéos, données applicatives.

Samsung Electronics est numéro 1 mondial à la fois en DRAM et en NAND par part de marché. SK hynix est numéro 2, Micron (États-Unis) numéro 3. Ces trois acteurs représentent l’essentiel du marché mondial de la mémoire.

1.2 La HBM — le « bureau surdimensionné » qu’a exigé l’IA

La DRAM standard, c’est le « bureau de taille normale ». Il suffit pour naviguer sur le web, travailler sur des documents, jouer. L’IA a besoin d’un bureau immense. Les grands modèles de langage du calibre de ChatGPT doivent manipuler des centaines de milliards de paramètres simultanément.

DRAM standard : 16 Go à 64 Go. Suffisant pour les PC / smartphones classiques.
HBM : des dizaines à des centaines de Go. Soudée directement à côté de la puce IA (GPU)
      pour un transfert de données à très haute bande passante.

Analogie :
DRAM standard = un bureau classique
HBM = une bibliothèque entière étalée sur un bureau

Pourquoi la HBM est coûteuse :
1. Plusieurs dies DRAM empilés verticalement (8, 12, 16 couches)
2. Chaque couche reliée par des vias à l'échelle du micron (TSV)
3. Soudée directement à côté du GPU (packaging avancé)
→ Complexité de fabrication bien supérieure à la DRAM standard
→ Prix moyen de vente (ASP) plusieurs fois à dizaines de fois supérieur

Les générations de HBM : HBM → HBM2 → HBM2E → HBM3 → HBM3E → HBM4 → HBM4E. Plus la génération est récente, plus la capacité est grande, la bande passante élevée et l’efficacité énergétique bonne. Samsung Electronics a lancé la production en série de la HBM4 au T1 et prévoit la livraison d’échantillons de HBM4E au T2.

SK hynix est le leader du marché HBM (fournisseur principal de NVIDIA) ; Samsung Electronics réduit l’écart. L’un des messages de Citi est « Samsung rattrape son retard sur la HBM ».

1.3 SOCAMM — le nouveau format de mémoire pour serveurs IA

Mémoire serveur classique :
Modules au format DIMM enfichés sur la carte mère du serveur.
Encombrement plus important, consommation électrique plus élevée.

SOCAMM (System On Chip Attached Memory Module) :
Mémoire placée plus près du CPU/GPU, plus compacte, plus efficace.
Économise de l'espace et de l'énergie dans les serveurs IA tout en améliorant les performances.

Analogie :
DIMM = un grand disque dur externe relié en USB
SOCAMM = de la mémoire soudée directement à côté du processeur

Samsung Electronics a lancé la production en série du SOCAMM2 (2ème génération) au T1. Ce format est destiné aux futures plateformes IA de NVIDIA (Vera Rubin et au-delà).

1.4 Pourquoi l’IA consomme autant de mémoire

Poser une question à ChatGPT déclenche une « inférence » — le modèle génère une réponse. Chaque passe d’inférence déplace d’énormes quantités de données à travers la mémoire.

Pourquoi l'IA dévore la mémoire :

1. Les modèles sont devenus plus grands
   GPT-3 : 175 milliards de paramètres
   GPT-4 : des milliers de milliards de paramètres (estimation)
   → un modèle plus grand = plus de mémoire nécessaire

2. La longueur du contexte a augmenté
   Avant : questions-réponses courtes
   Maintenant : lecture et analyse de dizaines de pages
   → le contexte de la conversation doit être mis en cache en mémoire (KV cache)

3. Les agents IA se sont multipliés
   Avant : les humains tapaient leurs requêtes directement
   Maintenant : les agents IA interrogent d'autres agents IA et agrègent les réponses
   → un agent IA consomme souvent plus de mémoire qu'un utilisateur humain

4. Les utilisateurs ont explosé en nombre
   ChatGPT, Claude, Gemini servent collectivement des centaines de millions d'utilisateurs
   → utilisateurs simultanés × taille du modèle × longueur du contexte = demande en mémoire astronomique

La « croissance des tokens IA » — l’expression de Citi — correspond exactement à cela. À mesure que le nombre de tokens (fragments de mots) traités par les modèles d’IA explose, la demande en mémoire s’étend de façon structurelle.


2. La conviction de cycle mémoire vieille de 30 ans — et pourquoi Citi tente de la renverser

2.1 Le schéma qui s’est répété pendant trois décennies

L’industrie de la mémoire suit un schéma bien établi : « les prix montent → les usines s’étendent → l’offre dépasse la demande → les prix s’effondrent ».

Cycle mémoire classique :
La demande augmente → les prix montent → les marges explosent
→ Samsung / SK hynix / Micron augmentent leurs investissements
→ 1 à 2 ans plus tard, surproduction
→ effondrement des prix → pertes
→ réduction des investissements → pénurie
→ remontée des prix (boucle)

Ce cycle de 3 à 4 ans se répète depuis 30 ans.

Les investisseurs connaissent bien ce schéma. Aussi, quand les prix de la mémoire montent, le marché suppose « ils vont craquer bientôt » et attribue un faible PER. « Les bénéfices sont au pic, donc le multiple ne peut pas monter » — c’est la logique. C’est pourquoi Samsung Electronics affiche un résultat opérationnel de ₩57 tn tout en se traitant à 9-10× les bénéfices.

2.2 La thèse de Citi — « Cette fois, c’est peut-être différent »

L’argument central de Citi est que « le cycle classique ne fonctionnera peut-être pas cette fois ». Deux raisons :

Premièrement, la demande en mémoire IA est structurelle, pas cyclique. Les cycles passés de prix mémoire étaient portés par les cycles de renouvellement des PC, les vagues d’adoption des smartphones, l’expansion des datacenters — des pics de demande temporaires. L’IA, c’est différent. Les modèles continuent de grossir, les utilisateurs continuent de croître, les agents IA consomment plus de mémoire par « utilisateur » que les humains ne le faisaient. La demande n’est pas faite de « pics et d’effondrements » — elle ne cesse de progresser.

Deuxièmement, la HBM absorbe la capacité des usines. La HBM est fabriquée dans les mêmes usines que la DRAM standard, mais chaque stack HBM consomme 3 à 4 fois plus de surface de wafer que la DRAM grand public équivalente. À mesure que la demande IA oriente les allocations de capacité vers la HBM, la production de DRAM grand public diminue. Ainsi, ce n’est pas seulement la HBM qui devient chère — les prix de la DRAM et de la NAND grand public augmentent eux aussi.

Syllogisme central de Citi :

Explosion de la demande IA
  ↓
Concentration de la capacité sur HBM / SOCAMM (produits à haute valeur ajoutée)
  ↓
La production de DRAM / NAND grand public se réduit
  ↓
Les prix de la mémoire grand public augmentent
  ↓
Samsung Electronics bénéficie d'une hausse des prix sur « toute la mémoire »
  ↓
Les bénéfices ne proviennent pas de la seule HBM mais de l'ensemble du portefeuille
  ↓
Si cela représente une « marge structurellement élevée » plutôt qu'un « pic de cycle »
  ↓
Le PER devrait être à 15× plutôt qu'à 10×
  ↓
Objectif de cours ₩460 000

2.3 Peut-être vrai, peut-être faux

Pour être honnête — « cette fois c’est différent » est l’expression la plus dangereuse en investissement. L’histoire regorge d’appels « cette fois c’est différent » qui ont fini par répéter exactement le même cycle.

Pour que Citi ait raison, quatre conditions doivent être réunies :

  • La demande IA ne décélère pas au second semestre 2026
  • Les dépenses d’investissement des grandes technos (Google, Amazon, Microsoft, Meta) se maintiennent
  • Samsung / SK hynix / Micron résistent à la tentation historique de surinvestir
  • Les prix de la mémoire continuent de monter ou au moins se stabilisent jusqu’au T2 2026

Si l’une de ces conditions se brise, le « cycle classique » revient et ₩460 000 devient une histoire lointaine.


3. Les chiffres du T1 Samsung Electronics — pourquoi ces résultats sont remarquables

3.1 Principaux chiffres

Samsung Electronics T1 2026 (officiels) :

IndicateurMontant
Chiffre d’affaires consolidé₩133,9 tn
Résultat opérationnel consolidé₩57,2 tn
Chiffre d’affaires division DS (semi-conducteurs)₩81,7 tn
Résultat opérationnel DS₩53,7 tn
Marge DS65,7 %

Vérification : marge DS = 53,7 / 81,7 = 65,7 % ✓

3.2 Pourquoi ces chiffres sont remarquables

Une marge opérationnelle de 65,7 % dans le contexte :

Trajectoire de la marge DS de Samsung Electronics :
2023 : pertes (effondrement des prix de la mémoire)
2024 : redressement, marges à 20-30 %
2025 : marges à 40-50 %
T1 2026 : 65,7 % ← ici

Points de comparaison :
Marge opérationnelle d'Apple : \~30 %
Marge opérationnelle de NVIDIA : \~60-65 %
Marge opérationnelle de Google : \~25-30 %

Les semi-conducteurs de Samsung Electronics produisent désormais des marges au niveau de NVIDIA.

Ce n’est pas de « bons résultats » — c’est un chiffre qui force la question « la structure a-t-elle changé ? » Dans le cycle classique, une marge de 65 % représente le « sommet du sommet » et doit nécessairement se normaliser. Si l’IA a structurellement modifié la forme de la demande, cette marge peut se maintenir.

Pourquoi la Corée — Partie 3 a mis en perspective comment le pool de profits combiné de Samsung / SK hynix améliore désormais la capacité fiscale de la Corée, les revenus des ménages et les actifs des fonds de pension à un niveau sans précédent lors des cycles précédents.

3.3 Vérification arithmétique de l’objectif ₩460 000

Vérification mécanique de la plausibilité de ₩460 000 :

IndicateurValeur
Cours actuel₩285 500
Objectif Citi₩460 000
Potentiel+61,1 %
Capitalisation boursière actuelle~₩1 669 tn
Capitalisation implicite à l’objectif~₩2 689 tn
Résultat opérationnel T1 2026₩57,2 tn
Résultat opérationnel annualisé simplifié₩228,8 tn (= 57,2 × 4)
Hypothèse post-impôts (24 %)₩173,9 tn
Capitalisation actuelle / post-impôts~9,6×
Capitalisation cible / post-impôts~15,5×

Vérifications :

  • Potentiel = 460 000 / 285 500 - 1 = 61,1 % ✓
  • Capitalisation cible = 1 669 × (460 000 / 285 500) = ~₩2 689 tn ✓
  • Annualisé = 57,2 × 4 = 228,8 × 0,76 = ₩173,9 tn ✓

Lecture : au cours actuel, Samsung Electronics se traite à ~9,6× les bénéfices annualisés post-impôts. Pour que ₩460 000 de Citi se réalise, ce multiple doit se réévaluer à ~15,5×. Passer de 9,6× à 15,5× requiert un changement de paradigme du marché : « ce n’est pas un pic, c’est structurellement durable ».

En résumé : objectif Citi ₩460 000 = « des résultats comme au T1 vont persister plus longtemps » + « le marché devrait donc payer un multiple plus élevé ».


4. Les trois piliers de l’argument de Citi

4.1 Pilier 1 — La croissance des tokens IA tire la demande en mémoire vers le haut

Le débit de tokens IA explose. Croissance des utilisateurs + contextes plus longs + prolifération des agents IA = demande en mémoire en plein essor.

Cela se traduit par une demande en mémoire plus large que la demande en GPU. Les GPU calculent ; la mémoire stocke et transporte les données qui sont calculées. À mesure que l’IA monte en puissance, il faut plus de GPU, mais il faut bien plus de mémoire. Comme faire une multiplication à 1 000 chiffres — il faut une calculatrice (GPU), mais il faut beaucoup plus de papier (mémoire).

4.2 Pilier 2 — HBM4 / HBM4E / SOCAMM2 restructurent le mix produit

Le « mix » de mémoire vendu par Samsung évolue. La DRAM standard dominait autrefois ; désormais la HBM et le SOCAMM — des produits chers à forte marge — représentent une part croissante.

Niveaux de prix de la mémoire (approximatifs) :
DRAM DDR5 grand public : quelques dollars par puce
HBM3E : des dizaines à des centaines de dollars par stack
HBM4 : au-dessus de la HBM3E (Citi : +30 % trimestriel)

Si la même usine fabrique de la HBM au lieu de DRAM grand public :
→ le chiffre d'affaires par wafer est multiplié
→ la marge progresse encore davantage

Samsung Electronics a lancé la production en série de la HBM4 et du SOCAMM2 au T1 ; la livraison d’échantillons de HBM4E débute au T2. À mesure que le mix à haute valeur ajoutée s’élargit, la marge totale progresse.

4.3 Pilier 3 — Les prix de la mémoire grand public augmentent eux aussi

C’est le pilier le plus important. Ce n’est pas seulement la HBM qui devient chère — les prix de la DRAM et de la NAND grand public augmentent en même temps.

Pourquoi : Samsung / SK hynix / Micron exploitent la HBM et la DRAM grand public sur des lignes d’usine partagées. À mesure que la demande de HBM explose et que les usines réallouent leurs capacités vers la HBM, la capacité de production de DRAM grand public se réduit. La contraction de l’offre fait monter les prix.

Pourquoi cela importe pour Samsung Electronics : Samsung vend de la HBM, de la DRAM grand public, de la NAND et des eSSD (SSD serveur haute performance). Quand tous ces prix montent simultanément, la thèse bénéficiaire n’est pas une « monoculture HBM » — c’est une hausse sur l’ensemble du portefeuille. C’est la thèse de Citi sur la « révision à la hausse de l’ASP sur toute la ligne ».


5. Effets de ruissellement sur les valeurs adjacentes — est-ce uniquement une histoire Samsung ?

5.1 Ordre des bénéficiaires

Le rapport de Citi porte spécifiquement sur Samsung, mais une hausse plus large des prix de la mémoire touche d’autres valeurs.

OrdreNomForce du lienRaison
1Samsung ElectronicsDirectLe sujet. Hausse des prix de la mémoire sur l’ensemble du portefeuille
2SK hynixDirectNuméro 1 de la HBM. La hausse des prix de la mémoire est un positif sectoriel
3Samsung Electro-MechanicsIndirectBénéficiaire des substrats serveurs IA / MLCC. Ce rapport porte sur les prix de la mémoire, pas sur les substrats
4Daeduck ElectronicsIndirectDemande en substrats IA. Lien faible avec les prix Samsung spécifiquement
5PamicellIndirect faibleSentiment positif sur l’infrastructure IA, mais ce rapport seul est insuffisant comme preuve

Lecture : Samsung Electronics > SK hynix > Samsung Electro-Mechanics > substrats / matériaux de 2ème rang. La directness du lien diminue à mesure qu’on descend la chaîne. Le réflexe « prix mémoire en hausse → acheter tous les noms IA » est un raccourci logique.


6. Ce qui invaliderait la thèse de Citi

Toute analyse doit être réfutable. Si la thèse de « re-rating structurel » se brise, quels signaux apparaissent en premier :

Signaux fragilisant la thèse :
1. Prix de la mémoire au T2 stables ou en baisse → signal de pic de cycle
2. Qualifications clients HBM4E retardées → thèse de re-rating Samsung s'affaiblit
3. Annonce de réduction des dépenses d'investissement IA par les grandes technos → dommage à la forme de la demande
4. Marge DS tombant sous 50 % → le T1 confirmé comme pic
5. Adoption du SOCAMM2 limitée → thèse d'amélioration du mix produit brisée

Inversement, les éléments suivants renforcent la thèse :

Signaux confirmant la thèse :
1. Prix DRAM / NAND en hausse supplémentaire trimestrielle au T2
2. Qualifications clients HBM4E annoncées
3. Guidance de dépenses d'investissement IA des grandes technos révisée à la hausse
4. Marge DS se maintenant à 55 %+
5. Adoption du SOCAMM2 en expansion — lien confirmé avec la prochaine plateforme NVIDIA

7. Calendrier clé — quoi vérifier et quand

FenêtreÉvénementPourquoi c’est important
Tout au long du T2Trajectoire des prix DRAM / NANDTeste la logique centrale de Citi. Les prix continuent-ils de monter ?
Tout au long du T2Livraison d’échantillons HBM4E + qualification clientsConfirmation de la compétitivité HBM de Samsung
JuilletRésultats T2 Samsung ElectronicsLa marge DS se maintient-elle à 55 %+ ?
Second semestreAnnonces sur la prochaine plateforme NVIDIAVérification de la demande SOCAMM2
Second semestreRapports supplémentaires de brokers étrangersLe consensus révise-t-il largement à la hausse ?

8. Conclusion

Citi a relevé son objectif sur Samsung Electronics à ₩460 000. Le fond du rapport n’est pas « Samsung est une excellente valeur ». C’est que la conviction vieille de 30 ans — « les prix de la mémoire culminent et s’effondrent » — pourrait être fausse cette fois-ci, parce que l’IA a reconfiguré la demande en mémoire et que la HBM absorbe les capacités des usines au point que les prix de la mémoire grand public augmentent en même temps.

Résultat opérationnel du T1 à ₩57,2 tn avec une marge DS de 65,7 % — numériquement, ce n’est plus un fabricant de semi-conducteurs, c’est une plateforme en position de monopole. Pour que ₩460 000 soit atteint, ce profil doit se maintenir plutôt que de représenter un pic.

L’objectif ₩460 000 de Citi requiert que « cette fois c’est différent » soit réellement vrai. La réponse arrive au T2 — avec la trajectoire des prix DRAM / NAND et les qualifications clients de la HBM4E. La capitalisation boursière de Samsung Electronics au 11 mai à ~₩1 669 tn (~1 200 milliards de dollars) signifie que le marché a déjà commencé à se poser cette question ; la réponse déterminera la direction du KOSPI et du cluster semi-conducteurs pour les 6 à 12 prochains mois.


FAQ

Q : Comment Citi arrive-t-il à ₩460 000 ? R : Le modèle exact n’était pas directement accessible — l’analyse est basée sur des captures d’écran du rapport. Vérification mécanique : résultat opérationnel T1 2026 ₩57,2 tn × 4 = ₩228,8 tn annualisés, × 0,76 (post-impôts) = ₩173,9 tn, × ~15,5× le multiple de bénéfices. Le marché attribue actuellement ~9,6×, donc l’objectif implique une re-valorisation du multiple d’environ 60 %.

Q : Le cycle de la mémoire est-il vraiment terminé ? R : Impossible à confirmer. « Cette fois c’est différent » est l’expression la plus dangereuse en investissement. Pour que Citi ait raison, la demande IA ne doit pas décélérer au second semestre 2026, les dépenses d’investissement des grandes technos doivent se maintenir, et les trois fabricants de mémoire doivent résister à la tentation de surinvestir. Si l’un de ces éléments cède, le cycle classique revient.

Q : Pourquoi les prix de la HBM et de la DRAM grand public augmentent-ils ensemble ? R : Fabrication sur des lignes d’usine partagées. La concentration IA sur la HBM réduit la capacité de production de DRAM grand public, ce qui fait monter les prix. Samsung vend de la HBM + DRAM grand public + NAND + eSSD, donc la hausse des prix sur l’ensemble du portefeuille accélère les bénéfices totaux.

Q : Samsung Electronics vs. SK hynix — lequel est le meilleur choix ? R : L’exposition pure à la HBM est plus nette chez SK hynix (fournisseur principal de NVIDIA). Samsung Electronics est une grande capitalisation multi-segments (mémoire + fonderie + smartphones). Conviction HBM uniquement → SK hynix. Portefeuille mémoire + option fonderie → Samsung Electronics. Le Hub d’investissement HBM / KOSPI présente la comparaison complète.

Q : Avec une capitalisation d’environ 1 200 milliards de dollars, n’est-ce pas déjà cher ? R : La capitalisation absolue est élevée. En multiple de bénéfices (~9,6× PER actuel), elle reste en dessous de ses pairs mondiaux (NVIDIA ~35×, TSMC ~25×). « Cher » dépend de l’étalon de mesure utilisé.

Q : Quand la thèse de Citi est-elle vérifiée le plus rapidement ? R : Au cours du T2, deux confirmations simultanées constitueraient une validation solide — (1) prix DRAM/NAND continuant à progresser trimestriellement, et (2) qualification clients HBM4E annoncée. La publication des résultats T2 en juillet offre ensuite une vérification complémentaire : la marge DS se maintient-elle à 55 %+ ?


Cet article est publié à des fins de recherche et d’information uniquement et ne constitue pas un conseil en investissement. Les détails de l’objectif de cours de Citi sont basés sur des captures d’écran du rapport fournies par l’utilisateur ; le modèle complet de 17 pages, les hypothèses de BPA et la valorisation détaillée ne sont pas directement vérifiés. Les chiffres du T1 2026 de Samsung Electronics proviennent des publications officielles. La vérification arithmétique de l’objectif de cours utilise des hypothèses simplifiées de taux d’imposition et de multiple de bénéfices, et peut différer du modèle réel de Citi. Les qualifications clients de la HBM4E et les volumes d’expédition du SOCAMM2 restent non confirmés. « Cette fois c’est différent » s’est historiquement avéré vrai à l’occasion, mais faux bien plus souvent. L’analyse peut se tromper. Données arrêtées au 11 mai 2026, heure coréenne (KST).

Disclaimer: For research and information purposes only. Not investment advice. Names cited are for analytical illustration; readers should perform their own due diligence and consult licensed advisors before any investment decision.

Généré avec Hugo
Thème Stack conçu par Jimmy