Fuochi d’artificio o fiamme eterne: quali società trarranno vantaggio dall’intelligenza artificiale?

Quality Growth Boutique
Leggi 14 min

L’intelligenza artificiale (IA) fa parte della nostra vita da anni, che si tratti di fare ricerche su Google, conversare con Alexa o guardare contenuti su Instagram. Nell’ultimo decennio, in particolare, le innovazioni nel campo dell’informatica, dell’archiviazione e della disponibilità di dati hanno accelerato l’innovazione nel cosiddetto apprendimento automatico.

Perché questo particolare tipo di IA ha attirato tanto l’attenzione? L’IA generativa rappresenta una nuova classe di intelligenza artificiale caratterizzata dalla capacità di comprendere meglio il linguaggio e di creare contenuti originali. Può creare testi, immagini e audio che appaiono simili a quelli umani senza ricorrere a una programmazione esplicita. ChatGPT è stata la prima versione di IA generativa a conquistare una popolarità più ampia, grazie alla sua capacità di interagire con gli esseri umani in modo più colloquiale.

Anche se l’IA generativa sarà integrata nella maggior parte dei settori, non necessariamente cambierà radicalmente la natura delle loro attività. L’impatto si concentrerà in buona parte sul fronte dell’efficienza, e la capacità di una società di conservare effettivamente l’aumento della produttività ottenuto grazie all’IA generativa dipenderà dall’intensità della concorrenza; nei settori competitivi i vantaggi dell’IA saranno annullati dalla concorrenza. Gli effetti più sostanziali si verificheranno con maggiore probabilità nel settore tecnologico, dove l’IA generativa si interseca più direttamente con l’offerta dei prodotti di una società. Concettualmente, l’IA generativa aumenterà ulteriormente la domanda di infrastrutture IT già richieste per l’apprendimento profondo.

L’IA è stata un importante motore dei rendimenti azionari del settore tecnologico quest’anno. Gli investitori si sono concentrati sulle società con la maggiore esposizione all’intelligenza artificiale (cioè con una maggiore adozione di calcolo accelerato) e sul rialzo speculativo. Sebbene ciò abbia una sua logica, la quantificazione dell’impatto dell’IA a medio termine in questa fase iniziale è intrinsecamente meno prevedibile e le fluttuazioni dei risultati possono avere un impatto significativo sulle aspettative della società nel suo complesso. Non riuscendo a discernere il livello di certezza dei benefici a lungo termine dell’IA, i mercati hanno premiato in modo sproporzionato alcune società rispetto ad altre. Ad esempio, il netto aumento registrato quest’anno dalle quotazioni di NVIDIA e AMD fa supporre che gli investitori ritengano che queste società trarranno vantaggio da una maggiore adozione dell’IA. Tuttavia, ciò non sarebbe possibile senza l’aiuto di TSMC, l'essenziale produttore di sofisticati circuiti a semiconduttori che alimentano l’IA non solo per NVDIA, ma anche per giganti tecnologici come Google e Microsoft.

Quando valutiamo l’impatto dell’IA generativa, ci concentriamo sui casi d’uso facilmente affrontabili piuttosto che fantasticare sulle possibilità a lungo termine. Questo particolare tipo di intelligenza artificiale è ancora nelle prime fasi di sviluppo e adozione, e alcuni tipi di attività sono più immediatamente affrontabili, data la forza dei modelli linguistici di grandi dimensioni (LLM)1 nell’assistenza alla scrittura, alla sintesi, alla creazione di contenuti, ecc. Allo stesso tempo, le attuali iterazioni di LLM non sono “intelligenti” nel senso convenzionale del termine e agiscono più come macchine incredibilmente intricate per la corrispondenza dei modelli, il che li rende inclini a commettere errori, come le allucinazioni. Queste limitazioni rendono gli LLM più adatti ad attività definite in modo più ristretto, dove i dati e l’addestramento possono garantire una maggiore coerenza. Ciò si presta anche a casi d’uso di tipo aziendale, in particolare perché le società sono disposte a pagare per ottenere aumenti di efficienza. Molte delle nostre partecipazioni tecnologiche hanno inserito nuove capacità di IA generativa nei loro portafogli di prodotti esistenti, il che consente loro di sfruttare i propri punti di forza (ad esempio, le capacità tradizionali, la distribuzione) per ottenere una crescita degli utili più sostenibile.

L’entusiasmo per le società che possono trarre vantaggio dall’IA generativa dovrebbe essere accompagnato da una rigorosa disciplina di valutazione. La crescita degli utili stimata grazie all’intelligenza artificiale dovrebbe concretizzarsi nei prossimi anni. Tuttavia, l’impatto finale sulle quotazioni azionarie dipenderà dalla capacità delle società di utilizzare l’IA per incrementare gli utili. In qualità di investitori, privilegiamo le società che presentano una maggiore prevedibilità e sono nella posizione di trarre beneficio dalla crescita strutturale del settore, garantendo rendimenti finanziari più realistici e misurabili.

In questo articolo mettiamo in evidenza sei società – Microsoft, Google, Adobe, TSMC, Samsung Electronics e Accenture – che a nostro avviso sono pronte per una crescita degli utili misurata e a lungo termine grazie all’IA generativa e per le quali abbiamo considerato una serie di rischi.

2023-11-13_firecracker-or-eternal-flame_chart1_it


Microsoft è vista come uno dei maggiori beneficiari dell’intelligenza artificiale nel settore dei software

Gli investitori ritengono che Microsoft disponga di molteplici aree di rialzo senza significative vulnerabilità percepite. La strategia di Microsoft consiste nel confezionare le funzionalità di IA come SKU separate a prezzo premium, che sono state denominate Copilot così da sottolineare la natura assistenziale della tecnologia.

GitHub Copilot (codifica assistita) genera un codice ed è anche utile per il debug e la spiegazione, la documentazione e la traduzione del codice. GitHub Copilot è uno strumento di completamento automatico che velocizza la “prima bozza” iniziale, anche se questo viene parzialmente compensato da una maggiore attività di debugging e riscrittura. Sebbene il codice suggerito possa ancora presentare problemi di contesto, efficienza e sicurezza, la proposta di valore sembra chiara, dato il significativo vantaggio in termini di produttività, in particolare per i pochi e ben retribuiti sviluppatori di software.

Office Copilot rappresenta la maggiore leva potenziale dell’AI, con funzioni quali la stesura o la modifica di un promemoria, la risposta a un’e-mail, la creazione di una presentazione PowerPoint basata su file esistenti o l’utilizzo di Excel per analizzare dati e creare grafici. Office Copilot dovrebbe, inoltre, fungere da interfaccia basata sul linguaggio naturale che consente agli utenti di sfruttare tutte le funzionalità di Office.

In un primo momento la penetrazione di Copilot potrebbe essere più modesta, poiché ci vorrà del tempo prima che le società capiscano come le attività basate sull’IA aumentino l’efficienza di una maggiore forza lavoro e quanto di ciò vada effettivamente a vantaggio dell’azienda. Sarà disponibile solo per gli utenti che fanno parte della più ampia suite M365, che rappresenta circa 160 milioni dei 382 milioni di postazioni che impiegano Office365.

Tra le altre applicazioni, Microsoft ha annunciato un Dynamics Copilot, con funzionalità di intelligenza artificiale che spaziano dalle vendite (contenuti e-mail personalizzabili, riepiloghi delle riunioni), all’assistenza clienti (risoluzione dei problemi dei clienti, agenti virtuali), al marketing (approfondimenti sui dati dei clienti, segmenti di pubblico, copywriting) e alla gestione della catena di approvvigionamento. Security Copilot di Microsoft è progettato per aiutare a rilevare, indagare e documentare gli incidenti.

L’intelligenza artificiale guiderà anche la domanda del cloud pubblico Azure di Microsoft. I clienti possono ottenere accesso ai modelli fondamentali di Open AI (GPT, Codex, DALL-E) e alle API per l’esecuzione di attività specifiche (ad es. riconoscimento delle immagini, sicurezza dei contenuti, traduzione vocale). Oltre a pagare per usare i modelli proprietari di Microsoft, i clienti possono semplicemente utilizzare l’infrastruttura IT di Azure per eseguire modelli open source o propri.

Stimare l’impatto sui ricavi di Azure è più difficile, date le maggiori incognite. Mentre l’utilizzo dei modelli di intelligenza artificiale è destinato a crescere, il costo dell’inferenza sta diminuendo rapidamente perché le società stanno trovando delle efficienze. In termini di quota di mercato, non è chiaro quale parte delle attività verrà svolta utilizzando modelli all’avanguardia rispetto a modelli open source addestrati per un dominio specifico e “sufficientemente buoni”. Inoltre, ogni modello può essere di varie dimensioni a seconda delle prestazioni richieste. Detto questo, Azure potrebbe generare 6 miliardi di dollari di ricavi incrementali dall’IA in pochi anni, rispetto ai 57 miliardi di dollari di base di Azure nell’esercizio 2023, o più vicini ai 43 miliardi di dollari escludendo la parte SaaS di Azure.

I ricavi derivanti dall’intelligenza artificiale per Microsoft potrebbero raggiungere circa 20 miliardi di dollari2, a fronte di 212 miliardi di dollari di ricavi totali nell’esercizio 2023. Ciò rappresenterebbe un incremento del 9% dei ricavi attuali, sebbene il ritmo iniziale di adozione potrebbe essere graduale man mano che i clienti acquisiscono familiarità con un nuovo tipo di prodotto. Ipotizzando un periodo di 4-5 anni per la messa a regime, l’IA contribuirebbe per circa il 2% alla crescita del fatturato e per circa il 3% alla crescita dell’EPS nel periodo.

Google è uno dei beneficiari dell’integrazione dell’intelligenza artificiale nei suoi prodotti

L’introduzione iniziale di ChatGPT ha sollevato dubbi sulle implicazioni per Google, data l’apparente capacità del servizio di rispondere a domande su qualsiasi argomento. Inoltre, Microsoft ha presentato un Bing rinnovato incentrato su GPT-4. Tuttavia, nonostante un lancio di altissimo profilo all’inizio dell’anno, il nuovo Bing non è riuscito a intaccare i risultati di Google. Dall’inizio dell’anno, la quota di mercato globale di Google è rimasta stabile al 92-93% contro il 3% circa di Bing.

Google è leader nell’apprendimento profondo e negli LLM e, nonostante l'iniziale cautela, alla fine è stata rapida nell’integrare funzionalità di tipo IA generativa nei suoi prodotti. La sua esperienza generativa di ricerca (SGE) incorpora istantanee generate dall’IA, una modalità di conversazione all’interno della ricerca e domande di approfondimento suggerite. I timori in merito alla concorrenza per quanto riguarda la ricerca sono diminuiti, anche se rimangono alcuni interrogativi sulle implicazioni a breve termine di una maggiore adozione dell’IA sulla monetizzazione e sui costi. In definitiva, l’IA sembra essere un fattore espansivo per la ricerca, dato il potenziale per ulteriori casi d’uso che tradizionalmente non rientrano nella ricerca.

Per quanto riguarda gli altri prodotti di Google, YouTube è un beneficiario indiretto dell’IA generativa. YouTube utilizza da tempo l’intelligenza artificiale per la raccomandazione e la moderazione dei contenuti e il targeting degli annunci, e questo utilizzo continuerà a migliorare. L’impatto principale dell’IA generativa deriverà dalla democratizzazione della produzione di contenuti multimediali di alta qualità, che migliorerà la qualità della libreria di contenuti a coda lunga di YouTube. L’IA generativa renderà, inoltre, più facile per gli inserzionisti produrre copy creativi di qualità superiore e più personalizzati. Benché l’impatto sia difficile da calcolare, di sicuro contribuisce ad aumentare la fiducia verso le probabilità di crescita.

Google Cloud trarrà vantaggi simili a quelli di Microsoft. Google sta lavorando a Duet (la sua versione di Copilot) che integrerà Workspace (la sua versione di Office). Vertex AI è una piattaforma su Google Cloud dove i clienti possono costruire, addestrare ed eseguire modelli di intelligenza artificiale, compreso l’accesso ai modelli LLM fondamentali di Google. L’impatto è difficile da stimare ma sarà limitato, in quanto il Cloud attualmente rappresenta solo l’11% circa del fatturato totale della società. Google Cloud era già stato posizionato maggiormente sui casi d’uso dell’analisi dei big data e l’IA dovrebbe contribuire al margine.

L’intelligenza artificiale sta aiutando i clienti di Adobe a fare maggiore affidamento sulle sue soluzioni

Adobe sta investendo nell’intelligenza artificiale e nell’apprendimento automatico da un po’ di tempo, con l’introduzione nel 2016 di Sensei, il suo strumento di IA per il marketing digitale, come primo esempio dei frutti del suo lavoro. L’anno scorso, la maggior parte dei clienti di Adobe utilizzava Sensei per accelerare e semplificare il flusso di lavoro. I profili dei clienti, le campagne di marketing passate, i dati di vendita, e così via si integrano per suggerire il mix di spesa di marketing o esperienze di marketing differenziate per ottimizzare il processo decisionale. E come carburante per qualsiasi ambizione di IA, Adobe dispone di un’abbondanza di dati e la sua posizione di leader nelle varie soluzioni è un vantaggio che differenzia il valore aggiunto.

Questo circolo virtuoso di leadership potrebbe contribuire a sostenere lo slancio, soprattutto quando il marketing diventa più personalizzato e le soluzioni e le piattaforme di marketing richiedono più dati, maggiori integrazioni e più intelligenza artificiale. Le stesse tendenze si riscontrano negli altri segmenti di Adobe, con l’IA che alimenta le funzionalità di editing, condivisione, firma, ecc. per gli utenti del cloud documentale di Adobe.

Infine, il recente entusiasmo per l’IA generativa è più evidente nel settore della creazione di contenuti digitali di Adobe. Mentre le funzionalità avanzate di elaborazione di immagini sono sempre state un punto di riferimento, la nuova funzione Firefly di Adobe, che genera immagini in base al testo, sta rapidamente diventando una funzionalità essenziale. Adobe è sempre stata più determinata nello sviluppo dell’intelligenza artificiale e tutte le funzionalità sono sottoposte a un processo di revisione per verificare le implicazioni più ampie, comprese quelle di natura etica. Inoltre, a differenza di altre applicazioni di text-to-image, Firefly non è addestrato su “tutto” ed è attento alle applicazioni commerciali. Firefly inizia con immagini di proprietà di Adobe Stock e aggiunge contenuti pubblici e con licenza aperta solo quando i diritti d’autore sono scaduti. A questi possono sommarsi i contenuti creativi dei clienti. Sebbene vi siano certamente dei vantaggi in termini di generazione di idee sia dai dati utilizzabili commercialmente che da quelli inutilizzabili, l’obiettivo di Adobe è quello di responsabilizzare gli utenti con contenuti utilizzabili commercialmente, come indicato dal feedback degli utenti. E questa priorità data all’esperienza dell’utente è ciò che guida la discussione sull’entità e sulla velocità della monetizzazione. Adobe è attualmente concentrata sull’aumento del numero di utenti e sull’espansione dell’ecosistema. Sia che si tratti di aiutare la generazione di idee o di fornire più contenuti, l’intelligenza artificiale sta aiutando gli utenti a diventare più produttivi e, in definitiva, a fare maggiore affidamento sulle soluzioni Adobe.

I componenti dei semiconduttori – GPU, chip di memoria e fonderie – sono essenziali per vincere la vittoria della tecnologia di intelligenza artificiale

Il costo dei server di intelligenza artificiale è di circa 15x-32x superiore a quello dei server normali (7.000 dollari), principalmente a causa dell’aumento del valore del silicio e delle specifiche hardware più elevate. I semiconduttori rappresentano il 90% del costo dell’hardware dei server di IA (rispetto al 65% dei server normali), soprattutto a causa delle CPU di fascia alta, delle GPU incrementali e dell’aumento dei requisiti per i chip di memoria.

I semiconduttori sono in gran parte agnostici rispetto alle società che beneficiano maggiormente dell’intelligenza artificiale. In particolare, riteniamo che gli investitori si siano concentrati meno sui player delle fonderie e della memoria perché hanno sede per lo più nei mercati emergenti, dove il rischio geopolitico è più elevato e vi sono timori riguardanti l’andamento del ciclo dei semiconduttori.

TSMC: un fornitore di fonderie chiave per l’IA generativa e il calcolo ad alte prestazioni

Il ruolo di Taiwan Semiconductor Manufacturing Company (TSMC) come versatile produttore di chip è alla base del suo potenziale di guadagno costante a livello settoriale, indipendentemente dal successo di una singola società nel campo dell’intelligenza artificiale, che sia Google, Microsoft o altri. Indipendentemente dall’architettura dei chip per l’IA che dominerà il mercato (ASIC personalizzati o GPU generiche), TSMC sarà l’abilitatore indispensabile per le soluzioni di calcolo ad alte prestazioni.

Il solido modello di business di TSMC non solo la isola dai rischi associati al successo dei prodotti di qualsiasi società specifica di intelligenza artificiale, ma la posiziona anche in modo da raccogliere guadagni quantificabili e scalabili man mano che la domanda di chip con capacità di IA aumenta.

Anche se le definizioni variano, la catena di fornitura tecnologica definisce generalmente i server di IA come quelli dotati di GPU. TSMC è l’unico fornitore di fonderie per le GPU di livello data center di Nvidia e Advanced Micro Devices, viste le difficoltà e i costi elevati associati al passaggio ad altre fonderie. Infine, TSMC può anche trarre vantaggio dalla crescente adozione di soluzioni di inferenza più economiche, che potrebbero far aumentare i volumi di unità e quindi contribuire a far crescere il consumo di wafer di punta.

L’esposizione di TSMC ai ricavi legati all’intelligenza artificiale è del 6% e nei prossimi cinque anni si prevede un tasso di crescita annuale composto (CAGR) del 50%, raggiungendo ricavi intorno al 15%. Il presidente di TSMC ha dichiarato che attualmente la società è in grado di soddisfare solo l’80% della domanda di soluzioni di confezionamento avanzato (CoWoS) dei suoi clienti per i chip di IA. Prevede di raggiungere un’offerta sufficiente tra un anno e mezzo. TSMC rimane l’abilitatore per le soluzioni di IA per data center grazie alla sua tecnologia di processo, al CoWoS, alla buona resa nei chip di grandi dimensioni e al solido ecosistema di progettazione (e dovrebbe avere una quota di oltre il 90% negli acceleratori di intelligenza artificiale).

2023-11-13_firecracker-or-eternal-flame_chart2_it

 

2023-11-13_firecracker-or-eternal-flame_chart3_it

Samsung Electronics: una soluzione unica per i clienti dei server di intelligenza artificiale

Si prevede che un server di IA possa avere una Dynamic Random Access Memory (DRAM) con contenuto di memoria 10 volte superiore grazie alla memoria ad alta larghezza di banda (HBM), un componente chiave necessario per far funzionare i processori di addestramento dell’IA con una latenza inferiore e una potenza minore. I modelli di intelligenza artificiale sono validi solo quanto i dati alimentati dalla DRAM nei processori, poiché il calcolo accelerato richiede una stretta integrazione di GPU/ASIC con la memoria ad alta larghezza di banda (HBM)3. La DRAM è uno dei componenti a più alto valore con una crescita strutturale nell’IA. Se già si prevedeva che la domanda di DRAM per server sarebbe cresciuta con un CAGR medio-alto, l’emergere dell’intelligenza artificiale ha portato a un aumento del CAGR del 10%, generando una domanda di DRAM totale aggiuntiva del 3-4%.

Per Samsung, si prevede che la memoria HBM rappresenterà oltre il 10% delle vendite di DRAM nel 2024, rispetto a una cifra nell’ordine del 5-9% nel primo semestre del 2023. Samsung e Sk hynix hanno previsto una crescita della domanda di server di IA del 35-40% nei prossimi cinque anni, con una crescita del mercato di HBM di oltre il 60% nello stesso periodo4. Di conseguenza, Samsung prevede che la domanda di memoria per gli acceleratori di IA raggiungerà l’11% della domanda totale di DRAM entro il 2028. Samsung offre una soluzione unica per i clienti dei server di intelligenza artificiale, poiché è in grado di produrre i componenti necessari per i chip dei server di IA, tra cui GPU (fonderia), HBM (memoria DRAM) e confezionamento avanzato.

Accenture ha costruito una solida base di competenze e soluzioni di intelligenza artificiale

La base di Accenture nell’intelligenza artificiale si è concretizzata sia attraverso una crescita autonoma che attraverso acquisizioni strategiche. Possiede solidi punti di forza nella consulenza, nella progettazione di soluzioni e nello sviluppo di applicazioni personalizzate, oltre a una profonda conoscenza di settori specifici e processi aziendali. La consulenza aziendale, nota per il suo approccio personalizzato e non fortemente dipendente dalla programmazione, è meno incline a diventare un servizio generico e standardizzato. Infine, Accenture ha implementato una piattaforma di automazione IT guidata dall’IA all’interno dei suoi modelli operativi e di erogazione dei servizi.

La società investirà 3 miliardi di dollari nell’intelligenza artificiale nei prossimi tre anni e prevede di raddoppiare la forza lavoro dedicata all’IA fino a 80.000 unità, prevedendo un’adozione più rapida rispetto al cloud. Accenture ha sottolineato la complessità dell’implementazione dell’intelligenza artificiale su larga scala, in particolare dell’IA generativa, dato che meno del 10% dei clienti (secondo le stime di ACN) dispone dello stack tecnologico adeguato a sfruttare la tecnologia.

Quest’anno Accenture ha realizzato progetti di IA generativa per circa 300 milioni di dollari. Questi incarichi rimangono molto piccoli ed esplorativi (su un fatturato di circa 64 miliardi di dollari nel 2023), ma questa prima esperienza in questo ambito rafforza la proposta di valore della società per ogni progetto incrementale, che si tratti di migrazione incrementale al cloud o di ottimizzazione dell’archiviazione dei dati.

Comprendere i rischi

Quando si valuta la computazione basata sull’intelligenza artificiale, i rischi includono un’adozione dell’IA inferiore al previsto, modelli di dimensioni più ridotte, dati di addestramento più piccoli e una progettazione ottimizzata di modelli e algoritmi che potrebbe ridurre i requisiti computazionali. Le principali barriere all’adozione sono i timori legati a privacy, sicurezza, conformità e infrastruttura dei dati. Esiste anche un rischio di cannibalizzazione. Senza una rapida monetizzazione delle applicazioni di IA, gli hyperscaler – grandi fornitori di servizi cloud che forniscono elaborazione e archiviazione su scala aziendale – potrebbero ancora limitare la loro spesa ai server tradizionali o all’opex (ad esempio, l’organico). Anche se non conosciamo la durata o la gravità dell’impatto della cannibalizzazione del budget sulla domanda generale di server, a lungo termine l’intelligenza artificiale dovrebbe costituire un fattore incrementale per la domanda di data center. Infine, al momento il CoWoS (confezionamento back-end) rappresenta il collo di bottiglia principale, per cui TSMC deve raddoppiare la sua capacità nel 2024 rispetto al livello attuale per soddisfare la crescita della domanda.

Un approccio di crescita qualitativa per investire nell’intelligenza artificiale

Sebbene la tecnologia sembri soggetta a cambiamenti rivoluzionari da un giorno all’altro, le applicazioni pratiche possono richiedere molto tempo. Nel breve periodo, il mercato potrebbe sovrastimare il potenziale di alcune società e l’impatto negativo su altre. Rimaniamo fedeli alla nostra ricerca sull’IA generativa e ci aspettiamo che le partecipazioni in portafoglio ne siano utilizzatori e beneficiari. L’intelligenza artificiale ha generato entusiasmo e aspettative di un’esplosione della crescita delle società di hardware orientate alla creazione di capacità server, benché queste tendano a essere attività cicliche ad alta intensità di capitale e quindi più volatili. Cerchiamo società con una crescita degli utili prevedibile e sostenibile, posizionate in modo da beneficiare dei cambiamenti strutturali.

 

 

 

 

 

1. I modelli linguistici di grandi dimensioni (LLM) rappresentano un passo avanti nella capacità di un computer di comprendere il linguaggio, imparando le definizioni delle parole e le regole grammaticali.
2. I ricavi dell’IA per Microsoft potrebbero raggiungere 20 miliardi di dollari: circa 11 miliardi di dollari per Office, circa 1 miliardo di dollari per GitHub, circa 2 miliardi di dollari per altri Copilot, circa 6 miliardi di dollari per Azure.
3. HBM: memoria ad alte prestazioni (architettura DRAM impilata in 3D) con elevata larghezza di banda e minore potenza richiesta per spostare i dati. L’HBM è come un’autostrada estremamente ampia che permette di far fluire un maggiore traffico di dati contemporaneamente, e lo fa utilizzando meno energia, il che è un vantaggio perché consente di risparmiare energia.
4. La domanda di server di IA è prevista a un tasso di crescita annuale composto (CAGR) del 35-40% e la crescita del mercato di HBM è prevista a un CAGR superiore al 60%.

Gli autori

Insight correlati