Ter info.
BofA: 'DeepSeek-zorgen overdreven in AI-semiconductors; maar fundamentele modellen houden de vraag hoog'
"Op 20 januari creëerde het in China gevestigde AI-lab DeepSeek een mini-opleving in de AI-halfgeleidersector door een gratis, open-source R1-model uit te brengen dat naar verluidt beter presteert dan toonaangevende westerse AI-modellen, zoals OpenAI's GPT-4. De makers van het model beweerden dat het slechts twee maanden en minder dan $ 6 miljoen kostte om te bouwen met behulp van oudere generatie NVIDIA H800-chips.
Als dit klopt, suggereert deze vooruitgang dat het nut en de nauwkeurigheid van het model mogelijk niet direct schalen met rekenkracht/geheugen/netwerken, waardoor de vraag naar dure AI-chips mogelijk afneemt. Wij zijn echter van mening dat deze bezorgdheid over het vertragen van AI-schaling overdreven is. Op basis van beschikbare gegevens lijkt het model van DeepSeek een 'gedistilleerd' model te zijn dat vertrouwt op grotere fundamentele modellen zoals Meta's open-source Llama.
Het zijn deze fundamentele LLM's waar aanzienlijke en stijgende infrastructuurkosten worden gemaakt, zoals blijkt uit Meta's plan om de CY25E capex met meer dan 56% te verhogen jaar-op-jaar tot $ 60-$ 65 miljard. Naar onze mening zullen we een toenemende vraag naar computing blijven zien, gedreven door een mix van grote fundamentele modellen (zowel propriëtair als open-source), afgeleide modellen (gebruikmakend van technieken zoals kennisdistillatie, spaarzame aandacht en lage-rangfactorisatie) en inferentie op schaal voor diverse cloud-, enterprise- en soevereine AI-klanten.
We handhaven onze koopbeoordelingen voor NVIDIA (NVDA), Broadcom (AVGO) en Marvell Technology (MRVL)."