Waarom ‘clocks en cores’ niet meer volstaan voor moderne datacenter workloads

Waarom ‘clocks en cores’ niet meer volstaan voor moderne datacenter workloads

Langer dan medeoprichter van Intel Gordon Moore kon vermoeden, bepaalde de Wet van Moore het ontwikkelingsritme in de wereld van halfgeleiders, en daarmee van pc’s tot datacenters. Anno 2020 is echter niet meer alleen het aantal transistors en daarmee rekenkernen dat er past op een paar vierkante centimeter silicium van belang, noch de kloksnelheid daarvan. Er is meer dan ‘cores & clocks’: hoe sneller processors worden, hoe belangrijker snelle beschikbaarheid van data wordt. Data, in grote hoeveelheden, is immers waar het tegenwoordig om draait.

Slimmere én snellere storage

Intel heeft een lange geschiedenis van innovatie op dit vlak, van steeds grotere on-die caches tot slimme acceleratietechnieken op basis van NAND flash en 3D XPoint. In de wereld van big data en machine learning volstond het toevoegen van een extra snelheid bij processor of storage alleen niet meer, ontwikkelde het bedrijf geheel nieuwe vormen van storage. Of het nu gaat om een enterprise-applicatie als SAP of een dataset voor visuele analyse, er moet meer data dan ooit, sneller dan ooit beschikbaar zijn voor het systeem.

To read this article in full, please click here


Source: Data Center

Leave a Reply

Your email address will not be published. Required fields are marked *