Для відвідувачів Electronica 2024

Забронюйте свій час зараз!

Все, що потрібно, - це кілька кліків, щоб зарезервувати своє місце та отримати квиток на стенду

Зал С5 Бут 220

Попередня реєстрація

Для відвідувачів Electronica 2024
Ви всі зареєструвались! Дякуємо за зустріч!
Ми надішлемо вам квитки на стенд електронною поштою, як тільки ми перевіримо ваше бронювання.
Будинок > Новини > Amazon збільшує зусилля щодо створення індивідуальних чіпів AI, зменшення залежності від NVIDIA
RFQs/замовлення (0)
Україна
Україна

Amazon збільшує зусилля щодо створення індивідуальних чіпів AI, зменшення залежності від NVIDIA


Amazon готується запустити свій останній чіп «Штучний інтелект» (AI), оскільки великий технологічний конгломерат прагне отримати прибуток від мільярдів доларів інвестицій у напівпровідники та зменшити свою залежність від лідера ринку NVIDIA.

Керівники підрозділу хмарних обчислень Amazon вкладають великі кошти в індивідуальні мікросхеми, сподіваючись підвищити ефективність своїх десятків центрів обробки даних і в кінцевому рахунку зменшити витрати для себе та клієнтів Amazon AWS.

Цю роботу очолює Annapurna Labs, стартап чіпів, що базується в Остіні, який Amazon придбав за 350 мільйонів доларів на початку 2015 року. Очікується,є частиною серії чіпів AI, розробленої для підготовки найбільших моделей.

Trainium 2 вже проходить тестування Antropic (конкурента OpenAI, який отримав 4 мільярди доларів на підтримку від Amazon), а також VNET, Deutsche Telekom, Ricoh Japan та Stockmark.

Amazon AWS та Annapurna мають на меті конкурувати з Nvidia, яка стала однією з найцінніших компаній у світі завдяки домінуючому становищі на ринку чіпів AI.

Ми сподіваємось стати найкращим місцем для керування чіпами Nvidia ", - сказав Дейв Браун, віце -президент з обчислювальних та мережевих послуг в Amazon AWS. Але в той же час ми вважаємо, що прийняття альтернативних рішень є корисним", - сказав Амазонка, заявивши, що йогоІнші професійні чіп AI "інфекції" знизили експлуатаційні витрати на 40% і можуть бути використані для реагувальних генеративних моделей AI.

Зараз Amazon очікує капітальних витрат приблизно в 75 мільярдів доларів у 2024 році, більшість спрямовується на технологічну інфраструктуру.Під час останнього виклику конференції компанії компанії Енді Джассі заявив, що очікує, що компанія матиме більше витрат у 2025 році.

Це збільшується від витрат на цілий рік у 48,4 мільярда доларів США у 2023 році. Найбільші хмарні постачальники, включаючи Microsoft та Google, інвестують великі кошти в штучний інтелект, і ця тенденція виявляє незначні ознаки ослаблення.

Amazon, Microsoft та META - всі основні клієнти NVIDIA, але вони також розробляють власні мікросхеми центрів обробки даних, щоб закласти основу для хвилі зростання AI, яку вони очікують.

Даніель Ньюмен з Futurum Group сказав: "Кожен великий постачальник хмара гаряче переходить до більш вертикальності, і, якщо можливо, рухається до однорідної та інтегрованої" технології чіпів "" стек "

Ньюмен зазначив, що "від OpenAI до Apple, всі прагнуть створити власні фішки", оскільки вони шукають "нижчих виробничих витрат, більш високої норми прибутку, більш високої доступності та більшого контролю".

Після початку створення мікросхеми безпеки "Nitro" для AWS, Аннапурна розробила кілька поколінь Graviton, центральної обробки на основі ARM (CPU), який надає альтернативу малої потужності традиційним серверним мейнфреймам, що надається Intel або AMD.

Аналітик Techinsights G Ден Хатчесон сказав: "Однією з головних переваг AWS є те, що їхні мікросхеми можуть використовувати меншу потужність, а їхні центри обробки даних можуть бути більш ефективними", тим самим зменшуючи витрати.Він сказав, що якщо графічний підрозділ Nvidia (GPU) є потужним інструментом загального призначення (для автомобілів, як вагони станції), то Amazon може оптимізувати свої мікросхеми для конкретних завдань та послуг (наприклад, компактних або хетчбек-автомобілів).

Однак поки що AWS та Annapurna навряд чи послабили домінуючу позицію Nvidia в інфраструктурі ШІ.

Дохід від продажів CHIP NVIDIA AI в центрі даних про продаж у другому кварталі фінансового 2024 року досяг 26,3 млрд. Дол.Повідомляється, що лише невелика його частина може бути віднесена до клієнтів, які працюють на робочих навантаженнях AI в інфраструктурі Аннапурна.

Що стосується сирої продуктивності чіпів AWS та NVIDIA -чіпів, Amazon уникає прямих порівнянь і не подає свої мікросхеми в незалежні орієнтири на продуктивність.

Консультант Moor Insights & Strategy Chip Патрік Мурхед вважає, що претензія Amazon про 4-кратне покращення продуктивності між Trainium 1 та Trainium 2 є точною, оскільки він переглядає компанію протягом багатьох років.Але дані про ефективність можуть бути не такими важливими, як просто надання клієнтам більше варіантів.

Люди цінують усі нововведення, принесені Nvidia, але ніхто не хоче бачити, як Nvidia займає 90% частки ринку ", - додав він.Ця ситуація не триватиме занадто довго

Оберіть мову

Клацніть на простір, щоб вийти