Китайский стартап в области ИИ DeepSeek потратил около $1,6 млрд на обучение большой языковой модели с возможностью мышления R1, ранее сообщалось всего о $6 млн.
Об этом говорится в отчете от SemiAnalysis.
Сообщается, что стоимость обучения DeepSeek-R1 стала одной из ключевых тем обсуждения вокруг китайского стартапа, так как его разработчикам удалось достичь уровня OpenAI при значительно меньших затратах. Несмотря на различные прежние предположения, аналитики SemiAnalysis отмечают, что DeepSeek использует около 50 тысяч ИИ-чипов Hopper от NVIDIA и ожидает поставку еще 10 тысяч.
Из-за экспортных ограничений США для Китая DeepSeek применяет не только чипы H100, которые до выхода BlackWell считались лучшими в отрасли, но и менее производительные H800, специально созданные для китайского рынка H20, а также A100.
Наибольшую долю среди имеющихся чипов в стартапе составляют H20 – около 30 тысяч с учетом дополнительных заказов. Кроме того, компания имеет по 10 тысяч H100, H800 и A100.
Фон. Ранее Mind сообщал, что итальянский Орган по защите персональных данных (Garante per la protezione dei dati personali) в срочном порядке ограничил обработку данных итальянских пользователей китайскими компаниями, предоставляющими сервис DeepSeek.