<'s> Deepseek의 놀랍도록 저렴한 AI 모델은 업계 거인에게 도전합니다. 중국의 신생 기업은 2048 GPU 만 사용하여 경쟁 업체를 크게 약화시키는 6 백만 달러에 불과한 강력한 Deepseek V3
를 훈련했다고 주장했다. 그러나이 저렴한 비용은 훨씬 더 큰 투자에 달려 있습니다.
<> 이미지 : ensigame.com <🎵 🎵>
Deepseek V3의 혁신적인 아키텍처는 효율성에 기여합니다. 주요 기술에는 동시 단어 예측을위한 다중 점화 예측 (MTP), 256 <🎵 🎵 S를 이용하는 전문가 (MOE) 및 중요한 문장 요소에 중점을두기 위해 다중 헤드 잠재주의 (MLA)가 포함됩니다.
<> 이미지 : ensigame.com <🎵 🎵>
그러나 그러나 자세히 살펴보면 상당한 인프라 투자가 나타납니다. Semianalysis는 DeepSeek의 약 50,000 NVIDIA Hopper GPU의 사용을 발견했으며, 총 16 억 달러의 서버 비용과 9 억 9,400 만 달러의 운영 비용을 기록했습니다. 이는 연구, 개선, 데이터 처리 및 전반적인 인프라를 제외한 사전 훈련 GPU 사용에 대해서만 초기 6 백만 달러의 교육 비용 청구와 크게 대조됩니다.
<> 이미지 : ensigame.com <🎵 🎵>
Deepseek의 성공은 독립적 인 구조에서 비롯되어 빠른 혁신과 효율적인 자원 할당을 허용합니다. High-Flyer Hedge Fund의 자회사 인이 회사는 클라우드 관련 경쟁 업체와 달리 데이터 센터를 소유하고 있습니다. 또한, 높은 급여는 중국 대학의 최고 인재를 유치합니다. AI 개발에 대한 DeepSeek의 총 투자는 5 억 달러를 초과합니다
<> 이미지 : ensigame.com <🎵 🎵>
DeepSeek의 "예산 친화적 인"주장은 오해의 소지가 있지만, 경쟁 업체에 대한 비용 효율성은 여전히 주목할 만하다. 이 회사의 R1 모델은 ChatGpt4의 1 억 달러에 비해 훈련하는 데 5 백만 달러가 들었습니다. DeepSeek의 예는 초기 비용 청구의 과장에도 불구하고 기존 플레이어와 효과적으로 경쟁 할 수있는 잘 자금을 지원하는 Agile AI Company의 잠재력을 보여줍니다. 현실은 상당한 투자, 기술 발전이며 숙련 된 인력은 성공의 열쇠입니다.