画像出典@pixabay
2023年10月、フルマネージド生成AIサービスAmazon Bedrockが正式に利用可能になった際、ある中国メディアが疑問を呈しました。「将来、アマゾン ウェブ サービス(AWS)は中国語コーパスに基づく大規模言語モデル(LLM)を導入するのだろうか?」当時、問題は未解決でした。
2024年5月、AWSの別の早期に中国に進出した機械学習プラットフォームAmazon SageMaker Jumpstartは、2つの中国語LLM、零一万物と百川智能をリリースしました。その後、AWSは智谱などのさらに多くの中国語モデルを継続的にリリースしました。
2025年1月30日、DeepSeek-R1が人々を驚かせた1週間後、AWSは迅速にこの中国のLLMのサポートを発表しました。さらに豊富な製品イニシアチブは、Amazon Bedrock Marketplaceにデプロイするか、Amazon SageMaker Jumpstartにデプロイするか、またはAmazon Bedrockのカスタムインポート機能またはAmazon EC2 Trn1インスタンスにDeepSeek-R1-Distillシリーズモデルをデプロイすることです。簡単に言えば、さまざまな規模、さまざまなコンピューティングリソースを持つ顧客が考慮されます。
「多くの中国企業が海外地域のモデルを呼び出して、海外事業をサポートしています。試験的な観点から見ると、中国地域の顧客の需要も非常に高く、さまざまなサイズのDeepSeekモデルを試して迅速なデプロイを実現したいと考えています。」
DeepSeek-R1がAWSプラットフォームに接続された際、AWS大中華圏製品技術ディレクターの王暁野は、この変化における顧客の洞察をチタンメディアに明らかにしました。
現在、DeepSeek-R1は、NVIDIA、Amazon、Microsoft、Google、Alibaba、Baiduなどを含む中国と米国のテクノロジー企業からサポートを受けています。一部のメーカーはワンクリックデプロイソリューションをリリースし、一部のメーカーはこれに基づいて低価格ソリューションと無料サービスをリリースし、一部のチップメーカーはDeepSeekに適応するために多くのエンジニアリング最適化作業を行っています。王暁野の中国チームも春節休暇中に残業し、海外チームと協力してDeepSeekを迅速にオンラインにしました。
王暁野によれば、これは昨年からDeepSeekコミュニティとの技術交流と協力が途絶えることなく行われてきたことと密接に関連しています。「私たちは、DeepSeekモデルを顧客が適用するのを支援するエンジニアリングの実践を常に続けてきました。」
モニタリングウェブサイトSimilarWebのデータによると、1月31日、ChatGPTと比較して8倍の差があるにもかかわらず、DeepSeekウェブサイトの米国での1日の訪問者数は240万回、グローバル(中国を除く)での訪問者数は2920万回でした。そして、DeepSeekサーバーのビジー状態と頻繁なサイバー攻撃の背後には、リソースの安定性とネットワークセキュリティのわずかな不足があります。
「現在のAWSプラットフォームでの顧客アクセス状況から見ると、DeepSeekを水平方向に比較すると、同様にオープンソースのLlamaに少し似ています。」
王暁野は指摘しました。彼は、「オープンソースであることは非常に重要です。クローズドソースモデルと比較して、オープンソースモデルはより幅広い顧客を持ち、成長速度も比較的速くなります。」と強調しました。
2月24日、チタンメディアは、DeepSeek R1およびV3モデルが、西雲データが運営するAWS Marketplace(中国地域)で正式にオンラインになったことを知りました。AWS中国地域の企業ユーザーは、SiliconCloudが提供するSiliconCloudサービスをサブスクライブすることで、モデルAPIを呼び出してモデルを直接使用でき、モデルやコンピューティングリソースを自分で管理する必要はありません。
DeepSeekが市場全体にもたらす混乱の度合いから判断すると、2025年の人工知能競争はさらに激化するでしょう。
まず、LLMの深い推論能力です。GPT-o1、DeepSeek-R1に続いて、各LLMメーカーも、AlibabaのQwQ、月之暗面のKimi-k1、智谱のGLM-Zero、昆仑万维のSkywork-o1、および最近のxAIのGrok3 Reasoningなど、多くの推論モデルを迅速に発表しました。
次に、トレーニングコストの問題です。R1は、o1大規模モデルの能力に達した場合、比較的低コストのトレーニングプロセスを説明し、外部に理解させました。技術的な最適化を通じて、低コストで高性能な大規模モデルを実現することは不可能ではありません。
さらに、モデルのオープンソース化もあります。クローズドソースとオープンソースは矛盾しません。商業企業は、ビジネスモデルと技術的な障壁を維持するためにクローズドソースを選択しますが、同時にオープンソースの影響力を通じて顧客に迅速にリーチしたいと考えています。しかし、OpenAIとBaiduのオープンソースの「顔の変化」も、オープンソースモデルとクローズドソースモデルの品質が同等であり、ギャップが大きくない場合、顧客は制限されたモデルにお金を払わないことを示しています。これはグローバルに当てはまります。
顧客が関心を持つ可能性のある料金の問題については、現在、DeepSeekは企業顧客に対して、主にローカルデプロイメントを採用しており、100万トークンあたりの入力価格で課金されます。AWS、Alibaba Cloudなどのクラウドベンダーが提供するモデル呼び出しは、各クラウドベンダーの現段階での課金ロジックが異なるため、わずかに異なります。
チタンメディアは気づきました。
AWS、Microsoft、Googleは、クラウド顧客にDeepSeekの使用料金を請求していません。DeepSeekを使用する顧客は、使用するクラウドコンピューティングリソースに対してのみ料金を支払う必要があり、コンピューティングリソースに基づく課金や、コンピューティングリソースから変換されたトークンに基づく課金など、さまざまな方法があります。
そして、DeepSeekの商業化とエンジニアリングの実装をめぐるこの競争の背後には、クラウドベンダーがクラウドコンピューティングの堀をどのように維持するのかという問いに答える必要があります。
最近、チタンメディアは関連トピックについてAWSと独占的に対話しました。以下はこの対話の要点です。
1、R1が示す推論能力は、Agentの実装と企業プロセスの自動化のブームを推進します。焦点は推論だけでなく、マルチモーダルにも当てるべきです。
2、すべてのモデルがすべてを統一できるわけではありません。企業顧客が複数のモデルオプションを必要とするというロジックは依然として成立します。
3、AWSの製品ロジックは、土壌に根ざし、誰もが見えない場所でAmazon Trainium2チップを含む継続的な革新を行い、トレーニングと推論のレベルでの研究開発を強化することです。
4、顧客はAWSにDeepSeek R1をデプロイするだけで、使用するクラウドリソースに対して料金を支払う必要があります。
5、現在、中国の顧客はDeepSeekの試みに比較的高い関心を持っており、さまざまなサイズのモデルの試用デプロイメントを含みます。
真にフルパワーで大規模モデルをオンラインにしているのは、ほんのわずかです
チタンメディア:DeepSeekを内部でどのように評価していますか?
王暁野:
実際、国内ユーザーにとって、DeepSeekには2つの焦点があります。1つはアプリケーション、つまり携帯電話/ウェブページのチャット応答機能です。2つ目はモデルです。これは、世界中でDeepSeekが広く注目されている中心でもあり、テキストチャット向けの汎用モデルDeepSeek-V3と深い推論モデルDeepSeek-R1が含まれます。
現在、R1は比較的注目されており、世界中の顧客がR1モデルに対する需要が急増しています。
要約すると、主にいくつかの理由があります。1つは、技術レポートが非常にしっかりしており、思考の連鎖も比較的明確で、R1はo1のような推論能力に達しており、比較的良い効果が見られています。2つ目はコストです。第一線の大規模モデルの能力に達した場合、比較的低コストのトレーニングプロセスが説明されています。3つ目は、オープンソースモデルとしての影響力です。4つ目は、顧客の需要が急速に高まっていることです。これは、すべてが石を叩いて川を渡るという探求の時代において、驚くべきことです。
チタンメディア:AWSはどの中国モデルを導入するかについて、どのような考慮事項がありますか?なぜ今回、これほど迅速に対応したのですか?
王暁野:
DeepSeek-R1を導入することに関しては、モデルのサイズを明確にする必要があります。たとえば、オンラインになっているのは、1.5B、32Bなどの小さいサイズの蒸留モデルです。しかし、実際に完全にオンラインになっているフルパワーバージョン(R1-671B)は、現在、AWSが数少ないうちの1つです。
以前、V3がリリースされる前に、私たちのビジネスチームはDeepSeekの背後にあるコミュニティとコミュニケーションを取りました。2024年4月、Amazon Bedrockは「カスタムモデルインポート」と呼ばれる機能をリリースしました。当時、機能はまだプレビュー段階でしたが、最初にオンラインになったのはコード生成専用のDeepSeek Coderモデルでした。
その後、R1が発表されたとき、私たちはコミュニティと良好なコミュニケーションと技術的経験を持ち続けており、DeepSeekのオープンソースバージョンのため、モデルのオンラインデプロイメントを迅速に実現し、春節休暇中にDeepSeekのプラットフォームサポートを迅速に実現しました。
昨年から今年にかけて、顧客がDeepSeekモデルをデプロイするのを支援するというエンジニアリングの実践を止めたことはありません。
チタンメディア:フルパワーバージョンをデプロイすると、顧客にとって非常にコストがかかります。クラウドベンダーがDeepSeekをオンラインにした後、各クラウドベンダー間に明らかな違いはありますか?
王暁野:
現在、大きな違いはありません。DeepSeek推論モデルは、サーバーのデプロイメントプロセスで主にマルチクラスター方式を採用しており、推論レベルでの多くのエンジニアリング経験を蓄積しています。今日のクラウドベンダーレベルでは、誰もが習得している知識はほぼ同じです。
しかし、将来を見ると、AWS自身の実践を例にとると、たとえば、オープンソースモデルLlamaへの支出と同様に、昨年re:Inventで遅延最適化推論機能がリリースされました。その基盤は、自社開発のチップAmazon Trainium2を組み合わせており、Llamaの推論パフォーマンスを現段階でクラウドベンダー全体の最高のパフォーマンスに最適化しました。
チタンメディア:昨年、AWSは独自の大規模モデルAmazon Novaもリリースしました。DeepSeekが登場した後、AWS自社開発の大規模モデルのアイデアに影響や変化はありますか?
王暁野:
大きな方向性に大きな影響はありません。Amazon Novaシリーズのモデルがリリースされたという観点から見ると、依然として専用のシナリオに非常に焦点を当てています。モデルがすべてを統一できるわけではなく、シナリオに最適なモデルを適合させる必要があると主張しているからです。
Amazon Novaシリーズのモデル、たとえば、Nova Microは、テキスト検証や簡単な翻訳などのシナリオに適しており、Nova Liteは低コストのマルチモーダルであり、画像、ビデオ、テキスト生成に適しており、提供される究極のコストパフォーマンスは今日まで最高です。Novaはまだ論理推論能力のモデルをリリースしていません。現時点では、Novaが今後この分野で作業を行うかどうかについて、それ以上の洞察はありません。
Amazon NovaとV3を一般的なシナリオで比較すると、誰もが第一線にいますが、どちらが優れているかという結論はありません。
チタンメディア:DeepSeekにはどのような技術的な限界がありますか?
王暁野:
モデルの限界は依然として存在します。モデルの本質はトークンを生成することであり、その原理は常に幻覚が存在することです。第一線のモデルはどれも解決しておらず、今日現在では解決されていません。
2番目のレベルは、比較的高いコストの問題です。誰もがいくつかの概念を曖昧にするでしょう。モデルのパラメーターが多いほど、モデルの能力が高くなり、必要なコンピューティングリソースが多くなるというロジックでは、企業はシナリオに基づいてインテリジェンスまたはパフォーマンスを選択し、常にコストパフォーマンスの問題について妥協とトレードオフを行う必要があります。
さらに、R1推論の思考の連鎖は、実際にはプロセスが長ければ長いほど、理論的にはトークンを生成するコストも比較的高くなります。推論段階では、表面上はDeepSeekまたは各社のAPI価格が異なっていますが、安定性、継続的な応答の問題は依然として存在するため、顧客は依然として基盤となるコンピューティングリソース、データカスタマイズ、およびアプリケーションなどのニーズを持っています。
したがって、これらの2つの質問に対する回答は次のとおりです。1つはエンジニアリングレベルで、幻覚と有害なコンテンツの保護を適切に行うことです。2つ目は、基盤となるコンピューティングリソースを継続的に最適化する必要があることです。クラウドベンダーとして、独自の自社開発チップを持っており、推論パフォーマンスを継続的に最適化する能力を持つ企業は、推論の価格設定が比較的安価に見えますが、エンタープライズレベルに配置すると、真に安定したサービスを提供できる場合、コストはすぐに上昇します。
顧客は依然としてエンジニアリング手段でモデルの出力を制御する必要があります
チタンメディア:顧客からのフィードバックはどのようなものですか?
王暁野:
現在、大規模な顧客は、ローカルデプロイメントの場合、コンピューティングリソースが不足することを特に心配しており、モデルをデプロイした後、安定性を心配しています。さらに、多くの中国企業が海外地域を呼び出して海外事業をサポートしていますが、需要が高まり、試験的な観点から見ると、国内顧客の試みも比較的高く、さまざまなサイズのモデルをどのように迅速にデプロイするかということです。
したがって、今日DeepSeekのアプリケーションエンドを見ると、サーバー応答の問題が発生する頻度は依然として比較的高くなっています。デプロイメント時にスループット全体が最適化されていますが、基盤となるコンピューティングリソースまたはリソース全体は依然として比較的固定されています。
今日、真にエンタープライズアプリケーションに移行した顧客にとって、体験する最良の方法は、間違いなくクラウド上にあります。クラウド上のリソースを利用し、柔軟な方法で、顧客の要求を拒否することなく、比較的優れたサービスの可用性と継続性を実現できます。これが、AWSが最近Amazon Bedrock Marketplace、Amazon SageMaker Jumpstartにモデルをデプロイする理由です。
もちろん、企業が注目しているのは、適切なモデルを選択し、特定のシナリオに合わせて適切なモデルを選択することです。プライベートデータをカスタマイズします。次に、一連のエンジニアリング手段を通じてコストを削減します。次に、ツールレベルの機能を通じてモデルの出力を適切に制御します。たとえば、今日DeepSeekのパフォーマンスが非常に優れているにもかかわらず、依然として有害なコンテンツと幻覚の問題が存在するため、アプリケーションレベルの出力が正しいことを保証するために成熟したツールGuardrailが必要です。さらに、エンドツーエンドの暗号化セキュリティもあります。これらのトピックは、将来、企業の関心が高まるにつれて、非常に注目されるトピックになると考えています。
チタンメディア:現在、プラットフォーム上の顧客の呼び出し状況はどうですか?増加率はどれくらいですか?
王暁野:
強調する必要があるのは、R1は中国だけでなく、世界中の顧客が注目していることです。その理由は、その推論能力が確かに世界トップクラスの能力であるためです。
同時に、V3がそれほど驚くべきものではない理由は、世界中に多くのオプションがあり、特定のシナリオに合わせて、それぞれ長所と短所がある可能性があるためです。
R1に戻ると、蒸留後のわずかに小さいバージョンへの関心は比較的低い可能性がありますが、小規模な蒸留バージョンのデプロイメントを試みている顧客はたくさんいます。グローバル規模では、顧客の主な要望は依然としてフルパワーバージョンのR1であり、特に比較的規模の大きい顧客は積極的に模索しています。
チタンメディア:では、この顧客の増加は、以前にAWSがオンラインにしたサードパーティのLLMと比較して、速度の点で明らかな違いがありますか?
王暁野:
比較的似ています。オープンソースであることに戻りましょう。これは非常に重要です。水平方向に比較すると、Llamaに少し似ています。
クローズドソースモデルと比較して、オープンソースモデルはより幅広い顧客を持ち、たとえば、一部の典型的な大企業、顧客グループは広範で、成長速度も比較的速くなります。
チタンメディア:AWSを使用してDeepSeekを使用する顧客は、コンピューティングリソースとツールに対してのみ料金を支払う必要がありますか?課金モデルはどのようなものですか。これはLlama LLMを使用するのと同じですか?呼び出し価格の競争に優位性がありますか?
王暁野:
現在、AWSが提供しているバージョンは商業的な共有モデルではなく、モデルの他の部分、デプロイメント作業なども無料です。現在、顧客は多くの呼び出しモードで、支出する基盤となるクラウドコンピューティングリソースに対して料金を支払う必要があります。
チタンメディア:トークン課金モデルと比較して、顧客とクラウドベンダーの両方にとって、いくつかのメリットとデメリットはありますか?
王暁野:
全体的に見て、Amazon Bedrockはユーザーにとって最も簡単な方法です。モデルを選択し、マシンタイプを選択するだけで、ワンクリックでデプロイでき、フルパワーバージョンのモデルに最も簡単にアクセスできます。
Amazon Bedrock MarketplaceおよびAmazon SageMaker JumpStartにDeepSeek-R1モデルをデプロイし、中国地域でDeepSeek R1およびV3モデルを呼び出す場合、最も主要なサービスシナリオはDeepSeekフルパワーバージョンの呼び出しであり、現時点ではフルパワーバージョン機能を提供できるメーカーは依然として非常に限られています。
Amazon Bedrockのカスタムモデルインポート機能を使用してDeepSeek-R1-Distillモデルをデプロイし、Amazon EC2 Trn1インスタンスを使用してDeepSeek-R1-Distillモデルをデプロイします。現在もクラウドリソースに基づいて計算されており、背後には対応するコスト計算があります。
将来的には、基盤となる最適化により、顧客のモデルアクセスにおけるコストパフォーマンスが継続的に向上すると理論的に予想されます。
チタンメディア:今年全体の米国と中国のAI競争はどのような状況になると予想されますか?この段階は、クラウドプロバイダー/コンピューティングリソースプロバイダーにどのような影響を与えますか?
王暁野:
将来の大規模モデルの焦点は、Agent推論だけでなく、マルチモーダルも将来の大きな方向性です。
また、海外では責任あるAIとモデルによって生成される有害なコンテンツの使用について、より懸念が高まるでしょう。クラウドベンダーを筆頭に、誰もがこの分野への投資を強化します。
DeepSeekが次に与える影響を予測すると、まず、中国企業、特に伝統的な企業に対して、2つのシグナルが放出されます。1つはコスト、2つ目は推論能力です。モデル推論は、特に企業の効率を向上させるのに適しており、たとえば、コード生成、Agentによるタスクの自動化などのシナリオです。現在、多くの企業がAgentを試していますが、まだ特に成熟した段階には達していません。したがって、R1が示す推論能力は、Agentの実装と企業プロセスの自動化アプリケーションのブームを再び推進します。
(この記事は最初に、著者|楊麗、編集|蓋虹達によって公開されました)