中国発のAI企業、DeepSeekが「オープンソースウィーク」を開始!その第一弾として、驚異的な速度を誇るFlashMLAを公開しました。
2月24日、DeepSeekは初のオープンソースコードライブラリとしてFlashMLAを発表。これは、Hopper GPU向けに最適化された、可変長シーケンス対応の超効率的なMLAデコードカーネルです。すでに本番環境に投入されているとのこと!
DeepSeekは、2月21日に「オープンソースウィーク」と題し、5つのコードライブラリを順次公開すると発表。透明性の高い形で、グローバルな開発者コミュニティと研究の進捗を共有していくとのことです。
DeepSeekのSNSによると、H800上で毎秒3000GBのデータを処理し、毎秒580兆回の浮動小数点演算を実行できるとのこと。まさにモンスター級のパフォーマンスです!
Hopperは、NVIDIAのGPUアーキテクチャで、H100やH800などが該当します。主にAI計算に使用され、2022年に発表されました。
DeepSeekのウェブ版にFlashMLAの意義を尋ねてみたところ、「高性能GPU(NVIDIA Hopperシリーズなど)専用の『加速ツール』と考えると分かりやすいでしょう。AI処理タスクの効率を向上させるために設計されています」との回答。
DeepSeekは、例として宅配便の仕分けステーションを挙げ、従来の方法では固定サイズの箱を使用するため、小さな荷物はスペースが無駄になり、大きな荷物は分割する必要があり、効率が悪いと説明。FlashMLAは、荷物のサイズに合わせて自動的に箱のサイズを調整する「インテリジェント仕分けシステム」のようなもので、時間とコストを節約できると述べています。
イーロン・マスク氏率いるxAIの大規模言語モデルGrok3は、FlashMLAについて「DeepSeekがAIハードウェアアクセラレーションの分野で深い知識を持っていることを示している」と評価。MLA自体が彼らのイノベーションであり、FlashMLAはそのイノベーションをハードウェアに具体的に実装したものであり、そのパフォーマンス指標(3000GB/sと580TFLOPS)は、業界トップレベルのソリューション(FlashAttentionなど)に匹敵すると述べています。
Grok3はさらに、「もしあなたが非常に賢いAIを持っていても、文章を処理するたびにデータの移動や複雑な数学の問題の計算に多くの時間を費やすため、AIの動作が遅いと想像してみてください。FlashMLAは、NVIDIAのHopper GPUに搭載されたAIの『ターボチャージャー』のようなものです。メモリの使用量を減らし、さまざまな長さの文章をより高速に処理できます。オープンソース化されたことで、AI開発はより速く、より安価になります。」とコメントしています。
DeepSeekの大規模言語モデルのオープンソース化は、AI業界における新たなトレンドとなりつつあります。
香港科技大学理事会会長であり、米国国家工学アカデミー外国人会員でもある沈向洋氏は、2025年のグローバルデベロッパーパイオニアカンファレンス(GDC)で、現在、クローズドソースのシェアがオープンソースのシェアを上回っているものの、今後1〜2年で劇的に変化し、オープンソースとクローズドソースのバランスが取れ、未来をリードするだろうと述べました。「大規模言語モデルの時代において、オープンソースはこれまでほど多く、そして速くはありませんでしたが、上海の努力を通じて、オープンソースはますます良くなると信じています。中国のチーム、上海のチームがオープンソースのトレンドをリードすると確信しています。」
大手企業も相次いでオープンソース化のトレンドに追随しています。2月21日、アリババの通義ラボの科学者である黄斐氏によると、現在までに、通義千問(Qwen)シリーズモデル全体のダウンロード数は1億8000万に達し、累積派生モデルの総数は9万に達しており、派生モデルの数はMetaのLlamaシリーズを超え、世界最大のオープンソースモデルシリーズになっています。
Baiduは、今後数か月以内に文心大規模モデル4.5シリーズを順次リリースし、6月30日から正式にオープンソース化すると発表。文心一言は4月1日から完全に無料となり、すべてのPCおよびAPPユーザーは文心シリーズの最新モデルを体験できます。