|
2月17日、Sangfor OneCloudがAI向けに大幅なアップグレードを実施し、大規模モデルシナリオに適したAIプラットフォームを構築したことが発表されました。これにより、ユーザーにインテリジェントコンピューティングサポートとアプリケーション構築機能を提供します。DeepSeekをベースとしたユーザーシナリオでは、ワンクリックデプロイ、パフォーマンス向上、迅速なアプリケーション開発を実現するベストプラクティスソリューションを提供します。 要約すると、Sangfor One Cloud のアップグレードには次の 3 つの側面が含まれます。 1. オフライン インフラストラクチャは、従来のビジネス サポート プラットフォームからインテリジェント コンピューティング サポート プラットフォームにアップグレードされ、DeepSeek を含む最新の大規模モデルと幅広く互換性があります。 Sangfor は、「HCI+AICP 次世代ハイパーコンバージド インフラストラクチャ」ソリューションを開発しました。このソリューションでは、元のクラスターに GPU ノードを追加するだけで、DeepSeek などのエンタープライズ レベルの大規模モデルをローカル クラスターに迅速に展開してサポートできます。 Sangfor の AICP コンピューティング プラットフォームは、NVIDIA GPU のサポートに加えて、多くの国内メーカーと広範なソフトウェアおよびハードウェアの互換性テストを実施しており、Tianshu Zhixin、Ascend、Hygon、Muxi、Suiyuan などのさまざまな国内カードに適応できるため、ユーザーは異機種コンピューティング パワー管理を実現できます。 2. オンラインホスティングクラウドは、DeepSeekなどのエンタープライズレベルの大規模モデルサービスを提供する、新しいAIサービスカタログを発表しました。ユーザーはサブスクリプションを通じてAI機能を迅速に取得できます。 Sangfor Managed Cloud は、専用リソースと AICP に基づく専用のエンタープライズ レベルの大規模モデル サービスをユーザーに提供できるようになりました。これにより、専用サービス モデルのオンライン展開に対するユーザーのニーズを満たすことができます。 Sangfor はオンライン サービス カタログを引き続き充実させ、ユーザーがサブスクリプションを通じて DeepSeek やその他のモデル サービスなどの AI 機能に簡単かつスムーズにアクセスできるようにします。 3. 大規模なモデルアプリケーションを迅速に構築できるようにするための新しい AI アプリケーションイノベーションプラットフォームがリリースされ、AI アプリケーションの開発と運用が簡素化されました。 SangforのAIアプリケーション・イノベーション・プラットフォームは、RAGベストプラクティスのワークフローを統合し、インテリジェントなシャーディングと企業所有のナレッジベースへの直接接続をサポートします。ユーザーは簡単な操作で高品質なRAGアプリケーションを構築できます。このプラットフォームは、ビジネス評価データセットに基づくアプリケーションパフォーマンス評価をサポートし、最適化の提案を自動生成します。ユーザーは複雑な技術的詳細を理解することなく、構成の最適化とパフォーマンス向上を実現できます。 報道によると、AI にアップグレードした後、Sangfor は推論パフォーマンスを総合的に最適化し、クラウド上で実行される大規模モデル アプリケーションの推論パフォーマンスを大幅に向上させ、大規模モデルの使用にかかる全体的なコストを削減できるようになりました。 個人開発者が一般的に使用するOllamソリューションを用いてDeepSeekを導入する場合と比較して、SangforのAICPコンピューティングプラットフォームを介した導入ソリューションは、マルチインスタンスの同時推論シナリオにおいて5~10倍のパフォーマンス向上を実現します。大規模なモデルでは、同時実行性、スループット、推論応答のレイテンシが向上するため、ユーザーはリソース投資を抑えながら、エンタープライズレベルのAIアプリケーションの構築と利用において優れたエクスペリエンスを享受できます。 4 枚の 4090 カードを使用して DeepSeek-32B モデルを実行し、質問応答テスト用の 64 スレッド同時シナリオをシミュレートします。 32B モデルを例にとると、日常的な質疑応答のシナリオ (2k コンテキスト) では、AICP の同時実行性は Ollam の 8 ~ 10 倍、総スループットは 10 倍以上になります。 ハードウェアリソース: INT4は2*4090、FP16は4*4090を使用 ナレッジ ベース アプリケーション シナリオ (4k コンテキスト) では、AICP の同時実行性は Ollam の 2 倍、合計スループットは Ollam の 4 ~ 8 倍になります。 ハードウェアリソース: INT4は2*4090、FP16は4*4090を使用 |
Sangfor One Cloud が AI 向けにアップグレード: DeepSeek をホスティングし、ディープ AI アプリケーションのイノベーションをサポート
関連するおすすめ記事
-
「Twin Shadows」のメディアレビューが明らかに。Hazelight Studios が協力型ゲーム ジャンルにおける強さを再び証明。
-
テスラのモデル3/Yの5年間0%金利自動車購入プログラムが11月30日までさらに延長されました。
-
テスラの中国での売上は2月に50%急落した。
-
TikTokは米国のユーザー1億7000万人へのサービスを停止すると発表した。
-
アルトマン氏は、OpenAIは売却されないと改めて強調した。「これはマスク氏が我々に干渉するための単なるもう一つの戦術だ」
-
ユニツリー・ロボティクスの王星星氏:私たちのヒューマノイドロボットは今年上半期末までに毎秒10メートルの走行速度に達し、「ウサイン・ボルトを超える」と期待しています。