グローバルでエッジクラウドプラットフォームをリードする Fastly, Inc. (NYSE : FSLY) の日本法人であるファストリー株式会社 (カントリー・マネージャー 今野 芳弘) は、初の AI ソリューション「Fastly AI Accelerator」の一般提供を開始しました。Fastly AI Accelerator は、大規模言語モデル (LLM) 生成 AI アプリケーションにおいて開発者が直面するパフォーマンス向上とコスト削減を支援するために開発したセマンティックキャッシュソリューションであり、平均で 9 倍速い応答時間1を実現します。同ソリューションは 2024 年 6 月に OpenAI の ChatGPT 対応のベータ版をリリースし、この度 Microsoft の Azure AI Foundry にもサポートを拡大 しました。
Fastly の Chief Product Officer であるキップ コンプトンは次のように述べています。「開発者は AI により多くの新しいエクスペリエンスを構築できるようになりましたが、その一方でエンドユーザーが長く待たされており、多くの場合ユーザーエクスペリエンスが犠牲になっています。Fastly AI Accelerator は、すでに平均 9 倍速い応答時間を達成しており、これは始まりにすぎません。AI をより高速で効率的にしていく当社の取り組みにすべての開発者の皆様に参加していただきたいと考えています。」
Fastly AI Accelerator は、LLM 生成 AI アプリケーションの最適化を目指す開発者にとって、画期的なソリューションです。開発者は、わずか 1 行のコード変更とアプリケーションの API エンドポイントを更新するだけで、インテリジェントなセマンティックキャッシュ機能を利用できます。この容易な実装により、Fastly AI Accelerator は、個々の呼び出しごとに AI プロバイダーにアクセスするのではなく、Fastly のエッジクラウドプラットフォームを活用して、繰り返しのクエリに対してキャッシュされたレスポンスを提供します。このアプローチにより、パフォーマンスの向上、コストの削減、そして開発者により良い体験を提供します。
IDC のクラウドおよびエッジサービス担当リサーチバイスプレジデントであるデーブ マッカーシー氏は次のように述べています。「Fastly AI Accelerator は、生成 AI の普及で顕在化したパフォーマンスの課題に対処するため重要な解決策となります。Fastly は、本ソリューションの提供開始により、急成長 するエッジクラウド市場におけるリーダー企業としての地位を確固たるものにしています。セマンティックキャッシュを使用して API 呼び出しとコスト削減を実現する独自のアプローチにより、Fastly はスピードや効率性を損なうことなく LLM 生成 AI アプリの真の可能性を引き出し、ユーザーエクスペリエンスの向上と開発者の生産性向上を実現しています。」
Fastly をすでにご利用のお客様は、Fastly アカウントから直接 AI Accelerator を追加できます。詳細と開始方法については、https://www.fastly.com/jp/products/ai をご覧ください。
1 Fastly AI Accelerator のセマンティックキャッシュを利用した場合、2024 年10 月 15 日から 11 月 27 日までのベータ版を利用した全お客様データおよびデモトラフィック データの分析により、Fastly AI Accelerator 未使用時と比べて応答速度が平均 9 倍に向上したことを確認しました。