
近年、AI が仕事になっている。趣味のブログなので仕事の内容について書くモチベーションがあがらないのだが、仕事を話題を避けていると、将来振り返った時にデジタルライフのエポックメイキングな出来事に(自分が関わったのにもかかわらず)触れないコンテンツになってしまうので、なるべく記事を残しておこうと思う。
Microsoft の AI戦略変更が進展
Microsoft は Cortana など自社による AI 開発から撤退し、OpenAI に巨額投資を行い、彼らの研究開発資金やデータセンター基盤を支援してきた。その対価として高性能な OpenAI モデルを活用し、Azure の AI サービスや Microsoft Copilot を提供することで、AI 性能を業界トップクラスへと押し上げることに成功した。しかし近年、同社は “OpenAI 依存” の戦略を見直し、自社モデルの開発強化と外部モデルの柔軟な採用へと舵を切りつつある。
先月には、マイクロソフト、NVIDIA、Anthropic の戦略的パートナーシップ を発表し、Anthropic の Claude を Microsoft Foundry(Azure の AI プラットフォーム)や Copilot で提供するとした。
Microsoft Copilot で Anthropic AI モデルを使う
早速、Microsoft 365 の AI サービスである Microsoft 365 Copilot で、Anthropic Claude が利用可能になった。これまで Copilot の AI モデルは Microsoft Azure 上でホストされており、エンタープライズユーザにとっては、自社データが OpenAI に渡らない点が、セキュリティ面での安心材料となっていた(OpenAI はエンタープライズサービスの運用経験が浅く、経営体制の透明性にも課題が指摘されていたためである)。
しかし、Microsoft 365 Copilot から利用する Anthropic Claude は(現時点で)Azure ホストではなく、Anthropic のデータセンターに接続するようである。外部モデルの利用により「Copilot は Microsoft 環境で完結するので安心」という構図が崩れることになる。
調べると、技術文書(Anthropic の AI モデルに接続する)がリリースされていた。エンタープライズ版(Microsoft 365 Business Basic / Standard / Premium、エンタープライズプラン)で使える Microsoft 365 管理センターでアクセスを許可する必要がある ようだ。
Anthropic Claude は外部のクローズモデルであり、(Azure や AWS 同様に)Anthropic の利用規約で使うことになる。現時点で Copilot から外部モデルを明示的に設定する UI は一般には展開されていないし(betaユーザのエージェントくらい?)、料金体系はまだ情報が見当たらない。
個人的には、開発業務では AWS Bedrock が起点になることが多く、AI サービス利用では OpenAI 一択だったのだが、Gemini 3 の性能が抜群なので、Vertex AI(サービスとしては Geimini?Google AI Studio?)も気になっていたんだけど、マイクロソフトもキャッチしておかなければ。スピードが速すぎて着いていけない、ホント。


コメント