GitHub と Microsoft は 2026 年 4 月 23 日リリースの VS Code 1.117 で、GitHub Copilot Business / Enterprise プランでも BYOK(Bring Your Own Key) を有効化したと発表しました。これまで Copilot のモデル選択は GitHub のホスト環境に閉じていましたが、今後は Anthropic / OpenAI / Google / Azure OpenAI など、社内が契約しているモデル を直接呼び出せるようになります。
受託開発の現場では、「クライアントごとに使うモデルを切り替えたい」「特定のモデルしか業務利用できないクライアントに対応したい」という要件が日常的に発生します。今回の BYOK 解禁は、その要件にきれいに刺さる変更です。本記事では、設定手順と LLM ガバナンス設計を整理します。
BYOK で何が変わるか
これまでの構成と、1.117 以降の構成を並べると違いがはっきりします。
| 観点 | 旧(〜 1.116) | 新(1.117 〜) |
|---|---|---|
| モデル提供 | GitHub のホスト環境のみ | 社内 / クライアント契約を直接利用可能 |
| モデル選択肢 | GitHub が提供する範囲 | Anthropic / OpenAI / Google / Azure / Bedrock |
| データ送信先 | GitHub 経由 | 自社 / クライアント契約のテナント |
| 監査ログ | GitHub の Audit Log | 自社契約側で完結(クラウドプロバイダ標準) |
| コスト負担 | GitHub 課金 | 自社 / クライアント契約の従量課金 |
特に データ送信先がクライアント契約のテナントに変わる のが大きいです。外注先のエンジニアがクライアント環境を触る案件では、「データはクライアント契約の Azure OpenAI で処理する」と説明できると、契約の通りやすさが明確に変わります。
受託案件で発生する 3 つの典型シナリオ
シナリオ 1:クライアントが Azure OpenAI を契約済み
「Microsoft 365 を全社導入していて、Azure OpenAI のテナントもある」というクライアント。BYOK で Copilot を クライアントの Azure OpenAI に向けると、データは Azure テナント内に閉じます。
// .vscode/settings.json (クライアントごとに切替)
{
"github.copilot.advanced.model.endpoint": "https://${TENANT}.openai.azure.com/",
"github.copilot.advanced.model.apiVersion": "2026-04-01-preview",
"github.copilot.advanced.model.deployment": "gpt-5.5-prod"
}
クライアント側のセキュリティ部門には「コードがあなたの Azure テナントから外に出ない」と説明できる構造になります。
シナリオ 2:金融・医療系で Anthropic Claude のみ承認
セキュリティ要件で「使ってよい LLM は Anthropic Claude のみ」というクライアント。BYOK で Claude API キー を直接登録します。
{
"github.copilot.advanced.model.provider": "anthropic",
"github.copilot.advanced.model.name": "claude-sonnet-4-6"
}
Google × Anthropic 4 兆円投資の記事 で書いた通り、Anthropic はマルチクラウドで提供されるため、AWS Bedrock / Google Vertex AI でも同じモデルを呼べます。クライアントの調達条件に合わせて選択する形になります。
シナリオ 3:外注先の社内モデルを使いたい
受託会社側が社内で fine-tuning モデルを Bedrock にデプロイしている、というパターン。BYOK で社内モデルを Copilot から呼び出します。社内ナレッジでチューニングしたモデルが IDE 補完に使えるため、社内メンバーの効率が大きく上がります。
受託で組む LLM ガバナンス設計
BYOK が解禁されると、「誰がどのモデルを使ってよいか」 の管理責任が受託側に移ります。私たちが必ず設計に入れる 4 項目を共有します。
1. クライアント別のモデル切り替え
複数クライアントを並行して受託するとき、.vscode/settings.json を クライアント別ワークスペースで管理します。Git の core.sparseCheckout で誤って別クライアントの設定を取り込まないようにします。
2. API キーの保管と注入
API キーを settings.json に直書きするのは絶対禁止です。1Password CLI / AWS Secrets Manager / Azure Key Vault から起動時に注入する方式を取ります。
# 起動ラッパーの例
export AZURE_OPENAI_API_KEY=$(op read "op://corp/${CLIENT}/azure-openai")
code .
GitHub Copilot Individual プラン変更の記事 でも触れたように、API キーの個人運用と業務運用は厳密に分離します。
3. プロンプト・コードの送信ルール
クライアント環境では 「クライアントのコードが、別クライアントのモデルテナントに送られない」 ことを物理的に保証する必要があります。BYOK 設定とプロジェクトディレクトリを 1:1 対応させ、ワークスペース別に強制します。
4. 監査ログの引き渡し
クライアント契約のテナントを使う場合、監査ログはクライアント側に残ります。受託会社としても 「どのプロジェクトでどれだけトークンを使ったか」 をクライアントに引き渡せる体制を作っておきます。Azure OpenAI なら Diagnostic Setting を Log Analytics に流す、Bedrock なら CloudWatch に流す、というのが標準構成です。
落とし穴 ─ 受託で BYOK を導入したときに起きやすい問題
モデル名の不一致
VS Code 側で指定したモデル名と、実際に Azure / Bedrock にデプロイされている名前がズレていて、サイレント失敗するケースがあります。起動時にヘルスチェックを入れると初期トラブルが防げます。
レート制限の偏在
クライアント契約のレート制限(TPM / RPM)に当たりやすいです。GitHub ホスト時代と比べてチーム全体のスループットが落ちることもあるため、契約レート見直しを最初に提案します。
コスト責任の不明確化
「どこまでが受託会社負担で、どこからクライアント負担か」を最初に明文化しておかないと、トークンが想定以上に膨らんだ瞬間に揉めます。月額キャップを設定し、超過分の扱いを契約書に書きます。
コスト感
BYOK 自体は GitHub Copilot のライセンス料に追加課金はありません。コストは モデル側の従量課金 が主軸です。
| 項目 | 月間想定 | コスト目安 |
|---|---|---|
| GitHub Copilot Business | 1 シート | 約 4,000 円 |
| Azure OpenAI / Anthropic API(開発者 1 人) | 月 5,000 万トークン | 1.5〜4 万円 |
| 監査ログ保管(Log Analytics 等) | 月 50GB | 約 1.5 万円 |
1 人あたり月 7〜10 万円 で、エンタープライズ要件を満たした AI コーディング環境が組める計算です。
受託案件の型と単価
| 案件の型 | 期間 | 単価帯 |
|---|---|---|
| BYOK ガバナンス設計(モデル選定 + ポリシー策定) | 3〜4 週間 | 150〜400 万円 |
| クライアント別ワークスペース整備 | 2〜4 週間 | 100〜300 万円 |
| 監査ログ統合(Azure / Bedrock / GCP) | 4〜6 週間 | 250〜600 万円 |
| 既存案件への BYOK 移行支援 | 6〜10 週間 | 400〜900 万円 |
| 運用伴走 | 月額 | 30〜80 万円 |
まとめ ─ 「クライアントごとに最適なモデルを選ぶ」が当たり前になる
VS Code 1.117 の BYOK 解禁は、受託開発における「LLM の選択権」をクライアント側に取り戻す動きです。GitHub のホスト環境に閉じていた時代と比べ、エンタープライズ要件を満たしながら多様なモデルを使い分けられる柔軟性が手に入ります。
一方で「誰がどのモデルを使ってよいか」「データはどこに送られるか」の管理責任は受託会社にも分担されるようになりました。BYOK ガバナンス設計を最初に入れておくことが、これからの受託案件の標準になります。
弊社では、BYOK を活用したエンタープライズ向け LLM ガバナンス設計・クライアント別ワークスペース整備・監査ログ統合を受託で行っています。「クライアントごとにモデルを切り替えたい」「セキュリティ要件で BYOK が必須になった」というご相談は、お問い合わせフォーム からお気軽にどうぞ。