1 / 13
Anthropic on Azure

Claude Models on Azure

Platform
Azure AI Foundry

Azure AI Foundry

官方模型目录与 Serverless API 入口,承接企业级平台集成。

Data
Azure Databricks

Azure Databricks

在数据平台内原生调用 Claude,连接 Notebook、SQL 与治理体系。

Developer
GitHub Copilot

GitHub Copilot

把 Claude 带入 IDE、CLI 与开发者工作流,成为最直接的使用入口。

Platform · Data · Developer

Claude in Azure AI Foundry

核心不是“技术上能不能调 API”,而是 Claude 能否在 Azure 体系内满足可售、可开通、可交付。

1900+
平台事实
1,900+
目录中的模型数量

Azure AI Foundry 把模型的发现、评估和部署集中在一个统一目录里。Claude 在这里属于 合作方模型,关键前提是商业可售范围、项目区域与订阅类型同时匹配。

平台角色
发现 · 评估 · 部署
统一模型目录,不是单一模型入口
模型规模
1,900+
覆盖基础模型、多模态、行业模型等多种类型
来源结构
Azure Direct + 合作方模型
Microsoft / OpenAI / Anthropic / Meta / DeepSeek / Hugging Face 等
商业准入
先看可售范围
能否开通先看 Billing Country/Region 与订阅类别是否达标
模型类型
推理模型多模态向量 / Embedding代码模型领域模型行业模型
Foundry 当前可见的 Claude 家族
Opus 4.6 / 4.5 / 4.1Sonnet 4.6 / 4.5Haiku 4.5
区域 & 全局路由
  • Foundry 项目须建在 East US 2 / West Central US / Sweden Central
  • 部署类型为 Global Standard — 28 个 Azure Region 可通过全局路由访问
  • 实际推理由 Anthropic 全球基础设施提供,不限于项目所在区域
容量 / 交付
  • Global Standard 部署 — Serverless 按量付费,自动扩缩容
  • Microsoft 管理 API 入口与计费,Anthropic 托管模型推理
  • 账单并入 Azure Marketplace,可计入 MACC
商业准入
  • 需 EA 或 MCA-E 订阅,账单国家须在 Anthropic 可售范围
  • 订阅级配额 — EA 默认 RPM 30 / TPM 60K;MCA-E 默认 RPM 6 / TPM 12K
  • 不支持:CSP / 学生 / 免费试用 / Startup Credits / 韩国 EA
接入方式
  • 原生 Anthropic Messages API(/anthropic/v1/messages)
  • 认证:Microsoft Entra ID 或 API Key
  • SDK:Python / TypeScript / C# / Java / REST
Foundry 平台能力
  • Content Safety / Guardrails — 内容安全过滤与审计
  • Batch API — 大批量离线推理
  • RBAC / Entra ID / VNet / Private Endpoint
  • Azure Monitor — 统一观测与日志
合规边界
  • Claude 属合作方模型,非 Azure Direct model
  • Anthropic 处理 prompts / outputs;Microsoft 管理 API 与账单
  • prompts / outputs 可能在区域外处理(性能与容量管理)

Claude on Azure Databricks

Databricks 把 Claude 做成 Lakehouse 内的托管接入层:预置 endpoint、统一治理、统一计费。

ZDR
平台事实
Foundation
Model APIs
Lakehouse-native Claude access

更适合 Lakehouse / ML workflow:在同一平台里完成模型调用、权限治理、SQL/Notebook 集成和账单归集。

平台角色
Lakehouse-native access
Databricks 内的托管接入层,不是独立 Anthropic control plane
Endpoint 形态
Preconfigured endpoint
workspace 内预置 pay-per-token endpoint,不同于常规自建 endpoint
数据保留
Zero Data Retention
Anthropic 不保留 prompts / outputs,不用于训练
与 Foundry
配额 / 价格口径不同
Foundry 更原生;Databricks 更像 Lakehouse 内的治理层
Databricks 当前可用的 Claude 家族
Opus 4.xSonnet 4.xHaiku 4.5
区域
  • 原生:US / EU 多个 Claude 支持区
  • 扩展:其他区域依赖 cross-geo(⥂)
  • 需 Premium(Enterprise)tier workspace
合同 / 账单
  • Azure 一方服务,统一 Azure 账单
  • 按 DBU 计费,无需单独 Anthropic 合同
  • Databricks 消费可计 MACC
接入方式
  • 默认 OpenAI-compatible REST API
  • 可选 Provider Native APIs -> Anthropic Messages API
  • PAT / OAuth;Notebook / REST / Playground
Databricks 平台能力
  • Unity Catalog:权限、血缘、函数
  • AI Gateway:路由、限流、guardrails
  • AI Functions(ai_query):批量推理
合规边界
  • Databricks-managed access,不是直连 Anthropic control plane
  • ADB 上的 Claude 审查合规性要求更高
  • 可提供 Zero Data Retention(ZDR)
与 Foundry
  • 版本:Databricks 多 Sonnet 4 / 3.7;Foundry 多 Mythos
  • 价格:long context 时,Databricks 计费通常会比原厂更贵一些
  • 配额:Foundry 看 subscription RPM/TPM;Databricks 看 endpoint ITPM/OTPM/QPH

Copilot Native Models

GitHub Copilot 原生支持的主流模型

覆盖旗舰推理、主力编码与高频轻量场景;不同模型可按任务选择,同时对应不同的 premium request multiplier。

AutoCopilot 可根据任务自动选择模型,并有 10% discount
Model Group

旗舰推理

复杂问题、架构分析、深度调试

Claude Opus 4.6 (fast mode)
Reasoning10x
Claude Opus 4.6
Reasoning3x
GPT-5.4
Reasoning1x
Model Group

主力编码

日常开发、Agent、复杂实现

Claude Sonnet 4.6
Reasoning1x
GPT-5.3-Codex
Reasoning1x
GPT-5.2-Codex
Reasoning1x
GPT-5.2
Reasoning1x
GPT-5.1-Codex
Reasoning1x
Gemini 2.5 Pro
1x
Model Group

快速轻量

高频问答、轻任务、快速反馈

GPT-4.1
0x
GPT-5 mini
Reasoning0x
Claude Haiku 4.5
0.33x
Gemini 3 Flash
Preview0.33x
Grok Code Fast 1
0.25x
PRU Billing Logic
1 次用户向 Copilot Agent 发起 request × 模型 multiplier = Premium Request billing
例如:Claude Opus 4.6 3x,所以 1 次 request 固定计费 3 PRU;无论 Agent 执行多久、消耗多少 token,价格都一样。
Pricing
Business $19/月,含 300 Premium Requests
Enterprise $39/月,含 1000 Premium Requests
超出部分均按 $0.04/PR
如需扩展 Meta / Mistral / DeepSeek 等第三方模型,可通过 Azure AI Foundry 接入。

Coverage Map

GitHub Copilot 的全场景覆盖

既能个人提效,也能进入平台与业务系统

Scenario

个人开发

开发者的第一入口

全 IDE 支持CLI多模型供应商
从代码补全到 Vibe Coding
Scenario

平台场景

进入 GitHub Cloud Agent

CollaborationCode ReviewSecurity Auto FixSpark
让个人提效进入团队协作与工程流程
AI Scenario Hub

GitHub Copilot

统一的 AI 入口,连接开发者工作台、平台流程与业务系统。

IDECLIGitHubSDK
统一承接多类 AI 场景
开发协作
本地终端
平台自动化
业务嵌入
Scenario

业务集成

把 Copilot 接入业务系统

Copilot CLI SDKAI App 嵌入内部门户 / 工具链
既能个人提效,也能进入平台与业务系统
Scenario

生态扩展

与外部 agent 协同工作

Claude Code agentCodex agent外部 agent 协同
不是封闭工具,而是协同入口
GitHub Copilot 不只是 IDE 插件,而是覆盖开发、平台、集成与生态协同的统一 AI 中枢

Enterprise Governance

GitHub Copilot 企业级管理能力

身份、执行治理、计费与分析都能统一管理,但企业最关键的,是多模型能力仍处于单一合同与责任边界之内。

Identity

身份与接入

SSO、SCIM、EMU 与 seat 开通/回收统一进入 Copilot 治理域。

把身份与使用权限都纳入企业现有管理体系。
Governance

Hooks 与执行治理

Hooks 把治理从“谁能用”延伸到“执行时能做什么”,可用于护栏、埋点、统计与行为校正。

让 Agent 能力进入可观测、可干预、可持续优化的企业治理闭环。
FinOps

账单、预算与 Cost Center

seat、premium requests 与预算可归集到 cost center 做分摊。

支持按部门 / 项目 / cost center 分摊 AI 成本。
Analytics

使用统计与采用分析

dashboard、API 与导出能力覆盖 adoption、activity 与使用趋势。

让管理层看到真实采用效果。
Primary Governance Boundary

统一合同与责任边界

企业启用 Claude、Gemini 等第三方模型时,治理关系仍由 GitHub 统一承接,而不是把供应商管理拆散给客户。

Boundary 01
现有合同继续适用

继续沿用 GitHub / Microsoft 的采购、合同与数据保护框架。

Boundary 02
模型供应商以 subprocessors 参与

Claude、Gemini 等能力被纳入 GitHub 统一治理与责任链条。

Boundary 03
供应商条款不直接下传给客户

客户无需分别接受模型厂商条款或逐家建立管理关系。

企业获得的是统一治理边界,而不是分别和每家模型厂商建立管理关系。

Executive Summary

GitHub Copilot 优势总览

从开发者入口,到团队流程、治理边界与成本模型,GitHub Copilot 更完整地回答了企业落地 AI Coding 的核心问题。

Adoption

兼容现有开发环境

不需要推动团队整体迁移 IDE,更像在现有开发环境上升级。

更像增量升级,而不是开发环境替换。
Workflow

个人提效可进入团队协作

从编码到 PR、Review、Security、Agent、CI/CD 等全 DevSecOps 流程覆盖。

不只停留在个人提效,而是能进入组织协作与交付体系。
Choice

多模型与供应商选择权

根据业务需求选择最合适的模型。

更容易在效果、成本与治理之间做平衡。
Governance

企业级治理能力

统一身份管理、预算控制、用户使用分析等企业级能力更完善。

更适合进入标准化开通、管理与预算流程。
Trust

安全合规与治理

业界领先的安全合规能力,企业更放心在核心业务中使用。

治理边界越清晰,企业越敢把 AI Coding 放进核心业务。
copilot.github.trust.page
Economics

成本优势

PRU 逻辑对 coding workload 更友好。

越是高频 coding 场景,成本模型越重要。
对企业来说,关键不只是单点体验,而是谁更容易被标准化采购、规模化落地并持续放大价值。

Real-world Case

GitHub Copilot 实战案例分享

真正能进入企业研发体系的,不是单个 agent 的局部能力,而是多 agent 编排、handoff、 hooks、阶段性文件与模型路由共同构成的可治理交付体系。

System Design

系统实现

不是单 agent 放飞,而是把不同软件生命周期流程拆给不同 agent,通过 handoff 自动向前推进。

多 agent 编排,覆盖不同软件生命周期流程
通过 handoff 机制,让 AI 自动向前推进
用 hook enrich Copilot 处理过程,补齐监控与场景增强
Adoption Signal

采用指标

这不是 demo,而是已经进入真实研发工作流的 AI Coding system。

1100+
用户体量
>80%
总体 agent 行为接受率
>40%
代码补全接受率
>90%
AI Coding 核心场景中的 agent 行为接受率
Playbook

使用方法

真正把 AI Coding 用好,不只是换模型,而是把 prompt、skills、项目特性文件和模型路由一起配齐。

Prompt Engineering 指导
Skills / 知识库对接
让 AI 阶段性生成项目特性文件、任务追踪列表
按任务类型选择不同 AI model
Copilot 的价值不只是单次生成,而是把 AI Coding 变成可治理、可接力、可放量的交付系统。

定价参考

模型 API · 官方列表价格

单位:USD / 百万 Token(MTok) · Cache Write = 缓存写入 · Cache Read = 缓存命中 · Copilot 倍率 = 每次请求消耗的 Premium Request 数量

模型厂商InputCache WriteCache ReadOutputCopilot 倍率
GPT-5.4OpenAI$2.50$1.25$15.00
GPT-5.4 ProOpenAI$30.00$15.00$180.00
GPT-5.4 miniOpenAI$0.75$0.375$4.500.33×
GPT-5.4 nanoOpenAI$0.20$0.10$1.25
GPT-5.3-CodexOpenAI$1.75$0.875$14.00
Claude Opus 4.6Anthropic$5.00$6.25$0.50$25.00
Claude Sonnet 4.6Anthropic$3.00$3.75$0.30$15.00
Claude Haiku 4.5Anthropic$1.00$1.25$0.10$5.000.33×
Grok-4.20 ⚠️xAI$2.00$0.20$6.00
Gemini 3.1 ProGoogle$2.00$0.20$12.00
Gemini 3 FlashGoogle$0.50$0.05$3.000.33×
OpenAI Cache:自动缓存 · 无写入费 · 读取 50% input · Anthropic Cache:写入 1.25× input · 读取 0.1× input · Google/xAI:无写入费 · 读取 ~10-25% input · 2026-03

成本分析

计费模式验证 · Agent 链路只算 1 次 Request

测试模型:Claude Sonnet 4.6
测试环境:OpenClaw Agent (Ubuntu) + GitHub Copilot Business
核心发现:Agent 工具调用链不计入 Premium Request
一个用户任务触发 1 次用户请求 + N 次后续工具调用 → GitHub Copilot 只算 1 次 Premium Request
计费验证实测
通过 Copilot quota API 精确计算 premium_interactions.remaining
Step 1 — 基线确认
测试操作Premium结论
基线1 次标准 API 调用(无工具)1✅ 计费系统正常
Step 2 — Agent 模式验证
测试操作LLM 调用Premium结论
测试 A1 次用户请求 → 触发 9 次工具调用101只算首次请求
测试 B1 次用户请求 → 触发 19 次工具调用201工具链再长也只算 1 次
Step 3 — 成本对比(以 37 万 token 任务为例)
计费方式费用倍数差
Anthropic Claude Sonnet API 直调~$3.00+
OpenAI GPT-4o API 直调~$2.00+
GitHub Copilot(走 Agent 链路)~$0.04节省 50-75x
确认计费正常 → 验证 Agent 不额外扣费 → 算出省多少
GitHub Copilot 套餐
Business
$19/月 · 含 300 Premium Requests
Enterprise
$39/月 · 含 1000 Premium Requests
超出部分$0.04 /request (Sonnet级)
模型 Request Multiplier
Claude Sonnet 4.6
1x$0.04
Claude Opus 4.6
3x$0.12
Claude Haiku 4.5
0.33x$0.013
GPT-4.1 / GPT-4o
0x免费
验证方法:每组测试前后通过 Copilot 官方 quota API 查询 premium_interactions.remaining,精确计算消耗
关键意义:对 OpenClaw Agent 平台,Request 计费模式不看 Token 数量,只看请求次数,37 万 token 的任务 = $0.04

成本分析

实测数据 · 10 轮代码审查 Token 明细

Claude Sonnet 4.6
10 个 Python 模块完整代码审查 · auth / database / routing / caching / logging 等
Token 总消耗
374,523 约 37 万
Input
302,923
Output
71,600
Cache Read
232,575
轮次任务InputOutputCache Read
1代码审查 (10 模块)2.8k1.1k
2安全修复 (auth + db)3.9k2.6k2.8k
3重构 (routing + caching)6.5k5.2k3.9k
4编写测试用例11.7k10.1k6.5k
5修复 (middleware + validation)21.8k8.4k11.7k
6编写集成测试30.3k12.8k21.8k
7FastAPI 应用集成43.1k9.9k30.3k
8Dockerfile + docker-compose53.0k6.5k43.1k
9CI/CD 流水线59.5k10.6k53.0k
10总结与迁移指南70.2k4.4k59.5k
合计302.9k71.6k232.6k
Context 累积效应:第 1 轮 Input 2,812 → 第 10 轮 70,174(25 倍增长),每轮新增上一轮 output + 新指令
Output 自然波动:从 1,065(简短审查意见)到 12,760(完整集成测试代码),反映真实使用场景
Cache 命中率:第 4 轮起 Cache Read 占 Input 比例稳定在 55-85%,有效降低重复 context 成本

成本分析

成本对比 · Token 计费 vs Request 计费

同一任务:10 轮代码审查 · Claude Sonnet 4.6
Token 计费是 Request 计费的 33.9 倍
$1.3548 vs $0.04 — 同样的任务,同样的模型
Anthropic Token 计费
按 Token 数量计费 · Sonnet 4.6 定价
成本明细
Non-cached Input70,348 tokens × $3.00/MTok
$0.2110
Cache Read232,575 tokens × $0.30/MTok
$0.0698
Output71,600 tokens × $15.00/MTok
$1.0740
Output 占总成本的 79%— Output 单价是 Input 的 5 倍
Token 计费总计$1.3548
GitHub Copilot Request 计费
按 Premium Request 次数计费
计费明细
Premium Requests 消耗1 次
Sonnet 4.6 Multiplier1x
单价$0.04 / request
37 万 token 的复杂任务100 token 的简单问答
计费完全一样:$0.04
Request 计费总计$0.04
Context 累积效应
第 1 轮 2.8K → 第 10 轮 70K,对话越长 Input 越贵。Request 计费始终 $0.04
Output 成本无法缓存
即使 Cache 大幅降低 Input 成本,Output ($15/MTok) 占 79% 且无法优化
Agent 场景天然适配
Agent 生成代码、配置等长文本,Output token 大。Request 计费不受影响

感谢大家

Thank You & Q&A

💬 Q&A 时间