适用于:✅Microsoft Fabric 中的 SQL 数据库
本文解答了有关 SQL 数据库中 Fabric 中的 Microsoft Copilot 的常见问题。
Copilot 现在与查询编辑器集成,增强了依赖于 SQL 的应用程序的管理和操作。 它通过提供自然语言到 SQL 转换和自助数据库管理,来提高工作效率。
在 Fabric 中的 SQL 数据库中,可在何处找到 Copilot?
在 SQL 查询编辑器中,可以在各种位置找到 Copilot:
- 聊天窗格:使用聊天窗格,通过自然语言向 Copilot 提问。 Copilot 会根据提出的问题,使用生成的 SQL 查询或自然语言做出回复。
- 代码补全:在 SQL 查询编辑器中开始编写 T-SQL,Copilot 会自动生成代码建议来帮助补全查询。
- 快速操作:在 SQL 查询编辑器的功能区中,“修复”和“说明”选项是快速操作。 突出显示所选的 SQL 查询,并选择其中一个快速操作按钮以对查询执行所选操作。
如何在 Fabric 中为 SQL 数据库启用 Copilot?
查看在 Fabric 中启用 Copilot 中的步骤。
Copilot 的结果是否可靠?
Copilot 设计为根据其能够访问的数据库上下文生成最佳响应。 但与任何 AI 系统一样,回答并不是完美的。 在对 Fabric SQL 数据库环境进行更改之前,应仔细测试、检查和审查 Copilot 的所有响应。
Copilot 是否可以编写完美或最佳查询?
Copilot 旨在根据可用数据提供准确且信息丰富的响应。 生成的答案是基于语言数据中的模式和概率,这意味着并不一定始终准确。 人类用户应仔细检查、测试和验证 Copilot 生成的所有内容。
Copilot 如何使用 Fabric SQL 数据库环境中的数据?
Copilot 可在 Fabric SQL 数据库环境中生成响应。 Copilot 仅会访问你有权访问的资源,并且只能执行你有权执行的分析和操作。 Copilot 遵循所有现有的访问管理和保护。
Copilot 收集哪些数据?
不会将用户提供的提示和 Copilot 的响应用来进一步训练、重新训练或改进生成响应的 Azure OpenAI 服务基础模型。 仅当用户明确同意在反馈中包括用户提供的提示和 Copilot 响应时,才会收集这些信息并将其用于改进 Microsoft 产品和服务。 我们收集用户参与数据,例如聊天会话次数和会话持续时间、特定会话中使用的技能、赞成次数、反对次数、反馈等等。这些信息将按照 Microsoft 隐私声明中所述的方式保留和使用。
如果看到意外内容或冒犯性内容,该怎么办?
SQL 数据库团队在 AI 原则和负责任的 AI 标准的指导下建立了 Copilot。 我们已将减少客户接触攻击性内容列为优先事项。 但你仍然可能会看到意外的结果。 我们不断努力改进技术,以防止出现有害内容。 有关详细信息,请参阅 Fabric 中 Copilot 的隐私、安全性和负责任的使用。
如果在系统中遇到有害或不适当的内容,可以通过选择回答中的反对票按钮来提供反馈或报告问题。 我们将不断努力改进技术,以根据负责任 AI 原则主动解决问题。
Copilot 的费用如何?
若要详细了解如何对 Fabric Copilot 使用情况进行计费和报告,请参阅 Fabric 中 Copilot 的消耗。
如何保护传输的提示和查询数据?
Copilot 采取多项措施来保护数据,包括:
传输的数据在传输中和静态时都会加密;与 Copilot 相关的数据在传输过程中使用 TLS 进行加密,在静态时使用 Microsoft Azure 的数据加密(FIPS Publication 140-2 标准)。
严格控制对日志和反馈数据的访问。 数据存储在单独的订阅中。 数据只能通过 1) Azure 运营人员使用安全管理员工作站给予即时 JIT 批准才能访问。
在哪里可以详细了解隐私和数据保护?
有关 Copilot 如何处理和使用个人数据的详细信息,请参阅 Fabric 中 Copilot 的隐私、安全性和负责任的使用。