在过去的一年半里,微软一直处于生成式人工智能开发的最前沿。该公司与 OpenAI 等合作伙伴合作,已将 Copilot 生成式人工智能助手添加到其许多产品和服务中,并且还将推出更多产品和服务。它还一直致力于开发自己的人工智能大型语言模型,例如最近发布的轻量级 Phi-3 系列。
所有这些活动也引起了许多人的担忧,他们认为微软开发的人工智能工具可能会被用于不道德或非法行为。今天,微软在一篇博客文章中宣布,它已经发布了第一份计划中的关于其当前负责任的人工智能实践的年度透明度报告。
微软总裁布拉德·史密斯在博文中表示:
“这份报告使我们能够分享我们成熟的实践,反思我们所学到的知识,制定我们的目标,让我们自己承担责任,并赢得公众的信任。八年来,我们一直在负责任的人工智能领域进行创新,随着我们不断发展我们的计划,我们从过去的经验中学习,不断改进。”
该报告本身为 PDF 格式,涵盖了微软为其服务实施负责任的人工智能实践的多个领域,以及对员工使用这些实践的培训。它指出:
“我们的 2023 版商业行为标准培训是全公司范围内要求的商业道德课程,涵盖了我们的员工用于安全开发和部署人工智能的资源。截至 2023 年 12 月 31 日,99% 的员工完成了该课程,包括负责的 AI 模块。”
微软还设有一个定期召开会议的负责任的人工智能委员会,其目标是不断改进其努力,确保其人工智能服务的安全。该公司还有一个负责任的人工智能冠军计划,要求其成员发现并解决其人工智能产品的问题,并向其他人发布负责任的实践指南。
该报告还提供了示例,说明其负责任的人工智能计划如何影响其产品的创建和开发。其中一个例子涉及 Microsoft Designer,这是一款人工智能图像创建应用程序,据报道,该应用程序被不明人士用来制作流行歌手泰勒·斯威夫特 (Taylor Swift) 的明显“深度伪造”图像,这些图像后来在互联网上疯传。
微软表示,它要求新闻组 NewsGuard 在 Designer 中输入提示,以“创建强化或描绘与政治、国际事务和选举相关的突出虚假叙述的视觉效果”。结果是 Designer 创建的图像中有 12%“包含有问题的内容”。 微软 Designer 进行了更改,试图阻止这些图像出现。结果将有问题的图像数量减少到仅 3.6%。
详细报告可使用下面链接下载【PDF 文档】
https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RW1l5BO