较近的一项调查显示,虽然近十分之九的企业-都认为制定有关人工智能(AI) 道德和企业责任的明确引导方针非常重要,但几乎没有人承认他们有这样的引导方针。
这些发现表明,人们对需要采取哪些方法来管理人工智能的采用感到困惑,技术专业人员需要挺身而出,其以数据为主导的计划的 安全和道德发展。
该结果来自科技企业 Conversica 发布的一项基于 500 名商界观点的调查,调查显示:“调查中得出了一个响亮的信息:大多数受访者认识到,制定明确的指南对于负责任地使用信息技术至关重要。企业内部的人工智能,尤其是那些已经采用该技术的企业。”
近四分之三 (73%) 的受访者表示人工智能指南不可或缺。然而,只有 6% 的人制定了明确的人工智能使用道德准则,36% 的人表示他们可能会在未来 12 个月内制定准则。
即使在生产中使用人工智能的企业中,目前使用人工智能的企业中,五分的者也承认对其组织的人工智能相关政策了解有限或一无所知。超过三分(36%)的人声称仅“稍微熟悉”与政策相关的问题。
报告编辑指出,解决负责任人工智能问题的引导方针和政策应纳入治理、公正的训练数据、偏见检测、偏见缓解、透明度、准确性以及人类监督。
约三分之二 (65%) 的受访高管表示,他们已经或计划在未来 12 个月内推出人工智能服务。人工智能的主要用例包括支撑互动功能,例如客户服务和营销(39%),以及产生分析见解(35%)。
调查发现,人们对人工智能输出较关心的问题是当前数据模型的准确性、虚假信息和缺乏透明度。超过四分之三(77%)的高管对人工智能产生虚假信息表示担忧。
商界表示,人工智能提供商没有提供足够的信息来帮助制定引导方针,尤其是在数据安全和透明度以及制定强有力的道德政策方面。
大约三分之二 (36%) 的受访者表示,他们的企业对使用生成式 AI 工具(例如Chat GPT)有规则。但 20% 的受访者表示,在可预见的未来,他们的企业将给予员工个人使用人工智能工具的自由。
Conversica 的调查显示,在实现负责任的人工智能方面存在差距。那么,技术者和业务线专业人员如何挺身而出,确保负责任的人工智能实践到位?以下是谷歌 人工智能团队分享的一些关键指南 :
企业可能希翼快速实施人工智能,但必须谨慎确保工具及其模型的准确和公平。虽然企业正在寻求人工智能的进步,但该技术每次都必须提供负责任的结果。
咨询机构