很多人说,“为什么”的问题最好留给哲学家去解决,而科学家最擅长解决“如何”的问题。虽然这些研究领域差别很大,但它们在人工智能 (AI) 领域确实经常交叉,有时甚至发生碰撞。
当我们谈论人工智能时,“我不知道它为什么有效,但它有效”实际上不起作用。在讨论最近的家庭 DIY 项目时,它可能通过了审查,但当谈到从根本上影响您的业务轨迹(以及可能影响他人的生活)的技术时,您需要更好的解释。
正是这种期望催生了可
解释人工智能 (XAI)。通过在流程中内置透明度,您和最终用户都可以更好地了解结果。这使您能够回答以下难题:
- 为什么心脏外科部门使用的软件会在数百名心脏移植患者中选择罗西先生呢?
- 为什么自动驾驶仪会让车辆偏离道路,导致驾驶员受伤,但却避开了推着婴儿车正在过马路的母亲?
- 机场的监控系统为何选择搜查维尔迪先生而不是其他乘客?
显然,我们需要了解 AI 系统背后的逻辑,但我们仍需要更深入地了解 XAI 相对于未知事物的优势。
人工智能的困境
人工智能给我们带来了许多难题,而这些问题的答案既不直接也不明确。然而,我相信我们可以也应该解决每个案例背后的“如何”和“为什么”。毕竟,我们听到最多的评论之一是:“要信任人工智能,我必须更好地了解它的工作原理。”
毫无疑问,在主要 IT 参与者的市场 手机号码数据 投资的推动下,围绕人工智能的热潮已经趋于平稳。在经历了软件的彻底失败之后,人们对人工智能的实际用途和好处的期望又回到了现实中,这些软件曾承诺可以完美、自动(神奇地)学习,从而达到人类的推理水平。
如今,人工智能在很多情况下与传统软件并无太大区别。例如,计算机程序能够根据精确的预编码指令(即所谓的源代码)处理输入并返回输出。与 20 年前相比,区别在于计算能力更强(想想超级计算机)和输入数量更多(想想大数据)。
为什么可解释的人工智能很重要
要了解人工智能的工作原理,您需要了解软件 利用人工智能改善保险经济的三种具体方法 的工作原理。您需要知道它是否带有任何偏见或偏见。换句话说,输出是输入的结果还是预先确定的(无论输入如何)?
第一个方面可以通过XAI 系统(或可解释的 AI 系统)来解决。在这种实践中,软件推理并产生某些结果的机制和标准必须清晰明了。 有了这个,你就可以开始构建可解释知识的基础了。
完全依赖机器学习的模型往往缺乏 学生手机清单 适当的内部透明度。因此,人工智能社区将这些系统称为黑盒人工智能。这种方法完全违背了可解释和合乎道德的人工智能原则,也是许多偏见问题变得无法控制的原因。
可解释且合乎道德的人工智能的目标不仅是减轻偏见,而且要了解偏见的根源。偏见可能是由多种因素造成的,包括软件的编写者、用于训练算法的数据集,甚至是网络攻击。你越快找出问题所在,你就能越快开始优化模型并限制负面后果。
最后,“我不知道它为什么有效,但它有效”的方法并不是可持续的 AI 方法。因此,如果您要以正确的方式构建 AI,请从一开始就将可解释性放在首位。