摘要:
随着研究人员和从业者寻求为其算法提供更多透明度,可解释人工智能(Explainable Artificial Intelligence)有一场新近的复苏。这项研究的大部分聚焦于向人类观察者明确地解释决策或行动。观察人类如何相互解释可以作为人工智能解释的一个有用起点,这应该没有争议。诚然,公正地说,大多数关于可解释人工智能的工作仅利用研究人员对什么构成“好”解释的直觉。哲学、心理学和认知科学领域存在大量关于人们如何定义、生成、选择、评估和呈现解释的有价值的研究,这些研究认为人们在解释过程中运用了某些认知偏见和社会期望。文章认为,可解释人工智能领域可以建立在这些现有研究的基础上,并回顾了研究这些主题的哲学、认知心理学/科学和社会心理学的相关论文,由此获取了一些重要的发现,并讨论了如何将这些发现融入可解释人工智能的相关工作中。
中图分类号:
蒂姆·米勒, 张菁. 人工智能中的“解释”:来自社会科学的洞见(上)[J]. 数字人文研究, 2024, 4(1): 18-41.
Tim Miller, Zhang Jing. Explanation in Artificial Intelligence: Insights from the Social Sciences[J]. Digital Humanities Research, 2024, 4(1): 18-41.