公务员期刊网 论文中心 正文

人工智能商业环境下的消费者信任

前言:想要写出一篇引人入胜的文章?我们特意为您整理了人工智能商业环境下的消费者信任范文,希望能给你带来灵感和参考,敬请阅读。

人工智能商业环境下的消费者信任

[摘要]伴随着人工智能的快速发展,消费者信任成为人工智能商业应用的主要障碍。文章在对国内外关于人工智能消费者信任相关研究文献梳理的基础上,分别从消费者信任与人工智能商业应用的关系研究、消费者信任与人工智能风险因素研究、消费者信任与透明化人工智能发展研究三个方面进行了综述,并对我国人工智能环境消费者信任研究提出建议。

[关键词]人工智能;消费者信任;风险;透明化

2019年10月23日英国《自然》杂志刊登了谷歌关于实现“量子霸权”的论文,文中说谷歌公司量子计算机200秒的计算量,当前最先进的传统超级计算机需要花费1万年时间[1]。与此同时,一批来自谷歌及加拿大高校、研究所的专家正在通过图神经网络来“训练”人工智能的嗅觉,同时研究人员还尝试让机械臂获得触觉。人工智能的各个方面都在飞速发展,而人工智能基于算法的自主决策系统早已被广泛应用于数据挖掘、搜索引擎、自然语言处理、生物特征识别、医学诊断、新闻、教育、就业、保险、投资、广告、治安和机器人等领域[2]。据2016年美国自由职业者网站TimeETC研究显示,尽管人工智能为人类生活带来很多便利,人们与人工智能的互动也变得越来越频繁,但许多美国人并不信任它们,54%的美国人甚至称从未与人工智能接触过[3]。虽然我国“互联网+”、数字经济已经处于世界领先地位,但人们对“贴心”推送广告的担忧,以及人工智能可能的风险甚至对超人工智能“奇点”来临的恐惧[4],使得许多消费者不信任人工智能或者对人工智能保持警惕。因此,如何让消费者信任人工智能已经成为人工智能商业应用的关键核心问题。

1消费者信任及其与人工智能商业应用的关系研究

如果将消费实践简化为消费者与商家之间的交换行为,那么消费者信任是交易行为得以成功的前提[5],只有有了信任人们才可能去实施某一行为[6]。经济学家认为消费者信任是经济交换的润滑剂。传统现实消费中,消费者信任会通过感官系统等方式对交易双方真实信息不断地掌握、验证、巩固,但人工智能环境下,原有的消费者信任模式被打破,消费者信任不仅变为基于符号和信息的判断性交往,更加复杂的是交往对象也由传统消费单一的交易主客体关系演进为既包含传统主客体关系又包含消费者与人工智能环境关系的两种关系,且在消费者信任建立过程中这两种关系不是独立的,而是相互关联影响的。消费实践中产生的不确定性和风险是消费者信任产生的根本原因,在完善的契约关系中消费者信任是没有必要存在的,消费者信任可以降低交易过程中的不确定性和风险。在人工智能商业环境下,存在着较高的不确定性和风险,许多的研究发现消费者信任是消费者智能网购意愿的决定因素[7]。由此可知,人工智能商业应用的核心是消费者信任建设,消费者信任是人工智能商业应用发展的当务之急。

2消费者信任与人工智能风险因素研究

2.1消费者感知风险

感知风险概念是由哈佛大学的鲍尔从心理学引入营销学的,他将感知风险定义为:由消费者的行为产生的、而他自己不能明确预期的后果[8]。感知风险的后果有两种类型:一种是产品本身性能属性的不确定性;另一种是购买产品后带来的时间、货币、心理等损失的不利后果。人工智能既是产品又是环境的双重属性,使消费者能够同时感知到两者。随着人工智能由弱人工智能走向强人工智能直到超人工智能,以及人工智能不透明的“思考决策”过程,消费者首先感知到人工智能环境可能带来“被控制”的不利后果;同时人工智能产品可能产生的隐私侵权甚至人身伤害权责混乱风险,也使得消费者同时感知到人工智能产品“不安全”的不确定性。基于感知风险对消费者信任有负向影响作用,[9]因此,消费者会因为人工智能感知风险大而降低对人工智能的信任度。

2.2消费者被控制风险

现代人已经生活在人工智能算法时代,随着人工智能算法的不断演进,算法代替人类做决策越来越多,全球经济政治的运行模式正在发生改变。人工智能算法不仅是一项新技术,它已经是新的生产要素,更可能是新的权力形态,财富和权力可能会逐步集中在“数字精英”手中。Google(谷歌)、Facebook(脸书)、阿里巴巴、百度等科技企业都是短时间积累了千亿、万亿资产的科技型企业,它们无一例外的在人工智能领域投入巨额资金并已经拥有了较大的技术领先优势。目前,消费者被人工智能算法控制的主要体现是隐私被记录、意识被诱导,即所谓的“懂你的人伤你最深”[10]。如果未来人工智能算法不透明问题没有完全解决,消费者被控制风险有可能上升到消费者阶级被控制,造成前所未有的社会及政治不平等[11]。再往后甚至有可能演变为消费者种群被控制。因此,消费者普遍对被控制风险表现出担忧甚至恐惧[3],所以现阶段消费者对人工智能的信任度较低。

2.3消费者责任风险

人工智能的快速发展,在商业应用中必然会逐步替代人类劳动。目前,人工智能自动驾驶交通事故、无人机错判误杀平民等现象就遇到了权责混乱、无法追究的问题,人工智能“给我们带来无尽欣喜与期望的同时,也逐渐挑战着们既有的法律、伦理与秩序”[12]。即使将人工智能的错误或不当行为都归咎到设计师、程序员,然而“程序有可能是由众多的人共同开发的,程序的产生可能无法追踪到某个具体的个人或组织”[13]。因此,消费者使用人工智能产品的责任风险较大,使得消费者对人工智能产品的信任度偏低。科研人员发现,人们对人工智能的错误很“敏感”[14],人们会带着各种“偏见”放大人工智能的风险因素。在消费者的意识里人工智能的各种风险会成倍增长,这种状态困扰着消费者并始终挥之不去,其结果是许多消费者选择不信任人工智能或者对人工智能保持警惕。

3消费者信任与透明化人工智能发展研究

人工智能崛起,要么是人类历史上最好的事,要么是最糟糕的[15]。人类如何“引导”人工智能决定了其未来的发展方向,现有人工智能风险并非它的天然属性,而是技术发展不确定性因素导致负面效应的体现[16]。理论上来讲人工智能的问题都可以通过新的技术发展得到解决,难点在于如何影响技术向某个方向发展。透明化人工智能就是在人工智能消费者不信任的背景驱动下,通过新技术发展让人工智能全部的“思考、判断”过程都能被消费者看到、听到、感觉到,让消费者对人工智能“知人知面又知心”。

3.1人工智能软件透明化

人工智能环境以及智能产品都由智能软件实际管理运作着。人工智能软件又被称为“算法黑箱”,这是因为消费者既看不到它的思考逻辑,也看不出它什么时候思考、思考什么内容,只有完全打开“算法黑箱”才能实现人工智能软件透明。加利福尼亚大学伯克利分校和马克斯普朗克信息学研究所的研究提出了一种能够自我解释的算法,有助于人类理解人工智能的决策过程。人工智能软件技术发展不仅要能实现100%透明运行,还要能让消费者自由的参与,比如允许消费者对软件算法进行适当的修改。

3.2人工智能硬件透明化

人工智能产品硬件透明化更多的是为了配合软件透明技术进行的硬件选材。比如智能产品硬件可以采用全透明材料制作,内部选装光、声、温度、烟等感应设备,这样既可以将软件反馈信息的字符直接显示在透明机体上,又可以将软件运算状态、反馈信息通过光、温度、声音等方法直接、准确地“表达”出来。同时,透明的智能产品材质可以使消费者直观的看到系统“思考区域”,有效地避免了人工智能产品去中心化衍生的责任安全问题。百度创始人李彦宏说,“‘闷头憋软件’的移动互联网时代已经结束,软硬件结合的人工智能时代已经来临”[17]。透明化人工智能通过强大开放的软件和先进透亮的硬件的结合,真正实现了人工智能既拥有超强能力又获得消费者信任的设计目标。

4总结

目前国内外对人工智能的研究主要集中在技术研究、伦理建设等角度,从消费者视角探析人工智能商业应用中消费者信任问题的研究比较少。本文从消费者信任与人工智能商业应用的关系入手,重点分析了消费者视角下人工智能的风险因素以及透明化人工智能发展的必要性。虽然影响人工智能发展方向的因素有很多,但是上述研究论述无疑证明了透明化人工智能发展对消费者信任以及对人工智能商业应用的重大意义。我国人工智能的研究几乎与世界同步,但人工智能商业应用却走在了世界的前列,在智能支付、智能共享等经济领域,科技创新结合巨量市场已经打造出了世界第一的人工智能市场经济。笔者在国内外已有研究基础上,结合我国人工智能发展现状来研究人工智能环境下消费者信任情况,构建中国基于消费者信任的人工智能发展理论,这对正确引导我国国民和企业制订科学合理的发展计划具有重要的理论意义和现实意义。

作者:李丹丹 单位:桂林理工大学