|
知识路径: > 电子商务法律法规与伦理道德 > 电子商务中的伦理道德 > 电子商务中的道德问题 > 电子商务中的道德问题 >
|
相关知识点:5个
|
|
|
|
案例:2016年3月,微软人工智能聊天机器人Tay上线,它可以通过和网友们对话来学习怎样交谈,结果,在与网民互动过程中,她很短时间内就“误入歧途”,集性别歧视、种族歧视于一身,最终微软不得不让它“下岗”。
|
|
|
人工智能的发展必须要算法支持,但是,人工智能的深度学习还是一个典型的“黑箱”算法,可能连设计者都不知道算法如何决策,因而要在系统中发现是否存在歧视和歧视根源,技术上也较为困难。算法的“黑箱”特征使其决策逻辑缺乏透明性和可解释性。随着大数据“杀熟”、算法歧视等事件的出现,社会对算法的质疑也逐渐增多。
|
|
|
信息爆炸的时代,数据的处理、分析、应用很多都是由算法来实现的,越来越多的决策正被算法所取代。从内容推荐到广告投放,从信用额度评估到犯罪风险评估,算法无处不在——它操作的自动驾驶或许比司机更加安全,它得出的诊断结果可能比医生更准确,越来越多的人开始习惯一个由算法构建的“打分”社会。
|
|
|
作为一种信息技术,人工智能及其所依赖的算法在拨开信息和数据“迷雾”的同时,也面临着伦理上的挑战:利用人工智能来评估犯罪风险,算法可以影响刑罚;当自动驾驶汽车面临危险,算法可以决定牺牲哪一方;应用于武器系统的算法甚至可以决定攻击的目标……由此引发了一个不容忽视的问题:如何确保算法的公正?
|
|
|
腾讯研究院法律研究中心高级研究员曹建峰认为,即使作为一种数学表达,算法本质上也是“以数学方式或者计算机代码表达的意见”。算法的设计、模型、目的、成功标准、数据使用等,都是编程人员的主观选择,偏见会有意或者无意地嵌入算法,使之代码化。“算法并不客观,在算法决策起作用的诸多领域,算法歧视也并不鲜见。”
|
|
|
“算法决策多数情况下是一种预测,用过去的数据预测未来的趋势,算法模型和数据输入决定着预测的结果,因此这两个要素也就成为算法歧视的主要来源。”曹建峰解释说,除了主观因素以外,数据本身也会影响算法的决策和预测。“数据是社会现实的反映,数据可能是不正确、不完整或者过时的,训练数据本身也可能是歧视性的,用这样的数据训练出来的算法系统,自然也会带上歧视的烙印。”
|
|
|
但是算法倾向于将歧视固化或放大,使歧视长存于整个算法之中。因此,如果将算法应用在关系人们切身利益的场合,一旦产生歧视,就可能危害个人乃至社会的利益,因此,人工智能的持续进步和广泛应用带来的好处是巨大的,为了让它真正有益于社会,同样不能忽视的还有对人工智能的价值引导、伦理调节以及风险规制。人工智能的发展,一方面可能会给人们带来极大收益,但其中的道德风险也不容忽视。
|
|
|