首页 > 知识点讲解
       人工智能引发的道德问题
知识路径: > 电子商务法律法规与伦理道德 > 电子商务中的伦理道德 > 电子商务中的道德问题 > 电子商务中的道德问题 > 
相关知识点:5个      
        案例:2016年3月,微软人工智能聊天机器人Tay上线,它可以通过和网友们对话来学习怎样交谈,结果,在与网民互动过程中,她很短时间内就“误入歧途”,集性别歧视、种族歧视于一身,最终微软不得不让它“下岗”。
        人工智能的发展必须要算法支持,但是,人工智能的深度学习还是一个典型的“黑箱”算法,可能连设计者都不知道算法如何决策,因而要在系统中发现是否存在歧视和歧视根源,技术上也较为困难。算法的“黑箱”特征使其决策逻辑缺乏透明性和可解释性。随着大数据“杀熟”、算法歧视等事件的出现,社会对算法的质疑也逐渐增多。
        信息爆炸的时代,数据的处理、分析、应用很多都是由算法来实现的,越来越多的决策正被算法所取代。从内容推荐到广告投放,从信用额度评估到犯罪风险评估,算法无处不在——它操作的自动驾驶或许比司机更加安全,它得出的诊断结果可能比医生更准确,越来越多的人开始习惯一个由算法构建的“打分”社会。
        作为一种信息技术,人工智能及其所依赖的算法在拨开信息和数据“迷雾”的同时,也面临着伦理上的挑战:利用人工智能来评估犯罪风险,算法可以影响刑罚;当自动驾驶汽车面临危险,算法可以决定牺牲哪一方;应用于武器系统的算法甚至可以决定攻击的目标……由此引发了一个不容忽视的问题:如何确保算法的公正?
        腾讯研究院法律研究中心高级研究员曹建峰认为,即使作为一种数学表达,算法本质上也是“以数学方式或者计算机代码表达的意见”。算法的设计、模型、目的、成功标准、数据使用等,都是编程人员的主观选择,偏见会有意或者无意地嵌入算法,使之代码化。“算法并不客观,在算法决策起作用的诸多领域,算法歧视也并不鲜见。”
        “算法决策多数情况下是一种预测,用过去的数据预测未来的趋势,算法模型和数据输入决定着预测的结果,因此这两个要素也就成为算法歧视的主要来源。”曹建峰解释说,除了主观因素以外,数据本身也会影响算法的决策和预测。“数据是社会现实的反映,数据可能是不正确、不完整或者过时的,训练数据本身也可能是歧视性的,用这样的数据训练出来的算法系统,自然也会带上歧视的烙印。”
        但是算法倾向于将歧视固化或放大,使歧视长存于整个算法之中。因此,如果将算法应用在关系人们切身利益的场合,一旦产生歧视,就可能危害个人乃至社会的利益,因此,人工智能的持续进步和广泛应用带来的好处是巨大的,为了让它真正有益于社会,同样不能忽视的还有对人工智能的价值引导、伦理调节以及风险规制。人工智能的发展,一方面可能会给人们带来极大收益,但其中的道德风险也不容忽视。
 
 相关知识点:
 
软考在线指南
优惠劵及余额
在线支付
修改密码
下载及使用
购买流程
取消订单
联系我们
关于我们
联系我们
商务合作
旗下网站群
高级资格科目
信息系统项目管理师 系统分析师
系统架构设计师 网络规划设计师
系统规划与管理师
初级资格科目
程序员 网络管理员
信息处理技术员 信息系统运行管理员
中级资格科目
系统集成项目管理工程师 网络工程师
软件设计师 信息系统监理师
信息系统管理工程师 数据库系统工程师
多媒体应用设计师 软件评测师
嵌入式系统设计师 电子商务设计师
信息安全工程师
 

本网站所有产品设计(包括造型,颜色,图案,观感,文字,产品,内容),功能及其展示形式,均已受版权或产权保护。
任何公司及个人不得以任何方式复制部分或全部,违者将依法追究责任,特此声明。
本站部分内容来自互联网或由会员上传,版权归原作者所有。如有问题,请及时联系我们。


工作时间:9:00-20:00

客服

点击这里给我发消息 点击这里给我发消息 点击这里给我发消息

商务合作

点击这里给我发消息

客服邮箱service@rkpass.cn


京B2-20210865 | 京ICP备2020040059号-5 |京公网安备 11010502032051号 | 营业执照 | Copyright ©2000-2023 All Rights Reserved 软考在线版权所有