欢迎访问 中国直播网!遇见美好,记录事实!Meet the good, record the facts!

中国直播网微博  直播网微博   网站地图   商标版权注册证   直播号入驻

2016美国白宫大数据报告:算法系统、机会与公民权利

2016-12-26 23:14来源:编辑:轩皓宇

2016年5月,美国白宫发布《大数据报告:算法系统、机会与公民权利》(Big Data:A Report on Algorithmic Systems, Opportunity, and Civil Right),这是继2014、2015奥巴马政府两次大数据白皮书后的第三次报告。

随着大数据、算法系统的发展,相关的技术已经渗透进日常生活的各个方面。随之而来的挑战是,我们如何在更好地享用大数据以及算法给我们带来的生活便利的同时,保证不会造成意料之外的歧视。

在2014年的报告中,有一个重要的关于社会公平的问题是“自动化决策中潜在的代码歧视”,主要指“在大数据技术的设计、建设与使用过程中,并非故意却带来的歧视”。

在今年早些时候,在联邦商务委员会(Federal Trade Commission,FTC)发布的报告中曾经指出,中国直播网,大数据为创新提供了更多的机遇,减少了歧视,促进了公平与机会,其中包括为低收入社群进行信用担保,在雇佣决策和入学问题上去除人类潜意识中的偏见,为有风险的学生提供额外资源等。而在此次报告中,通过对贷款、雇佣、教育以及刑事司法四个领域案例的考察,我们阐明了大数据的使用如何扩大了潜在的对于个体与群体的“非故意歧视”,同时提出政府应该如何驾驭大数据的力量以避免歧视的路径方案。

1481123365-8347-qf48SNnwjx5u23njORkuUK550OQQ

 

一、大数据的机遇与挑战

上世纪公民权利法案的制定主要针对于以下情况:一些美国公民由于种族、肤色、国籍、宗教、性关系、性别、性取向、残疾或者家庭情况,会被拒斥在一些基本的机会和安全之外,比如雇佣、住房、金融产品、大学教育等。今天在美国,反歧视法案力图巩固“人人平等”的理念。大数据技术有提高我们发现和避免受到歧视伤害的潜力。但如果使用不当,它们同样可以巩固、强化甚至遮蔽有害的歧视。因此,我们必须对于大数据和算法中内在与暗藏的会对用户和社会造成影响的偏见予以考虑,追问公司、机构和组织在运用算法系统进行自动化决策过程中的透明度问题。

在理想状态中,数据系统会剔除之前不恰当的人类偏见。但是我们必须警惕,确保大数据的应用不会造成对某一特定群体的系统性歧视。我们需要发展出一种“经由设计的平等机会”法则,从运算过程的第一步开始到最后,促进公平,反对歧视。如果计算机系统的公平性、对于数据分析的伦理性路径能够得到保障,那么这样一套新的实践就具有很强的潜力去增加机会、克服歧视。

主要假设:大数据是中立客观的

一个惯常的假设是,基于数据体量和算法系统技术的大数据技术是无偏见的。但是,由于大数据技术是数据驱动的,因此不可能是中立客观的。

对于数据来说,促进公平和克服歧视的挑战集中在两个方面:

1)输入算法的数据资质。
2)算法自身的工作机制。

挑战一:算法的数据输入

大数据的算法系统是一种智能过程。这一过程需要数据的输入。对于复杂的算法来说,数据的多样性同最终结果的准确程度密切相关。使用某些数据而不用另外一些数据会带来输出结果上的歧视,包括:

• 草率选择的数据。算法系统的设计师可以决定哪些数据对于决策是重要的,哪些不是。而草率选择的数据或许会产生结果偏差。相应的,设计师也会选择颗粒度(granularity)过大或过小的数据,这同样会带来潜在的偏见。

• 不完整、不正确、过期的数据。由于缺少细致和完备的数据集,或者在数据搜集过程中有不准确或者空白,即便算法系统在其他方面都工作良好,还是会得出无法切实可行的结果。

• 选择偏差。如果输入的数据不具备一定的整体代表性,那么结果很可能会使得某一群体的利益盖过另一群体。

• 无心的延续性和对历史偏见的推动。输入的数据通过算法形成了带有偏见的结果,该结果进入到了下一轮的算法循环,或者替代掉之前的结果输出。

在设计一个高效公平、对于消费者和社群具有道德标准的算法系统时,尤其是该系统还会对授信、雇佣、居住分配、准入等造成影响,需要对以上几点进行考虑。透明度、可信性以及基于机器过程都是确保算法数据准确合适的要素。

 

1481123365-1635-HyoeSicDpOnJsa6MTbRHib7EYJaA

 

挑战二:算法系统和机器学习的设计

对于那些不直接参与大数据算法技术发展的人来说,系统最终的产品如同一个“黑箱”——不透明的机器,输入的数据,经过谜一样的过程,产生不加解释的结果。消费者、准入学生、工作候选人、被告人、公众等对于算法系统的技术过程典型地一无所知,技术总是被当做机密或者财产使用。有些系统甚至会被动地预先筛分候选人,而这实际上是先发制人地简化了后续的决策制定过程。这种不够透明的过程对于个体影响深远,个体甚至缺乏能力了解作出决策的原因,也无法发现或修正那些如果是存在的偏见。这意味着有些个体们将整体性地被排斥在某些机会之外。这种情况很复杂,也很难阐述,尤其是结果是依赖循环产生的决定。但至少,无论如何,对于大数据的使用来说,鼓励透明度、可信性以及基于机器很重要。这些问题包括:

• 草率设计的匹配系统。匹配系统帮助寻找信息、来源和服务。搜索引擎、社交媒体平台、各种应用依靠匹配系统产生结果、显示广告、推荐业务。这种匹配系统如果缺乏更新,对于历史偏见不加考虑,或者数据和算法存在盲点,将会产生歧视性的结果。

• 用户画像和推荐服务窄化用户观念。个体用户的细节信息会被搜集和分析,以发现他们的爱好、兴趣和信念,并由此给他们推送感兴趣的音乐、视频、折扣或者商品。但学术研究显示,这种推荐算法会无可避免地限制某些特定群体的信息流,使其无法和其他人得到同样的经济通道。

• 决策制定系统会预设相关关系潜藏着因果关系。程序员或者算法系统自身会预设如果两个经常出现在一起的要素具有某种因果关系。而这种预设会带来歧视。

• 数据缺乏信息或者不具有整体代表性。原始数据的瑕疵会导致算法系统扭曲产生代码歧视。受经济、语言、社会结构等因素的限制,数据的可获得性、技术的可接入度、对于数字生态的参与情况等差异很大。但毋庸置疑,这种系统性的偏差会强化既有的歧视,对某一群体的过度表现而压制另一方。

#p#分页标题#e#

在未来的研究中,另一个领域是关于机器学习——一种不用给计算机明确编程而依靠其自主行动的科学。这种复杂程度高,甚至有时程序员都无法理解的技术已经开始在信用授予、企业筹款、企业招聘等领域开始试用。随着算法复杂程度日益提高,通过机器过程形成的决策越来越难以被解释,除非这一机制在设计时就包含了可信性。

和其他领域类似,程序员和科学家对大数据系统的设计、训练以及运用过程中产生的偏见,可能既非故意也是无心。因此,要践行“经由设计的平等机会”法则,就要在决策制定时,包括在雇佣、推荐、打分、筹款以及社会参与等方面,以一种基于研究的方法(Research-based Method)“弱化偏见”,以避免设计者由于自身的文化和生活经验带来的不可回逆的后果,使得偏见成为常态。

随着大数据和机器学习技术的不断进步,中国直播网 ,一个重要的启示是,不能再不加质疑地过多依赖于新的系统,而是需要不断地测试输入数据、决策机制以及输出结果。那种认为数字不会撒谎、永远代表客观事实的“数据原教旨主义”,会带来严重且迷惑的后果,给人们的生活带来极大的负面影响。

于此同时,我们还需要关注这些算法系统是如何被使用的,确保这些关于地点、人物、偏好等更多的信息被合理合法有道德地使用,进一步促进民主公平。

 

1481123365-3639-BWibLl27Q62RGr8z9A4WR2tziapg

 

特别声明:本文为中国直播网直播号作者或机构上传并发布,仅代表该作者或机构观点,不代表中国直播网的观点或立场,中国直播网仅提供信息发布平台。
       版权声明:版权归著作权人,转载仅限于传递更多信息,如来源标注错误侵害了您的权利,请来邮件通知删除,一起成长谢谢
       欢迎加入:直播号,开启无限创作!一个敢纰漏真实事件,说真话的创作分享平台,一个原则:只要真实,不怕事大,有线索就报料吧!申请直播号请用电脑访问https://zbh.zhibotv.com.cn。    

标签:
相关资讯
热门频道

热门标签

CopyRight 2014-2024 中国直播网(直播网)ZhiBoTv.Com.Cn(中國直播網有限公司)| 本站取得授权享有第17448205号“直播网”商标注册证 | 中国直播网投稿公邮:news@newsgo.com

直播网网站所登载资讯、图集、视频等内容,版权归直播号自媒体平台原作者或投稿人所有,投稿视为本站原创首发,刊发或转载仅限传播目的非本网观点,未经授权请勿转载或商业用途。

特别声明:中国直播网仅提供平台运营服务,不提供任何上传发布服务,中国直播网尊重知识产权保护,侵权反馈:fawu@newsgo.com 直播网撤稿函下载 如有侵权请来邮告知,我们收到后会尽快处理答复。 Powered by EyouCms 备案号:吉ICP备2023004346号-1