文章快速检索     高级检索
  科学与社会  2014, Vol. 4 Issue (1): 36-48  
0

引用本文 

邱仁宗, . 黄雯, . 翟晓梅. 大数据技术的伦理问题[J]. 科学与社会, 2014, 4(1): 36-48.
QIU Ren-zong, HUANG Wen, ZHAO Xiao-mei. Ethical Issues in Big Data Technology[J]. Science and Society, 2014, 4(1): 36-48.

作者简介

邱仁宗,中国社会科学院哲学研究所研究员,北京协和医学院人文和社会科学院教授。研究方向为生命伦理学和高科技伦理学

大数据技术的伦理问题
邱仁宗1,2, 黄雯2, 翟晓梅2     
1. 中国社会科学院哲学研究所应用伦理研究中心;
2. 北京协和医学院人文和社会科学院生命伦理学研究中心
摘要: 本文探讨了大数据技术创新、研发和应用中的伦理问题。指出大数据技术是把双刃剑,这种技术的创新使社会、商业、以及亿万人受益,但同时也带来风险。我们必须鉴定风险,平衡创新带来的利益与风险。文章还探讨了与信息技术及大数据技术有关的数字身份、隐私、可及、安全和安保、数字鸿沟等伦理问题,并讨论了解决这些伦理问题的进路。最后,建议引入伦理治理的概念,指出大数据的顺利推广应用要求我们制订评价在大数据方面所采取行动的伦理框架,即伦理原则,为制订行为准则、管理和立法建立一个伦理学基础。
关键词: 大数据    数字身份    隐私    可及    安全    安保    数字鸿沟    伦理治理    

目前流行的所谓“大数据”是基于传统的数据库技术,与新的数据储存和处理技术有诸多区别。人们预测到2025年互联网将超过生活在整个地球上的所有人脑的容量。另外输入源和所生成的数据类型随着新技术的产生而迅速扩展。更重要的是,随着输入源数目以及格式的多样性的增加,数据生成、获取、分析、处理以及输出将呈几何级数增长。全世界90%的数据是最近两年内产生的。这种大数据革命驱动我们在处理复杂事件、捕获在线数据、研发更佳产品、提供更佳服务,以及做出更佳决策方面的能力发生巨大的进步。(Rayport 2011,Davies 2012)大数据技术会提出一些我们应该做什么以及我们应该如何做的问题,我们称前者为实质伦理问题,称后者为程序伦理问题。本文试图鉴定这些伦理问题,并提出解决这些问题的进路。

2012年2月16日《纽约时报》报道Target公司有一个分析项目,可通过数据挖掘的方法确定顾客是否怀孕。该公司将购买与妊娠有关物品的优惠券送给了一位少女,少女的父亲得知后非常恼怒,痛骂公司经理。Target公司的做法也引起人们愤怒,因为它泄露了公民的隐私。(Reglian 2012,Wolken 2013)

美国国土安全局广泛监控、窃取和收集国内外公民的海量信息。仅每天收集的全世界公民的手机短信信息就近2亿条。2014年1月19日《华盛顿邮报》网站报道,2005年该局将一位来自马来西亚的斯坦福大学女博士生列入禁飞恐怖主义监控名单,使她蒙受不白之冤达9年之久。最近联邦法院裁决,该局应纠正错误,给予女博士生赔偿。

世界财富500强前50名公司曾接受调查,内容主要包括:公司是否未经顾客同意出卖数据;是否利用有目标的广告;顾客对使用他们的信息有多少限制;公司是否会从其他机构购买数据;数据是与他人分享的还是汇总的等等。调查结果显示:没有一家公司明确地说,出卖过个人数据。反之,超过半数(68%)的公司说,未经同意不会出卖个人数据。也没有一家公司明确地说不会购买个人数据。反之,有22%公司披露他们购买了第三方提供的数据。但这些公司是否对数据进行了核查,他们购买的数据是否征求过数据所有者的同意而扩散?出卖与购买个人数据是否有道德意义上的区别?(Davies 2012)

一、 平衡大数据技术的受益与风险

与所有技术一样,大数据技术本身无所谓“好”与“坏”,因此它在伦理学上是中性的。然而使用大数据技术的个人、公司有着不同的目的和动机。技术被应用后,会因为使用对象的目的不同而对个人、公司乃至社会产生积极或消极的影响。然而值得注意的是,大数据技术具有一种强制性功能,会通过产生或处理海量、多样的数据,改进产品设计、研发、销售和管理行动(个体化的产品和服务),推动公司或机构进一步、更完全地进入个人的生活,并产生更深的影响,甚至改变像身份、隐私等术语的传统意义以及改变我们的社会、经济、政治和文化生活。而且,与所有新技术一样,大数据技术也将产生意料之外的风险。

因此,在伦理学上我们要做的第一件事是鉴定大数据技术可能引发的风险。美国国家科学基金会(NFS)支持学术界人士成立了“大数据、伦理学与社会理事会”(Council on Big data,Ethics and Society),NSF的Fen Zhao女士指出,理事会的任务是促进宏观的对话来帮助更多的人了解大数据可能引起的风险,并在促使执行官和工程师思考改善产品和增加营业收入的同时,避免涉及隐私以及其他棘手问题的灾难,告诫不要重蹈美国Tuskegee梅毒研究的覆辙。(Novet 2013)

那么,可鉴定出哪些风险?根据有限数据重新标识身份(reidentification),可能泄露医疗记录、个人习惯、财务状况以及家庭关系这些私密信息,被人利用、假冒、诈骗;许多消费者毫不经意地使用社交媒体或互联网服务,无意中允许他人使用信息;根据数据分析掌握某些人犯罪活动模式,预先控制他们的犯罪行为,然而模式是根据过去行为确定的,不能完全决定未来的实际行为(这里也涉及决定论与自由意志、过去与未来关系等哲学问题);基于先进的数据分析技术,零售商向顾客提供个体化服务,顾客接受这种服务后,零售商进一步提供有目标的商品服务,使人怀疑推动顾客行为的是顾客真正的需求,还是基于数据分析技术的商品和服务;还有大数据分析的结果可能导致基于年龄、性别、族群、健康状况社会背景等的歧视,等等。(Buytendijk and Heiser 2013)

二、 大数据技术中的伦理问题 1. 数字身份(Digital Identity)

数字身份是在网络空间领域流行的概念,被定义为一组独一无二地描述一个人(有时指主体subject或实体entity)的数据,是有关一个人的所有在数字上可得的信息的总和。(Kinderlere et al. 2012)

身份是界定一个人是谁或是什么的一个特征或属性集。身份有社会身份(同伴、家庭和朋友)、法律身份(出生证、驾驶执照)以及物理身份(DNA、外观)。数字身份是在线使用的身份,又称“在线身份”(online identity)。当从事在线活动时数字身份代表那个使用者特定的人,能为电子技术手段可及。数据身份会引起一些问题。首先,一个人可有不止一个有效的数据身份,其特征可根据情境、应用的目的或所获服务种类而有不同。其次,网络世界中数字身份不是固定而是流动的,它可随时间流逝而变化。因此,数字身份不是唯一的、静态的或永久的。还可能有这样的情况,有人使用的是假身份,或者选择匿名。有人界定数字身份为“在在线环境发展起来的,可通过电子或计算机装置或系统可及、使用、储存、转移或处理的身份。”(ICBCEM 2011)

数字身份具有重要的商业价值,对一个国家的整个经济至关重要。无论是在其他国家,还是在中国,网民人数每年都以令人惊异的速度增加。1996年我国网民仅有27万,2008年达到2.63亿,2011年达到4.2亿,2013年6月为5.91亿。这种迅速增长的态势说明个人对网络的迫切需要,同时我们也看到利用数字身份的经济在全世界的迅猛发展。从宏观经济视角看,欧洲传统工业从2008年到2011年缩小了3.6%,但利用数据身份的企业年增长率则为15%(电子经济)和100%(web2.0社区)。通过数据身份创造的价值可能是非常巨大的,拥有22%的年增长率,到2020年应用个人数据可为欧洲提供3300亿欧元的年经济效益。个人受益更大,消费者所获的价值在2020年将达6700亿欧元。数据身份的总价值可能为欧盟27国GDP的8%。(BCG 2012)

① 中国互联网研究中心,2013年。

围绕数字身份存在两个问题。第一,身份盗用(identity theft)的事件层出不穷。由于互联网上私人信息的可得性,身份盗用事件迅速上升。2002年700万美国人的身份被盗用,2012年被盗用身份人数达1200万,成为美国发展最为迅速的犯罪行为。公共记录搜索引擎和数据库是网络犯罪的元凶。(Kinderlere et al. 2012,BCG 2012,Gillies 2012)第二,在可得数据及处理数据能力的几何级数的增长驱动下,数字身份越来越可追溯。1993年7月5日,美国《纽约人》(The New Yorker)杂志发表了一幅漫画,一只在键盘上操作的狗对另一只狗说:“在互联网上谁也不知道你是一只狗。”(Steiner 1993)那个时代确实如此,然而在大数据时代人们不仅有可能知道你是一只狗,而且能知道你的品种,喜欢吃的零食,以及在狗展上是否获过奖。这里提出的问题是:大数据技术能够根据你在网络上的数字身份提供的一些信息追溯到你现实生活中的实际身份。技术上有可能做是否在伦理学上都应该做?如果有人利用大数据技术任意去追溯个人的实际身份,那么人们就会说,大数据不仅是增长的驱动者,还可能是使用者/消费者的祸害者。如果不加以管理,许多人可能会为了保护自己,提供更多的虚假信息,或者干脆退出在线世界或网络空间。根据有关数字身份的这两个问题,就提出了保护数字身份和数字身份管理的公共政策问题(ICECOM 2011)。

2. 隐 私(Privacy)

随着个人数据使用的增长,消费者对他们隐私和个人信息的保密的关切也随之增长。隐私是将他人排除在知悉某人的信息或数据的某些方面之外。隐私概念仅适用于有可能发生人际互动关系的领域,在没有人迹的荒芜小岛,不存在隐私问题。有三种不同形式的隐私:(1)躯体隐私。指人身体的阴私部位,不能暴露给一般外人;(2)空间隐私。指与非亲密关系的人保持一定的距离;(3)信息隐私。指保护和控制与个人有关的信息。有关个人的信息包括:(1)固有特征。这个人来自何处?他或她是谁?出生日期、性别、国籍等;(2)获得性特征。这个人的历史,例如地址、医疗记录和购物史;(3)个人偏好。这个人喜欢什么?包括兴趣、业余爱好、喜欢的品牌和电视节目等。上述信息可联系到有身份标识或可辨识身份的人。

在网络空间,尤其在大数据时代,隐私的丧失很容易发生。当进行交易和注册登记时,个人要提供私人信息,信用卡信息、身份证号码、电话号码、母亲婚前姓名、住址等被公司和公共机构搜集和利用,可能导致隐私的丧失。诈骗和假冒属于因私人信息直接或间接滥用而引起的恶意活动。另外,往往会发生功能潜变(function creep)的情况,这是指获取信息的原来目的被悄悄地、不知不觉地扩大到包括未获得参与者知情和自愿的同意。功能潜变不管是在商业上,还是在政府的监控上都有发生。(Zhai and Qiu 2010)

隐私应该放弃吗?有一种观点(“后隐私运动”)认为,隐私是控制信息被分享的一种手段,在web 2.0或大数据时代,隐私已经不能得到合适地保护,应该主动放弃隐私。从义务论来看,隐私是一项基本人权,从后果论来看,隐私的丧失将给数据市场造成严重损失,必须认真保护隐私。个人信息是数据市场的通货。像任何通货一样它必须是稳定的,值得信任的。这是关键所在。虽然消费者关切他们数据的使用,但愿意甚至迫切希望他人分享他的一些个人信息(当他们有适当的受益回报时)。当交易和条件合适时,消费者要“花掉”他们的个人数据。对所有利益攸关者的最大挑战是如何确立数据可信的流动。大多数消费者或用户不知道他们的数据如何被利用,也不能够主动进行管理和控制,而是希望他们的数字身份得到负责任的和公开的对待。为此企业和公共机构要告诉消费者或用户个人数据如何使用和保护隐私。确保可持续的数据流动有三个基本要素:(1)消费者的受益必须超过分享数据需付出的代价;(2)对于数据如何使用必须有透明性;(3)个人隐私能得到保护。(Kinderlerer 2012,BCG 2012)

3. 可 及(Access)

网络上信息的可及,对网络信息的审查和滤除,网络的关闭或暂停使用,也会引起许多伦理问题。当前我们利用软件滤除一些网域和内容,使得如果没有精细制作的规避措施(翻墙软件),人们无法进入或获得这些网域和内容。互联网的审查和滤除被用来控制或压制信息的发表或可及。小规模的网站审查和滤除指一些公司,屏蔽一些个人使用的网站,限制员工上班进入网络空间,以免影响生产和工作。大规模的则有政府建立大型防火墙避免其公民接触国外的在线可得的信息。国家控制信息可及最著名的例子是我国的金盾工程,例如有时在举行全国性重要会议期间,有些人因无法进入Google查找资料而苦恼。在法国和美国,政府有屏蔽和滤除种族主义和反犹太人的网站的工程。

人们普遍担心危及公共安全、个人生命健康,以及青少年身心健康的信息在网络上肆意泛滥,因此负责的公共机构对网络进行管理,是合理的。但单位或公共机构的网络管理人员要认识到,信息可及权利来自于尊重公民或使用者个人的自主、自我决定和知情选择权。个人对与个人有关的事情做出理性的决定,必须基于对相关信息的可及和理解。同时公民的信息可及权利,包括网络信息可及的权利,也是一种初始(prima facie)权利,即设条件不变时应该尊重、保护和实施公民的网络信息可及权利,如果有一项更为重要的公民权利,例如公民人身安全的权利与之相冲突,或有重大的公共利益(例如保障国家或社会的安全)与之相冲突,可以暂停或限制公民的信息可及权利。但暂停或限制公民的信息可及权,必须有充分的理由,对公民的这种权利的侵犯必须是最小程度的,侵犯的范围、程度和时间必须与所得的效用(例如国家安全得到保障)相称。因此,国家层次的审查、滤除、屏蔽行为也提出重要的伦理问题,即在什么条件下审查、滤除、屏蔽某些网站和内容可得到伦理学的辩护?如何评价审查、滤除和屏蔽所得和所失?多大的利弊得失比可让我们采取这种行动?

一方面是如何确保使用者信息可及的正当权利,另一方面如何防止不当可及(inappropriate access),包括垃圾邮件、网络色情材料、网上兜售药品等十分严重的问题,已引起各国政府的关注。例如在英国,根据信息专员(Information Commissioner)办公室的建议,制订了《隐私和电子通讯条例》,规定公司发送未经请求的电子营销材料的规则,要求公司给用户发送未经请求的营销材料必须事先获得同意(consent),或者在每次发送消息时让用户有机会表示反对。如果用户收到未经请求的电子营销材料,且在用户表示拒绝后还这样做,用户可以向信息专员投诉。同时电子邮件的使用者也应自己来采取实际步骤减少垃圾邮件。不当可及中最为严重的是对青少年造成伤害的网上色情和暴力材料的传播。一些国家要求搜索引擎安装滤过软件,防止青少年接触到这些材料。但同时应确保具有医学、科学、艺术或教育的材料在网上为使用者普遍可及。(Gillies 2012)

4. 安全/安保(Safety/Security)

互联网存在一种悖论:互联网的技术平台实际上是一个受高度管控的环境,然而通过在这个平台上建立的网页、email和社交网络地址表达的内容却往往被认为是完全不受管控的虚拟荒野,不必考虑规则。目前,网络犯罪迭起,从制造播散病毒,黑客入侵,诈骗,造谣惑众,身份盗窃,网络贩卖假药、毒品、枪支、人口、器官,教唆杀人和自杀,传播色情材料,到恐怖主义利用网络危害国家利益。根据英国广播标准理事会1999年的调查,3/4的人要求加强对互联网的管理。(Gillies 2012)

“安全”(safety)和“安保”(security)是两个概念,安全是防范因客观因素或无意地主观因素发生的伤害、事故,保护使用者和机构的利益;而安保是防范主观恶意引起的伤害、事故,涉及保障社会或国家的安全,防止反社会分子、敌对势力或恐怖主义集团和分子利用网络对影响国计民生或国防的设施进行预谋的、有其政治目的的攻击。某些行业的信息比如金融数据、医疗信息以及政府情报等都可能有保密措施不完善引起的安全和安保问题,大数据的分析和应用会催生出一些新的、需要考虑的安全和安保问题。例如商业上利用大数据追踪顾客,需要有规范,不能仅仅考虑利用大数据分析研发新产品、新服务方式的效益,也要考虑涉及利益攸关者的价值。例如我们前面引述的Target公司的例子,他们急于将新型的个体化服务提供给顾客,而没有考虑到这位少女顾客与她家庭的关系。2001年美国的《拦截和阻断恐怖主义法》(Intercept and Obstruct Terrorism Act)授予美国政府广泛而全面的权力来监控电话和邮件,以及获取医疗、金融和其他记录。结果造成斯诺登揭发的政府执法部门滥用权力广泛侵犯国内外公民人权而引起全世界人民痛恨的景象。政府执法部门利用大数据监控恐怖主义分子或其他有组织犯罪分子,这是在伦理学上可以得到辩护的。但在什么条件下对一些人的实施监控可在伦理学上得到辩护呢?可设想如下条件:有充分证据证明拟监控对象有危及国家和社会安全的行为,或与恐怖主义或其他严重犯罪集团有不寻常的联系;监控确能达到维护国家和社会安全的效用;监控为维护国家和社会安全所必需(没有其他选择);监控应具有相称性(即监控程度要适当);监控要对所涉个人的自由和权利侵犯最小化;监控应合法(必要时专门立法);监控应透明(让公众知道监控的必要和相关规定);一旦发现监控出现错误(冤枉好人)应及时平反纠错,给与赔偿。

5. 数字鸿沟(Digital Divide)

数字鸿沟是一种“技术鸿沟”(technological divide),即先进技术的成果不能为人公平分享,于是造成“富者越富,穷者越穷”的情况。这是一个公正问题。数字鸿沟的概念涉及在信息技术及与其有关的服务、通讯和信息可及方面的失衡关系,在全球或各国贫富之间、男女之间、受教育与未受教育之间信息可及的不平等和不公平。与区别或差异的概念相反,鸿沟是指某些群体在信息可及方面遭到不合伦理和得不到辩护的排除(exclusion)。除了衣食住行、医疗、教育、安全等基本品外,信息也应该被视为基本品,因此要求信息的公正分配,以及对信息技术及信息的普遍可及。(Hessen 2012)

信息通信技术是逐渐摆脱贫困的重要手段。然而,一方面网络使用在不断普及,但另一方面却加剧了贫富差距,在信息“富有者”和“贫困者”之间形成一道数字鸿沟。互联网的普及率数据(1999年末)显示,加拿大达到每千人中有428.2人的普及率,而全球平均水平仅为46.74人;印尼为0.18人,菲律宾为0.23人,泰国为0.49人。(Sembok 2003)数字鸿沟造成了对弱势群体的歧视,形成了一种新的社会不公正。如何克服数字鸿沟,这是信息社会的时代面临主要挑战之一。(Sembok 2003)我国网民近6亿人,那么其余7亿人呢?在我国是否也存在数字鸿沟,如果存在,我们如何努力来缩小或填补,使得这奇妙的信息通讯技术和大数据技术能造福绝大多数人,在实现“小康”社会中发挥最大作用。

如何解决这些伦理问题?这些都是信息通讯技术和大数据技术创新提出的新的伦理问题,或虽然以前已提出但至今未解决或很好解决的伦理问题,因此仍然有待于解决的是我们应该做什么和应该如何做的问题。在鉴定新技术提出的伦理问题后,我们一般不能依靠现有的规则或新制订的规则,用演绎方法,自上而下地加以解决;反之,需要自下而上地分析这些伦理问题,考虑其特点,对相关利益攸关者的价值给予权衡,以找到解决办法的选项,然后应用伦理学的理论和原则加以论证。因此,我们说伦理学的工作是“鉴定”、“权衡”和“论证”。与科学技术要解决的“能不能”问题不同,伦理学要解决的是“该不该”问题。要解决“该不该”问题时,我们就必须首先考虑要选择哪些价值。

三、 大数据技术的伦理治理

有关信息通讯和大数据技术的管理问题,我们推荐“伦理治理”这一概念。治理(governance)与管理不同,管理(management,regulation)是治理的一个方面,治理的意义是决策和决策实施过程,并包括公司、地方、国家以及国际多个层面。对治理的分析集中于涉及决策和决策实施的种种行动者及其结构。在治理中政府是一个重要行动者,但还包括其他利益相关者,例如在信息通讯和大数据技术领域,包括科研人员、网络/平台的拥有者和提供者、使用者、政府执法部门、政府非执法部门,以及相关的学术、维权组织。因此治理意味着一项决定不单是依赖权力或市场,而是一个多方面协调的行动。同时由于新的科学技术创新越来越引起公众的伦理关注,伦理学与处于社会之中的科学技术紧密相连,解决这些问题单单靠决策者或科学家或伦理学家都有局限,需要多元部门、多个学科共同参与,研讨科学技术创新提出的新的伦理、法律和社会问题,并提出政策、法律法规和管理方面的建议,因此进一步提出“伦理治理”(ethical governance)这一概念。(Ozolina et al. 2009)

据此,我们认为对信息通讯和大数据技术的管理应该是多层次的,有科研和从业人员的自我管理,有商业机构或公共机构的管理,也有政府的管理。我们在多年研究的基础上提出大数据技术的伦理治理原则的建议。伦理原则是利益攸关者应尽的义务,也是我们应该信守的价值,这些伦理原则构成一个评价我们行动(包括决策、立法)的伦理框架:评价的结果将是,这个行动是应该做的或有义务做的;或者这个行动是不应该做的或应该禁止做的;或者这个行动是允许做的,也允许不做。正如我们在前面说过的那样,其中每一条原则都是一项“初始”(prima facie)义务。

原则1: 基本目的。大数据技术(包括更大范围的信息通讯技术)创新、研发和应用的目的是促进人的幸福和提高人生活质量,并仅用于合法、合乎伦理和非歧视性目的。大数据方面的任何行动应根据不伤害人和有益于人的伦理原则给予评价,以此作为努力权衡预期的受益与可能的风险的基础。同时也应合适地平衡个体与公共的利益。在为了公共利益而限制个人的权利和利益时,这种限制应该是必要的、相称的和最低限度的。

原则2: 负责研究。大数据技术的研发及其应用应该保持高标准的负责研究,即坚持研究诚信,反对不端和有问题的行为,承诺维护和保护个人的权利和利益。为了在所有的分析和应用中防止身份被窃取,保护个人隐私和确保平等权利,必须承诺最高保准的诚信和数据库的安全。

原则3: 利益冲突。在大数据技术的研发及其应用中,专业人员、公司和使用者之间的利益冲突应该作合适的处理。任何情况下人民(尤其是脆弱人群)的利益不能因追求专业人员或公司的利益而受到损害。

原则4: 尊重。尊重原则要求尊重人的自主性和自我决定权,必须坚持知情同意或知情选择原则。收集个人信息、将个人信息再使用于另一目的时,必须获得同意。根据不同的情境,可以采用“广同意”(例如同意将个人信息用于一类,而不是某一情况下)的办法,同意也可采取opt-in(选择同意)或opt-out(选择拒绝)两种方式。

原则5: 隐私。人的尊严要求我们保护隐私、为个人信息保密,要求我们不仅不要侵犯个人的隐私/保密权,而且要尽力防止不合适地和非法地泄露私人信息。

原则6: 公正。公正原则要求有限资源的公平分配,防止因不适当地泄露个人信息而产生污名和歧视。要努力缩小和消除数字鸿沟。

原则7: 共济。共济原则要求我们维护每个人享有从大数据技术研发及其应用中受益的权利,特别关注社会中的脆弱人群。

原则8: 透明。透明原则要求我们使大数据技术的研发及其应用对公众(纳税人)成为透明的,帮助他们了解什么是大数据技术,能从其应用中得到什么受益和会有什么风险。

原则9: 参与。参与原则要求我们采取措施促使公众对大数据技术的了解,并引导所有利益攸关者或其代表在上游就参与大数据技术的研发及其应用的决策过程。(Zhai & Qiu 2010)

Ethical Issues in Big Data Technology
QIU Ren-zong1,2, HUANG Wen2, ZHAO Xiao-mei2     
1. Institute of Philosophy/Center for Applied Ethics, CASS;
2. Center for Bioethics, School of the Humanities & Social Sciences, Peking Union Medical College
Abstract: This article explores ethical issues in the innovation, research and development, and application of big data technology. It points out that being a double-edged sword, the innovation of big data technology would bring huge benefits to individuals of hundreds of millions, enterprises and the society at large; at the same time, it may cause potential risks. It requires us to identify risks and balance between benefits and risk caused by the innovation. It also discusses ethical issues such as digital identity, privacy, accessibility, safety and security, digital divide, etc., which are related to information and communication technologies and big data technology, as well as their solving approaches. Finally, it introduces the concept of ethical governance and claims that the successful application of big data requires developing an ethical framework for evaluating the actions we may take in the area of big data, that is, ethical principles, which will form an ethical foundation for developing codes of conduct, regulations and legislations.
Key words: big data    digital identity    privacy    accessibility    safety    security    digital divide    ethical governance    
参考文献
[1] BCG (The Boston Consult Group) .The Value of our Digital Identity. Published by Liberty Global. 2012.
[2] Buytendijk, Frank and Heiser, Jay.Confronting the privacy and ethical risks of Big Data, http://www.ft.com/cms/s/0/105e30a4-2549-11e3-b349-00144feab7de.html#axzz2rHWYouN8. [2013].
[3] Davis, Kord. Ethics of Big Data - Balancing Risk and Innovation, O'Reilly Media. 2012.
[4] Gillies, A. Internet, Regulation and Censorship, in Ruth Chadwick (Editor in Chief) Encyclopedia of Applied Ethics, the 2nd edition, 2012,752-759.
[5] Heesen. J. Computer and Communication Ethics, in Ruth Chadwick (Editor in Chief) Encyclopedia of Applied Ethics, the 2nd edition, 2012,538-545.
[6] Industry Canada's Electronic Commerce (ICECOM) Branch, Government of Canada. Protecting and Managing Digital Identity Online. https://www.ic.gc.ca/eic/site/ecic-ceac.nsf/eng/gv00585.html[2011].
[7] Kinderlerer, Julian et al. Ethics of Information and Communication Technologies, Opinion of the European Group on Ethics in Science and New Technologies to the European Commission. 2012.
[8] Novet, Jordan. The ethics of big data: A council forms to help researchers avoid pratfalls. http://venturebeat.com/2013/11/18/the-ethics-of-big-data-a-council-forms-to-help-researchers-avoid-pratfalls/[2013].
[9] Ozolina Z et al. Global Governance of Science: Report of the Expert Group on Global Governance of Science to the Science, Economy and Society Directorate, Directorate-General for Research, European Commission. Brussels: European Commission. 2009.
[10] Rayport Jeffrey. What big data needs: A code of ethical practices, MIT Technology Review, http://www.technologyreview.com/news/424104/what-big-data-needs-a-code-of-ethical-practices/ [2011].
[11] Riglian, Adam .Big data collection efforts spark an information debate. http://searchcloudapplications.techtarget.com/feature/Big-data-collection-efforts-spark-an-information-ethics-debate[2012].
[12] Sembok, Tengku Mohd. 2003 Ethics of Information Communication Technology. Paper prepared for the Regional Meeting on Ethics of Science and Technology. Bangkok UNESCO, Regional Unit for Social & Human Sciences in Asia and the Pacific.
[13] Steiner, Peter . On the Internet, nobody knows you are a dog. The New Yorker.http://en.wikipedia.org/wiki/On_the_Internet,_nobody_knows_you%27re_a_dog.[1993]
[14] 涂子沛. 大数据. 广西: 广西师范大学出版社, 2012.
[15] Wolken, Matt. The ethics of Big Data and privacy. http://en.community.dell.com/dell-blogs/direct2dell/b/direct2dell/archive/2013/11/12/the-ethics-of-big-data-and-privacy.aspx[2013].
[16] Zhai Xiaomei and Qiu Renzong .The status quo and ethical governance in biometric in mainland China, in Kumar, A and Zhang, D (ed.) Ethics and Policy of Biometrics, Berli/Heiderbergn: Spring-Verlag. 2010, 127-139.
[17] 中国互联网信息中心.中国互联网络发展状况统计报告. http://www.cnnic.net.cn/gywm/xwzx/rdxw/rdxx/201307/t20130717_40663.htm.[2013-7-17].