媒体监测和推荐平台

智慧城市

当前位置:首页 > 智慧城市 > 详细内容

互联网时代更需要“数据守护”

近期,脸书5000万用户数据遭第三方机构“剑桥分析”滥用的事件,引发了全球用户对脸书数据保护能力的信任危机,多国监管机构已经对其启动调查程序。

作为全球最大的社交网络平台之一,脸书商业模式的成功建立在超过14亿活跃用户以及与海量第三方应用共同构建的开放平台之上。以个人信息为基础构建的新经济模式决定了脸书等互联网平台的利润主要来源于对海量用户数据的分析利用和共享流动。

然而,大数据、人工智能等技术展现出的对个人行为和思想的透视和操控能力,以及层出不穷的个人数据滥用和泄露事件,触动了公众对于隐私和个人数据保护的深切关注。信息社会急需各利益相关方的共同参与,共同构建个人信息利用和共享的信任机制,增加公众对无处不在的个人信息流动的安全感和信任感。

正如美国学者杰克·巴尔金所言,权力和权利不对称是信息社会的核心特征。用户授权脸书等互联网平台收集、分析和利用个人信息,以获取平台提供的免费服务。而数据的非消耗性特征决定了互联网平台可以对个人信息进行反复地利用、聚合以及和第三方共享。但这个过程在通知用户时往往语焉不详。“必要时,我们可能会收集你的信息,并将其共享给其他企业”之类的模糊语言无处不在。作为用户,很难了解“必要”是什么时候,“可能”是多大概率,以及“其他企业”的范围究竟为何。因此,增加数据主体对自身数据的控制力,其重要性不言而喻。

这种控制力应当集中在为用户赋权,特别是赋予个人更多的选择权。比如在数据收集环节,赋予用户在基础服务目的的个人数据授权之外,对于附加服务是否授权拥有选择权;为用户提供“隐私控制面板”,以选择向第三方共享个人信息的范围、目的和对象;当服务结束时,赋予用户撤回授权和删除个人信息的权利;赋予用户对自身权益受到不利影响的自动化决策结果的拒绝权,以及发现个人信息错误享有要求更正的权利等等。

同时,互联网平台还应该增强数据收集和处理方式的透明度。近期,多款手机应用被曝光存在大数据“杀熟”的现象,使人们对大数据算法的中立性产生了质疑。大数据算法对个人权益会产生直接的影响,而算法本身可能存在歧视、错误和恶意使用。因此,互联网平台需要向用户解释大数据算法的逻辑和合理性,通过增加透明度,加强用户对算法应用的信任感。举例而言,欧盟就在通用数据保护条例中规定,数据控制者应当确保算法可被用户所理解。

此外,加强互联网平台的问责性必不可少。由于脸书对合作共享数据的第三方疏于实施风险评估和动态管理,导致了原本仅用于科学研究目的的个人信息被非法出售给“剑桥分析”公司,超越用户授权目的而用于商业目的和政治倾向分析。因此,作为互联网平台,对于在其平台上提供服务的第三方应用应当承担审核监督责任,对第三方应用收集、利用、存储和流转个人信息的行为实施必要的审计和跟踪管理,确保其共享的个人数据在用户授权的范围内合法使用。

“舟大者任重,马骏者远驰。”作为信息社会支柱的互联网企业,唯有承担起用户隐私和个人信息的守护者的重任,将提升个人信息安全能力视为企业核心竞争力,才能赢得用户持续的信任,构建起信息社会的健康生态。

来源:人民网-人民日报