第四范式陈雨强出席联合国互联网治理论坛,介绍AI与隐私保护工作

2018.11.23

 

日前,一年一度的联合国互联网治理论坛(Internet Governance Forum,下文简称IGF) ‎在法国巴黎联合国教科文组织总部召开,探讨如何保障互联网的可持续、稳定、安全发展,参会人员包括联合国秘书长古特雷斯以及来自各国的代表,第四范式联合创始人兼首席研究科学家陈雨强出席会议并就人工智能中的伦理安全问题阐述了观点。本届IGF由法国政府主办,法国总统马克龙在致辞中呼吁,关乎人类未来的数字革命正处于前所未有的转折点,我们共同的责任是一起努力寻找创新、实用和可持续的解决方案,以提早应对挑战并有效驾驭技术潜力。

 

人工智能、大数据和物联网是广受关注的新兴议题。新一代人工智能的崛起,在给人类带来惊喜和更高生产力的同时,也引发了一些如何避免人工智能挑战人类安全或社会伦理道德的担忧。其中不乏互联网巨头出现严重数据泄露导致用户隐私泄露的问题,给企业的数据管理和使用敲响了警钟,对数据的隐私保护重视成为大势所趋。美国近年来一直在关注相关立法,欧盟也在今年5月正式生效了被誉为“全世界最严厉的数据隐私保护法”《一般数据保护条例》 (GDPR),我国在数据隐私保护方面还处于起步阶段,一方面是早期数据隐私保护意识薄弱,一方面也受制于技术难度。

 

陈雨强在大会期间介绍了第四范式在推广人工智能技术过程中的隐私保护工作。数据隐私保护在金融、医疗等敏感行业一直备受关注,也是企业防范的重点。数据隐私保护的方法论并不神秘,如k-anonymity,l-diversity,t-closeness,在模型训练里加噪声等,但在实际应用上往往会出现技术难点,比如加入噪声、扰动后,本来可用的原信息被扰动信息淹没了,造成数据失效。

 

第四范式在创立伊始便与金融机构和医疗机构展开合作,一向重视开发带有隐私保护的人工智能技术,得益于机器学习技术的优势和积累,第四范式的人工智能隐私保护技术已在实际应用中取得效果。以医疗行业为例,在第四范式与瑞金医院联合开发的糖尿病预测产品“瑞宁知糖”时,在提取和分析数据的过程中,第四范式通过差分隐私技术,能够在有效利用数据的同时保护用户隐私,避免了用户身份泄露的潜在风险。

 

面对互联网安全以及人工智能使用中的伦理道德与风险问题,国际社会希望可以在政策建立和技术发展方面达成共识并推动。陈雨强在IGF大会发言中指出,像所有技术一样,人工智能技术的开发和应用也面临如何兼顾道德伦理的问题。需要明确的是,大部分的机器人并非没有道德,它们只是“与道德无关”,是人类的使用方式让它们面临了伦理困境。

 

近年来人工智能的发展受益于大数据驱动,隐私问题是数据资源开发利用中的主要威胁之一;在涉及信用评估、犯罪风险评估等项目时,人工智能决策的结果将影响贷款额度、刑罚轻重,如何确保人工智能算法遵循公平公正原则,需要对其进行审计,避免使其成为“黑箱”;对人工智能的规范,需要在国家层面建立一套公开透明的人工智能监管体系,实现对人工智能设计开发和使用的全流程监管,加强对违规行为的惩戒,督促人工智能行业和企业合规开发人工智能技术。

 

关于如何确保AI被用于符合人类福祉的用途,陈雨强表示这是一个技术领域一直以来的难题,我们需要严加管理AI不被错误的使用,但也不能因噎废食,只要合理利用,AI对于社会的益处会是全面且巨大的。AI是新时代的“火”,好好驾驭,将大幅推动人类的进步。