为人工智能健康发展设置“安全阀”
人工智能已不再是高大上的概念,而成为在生产生活的方方面面快速渗透的技术应用。在为我们带来各种便利的同时,它所触及的伦理和法律问题也开始凸显。
全国政协日前召开双周协商座谈会,专门就人工智能发展中的科技伦理与法律问题进行协商议政。在充分调研的基础上,此次座谈会对相关问题进行了深入探讨。
要高度重视人工智能健康发展
“我国人工智能发展势头迅猛,但发展机遇与风险并存,(人工智能)对人类社会发展也可能带来重大风险和潜在威胁。”全国政协委员、社会和法制委员会副主任陈智敏在座谈会上表示,要高度重视人工智能健康发展和风险防范。
全国政协常委、湖南省政协副主席张大方在座谈会上提出,应警惕人工智能发展所带来的社会公平问题。在他看来,人工智能主要以大数据和深度学习为基础,而往往数据的缺失、数据的质量、算法的歧视和人工的变化,会导致一些偏见出现。
人工智能应用中的个人隐私保护问题,在此次座谈会上备受关注。
“人工智能需要大量个人数据支撑,其中很多是个人隐私。隐私信息一旦泄露,可能对消费者人身、财产安全及企业、公共利益造成严重威胁。”全国政协委员、九三学社重庆市委会副主委黄爱龙提出。
全国政协委员、上海众人智能科技有限公司董事长谈剑锋认为,在海量大数据中,尤其需要关注的是不可再生性数据,比如人脸、指纹、DNA等生物特征数据,以及个人医疗档案数据等。“这些数据具有唯一性,是无法更改的,一旦被采集到不安全的网络上,极有可能带来灾难性后果。”谈剑锋说。
不仅如此,人工智能发展引发的就业问题、人工智能红利形成的“数字鸿沟”“贫富鸿沟”等社会财富分配问题也在座谈会上得到讨论。
技术防范+伦理规范+法律规制
全国政协副主席、民盟中央常务副主席陈晓光在作主题发言时指出,应充分认识人工智能科技伦理与法律建设的战略意义。
“人工智能的健康发展,必须回答人工智能到底该由谁掌控、人工智能发展的基本准则是什么、人工智能发展的禁区在哪里等问题,必须通过建立理性的伦理规则和法律规范为人工智能发展的风险防范设置‘控制阀’。”陈晓光表示。
陈晓光认为,总的来看,人工智能治理需要在充分发挥技术手段的基础上,注重伦理与制度的结合,逐步形成“技术防范+伦理规范+法律规制”的综合规制体系。
此次座谈会上,科技部副部长李萌提出多项在新形势下加强人工智能伦理法律工作的相关建议。
李萌建议,全面增强人工智能技术创新能力。其要义之一是强化人工智能安全可信、隐私保护等方面技术研发,建设跨领域的人工智能测试平台,强化伦理治理和风险防范的技术支撑。
此外,他还建议支持地方开展重点领域的立法试点。“聚焦当前的突出问题,在人脸识别、语音合成、自动驾驶、服务机器人等应用进展较快领域支持地方开展立法试点,为国家层面的立法积累实践经验。”
伦理治理工作正稳步推进
李萌在座谈会上介绍,目前我国人工智能伦理治理工作正稳步推进。
“党中央高度重视人工智能伦理法律问题,《新一代人工智能发展规划》专门对人工智能伦理法律作出部署。科技部会同相关部门共同落实人工智能发展规划,各项工作取得积极进展。”李萌表示。
他介绍了围绕推动人工智能伦理治理重点开展的相关工作。
比如,建立统筹推进机制,成立由15个部门构成的人工智能规划推进办公室,统筹推进包括人工智能治理在内的任务落实;起草发布治理原则,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八项原则;启动实施社会实验,开展长周期跨学科的人工智能综合影响社会实验等。
不仅如此,还积极拓展交流合作空间,组织推荐专家参加联合国教科文组织的人工智能伦理标准制定。在加强伦理法律问题研究方面,李萌介绍,在科技创新2030—“新一代人工智能”重大项目中,组织开展了人工智能伦理和立法问题研究。(记者 刘园园)