专家在北京智源大会“人工智能伦理、治理与可持续发展论坛”上表示
人工智能标准制定进入“井喷期”
□ 本报实习记者 贾润梅
近年来,人工智能的创新与社会应用方兴未艾,从电商到物流,从智慧医学到智慧城市,人工智能无处不在。然而,人工智能在带来高效生产和便利生活的同时,也不可避免地对现有伦理关系和社会结构造成冲击,引发诸多伦理争议和法律问题。
近日,国家新一代人工智能治理专业委员会委员、上海交通大学人工智能研究院首席顾问李仁涵教授,在北京智源大会“人工智能伦理、治理与可持续发展论坛”上表示,人工智能技术的未来发展势头迅猛,相关国际组织制定的人工智能标准进入“井喷期”,国际人工智能治理工作正在加速可操作化。
“当前,中国迫切需要建立相应的可操作‘规则’,这不仅有利于人工智能的可持续发展,还有利于人工智能与国际接轨及实现全球化发展。”李仁涵认为,人工智能评测平台是人工智能未来发展的重要基础设施之一,建设这样的平台有助于人工智能治理落地。为此需要尽早规划,应形成人工智能治理“三步走”战略:在安全方面做到可操作;在伦理方面,将软性举措变为刚性举措,从而促进落地;对不可控和变异的问题进行前瞻性研究。
会上,多位专家指出,目前人工智能技术已经在应用中引发了侵犯隐私、歧视等伦理问题,亟须建立全新的治理模式,进一步健全相关治理体系,推动法律法规标准规范的出台和落地,同时还应加强伦理教育,提高全民伦理意识。
清华大学公共管理学院教授、人工智能国际治理研究院副院长梁正指出,当下,形成人工智能伦理和治理共识非常重要,否则将阻碍其发展。此前,联合国教科文组织通过首份人工智能伦理问题全球性协议《人工智能伦理问题建议书》,旨在促进人工智能为人类、社会、环境以及生态系统服务,并预防其潜在风险。
科技部中国科学技术信息研究所党委书记、所长赵志耘介绍,在建立组织推进机制方面,中国成立了新一代人工智能发展规划推进办公室、国家新一代人工智能治理专业委员会等;在治理实施文件方面,接连发布《新一代人工智能治理原则》《新一代人工智能伦理规范》等政策文件。
《中国质量报》
|