返回首页
产业会展CURRENT AFFAIRS
产业会展 / 正文
IDC中国数字金融论坛热议开放金融:四大要素建立数字信任

  “2021 IDC中国数字金融论坛”近期在北京举办。本次论坛以“开放·重构·共生”为主题,聚集了200余名来自银行、保险、证券等金融机构和技术厂商专家、高校知名学者等,就金融业数字化转型、金融科技创新、银行智慧网点、智能运维落地、信贷风控转型等议题展开深入讨论。

  IDC中国金融行业研究团队总监高飞指出,以客户数据价值共享,金融产品可组合以及开放API为基本特征的未来开放金融建设必须要围绕客户数据,数据隐私,伦理与社会责任以及端点安全四个关键要素建立可信数字信任生态。IDC对于未来数字信任的定义超越传统的“安全”理念,引入了风控、合规、隐私保护、社会责任以及道德伦理等不同维度的“信任要素”。其中,做好风险控制无疑是一个基础的工作,合规和安全是“必须做”(Must)的工作;隐私、伦理及社会责任涉及战略层面,它们是引导企业做“应该做”(Should)的事情。“必须做”的事情使得组织可以有效识别风险,并预测和避免可能出现的负面结果,而“应该做”的事情将引导企业创造积极结果的机会,两者的协同将有效促成可信数字信任生态的实现。

  作为未来数字信任战略层面的重要因素之一,如何在构建未来数字信任生态的进程中处理好技术与伦理的关系,实现技术、人、社会三者之间的良性互动和发展,是近年来行业的热议话题。论坛上,中国人民大学法学院副教授郭锐就“金融科技中人工智能伦理”主题发表的演讲引起了与会嘉宾的热议。郭锐指出,2008年金融危机之后,全球范围内金融监管有着两大共识目标:防范系统性风险和金融消费者保护。这两点都是讨论金融科技领域的人工智能伦理时需要考虑的重要背景。

  当前,人工智能技术的发展及其在自动驾驶汽车、医疗、传媒、金融、工业机器人以及互联网服务等领域和场景的应用不断扩大和深入,一方面带来了效率的提升、成本的降低;另一方面也带来了新的挑战,引发社会公正、安全以及责任界定等诸多问题。郭锐指出,例如个人信息泄露、大数据杀熟、引导过度消费或过度负债等,都是人们讨论人工智能伦理时常常被诟病的现象。而外卖骑手事件是中国社会思考人工智能伦理的一个转折点,因为人们真实的感受到其中人和机器之间的对抗关系。

  根据全国信息安全标准化技术委员会发布的《网络安全标准实践指南—人工智能伦理安全风险防范指引》,开展人工智能相关活动,应进行伦理安全风险分析,包括:失控性风险,社会性风险,侵权性风险,歧视性风险,责任性风险。

  郭锐指出,这些现象和风险都是“创造秩序危机”的具体体现,简而言之,是人所创造的技术对人反噬的后果。而应对创造秩序危机,应该采用两个原则:一是人的根本利益原则或向善的原则,二是责任原则,通过法律和公司内部治理建立责任关系,让技术的负面效果减到最小。

  高飞指出,到2025年,超过2/3的全球知名的2000家企业的董事会将要求所在企业制定正式的可信战略,旨在提升企业安全、隐私保护、伦理有关政策的执行。那些通过帮助企业组织制定未来可信战略及解决方案的技术输出商将具有竞争优势。

责任编辑:杨喜亭
相关稿件