

在一个人工智能算法已经可以分析实时金融信息并在很少或根本没有人为监督的情况下做出高风险交易决策的世界里,我们的金融监管未能跟上。
Michael Wellman, Richard H. Orenstein部门主席和Lynn A. Conway大学计算机科学与工程教授,本周在参议院银行、住房和城市事务委员会作证,提醒立法者注意人工智能在金融系统中的使用对安全、安全和公平构成的潜在危险。
威尔曼说:“一般来说,我们现行的法律是基于这样一种假设,即人民是做决定的。”“当人工智能做出决定时,我们的法律是否能充分确保那些让人工智能工作的人承担责任?”
对经济的潜在危险不仅来自希望利用人工智能操纵市场或提取金融信息的不法分子。根据最近从威尔曼的研究小组获得博士学位的梅根·希勒(Megan Shearer)领导的研究,单纯为了实现利润最大化而设计的自动算法可能同样令人担忧。
他们的研究展示了交易算法如何在没有明确指示的情况下学会操纵市场。开发人员的规范和AI的行为之间的潜在不匹配提出了一个问题,即如何让AI开发人员对他们向世界发布的代理负责。

Michael Wellman
威尔曼说:“现有的法律在很大程度上取决于操纵的意图,而这将如何适用于一个能够自主学习操纵的人工智能算法,目前还不清楚。”
这样的漏洞可能会让人工智能开发者逃避对其人工智能的责任。
“我们需要找到在人工智能系统背景下定义意图的方法,”Wellman说。“不幸的是,鉴于该行业的保密性和难以预测接下来会发生什么,很难知道如何改善对人工智能的监管。
“如果有人告诉你,他们知道人工智能技术在5年、10年甚至明年的发展方向,不要相信他们。由于缺乏公开信息,今天甚至无法衡量算法交易中使用的人工智能的确切程度和性质。”
Wellman认为,创造更多关于哪些做法会产生风险的公共和开放知识,将有助于更好地为人工智能做好金融体系的准备,并激励市场规则和系统保持对人工智能不可避免的影响的弹性。
“模拟人工智能在类似真实金融系统的测试环境中的行为,可以帮助研究人员和监管机构在将算法投入现实世界之前更好地理解算法的行为,”Wellman说。“我们必须区分哪些做法和情况是有益的,哪些是有害的,并确定促进有益做法和阻止有害做法的市场设计或法规。”
根据Wellman的说法,对于监管机构能够在人工智能构成严重风险之前对其做出反应,这种公开的知识是必要的,这“有时对于避免真正可怕的后果至关重要”。
他说,人工智能还可能加剧获得大量信息的各方的交易优势。因为拥有最多数据的公司可以构建最强大的人工智能,垄断数据的公司可以在金融交易中获得优势。垄断信息资产的交易行为至今还没有得到广泛的研究和讨论。
“培训数据是否应该像内部信息一样受到监管?”这是立法者需要仔细考虑的问题。”“如果市场由于操纵或信息优势等问题而被视为不公平,它可能会破坏对整个体系的信心,并降低经济中资本形成的基本过程。”
/公开发布。来自原始组织/作者的材料可能具有时点性质,并根据清晰度,风格和长度进行了编辑。海市蜃楼。新闻不受机构限制
所有的位置或侧面,以及所有的视图、位置等
此处表达的结论仅代表作者的观点。点击此处查看全文。