我们永远不会完全理解AI是如何工作的,但这不能阻止你使用它

插图的二世

插图的二世

人工智能解锁的真正潜力,投资者需要接受黑盒。

寻找α可以带我们去一些不寻常的地方——也许没人比得上托马斯·阿奎那的13世纪的作品。他的哲学的格言,“有限非capax英菲尼迪”-“有限不能理解无限”是一个令人信服的理由一个完全未分化的α来源:人工智能。

这个假设应用于人工智能:虽然有一些类型的人工智能,人类可以理解,还有其他的,因为它们的复杂性和高维度,超出了人类智慧的肯。

有明显的迹象表明,我们已经到达了一个临界点,某些类型的人工智能已经超过了人类思维:有限(人类)不能理解无限(先进的人工智能)。

的行业根深蒂固的偏见,因为投资结果必须可辩解的,投资者一直在缓慢接受先进的人工智能和超人的能力,因此,未能考虑独特的α的来源,可以提供更好的投资结果。

一个原型的AI是OpenAI“无限”ChatGPT,聊天机器人纽约时报科技记者凯文自夸笔记”,可以写笑话(其中一些是有趣的),工作计算机代码,和大学水平的论文。它也可以猜测医疗诊断,创建基于文本的《哈利·波特》的游戏,在不同层次和解释科学概念的困难。”

亚博篮球怎么下串

ChatGPT是一个大型的语言模型(LLM),其成功的关键是其生成AI:它使用深度学习和强化学习分析和理解语言的意义,然后生成一个相关的反应。

虽然ChatGPT可能看起来像一个室内游戏,其底层AI可能是革命性的。例如,在最近发表在同行评议的论文自然生物技术,研究人员使用相同类型的LLM,支撑着ChatGPT”生成蛋白质序列与一个可预测的功能在大型家庭,类似于自然语言生成语法和语义正确的句子多样化的主题。”

LLM的惊人的成功,不仅可以称为ProGen,彻底转换医学和医疗,但是,根据作者,这样deep-learning-based语言模型可以使用“解决问题在生物学、医学和环境。”

但这些解决方案都有一个警告:研究者们能够解释他们的模型和输入和评估结果的质量,深度学习模型复杂的体系结构和递归性质使它无法解释多个神经元共同产生一个特定的预测或决策。ProGen,例如,“1.2 -billion-parameter神经网络训练使用公开数据集2.8亿蛋白质序列,“从而无法具体的输入映射到特定的输出,作者写道。

这种unexplainability深度学习的一个内在特征。方言,这是一个黑盒。作为Yoshua Bengio深度学习研究的先驱者,指出,“只要你有足够复杂的机器,它变得几乎不可能完全解释它。”

在他们致力于揭露,AI能够参与的方式基本科学发现,改善人类生活,计算生物学家和其他研究人员接受的结果ProGen和其他黑盒不需要解释的具体决策的人工智能(从而加入我们的哲学名言)。

然而,投资者回避这样的验收。相反,他们坚持教条主义地的信仰声明投资协会:“金融机构必须能够提供清晰的解释如何决定涉及人工智能,在每一个阶段的过程。这些解释必须设置在一个透明的和可以理解的方式,并提供员工、客户、监管机构和其他利益相关方。”

(监管机构正在考虑实施类似explainability要求应用人工智能。例如,欧盟的总体数据保护监管提出个人一个解释的权利的算法决定,尽管恰恰形成这样的解释可能需要或者他们如何被评估尚不清楚)。

这种透明度要求持有投资过程使用或基于深层神经网络标准,即使是传统的投资经理和人类一般不能满足。根据罗马Yampolskiy:“我们甚至自己,理顺我们的决定后,不知道我们的决定或者我们如何让他们直到他们是无意识的。人是出了名的坏在解释某些决策,比如如何识别人脸或者是什么让他们一个特定的人所吸引。这些报道限制生物制剂unexplainability支持的想法是一个普遍的不可能的结果影响足够复杂智能。”

更重要的是,这种需求“清楚的解释如何决定涉及人工智能,在每一个阶段的过程”显示一个深刻的无知等先进的人工智能,因为个人的解释是不可能的。

这种需求是由于错误的要求,再次投资协会表示,“现在已经出现了一些技术和可解释性帮助。”

这种说法基于一个错误的希望。的审查学术文献表明,虽然可以提供广泛的描述一个先进的人工智能系统是如何工作的,当代技术用来解释个人决策”不可靠,或者在某些情况下,只提供表面水平的解释”和“很少信息对个人的决定。”(值得注意的是,学术文献有时区分可解释性和explainability,但这里我们使用术语互换)。

文献通常human-comprehensible解释先进的机器学习决策分为两类:内在explainability和因果explainability。

在他们的”,当前可辩解的人工智能方法的错误的希望在卫生保健,”博士Marzyeh Ghassemi和她的合著者解释,虽然许多基本的机器学习模型在本质上是可辩解的,因为它们的相对简单的模型输入和输出之间的关系可以被量化,那些使用深层神经网络等先进的人工智能模型”太复杂和高维容易理解;它们不能被解释为一个简单的输入和输出之间的关系。”

作为替代,一些研究者试图使用因果解释,但这些都是,就其本质而言,问题。首先,目前的技术用于生产因果解释不可靠地捕捉输入和输出之间的关系可能有错误

更普遍的是,Ghassemi等人指出,因果解释”只是近似模型的决策过程,因此不完全捕获底层模型将如何表现。因此,使用因果解释的质量评估模型决定增加一个额外的误差源,该模型不仅可以对还是错,但可以解释。”

辛西娅·鲁丁教授需要进一步的论证,写作这因果解释”必须是错的,”根据定义不完全忠实于原模型和必须不准确的首要任务。

最后,鲁丁得出的结论是,“你可以有很多解释一个复杂的模型做什么。你挑一个你想要的是正确的吗?”

个人决策的需求解释结合现有explainability技术的不足导致这种缺陷的解决方案,与人类留给自己的设备,以确定哪些因果的解释是正确的。Ghassemi等人认为,“不幸的是,人类倾向于把一个积极的解释:我们假设功能我们会发现重要的是使用了。”

这个以人为中心的性格代表什么样的技术作家本迪克森所说的“思想的以人类为中心的观点,”的谬论,在先进的人工智能,意味着我们认为人工智能决策的人类智慧一样。这个谬论剥夺了我们看到先进的人工智能的能力不仅是一种更强大的思想,但是,《连线》杂志出如此富有表现力,“外星智能感知和处理世界的方式从根本上不同于我们所做的。”

通过人性化关怀的人工智能,我们不仅使平凡的力量但是地方条件无法满足,比如要求明确的解释和应用程序特定的结果,从而限制其效用。

然而,正如我们所看到的,有变化的用例ChatGPT和ProGen explainability需求在哪里与更广泛的科学或商业目标格格不入。在这些情况下,一个黑盒模型不仅是一个更好的选择比一个模型解释清楚;这是唯一的选择。

提出了另一种投资证据确凿的案件传统的投资过程的功能在哪里不够好一致解决问题——具体来说,如何实现α-和将受益于使用深层神经网络模型。

然而,根深蒂固的信念,个人投资决策需要可辩解的限制以及人性化管理器的选择方法和人工智能的基本形式,增强人的过程。它表明,我们选择的解释精度和预测能力,使得人工智能,会产生更好的投资结果有效地影响客户周期表现不佳。

确实令人信服的解释给我们信心,投资过程,建立信任是任何investor-manager关系的关键。然而,信任是一种先进的人工智能,它不需要解释的个人决策。

首先,管理者可以清楚地解释为什么选择模型适合用例。其次,他们可以大致描述模型的设计和它是如何工作的。第三,他们可以明确的选择输入。第四,他们可以描述如何构建特定的模型,验证,并重新培训,经验证明,概括——换句话说,它适应新的,以前看不见的数据。第五,管理人员可以证明模型的现场表演是符合测试期间的表现。

科学学科长期使用这样的实证方法来建立信任的黑盒。当代医学,例如,提供了一个应用该方法评价和验证黑匣子。考虑药物对乙酰氨基酚”,尽管被用于一个多世纪以来,有一个作用机制,仍然只是部分理解,“Ghassemi等人写的。“尽管解释竞争对乙酰氨基酚是如何工作的,我们知道它是一个安全有效的止痛药,因为它已经广泛在众多随机对照试验进行验证。相关的历史已经对照的方法评估医疗干预,人工智能系统的,应该是没有什么不同”(强调)。

他们追求为客户提供投资的结果,我们必须超越传统的投资方法,这意味着放弃解释的恋物癖,克服什么扎卡里·利普顿教授描述了作为我们的“特许机构偏见反对新方法,”和接受“一个足够精确的模型应该明显值得信赖,和可解释性将毫无意义。”

但首先,我们需要接受有限的不能理解无限的。




安吉洛Calvello博士是罗塞塔分析的创始人之一,一个投资经理,使用深度强化学习来构建和管理机构投资者的投资策略。亚博赞助欧冠

相关的
亚博篮球怎么下串