商务咨询

13020133833

技术支持

18621663782

您的反馈是我们前行的动力

AI正在帮助科学家研究我们的大脑

文章发表于2023-09-13 11:50:57,归属【科技前沿】分类,已有416人阅读

科技前沿

大脑通常被称为一个黑盒子,但任何看过里面的神经科学家都知道,这只是轻描淡写。技术的进步使我们的神经回路越来越容易接近,使我们能够近距离观察任何数量的神经元的活动。然而,大脑的奥秘只会加深。它们的活动是如何将光和声波转化为我们的视觉和听觉的?神经元执行什么计算?它们遵循的基本原则是什么?大脑不是一个黑匣子——它是一个陌生的世界。

人工智能能帮我们解决这个问题吗?也许。但最近的一项认识是,即使是我们在人工智能技术方面研发出强大的工具,但在解码大脑方面仍遇到了障碍。机器学习算法,如人工神经网络,已经解决了许多复杂的任务。它们可以预测天气和股票市场,或者识别物体和人脸,最重要的是,它们在没有我们告诉它们规则的情况下做到了这一点。至少在理论上,它们应该能够自己学习大脑活动数据中隐藏的模式,并告诉我们大脑是如何运作的。它们确实给出了反馈。只是,正如一些科学家发现的那样,这些反馈不一定与我们的大脑有关。

这是冷泉港实验室(简称CSHL)助理教授Tatiana Engel最近在研究大脑决策时发现的。从物理学家转型为计算神经科学家的恩格尔致力于开发数学模型,以帮助解释当我们做出决定时神经元的作用。虽然神经科学家有一些理论,但他们还没有得出一个关于决定是如何在大脑中执行大家都认可的解释,即使是最简单的决定。为了探索更广泛的可能性,恩格尔转向了机器学习:她没有从特定的假设开始建模神经活动,而是从灵活的模型开始,这些模型可以根据数据进行建模,并自己计算出方程的参数。

在这种方法中,最终的模型是根据它们对一组以前从未见过的新的大脑测量的预测程度来判断的。但在此过程中,恩格尔想知道,得分最高的模型是否反映了大脑的潜在逻辑?

恩格尔说:“在神经科学以及其他领域,使用这种灵活的模型可以更好的理解生物系统。”“所以我们建立了一个模型,它可以很好地预测来自系统的数据。然后有这样一种假设,即这样的模型应该以类似于实际系统的方式运行,因此,通过研究模型如何工作,我们将了解系统是如何工作的。”

通常情况下,这种假设是没有根据的。在2020年的一项研究中,恩格尔和她的同事、CSHL的博士Mikhail Genkin研究了灵活的模型对合成数据的处理效果,研究人员知道合成数据的内部动态。他们发现,与直觉相反的是,有时被评为最强预测器的模型,结果却与生成数据的原始系统的核心特征最不相符。“它们可能具有系统中不存在的特征或属性,”恩格尔说。“一个模型可以对数据做出很好的预测,但仍然是错误的。”换句话说,预测能力,机器学习算法的黄金标准,在神经科学应用中可能是一个误导性的指标。

如果没有有效的计算模型,科学家们可能很难理解大量的大脑数据,也很难解释神经活动如何产生大脑功能。恩格尔和其他研究人员的发现,可能会让人觉得对人工智能帮助大脑建模的承诺是一个打击。然而,这些问题并不是无法克服的,恩格尔说。她和其他人已经想出了避免这些陷阱的办法。他们正在开发方法,使他们能够继续使用人工智能的强大工具,而不会被误导。

 

这只是冰山一角

用计算机来描述神经元行为的尝试,总是得到一些小教训,即使这些尝试是成功的。1952年,Alan Hodgkin和Andrew Huxley将神经元想象成一个电路,其电阻和电容可以产生与神经元特有的尖峰电流相似的电流,尖峰电流是大脑中通信的基石。该模型被证明是一项关键的成就,但仅仅通过观察方程来了解这一点远非易事。Huxley花了几天时间,煞费苦心地在机械计算器中输入电压数字,看看电路的结果是否与真实神经元的结果相符,他对这个相对简单的模型的复杂行为感到惊讶。“我的预期往往是错误的,”十年后他在诺贝尔奖演讲中回忆道。“我从这些人工计算中学到的一个重要教训是,在试图处理这种复杂程度的系统时,人的直觉是完全不够的。”

神经科学家现在面临着更高数量级的复杂性,因为他们已经开始研究活体动物和人类的神经元群。即使仅仅来自100个神经元的数据也很多。它是动态变化的,没有明显的韵律和原因。而且无法确定哪一部分与被研究的大脑功能真正相关。这些因素使得用概念模型或数学模型来描述神经活动变得更加困难。

更难的是弄清楚哪个模型能够解释神经元的真实情况,哪个模型是偶然匹配上的。在不知道大脑的基本规则的情况下,科学家能做的最好的事情就是看看这些模型是如何相互比较的。

“这就像我们所看到的是一辆行驶的汽车,我们必须通过对引擎盖下发生的事情做出假设来找出它是如何运动的,”波士顿大学的神经科学家Chandramouli Chandrasekaran说,他与恩格斯合作进行决策研究。“然后,我们试图找出哪一个提议的想法,比如模型A和模型B,更符合我们对汽车运动的测量。”

Chandrasekaran说,尽管这种方法越来越受欢迎,但它仍然可能在一些重要方面失效。作为一名从事大脑测量的计算和实验的研究人员,Chandrasekaran深知,神经活动根本不像一辆平稳行驶的汽车——它太复杂,无法完全符合我们粗略绘制的模型的线条。“实验数据往往更加复杂和异构。事情就是这样。它并不像你想象的那么简单。” Chandrasekaran已经表明,在实践中,这意味着神经活动的切向变化有时会导致它被归类为模式A,而实际上它遵循模式B,反之亦然。这就是为什么直接比较两个模型并不能保证找出正确的模型的原因之一。

最近在决策领域爆发的一场激烈辩论凸显了这些困难。它始于2015年《科学》杂志上一篇有争议的论文,该论文比较了大脑如何做出决定的两种模型,特别是感知决策。感知决策涉及大脑对接收到的感官信息做出判断:是红色还是绿色?它是向右移动还是向左移动?简单的决定,但如果你在一个交通站点,后果会很严重。为了研究大脑是如何制造它们的,研究人员几十年来一直在记录动物神经元群的活动。当神经元的放电速率被绘制出来并在试验中取平均值时,它会给出一个逐渐上升的信号,“加速”到一个决定。

一个自1990年以来就存在的且有影响力的模型,反映了神经元逐渐积累的证据。换句话说,这就是神经元发出决定信号的方式:当它们收集支持一种选择或另一种选择的证据时,通过增加它们的放电频率,直到它们达到特定频率才停止。然而,2015年的研究质疑,这种上升是否是在试验中平均的产物。分析单一试验中混乱的有限数据要困难得多,但其中发生了什么呢?神经元的放电速率是真的上升了,还是有离散的跳跃?这种区别可能指向不同的决策策略。他们的分析表明,神经元的反应与跳跃模型比斜坡模型更匹配。经过几年的研究,科学家们仍然没有一个确切的结论,哪个模型是正确的。

情况可能会更糟糕:两个模型都可能不正确。“如果有一款C型车呢?”还是D ?”恩格尔说。如果她可以测试一个连续的模型,而不是两个模型呢?这就是灵活建模最有用的地方,因为它不会将她限制在少数几个场景中。但恩格尔发现,这种方法也可以选择与物理现实没有太多共同之处的场景。首先,她必须找到解决这个问题的方法。

 

反映现实的

灵活的模型是根据机器学习的目标开发的:优化预测能力。通过这种方式,他们可以从一组数据中吸取教训,并将其应用于他们以前从未见过的新数据。例如,当构建一个分类器来区分猫和狗时,目标是在现实世界中它仍然可以区分猫和狗。算法是否使用与我们大脑相同的策略来实现这一点并不重要。事实上,在这种情况下,它绝对不是。

另一方面,神经科学家有一个不同的目标:他们不只是想把一个模型与数据相匹配,而是想从数据中发现假设。他们想要一个可以从神经活动中学习如何像神经元一样的模型。恩格尔说:“我们必须放弃这种优化预测模型的想法,并提出一种新的方法,提出一个不同的目标。”她和Genkin一起关注这样一个事实,即在不同的数据样本中,真实特征是相同的,但噪声是不同的。因此,他们开发了一种新的程序,可以在不同的数据样本上发现模型,并提取它们的共同特征。这种新方法确定了合成数据的正确模型。当应用于真实的大脑数据时,它对每个样本都得出了相似的模型,这表明与传统方法的胡乱猜测不同,这些模型捕捉到了系统的一些真实特征。

该解决方案发表在《自然机器智能》杂志上,它将使灵活的模型在其最初目的之外更具可扩展性,对生物科学也更有用。恩格尔说,这可能不是神经科学中使用的所有人工智能工具的解决方案,但它可以改善神经科学家广泛使用的灵活模型的应用。

对恩格尔本人来说,它已经开始对决策产生新的见解。与Chandrasekaran合作,该团队正在探索他们最初的问题:什么样的模型最能描述决策过程中的神经活动?到目前为止,他们看到的既不是斜坡,也不是跳跃。他们的发现能解决这场争论吗?还是把它归为下一轮研究?希望我们很快就能知道。