400-1100-266
9:00-24:00(工作日)
随着言语进入我们的脑海,我们形成了某人对我们所说的话的想法,那到底这些想法是如何在我们脑中产生的。 书读百遍其义自见,一个词有多重含义,但我们可以根据之前所说的内容推断出那个词对于那个词的含义,那大脑如何联系这些概念的。 人工智能' target='_blank'>人工智能(AI)能帮助我们理解大脑如何理解语言吗?神经科学可以帮助我们理解为什么AI和神经网络在预测人类感知方面是有效的吗? 来自德克萨斯大学奥斯汀分校(UT Austin)的Alexander Huth和Shailee Jain的研究表明两者都有可能。 在2018年神经信息处理系统会议(NeurIPS)上发表的一篇论文中,学者们描述了使用人工神经网络比以往更准确地预测大脑中不同区域如何响应特定单词的实验结果。研究人员认为使用人工神经网络比以往更准确地预测大脑中不同区域如何响应特定单词。 实验内容 研究人员进行了相关实验,以测试并最终预测大脑中不同区域在听故事时的反应(特别是蛾类无线电小时)。他们使用从fMRI(功能磁共振成像)机器收集的数据,根据神经元的活跃组,捕获大脑血液氧合水平的变化。这是语言概念在大脑中代表的对应物。 研究人员利用德克萨斯高级计算中心(TACC)的强大超级计算机,通过LSTM方法训练了一个语言模型。当试图预测下一个词时,这个模型必须隐含地学习关于语言如何运作的所有其他内容,就像哪些词语倾向于跟随其他词语,而不是实际访问大脑或任何有关大脑的数据。 基于fMRI数据和语言模型,研究人员训练了一个系统,可以预测大脑第一次听到新故事中每个单词时的反应。 根据新的研究表明,添加语境元素 - 在这种情况下,最多20个单词 - 可以显着改善大脑活动预测。他们发现,即使使用最少量的上下文,他们的预测也会有所改善。提供的上下文越多,其预测的准确性就越高。 如果LSTM包含更多单词,那么它就能更好地预测下一个单词,这意味着它必须包含过去所有单词的信息。 研究进一步深入。它探讨了大脑的哪些部分对所包含的上下文量更敏感。例如,他们发现似乎局限于听觉皮层的概念较少依赖于背景。如果你听到狗这个词,这个区域并不关心那之前的10个单词是什么,它只会响应狗的声音。另一方面,当涉及更多背景时,更容易确定处理更高层次思维的大脑区域。这支持了心灵和语言理解的理论。 要求更高的计算能力 LSTM(以及一般的神经网络)通过将高维空间中的值分配给各个组件(此处为单词)来工作,这样每个组件都可以通过其与许多其他事物的数千种不同关系来定义。 研究人员通过从Reddit帖子中提取数以千万计的单词来训练语言模型。然后他们的系统预测了六个主体大脑中的数千个体素(三维像素)将如何响应模型和个体之前都没有听过的第二组故事。因为他们对上下文长度的影响以及神经网络中各个层的影响感兴趣,所以他们基本上测试了每个受试者的60个不同因素(20个长度的上下文保留和3个不同的层维度)。 所有这些都导致大规模的计算问题,需要大量的计算能力,存储器,存储和数据检索。TACC的资源非常适合这个问题。研究人员使用Maverick超级计算机(包含用于计算任务的GPU和CPU)和Corral(一种存储和数据管理资源)来保存和分发数据。通过将问题并行化到许多处理器,他们能够在几周而不是几年内运行计算实验。 同时为了有效地开发这些模型,需要大量的训练数据,这意味着每次要更新权重时都必须通过整个数据集。 端到端系统 研究人员开发了一个直接预测大脑反应的模型,称之为端到端系统,而Huth和Jain希望在未来的研究中采用这种方式。这样的模型将直接改善其对大脑反应的表现。对大脑活动的错误预测会反馈到模型中并刺激改进。这样的模型将直接改善其对大脑反应的表现。对大脑活动的错误预测会反馈到模型中并刺激改进。 Jain说道大脑是一种非常有效的计算机器,人工智能的目的是建立能够完成大脑所能完成的所有任务的机器,但是,我们对大脑并不了解很多。因此,我们尝试使用人工智能来首先质疑大脑是如何工作的,然后,根据我们通过这种审讯方法获得的见解,以及通过理论神经科学,我们使用这些结果来开发更好的人工智能。
标签:绵阳 大兴安岭 吕梁 黄南 天门 赣州 承德 丽江
上一篇:杭州大坝科技有限公司18款丨语音识别系统的使用
下一篇:AI应用 | 语音识别,让机器听懂这个世界