原标题:数据洪流已至 生成式AI如何助力神经影像学研究?
在过去十年中,神经影像学已迅速发展为一个数据密集型的“大数据”学科。随着数据共享的普及,研究者们现在能够访问规模空前的神经影像数据。仅在2020年5月至2021年4月间,OpenNeuro平台上就增加了406TB的数据[1]。
▷2018年~2021年OpenNeuro平台上的可用数据集(绿)与被试(红)数量稳步增长。图源:The OpenNeuro resource for sharing of neuroscience data. eLife, 10, e71774. https://doi.org/10.7554/eLife.71774
数据体量的增长,既带来了重要机遇,也伴随生出诸多新问题。在当前环境下,研究者们愈发意识到加强数据科学与统计学训练的必要性。尽管已经出现了如Brainhack等开放科学社区以及NeuroMatch Academy等教学项目,但要应对这些挑战,却还远远不够。
针对这一现状,近年来出现的生成式AI(generative AI),或许有望彻底改变神经影像学研究范式。
▷Elizabeth DuPre,Russell Alan Poldrack;The future of data analysis is now:Integrating generative AI in neuroimaging methods development.Imaging Neuroscience 2024;2 1–8.doi:https://doi.org/10.1162/imag_a_00241
01生成式AI与神经影像学
生成式AI结合生成模型与深度神经网络,能够根据文本或图像提示生成新的文本、图像和音频。生成式AI的实际应用中,尤其是AI辅助编程被认为可以提高开发者的生产力,减少低级细节问题,节省大量时间,带来更愉悦的编程体验。
生成式AI将如何改变脑影像研究?我们可以以史为鉴,从数据科学的发展中一窥究竟。
1962年,约翰·图基(John Tukey)在《数据分析的未来》一书中呼吁创建一种系统化科学数据分析方法——数据科学[2],他特别强调对自动化、标准化统计程序的开发,以代替对个别研究者的专业知识的依赖。他警告人们:
随着数据量的增加,大部分的数据分析工作,将由缺乏经验而时间有限的人力来完成;而如果未能为这些人提供相应的工具,则会有更多数据未经分析。
▷约翰·图基(John Tukey),图源:APS
而这也正是神经影像学面临的困境——由于缺乏专业的数据科学训练,分析方法在实验室之间,甚至实验室之内,都存在差异。
对此,研究者们开发了BIDS(Brain Imaging Data Structure)等数据标准以及Nipreps等生态系统,在一定程度上填补了这些空白。Nipreps基于AFNI、FSL等软件,在常见的功能性磁共振成像(fMRI)的预处理方法上实现了自动化。
Nipreps生态系统突显了神经影像学方法开发的两大核心问题:
在尚未实现标准化的领域(如影像质量控制),需要继续推动分析方法的标准化;
在预处理后的数据分析阶段,分析方法的选择往往取决于特定的研究问题和任务设计,该过程需要实现自动化。
生成式AI,具有解决这两大难题的巨大潜力。“神经AI”(NeuroAI)等方法有望对神经科学的方法论和理论基础产生巨大影响。仅就方法论而言,AI可能为神经科学带来重大变革;然而,AI也可能引发新的问题——如果研究者对其认识不足,它可能反而会阻碍领域的发展。
02生成式AI与影像质控
图基强烈主张将现有的统计方法自动化。然而,这在神经影像学中却很难推进。一些实验方法尚未统一明确量化指标,不同研究者有各自侧重的指标,因而难以实现自动化。
以生成实验刺激图片为例,虽然像MidJourney和StableDiffusion等生成式AI能够轻松生成多种图像,但问题在于——研究人员须在有限的实验时间内选择优先考虑哪些图像。这体现了神经影像学方法自动化的复杂性:即便有了先进的AI工具,研究人员的判断仍然至关重要。
另一个更明显的例子,在影像质控时,人工检验仍然是金标准。在不同的科学问题中,使用的质控方法不同。即便是人工检验,不同专家的质控打分也可能有所不同。而即便存在不确定性,鉴于有待检验的数据量巨大,学界必须着手研发无需依赖参考图像的质控指标,以指导人工检查及后续的机器学习。
虽然存在这些挑战,但我们仍有理由保持乐观。在神经影像预处理方面,NoBrainer和FastSurfer等方法,已经实现在保持高质量输出的前提下,利用AI大幅减少了图像分割等图像任务的计算时间。AI在神经影像数据处理中表现出巨大潜力。然而,现有的这些工具的广泛验证是基于大量公开可用的有标注数据集进行的;而到目前为止,研究者仍难以获取大型有标注数据集以用于验证质控结果。
通过众包来增补现有的质控标注,是一种潜在的解决方案。Swipes for Science、Brainmatch等项目已经成功地利用分布式公民众包科研,生成了大量质控标签。虽然这些方法潜力巨大,但AI的日益普及却使它们的可靠性遭到质疑。越来越多的众包正在使用ChatGPT等工具来完成任务,尤其是允许自由输入文本的任务。如果用这些AI生成的内容来训练模型,可能会造成“模型崩溃”。
近来,质控流程演示(Demonstrating Quality Control Procedures)等诸多项目,已逐渐转为关注标签生成任务本身。由此生成的质控流程,可能反过来对未来的AI应用至关重要。例如,生成式AI可通过增加特定标签的可用数据(例如“环状伪影”),来评估评分者之间的一致性。然而,其中一些质控程序和标签可能只适合特定人群,例如,用于卒中患者划分病灶区域的方法,并不适用于健康人群。在这种情况下,有限的数据量和隐私问题可能有碍于大规模的数据标注的实现。
联邦学习(Federated Learning)等其他算法,则提供了另外一种思路——通过模型共享而非数据共享的方式来训练联合模型。类似地,神经影像基础模型(Neuroimaging Foundation Models)或可实现将经过预训练的数据密集型模型迁移到小而专的数据集上。但是,重点是,这些范式都需要对数据进行严格的标准化处理,以确保模型能迁移到不同的应用环境中。
03 AI辅助编程在神经影像分析中的具体应用
在神经影像分析环节,统计方法的自动化也难以推进。
部分原因在于,分析方法的多样性。二十多年来,一阶和二阶广义线性模型,一直是fMRI分析的基石;然而直到近几年,才出现专门将这些常见分析整合在标准格式中的工具(例如FitLins)。没有标准化且可机读的输入和输出结构,便难以通过AI或其他工具实现自动化。
标准化的广义线性模型算法仍在开发中,其他较新的方法也大多没有实现标准化。在这种情况下,研究人员需要确保他们的代码正确执行所需的分析。对于代码基础薄弱的研究者而言,这可能会阻碍他们探究某些科学问题,或使其得出错误的结论。
在这些场景中,AI辅助编程是一个颇具吸引力的解决办法,可以像“催化剂”一样加速研究进程。
当然,AI辅助编程也不是完美的,它只是将负担从“代码编写”转移到了“代码审阅与测试”。用AI生成的代码进行测试,如果产生阴性结果,是测试的问题还是代码的问题?代码的输入和输出是否合理?这些问题仍然需要熟悉编程的研究人员来解决。
另外,虽然AI辅助编程可用于某些分析场景,如编写大项目中的单个简单函数;但如若将其扩展到神经影像分析的全流程,出错的可能性也将大大增多。研究人者缺乏单一的度量标准来对结果进行基准测试,因此很难区分AI生成的代码是在产生有意义的差异,还是引入难以发现的错误。
对此,如果能获取已有结果背后的数据和代码,则可进一步验证生成的代码:
“在AI的帮助下,可否将已有的代码迁移到新数据上?”
“如果在原始数据上运行生成的代码,产生的结果是否和原始结果相似?”
这可为已有结果的鲁棒性和可重复性提供参考,同时也能确认新的代码能够复现相应的分析。但是,这也有赖于已有实验的数据和代码是否开源。
04 AI辅助工具与开放科学之间的关系
过去十年间,开放科学已成为神经影像学方法研发的关键驱动力,大量的研究致力于将常见的分析流程标准化。开放科学实践与AI辅助工具相辅相成。
那么,AI辅助工具将如何影响开放科学及其在神经影像方法开发中的应用?换言之,当数据和代码可以通过简单的命令生成时,AI辅助工具是否会减少数据共享和代码开源等开放科学做法?
其他领域的证据表明,情况恰恰相反。近期,数据科学领域的领军人物David Donoho提出,AI的商业化成功反映了经验机器学习中深厚的数据科学文化。他不仅倡导代码开源和数据共享,还倡导通过公开的预测挑战等明确的方法来比较各种分析方法。
尽管预测挑战在神经影像学中难以成功,但这种通过明确的指标评判结果的理念,对于充分利用生成式AI研发神经影像学方法而言至关重要。如果没有明确的结果指标,就需要强大的人在闭环(human-in-the-loop systems)来审核AI应用,这与图基倡导的自动化分析相悖。因此,要想在脑影像领域推广生成式AI,首先要在标准化上下功夫。令人鼓舞的是,质控流程演示(Demonstrating Quality Control Procedures)等项目,正致力于将模糊的评判标准标准化。
尽管如此,还有大量工作仍有待完成,其中包括如何使影像分析结果符合“可发现、可访问、可互操作、可重复使用”的标准,以便接受其他研究者的客观评估。虽然生成式AI或能推动这一进程(如开发新的人工标签示例等),但进一步的进展仍有赖于人类主导的标准化进程。
因此,从目前学界全力研发自动化分析方法的趋势来看,生成式AI短期内不会取代现有的开放科学项目。相反,它将要求研究人员将数据和代码公开,还要提供明确的结果,以便在实验之间相互比较。
神经影像分析复现与预测研究(Neuroimaging Analysis Replication and Prediction Study)表明,不同的研究团队在同样的数据上开展相同的分析,其结果可能会相去甚远(但该研究却并未提供一个清晰的框架用以比较各个团队的结果)[2]
多元宇宙样分析(Multiverse Analysis)或更通用的“振动”分析(“Vibration”Analysis),或能校正给定实验可能的结果范围。理想情况下,这些校正分析可以指导生成公开的评判指标。然而,目前仍然需要继续推进代码和数据公开,以便开展这些校准分析。这将有助于推广新兴的AI辅助方法。
05结语
作为数据密集型领域,神经影像学有赖于数据科学以取得方法上的创新。然而,目前大多数研究人员缺乏必要的数据科学训练。生成式AI工具或有助于填补这一缺口,但在此过程中,它需要与现有的神经影像学方法研发体系相互配合,包括数据与代码共享等开放科学理念。本文认为,AI工具的出现不会取代开放科学,反而会凸显其重要性。
但这也并不意味着开放科学与基于生成式AI方法之间完美协调。例如,欧盟通用数据保护条例(The European Union’s General Data Protection Regulations)认定去除面部的脑影像为隐私数据;而在包括美国在内的多数国家,未经匿名化处理的脑影像也被视为隐私数据。因此,将脑影像直接发送给生成式AI工具,在多数情况下并不符合伦理标准。
AI和开放科学的其他交互则更难厘清利弊。例如,AI辅助编程将大幅度降低编程门槛,使研究人员更容易参与到研究软件工程师社群(Research Software Engineers)等开放科学项目之中,共同开发新的方法。但由于这些项目受到的资助有限,以及开发者用以审阅代码和维护项目的时间有限,AI轻易生成的代码可能会带来新的问题。
总的来说,为了利用好AI,我们需要回归数据科学的核心原理。尤其是要开发明确的评价指标以比较不同研究的结果,这将有望整体促进AI辅助工具的应用和神经影像学方法的发展。