香港理工大学的研究团队利用大型语言模型(LLMs)中的下一句预测(NSP)任务来研究话语级理解机制。他们的研究显示,NSP预训练可以增强模型与大脑数据的一致性,特别是在右半球和多需求网络中,强调了非经典语言区域对高级语言理解的贡献。这表明NSP可以使模型更好地捕捉人类的理解性能并更好地编码上下文信息。研究还发现,模型-大脑一致性与阅读时间呈负相关,意味着更强的一致性关联着更快的阅读速度。此外,右脑在话语理解中的作用尤为关键,特别是在整合连贯句子过程中。这些发现为解决语言神经科学中的问题提供了新视角,并丰富了关于大脑如何在不同层次上分配语义处理任务的讨论。