《电子技术应用》
您所在的位置:首页 > 模拟设计 > 业界动态 > 人工智能让低分辨率MRI扫描图片变得更加清晰

人工智能让低分辨率MRI扫描图片变得更加清晰

2017-06-29
关键词: 人工智能 MRI 中风

  用核磁共振成像(MRI)扫描大脑会产生许多2-D的“切片”,可以合成构建大脑的3-D演示。中风患者往往会在医院进行脑部扫描,这样医生才能够找出和确认受损的位置和区域。如果进行大脑的高分辨率扫描通常需要30分钟,但在中风的情况下,这个时间太长了。因而,通常医院接收中风患者时,会进行快速脑部扫描。这种快速扫描切片间的间隔为7mm,而高端科学研究中通常会以间隔1mm进行切片扫描。医生会从这些扫描图像中对中风的影响进行分析,但是往往这种快速临床扫描的分辨率过低,使得很多用于辅助分析的计算机算法难以进行。

  “这些图像是独一无二的,因为它们是当患者由于中风入院时,在临床实践中获得的,”MIT电气工程和计算机科学教授Polina Golland说,“这样的研究是你难以筹划的。”

1498569404926636.jpg

  人工智能让原本分辨率极低的图片,变得清晰(图片来源:MIT)

  这些来自医院临床的中风扫描是大量数据财富,为了帮助科学家们更好的利用这些扫描图像,来自MIT的研究团队协同麻省总医院的医生和其他的机构,开发了一种提高这些扫描质量的方法,这样就可以将这些临床数据用于大规模的中风研究。通过这些扫描,研究人员可以研究遗传因素是如何影响中风存活率以及患者对不同的治疗方案是如何响应的。他们也可以通过这个途径去研究一些其他的疾病,例如阿兹海默病。

  填补数据

  对于中风患者的临床扫描,成像由于扫描的时间限制会快速的进行,扫描的“切片”非常的稀疏,意味着成像的切片有着5-7mm的间隔。(片内分辨率为1mm)

1498569409887029.jpg

  MIT电气工程和计算机科学教授Polina Golland(图片来源:MIT)

  对于科学研究,研究人员通常要获得更高分辨率的成像,切片之间的间隔只有1mm,这需要扫描更长的时间。科学家们开发了专门的计算机算法来分析这些成像,但是这些算法在低质量的医院扫描成像上就不是那么适用了。

  MIT的研究人员与来自麻省总医院和其他医院的研究人员共同合作,他们对如何利用这些大量的患者扫描图像非常的有兴趣。相对于那些小范围的高质量扫描研究,这些丰富的临床资源可以允许他们从中学到更多的东西。

  他们共同开发了一种新方法,从基本上填补每个患者扫描中缺少的数据,通过从整个扫描集合获取信息并使用它来重新创建其他扫描中缺少的解剖特征来完成。

  Golland说:“关键的概念是生成解剖学上合理的图像,用算法使之看起来像是那些研究扫描,并且与获得的临床图像完全一致。一旦你这样做,你可以应用所开发的最先进的算法,用于获得漂亮的研究成像,并如同科研图像一般运行相同的分析,并得到结果。”

1498569416224460.jpg

  普通MRI图片的一大局限在于分辨率(图片来源:MIT)

  一旦生成了这些科研质量的图像,研究人员就可以运行一组旨在帮助分析解剖特征的算法,包括切片的对齐以及称为头骨剥离的过程——除去除大脑以外的其他结构成像。

  在整个过程中,算法会跟踪哪些像素来自原始扫描,以及之后填充哪些像素,以便稍后进行的分析。例如测量脑损伤的程度这样的分析,则只能在原始扫描的信息上进行。

  “从某种意义上说,这是一个支架,可以让我们将图像放入集合中,就如同它是一个高分辨率的图像,然后只对我们拥有信息的像素进行测量,”Golland说。

  更高质量

  麻省理工学院的团队开发出了这种用于增强低质量图像的技术,现在,他们计划将其应用于来自包括12间医院在内的大约4,000次中风成像扫描。

  “了解对白质造成的损伤的空间模式,有助于我们更详细地了解疾病如何与认知能力相互作用,以及从脑卒中恢复的能力等等,”Golland指出。

  研究人员还希望将此技术应用于其他脑部疾病患者的扫描。

1498569427711663.jpg

  人工智能将改变我们对疾病的治疗(图片来源:SiliconANGLE)

  “它打开了很多有趣的方向,”Golland说,“在日常医疗实践中获得的图像可以给出解剖学洞察力,因为我们将质量提升到了算法可以分析的程度。”


本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。