CN112308817A - 对结构的自动定位 - Google Patents

对结构的自动定位 Download PDF

Info

Publication number
CN112308817A
CN112308817A CN202010743256.7A CN202010743256A CN112308817A CN 112308817 A CN112308817 A CN 112308817A CN 202010743256 A CN202010743256 A CN 202010743256A CN 112308817 A CN112308817 A CN 112308817A
Authority
CN
China
Prior art keywords
gaze
image
training
computer
preparation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010743256.7A
Other languages
English (en)
Inventor
M.伯格
A.内科瓦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Publication of CN112308817A publication Critical patent/CN112308817A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Image Analysis (AREA)

Abstract

根据一种用于对结构(9)进行自动定位的计算机实现的方法,在显示面(12)上显示映射具有结构(9)的对象的单图像(17)。借助视线采集系统(18)采集用户(19)的视线运动,并且基于该视线运动生成视线采集信号。借助计算单元(13),依据视线采集信号,识别单图像(17)的至少一个图像点(20),该至少一个图像点至少部分地映射结构(9)。

Description

对结构的自动定位
技术领域
本发明涉及一种用于对结构进行自动定位的计算机实现的方法,其中,在显示面上显示映射具有该结构的对象的单图像。此外,本发明涉及一种用于对结构进行自动定位的装置、一种用于训练软件模块的计算机实现的方法以及一种计算机程序。
背景技术
在通过人员以图像支持的方式分析或操纵对象的不同的应用中,例如在医学应用领域中,正确确定图像数据中结构的位置对于进一步的方法步骤具有决定性的意义。在医学方面,例如对于分析方法或诊断方法或者在通过成像方法(例如基于透视的方法)来支持的干预就是这种情况。特别是对于许多医学应用,对解剖对象的正确分割对于进一步的治疗步骤或分析步骤是决定性的。
现有的用于在图像数据中进行结构定位的分割方法和其他方法需要用户输入或通过用户来选择图像点或图像区域,以便能够提供合适的结果。例如,用户可以手动放置种子点,这些种子点也可以被称为用于分割的初始点,这些种子点位于感兴趣的解剖结构内,或者绘制出围绕该结构的近似轮廓。
用户与定位系统或分割算法的手动交互是不利的,因为该手动交互打断了用户的工作流程,从而分散了该用户的注意力并且还占用了相应的时间。此外,该交互需要通过用户来对输入设备进行物理操作,这在无菌环境中尤其不利。
发明内容
因此,本发明要解决的技术问题是,提出一种用于对图像中的结构进行自动定位的改进的设计,该改进的设计能够实现更高的自动化程度并减少用于定位结构的手动步骤。
根据本发明,上述技术问题通过本发明的相应的主题来解决。有利的扩展方案和进一步的实施方式是本发明的主题。
改进的设计基于以下思路:借助视线采集系统采集用户的视线运动,并且依据所采集到的视线运动来识别、特别是自动地识别涉及结构的至少一个图像点。
根据改进的设计的一个独立方面,提出一种用于对结构进行自动定位的计算机实现的方法。在此,特别地借助计算单元,将映射具有该结构的对象的单图像显示在显示面、特别是显示设备的显示面上。特别地,在将单图像显示在显示面上期间,借助视线采集系统,采集用户、特别是成像装置或用于对结构进行自动定位的装置的用户的视线运动。基于所采集的视线运动,特别地借助视线采集系统来生成视线采集信号。借助计算单元,依据视线采集信号,识别、特别是自动地识别单图像的至少一个图像点,其中,该至少一个图像点至少部分地映射该结构。
可以将对结构的定位理解为确定结构或结构的一部分的位置。
对象例如可以是人体或动物体的一部分、例如一个或多个器官或其他解剖对象,或者是植物的一部分。对象也可以是无生命的对象。
特别地,结构是对象的感兴趣区域,即与对对象的分析、治疗或操纵相关的区域。例如,可以是对象的点或区域。在医学方面,结构可以是解剖结构或解剖对象的一部分。结构例如可以是器官、解剖血管、肿瘤或其对应的一部分。在此,术语肿瘤可以基于广泛的理解,使得从中除了身体组织的赘生物之外,还可以包括其他的组织实体瘤、囊肿等。
特别地,单图像是对应的图像数据组的表示,该图像数据组例如至少包含该图像数据组的各个图像点的灰度值以及各个图像点的相关位置。
特别地,单图像可以是对象的二维图像或者是对象的三维表示的二维部分。
特别地,至少一个图像点是一组图像点,例如是相干的一组图像点。
图像数据组例如可以以存储形式存在。为了在显示设备的显示面上显示单图像,计算单元可以访问所存储的图像数据组。为了显示图像数据组,计算单元或显示设备还可以实时地从成像装置接收图像数据组。
至少一个图像点至少部分地映射结构例如可以被理解为对该结构的完整映射包含至少一个图像点。换言之,在单图像中通过包含至少一个图像点的大量图像点来表示该结构。
特别地,对至少一个图像点的识别包含在单图像中对至少一个图像点、特别是至少一个图像点中的每个图像点的位置的确定,即,特别是对至少一个图像点的定位。
换言之,根据改进的设计来确定,单图像的哪些图像点对应于用户的视线运动或者对应于通过视线运动而确定的显示面上的视线位置。特别地,通过与至少一个图像点相关联,这超越了单纯地确定显示面上的视线位置以及必要时追踪视线位置。
通过改进的设计,特别地利用了以下事实:装置的用户通常可以基于对应的经验或专业知识,以高的准确性和高的可靠性来将相关的图像区域与不太相关的图像区域区分开。相应地,用户的视线优选地移到显示面上属于结构的位置。因此,特别是在医师或其他医务人员的情况下,使用了以用户的视线运动形式存在的并且在一定程度上“存储”的用户的专家知识,以便在没有用户与系统的另外的手动交互的情况下识别至少一个图像点。
因此,使对结构的定位或可能的随后的解剖分割完全或部分地自动化,并且减少了用户与系统的手动交互,使得不必中断用户的工作流程以便例如手动设置或限定种子点或结构的近似轮廓。特别是在无菌环境中,由此省去了对诸如计算机鼠标或键盘的输入设备的操作是有利的。
因此,按照改进的设计,可以有效地利用用户的经验,而不必根据规则、工作指示等来明确地表述用户的经验。
所识别的至少一个图像点例如可以由计算单元用于对结构进行分割、特别是解剖分割。
在不同的实施方式中,所识别的至少一个图像点可以借助计算单元用于定位对象中的特征位置或相关位置,即,用于在图像上定位所谓的区段标志。
根据按照改进的设计的用于对结构进行自动定位的计算机实现的方法的至少一个实施方式,借助计算单元依据视线采集信号确定显示面上的视线位置。特别地,借助计算单元,基于视线位置来确定至少一个图像点。
换言之,基于用户的视线运动,确定用户注视显示面的哪个点或哪个区域,或用户聚焦显示面上的哪个区域。通过将视线位置与至少一个图像点相关联,依据视线位置确定至少一个图像点。
由于至少一个图像点对应于用户的视线位置,可以假定,至少一个图像点表示对于用户增高了兴趣的区域,使得可以将该对于用户增高了兴趣的区域考虑用于定位结构,以及例如用于分割结构。
例如,将与视线位置对应的图像区域用作用于分割的种子点可以代替通过用户手动输入种子点。
根据至少一个实施方式,特别地借助计算单元,将包含单图像和至少一个另外的单图像的图像序列显示在显示面上。特别地,借助视线采集系统,在显示图像序列期间例如持续地采集用户的视线运动,并且特别地借助视线采集系统,基于在显示图像序列期间所采集的用户的视线运动来生成视线采集信号。
特别地,为了在显示面上显示图像序列,依次地并且必要时周期性地重复显示单图像、特别是单图像和至少一个另外的单图像,其中,以预先给定的显示持续时间显示每个单图像或另外的单图像。
特别地,在显示图像序列期间采集用户的视线运动可以被理解为在显示单图像期间以及在显示另外的单图像中的每一个期间采集视线运动。
在不同的实施方式中,单图像和至少一个另外的单图像形成大量的至少两个的单图像、特别是至少五个、优选地至少十个或至少30个单图像。
对图像序列的显示允许通过对对象或结构的动态表示来在显示面上提供更多的信息或更高的信息密度,例如对象或结构的运动。在医学方面,例如,也可以通过图像序列来可视化血流。
由于提供给用户的更高的信息密度,该用户可以以更高的可靠性或准确性来识别结构。相应地,对视线采集信号或视线运动的分析同样也更可靠或更准确。因此,能够实现对结构的更准确的定位,并且必要时能够实现对结构的更准确的分割。
根据该方法的至少一个实施方式,特别地借助计算单元,依据视线采集信号,为至少一个另外的单图像的每个另外的单图像分别识别至少一个另外的图像点,其中,相应的至少一个另外的图像点至少部分地映射结构。
在此,至少一个另外的图像点例如可以相应于单图像的至少一个图像点,或者可以位于结构的另外的位置处。
根据至少一个实施方式,依据视线采集信号,特别地借助计算单元,针对每个另外的单图像,确定显示面上的相应的另外的视线位置。基于相应的另外的视线位置确定相应的至少一个另外的图像点。
根据至少一个实施方式,特别地借助计算单元并且特别地依据视线采集信号,将所识别的至少一个图像点的位置以及必要时至少一个另外的图像点中的每一个的相应的位置存储在存储介质上。
根据至少一个实施方式,重复至少一次、特别是多次地、例如周期性地重复对图像序列的显示。借助视线采集系统,在多次重复期间、即在至少两次重复期间或在所有的重复期间采集视线运动,并且基于在多次重复期间所采集的视线运动来生成视线采集信号。
通过必要时的多次重复,可以验证图像点的位置或用户的视线位置,和/或可以为单图像或另外的单图像确定附加的视线位置。相应地,可以以更高的准确性和更高的可靠性来确定至少一个图像点或相应的至少一个另外的图像点。
根据至少一个实施方式,例如借助计算单元来暂停对图像序列的显示。在暂停期间,特别是静态地显示单图像或另外的单图像中的一个。在暂停期间,借助视线采集系统来采集视线运动,并且基于在暂停期间所采集的视线运动来生成视线采集信号。
例如可以自动地或通过用户输入来启动暂停。
在此,例如可以针对预先给定的持续时间进行暂停,或者通过另外的用户输入来结束暂停。
通过暂停以及用户可以注视对应的单图像的对应较长的持续时间,对于每个单图像,可以采集或确定映射结构的附加的视线位置和对应的图像点。由此特别地,可以减少所需的图像序列的重复次数和/或可以更准确地进行对结构的定位。
根据至少一个实施方式,借助成像装置来对对象进行映射,以便生成单图像并且必要时生成至少一个另外的单图像。
特别地,成像装置可以是X射线设备、计算机断层成像设备、磁共振断层成像设备、用于放射性核辐射的设备或超声设备。
特别地,成像装置是可以对对象进行时间分辨或与时间相关的映射的装置。
根据至少一个实施方式,借助视线采集系统采集至少一个另外的用户的至少一个视线运动,并且基于所采集的至少一个另外的视线运动,借助视线采集系统生成至少一个另外的视线采集信号。借助计算单元从视线采集信号和另外的视线采集信号中识别出至少一个图像点。
在这种实施方式中,不仅可以使用例如执行对对象的分析或操纵的用户的经验,而且还可以使用例如辅助用户的另外的用户的经验,以便对结构进行定位。由此,可以实现定位或分割的进一步提高了的准确性或可靠性。
在此,视线采集系统例如可以包含针对用户和另外的用户中的每一个的单独的视线采集系统。例如,单独的视线采集系统可以分别被设计为可佩戴在头部上的设备,相应的用户例如可以类似于眼镜地佩戴该设备。
根据至少一个实施方式,借助计算单元基于至少一个图像点并且必要时基于至少一个另外的图像点来至少部分自动地对结构进行分割。
特别地,可以将对结构的分割理解为,在单图像中或在至少一个另外的单图像中识别出属于结构的所有相关图像区域。特别地,由此将作为感兴趣区域的结构与不太相关的区域(例如,围绕该结构的周围区域)分开。
特别地,至少部分自动地进行分割可以被理解为,借助计算单元,依据至少一个图像点或至少一个另外的图像点来自动地识别结构的区域,该结构的区域本身不相应于至少一个图像点或至少一个另外的图像点。在此,用户侧的手动输入(例如用于确认、校正或补充分割)是可能的,然而不是必须的。
例如,至少一个图像点和/或至少一个另外的图像点可以用作用于分割的相应的种子点。可以借助计算单元,例如基于传统的图像处理方法(例如用于边缘识别、用于对比度分析或用于灰度值分析的方法)来进行分割,或者根据已经通过机器学习训练了的算法来进行分割。
根据至少一个实施方式,特别是借助计算单元,视觉上强调地在显示面上的单图像或图像序列中显示结构。
根据改进的设计的另外的独立方面,提出一种用于对解剖结构进行自动分割的方法。在此,将映射具有结构的对象的单图像显示在显示面上,借助视线采集系统采集用户的视线运动,并且基于该视线运动生成视线采集信号。借助计算单元,依据视线采集信号,识别单图像的至少一个图像点,其中,该至少一个图像点至少部分地映射该结构。借助计算单元基于至少一个图像点至少部分自动地对结构进行分割。
用于对解剖结构进行自动分割的方法的另外的实施方式直接来自用于对结构进行自动定位的方法的不同的设计方案。
根据改进的设计的另外的独立方面,提出了一种用于对用于机器学习的软件模块、特别是包含用于机器学习的计算机程序或软件的软件模块进行训练的计算机实现的方法。在此,例如借助训练计算单元,在特别是显示设备的显示面上,对映射具有训练结构的训练对象的训练单图像进行显示。借助视线采集系统采集用户的视线运动,并且基于此,即基于所采集的视线运动,特别地借助训练计算单元生成训练信号。借助训练计算单元基于训练信号至少部分自动地对训练结构进行分割。基于分割的结果借助训练计算单元来训练软件模块。
特别地,软件模块是存储在计算机可读的存储介质上的源代码,或者是多个源代码的汇编。训练计算单元可以访问软件模块,以便实施对应的源代码或源代码的汇编。训练计算单元还可以通过写入来访问计算机可读的存储介质,以便例如调整软件模块以对软件模块进行训练,特别是调整或改变软件模块的参数。
特别地,已根据用于机器学习的方法训练了的或者可以根据用于机器学习的方法来训练的软件或计算机程序可以被理解为用于机器学习的软件或计算机程序。
用于机器学习的软件模块例如可以被设计为自动分类器、人工神经网络(特别是卷积人工神经网络)、用于强化学习的软件模块、用于聚类分析的软件模块、支持向量机等。
特别地,借助训练计算单元对软件模块的训练包含依据分割的结果对软件模块或存储在软件模块上的源代码的一个或多个参数进行调整。在神经网络的情况下,训练尤其包含依据分割的结果来对神经网络的对应权重进行调整。
根据至少一个实施方式,对软件模块的训练包含将分割的结果与参考结果、即例如对结构的预先给定的参考分割进行比较。替换地或附加地,对软件模块的训练还可以包含通过用户输入来对自动分割进行验证或伪造。
根据至少一个实施方式,在按照改进的设计的用于对结构进行自动定位的计算机实现的方法期间、或者作为这种方法的一部分,执行用于训练软件模块的计算机实现的方法。
因此,在按照改进的设计的用于自动定位的方法中,在软件模块的操作使用期间,可以实时地使用训练或用于训练软件模块的方法。在此特别地,计算单元可以使用操作使用中的软件模块以分割结构。
特别地,训练计算单元可以是计算单元或者另外的计算单元。
在用于训练软件模块的方法的不同实施方式中,用于对结构进行自动定位的方法的单图像被用作训练单图像。然后,训练对象相应于对象,参考结构相应于结构,并且训练信号相应于视线采集信号。
根据至少一个实施方式,借助训练计算单元,依据训练信号,识别训练单图像的至少一个图像点,其中,训练单图像的至少一个图像点至少部分地映射训练结构。借助训练计算单元基于至少一个图像点至少部分自动地对训练结构进行分割。
根据用于对结构进行自动定位的计算机实现的方法的至少一个实施方式,借助用于机器学习的软件模块,特别是通过计算单元,至少部分自动地对结构进行分割,其中,根据按照改进的设计的用于对用于机器学习的软件模块进行训练的计算机实现的方法来训练或已经训练了软件模块。
用于机器学习的软件模块的优点在于高的速度、鲁棒性以及灵活的或通用的可用性和适用性。如所描述的,可以在操作运行中连续地改善分割的质量。
根据改进的设计的另外的独立方面,提出一种用于对结构进行自动定位的装置。该装置具有带有显示面的显示设备以及计算单元,该装置被配置为将映射具有结构的对象的单图像显示在显示面上。该装置具有视线采集系统,该视线采集系统被配置为采集该装置的用户的视线运动,并且基于该视线运动生成视线采集信号。计算单元被配置为依据视线采集信号识别单图像的至少一个图像点,其中,该至少一个图像点至少部分地映射该结构。
视线采集系统也可以被称为眼球追踪器。
根据该装置的至少一个实施方式,该装置具有成像装置,该成像装置被配置为对对象进行映射以便生成单图像。
例如,成像装置是X射线设备、计算机断层成像设备、磁共振断层成像设备或超声设备。
根据至少一个实施方式,计算单元被配置为基于至少一个图像点至少部分自动地对结构进行分割。
根据至少一个实施方式,该装置具有用于机器学习的软件模块,例如计算机可读的存储介质,在该计算机可读的存储介质上存储了软件模块,其中,已经按照根据改进的设计的用于对用于机器学习的软件模块进行训练的方法来对软件模块进行了训练。计算单元被配置为借助软件模块至少部分自动地对结构进行分割。
该装置的另外的实施方式直接来自于按照改进的设计的用于对结构进行自动定位的计算机实现的方法的不同的设计方式,以及来自于按照改进的设计的用于对用于机器学习的软件模块进行训练的计算机实现的方法的不同的设计方式,反之亦然。特别地,按照改进的设计的装置可以被配置或编程为执行按照改进的设计的方法,或者该装置执行这种方法。
根据改进的设计的另外的独立方面,提出了一种用于对用于机器学习的软件模块进行训练的训练装置。该训练装置具有带有显示面的显示设备以及训练计算单元,该训练装置被配置为将映射具有训练结构的训练对象的训练单图像显示在显示面上。该训练装置具有视线采集系统,该视线采集系统被配置为采集该训练装置的用户的视线运动,并且基于该视线运动生成训练信号。训练计算单元被配置为基于训练信号至少部分自动地对训练结构进行分割。训练计算单元被配置为基于分割的结果来训练软件模块。
训练装置的另外的实施方式直接来自于按照改进的设计的用于对软件模块进行训练的计算机实现的方法的不同的设计方式。
根据改进的设计的另外的独立方面,提出一种具有命令的计算机程序。在通过按照改进的设计的用于对结构进行自动定位的装置、特别是通过该装置的计算单元来实施计算机程序时,命令促使该装置执行按照改进的设计的用于对结构进行自动定位的方法或者按照改进的设计的用于对用于机器学习的软件模块进行训练的方法。
根据改进的设计的另外的独立方面,提出了一种计算机可读的存储介质,在该计算机可读的存储介质上存储了按照改进的设计的计算机程序。
先前在描述中所提到的特征和特征组合以及随后在附图说明中所提到的和/或在附图中单独示出的特征和特征组合不仅可以以分别说明的组合来使用,而且还可以以另外的组合来使用,而不脱离本发明的范围。不具有最初制定的独立权利要求的所有特征和/或超出或偏离权利要求的后续引用中所陈述的特征组合的实施方案和特征组合也被认为是公开的。
附图说明
下面根据具体的实施例和相关的示意图更详细地阐述本发明。在附图中,相同或功能上相同的元件可以具有相同的附图标记。对相同或功能上相同的元件的描述必要时不必相对于不同的附图重复。
附图中:
图1示出了按照改进的设计的用于对结构进行自动定位的装置的示例性实施方式的示意图;
图2示出了按照改进的设计的用于对结构进行自动定位的方法的示例性实施方式的流程图;
图3示出了具有结构的单图像;
图4示出了具有结构的另外的单图像;以及
图5示出了经分割的结构的示意图。
具体实施方式
图1中示出了按照改进的设计的用于对结构进行自动定位的装置10的示例性实施方式的示意图。
装置10具有计算单元13以及显示设备11(例如,具有显示面12的监视器)。
装置10例如具有成像装置22,该成像装置在图1的示例中示例性地但非限制性地被设计为X射线设备,例如设计为C形臂X射线设备。
在该示例中,成像装置22具有X射线源23以及X射线检测器24和支承面26,在该支承面上可以布置对象27(例如,人)。X射线源23发射X射线,这些X射线至少部分地穿过对象27并且对应地由X射线检测器24采集。
X射线检测器24与计算单元13、特别是与计算单元13的X射线图像处理器14连接,以便基于所检测的X射线将检测器信号传输至X射线图像处理器14。
X射线图像处理器14可以特别地基于检测器信号来生成图像数据,并且可以将该图像数据作为单图像或者作为多个相继的单图像的图像序列显示在显示面12上。
此外,装置10包含眼球追踪器18,该眼球追踪器与计算单元13的分析单元15连接。眼球追踪器18可以采集注视显示面12的用户19的视线运动,基于所采集的视线运动生成视线采集信号,并将该视线采集信号传输到分析单元15。
在此,眼球追踪器18可以被固定地构建,并且例如可以被布置在显示设备11上。然而,眼球追踪器18也可以被设计为移动式眼球追踪器来作为可佩戴在头部上的或所谓的头戴式眼球追踪器,用户19将该移动式眼球追踪器类似于眼镜地佩戴在头部上。
在不同的实施方案中,可佩戴在头部上的输出设备(也被称为视频眼镜或头戴式显示器)可以包含显示设备11、特别是显示面12,以及眼球追踪器18。例如,可佩戴在头部上的输出设备可以被设计为所谓的虚拟现实眼镜或增强现实眼镜。
计算单元13具有带有软件模块16的存储介质,该软件模块16包含以对应的源代码形式的分割算法。在此,分割算法尤其可以包含人工神经网络或基于机器学习的其他软件架构。
下面参考图2更详细地阐述装置10的工作原理。图2中示出了按照改进的设计的用于对结构进行自动定位的方法的示例性实施方式的流程图。
在该方法的步骤1中,成像装置22借助X射线检测器24生成检测器信号,并将该检测器信号传输到X射线图像处理器14。
在步骤2中,基于检测器信号,X射线图像处理器14生成与一个或多个单图像对应的一个或多个图像数据组,并且在显示面12上显示至少一个单图像17。
在步骤3中,在单图像17显示在显示面12上期间,借助眼球追踪器18采集用户19的视线运动。如所描述的,基于此,生成视线采集信号并且将其传输到分析单元15。
在该方法的步骤4中,基于视线采集信号,分析单元15确定用户19在显示面12上的一个或多个视线位置。换言之,分析单元15确定,用户19观察或固定在显示面12上的、即特别是在对应的单图像17上的哪个或哪些位置。为此,例如基于视线采集信号,分析单元15可以确定并且处理用户19的视线在显示面12的对应位置上的相应的停留持续时间。
同样地,在步骤4中,分析单元15从X射线图像处理器14接收所生成的图像数据组,并且将所确定的视线位置与单图像17的对应区域、即特别是单图像17的图像点的区域相关联。
这在图3中示意性地示出,在那里示出了单图像17,该单图像例如示出了已经借助成像装置22映射了的人类的血管系统。示出了不同的视线位置20、20'、20”、20”',在该不同的视线位置上用户19的视线已经固定了一定的时间,并且该不同的视线位置已经可以相应地由分析单元15基于视线采集信号来识别并且已经可以与单图像17的对应的图像点相关联。血管系统的一部分、特别是单个血管是应当例如借助装置10来分割的结构9。
在该方法的可选步骤5中,例如重复关于该方法的步骤2、3和4所阐述的步骤,其中可以在该时间期间静态地显示单图像17。以该方式,可以对应地增加单图像17中在结构9上的所识别的点的数量和视线位置20、20'、20”、20”'的数量。
替换地或附加地,可以在步骤5中针对图像序列的另外的单图像17'重复关于步骤2至步骤4所阐述的步骤。例如,图像序列可以作为循环在显示面12上播放。例如,用户19可以暂停播放,以便更准确地观察单图像17、17'中的一个,并且如所描述的,进一步增加所识别的视线位置的数量。
图4中示例性地示出了图像序列的另外的单图像17'。在该方法的步骤5中,如关于单图像17所描述的,特别地在另外的单图像17'中识别血管9或结构9上的另外的视线位置21、21'、21”、21”'。
如从图3与图4的比较可以看出,第一单图像17的视线位置20、20'、20”、20”'不必与另外的单图像17'的另外的视线位置21、21'、21”、21”'相同。由此,可以增大能够由计算单元13为了进行分割而考虑的信息的量。特别地,计算单元13可以以对应的概率假定所有的视线位置20、20'、20”、20”'、21、21'、21”、21”'位于结构9上或近似地位于结构9上。
在该方法的步骤6中,分析单元15实施软件模块16的分割算法。特别地,分析单元15使用单图像17、17'的与视线位置20、20'、20”、20”'、21、21'、21”、21”'相关联的区域或图像点(例如该区域或图像点的位置),以便识别尽可能完整地限定结构9的相干区域。
图5中示意性地示出了对结构9的分割的结果。分割的结果可以被理解为一个或多个单图像17、17'的图像点的相干或不相干区域,这些图像点已经被识别为与结构9相关。
如图5中所示,通过在视觉上强调分割的结果,该信息例如可以借助分析单元15或X射线图像处理器14显示在显示面12上。
在该方法的可选步骤7中,分割的结果例如可以通过用户19来进行验证或伪造。基于验证或伪造的结果,计算单元13、特别是分析单元15可以在步骤8中调整分割算法的参数(例如为此所使用的神经网络的权重),以便减少误差,并且由此进一步训练以及优化尤其是已经预先训练了的软件模块16。
替换地或附加地,在步骤7中,分析单元15可以将分割结果与预先给定的参考数据进行比较,并且基于比较的结果来执行对软件模块16的参数的调整。
在借助按照改进的设计的方法或装置10进行的进一步的分割中,然后可以使用经调整的软件模块16。
在另外的实施方式中,预先、即在装置10或软件模块16的操作运行之前,训练软件模块16。
如所描述的,根据改进的设计,尤其在对解剖对象的医学分割方面,能够实现提高了用于对对象上的结构进行定位的自动化程度,并且因此使用户的手动交互至少部分地变得多余。
医生和其他用户通常具有在来自成像方法的图像中、特别是在图像序列中识别结构的经验,如其例如在对患者的透射支持的诊断、分析或治疗中所使用的。按照改进的设计,这些人员的经验可以通过他们的视线运动直接用于对结构进行自动地定位。
按照改进的设计,使用视线采集系统或眼球追踪器,该视线采集系统或眼球追踪器在不同的实施方式中连续地监视用户的视线。由此,可以追踪用户的准确视线位置。眼球追踪器与计算单元并且必要时与成像装置同步,使得也可以追踪用户在一定的时间段上、特别是在图像序列的大量单图像上的视线方向或视线位置。
以该方式,可以从视线运动中提取信息。该视线信息可以集成到定位算法或分割算法中,以便替代通过其他输入设备进行的手动输入。
视线信息还可以使标志识别变得更容易。如果例如在血管造影图像中存在狭窄,则用户的视线可能包含关于狭窄的位置的信息。在一些实施方式中,视线信息还可以支持诊断,因为针对不同的诊断结果,用户的视线方向可能遵循不同的模式。例如,存在狭窄的情况下的针对冠状动脉造影的视线信息可以与健康的血管的情况下的针对冠状动脉造影的视线信息不同。
在不同的实施方式中,视线采集信号或视线信息可以用作用于基于机器学习的算法的输入参量,以便执行定位或分割。以该方式,算法可以使用“存储”在用户的视线运动中的附加信息。
利用改进的设计的不同实施方式,例如可以代替用于手动限定用于分割的初始化点或区域的鼠标点击或其他手动输入,并且因此决定性地提高了分割中的自动化程度。
改进的设计的另外的优点是,由于用户以其视线直观地跟随形成对比的血管或器官,因此以计算单元的视线采集信号形式的视线信息能够实现补偿例如由于呼吸或器官运动而引起的对象运动。
与用于对结构进行手动定位的传统方法相比,改进的设计不需要中断用户的工作流程。由于用户通常本来就使用显示面,因此视线运动可以通过用户自己来采集,而无需进一步的开销。
由于提高了的自动化程度,可以加快工作流程、特别是临床工作流程。

Claims (15)

1.一种用于对结构(9)进行自动定位的计算机实现的方法,其中,在显示面(12)上显示映射具有所述结构(9)的对象的单图像(17);
其特征在于,
借助视线采集系统(18)采集用户(19)的视线运动,并且基于所述视线运动生成视线采集信号;以及
借助计算单元(13),依据所述视线采集信号,识别单图像(17)的至少一个图像点(20),其中,所述至少一个图像点(20)至少部分地映射所述结构(9)。
2.根据权利要求1所述的计算机实现的方法,
其特征在于,
借助所述计算单元(13)依据所述视线采集信号确定在显示面(12)上的视线位置;以及
基于所述视线位置确定所述至少一个图像点(20)。
3.根据权利要求1或2所述的计算机实现的方法,
其特征在于,
将包含所述单图像(17)和至少一个另外的单图像(17')的图像序列显示在所述显示面(12)上;
在显示图像序列期间借助所述视线采集系统(18)采集所述视线运动,并且基于所述视线运动生成所述视线采集信号。
4.根据权利要求3所述的计算机实现的方法,
其特征在于,
依据所述视线采集信号,为每个另外的单图像(17')分别识别至少一个另外的图像点(21),其中,所述至少一个另外的图像点(21)至少部分地映射所述结构(9)。
5.根据权利要求3或4所述的计算机实现的方法,
其特征在于,
对所述图像序列的显示重复至少一次;
在多次重复期间借助所述视线采集系统(18)采集所述视线运动,并且基于所述视线运动来生成所述视线采集信号。
6.根据权利要求3至5中任一项所述的计算机实现的方法,
其特征在于,
暂停对图像序列的显示;
在暂停期间,显示所述单图像(17)或另外的单图像(17')中的一个;
在暂停期间借助所述视线采集系统(18)采集所述视线运动,并且基于所述视线运动生成所述视线采集信号。
7.根据权利要求1至6中任一项所述的计算机实现的方法,
其特征在于,
借助所述视线采集系统(18)采集另外的用户的视线运动,并且基于所述视线运动生成另外的视线采集信号;以及
借助所述计算单元(13),依据所述另外的视线采集信号,识别所述至少一个图像点(20)。
8.根据权利要求1至7中任一项所述的计算机实现的方法,
其特征在于,
借助成像装置(22)来对所述对象进行映射,以便生成所述单图像(17)。
9.根据权利要求1至8中任一项所述的计算机实现的方法,
其特征在于,
借助所述计算单元(13)基于所述至少一个图像点(17)至少部分自动地对所述结构(9)进行分割。
10.一种用于对用于机器学习的软件模块(16)进行训练的计算机实现的方法,其中,
在显示面(12)上显示映射具有训练结构的训练对象的训练单图像;
借助视线采集系统(18)采集用户(19)的视线运动,并且基于所述视线运动生成训练信号;以及
借助训练计算单元基于所述训练信号至少部分自动地对所述训练结构进行分割;
基于分割的结果借助所述训练计算单元来训练所述软件模块(16)。
11.根据权利要求9所述的计算机实现的方法,
其特征在于,
借助用于机器学习的软件模块(16),至少部分自动地对所述结构(9)进行分割,其中,按照根据权利要求10所述的方法来训练或已经训练了所述软件模块(16)。
12.一种用于对结构(9)进行自动定位的装置,所述装置(10)具有带有显示面(12)的显示设备(11)和计算单元(13),所述装置被配置为将映射具有所述结构(9)的对象的单图像(17)显示在所述显示面(12)上;
其特征在于,
所述装置(10)具有视线采集系统(18),所述视线采集系统被配置为采集装置(10)的用户(19)的视线运动,并且基于所述视线运动生成视线采集信号;以及
所述计算单元(13)被配置为依据所述视线采集信号识别单图像(17)的至少一个图像点(20),其中,所述至少一个图像点(20)至少部分地映射所述结构(9)。
13.根据权利要求12所述的装置,
其特征在于,
所述计算单元(13)被配置为基于所述至少一个图像点(20)至少部分自动地对所述结构(9)进行分割。
14.根据权利要求13所述的装置,
其特征在于,
所述装置(10)具有用于机器学习的软件模块(16),按照根据权利要求10所述的方法已经训练了所述软件模块;以及
所述计算单元(13)被配置为借助所述软件模块(16)至少部分自动地对所述结构(9)进行分割。
15.一种具有命令的计算机程序,所述命令在通过按照权利要求12至14中的任一项所述的装置(10)来实施所述计算机程序时,促使所述装置(10)执行按照权利要求1至11中任一项所述的方法。
CN202010743256.7A 2019-08-01 2020-07-29 对结构的自动定位 Pending CN112308817A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019211536.5A DE102019211536A1 (de) 2019-08-01 2019-08-01 Automatische Lokalisierung einer Struktur
DE102019211536.5 2019-08-01

Publications (1)

Publication Number Publication Date
CN112308817A true CN112308817A (zh) 2021-02-02

Family

ID=74165550

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010743256.7A Pending CN112308817A (zh) 2019-08-01 2020-07-29 对结构的自动定位

Country Status (3)

Country Link
US (1) US11599191B2 (zh)
CN (1) CN112308817A (zh)
DE (1) DE102019211536A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020205976A1 (de) 2020-05-12 2021-11-18 Siemens Healthcare Gmbh Anpassen einer erweiterten und/oder künstlichen Realität

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105473059A (zh) * 2013-07-30 2016-04-06 皇家飞利浦有限公司 在成像数据集之间对发现的匹配
CN106097294A (zh) * 2015-04-28 2016-11-09 西门子公司 基于自动对应进行骨重定位
CN107072613A (zh) * 2014-10-13 2017-08-18 皇家飞利浦有限公司 基于纵向特征对感兴趣组织的健康状态的分类
CN107077211A (zh) * 2014-10-23 2017-08-18 皇家飞利浦有限公司 视线跟踪驱动的感兴趣区域分割
US10002311B1 (en) * 2017-02-10 2018-06-19 International Business Machines Corporation Generating an enriched knowledge base from annotated images
US20180268552A1 (en) * 2017-03-03 2018-09-20 National Institutes Of Health Eye Tracking Applications in Computer Aided Diagnosis and Image Processing in Radiology
CN108567443A (zh) * 2017-03-09 2018-09-25 通用电气公司 用于ct图像的彩色可视化系统和方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10754425B2 (en) * 2018-05-17 2020-08-25 Olympus Corporation Information processing apparatus, information processing method, and non-transitory computer readable recording medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105473059A (zh) * 2013-07-30 2016-04-06 皇家飞利浦有限公司 在成像数据集之间对发现的匹配
CN107072613A (zh) * 2014-10-13 2017-08-18 皇家飞利浦有限公司 基于纵向特征对感兴趣组织的健康状态的分类
CN107077211A (zh) * 2014-10-23 2017-08-18 皇家飞利浦有限公司 视线跟踪驱动的感兴趣区域分割
CN106097294A (zh) * 2015-04-28 2016-11-09 西门子公司 基于自动对应进行骨重定位
US10002311B1 (en) * 2017-02-10 2018-06-19 International Business Machines Corporation Generating an enriched knowledge base from annotated images
US20180268552A1 (en) * 2017-03-03 2018-09-20 National Institutes Of Health Eye Tracking Applications in Computer Aided Diagnosis and Image Processing in Radiology
CN108567443A (zh) * 2017-03-09 2018-09-25 通用电气公司 用于ct图像的彩色可视化系统和方法

Also Published As

Publication number Publication date
US11599191B2 (en) 2023-03-07
US20210034148A1 (en) 2021-02-04
DE102019211536A1 (de) 2021-02-04

Similar Documents

Publication Publication Date Title
JP6334821B2 (ja) 医用イメージングのために患者をポジショニングするためのガイドシステム
CN110494921A (zh) 利用三维数据增强患者的实时视图
CN106999130B (zh) 用于确定在投影图像中介入仪器的位置的装置
CN107809955B (zh) 经由感兴趣界标的自动检测在x射线成像中进行实时准直和roi过滤器定位
US20220051401A1 (en) Providing a scene with synthetic contrast
JP2022545355A (ja) 医療機器を識別、ラベル付け、及び追跡するためのシステム及び方法
WO2019110135A1 (en) Augmented reality assistance in medical procedure preparation
EP3756547A1 (en) Automated coronary angiography analysis
US11599191B2 (en) Automatic localization of a structure
EP2931127B1 (en) Interventional system
EP3698718A1 (en) Heatmap and atlas
US11657519B2 (en) Method for deformation correction
CN112885435B (zh) 图像目标区域的确定方法、装置和系统
KR20230165284A (ko) 진단 또는 중재 이용을 위해 전자 의료 이미지들을 처리하기 위한 시스템들 및 방법들
WO2023179876A1 (en) System configured to aid in training a patient's breathing in preparation for a radiotherapy treatment
US20220096158A1 (en) Virtual trajectory planning
US11816821B2 (en) Method and system for generating an enriched image of a target object and corresponding computer program and computer-readable storage medium
US12026837B2 (en) Adapting an augmented and/or virtual reality
EP4092684A1 (en) Method for providing feedback data in a medical imaging system
WO2019238230A1 (en) Registration of an anatomical body part by detecting a finger pose
Atkins et al. Eye monitoring applications in medicine
US20220241015A1 (en) Methods and systems for planning a surgical procedure
US20240122650A1 (en) Virtual trajectory planning
EP3800617A1 (en) A computer-implemented method for registering low dimensional images with a high dimensional image, a method for training an artificial neural network useful in finding landmarks in low dimensional images, a computer program and a system for registering low dimensional images with a high dimensional image
JP2023148901A (ja) 情報処理方法、プログラムおよび情報処理装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination