CN105094635A - 用于通过体图像进行导航的设备和方法 - Google Patents

用于通过体图像进行导航的设备和方法 Download PDF

Info

Publication number
CN105094635A
CN105094635A CN201510245906.4A CN201510245906A CN105094635A CN 105094635 A CN105094635 A CN 105094635A CN 201510245906 A CN201510245906 A CN 201510245906A CN 105094635 A CN105094635 A CN 105094635A
Authority
CN
China
Prior art keywords
user
cross
hand
plane
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201510245906.4A
Other languages
English (en)
Inventor
柳昇佑
成英庆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN105094635A publication Critical patent/CN105094635A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

公开了一种用于通过体图像进行导航的设备和方法。用于通过体图像进行导航的设备包括:导航平面检测单元,被配置为从用户手势数据在真实世界的导航坐标系中产生虚拟平面,并将虚拟平面确定为导航平面;提取单元,被配置为基于与导航坐标系的参考表面相应的虚拟世界的体坐标系的参考表面,从3D体数据提取与导航平面相应的2D断面图像;显示单元,被配置为显示提取的断面图像。

Description

用于通过体图像进行导航的设备和方法
本申请要求于2014年5月20日在韩国知识产权局提交的第10-2014-0060558号韩国专利申请的利益,该申请的整个公开出于所有目的通过引用包含于此。
技术领域
以下描述涉及一种用于通过体图像进行导航的技术、一种用于通过体图像进行导航以获得体图像的断面图的技术以及一种用于导航体图像的断面图像的设备和方法。
背景技术
在3D超声图像技术中,可通过使用3D探头直接拍摄对象来获得3D图像(在下文也被称为“体图像”),或者可通过对使用2D探头拍摄的连续的2D图像进行组合来获得体图像。3D超声图像的优点在于:在多个视点显示体图像的外观,还在体图像内部的期望位置在多个方位显示断面图像(在下文也被称为“切片”)。然而,3D超声图像是一组具有灰度级的点,因此使得难以查看除了3D超声图像的外观以外的3D超声图像的内部。因此,为了查看3D图像的内部,需要观看与3D图像的切片相应的断面图像。与简单地观看具有固定方位的2D图像不同,需要针对在3D空间中具有随机方位的断面图像来观看3D图像。此外,一旦有需求,就需要将当前方位的断面图像切换为被期望观看的另一方位的断面图像。然而,对于用户而言,通过使用键盘或鼠标在3D空间中的体图像内在特定位置切割体图像以产生断面图像,来选择或改变2D平面的方位是非常麻烦且复杂的。
发明内容
提供本发明内容来以简化形式介绍挑选的概念,其中,将在下面的具体实施方式中进一步描述所挑选的概念。本发明内容不意图确定要求保护的主题的关键特征或重要特征,也不意图被用于帮助理解要求保护的主题的范围。
在一个总体方面,提供了一种用于通过体图像进行导航的设备,所述设备包括:导航平面检测单元,被配置为从用户手势数据在真实世界的导航坐标系中产生虚拟平面,并将虚拟平面确定为导航平面;提取单元,被配置为基于与导航坐标系的参考表面相应的虚拟世界的体坐标系的参考表面,从3D体数据提取与导航平面相应的2D断面图像;显示单元,被配置为显示提取的断面图像。
用户手势数据可包括通过经由在固定位置设置的传感器检测用户的手的动作而获得的数据。
用户手势数据可包括通过经由在用户的手握持的手持装置中设置的传感器检测手持装置的方位而获得的数据。
手持装置可被提供为超声成像探头的形式,可在与由超声成像探头拍摄的图像的位置相似的位置产生导航平面。
手持装置可被提供为超声成像探头的形式。手持装置可被用于提供与具有对应于体数据的3D形状的体模接触的用户手势。可在与体数据相应的体模的断面位置产生导航平面。
可通过将导航参考表面与体参考表面进行关联来使导航坐标系的参考表面和体坐标系的参考表面相关联,其中,导航参考表面由基于导航坐标系中的用户手势确定的导航平面所确定,体参考表面由体坐标系中的体数据的多个断面图像之中的断面图像所确定。
在另一总体方面,提供一种通过体图像进行导航的方法,所述方法包括:从由传感器检测到的用户手势数据在真实世界的导航坐标系中产生虚拟平面,将虚拟平面确定为导航平面;基于与导航坐标系的参考表面相应的虚拟世界的体坐标系的参考表面,从3D体数据提取与导航平面相应的2D断面图像;显示提取的断面图像。
用户手势数据可包括通过经由在固定位置设置的传感器检测用户的手的动作而获得的数据。
用户手势数据可包括通过经由在用户的手握持的手持装置中设置的传感器检测手持装置的方位而获得的数据。
手持装置可被提供为超声成像探头的形式。可在与由超声成像探头拍摄的图像的位置相似的位置产生导航平面。
手持装置可被提供为超声成像探头的形式。手持装置可被用于提供与具有对应于体数据的3D形状的体模接触的用户手势。可在与体数据相应的体模的断面位置产生导航平面。
可通过将导航参考平面与体参考表面进行关联来使导航坐标系的参考平面和体坐标系的参考表面相关联,其中,导航参考平面由基于导航坐标系中的用户手势确定的导航平面所确定,体参考表面由体坐标系中的体数据的多个断面图像之中的断面图像所确定。
在另一总体方面,提供一种通过体图像进行导航的设备,所述设备包括:传感器,被配置为检测用于获得导航平面的坐标的姿势;处理器,被配置为基于检测到的姿势获得导航平面的坐标并基于该坐标提取3D体图像的2D断面图像;显示器,被配置为显示提取的断面图像。
传感器可包括深度相机。
传感器可被布置在手持装置内,并可被配置为检测手持装置的方位。
传感器可被配置为基于用户的手的手掌或一根或更多根手指的方位检测导航平面的坐标。
传感器可被配置为检测所述手掌或一根或更多根手指的方位的改变;处理器被配置为基于所述方位的改变提取3D体图像的另一2D断面图像。
从下面的详细描述、附图和权利要求,其它特征和方面将变得清楚。
附图说明
图1是示出传统的体图像导航设备的框图。
图2是示出通过体图像进行导航以获得断面图像的方法的示例的示图。
图3是示出根据本公开的用于导航体图像的断面图像的设备的示例的框图。
图4是示出根据本公开的导航体图像的断面图像的方法的示例的示图。
图5是示出利用根据本公开的示例的用于导航体图像的断面图像的设备使用用户手势的方法的示例的示图。
图6是示出利用根据本公开的示例的用于导航体图像的断面图像的设备使用用户手势的方法的另一示例的示图。
图7是示出利用根据本公开的用于导航体图像的断面图像的设备使用用户手势的另一示例的示图。
图8是示出利用根据本公开的用于导航体图像的断面图像的设备使用用户手势的另一示例的示图。
图9是示出根据本公开的示例的在用于导航断面图像的设备中确定参考表面的处理的初始化的示图。
图10是示出根据本公开的导航体图像的断面图像的方法的示例的流程图。
图11是示出根据本公开的示例的导航体图像的断面图像的方法中的初始化处理的示例的流程图。
图12是示出根据本公开的示例的导航体图像的断面图像的方法中的初始化处理的另一示例的流程图。
贯穿附图和详细描述,除非另外描述或提供,否则相同附图标号将被理解为表示相同元件、特征和结构。附图不必按比例绘制,并且为了清楚、示出和方便,附图中的元件的相对尺寸、比例和描绘可被夸大。
具体实施方式
提供以下描述以帮助读者获得对在此描述的方法、设备和/或系统的全面理解。然而,在此描述的系统、设备和/或方法的各种改变、修改和等同物对于本领域普通技术人员而言将是明显的。描述的处理步骤和/或操作的过程是示例;然而,步骤和/或操作的顺序不限于在此的阐述并可以如本领域公知那样改变,除非步骤和/或操作必须按特定顺序发生。此外,为了更加清楚和简明,可省略对本领域普通技术人员公知的功能和构造的描述。
在此描述的特征可被实施为不同形式,并且不应被解释为受限于在此描述的示例。相反,提供在此描述的示例使得本公开将是全面和完整的,并将本公开的全部范围传达给本领域普通技术人员。
在下文,将参照附图详细描述根据本公开实施例的体图像导航技术。
将参照图1和图2描述传统的体图像导航设备。图1是示出传统的体图像导航设备的配置的框图。图2是示出导航体图像的断面图像的方法的示例的示图。
参照图1,用于导航体图像的断面图像的设备10可包括体数据12、提取单元14和显示单元16。体图像可以是从医疗成像技术(诸如超声、CT扫描等)获得的医疗图像。可使用包括处理器、存储器和用户输入/输出装置的计算装置来实现设备10。用户可指定在特定体数据中包括的特定切片,从而通过使用输入装置(诸如键盘或鼠标)将指定切片的断面图像显示在显示器上。当用户期望的切片信息被输入时,提取单元14可从在存储器中存储的体数据12提取指定切片的断面图像。之后,显示单元16可在显示装置上显示提取的断面图像。
根据这种传统导航设备,用户可通过使用键盘或鼠标指定与切过体图像的2D平面相应的特定切片。在图2中,示出半球形的体图像V和矩形形状S的断面图像S。提供体图像和断面图像的形状仅用于说明目的。为了指定体图像V内的断面图像S,用户需要在3D坐标系中指定具有与期望断面图像S相应的方位和位置的2D平面。图2示出由相互垂直的X轴、Y轴和Z轴表示的坐标系。然而,在3D坐标系中在各个方位的断面图像S之间进行切换以通过体图像V进行导航来获得期望的断面图像的处理是复杂的;为了学习现有方法,需要大量努力。因此,需要一种使用户能够容易地通过3D体图像进行导航以获得期望的2D断面图像的技术。
根据本公开实施例的导航技术具有这样的构造,其中,基于由用户的手势形成的导航平面来导航体图像的断面图像。因此,为用户提供这样的便利:通过使用手或工具的手势在期望的位置容易地获得具有期望的方位的断面图像,而不用考虑复杂的坐标系。
根据本公开的实施例,用户可通过使用在不同方向上张开用户的一只手的任意两根手指的手势,来指定由在不同方向上伸开的这两根手指所形成的导航平面。这样的用户手势可以被安装在固定位置上的感测装置(例如厉动传感器(leapmotionsensor))检测。厉动传感器是通过使用红外线和深度传感器在3D空间中感测对象(诸如人的手)的运动的公知的传感器。感测装置可以检测与用户的两根手指相应的方向矢量。之后,基于检测到的两个方向矢量确定平面。换言之,检测到的两个方向矢量可被转换为相交于一点的两条直线,并通过这两条直线确定单个平面,这是公知的数学原理。因此,可以将根据两根手指的方向确定的平面确定为由用户指定的导航平面。
用于在3D空间中确定随机2D平面的最小条件包括:指定(1)不存在于一条直线上的不同的三个点;(2)不存在于一条直线上的一条直线和一个点;(3)相交于一点的两条直线;(4)相互平行延伸且不相交的两条直线等。如果从使用用户手指的随机手势检测到以上条件之一,则确定一个平面的方位。
在以上示例中,可通过使用附加的动作传感器(诸如厉动传感器)检测手指的方向以感测用户的手指的形状或动作。在可替换的示例中,可通过允许用户在戴着设置有被配置为感测手指的方向的传感器的手套的同时通过做出手势,来检测用户的手指的方向。
根据本公开的另一实施例,用户可通过使用平直张开手指的手势来指定与用户的手掌(而不是用户的手指)相应的导航平面。与感测手指相似,也可通过用于感测手掌的附加的传感器或通过被设置在手套上以感测手掌的传感器来检测这样的用户手势。传感器可检测与用户手掌相应的平面。例如,传感器可检测用户手掌上的三个不同的点,并通过使用这三个点来产生单个平面,从而检测与手掌相应的平面。之后,可将检测到的平面确定为由用户指定的导航平面。
根据本公开的另一示例,用户可使用被配置为便于产生导航平面的手持单元来通过手势指定导航平面。例如,用户可握持手持单元并做出维持具有期望方位的姿势的手势。手持单元中设置有一个或更多个传感器(诸如加速度传感器和陀螺仪传感器)以检测手持单元的姿势。作为示例,传感器可通过检测手持单元的姿势在允许误差内维持了预定时间段来检测手持单元的姿势。作为另一示例,传感器可通过一从附加的用户输入装置接收到导航平面检测命令就检测手持单元的姿势,来检测手持单元的姿势。之后,确定具有与检测到的姿势相应的方位的平面,并且可将该平面确定为用户期望指定的导航平面。
根据本公开的实施例,可使用手持装置实现手持单元,所述手持装置包括由用户的手握住的主体、用于检测主体的姿势的传感器和用于将由传感器检测到的信息发送到另一组件的通信单元。可选择地,可使用手持移动终端(诸如智能电话)来实现手持单元。在此情况下,手持移动终端可以是设置有姿势检测传感器和近场通信(NFC)装置(诸如蓝牙),并设置有被配置为执行导航平面检测相关任务的应用的计算装置。
根据本公开的另一实施例,手持单元可以是用于获取超声图像的手持式探头或者是形状与探头形状相似的手持装置。例如,在使用超声成像的医疗诊断领域中,可将用于获取超声图像的探头实现为手持单元。在此情况下,由探头的姿势确定的导航平面可被提供为具有与由探头捕捉的2D超声图像相应的方位。本实施例提供如下用户体验:在超声成像期间以与通过探头对人体进行导航的方式相似的方式对体图像进行导航。
根据本公开的另一实施例,可与手持单元一起另外地使用拷贝人体器官的形状的模型(即,体模(phantom))。在本实施例中,用户可在手握手持单元的同时使手持单元与具有心脏或胸部形状的体模的表面接触,并指定表示体模的特定截面的导航平面。体图像具有表示人体的特定器官的虚拟世界的形式,而体模具有表示人体的特定器官的真实世界的形式。例如,当用户在使探头与体模的特定位置接触之后做出指定具有特定方位的导航平面的手势时,获得与对应于体模的特定位置的体图像的位置处的导航平面相应的断面图像,并在屏幕上显示该断面图像。
这里,体模和体图像之间的尺寸或形状不需要精确地相同。例如,在初始化处理中,体图像可通过将体图像的断面图像之间的间隔与探头在体模的表面上移动的距离进行匹配来与体模对应。体模的使用可防止在用户在空的空间中指定导航平面时可能产生的手抖误差。此外,可将体模的特定位置用作显式参考点,因此不需要记住参考点,这使非技术人员容易地导航到断面图像。
本公开实施例提供的这种体图像导航技术允许通过使用简单的用户手势选择和显示3D空间中的与特定导航平面相应的断面图像,还允许容易地改变显示的导航平面的角度和位置。
以下,将参照图3至图12描述根据本公开实施例的导航体图像的断面图像的设备及其方法。然而,实施例仅用于说明目的,并且本领域技术人员将理解,在不脱离本发明的原理和范围的情况下,可以在这些实施例中进行改变和修改,本发明的范围由权利要求及其等同物限定。
图3是示出根据本公开的用于导航体图像的断面图像的设备的示例的框图。如图3所示,用于导航体图像的断面图像的设备30包括导航平面检测单元31、参考表面信息32、提取单元33、体数据35和显示单元37。提取单元33可包括计算机处理器。
用户可通过使用利用手的手势或利用工具的手势来指定具有特定方位的导航平面。如有需要,用户可通过使用输入装置(诸如键盘或鼠标)来输入用户命令。可由导航平面检测单元31检测由用户指定的导航平面。检测到的导航平面被提供给提取单元33,提取单元33可从体数据35提取与导航平面相应的断面图像。体数据35可被存储在非易失性存储器中,并可包括关于人体的器官或组织的3D超声图像数据。当由提取单元33从体数据35提取表示体数据的特定截面的断面图像时,可由显示单元37可视地显示断面图像。
在用于导航体图像的断面图像的设备30的示例中,用户可通过利用用户手势指定导航平面来导航到3D图像(体图像)的截面(断面图像)。导航平面表示由用户指定的虚拟平面。真实世界中的导航平面的位置和方位对应于虚拟世界中的作为3D数字图像数据的体图像的断面图像的位置和方位。
为此,需要将体图像的断面图像中的至少一个断面图像确定为体参考表面,并且需要将多个导航平面中的至少一个导航平面确定为导航参考表面。根据实施例,关于体参考表面和导航参考表面的信息被包括在参考表面信息32中。如果确定了体参考表面和导航参考表面,则基于导航参考表面的导航平面的位置和方位对应于基于体参考表面的断面图像的位置和方位。因此,当由用户手势指定了随机导航平面时,检测该指定的导航平面,并且提取和显示与检测的导航平面相应的断面图像。之后,如果用户手势改变,并因此指定了具有不同位置和不同方位的导航平面,则提取和显示与导航平面的改变相应地同时改变的断面图像。以此方式,根据本公开的实施例,可通过改变用户手势来自由地导航体图像中的期望断面图像。
体参考表面可作为预先由设备生产商设置的默认值被包括在参考表面信息32中。例如,当在由X轴、Y轴和Z轴构成的坐标系中显示体图像时,可将与显示的体图像的形状的中心垂直平面(即,X-Z平面)相应的断面图像存储为默认参考表面。类似地,可预先将导航参考表面确定为与重力方向平行的多个垂直平面中的位置与在系统初始化阶段确定的第一导航平面的位置相同的垂直平面。
可在导航的开始由用户确定体参考表面和导航参考表面。例如,用户可在屏幕上显示特定断面图像,并且通过将断面图像与由用户手势指定的导航平面进行匹配,可确定体参考表面和导航参考表面。
图4是示出根据本公开的通过体图像进行导航以获得断面图像的处理的示例的示图。如图4所示,用户使用他或她的一只手指定导航平面,并通过使用另一只手操纵键盘来输入命令,从而导航到体图像的断面图像。首先,用户可使用用户的一只手42在传感器44之上或之前的空间中做出指定导航平面RP的手势。之后,传感器44检测用户的手42的手掌或手指或其它工具,从而检测两个方向矢量F1和F2。可使用检测到的F1和F2计算由用户指定的导航平面RP的位置和方位。在检测导航平面RP之前/之后或者在检测导航平面RP同时,用户可通过使用用户的另一只手43操纵键盘46来输入用于选择在屏幕上显示的体图像V的命令。因此,针对选择的体图像V,显示与导航平面RP相应的体图像的断面图像S。由于断面图像S对应于体图像V内的2D平面,因此断面图像S的两个方向F1’和F2’可分别对应于导航平面RP的两个方向F1和F2。
这样,在一个示例中,用户可通过使用在基本相互垂直的方向上张开用户的两根手指或在其它不同方向上分别张开两根手指的手势,来指定随机导航平面。在此状态下,通过直观地旋转或移动包括两根手指的手42的方向或位置,用户可容易且自由地改变在屏幕上显示的断面图像S的方向和位置。
图5是示出根据本公开实施例的在用于导航体图像的断面图像的设备中使用用户手势的方法的示例的示图。在图5中,使用在基本垂直的方向上张开一只手52的大拇指和食指的用户手势来形成导航平面RP。可由传感器54检测用户的手的形态或手指的方向。传感器54可被配置为使用红外线或深度相机(例如,厉动传感器)来检测3D空间中的手指的动作。基于用户的两根手指的方向或从两根手指检测到的三个点的位置,可确定用于形成导航平面RP的两个方向矢量(或直线)F1和F2。
虽然在本实施例中F1和F2被示出为彼此相交的直线,但是贯穿说明书,F1和F2不需要彼此相交,只要它们是用于确定一个平面的直线。
图6是示出利用用于通过体图像进行导航以获得断面图像的设备使用用户手势的另一示例的示图。在图6中,示出张开用户的一只手62的手指并形成基本平直的手掌的用户手势以定义导航平面RP的示例。可由传感器64检测用户的手62的形态或手指的方向。传感器64可被配置为使用红外线或深度相机(例如,厉动传感器)检测3D空间中的手指或手掌的动作。基于用户的手掌和手指的形态或方向或者基于从手指和手掌检测的三个点的位置,可确定用于形成导航平面RP的两个方向矢量(或直线)F1和F2。
图7是示出根据本公开实施例的在用于导航体图像的断面图像的设备中使用用户手势的方法的另一示例的示图。在图7中,示出形成由被用户的手握住的手持装置72的两个轴F1和F2确定的导航平面RP的用户手势的示例。手持装置72的两个轴F1和F2相对于手持装置72固定。因此,根据手持装置72的姿势确定两个轴F1和F2的位置和方向。用户可通过在握持手持装置72的同时移动或旋转手持装置72来形成具有各种位置和方位的导航平面RP。针对手持装置72外部的坐标系(即,体坐标系或导航平面坐标系),可由安装在手持装置72中的传感器(例如,加速度传感器和陀螺仪传感器)感测两个轴F1和F2的位置和方向。体坐标系表示描述在显示屏幕上显示的体图像和体图像的断面图像的坐标系。同时,导航坐标系表示相应于体坐标系而设置的真实世界坐标系。
除了用于感测被配置为确定导航平面RP的固定轴F1和F2的位置和方向的传感器之外,手持装置72还可包括用于将由传感器感测到的信息发送到外部装置(例如图3中示出的设备)的有线/无线通信单元。如图7所示,手持装置72的形状可以与用于2D超声成像的探头的形状相似。可选择地,可使用用于2D超声成像的探头来实现被配置为形成导航平面RP的手持装置72。手持装置72的配置不受限制,只要手持装置72包括当被用户的手握持时被用户操纵的主体、固定到主体的两个轴F1和F2、用于感测两个轴的位置和方向的传感器和通信单元。因此,可使用移动计算装置(诸如智能电话)或其它专用装置来实现手持装置72。
图8是示出根据本公开实施例的在用于导航体图像的断面图像的设备中使用用户手势的方法的另一示例的示图。在图8中,示出形成由被用户的手握住的手持装置82的两个轴F1和F2确定的导航平面RP的用户手势的示例。手持装置82包括当被用户的手握持时被用户操纵的主体、固定到主体的两个轴F1和F2、用于感测两个轴的位置和方向的传感器和通信单元。在该示例中,用户使用体模84移动手持装置82,而不是在空的空间中移动手持装置82。
体模84是在医疗领域中广泛使用的模型,一般而言,体模84表示对人体的各个器官之一制模的塑料产品。用户可以以由手持装置82产生的导航平面RP切割体模84的方式来移动手持装置82。体模84可以在其特定位置设置参考线RL。针对参考线的两个轴R1和R2形成一个平面,该平面使得导航参考表面在导航平面坐标系中被容易地确定。
图9是示出根据本公开实施例的在用于导航体图像的断面图像的设备中确定参考表面的方法的初始化的示图。根据图9中示出的示例,用户可使用手持装置92和体模94将显示屏幕91上的体图像V的断面图像之一确定为参考表面RS。
参照图9,显示屏幕91可以是由图3的体图像导航设备30的显示单元37显示的屏幕的示例。屏幕91可包括以3D呈现显示体图像V和/或断面图像的3D视图部分911、以2D呈现显示由用户手势选择的断面图像的2D视图部分912、以及显示用户看见的多个断面图像中的捕捉的断面图像的缩小图像的捕捉列表部分913。提供屏幕的配置仅作为示例,并且可以以多种配置提供屏幕。
用户可允许手持装置92与体模94的参考线RL接触,使得由设置在手持装置92中的传感器检测由与体模94的参考线RL平行的直线R2和与直线R2垂直的直线R1确定的导航平面。检测到的导航平面可对应于被竖直提供在显示屏幕91上的体图像V的中心的参考表面RS。这样,体模94的使用使导航参考平面能够被容易地识别,并使体参考表面和导航参考表面容易地相互匹配。
图10是示出根据本公开实施例的导航体图像的断面图像的方法100的操作的示例的流程图。首先,在导航开始之前执行初始化处理(101)。
如结合图11和图12的图10所示,初始化处理(101)是将呈现有体图像和断面图像的数字虚拟世界坐标系(即,3D体坐标系)与检测导航平面的真实世界坐标系(即,3D导航坐标系)进行关联的处理。一旦体坐标系与导航坐标系相关联,在导航坐标系中检测到的平面就与体坐标系中的平面相关联。
在初始化之后,检测用户手势(103)。用户手势是用户通过使用一只手形成导航平面以通过体图像导航到体图像的断面图像而做出的手势。例如,用户可做出用于形成导航平面的张开两根手指的手势、平直地张开手掌的手势、在握持用于超声图像捕捉的探头的同时扫描虚拟体图像的手势、或者使用智能电话扫描体模的手势。可由厉动传感器、加速度传感器和陀螺仪传感器检测这样的用户手势。
之后,从用户手势确定导航平面(105)。在操作105,首先,从检测到的用户手势提取足以形成单个平面的数据。例如,可提取不在同一直线上的三个点、彼此相交的两条直线和相互平行的两条直线作为数据。之后,从所述数据产生平面,并且可将产生的平面确定为由用户手势产生的导航平面。可基于在初始化(操作101)中确定的导航坐标系来确定导航平面。
当检测到导航平面时,可提取与导航平面所存在于的导航坐标系相应的体坐标系中存在的断面图像(107)。体图像可表示3D超声图像,断面图像可表示在3D超声图像的随机方位获得的2D断面图像。一般而言,可从单个体图像的随机轴提取数百个断面图像。单个体图像可具有大量轴,只要满足3D空间中的可允许分辨率。基于导航平面从体图像提取的断面图像表示具有与导航坐标系中的导航平面的位置和方位相应的体坐标系中的位置和方位的断面图像。
之后,可基于体坐标系将提取的断面图像可视地显示在如图9所示的显示屏幕的3D视图部分中(109)。
图11是示出根据本公开实施例的导航体图像的断面图像的方法中的初始化处理(110)的示例的流程图。初始化处理(110)示出在图10中描述的体图像导航方法的初始化处理的示例。图11中示出的示例包括同时设置体参考表面和导航参考表面的初始化方案。
在初始化处理(110)中,首先,当用户使用键盘或鼠标输入命令时,可接收初始化命令(111)。之后,当用户使用用户的手或手持装置做出用于形成导航平面的手势时,传感器检测该手势(112),并且从用户手势确定导航平面(113)。
之后,从体数据提取与随机断面图像相应的断面图像,并且将提取的断面图像显示在显示屏幕(114)上。用户将显示的断面图像与由用户手势形成的导航平面进行比较,从而确定断面图像和导航平面是否适合作为参考表面(115)。如果断面图像和导航平面被确定为适合作为参考表面(操作115的是),则用户可使用键盘或鼠标输入参考表面设置命令。因此,在当前平面上显示的断面图像被确定为体参考表面,当前检测到的导航平面被确定为导航参考表面。可将确定的参考表面包括并存储在图3的参考表面信息32中(116)。
同时,如果断面图像和导航平面未被确定为适合作为参考表面(操作115的否),则用户可改变手势从而具有另一位置和/或另一方位的导航平面被检测(117)。当导航平面根据手势改变而改变时,提取新的断面图像,并将其显示在屏幕上(118),其中,该新的断面图像是响应于先前检测到的导航平面改变为当前导航平面而从先前显示的断面图像改变而来的。之后,控制流程返回确定改变的断面图像和改变的导航平面是否适合作为参考表面的操作(115)。
虽然以上针对体参考表面和导航参考表面的确定描述了初始化处理,但是可能需要在初始化处理中执行匹配,即,在导航平面的位置(例如,导航平面的特定边角的坐标)改变的距离和附近断面图像被提取的间隔之间的匹配。例如,当导航平面的位置改变1mm时,可提取与相邻下一断面图像相应的断面图像。
图12是示出根据本公开实施例的导航体图像的断面图像的方法中的初始化处理的另一示例的流程图。与描述同时确定体参考表面和导航参考表面的初始化处理(110)的图11不同,图12示出预先确定体参考表面的初始化处理(120)。
在初始化处理(120)中,首先,当用户使用键盘或鼠标输入命令时,可接收初始化命令(121)。之后,当用户使用用户的手或手持装置做出用于形成导航平面的手势时,传感器检测该手势(123),并且从用户手势确定导航平面(125)。之后,从体数据提取被预先设置的参考表面(127),并且将提取的体参考表面与当前确定的导航平面进行匹配,从而将当前确定的导航平面确定为导航参考表面(129)。
可使用包括例如控制器、传感器、处理器、产生器、驱动器、被配置为执行特定功能的电路和其它等同电子组件的硬件来实现上述体图像导航设备的组件和单元。在其它方面,可使用计算装置的硬件、固件和软件的组合来实现上述体图像导航设备的组件,其中,计算装置包括处理器、存储器、用户输入装置和/或呈现装置。存储器是存储被编码为当被处理器执行时执行特定任务的计算机可执行软件、应用、程序模块、例程、指令和/或数据的计算机可读存储介质。处理器可读取和执行包括在计算机可读介质中的计算机可执行软件、应用、程序模块、例程、指令和/或数据。用户输入装置可以是使用户能够输入命令从而处理器执行特定任务或使用户能够输入执行特定任务所需的数据的装置。用户输入装置可包括物理或虚拟键盘、键区、键按钮、鼠标、滚轮、跟踪球、触敏输入装置或麦克风。呈现装置可包括显示器、打印机、扬声器或震动装置。
上述显示单元可以可视地显示图像。显示单元可包括LCD屏幕、LED屏幕、投影仪等。显示单元可包括在包括执行上述各个步骤的处理器的计算装置或包括在专用于可视地显示从分离的计算装置接收到的图像数据的显示装置中。
可通过包括被配置为执行特定功能的电路的硬件执行用于体图像导航方法的步骤、过程、处理。在其它方面,体图像导航方法可被编码为随后被计算装置的处理器执行的计算机可执行指令,从而实现所述方法。计算机可执行指令可包括软件、应用、模块、处理、插件程序、程序、指令和/或数据结构。计算机可执行指令可包括在计算机可读介质中。计算机可读介质包括计算机可读存储介质和计算机可读通信介质。非暂时性计算机可读存储介质可包括RAM、ROM、闪存、光盘、磁盘、磁带、硬盘和固态盘。计算机可读通信介质可表示计算机可执行指令,其中,体图像导航方法被编程为能够通过通信网络被发送和接收的信号的形式。
计算装置可包括各种装置,诸如可穿戴计算装置、手持计算装置、智能电话、平板、膝上型电脑、台式电脑、个人计算机和服务器。计算装置可以是独立式装置。计算装置可包括通过通信网络相互合作的多个计算装置。
虽然本公开包括特定示例,但是本领域普通技术人员将清楚,在不脱离权利要求及其等同物的精神和范围的情况下,可以对这些示例进行形式和细节上的各种改变。在此描述的示例应仅被视为描述性意义,而不是为了限制的目的。对每个示例中的特征和方面的描述应被视为可应用于其它示例中的相似特征或方面。如果以不同顺序执行描述的技术,和/或如果以不同的方式组合描述的系统、构架、装置或电路中的组件和/或用其它组件或它们的等同物进行替换或补充,则可实现合适的结果。因此,公开的范围不由具体实施方式限定,而是由权利要求及其等同物限定,并且权利要求及其等同物的范围内的所有改变将被解释为包括在本公开中。

Claims (17)

1.一种用于通过体图像进行导航的设备,所述设备包括:
导航平面检测单元,被配置为从用户手势数据在真实世界的导航坐标系中产生虚拟平面,并将虚拟平面确定为导航平面;
提取单元,被配置为基于与导航坐标系的参考表面相应的虚拟世界的体坐标系的参考表面,从3D体数据提取与导航平面相应的2D断面图像;
显示单元,被配置为显示提取的断面图像。
2.如权利要求1所述的设备,其中,用户手势数据包括通过经由在固定位置设置的传感器检测用户的手的动作而获得的数据。
3.如权利要求1所述的设备,其中,用户手势数据包括通过经由在用户的手握持的手持装置中设置的传感器检测手持装置的方位而获得的数据。
4.如权利要求3所述的设备,其中:
手持装置被提供为超声成像探头的形式,
在与由超声成像探头拍摄的图像的位置相似的位置产生导航平面。
5.如权利要求3所述的设备,其中:
手持装置被提供为超声成像探头的形式;
手持装置被用于提供与具有对应于体数据的3D形状的体模接触的用户手势;
在与体数据相应的体模的断面位置产生导航平面。
6.如权利要求1所述的设备,其中,通过将导航参考表面与体参考表面进行关联来使导航坐标系的参考表面和体坐标系的参考表面相关联,其中,导航参考表面由基于用户手势在导航坐标系中确定的导航平面所确定,体参考表面由体坐标系中的体数据的多个断面图像之中的断面图像所确定。
7.一种通过体图像进行导航的方法,所述方法包括:
从由传感器检测到的用户手势数据在真实世界的导航坐标系中产生虚拟平面,将虚拟平面确定为导航平面;
基于与导航坐标系的参考表面相应的虚拟世界的体坐标系的参考表面,从3D体数据提取与导航平面相应的2D断面图像;
显示提取的断面图像。
8.如权利要求7所述的方法,其中,用户手势数据包括通过经由在固定位置设置的传感器检测用户的手的动作而获得的数据。
9.如权利要求7所述的方法,其中,用户手势数据包括通过经由在用户的手握持的手持装置中设置的传感器检测手持装置的方位而获得的数据。
10.如权利要求9所述的方法,其中:
手持装置被提供为超声成像探头的形式,
在与由超声成像探头拍摄的图像的位置相似的位置产生导航平面。
11.如权利要求9所述的方法,其中:
手持装置被提供为超声成像探头的形式;
手持装置被用于提供与具有对应于体数据的3D形状的体模接触的用户手势;
在与体数据相应的体模的断面位置产生导航平面。
12.如权利要求7所述的方法,其中,通过将导航参考平面与体参考表面进行关联来使导航坐标系的参考平面和体坐标系的参考表面相关联,其中,导航参考平面由基于用户手势在导航坐标系中确定的导航平面所确定,体参考表面由体坐标系中的体数据的多个断面图像之中的断面图像所确定。
13.一种通过体图像进行导航的设备,所述设备包括:
传感器,被配置为检测用于获得导航平面的坐标的姿势;
处理器,被配置为基于检测到的姿势获得导航平面的坐标并基于该坐标提取3D体图像的2D断面图像;
显示器,被配置为显示提取的断面图像。
14.如权利要求13所述的设备,其中,传感器包括深度相机。
15.如权利要求13所述的设备,其中,传感器被布置在手持装置内,并被配置为检测手持装置的方位。
16.如权利要求13所述的设备,其中,传感器被配置为基于用户的手的手掌或一根或更多根手指的方位检测导航平面的坐标。
17.如权利要求16所述的设备,其中,传感器被配置为检测所述手掌或一根或更多根手指的方位的改变;处理器被配置为基于所述方位的改变提取3D体图像的另一2D断面图像。
CN201510245906.4A 2014-05-20 2015-05-14 用于通过体图像进行导航的设备和方法 Withdrawn CN105094635A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140060558A KR20150133585A (ko) 2014-05-20 2014-05-20 3차원 영상의 단면 탐색 시스템 및 방법
KR10-2014-0060558 2014-05-20

Publications (1)

Publication Number Publication Date
CN105094635A true CN105094635A (zh) 2015-11-25

Family

ID=53396181

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510245906.4A Withdrawn CN105094635A (zh) 2014-05-20 2015-05-14 用于通过体图像进行导航的设备和方法

Country Status (4)

Country Link
US (1) US20150339859A1 (zh)
EP (1) EP2947549A1 (zh)
KR (1) KR20150133585A (zh)
CN (1) CN105094635A (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9826958B2 (en) 2009-11-27 2017-11-28 QView, INC Automated detection of suspected abnormalities in ultrasound breast images
US10251621B2 (en) 2010-07-19 2019-04-09 Qview Medical, Inc. Automated breast ultrasound equipment and methods using enhanced navigator aids
US9439621B2 (en) 2009-11-27 2016-09-13 Qview, Medical Inc Reduced image reading time and improved patient flow in automated breast ultrasound using enchanced, whole breast navigator overview images
US10603007B2 (en) 2009-11-27 2020-03-31 Qview Medical, Inc. Automated breast ultrasound equipment and methods using enhanced navigator aids
EP3469553A1 (en) * 2016-06-10 2019-04-17 Koninklijke Philips N.V. Systems and methods for generating b-mode images from 3d ultrasound data
US10591730B2 (en) * 2017-08-25 2020-03-17 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear
DE112019006107T5 (de) * 2019-01-11 2021-11-18 Mitsubishi Electric Corporation Authoring-Vorrichtung, Authoring-Verfahren und Authoring-Programm
KR20240011560A (ko) * 2022-07-19 2024-01-26 재단법인 아산사회복지재단 의료 단면 이미지의 제공 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070279435A1 (en) * 2006-06-02 2007-12-06 Hern Ng Method and system for selective visualization and interaction with 3D image data
US8334867B1 (en) * 2008-11-25 2012-12-18 Perceptive Pixel Inc. Volumetric data exploration using multi-point input controls

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070279435A1 (en) * 2006-06-02 2007-12-06 Hern Ng Method and system for selective visualization and interaction with 3D image data
US8334867B1 (en) * 2008-11-25 2012-12-18 Perceptive Pixel Inc. Volumetric data exploration using multi-point input controls

Also Published As

Publication number Publication date
US20150339859A1 (en) 2015-11-26
KR20150133585A (ko) 2015-11-30
EP2947549A1 (en) 2015-11-25

Similar Documents

Publication Publication Date Title
CN105094635A (zh) 用于通过体图像进行导航的设备和方法
EP3786892B1 (en) Method, device and apparatus for repositioning in camera orientation tracking process, and storage medium
US12118683B2 (en) Content creation in augmented reality environment
CN110476142A (zh) 虚拟对象用户界面显示
CN102906671B (zh) 手势输入装置及手势输入方法
JP2021518022A (ja) 手部キーポイント認識モデルの訓練方法及びその装置、手部キーポイントの認識方法及びその装置、並びにコンピュータプログラム
US20170192493A1 (en) Three-dimensional object tracking to augment display area
US20130246954A1 (en) Approaches for highlighting active interface elements
CN105320275B (zh) 可穿戴设备和操作可穿戴设备的方法
EP2903256B1 (en) Image processing device, image processing method and program
CN107077169A (zh) 扩增现实中的空间交互
CN109725782B (zh) 一种实现虚拟现实的方法、装置及智能设备、存储介质
Liu et al. Multi-HMM classification for hand gesture recognition using two differing modality sensors
CN108431734A (zh) 用于非触摸式表面交互的触觉反馈
CN108718397A (zh) 用于在帧速率上变频中进行帧重复控制的技术
US20120268493A1 (en) Information processing system for augmented reality
JP2014215752A (ja) 電子機器および手書きデータ処理方法
US20170140215A1 (en) Gesture recognition method and virtual reality display output device
US10133470B2 (en) Interfacing device and method for providing user interface exploiting multi-modality
CN204945943U (zh) 用于为外部显示设备提供远程控制信号的远程控制设备
JPWO2015170641A1 (ja) 操作画面表示装置、操作画面表示方法およびプログラム
KR102292619B1 (ko) 색상 생성 방법 및 그에 따른 장치, 그에 따른 시스템
WO2019207875A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN114816088A (zh) 线上教学方法、电子设备和通信系统
US8913008B2 (en) Image data generation using a handheld electronic device

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20151125

WW01 Invention patent application withdrawn after publication