CN113693623B - 一种基于增强现实的超声扫查引导方法及系统 - Google Patents

一种基于增强现实的超声扫查引导方法及系统 Download PDF

Info

Publication number
CN113693623B
CN113693623B CN202110983111.9A CN202110983111A CN113693623B CN 113693623 B CN113693623 B CN 113693623B CN 202110983111 A CN202110983111 A CN 202110983111A CN 113693623 B CN113693623 B CN 113693623B
Authority
CN
China
Prior art keywords
scanning
augmented reality
probe
ultrasonic
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110983111.9A
Other languages
English (en)
Other versions
CN113693623A (zh
Inventor
朱瑞星
兰璐
夏炎
彭君湜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Weipeng Suzhou Medical Devices Co ltd
Shanghai Shenzhi Information Technology Co ltd
Original Assignee
Weipeng Suzhou Medical Devices Co ltd
Shanghai Shenzhi Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Weipeng Suzhou Medical Devices Co ltd, Shanghai Shenzhi Information Technology Co ltd filed Critical Weipeng Suzhou Medical Devices Co ltd
Priority to CN202110983111.9A priority Critical patent/CN113693623B/zh
Publication of CN113693623A publication Critical patent/CN113693623A/zh
Application granted granted Critical
Publication of CN113693623B publication Critical patent/CN113693623B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus

Abstract

本发明提供一种基于增强现实的超声扫查引导方法及系统,包括:采用一增强现实设备实时拍摄并显示真实扫查场景的真实场景图像,根据真实场景图像分别对背景定位标识和探头定位标识进行追踪得到背景定位标识的第一位姿信息和超声探头的第二位姿信息;增强现实设备根据第一位姿信息以及预先获取的受试者的一扫查目标区域的空间位置标定信息于真实场景图像上叠加渲染扫查目标区域,以及根据第二位姿信息于真实场景图像上叠加渲染探头位置区域;增强现实设备在超声扫查过程中根据探头位置区域和扫查目标区域之间的重合状态生成并显示相应的扫查提示,以对操作者进行超声扫查引导。有益效果是为超声扫查提供标准化规范的引导提高超声扫查的普及度。

Description

一种基于增强现实的超声扫查引导方法及系统
技术领域
本发明涉及超声扫查技术领域,尤其涉及一种基于增强现实的超声扫查引导方法及系统。
背景技术
医学超声成像是一种非侵入性医学成像手段,医学超声扫查也是目前很多疾病早期筛查、检测和诊断的重要方法,超声扫查一般用于人体器官的非侵入性筛查和疾病诊断,例如甲状腺结节扫查。但是目前的医学超声扫查是一个高度依赖超声医师手动操作经验的技术,对超声操作医师的操作水平和训练时长有较高的要求。
超声医师需要经过较长时间的培训和实际操作才能熟练地将超声探头放置在受试者身体上的目标位置,从而获得可用于筛查和诊断应用的优质超声图像。此外,由于目前的医学超声扫查高度依赖超声医师手动操作经验,因而采集到的超声数据的标准差较大。
然而,超声医师可能没有机会或条件接受足够长时间的实地培训和高质量的现场指导,导致其采集到的超声数据的质量差异较大,不利于进行标准化的图像分析和疾病诊断。因此,需要一种能够对超声扫查进行标准化规范的指导方法,提高高质量培训的易得性,减少图像采集的质量差异,辅助更多超声医师能够获得标准化的医学超声扫查图像数据,从而扩大超声扫查的应用场景,提高超声扫查的普及度。
发明内容
针对现有技术中存在的问题,本发明提供一种基于增强现实的超声扫查引导方法,预先搭建一真实扫查场景,所述真实扫查场景中设有用以指示一受试者的扫查位姿的至少一背景定位标识和用以对所述受试者进行超声扫查的一超声探头,所述超声探头上设有一探头定位标识;
则所述超声扫查引导方法包括:
步骤S1,采用一增强现实设备实时拍摄并显示所述真实扫查场景的真实场景图像,根据所述真实场景图像分别对所述背景定位标识和所述探头定位标识进行追踪得到所述背景定位标识的第一位姿信息和所述超声探头的第二位姿信息;
步骤S2,所述增强现实设备根据所述第一位姿信息以及预先获取的所述受试者的一扫查目标区域的空间位置标定信息于所述真实场景图像上叠加渲染所述扫查目标区域,以及根据所述第二位姿信息于所述真实场景图像上叠加渲染一探头位置区域;
步骤S3,所述增强现实设备在超声扫查过程中根据所述探头位置区域和所述扫查目标区域之间的重合状态生成并显示相应的扫查提示,以对操作者进行超声扫查引导。
优选的,执行所述步骤S1之前,包括一空间位置标定信息的获取过程,包括:
步骤A1,采用所述增强现实设备拍摄并显示包含所述受试者和所述背景定位标识的第一场景图像;
步骤A2,所述增强现实设备根据所述第一场景图像对所述背景定位标识进行追踪得到所述背景定位标识的当前位姿信息;
步骤A3,所述增强现实设备根据所述当前位姿信息处理得到所述受试者的所述扫查目标区域的所述空间位置标定信息。
优选的,所述步骤A3中,所述增强现实设备根据所述当前位姿信息和预设的表示所述背景定位标识与所述扫查目标区域之间的空间位置关系的一初始标定信息,处理得到所述受试者的所述扫查目标区域的所述空间位置标定信息。
优选的,所述步骤S1中,还包括:
所述增强现实设备根据所述第一位姿信息于所述真实场景图像上的所述背景定位标识的所在位置叠加渲染一指示标记,以指示所述第一位姿信息。
优选的,执行所述步骤S2之前,还包括一追踪调整过程,包括:
所述增强现实设备判断所述指示标记的实时指示状态是否与预设的标准指示状态一致:
若是,则转向所述步骤S2;
若否,则给出一调整提示,随后返回所述步骤S1。
优选的,执行所述步骤S3之前,还包括:
所述增强现实设备接收并根据外部的一手动调节指令对叠加渲染的所述扫查目标区域进行位置调整。
优选的,所述扫查目标区域包括至少一目标子区域;
则所述步骤S3包括:
步骤S31,针对每个所述目标子区域,所述增强现实设备在超声扫查过程中,判断所述超声探头当前对应的所述探头位置区域与所述目标子区域之间是否重合:
若是,则转向步骤S32;
若否,则给出一第一扫查提示,以引导所述操作者对所述超声探头进行位置调整,随后返回所述步骤S31;
步骤S32,所述增强现实设备统计所述探头位置区域与所述目标子区域之间的重合时间,并判断所述重合时间是否小于一时间阈值:
若是,则给出一第二扫查提示,以引导所述操作者重新扫查所述目标子区域,随后返回所述步骤S31;
若否,则给出一第三扫查提示,以提示所述操作者所述目标子区域扫查成功,随后转向步骤S33;
步骤S33,所述增强现实设备判断所述扫查目标区域中的所有所述目标子区域是否均扫查完成:
若是,则退出;
若否,则给出一第四扫查提示,以引导所述操作者扫查下一个所述目标子区域,随后返回所述步骤S31。
优选的,所述步骤S3中,还包括:
所述增强现实设备在超声扫查过程中,实时接收并显示所述超声探头扫查得到的超声图像。
所述背景定位标识和所述探头定位标识为二维码。
本发明还提供一种基于增强现实的超声扫查引导系统,应用上述的超声扫查引导方法,所述超声扫查引导系统包括:
至少一背景定位标识,设置于一预先搭建的真实扫查场景中,用于指示一受试者的扫查位姿;
超声探头,所述超声探头上设有一探头定位标识;
增强现实设备,连接所述超声探头,所述增强现实设备包括:
图像采集模块,连接一图像显示模块,用于实时拍摄所述真实扫查场景的真实场景图像并发送至所述图像显示模块进行显示;
第一处理模块,连接所述图像采集模块,用于获取并根据所述真实场景图像分别对所述背景定位标识和所述探头定位标识进行追踪得到所述背景定位标识的第一位姿信息和所述超声探头的第二位姿信息;
第二处理模块,分别连接所述第一处理模块和所述图像显示模块,用于根据所述第一位姿信息以及预先获取的所述受试者的一扫查目标区域的空间位置标定信息于所述真实场景图像上叠加渲染所述扫查目标区域,以及根据所述第二位姿信息于所述真实场景图像上叠加渲染一探头位置区域,并通过所述图像显示模块进行显示;
扫查引导模块,分别连接所述第二处理模块和所述图像显示模块,用于在超声扫查过程中根据所述探头位置区域和所述扫查目标区域之间的重合状态生成相应的扫查提示并通过所述图像显示模块显示,以对操作者进行超声扫查引导。
上述技术方案具有如下优点或有益效果:通过搭建真实扫查场景,实时拍摄受试者所在的真实场景图像,并基于真实场景图像进行背景定位标识和探头定位标识的追踪,进而在真实场景图像上叠加渲染引导信息,为超声扫查提供标准化规范的引导,提高高质量培训的易得性,减少图像采集的质量差异,辅助更多超声医师能够获得标准化的医学超声扫查图像数据,从而扩大超声扫查的应用场景,提高超声扫查的普及度。
附图说明
图1为本发明的较佳的实施例中,真实扫查场景的示意图;
图2为本发明的较佳的实施例中,一种基于增强现实的超声扫查引导方法的流程示意图;
图3为本发明的较佳的实施例中,增强现实设备的显示界面示意图;
图4为本发明的较佳的实施例中,空间位置标定信息的获取过程的流程示意图;
图5为本发明的较佳的实施例中,追踪调整过程的流程示意图;
图6为本发明的较佳的实施例中,增强现实设备的显示界面示意图;
图7为本发明的较佳的实施例中,扫查引导过程的流程示意图;
图8为本发明的较佳的实施例中,一种基于增强现实的超声扫查引导系统的结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本发明并不限定于该实施方式,只要符合本发明的主旨,则其他实施方式也可以属于本发明的范畴。
本发明的较佳的实施例中,基于现有技术中存在的上述问题,现提供一种基于增强现实的超声扫查引导方法,如图1所示,预先搭建一真实扫查场景,真实扫查场景中设有用以指示一受试者102的扫查位姿的至少一背景定位标识110和用以对受试者进行超声扫查的一超声探头106,超声探头106上设有一探头定位标识108;
如图2所示,则超声扫查引导方法包括:
步骤S1,采用一增强现实设备实时拍摄并显示真实扫查场景的真实场景图像,根据真实场景图像分别对背景定位标识和探头定位标识进行追踪得到背景定位标识的第一位姿信息和超声探头的第二位姿信息;
步骤S2,增强现实设备根据第一位姿信息以及预先获取的受试者的一扫查目标区域的空间位置标定信息于真实场景图像上叠加渲染扫查目标区域,以及根据第二位姿信息于真实场景图像上叠加渲染一探头位置区域;
步骤S3,增强现实设备在超声扫查过程中根据探头位置区域和扫查目标区域之间的重合状态生成并显示相应的扫查提示,以对操作者进行超声扫查引导。
具体地,本实施例中,如图1所示,上述背景定位标识110和探头定位标识108可以是二维码。上述增强现实设备配置有摄像头和图像处理器,通过摄像头实时采集的若干帧扫查实景图像,随后通过图像处理器对若干帧扫查实景图像进行处理得到真实扫查图像。该增强现实设备104可以采用但不限于智能手机、平板电脑、便携式移动设备、增强现实眼镜等,该增强现实设备104具有图像采集和图像处理功能并搭载有相关软件。操作者101可以手持或穿戴上述增强现实设备104,根据增强现实设备104上显示的叠加有探头位置区域和扫查目标区域的真实场景图像,以及扫查提示,同时利用超声探头106对扫查目标区域进行扫查。
进一步地,基于搭建的真实扫查场景,可以通过超声探头结合增强现实设备准确且高质量扫查任何感兴趣的部位,如颈部超声以及腹部超声等。其中,以甲状腺超声扫查为例进行说明,作为优选,真实扫查场景中还可以设置一背景板112,用于安装或粘贴背景定位标识110,该背景板112可以是垂直于地面且平整的背景板112。如图1所示,指示受试者102以特定姿势坐定在竖直平滑的背景板112的前方,背景板112的上方且在受试者102就坐位置的附近指定位置安装或粘贴上述背景定位标识110,如图3所示,该背景定位标识110可以是两个,分别为第一标识1101和第二标识1102,分别设置于受试者102的头部两侧,用以指示受试者102的扫查位姿,同时作为受试者102的位置坐定的限位提示,即指示受试者102就坐时确保头部位于第一标识1101和第二标识1102之间。需要说明的是,上述背景定位标识110的设置位置以及设置数量不作限定,且在进行不同感兴趣部位的扫查时,可以结合人体生理结构比例设置不同的背景定位标识110,随后基于背景定位标识110的追踪推断出感兴趣部位的空间位置,进而提供超声扫查标准化引导。
以甲状腺超声扫查为例进行说明,操作者101可以面对受试者102坐在其正前方,手持或穿戴增强现实设备104,通过增强现实设备104的摄像头拍摄受试者102、背景定位标识110以及扫查实景得到扫查实景图像,该扫查实景图像显示在增强现实设备104的显示屏幕上。同时,操作者101将超声探头106放置于扫查区域,并确保摄像头能够捕捉到超声探头106。随着摄像头追踪超声探头106以及设置在超声探头106上的探头定位标识108,并基于对探头定位标识108的追踪生成如图3所示的引导信息,该引导信息包括背景定位标识的指示标记201,探头位置区域202和扫查目标区域204,该引导信息还包括在超声扫查过程中,超声探头106移动时的给出的扫查提示,引导操作者101完成超声图像的采集,有效减少对操作者101的手动操作经验的依赖,减少图像采集的质量差异,辅助更多超声医师能够获得标准化的医学超声扫查图像数据,从而扩大超声扫查的应用场景,提高超声扫查的普及度。
作为优选的实施方式,在进行叠加渲染时,可以将背景定位标识110,探头定位标识108,扫查目标区域204,超声探头106定义在同一个扫查空间坐标系内;该扫查空间坐标系是由增强现实设备104定义的三维直角坐标系。具体地,一种可行的坐标系定义为:扫查空间坐标系的原点可位于增强现实设备104的摄像头位置,扫查空间坐标系的X轴与Y轴分别平行于摄像头成像平面的横轴方向与纵轴方向,扫查空间坐标系的Z轴平行于摄像头的深度方向。应当注意的是,本实施例中所述的坐标系定义方式仅为示例,不对坐标系定义进行具体限定。
上述空间位置标定信息用于表示扫查目标区域204相对于背景定位标识110的偏移信息,包括偏移位置和偏移朝向。进一步优选的,可以将该偏移信息定义在背景坐标系内,该背景坐标系是由背景定位二维码定义的三维直角坐标系。具体地,一种可行的坐标系定义为:背景坐标系的原点可位于其中一个背景定位标识的中心,背景坐标系的X轴与Y轴分别平行于背景定位标识的横轴方向与纵轴方向,背景坐标系的Z轴垂直于背景定位标识。基于此,一种可行的偏移信息定义为:扫查目标区域204的中心点相对于背景坐标系原点的位置定义为偏移位置,扫查目标区域204的朝向相对于背景坐标系Z轴的朝向定义为偏移朝向。应当注意的是,本实施例中所述的坐标系与偏移信息定义方式仅为示例,不对坐标系与偏移信息定义进行具体限定。
基于此,以目标扫查区域204的叠加渲染为例进行说明,基于移动设备中预置的空间位置标定信息的初始标定值,包括扫查目标位置自身的形状尺寸、各个扫查目标位置之间的相对位置关系、扫查目标位置在背景坐标系中的偏移位置与偏移朝向,将扫查目标区域204叠加渲染在真实场景图像上。其中,根据追踪得到的空间位置标定信息,可通过三维坐标变换方法,将扫查目标区域的位置与朝向信息从背景坐标系转换至扫查空间坐标系中,从而得到扫查目标区域在扫查空间坐标系中的位置与朝向。进一步地,根据增强现实设备104的摄像头参数(主要表征摄像头的成像特性,摄像头的三维坐标与二维成像平面的投影关系),通过摄像头成像与投影原理,可将所述扫查目标区域在扫查空间坐标系中的位置与朝向叠加投影在真实场景图像中的相应位置。
本发明的较佳的实施例中,执行步骤S1之前,如图4所示,包括一空间位置标定信息的获取过程,包括:
步骤A1,采用增强现实设备拍摄并显示包含受试者和背景定位标识的第一场景图像;
步骤A2,增强现实设备根据第一场景图像对背景定位标识进行追踪得到背景定位标识的当前位姿信息;
步骤A3,增强现实设备根据当前位姿信息处理得到受试者的扫查目标区域的空间位置标定信息。
具体地,本实施例中,在超声扫查之前,首先进行背景定位标识的追踪,以获取受试者的扫查目标区域的空间位置标定信息。同上所述,受试者102以特定姿势坐定在背景定位标识110指示的指定位置,操作者101手持或穿戴的增强现实设备104的显示屏幕实时显示第一场景图像,该第一场景图像由增强现实设备104搭载的RGB摄像头获取,该第一场景图像中只包含受试者和背景定位标识110,不包含其他物体,以排除干扰。在获取第一场景图像后,增强现实设备104可以采用可见光图像识别的追踪方法对背景定位标识110进行识别跟踪,通过分析对比实际操作中采集的背景定位标识110的大小和朝向,对第一场景图像进行处理得到背景定位标识110相对于摄像头的空间位置,即上述空间位置标定信息,上述对第一场景图像进行处理可以基于近大远小的透视原理实现。需要说明的是,本实施例中仅仅是示例性的说明背景定位标识110的一些追踪手段,并不对追踪方法进行具体限定。
上述空间位置标定信息用于表示扫查目标区域204相对于背景定位标识110的偏移信息,包括偏移位置和偏移朝向。进一步优选的,可以将该偏移信息定义在背景坐标系内,该背景坐标系是由背景定位二维码定义的三维直角坐标系。具体地,一种可行的坐标系定义为:背景坐标系的原点可位于其中一个背景定位标识的中心,背景坐标系的X轴与Y轴分别平行于背景定位标识的横轴方向与纵轴方向,背景坐标系的Z轴垂直于背景定位标识。基于此,一种可行的偏移信息定义为:扫查目标区域204的中心点相对于背景坐标系原点的位置定义为偏移位置,扫查目标区域204的朝向相对于背景坐标系Z轴的朝向定义为偏移朝向。应当注意的是,本实施例中所述的坐标系与偏移信息定义方式仅为示例,不对坐标系与偏移信息定义进行具体限定。
本发明的较佳的实施例中,步骤A3中,增强现实设备根据当前位姿信息和预设的表示背景定位标识与扫查目标区域之间的空间位置关系的一初始标定信息,处理得到受试者的扫查目标区域的空间位置标定信息。
具体地,本实施例中,上述初始标定信息基于标准化测试环境与人体解剖结构典型值得到。具体地,上述标准化测试环境对应于本技术方案中的真实扫查场景,标准化测试环境中背景板112、第一标识1101和第二标识1102之间的相对位置关系为标准化固定值。进一步具体地,受试者按照限定位置坐定时,其身体位置(如头部)相对于背景定位标识的位置可认为接近于一标准化固定值。根据人体解剖结构典型值,可认为受试者的扫查目标区域相对于其身体位置(如头部)接近于一标准化固定值。因此可认为,当受试者根据标准测试环境限定位置坐定后,扫查目标区域相对于背景定位标识的相对位置与朝向,即所述初始标定信息,接近于一标准固定值。根据空间标定信息的初始标定信息渲染得到的扫查目标区域的标记接近于受试者的实际扫查目标区域。基于此,在获取背景定位标识的当前位姿信息后,结合该初始标定信息即可处理得到受试者的扫查目标区域的空间位置标定信息。优选的,该空间位置标定信息保存在增强现实设备中,以供后续扫查流程使用。
本发明的较佳的实施例中,步骤S1中,还包括:
增强现实设备根据第一位姿信息于真实场景图像上的背景定位标识的所在位置叠加渲染一指示标记,以指示第一位姿信息。
具体地,本实施例中,上述第一位姿信息和第二位姿信息均可采用包括但不限于可见光图像识别的追踪方法获取,在获取第一位姿信息之后,通过在真实场景图像中的背景定位标识110上叠加渲染一个具有方向性的三维几何物体作为指示标记201,以指示该第一位姿信息,该第一位姿信息包括实时位置与朝向。所述指示标记201在界面中渲染的位置与朝向绑定于背景定位标识110的追踪结果,其位置、朝向与背景定位标识110的追踪结果中的位置、朝向相同。
本发明的较佳的实施例中,执行步骤S2之前,还包括一追踪调整过程,如图5所示,包括:
增强现实设备判断指示标记的实时指示状态是否与预设的标准指示状态一致:
若是,则转向步骤S2;
若否,则给出一调整提示,随后返回步骤S1。
作为优选,追踪正常情况下,该指示标记201的中心与背景定位标识110的中心重合,朝向为沿背景定位标识110左右侧边向上,即标准指示状态。因此,该指示标记201可作为背景定位标识110的追踪状态指示,当其位置或方向不符合所述标准指示状态时,可以认为当前增强现实设备104对真实场景图像中背景定位标识110的追踪不准确,或者追踪结果有误。此情况提醒操作者101应当调整增强现实设备104,重新对背景定位标识110进行追踪,使得叠加渲染的指示标记201符合正常追踪情况。
本发明的较佳的实施例中,执行步骤S3之前,还包括:
增强现实设备接收并根据外部的一手动调节指令对叠加渲染的扫查目标区域进行位置调整。
具体地,本实施例中,如上所述,根据空间标定信息的初始标定值渲染得到的扫查目标区域的标记接近于受试者的真实的扫查目标区域,但存在由于测试环境和受试者个体差异造成的误差,导致渲染的扫查目标区域的标记与实际的受试者的扫查目标区域存在差异。如图6所示,如果存在偏差,操作者101可以手动点击增强现实设备104的屏幕界面上的手动调节按键208对扫查目标区域204的空间位置进行调节。增强现实设备104随后根据调整后的空间位置标定信息,更新扫查目标区域204,直到渲染的结果与真实场景图像中受试者人体的扫查目标区域相吻合。作为优选,在调整完成后,操作者101可以手动点击增强现实设备104的屏幕界面上的相关确认按键210,以确认并保存调整后的扫查目标区域。
本发明的较佳的实施例中,扫查目标区域包括至少一目标子区域;
如图7所示,则步骤S3包括:
步骤S31,针对每个目标子区域,增强现实设备在超声扫查过程中,判断超声探头当前对应的探头位置区域与目标子区域之间是否重合:
若是,则转向步骤S32;
若否,则给出一第一扫查提示,以引导操作者对超声探头进行位置调整,随后返回步骤S31;
步骤S32,增强现实设备统计探头位置区域与目标子区域之间的重合时间,并判断重合时间是否小于一时间阈值:
若是,则给出一第二扫查提示,以引导操作者重新扫查目标子区域,随后返回步骤S31;
若否,则给出一第三扫查提示,以提示操作者目标子区域扫查成功,随后转向步骤S33;
步骤S33,增强现实设备判断扫查目标区域中的所有目标子区域是否均扫查完成:
若是,则退出;
若否,则给出一第四扫查提示,以引导操作者扫查下一个目标子区域,随后返回步骤S31。
具体地,本实施例中,上述目标子区域可以根据实际扫查需求划分,作为优选,如图6所示,增强现实设备104的显示屏幕上还设有扫查进度提示栏206,该扫查进度提示栏206可以显示各目标子区域的扫查进度。
如图6所示,以目标子区域为5个为例,分别为目标子区域1至目标子区域5。在对目标子区域1进行超声扫查时,操作者101根据增强现实设备1的显示屏幕上追踪显示的探头位置区域202和扫查目标区域204移动超声探头,使得探头位置区域与目标子区域1重合,当检测到探头位置区域与目标子区域1未重合时,表示超声探头尚未移动到目标子区域,此时可以给出第一扫查提示,以引导操作者对超声探头进行位置调整,直至探头位置区域与目标子区域1重合,随后可以对该目标子区域1进行超声扫查,同时对超声探头在该目标子区域1的停留时间进行统计得到重合时间,进而在重合时间达到预设的时间阈值时,则判定该目标子区域1的扫查成功完成,否者给出第二扫查提示,以引导操作者重新扫查目标子区域1,直至该目标子区域1扫查成功。上述探头位置区域与目标子区域1重合的判定方式,包括但不限于计算探头位置区域与目标子区域1之间的重合面积的方式进行判定。
优选的,在扫查过程中,可以在扫查进度提示栏206给出扫查进度,该扫查进度可以包括目标子区域的总数量以及已经完成扫查的目标子区域的总数量,还可以包括给出各目标子区域的扫查完成情况指示,如目标子区域1未扫查或扫查失败时给出红色颜色标记,在目标子区域1扫查成功时给出对应的绿色颜色标记。也可以通过文字方式给出扫查完成情况指示,此处不作限定。进一步优选的,在目标扫查区域204中对应的目标子区域1的位置也可以同步给出扫查完成情况指示,扫查完成情况指示的指示方式同样不作限定,以操作者101能够准确查看为准即可。
本发明的较佳的实施例中,步骤S3中,还包括:
增强现实设备在超声扫查过程中,实时接收并显示超声探头扫查得到的超声图像。
应该理解的是,虽然上述流程示意图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
本发明还提供一种基于增强现实的超声扫查引导系统,应用上述的超声扫查引导方法,如图1和图8所示,超声扫查引导系统包括:
至少一背景定位标识110,设置于一预先搭建的真实扫查场景中,用于指示一受试者102的扫查位姿;
超声探头106,超声探头106上设有一探头定位标识108;
增强现实设备104,连接超声探头106,增强现实设备104包括:
图像采集模块1041,连接一图像显示模块1042,用于实时拍摄真实扫查场景的真实场景图像并发送至图像显示模块进行显示;
第一处理模块1043,连接图像采集模块1041,用于获取并根据真实场景图像分别对背景定位标识和探头定位标识进行追踪得到背景定位标识的第一位姿信息和超声探头的第二位姿信息,进而根据第一位姿信息处理得到受试者的一扫查目标区域的空间位置标定信息;
第二处理模块1044,分别连接第一处理模块1043和图像显示模块1042,用于根据第二位姿信息于真实场景图像上叠加渲染一探头位置区域,以及根据空间位置标定信息于真实场景图像上叠加渲染扫查目标区域,并通过图像显示模块进行显示;
扫查引导模块1045,分别连接第二处理模块1044和图像显示模块1042,用于在超声扫查过程中根据探头位置区域和扫查目标区域之间的重合状态生成相应的扫查提示并通过图像显示模块1042进行显示,以对操作者进行超声扫查引导。
具体地,本实施例中,以甲状腺超声扫查为例,该真实扫查场景中可以包括受试者座椅和竖直平整的背景板,该背景板上设有用以指导受试者以特定姿势和位置就坐的引导限位信息的背景定位标识。上述增强现实设备104配置有摄像头作为图像采集模块1041,通过摄像头实时采集的若干帧扫查实景图像进行处理得到真实扫查图像。该增强现实设备104可以采用但不限于智能手机、平板电脑、便携式移动设备、增强现实眼镜等,该增强现实设备104具有图像采集和图像处理功能并搭载有相关软件。操作者101可以手持或穿戴上述增强现实设备104,根据增强现实设备104上显示的叠加有探头位置区域和扫查目标区域的真实场景图像,以及扫查提示,同时利用超声探头106对扫查目标区域进行扫查。
应该理解的是,虽然上述系统结构图中的各个部分按照箭头的指示依次连接,但是这些组件之间的信息传输并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些组件之间的信息和数据传输并没有严格的顺序限制,这些信息和数据传输操作可以以其它的顺序执行。
本申请提出的一种超声扫查标准化方法与系统还包括一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上文所述的超声扫查方法与系统所有与超声扫查标准化引导信息生成、反馈、保存、交互等有关的功能。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。

Claims (9)

1.一种基于增强现实的超声扫查引导方法,其特征在于,预先搭建一真实扫查场景,所述真实扫查场景中设有用以指示一受试者的扫查位姿的至少一背景定位标识和用以对所述受试者进行超声扫查的一超声探头,所述超声探头上设有一探头定位标识;
则所述超声扫查引导方法包括:
步骤S1,采用一增强现实设备实时拍摄并显示所述真实扫查场景的真实场景图像,根据所述真实场景图像分别对所述背景定位标识和所述探头定位标识进行追踪得到所述背景定位标识的第一位姿信息和所述超声探头的第二位姿信息;
步骤S2,所述增强现实设备根据所述第一位姿信息以及预先获取的所述受试者的一扫查目标区域的空间位置标定信息于所述真实场景图像上叠加渲染所述扫查目标区域,以及根据所述第二位姿信息于所述真实场景图像上叠加渲染一探头位置区域;
步骤S3,所述增强现实设备在超声扫查过程中根据所述探头位置区域和所述扫查目标区域之间的重合状态生成并显示相应的扫查提示,以对操作者进行超声扫查引导;
所述扫查目标区域包括至少一目标子区域;
则所述步骤S3包括:
步骤S31,针对每个所述目标子区域,所述增强现实设备在超声扫查过程中,判断所述超声探头当前对应的所述探头位置区域与所述目标子区域之间是否重合:
若是,则转向步骤S32;
若否,则给出一第一扫查提示,以引导所述操作者对所述超声探头进行位置调整,随后返回所述步骤S31;
步骤S32,所述增强现实设备统计所述探头位置区域与所述目标子区域之间的重合时间,并判断所述重合时间是否小于一时间阈值:
若是,则给出一第二扫查提示,以引导所述操作者重新扫查所述目标子区域,随后返回所述步骤S31;
若否,则给出一第三扫查提示,以提示所述操作者所述目标子区域扫查成功,随后转向步骤S33;
步骤S33,所述增强现实设备判断所述扫查目标区域中的所有所述目标子区域是否均扫查完成:
若是,则退出;
若否,则给出一第四扫查提示,以引导所述操作者扫查下一个所述目标子区域,随后返回所述步骤S31。
2.根据权利要求1所述的超声扫查引导方法,其特征在于,执行所述步骤S1之前,包括一空间位置标定信息的获取过程,包括:
步骤A1,采用所述增强现实设备拍摄并显示包含所述受试者和所述背景定位标识的第一场景图像;
步骤A2,所述增强现实设备根据所述第一场景图像对所述背景定位标识进行追踪得到所述背景定位标识的当前位姿信息;
步骤A3,所述增强现实设备根据所述当前位姿信息处理得到所述受试者的所述扫查目标区域的所述空间位置标定信息。
3.根据权利要求2所述的超声扫查引导方法,其特征在于,所述步骤A3中,所述增强现实设备根据所述当前位姿信息和预设的表示所述背景定位标识与所述扫查目标区域之间的空间位置关系的一初始标定信息,处理得到所述受试者的所述扫查目标区域的所述空间位置标定信息。
4.根据权利要求1所述的超声扫查引导方法,其特征在于,所述步骤S1中,还包括:
所述增强现实设备根据所述第一位姿信息于所述真实场景图像上的所述背景定位标识的所在位置叠加渲染一指示标记,以指示所述第一位姿信息。
5.根据权利要求4所述的超声扫查引导方法,其特征在于,执行所述步骤S2之前,还包括一追踪调整过程,包括:
所述增强现实设备判断所述指示标记的实时指示状态是否与预设的标准指示状态一致:
若是,则转向所述步骤S2;
若否,则给出一调整提示,随后返回所述步骤S1。
6.根据权利要求1所述的超声扫查引导方法,其特征在于,执行所述步骤S3之前,还包括:
所述增强现实设备接收并根据外部的一手动调节指令对叠加渲染的所述扫查目标区域进行位置调整。
7.根据权利要求1所述的超声扫查引导方法,其特征在于,所述步骤S3中,还包括:
所述增强现实设备在超声扫查过程中,实时接收并显示所述超声探头扫查得到的超声图像。
8.根据权利要求1所述的超声扫查引导方法,其特征在于,所述背景定位标识和所述探头定位标识为二维码。
9.一种基于增强现实的超声扫查引导系统,其特征在于,应用如权利要求1-8中任意一项所述的超声扫查引导方法,所述超声扫查引导系统包括:
至少一背景定位标识,设置于一预先搭建的真实扫查场景中,用于指示一受试者的扫查位姿;
超声探头,所述超声探头上设有一探头定位标识;
增强现实设备,连接所述超声探头,所述增强现实设备包括:
图像采集模块,连接一图像显示模块,用于实时拍摄所述真实扫查场景的真实场景图像并发送至所述图像显示模块进行显示;
第一处理模块,连接所述图像采集模块,用于获取并根据所述真实场景图像分别对所述背景定位标识和所述探头定位标识进行追踪得到所述背景定位标识的第一位姿信息和所述超声探头的第二位姿信息;
第二处理模块,分别连接所述第一处理模块和所述图像显示模块,用于根据所述第一位姿信息以及预先获取的所述受试者的一扫查目标区域的空间位置标定信息于所述真实场景图像上叠加渲染所述扫查目标区域,以及根据所述第二位姿信息于所述真实场景图像上叠加渲染一探头位置区域,并通过所述图像显示模块进行显示;
扫查引导模块,分别连接所述第二处理模块和所述图像显示模块,用于在超声扫查过程中根据所述探头位置区域和所述扫查目标区域之间的重合状态生成相应的扫查提示并通过所述图像显示模块显示,以对操作者进行超声扫查引导。
CN202110983111.9A 2021-08-25 2021-08-25 一种基于增强现实的超声扫查引导方法及系统 Active CN113693623B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110983111.9A CN113693623B (zh) 2021-08-25 2021-08-25 一种基于增强现实的超声扫查引导方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110983111.9A CN113693623B (zh) 2021-08-25 2021-08-25 一种基于增强现实的超声扫查引导方法及系统

Publications (2)

Publication Number Publication Date
CN113693623A CN113693623A (zh) 2021-11-26
CN113693623B true CN113693623B (zh) 2024-04-05

Family

ID=78654810

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110983111.9A Active CN113693623B (zh) 2021-08-25 2021-08-25 一种基于增强现实的超声扫查引导方法及系统

Country Status (1)

Country Link
CN (1) CN113693623B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109069103A (zh) * 2016-04-19 2018-12-21 皇家飞利浦有限公司 超声成像探头定位
CN111544035A (zh) * 2020-05-12 2020-08-18 上海深至信息科技有限公司 一种基于增强现实的超声辅助扫查系统及方法
CN112807025A (zh) * 2021-02-08 2021-05-18 威朋(苏州)医疗器械有限公司 超声扫查引导方法、装置、系统、计算机设备和存储介质
CN112888370A (zh) * 2018-10-16 2021-06-01 皇家飞利浦有限公司 基于深度学习的超声成像引导和关联的设备、系统和方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10799146B2 (en) * 2014-03-24 2020-10-13 University Of Houston System Interactive systems and methods for real-time laparoscopic navigation
US20180344286A1 (en) * 2017-06-01 2018-12-06 General Electric Company System and methods for at-home ultrasound imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109069103A (zh) * 2016-04-19 2018-12-21 皇家飞利浦有限公司 超声成像探头定位
CN112888370A (zh) * 2018-10-16 2021-06-01 皇家飞利浦有限公司 基于深度学习的超声成像引导和关联的设备、系统和方法
CN111544035A (zh) * 2020-05-12 2020-08-18 上海深至信息科技有限公司 一种基于增强现实的超声辅助扫查系统及方法
CN112807025A (zh) * 2021-02-08 2021-05-18 威朋(苏州)医疗器械有限公司 超声扫查引导方法、装置、系统、计算机设备和存储介质

Also Published As

Publication number Publication date
CN113693623A (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
US11911214B2 (en) System and methods for at home ultrasound imaging
US9895131B2 (en) Method and system of scanner automation for X-ray tube with 3D camera
CN104000654B (zh) 用于计算外科手术设备位置的计算机实现技术
US5765561A (en) Video-based surgical targeting system
US10881353B2 (en) Machine-guided imaging techniques
US20160063707A1 (en) Image registration device, image registration method, and image registration program
US20060072808A1 (en) Registration of first and second image data of an object
JP6785485B2 (ja) X線透視装置
CN113556977A (zh) 基于c臂的医学成像系统及匹配2d图像与3d空间的方法
CN112807025A (zh) 超声扫查引导方法、装置、系统、计算机设备和存储介质
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
EP3900617A1 (en) A method and apparatus based on 3d camera for automated measurement preparation in mri system
CN111544037B (zh) 一种基于双目视觉的超声定位方法及系统
EP3595533B1 (en) Determining a guidance signal and a system for providing a guidance for an ultrasonic handheld transducer
CN112352289A (zh) 提供ecg分析界面的方法及系统
US10102638B2 (en) Device and method for image registration, and a nontransitory recording medium
US10631948B2 (en) Image alignment device, method, and program
CN113693623B (zh) 一种基于增强现实的超声扫查引导方法及系统
EP4329580A1 (en) Method and device for generating an uncertainty map for guided percutaneous procedures
US10832422B2 (en) Alignment system for liver surgery
CN113842216A (zh) 一种上下牙对合模拟方法、装置及电子设备
US10049480B2 (en) Image alignment device, method, and program
CN111292248B (zh) 超声融合成像方法及超声融合导航系统
Yano et al. Accuracy verification of knife tip positioning with position and orientation estimation of the actual liver for liver surgery support system
CN112397189A (zh) 一种医用导引装置及其使用方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant