CN106980383A - 一种虚拟模型展示方法、模块及基于该模块的虚拟人体解剖模型展示系统 - Google Patents
一种虚拟模型展示方法、模块及基于该模块的虚拟人体解剖模型展示系统 Download PDFInfo
- Publication number
- CN106980383A CN106980383A CN201710209858.2A CN201710209858A CN106980383A CN 106980383 A CN106980383 A CN 106980383A CN 201710209858 A CN201710209858 A CN 201710209858A CN 106980383 A CN106980383 A CN 106980383A
- Authority
- CN
- China
- Prior art keywords
- voice
- instruction
- gesture
- module
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种虚拟模型展示方法、模块及基于该模块的虚拟人体解剖模型展示系统,涉及人机交互领域,是为了满足便捷、直观、非接触交互式展示医学影像信息的需求。虚拟模型展示方法及模块均由嵌入在计算机内的软件实现,头戴式虚拟现实立体显示模块用于显示计算机渲染的虚拟人体解剖模型;手势识别模块用于采集手势图像,将手势图像转化为手势指令;语音识别模块用于采集语音信号,将语音信号转化为语音指令,计算机根据语音指令和手势指令对当前显示内容进行操作。本发明通过手势和语音交互相结合的人机交互方式,使用户能够方便地观察到三维虚拟人体解剖模型,为医学领域的学生和医生提供便利。
Description
技术领域
本发明涉及人机交互领域,尤其涉及使用手势、语音等非接触方式相结合与虚拟现实系统进行交互的技术。
背景技术
近年来,如何将CT、MRI等医学成像设备所获取的丰富的影像信息最大程度上直观地呈现给医务工作者以及其他受众成为科研工作者研究热点。传统医学影像显示方式主要是采用胶片的方式,随着计算机硬件和图形图像技术发展,虚拟现实(Virtual Reality,VR)技术在医学影像显示方面得以应用使医生可以以交互方式观察虚拟的三维(3D)解剖结构,直观了解解剖结构之间和手术器械与解剖结构之间的空间位置关系,对于患者病情理解、手术规划和手术导航都有重要意义。
虚拟现实立体显示方式对于非专业人士来说也非常直观,医务工作者可以借助这种方式向帮助病人及家属了解病情,促进患者与医生之间的交流。
虚拟现实立体显示方式对于医学专业学生而言,可以在尸源紧缺的情况下,能够为其课后提供更灵活、更方便的学习人体解剖知识工具。
在医院这个特殊的环境中,医生经常会面对一些无法与键盘、按钮、鼠标等输入设备直接接触的情况,所以使用一些非接触输入设备可以非常有效地应对这些问题,目前非接触的人机交互技术有语音交互技术、手势交互技术和体感交互技术等,手势交互技术经常会由于遮挡、强光等因素而导致手势识别不准确、识别率低等问题,而且有些情况下手势交互效率较低。所以,单一使用手势交互技术作为交互模式不会使用户得到良好的体验度。同时,语音识别技术日趋成熟,将语音和手势交互相结合,会大幅提升系统的交互体验。但目前尚无将这两类人机交互技术整合应用到医学领域中的实例。
发明内容
本发明的目的是为了满足医学成像设备的发展需求,提出一种虚拟模型展示方法、模块及基于该模块的虚拟人体解剖模型展示系统。
本发明所述的一种虚拟模型展示方法包括以下步骤:
模型导入步骤:用于接收用户导入的具有树状拓扑结构关系的解剖结构名称集合和相应的人体解剖模型;
模型显示步骤:对导入的人体解剖模型进行渲染并发送至头戴式虚拟现实立体显示模块,使所述头戴式虚拟现实立体显示模块显示所述人体解剖模型;
语音指令执行步骤:根据语音识别模块发来的语音指令使系统进入相应的操作模式,在该操作模式下对当前显示的模型进行相应的操作,然后更新显示内容;
手势指令执行步骤:根据手势识别模块发来的手势指令对当前显示的模型进行相应的操作,然后更新显示内容。
本发明所述的一种虚拟模型展示模块包括以下单元:
模型导入单元:用于接收用户导入的具有树状拓扑结构关系的解剖结构名称集合和相应的人体解剖模型;
模型显示单元:对导入的人体解剖模型进行渲染并发送至头戴式虚拟现实立体显示模块,使所述头戴式虚拟现实立体显示模块显示所述人体解剖模型;
语音指令执行单元:根据语音识别模块发来的语音指令使系统进入相应的操作模式,在该操作模式下对当前显示的模型进行相应的操作,然后更新显示内容;
手势指令执行单元:根据手势识别模块发来的手势指令对当前显示的模型进行相应的操作,然后更新显示内容。
基于上述模块的虚拟人体解剖模型展示系统包括计算机、头戴式虚拟现实立体显示模块、手势识别模块以及语音识别模块;
所述计算机内嵌入虚拟模型展示模块;
所述头戴式虚拟现实立体显示模块用于显示计算机发来的虚拟人体解剖模型;
所述手势识别模块用于采集手势图像,将该手势图像转化为手势指令,并将该手势指令发送给计算机;
所述语音识别模块用于采集语音信号,将该语音信号转化为语音指令,并将该语音指令发送给计算机。
本发明通过手势和语音复合交互的人机交互方式,使用户能够方便地观察到三维虚拟人体解剖模型,为医学领域的学生和医生提供便利。
附图说明
图1为虚拟人体解剖模型展示系统使用状态的结构示意图,图中没有展示出计算机,11表示头戴式虚拟现实立体显示模块,12表示手势识别模块,13表示语音识别模块中的麦克风;
图2为虚拟人体解剖模型展示系统的硬件结构框图;
图3为虚拟人体解剖模型展示系统的原理框图;
图4为正常手势;
图5为退出手势;
图6为缩小手势;
图7为放大手势;
图8为通过手势旋转指令进行旋转操作的原理示意图。
具体实施方式
具体实施方式一:结合图1至图3说明本实施方式,本实施方式所述的一种虚拟模型展示方法,包括以下步骤:
模型导入步骤:用于接收用户导入的具有树状拓扑结构关系的解剖结构名称集合和相应的人体解剖模型;
模型显示步骤:对导入的人体解剖模型进行渲染并发送至头戴式虚拟现实立体显示模块,使所述头戴式虚拟现实立体显示模块显示所述人体解剖模型;
语音指令执行步骤:根据语音识别模块发来的语音指令使系统进入相应的操作模式,在该操作模式下对当前显示的模型进行相应的操作,然后更新显示内容;
手势指令执行步骤:根据手势识别模块发来的手势指令对当前显示的模型进行相应的操作,然后更新显示内容。
如图1至图3所示,本实施方式所述的虚拟模型展示方法是由嵌入在计算机内的软件实现的。计算机与头戴式虚拟现实立体显示模块(型号Oculus Rift dk2)、手势识别模块以及语音识别模块组成虚拟人体解剖模型展示系统。其中,头戴式虚拟现实立体显示模块用于显示计算机发来的虚拟人体解剖模型;语音识别模块用于识别用户发出的语音信号,将该语音信号转换为语音指令,并将该语音指令发送给计算机;手势识别模块用于识别用户做出的手势图像,将该手势图像转换为手势指令,并将该手势指令发送给计算机。
本实施方式中,系统通过识别相应语音命令词或命令语句以及手势来进行撤销、缩放、旋转、观察、标记、切换模型、介绍等各种操作,每一种操作在执行的时候系统处在相应的操作模式。当系统没有处在上述的任一操作模式中时,则系统处在显示模式,显示相应的模型。
具体实施方式二:结合图3说明本实施方式,本实施方式是对实施方式一所述方法的进一步限定,本实施方式中,所述方法还包括:
观察角度调整步骤:根据用户头部姿态调整头戴式虚拟现实立体显示模块所显示的模型的观察角度。
在虚拟场景空间中放置两个虚拟相机,这两个虚拟相机分别生成头戴式虚拟现实立体显示模块中的左眼和右眼的图像,两部虚拟相机光轴平行,间距为65mm(接近人眼瞳间距);最后,将两个虚拟相机的成像平面上的图像分别渲染到两块屏幕上,生成最终的立体图像。采用至少1个九轴惯性测量单元(IMU)传感器来采集头部姿态,然后根据头部姿态调整两部虚拟相机的角度,进而调整头戴式虚拟现实立体显示模块所显示的模型的观察角度。
具体实施方式三:本实施方式是对实施方式一和二所述方法的进一步限定,本实施方式中,所述语音指令包括:
语音撤销指令:用于将显示内容恢复到最近一次变换操作之前的状态;
语音拖拽指令:用于使系统进入拖拽模式;
语音旋转指令:用于使系统进入旋转模式;
语音退出指令:用于退出当前操作模式;
语音放大指令:用于使系统进入放大模式;
语音缩小指令:用于使系统进入缩小模式;
语音标记指令:用于对当前显示的内容进行标记;
语音切换指令:用于使系统进入切换模式;
语音介绍指令:用于使系统通过语音和文本的形式介绍光标当前指向的模型的解剖知识。
对于撤销操作,实现方法为:在系统处在显示模式时,用户通过说“撤销”、“取消”等命令词,使系统进入撤销模式,并将模型恢复到最近一次变换操作之前的状态,恢复完成后,系统回到显示模式。
对于缩放操作,实现方法为:在系统处在显示模式时,用户通过说“缩放模式”命令词使系统进入缩放模式,并进一步通过语音指令或手势指令对当前显示内容进行缩小或放大一定比例。当系统检测到用户说“退出”命令词或者检测到退出手势时,退出旋转模式,回到显示模式。
对于旋转操作,实现方法为:在系统处在显示模式时,用户通过说“旋转模式”命令词,使系统进入旋转模式,并进一步通过语音指令或手势指令将当前显示内容旋转一定角度。当系统检测到用户说“退出”命令词或者检测到退出手势时,退出旋转模式,回到显示模式。
对于拖拽操作,实现方法为:在系统处在显示模式时,用户通过说“拖拽模式”命令词,使系统进入拖拽模式,再进一步根据语音指令或手势指令对当前显示的模型进行拖拽操作。当系统检测到用户说“退出”命令词或者检测到退出手势时,退出拖拽模式。
切换模型操作用于在多个解剖模型之间切换,实现方法为:在系统处在显示模式时,用户通过说“切换模型模式”命令词,使系统进入切换模型模式,再进一步根据语音指令或手势指令选择要显示的目标模型,以更新虚拟场景。当系统检测到用户说“退出”命令词或者检测到退出手势时,退出切换模型模式。例如在系统处在显示模式时,用户通过说“切换到上(下)一个”、“切换到第*个”、“上(下)一个”等命令语句或命令词,使系统切换显示到用户选择的模型,并在执行完后回到显示模式。特别的,如果是已知图谱,可以直接通过语音命令“切换到*”来进行切换模型操作,其中,“*”为该模型对应的解剖结构名称。此时,模型切换界面显示模型编号和对应的解剖结构名称列表。
观察操作和标记操作为一对存取操作。标记操作用于标记并存储一系列模型的状态,观察操作将当前模型状态设置成所要观察的状态。当用户说“标记为*”等命令语句时,系统记录当前模型状态并赋予名称“*”,如“标记为胫骨”等;当用户说“转到*”、“显示*”等命令语句时,系统将模型的状态设置为名称为“*”的状态,如“显示胫骨”等。特别地,对于一些类似于六视图的特殊模型状态,可以直接使用观察操作,如“显示左视图”、“显示俯视图”等。
介绍操作的实现形式为:在系统处在显示模式时,用户通过手势将光标移动到希望被介绍的模型上,通过“介绍”命令词,使系统通过语音和文本的形式介绍光标当前指向的模型的解剖知识,该介绍内容与模型一起导入。
具体实施方式四:本实施方式是对实施方式一至三所述方法的进一步限定,本实施方式中,可以只通过语音指令完成旋转操作、缩放操作以及切换操作。
所述语音旋转指令还用于对当前显示的内容旋转;
在系统处在显示模式时,用户通过说“向左(右、上、下)旋转*度”、“向左(右、上、下)转*度”等命令语句,使系统进行相应的旋转操作并在执行完后回到显示模式,其中“*”为具体旋转角度,如“向左转45度”、“向右转99度”等。
所述语音放大指令还用于对当前显示的内容进行放大;
所述语音缩小指令还用于对当前显示的内容进行缩小;
在系统处在显示模式时,用户通过说“放大(缩小)*倍”、“放大(缩小)一些”等命令语句和命令词,使系统进行相应的缩放操作并在执行完后回到显示模式,其中“*”为具体缩放倍数,如“放大五倍”、“缩小两倍”等。
所述语音切换指令还用于选择要切换到的模型;
系统进入切换模型模式,或者通过命令语句“选择*”,“*”为模型对应的解剖结构名称,然后更新虚拟场景。当系统检测到用户说“退出”命令词或者检测到退出手势时,退出切换模型模式。
具体实施方式五:结合图6至图8说明本实施方式,本实施方式是对实施方式一至三所述方法的进一步限定,本实施方式中,所述手势指令包括:
手势退出指令:用于使系统退出当前操作模式;
手势拖拽指令:用于对当前显示的内容拖拽;
手势旋转指令:用于对当前显示的内容旋转。
在系统处在显示模式时,用户通过说“缩放模式”命令词使系统进入缩放模式。此时用户可以通过图6和图7中的手势来对模型进行缩放操作。当两只手相向运动时,系统进行缩小操作;当两只手背向运动时,系统进行放大操作。当系统检测到用户说“退出”命令词或者检测到退出手势时,退出缩放模式。
当系统进入旋转模式后,可通过手势旋转指令对当前显示的内容旋转。如图8所示,系统不断记录手的位置来计算手的运动方向53以及模型包络球51的球心52到手的运动方向53的垂线54,最后得到旋转轴55,旋转轴55与手的运动方向53垂直、与垂线54垂直并且过球心52。系统求出旋转轴55以及根据手的移动距离计算出旋转角度后更新虚拟场景,完成旋转操作。
当系统进入拖拽模式后,可通过手势拖拽指令对当前显示的内容拖拽。系统记录初始手的位置作为拖拽操作的初始位置(简称为初始位置),记录当前的位置作为拖拽操作的当前位置(简称为当前位置),从初始位置到当前位置的位移矩阵确定模型的位移矩阵,然后更新虚拟场景。
当用户说“切换模型模式”命令词时,系统进入切换模型模式,此时用户看到的虚拟场景进入模型选择界面,界面中显示模型缩略图和对应的编号,如果一页无法显示,用户可以通过手势或者语音指令“下(上)一页”等命令词来进行翻页操作。用户通过将手(虚拟的手)移动到要选择的模型上停留2秒来选中该模型,被选中的模型出现在虚拟场景中。
具体实施方式六:结合图1至图3说明本实施方式,本实施方式所述的一种虚拟模型展示模块,包括以下单元:
模型导入单元:用于接收用户导入的具有树状拓扑结构的解剖结构名称集合及相应的人体解剖模型;
模型显示单元:对导入的人体解剖模型进行渲染并发送至头戴式虚拟现实立体显示模块,使所述头戴式虚拟现实立体显示模块显示所述人体解剖模型;
语音指令执行单元:根据语音识别模块发来的语音指令使系统进入相应的操作模式,在该操作模式下对当前显示的模型进行相应的操作,然后更新显示内容;
手势指令执行单元:根据手势识别模块发来的手势指令对当前显示的模型进行相应的操作,然后更新显示内容。
本实施方式所述的虚拟模型展示模块与实施方式一所述的虚拟模型展示方法相对应,是由嵌入在计算机内的软件实现的。计算机与头戴式虚拟现实立体显示模块、手势识别模块以及语音识别模块组成虚拟人体解剖模型展示系统。其中,头戴式虚拟现实立体显示模块用于显示计算机发来的虚拟人体解剖模型;语音识别模块用于识别用户发出的语音信息,将该语音信息转换为语音指令,并将该语音指令发送给计算机;手势识别模块用于识别用户做出的手势信息,将该手势信息转换为手势指令,并将该手势指令发送给计算机。
本实施方式中,系统通过识别相应语音命令词或命令语句以及手势来进行撤销、缩放、旋转、观察、标记、切换模型等各种操作,每一种操作在执行的时候系统处在相应的操作模式。当系统没有处在上述的任一操作模式中时,则系统处在显示模式,显示相应的模型。
具体实施方式七:结合图3说明本实施方式,本实施方式是对实施方式六所述的一种虚拟模型展示模块的进一步限定,本实施方式中,所述虚拟模型展示模块还包括:
观察角度调整单元:根据用户头部姿态调整头戴式虚拟现实立体显示模块所显示的模型的观察角度。
本实施方式所述的虚拟模型展示模块与实施方式二所述的虚拟模型展示方法相对应。
具体实施方式八:本实施方式是对实施方式六和七所述的一种虚拟模型展示模块的进一步限定,本实施方式中,所述语音指令包括:
语音撤销指令:用于将显示内容恢复到最近一次变换操作之前的状态;
语音拖拽指令:用于使系统进入拖拽模式;
语音旋转指令:用于使系统进入旋转模式;
语音退出指令:用于退出当前操作模式;
语音放大指令:用于使系统进入放大模式;
语音缩小指令:用于使系统进入缩小模式;
语音标记指令:用于对当前显示的内容进行标记;
语音切换指令:用于使系统进入切换模式;
语音介绍指令:用于使系统通过语音和文本的形式介绍光标当前指向的模型的解剖知识。
本实施方式所述的虚拟模型展示模块与实施方式三所述的虚拟模型展示方法相对应。
具体实施方式九:本实施方式是对实施方式六至八所述的一种虚拟模型展示模块的进一步限定,本实施方式中,可以只通过语音指令完成旋转操作、缩放操作以及切换操作。
所述语音旋转指令还用于对当前显示的内容旋转;
在系统处在显示模式时,用户通过说“向左(右、上、下)旋转*度”、“向左(右、上、下)转*度”等命令语句,使系统进行相应的旋转操作并在执行完后回到显示模式,其中“*”为具体旋转角度,如“向左转45度”、“向右转99度”等。
所述语音放大指令还用于对当前显示的内容进行放大;
所述语音缩小指令还用于对当前显示的内容进行缩小;
在系统处在显示模式时,用户通过说“放大(缩小)*倍”、“放大(缩小)一些”等命令语句和命令词,使系统进行相应的缩放操作并在执行完后回到显示模式,其中“*”为具体缩放倍数,如“放大五倍”、“缩小两倍”等。
所述语音切换指令还用于选择要切换到的解剖结构;
系统进入切换模型模式,或者通过命令语句“选择*”,“*”为模型的解剖结构名称,然后更新虚拟场景。当系统检测到用户说“退出”命令词或者检测到退出手势时,退出切换模型模式。
本实施方式所述的虚拟模型展示模块与实施方式四所述的虚拟模型展示方法相对应。
具体实施方式十:结合图6至图8说明本实施方式,本实施方式是对实施方式六至八所述的一种虚拟模型展示模块的进一步限定,本实施方式中,所述手势指令包括:
手势退出指令:用于使系统退出当前操作模式;
手势拖拽指令:用于对当前显示的内容拖拽;
手势旋转指令:用于对当前显示的内容旋转。
本实施方式所述的虚拟模型展示模块与实施方式五所述的虚拟模型展示方法相对应。
具体实施方式十一:结合图1至图5说明本实施方式,本实施方式所述的基于虚拟模型展示模块的虚拟人体解剖模型展示系统包括计算机、头戴式虚拟现实立体显示模块、手势识别模块以及语音识别模块;
所述计算机内嵌入虚拟模型展示模块;
所述头戴式虚拟现实立体显示模块用于显示计算机发来的虚拟人体解剖模型;
所述手势识别模块用于采集手势图像,将该手势图像转化为手势指令,并将该手势指令发送给计算机;
所述语音识别模块用于采集语音信号,将该语音信号转化为语音指令,并将该语音指令发送给计算机。
如图1所示,用户将头戴式虚拟现实立体显示模块佩戴在头部。头戴式虚拟现实立体显示模块负责图像显示和头部姿态感应。图像显示部分包含两块屏幕,分别位于用户左眼和右眼的前方,使用户可以看到包含人体3D解剖模型的虚拟场景立体画面。
该虚拟场景的生成方式为:使用OpenGL、D3D或者Unity3D中的任意一种语言,首先,将要显示的3D解剖结构模型生成到虚拟场景空间中;然后,在虚拟场景空间中放置两个虚拟相机,这两个虚拟相机分别生成头戴式虚拟现实立体显示模块中的左眼和右眼的画面,两部虚拟相机光轴平行,间距为65mm(接近人眼瞳间距);最后,将两个虚拟相机的成像平面上的图像分别渲染到两块屏幕上,生成最终的立体图相。
头部姿态感应由至少1个九轴惯性测量单元(IMU)传感器完成,用来获取用户头部姿态信息。
手势识别模块包含1个RGB-D相机,手势识别模块放置于用户前方1.2-1.5米左右,通过采集用户手部的彩色图像和深度图像来识别手势信息,并将识别到的手势与预先定义的手势进行比对,如果比对成功,则将与所述预先定义的手势相对应的指令发送给计算机,由计算机对所显示的模型进行相应的操作。为了确保手势识别的范围及用户的使用感受,RGB-D相机的水平视角和垂直视角不应小于60°,当手势识别模块检测到手的时候,系统根据检测到手的位置信息将虚拟手的模型渲染到头戴式虚拟现实立体显示模块的显示屏中以便用户进行手势操作。如图4和图5所示,手势识别模块所能识别的手势至少包括正常手势和退出手势两种手势,但不局限于这两种手势。
语音识别模块包含一个麦克风,用于实时接收用户的语音并通过自动语音识别技术将语音转化为文本,然后进行命令词识别,并将识别到的命令词发送给计算机,以实现系统的语音交互。语音识别模块的麦克风可以固定在头戴式虚拟现实立体显示模块上,也可以使用阵列麦,将阵列麦与手势识别模块集成在一起。本实施方式中,麦克风固定在头戴式虚拟现实立体显示模块上。
如图3所示,在使用本系统时首先导入具有树状拓扑结构的解剖结构名称集合,然后导入每个解剖名称对应的解剖模型,导入完成后,模型显示在头戴式虚拟现实立体显示模块中,系统开始通过IMU来采集头部的位姿信息,更改虚拟相机视线方向,并实时更新虚拟场景画面,同时通过手势识别模块的RGB-D相机和语音识别模块的麦克风接收信息进行手势识别和语音识别。当识别到命令后,系统进入相应的操作模式执行命令并更新虚拟场景、记录当前模型的各种状态以便进行撤销操作。执行完成后系统退回到显示模式。
举例来说,用户向系统中导入一个人体的解剖模型,导入完成后头戴式虚拟现实立体显示模块将模型显示在用户前方0.5m。当需要将模型进行放大操作以更清楚地观察模型的细节时,使用语音命令“放大3倍”。当需要观察模型其它区域时,使用语音命令“拖拽模式”进入拖拽模式,用手势移动模型,移动完成后做出退出手势。当需要观察模型的背面时,使用语音命令“旋转模式”进入旋转模式,使用手势将模型旋转至背面,完成后做出退出手势。
再者,当用户向系统中导入了全脑模型,包括大脑模型、间脑模型、小脑模型、脑干模型等,系统默认显示全脑模型。此时用户想观察顶叶,于是使用旋转、拖拽、缩放等指令将顶叶显示在虚拟场景中,并通过语音指令“标记为顶叶”来记录当前模型状态,然后用户又观察并记录了额叶、颞叶、枕叶等。当需要切换到脑干模型时,用户通过说“切换模型”来进入到模型选择界面,用手操控虚拟的手悬停在“脑干模型”上两秒选中显示脑干模型。观察完脑干模型后需要返回观察枕叶,因为已经标记过“枕叶”所以只需通过说“显示枕叶”指令使系统显示大脑模型并将模型状态设置为记录的“枕叶”状态。这时,用户又想返回去观察脑干,于是使用语音命令“撤销”,系统识别后返回到观察脑干模型时的状态。
本发明不局限于上述各实施方式所记载的具体技术方案,还可以是上述各个实施方式所记载的技术特征的合理组合。
Claims (10)
1.一种虚拟模型展示方法,其特征在于,包括以下步骤:
模型导入步骤:用于接收用户导入的具有树状拓扑结构关系的解剖结构名称集合和相应的人体解剖模型;
模型显示步骤:对导入的人体解剖模型进行渲染并发送至头戴式虚拟现实立体显示模块,使所述头戴式虚拟现实立体显示模块显示所述人体解剖模型;
语音指令执行步骤:根据语音识别模块发来的语音指令使系统进入相应的操作模式,在该操作模式下对当前显示的模型进行相应的操作,然后更新显示内容;
手势指令执行步骤:根据手势识别模块发来的手势指令对当前显示的模型进行相应的操作,然后更新显示内容。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
观察角度调整步骤:根据用户头部姿态调整头戴式虚拟现实立体显示模块所显示的模型的观察角度。
3.根据权利要求1或2所述的方法,其特征在于,所述语音指令包括:
语音撤销指令:用于将显示内容恢复到最近一次变换操作之前的状态;
语音拖拽指令:用于使系统进入拖拽模式;
语音旋转指令:用于使系统进入旋转模式;
语音退出指令:用于退出当前操作模式;
语音放大指令:用于使系统进入放大模式;
语音缩小指令:用于使系统进入缩小模式;
语音标记指令:用于对当前显示的内容进行标记;
语音切换指令:用于使系统进入切换模式;
语音介绍指令:用于使系统通过语音和文本的形式介绍光标当前指向的模型的解剖知识。
4.根据权利要求3所述的方法,其特征在于,所述手势指令包括:
手势退出指令:用于使系统退出当前操作模式;
手势拖拽指令:用于对当前显示的内容拖拽;
手势旋转指令:用于对当前显示的内容旋转。
5.一种虚拟模型展示模块,其特征在于,包括以下单元:
模型导入单元:用于接收用户导入的具有树状拓扑结构关系的解剖结构名称集合和相应的人体解剖模型;
模型显示单元:对导入的人体解剖模型进行渲染并发送至头戴式虚拟现实立体显示模块,使所述头戴式虚拟现实立体显示模块显示所述人体解剖模型;
语音指令执行单元:根据语音识别模块发来的语音指令使系统进入相应的操作模式,在该操作模式下对当前显示的模型进行相应的操作,然后更新显示内容;
手势指令执行单元:根据手势识别模块发来的手势指令对当前显示的模型进行相应的操作,然后更新显示内容。
6.根据权利要求5所述的模块,其特征在于,所述虚拟模型展示模块还包括:
观察角度调整步骤:根据用户头部姿态调整头戴式虚拟现实立体显示模块所显示的模型的观察角度。
7.根据权利要求5或6所述的模块,其特征在于,所述语音指令包括:
语音撤销指令:用于将显示内容恢复到最近一次变换操作之前的状态;
语音拖拽指令:用于使系统进入拖拽模式;
语音旋转指令:用于使系统进入旋转模式;
语音退出指令:用于退出当前操作模式;
语音放大指令:用于使系统进入放大模式;
语音缩小指令:用于使系统进入缩小模式;
语音标记指令:用于对当前显示的内容进行标记;
语音介绍指令:用于使系统通过语音和文本的形式介绍光标当前指向的模型的解剖知识;
语音切换指令:用于使系统进入切换模式。
8.根据权利要求7述的模块,其特征在于,
所述语音旋转指令还用于对当前显示的内容旋转;
所述语音放大指令还用于对当前显示的内容进行放大;
所述语音缩小指令还用于对当前显示的内容进行缩小;
所述语音切换指令还用于选择要切换到的解剖结构。
9.根据权利要求7述的模块,其特征在于,所述手势指令包括:
手势退出指令:用于使系统退出当前操作模式;
手势拖拽指令:用于对当前显示的内容拖拽;
手势旋转指令:用于对当前显示的内容旋转。
10.基于权利要求5所述模块的虚拟人体解剖模型展示系统,其特征在于,包括计算机、头戴式虚拟现实立体显示模块、手势识别模块以及语音识别模块;
所述计算机内嵌入虚拟模型展示模块;
所述头戴式虚拟现实立体显示模块用于显示计算机发来的虚拟人体解剖模型;
所述手势识别模块用于采集手势图像,将该手势图像转化为手势指令,并将该手势指令发送给计算机;
所述语音识别模块用于采集语音信号,将该语音信号转化为语音指令,并将该语音指令发送给计算机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710209858.2A CN106980383A (zh) | 2017-03-31 | 2017-03-31 | 一种虚拟模型展示方法、模块及基于该模块的虚拟人体解剖模型展示系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710209858.2A CN106980383A (zh) | 2017-03-31 | 2017-03-31 | 一种虚拟模型展示方法、模块及基于该模块的虚拟人体解剖模型展示系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106980383A true CN106980383A (zh) | 2017-07-25 |
Family
ID=59343558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710209858.2A Pending CN106980383A (zh) | 2017-03-31 | 2017-03-31 | 一种虚拟模型展示方法、模块及基于该模块的虚拟人体解剖模型展示系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106980383A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107861244A (zh) * | 2017-07-26 | 2018-03-30 | 宇博先进电子工业有限公司 | 具热显像功能的穿戴式装置 |
CN108121442A (zh) * | 2017-11-24 | 2018-06-05 | 曾良军 | 三维空间显示界面的操作方法、装置和终端设备 |
CN108366232A (zh) * | 2018-03-30 | 2018-08-03 | 东南大学 | 一种基于移动端虚拟现实技术的智能视频监控系统 |
CN109685916A (zh) * | 2018-12-27 | 2019-04-26 | 重庆上丞科技有限公司 | 一种基于手势、语音、视线追踪识别的模型定位放置方法 |
CN109960403A (zh) * | 2019-01-07 | 2019-07-02 | 西南科技大学 | 沉浸式环境下针对医学图像的可视化呈现和交互方法 |
CN110368097A (zh) * | 2019-07-18 | 2019-10-25 | 上海联影医疗科技有限公司 | 一种医疗设备及其控制方法 |
CN110766804A (zh) * | 2019-10-30 | 2020-02-07 | 济南大学 | 一种vr场景下人机协同抓取物体的方法 |
CN111399655A (zh) * | 2020-03-27 | 2020-07-10 | 吴京 | 一种基于vr同步的图像处理方法及装置 |
CN112799507A (zh) * | 2021-01-15 | 2021-05-14 | 北京航空航天大学 | 人体虚拟模型展示方法、装置、电子设备及存储介质 |
CN114783262A (zh) * | 2022-05-07 | 2022-07-22 | 林雨铭 | 一种多功能声控3d解剖展示方法、系统及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105160977A (zh) * | 2015-08-05 | 2015-12-16 | 成都嘉逸科技有限公司 | 一种人体解剖学3d教学系统 |
WO2016061341A1 (en) * | 2014-10-17 | 2016-04-21 | Ebay Inc. | Fast 3d model fitting and anthropometrics |
CN105632310A (zh) * | 2016-01-25 | 2016-06-01 | 新乡医学院 | 一种人体解剖教学系统 |
-
2017
- 2017-03-31 CN CN201710209858.2A patent/CN106980383A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016061341A1 (en) * | 2014-10-17 | 2016-04-21 | Ebay Inc. | Fast 3d model fitting and anthropometrics |
CN105160977A (zh) * | 2015-08-05 | 2015-12-16 | 成都嘉逸科技有限公司 | 一种人体解剖学3d教学系统 |
CN105632310A (zh) * | 2016-01-25 | 2016-06-01 | 新乡医学院 | 一种人体解剖教学系统 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107861244A (zh) * | 2017-07-26 | 2018-03-30 | 宇博先进电子工业有限公司 | 具热显像功能的穿戴式装置 |
CN108121442A (zh) * | 2017-11-24 | 2018-06-05 | 曾良军 | 三维空间显示界面的操作方法、装置和终端设备 |
CN108366232A (zh) * | 2018-03-30 | 2018-08-03 | 东南大学 | 一种基于移动端虚拟现实技术的智能视频监控系统 |
CN109685916A (zh) * | 2018-12-27 | 2019-04-26 | 重庆上丞科技有限公司 | 一种基于手势、语音、视线追踪识别的模型定位放置方法 |
CN109960403A (zh) * | 2019-01-07 | 2019-07-02 | 西南科技大学 | 沉浸式环境下针对医学图像的可视化呈现和交互方法 |
CN110368097A (zh) * | 2019-07-18 | 2019-10-25 | 上海联影医疗科技有限公司 | 一种医疗设备及其控制方法 |
CN110766804A (zh) * | 2019-10-30 | 2020-02-07 | 济南大学 | 一种vr场景下人机协同抓取物体的方法 |
CN110766804B (zh) * | 2019-10-30 | 2023-08-18 | 济南大学 | 一种vr场景下人机协同抓取物体的方法 |
CN111399655A (zh) * | 2020-03-27 | 2020-07-10 | 吴京 | 一种基于vr同步的图像处理方法及装置 |
CN111399655B (zh) * | 2020-03-27 | 2024-04-26 | 吴京 | 一种基于vr同步的图像处理方法及装置 |
CN112799507A (zh) * | 2021-01-15 | 2021-05-14 | 北京航空航天大学 | 人体虚拟模型展示方法、装置、电子设备及存储介质 |
CN112799507B (zh) * | 2021-01-15 | 2022-01-04 | 北京航空航天大学 | 人体虚拟模型展示方法、装置、电子设备及存储介质 |
CN114783262A (zh) * | 2022-05-07 | 2022-07-22 | 林雨铭 | 一种多功能声控3d解剖展示方法、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106980383A (zh) | 一种虚拟模型展示方法、模块及基于该模块的虚拟人体解剖模型展示系统 | |
CN109791801B (zh) | 机器人外科手术系统中的虚拟现实训练、模拟和协作 | |
CN110800033B (zh) | 虚拟现实腹腔镜式工具 | |
US11944401B2 (en) | Emulation of robotic arms and control thereof in a virtual reality environment | |
US20220101745A1 (en) | Virtual reality system for simulating a robotic surgical environment | |
CN107296650A (zh) | 基于虚拟现实和增强现实的智能手术辅助系统 | |
WO2012081194A1 (ja) | 医療支援装置、医療支援方法および医療支援システム | |
JP2022540898A (ja) | 外科手術を遠隔監督するための拡張現実システムおよび方法 | |
CN108701429A (zh) | 提供与手术机器人进行物理交互训练的虚拟和/或增强现实 | |
CN106293082A (zh) | 一种基于虚拟现实的人体解剖交互系统 | |
CN114641251A (zh) | 外科手术虚拟现实用户接口 | |
CN102036616A (zh) | 三维数字放大镜手术支持系统 | |
CN106569673A (zh) | 多媒体病历报告的显示方法及多媒体病历报告的显示设备 | |
US20210353361A1 (en) | Surgical planning, surgical navigation and imaging system | |
CN115315729A (zh) | 用于促进远程呈现或交互的方法和系统 | |
CN111276022A (zh) | 一种基于vr技术的胃镜模拟操作系统 | |
US20220354613A1 (en) | Creating Surgical Annotations Using Anatomy Identification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170725 |
|
RJ01 | Rejection of invention patent application after publication |