CN104699234B - 基于激光的三维空间成像交互方法及系统 - Google Patents

基于激光的三维空间成像交互方法及系统 Download PDF

Info

Publication number
CN104699234B
CN104699234B CN201410216911.8A CN201410216911A CN104699234B CN 104699234 B CN104699234 B CN 104699234B CN 201410216911 A CN201410216911 A CN 201410216911A CN 104699234 B CN104699234 B CN 104699234B
Authority
CN
China
Prior art keywords
laser
module
particulate matter
dimensions
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410216911.8A
Other languages
English (en)
Other versions
CN104699234A (zh
Inventor
孟濬
陈啸
刘琼
张燃
傅幼萍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201410216911.8A priority Critical patent/CN104699234B/zh
Publication of CN104699234A publication Critical patent/CN104699234A/zh
Application granted granted Critical
Publication of CN104699234B publication Critical patent/CN104699234B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/481Diagnostic techniques involving the use of contrast agent, e.g. microbubbles introduced into the bloodstream
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • G01N29/06Visualisation of the interior, e.g. acoustic microscopy
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • G01N29/06Visualisation of the interior, e.g. acoustic microscopy
    • G01N29/0609Display arrangements, e.g. colour displays

Abstract

本发明公开了一种基于激光的三维空间成像交互方法及系统,本发明所述的三维空间成像交互方法,不同于现有的全息成像技术,本发明所述的方法及系统首先建立空间三维坐标,生成目标三维空间,并发射能与激光驻波场共振耦合的颗粒物;然后,通过控制激光在目标三维空间中形成激光驻波场,在目标三维空间中生成激光势阱位置,控制颗粒物在目标三维空间中运动并稳定于该位置,同时通过调节着色激光为颗粒物着色,从而在目标三维空间中形成三维图像。进一步地,通过连续重复上述步骤,使三维图像成为3D影像展现给用户。本发明所述方法及系统为用户展现的3D影像,能够让用户与3D影像进行交互,在交互的过程中不仅能使用户感受到3D影像的真实触感,而且三维图像也能保持原来的结构。

Description

基于激光的三维空间成像交互方法及系统
技术领域
本发明涉及三维空间成像交互技术领域,尤其涉及一种基于激光的三维空间成像交互方法及系统。
背景技术
随着科技的发展,电子设备与用户的交互不断从虚拟向着现实进化。从亚马逊的一键交付系统的一维平台,到智能手机的二维平板化手指滑动操作,再到leap motion、kinect等三维手势交互平台,用户与设备之间的交互已经越来越贴近现实。
传统的三维成像方法需要固定的成像平面,所述的固定的成像平面可以是银幕、水幕、气幕等,利用固定的成像平面在空间中持续稳定存在的反射平面对光源的光线进行反射,从而呈现相应的颜色。
然而,虽然随着3D电影的流行和全息成像技术的发展,三维空间成像技术的开发得到越来越多中外研究者的重视。但是,目前的全息成像技术所生成的影像无法给使用者以真实的反馈,使用者无法在与3D影像互动过程中感受到3D影像的实体触感。
发明内容
针对当前成像技术不足,本发明所要解决的技术问题是提供一种基于激光的三维空间成像交互方法及系统,无需固定的成像平面,能实现用户与3D影像基于视觉和触觉的实时交互,也就是用户在三维空间中观察到3D影像的同时,还能与3D影像交互得到3D影像的真实触感与压力反馈。
本发明所提供的基于激光的三维空间成像交互方法,不同于现有的全息成像技术,不仅能够为用户展现3D影像,同时还能够让用户与3D影像交互的过程中感受到3D影像的真实触感,并且本发明生成的3D影像能够被任意位置的观察者所观察到,具有全方位的可视性。所述的3D影像可以是静止的三维图像,或者是由多张三维图像运动合成的三维动态图像,或者是三维视频影像,也可以是在三维空间中生成的二维曲面图像(如图11所示)。
本发明所述的三维图像是指至少由一个帧时间T的所有三维空间图像点组成的图像,该图像既可以是三维图像,也可以二维图像,即三维图像的其中一维压缩成最小值的情况,还可以是一维图像,即三维图像的其中二维压缩成最小值的情况。
本发明所述的帧时间T为颗粒物运动遍历三维空间中所有的图像点的时间,并且帧时间T满足小于人眼视觉暂留时间,即二十四分之一秒,保证整个三维图像在人眼中是连续的。
本发明所述的三维空间图像点是指所述的三维空间图像点是指组成三维图像的每个像素点,是由颗粒物被三种颜色的激光聚焦后,在目标三维空间中反射激光而呈现相应颜色的点,它包括7个属性值,分别是一个时间属性值t、三个空间位置属性值(r,θ,φ)、三个颜色属性值(R,G,B)。
本发明中涉及两种激光,一种是控制激光,用于生成激光驻波场;另一种是着色激光,用于给颗粒物着色,使其呈现相应颜色。
所述的目标三维空间是指三维图像呈现的三维空间,它不同于其他三维图像呈现依赖的二维幕布,它除了二维幕布的高度和宽度,还具有空间深度;并且,不同于二维幕布反射光源,三维图像在目标三维空间中的呈现依赖于颗粒物对光源的反射。在目标三维空间中,仅有颗粒物能够反射着色激光,呈现三维空间图像点,即除了颗粒物以外,目标三维空间中不存在其他能够反射着色激光,呈现三维空间图像点的物质(用户与三维空间图像点进行互动的物体除外,例如用户用于发出指令的手臂、手、木棍等物体);并且颗粒物能与激光驻波场感应,所述的颗粒物受激光驻波场的控制,能够运动并稳定在激光驻波场的激光势阱位置,反射红、绿、蓝三种颜色的着色激光,呈现相应的颜色,激光驻波场的激光势阱位置可以是目标三维空间中的任意位置,即目标三维空间中的所有位置对于颗粒物来说都具有可达性。
本发明所述的颗粒物是能与激光驻波场耦合同步,向激光势阱位置运动的物体;本发明所述的激光驻波场为激光驻波形成的场。
本发明所述激光驻波的定义为同一介质中,两列频率、振动方向、振幅相同的控制激光在同一直线的相反方向上传播时就叠加形成。
本发明所述的相应颜色是指按照颜色标量值(R',G',B'),红、绿、蓝三种颜色的着色激光以相应强度值的发射着色激光,在颗粒物上混合时呈现的颜色。其中颜色标量值R'对应红色激光的强度值,颜色标量值G'对应绿色激光的强度值,颜色标量值B'对应蓝色激光的强度值。
进一步地,本发明所提供的基于激光的三维空间成像交互方法还能够通过定位用户的手部位置,识别用户的相应的手势,得到用户指令,使用户可以与生成的三维图像进行实时互动,对图像特性的变化进行操作,所述的用户的手部位置是指用户手部在三维空间中所处的位置和用户手部的姿态形状;所述的图像特性的变化包括图像的形状、颜色、大小、位置、姿态等图像属性的变化,所述的图像的姿态变化是指图像在三维空间球坐标系下按照仰俯角和旋转角进行的变化。
进一步地,本发明所提供的基于激光的三维空间成像交互方法还能够实时地识别用户在生成的三维图像中的位置,保证生成的三维图像在与用户交互过程中保持原来的结构,也就是三维图像的完整性不受破坏,同时其各个组成的比例结构保持不变。
其中所述的用户指令选自图像的展开、关闭、旋转、切换、缩放、移动、折叠、合并、剖面展示、局部-整体转换、图像翻转、细节显示等指令中的任意一种或任意多种。
所述的图像旋转是指图像按中心或旋转轴旋转。
所述的图像合并是指不同图像之间的边缘融合。
所述的图像细节显示是指图像局部所包含的细节信息展示;所述的细节信息可以是图像局部的长度、图像所呈现物质的硬度等属性。
为解决本发明的技术问题,本发明的技术方案如下:
一种基于激光的三维空间成像交互方法,包括以下步骤:
步骤1:建立三维空间球坐标系,生成目标三维空间,使颗粒物进入所述的目标三维空间;
步骤2:获取所有的三维空间图像点的参数信息,所述的三维空间图像点的参数信息包括图像点的时刻t,图像点的球坐标系坐标(r,θ,φ)和颜色标量值(R,G,B);
步骤3:获取t时刻用户在目标三维空间的位置信息,并根据所述的位置信息,调整生成t时刻的三维空间图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B');也就是,本步骤根据用户在目标三维空间中的位置信息,调整原始t时刻的三维空间图像点的球坐标系坐标(r,θ,φ)和颜色标量值(R,G,B),生成新的t时刻的三维空间图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B');
步骤4:按照t时刻的三维空间图像点的球坐标系坐标(r',θ',φ'),调整控制激光生成激光驻波场,所述的激光驻波场控制颗粒物运动,并使颗粒物具有相应的速度,在与用户接触时给予用户相应的压力反馈,最终使所述的颗粒物稳定于目标三维空间中激光势阱位置;
步骤5:按照t时刻三维空间图像点的球坐标系坐标(r',θ',φ'),调整着色激光方向,按照t时刻三维空间图像参数颜色标量值(R',G',B')调整着色激光强度,发射红、绿、蓝三种颜色的着色激光,使其聚焦于颗粒物,使颗粒物呈现相应颜色,然后停止发射激光,等待下一次指令;
步骤6:重复步骤2~5,经过一个帧时间T,颗粒物遍历目标三维空间中所有的图像点,在目标三维空间中生成三维图像。
所述的遍历目标三维空间中所有的图像点是指颗粒物在目标三维空间中按照时刻t的排布顺序,在所有组成三维图像的三维空间图像点的球坐标系坐标(r',θ',φ'),呈现相应的颜色标量值(R',G',B')。
一个帧时间T中,三维空间图像点与目标三维空间中生成的图像的映射关系如图10所示。原三维空间图像点的球坐标系坐标(r,θ,φ)和颜色标量值(R,G,B),可以仅受时刻t下用户位置的影响得到新的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B');原三维空间图像点的球坐标系坐标(r,θ,φ)和颜色标量值(R,G,B),可以受时刻t下用户位置和用户操作指令的影响得到新的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B');原三维空间图像点的球坐标系坐标(r,θ,φ)和颜色标量值(R,G,B),可以仅受时刻t下用户操作指令的影响得到新的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B')。
本发明提供的基于激光的三维空间成像交互方法的步骤4中,所述的激光驻波场控制颗粒物运动是指所述的颗粒物与激光驻波场发生耦合同步;所述的耦合同步是指颗粒物的共振频率ωc与激光的频率ωe相等,并且颗粒物受到激光驻波场作用力;所述激光驻波场作用力包括颗粒物所在位置受到的一个或多个不相关梯度矢量方向上的作用力,颗粒物的分布实时动态反映感应范围内的激光驻波场;
其中,颗粒物的选取可以利用共振频率匹配的方法来筛选符合上述条件的颗粒物,所述的共振频率匹配方法包括频率直接测算法和频率扫描测定法。
所述的频率直接测算法是指根据颗粒物的质量m和弹性系数k来计算得到,其中颗粒物的弹性系数k与颗粒物的外形尺寸和硬度有关,颗粒物的质量和弹性系数都可以通过查找相应的材料参数获得,于是颗粒物的共振频率ωc的计算公式如下:
所述的频率扫描测定法是指不断扫描改变控制激光发生源的频率,通过观测颗粒物在相同强度不同频率激光驻波场中激光的作用表现来确定颗粒物的共振频率,或直接通过频率计测得。
多个激光驻波根据t时刻的三维空间图像点的球坐标系坐标点(r',θ',φ'),生成激光驻波场,其中激光驻波场中激光势阱位置位于目标三维空间中的球坐标系坐标点(r',θ',φ'),颗粒物向激光驻波场中激光势阱位置运动,最终稳定于该位置。正是由于三维空间图像点的球坐标系坐标点(r',θ',φ')和激光势阱位置的坐标(r',θ',φ')相同,颗粒物才能在相应位置呈现相应的颜色,成为三维空间图像点。
作为优选,本发明提供的基于激光的三维空间成像交互方法,还能进一步识别用户操作指令,并基于该指令能够对生成的三维图像进行相应的变换操作,包括以下步骤:
步骤1:建立三维空间球坐标系,生成目标三维空间,使颗粒物进入所述的目标三维空间;
步骤2:获取所有的三维空间图像点的参数信息,所述的三维空间图像点的参数信息包括图像点的时刻t,图像点的球坐标系坐标(r,θ,φ)和颜色标量值(R,G,B);
步骤3:获取t时刻用户在目标三维空间的位置信息,并结合t时刻前n个帧时间T用户在目标三维空间的位置信息,分析得到用户操作指令,然后根据t时刻用户在目标三维空间的位置信息和得到的用户操作指令,调整生成t时刻的三维空间图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B');所述的用户位置信息包括当前时刻tm,用户指尖的球坐标系坐标(rmmm);所述的帧时间T是指颗粒物遍历目标三维空间中所有的三维空间图像点所需的时间;
步骤4:按照t时刻的三维空间图像点的球坐标系坐标(r',θ',φ'),控制激光生成激光驻波场,所述的激光驻波场控制颗粒物运动,并使颗粒物具有相应的速度,在于用户接触时给予用户相应的压力反馈,最终使所述的颗粒物稳定于目标三维空间中激光势阱位置;
步骤5:按照t时刻三维空间图像点的球坐标系坐标(r',θ',φ'),调整着色激光方向,按照t时刻三维空间图像参数颜色标量值(R',G',B')调整激光强度,发射红、绿、蓝三种颜色的着色激光,聚焦于颗粒物,颗粒物呈现相应颜色,然后停止发射着色激光,等待下一次指令;
步骤6:重复步骤2~5,经过一个帧时间T,颗粒物遍历目标三维空间中所有的图像点,在目标三维空间中生成三维图像。
所述的用户指令选自图像的展开、关闭、旋转、切换、缩放、移动、折叠、合并、剖面展示、局部-整体转换、图像翻转、细节显示等指令中的任意一种或任意多种。
所述的图像旋转是指图像按中心或旋转轴旋转。
所述的图像合并是指不同图像之间的边缘融合。
所述的图像细节显示是指图像局部所包含的细节信息展示;所述的细节信息可以是图像局部的长度、图像所呈现物质的硬度等属性。
作为优选,本发明还提供一种基于激光的三维空间成像交互方法,不仅能进一步识别用户操作指令,还能通过与前一个帧时间T生成的三维图像的相对空间位置关系和/或用户操作指令来控制发射或停止发射激光,保证呈现三维图像的完整性不受用户操作的干扰,其步骤如下:
步骤1:建立三维空间球坐标系,生成目标三维空间,使颗粒物进入目标三维空间;
步骤2:获取所有的三维空间图像点的参数信息,所述的三维空间图像点的参数信息包括图像点的时刻t,图像点的球坐标系坐标(r,θ,φ)和颜色标量值(R,G,B);
步骤3:获取t时刻用户在目标三维空间的位置信息,并结合t时刻前n个帧时间T用户在目标三维空间的位置信息,分析得到用户操作指令,然后根据t时刻在目标三维空间的用户位置信息和用户操作指令,调整生成三维图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B');所述的用户位置信息包括当前时刻tm,用户指尖的球坐标系坐标(rmmm);所述的帧时间T是指颗粒物遍历所有的三维空间图像点所需的时间;
步骤4:按照t时刻的三维空间图像点的球坐标系坐标(r',θ',φ'),控制激光生成激光驻波场,所述的激光驻波场控制颗粒物运动,并使颗粒物具有相应的速度,在与用户接触时给予用户相应的压力反馈,最终使所述的颗粒物稳定于目标三维空间中激光势阱位置;
步骤5:根据用户与前一个帧时间T生成的三维图像的相对空间位置关系和/或用户操作指令来控制发射或停止着色发射激光,若发射着色激光,则按照t时刻三维空间图像点的球坐标系坐标(r',θ',φ'),调整着色激光方向,按照t时刻三维空间图像参数颜色标量值(R',G',B')调整着色激光强度,发射红、绿、蓝三种颜色的着色激光,聚焦于颗粒物,颗粒物呈现相应颜色,然后停止发射激光,等待下一次指令;
步骤6:重复步骤2~5,经过一个帧时间T,颗粒物遍历所有的三维空间图像点,在目标三维空间中生成三维图像。
本发明还提供一种基于激光的三维空间成像交互方法对应的基于激光的三维空间成像交互系统,所述的交互系统包括控制激光模块、着色激光模块、交互信息获取模块、颗粒物生成模块、第一图像存储分析处理模块和供能模块(其结构框图如图9所示),其中:
所述的控制激光模块用于发射控制激光,形成激光驻波场,在三维空间中形成激光势阱,从而控制颗粒物运动至激光势阱位置,并稳定于该位置;作为优选,所述的控制激光模块,可以由至少三个激光发生器和至少一个激光控制器组成,所述的激光控制器用于接收第一图像存储分析处理模块发出的激光控制信号,向每个激光发生器发送执行指令参数,调整每个激光发生器发出的控制激光的方向、强度和相位,形成激光驻波场,在三维空间中形成激光势阱,从而控制颗粒物运动至激光势阱位置,并稳定于该位置。
具体的,颗粒物稳定于目标三维空间中激光势阱位置的方法如下:
控制激光模块由n(n≥3)个激光发生器和至少一个激光控制器组成;所述的激光势阱位置在各个激光发生器上的执行指令参数为 ,则在目标三维空间中,位于激光驻波场各点的颗粒物的势能Ve(ri)由以下公式计算得到:
其中,Ek为第k个激光发生器发出的能量,(rikikik)为在ti时刻第k个激光发生器以自身为球坐标系原点的执行指令参数,为在ti时刻第k个激光发生器的激光相位调整参数,K为激光驻波场的比例常数,qik为在ti时刻第k个激光的强度。其中,每个激光发生器发射两束相位相差180度的激光,在发射的激光方向上形成激光驻波。所述的相位相差180度的两束激光利用激光锁相装置实现,也可以通过一束激光经过相差半个波长光程的反射装置反射合成得到。
具体地,颗粒物与激光驻波场感应,形成颗粒物密度分布。t时刻在空间位置ri上,颗粒物密度分布的伪势能由此位置的颗粒物密度决定。因此,颗粒物密度分布的伪势能为:
Vc(ri,t)=σ·C(ri,t)
C(ri,t)为ri位置处的颗粒物密度,σ为εi范围内的颗粒物密度分布的密度—势能转换系数,σ可以通过测量在平衡状态下,势能为V0的激光驻波场ri处的颗粒物密度C0计算得到,计算公式如下:
t时刻在空间位置r上,定义感应合成表达场的势能为:
V(r,t)=Vc(r,t)-Ve(r,t)
V为颗粒物在感应合成表达场中的势能,Vc为颗粒物密度分布的伪势能,Ve为颗粒物在激光驻波场中的势能;
已知t时刻在空间位置r上,颗粒物的量子叠加态平面波函数ψ(r,t)可表示为:
A(r)为波函数的幅值,ωc为波函数的频率,且满足ωc=ωe,ωe为激光驻波场频率;
又因为颗粒物与激光驻波场感应,于是考虑单位时间内ri位置颗粒物受到激光驻波场梯度力作用运动而变化的能量E(ri)与感应合成表达场势能差ΔV(ri)有如下关系:
E(ri)ψ(ri)=ΔV(ri)
感应合成表达场势能差ΔV(ri)随时间t变化情况由以下方程计算可得:
ΔV(ri,t)=ΔVc(ri,t)-ΔVe(ri,t)
其中,ΔVc(ri,t)为颗粒物密度分布的伪势能差,ΔVe(ri,t)为颗粒物在激光驻波场中的势能差,N为εi范围内的与ri相关位置数量。
在无外加势能的情况下,位置ri与rj处的感应合成表达场的势能达到平衡状态,需满足以下关系:
由上式可得,颗粒物在位置ri与rj处的感应合成表达场的势能达到平衡状态的势能变化量为:
在t时刻在空间位置ri上的颗粒物在感应合成表达场梯度下所受的合力为计算公式如下所示:
其中,|cij|2为颗粒物在矢量梯度方向上颗粒物被驱动的数量占被驱动数量比例。
因此,ri位置上的颗粒物所处的量子叠加态可表示为:
因此,使用不含时的薛定谔方程描述t时刻下颗粒物的运动状态如下:
ψ(ri)为位置ri处颗粒物的波函数,m为颗粒物质量,为约化普朗克常数。
当在ri处的颗粒物动能满足近似相等时,以上方程变为:
T(ri)+U(ri)ψ(ri)=Eψ(ri)
T(ri)为位置ri处颗粒物动能,U(ri)为位置ri处颗粒物势能。
已知E(ri)ψ(ri)=ΔV(ri),于是有:
而由哈密顿-雅克比方程来计算颗粒物沿等值曲面的法线速度分量u和速度v分别为:
当u=v时,颗粒物沿等势曲面的切线速度分量为0,颗粒物运动过程中不发生碰撞,颗粒物运动的效率最高,由此易得颗粒物变化能量与变化势能的关系为E=2U。
由以上推导可知,t时刻在空间位置ri上所有颗粒物按照对应感应合成表达场的梯度方向运动,此时颗粒物之间不产生碰撞,能够保证最高效的自组织运动。
于是,ri位置的颗粒物向rj位置自组织运动时的速度计算如下:
当V(ri,t)-V(rj,t)>0时,vij>0,此时,ri位置上的颗粒物向rj位置运动,当V(ri,t)-V(rj,t)<0时,vij<0,此时,rj位置外的颗粒物向ri位置运动,当时,vij=0,此时,ri位置的颗粒物相对于rj位置达到平衡状态。因此,颗粒物最终会稳定于V(r,t)最小的激光驻波场位置r。
所述的着色激光模块用于发射红、绿、蓝三种颜色的着色激光,控制颗粒物呈现相应颜色;所述的着色激光模块可以由至少一个红色激光发生器、至少一个绿光激光发生器、至少一个蓝光激光发生器和至少一个激光发生控制器组成;所述的红色激光发生器用于发出红色激光;所述的绿色激光发生器用于发出绿色激光;所述的蓝色激光发生器用于发出蓝色激光;所述的激光发生控制器用于接收第一图像存储分析处理模块发出的激光控制信号,分别控制发出三种颜色的着色激光的方向和强度。
所述的交互信息获取模块用于测定用户在三维空间中的位置信息,转换为用户位置信号并发送给第一图像存储分析处理模块;所述的交互信息获取模块可以由至少三个激光测距装置和至少一个识别装置组成;激光测距装置用于测定用户身体到装置的距离参数;识别装置用于识别用户身体,识别装置可以采用leapmotion、kinect等设备。
所述的颗粒物生成模块用于生成颗粒物;所述的颗粒物与激光驻波场发生耦合同步;所述的耦合同步是指颗粒物与激光驻波场满足颗粒物的共振频率ωc与激光驻波场的频率ωe相等,并且颗粒物对激光驻波场敏感,受到激光驻波场作用力;所述激光驻波场作用力包括颗粒物所在位置受到的一个或多个不相关梯度矢量方向上的作用力,颗粒物的分布实时动态反映感应范围内的激光驻波场。所述的颗粒物生成模块接收第一图像存储分析处理模块的控制信号,根据控制信号生成颗粒物。
其中,颗粒物的选取可以利用共振频率匹配的方法来筛选符合上述条件的颗粒物,所述的共振频率匹配方法包括频率直接测算法和频率扫描测定法;
所述的频率直接测算法是指根据颗粒物的质量m和弹性系数k来计算得到,其中颗粒物的弹性系数k与颗粒物的外形尺寸和硬度有关,颗粒物的质量和弹性系数都可通过查找相应的材料参数获得,于是颗粒物的共振频率计算公式如下所示:
所述的频率扫描测定法是指不断扫描改变激光发生源的频率,通过观测颗粒物在相同强度不同频率激光驻波场中激光的作用表现来确定颗粒物的共振频率,或直接通过频率计进行相应的测量。
所述的第一图像存储分析处理模块用于存储和读取三维图像点的图像点参数信息,发送颗粒物生成信号给颗粒物生成模块,接收所述的交互信息获取模块发送的用户位置信号,将其分析处理后生成t时刻的三维空间图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B'),并将三维空间图像点的球坐标系坐标(r',θ',φ')转换为控制激光信号发送给激光发生器,控制发出激光的方向、强度和相位,将颜色标量值(R',G',B')转换为激光控制信号,发送给着色激光模块,控制发出激光的方向、强度,向颗粒物生成模块发送颗粒物生成信号。
作为优选,所述的第一图像存储分析处理模块包括图像信息存储模块和第一数据分析处理模块。
其中,所述的图像信息存储模块用于存储三维图像点的参数信息;所述的三维图像点的参数信息包括图像点的时刻t,图像点的球坐标系坐标(r,θ,φ)和颜色标量值(R,G,B);
所述的第一数据分析处理模块用于读取图像信息存储模块中的三维图像点的参数信息,接收用户位置信号,分析处理用户位置信号,调整生成t时刻的三维空间图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B'),并将三维空间图像点的球坐标系坐标(r',θ',φ')转换为控制激光信号发送给激光发生器,控制发出控制激光的方向、强度和相位,将颜色标量值(R',G',B')转换为激光控制信号,发送给着色激光模块,控制发出着色激光的方向、强度,发送颗粒物生成信号给颗粒物生成模块。
所述的供能模块用于给控制激光模块、着色激光模块、交互信息获取模块、颗粒物生成模块、第一图像存储分析处理模块提供能源,并与上述模块相连。
本发明还提供一种基于激光的三维空间成像交互方法对应的基于激光的三维空间成像交互系统,能进一步识别用户操作指令,还能通过与前一个帧时间T生成的三维图像的相对空间位置关系和/或用户操作指令来控制发射或停止发射激光,保证呈现三维图像的完整性不受用户操作的干扰,所述的交互系统包括控制激光模块、着色激光模块、交互信息获取模块、颗粒物生成模块、第二图像存储分析处理模块和供能模块(其结构框图如图1所示),其中:
所述的控制激光模块用于接收第二图像存储分析处理模块发出的激光控制信号,发射控制激光,形成激光驻波,在三维空间中形成激光驻波场,从而控制颗粒物运动到激光势阱位置,并稳定于该位置;作为优选,所述的控制激光模块,可以由至少三个激光发生器和至少一个激光控制器组成,所述的激光控制器用于接收第二图像存储分析处理模块发出的控制激光信号,向每个激光发生器发送执行指令参数,调整每个激光发生器发出的控制激光的方向、强度和相位,形成激光驻波,在三维空间中形成激光驻波场,从而控制颗粒物运动至激光势阱位置,并稳定于该位置。
所述的着色激光模块用于发射红、绿、蓝三种颜色的着色激光,控制颗粒物呈现相应颜色;所述的着色激光模块可以由至少一个红色激光发生器、至少一个绿色激光发生器、至少一个蓝色激光发生器和激光发生控制器;所述的红色激光发生器用于发出红色激光;所述的绿色激光发生器用于发出绿色激光;所述的蓝色激光发生器用于发出蓝色激光;所述的激光发生控制器用于接收第二图像存储分析处理模块发出的激光控制信号,控制发出着色激光的方向、强度及着色激光的发射和停止发射。
所述的交互信息获取模块用于测定用户在三维空间中的位置信息,转换为用户位置信号并发送给第二图像存储分析处理模块;所述的交互信息获取模块可以由至少三个激光测距装置和至少一个识别装置组成;激光测距装置用于测定用户身体到装置的距离参数;识别装置用于识别用户身体,识别装置可以采用leapmotion、kinect等设备。
所述的颗粒物生成模块用于生成颗粒物;所述的颗粒物与激光驻波场发生耦合同步;所述的耦合同步是指颗粒物与激光驻波场满足颗粒物的共振频率ωc与激光驻波场的频率ωe相等,并且颗粒物对激光驻波场敏感,受到激光驻波场作用力;所述激光驻波场作用力包括颗粒物所在位置受到的一个或多个不相关梯度矢量方向上的作用力,颗粒物的分布实时动态反映感应范围内的激光驻波场。所述的颗粒物生成模块接收第二图像存储分析处理模块的颗粒物生成信号,根据颗粒物生成信号生成颗粒物。
所述的第二图像存储分析处理模块用于存储和读取三维图像点的参数信息,发送颗粒物生成信号给颗粒物生成模块,接收所述的交互信息获取模块发送的用户位置信号,并根据t时刻前n个帧时间T的位置信息分析得到用户操作指令,根据t时刻的用户在目标三维空间中的位置信息和用户操作指令,调整生成t时刻的三维空间图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B'),并将三维空间图像点的球坐标系坐标(r',θ',φ')转换为激光控制信号发送给激光发生器,控制发出激光的方向、强度和相位,根据用户与前一个帧时间T生成的三维图像的相对空间位置关系,将颜色标量值(R',G',B')转换为激光控制信号,发送给着色激光模块,控制发出激光的方向、强度及激光的发射和停止发射,向颗粒物生成模块发送颗粒物生成信号。
所述的用户指令选自图像的展开、关闭、旋转、切换、缩放、移动、折叠、合并、剖面展示、局部-整体转换、图像翻转、细节显示等指令中的任意一种或任意多种。
所述的图像旋转是指图像按中心或旋转轴旋转。
所述的图像合并是指不同图像之间的边缘融合。
所述的图像细节显示是指图像局部所包含的细节信息展示;所述的细节信息可以是图像局部的长度、图像所呈现物质的硬度等属性。
作为优选,所述的第二图像存储分析处理模块包括图像信息存储模块、第二数据分析处理模块,其中,
所述的图像信息存储模块用于存储三维图像点的参数信息;所述的三维图像点的参数信息包括图像点的时刻t,图像点的球坐标系坐标(r,θ,φ)和颜色标量值(R,G,B);
所述的第二数据分析处理模块用于读取图像信息存储模块中的三维图像点的参数信息,接收所述的交互信息获取模块发送的用户位置信号,识别用户与前一个帧时间T生成的三维图像的相对空间位置关系,并根据t时刻前n个帧时间T的位置信号,分析得到用户操作指令,根据t时刻的用户在目标三维空间中的位置信息和/或用户操作指令,生成t时刻的三维空间图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B',)并将三维空间图像点的球坐标系坐标(r',θ',φ')转换为激光控制信号发送给激光发生器,控制发出控制激光的方向、强度和相位,根据用户与前一个帧时间T生成的三维图像的相对空间位置关系,将颜色标量值(R',G',B')转换为激光控制信号,发送给着色激光模块,控制发出着色激光的方向、强度及着色激光的发射和停止发射,向颗粒物生成模块发送颗粒物生成信号。
所述的供能模块用于给控制激光模块、着色激光模块、交互信息获取模块、颗粒物生成模块、第二图像存储分析处理模块提供能源,并与上述模块相连。
本发明的有益效果是:
本发明基于激光的三维空间成像方法与系统能够通过颗粒物在三维空间中呈现三维图像,由于颗粒物受激光驻波场中激光势阱的控制,能够运动到目标三维空间中的任意位置,因此本发明所述的三维图像的成像不依赖于固定的成像平面;又因为交互信息获取模块能够捕捉用户在目标三维空间中的位置信息,进而能够通过捕捉用户在目标空间中的动作,因此本发明所述方法及系统能够控制颗粒物的运动,调整所述三维图像在目标三维空间中的位置,使用户与三维图像进行实时互动。
所述的实时互动包括:(1)用户对三维图像的操控,用户的手势指令能够被本发明所述的三维空间成像方法及系统识别,用户能够操控三维图像;(2)用户感受到三维图像的触感,由于本发明所述的三维空间成像方法及系统能够根据用户的位置信息,调整颗粒物的运动速度,从而用户与生成的三维图像接触时,用户能够受到相应的压力反馈,能够感受到三维图像所呈现物体的真实触感;(3)三维图像的完整性不受用户动作的干扰,由于本发明所述的三维空间成像方法及系统能够根据用户的位置信息,调整颗粒物的运动轨迹,因此用户与生成的三维图像接触时,三维图像结构的完整性不受到用户的干扰。用户与系统交互超越了现有的三维视觉,在体感触觉上也具有真实感。
附图说明
图1是本发明的基于激光的三维成像交互系统的结构框图;
图2是本发明的基于激光的三维成像交互方法流程图;
图3是本发明图像旋转的用户指令示意图;
图4是本发明图像缩放的用户指令示意图;
图5是本发明显示备注和介绍的用户指令示意图;
图6是本发明图像进退的用户指令示意图;
图7是本发明生成激光驻波场示意图;
图8是本发明着色激光模块与控制激光模块同步控制示意图;
图9是本发明的成像交互系统框图;
图10是本发明三维图像数据与生成三维图像关系图;
图11是本发明生成二维曲面的三维图像示意图;
图中所示,5——控制激光模块,6——着色激光模块,11——颗粒物,12——坐标系原点,13——激光驻波场的激光势阱位置。
具体实施方式
以下,参照附图详细描述示例性实施例。然而,这里公开的特定结构和功能性细节仅代表描述示例性实施例的目的。示例性实施例可按许多备选形式来实现,不应理解为仅受限于这里阐述的示例性实施例。
可理解,尽管这里可使用术语“第一”、“第二”等来描述各个元素,但是这些元素不应该受到这些术语限制。这些术语仅用于将一个元素与另一个区分。例如,第一元素可称为第二元素,类似地,第二元素可称为第一元素,而不脱离示例性实施例的范围。这里,术语“和/或”包括相关列出项目的一个或多个的任一个和全部组合。
可理解,当元素称为“连接”或“耦合”至另一元素,其可直接连接或耦合至其他元素,或可存在中间元素。相反,当元素称为“直接连接”或“直接耦合”至另一元素,不存在中间元素。用于描述元素间关系的其他词语可按相同方式来解释。
(例如“之间”与“直接之间”,“相邻”与“直接相邻”等)。
这里,单数形式“一”、“一个”和“所述”旨在也包含复数形式,除非语言明确表示。
还可理解,术语“包括”、“包括有”、“包含”和/或“包含有”在使用时指示所指特征、整数、步骤、操作、元素、和/或组件的存在,但是不排除一个或多个其他特征、整数、步骤、操作、元素、和/或组件和/或其组的存在或增加。
还应注意,一些备选方案中,示例性方法中指出的功能/动作可不按照附图中所示或说明书中所述的顺序发生。例如,按序所示的两个附图或步骤可实际上串行和同时执行,或有时候可按相反顺序或重复执行,取决于所涉及的功能/动作。类似地,在任意所示或所述的步骤之间、之前、或之后可执行额外中间步骤。
为了使本发明的目的、技术方案和优点更加清楚,以三维演示人体食物消化为例,结合附图对本发明作进一步的描述。
本例中演示所需的三维图像信息预先存储于本系统的图像信息存储模块中,本例演示的场景为教师向中学生分别讲解化学爆炸、磁铁吸引、人体消化系统的课堂,教师为本发明在此次演示中的用户,在场学生和教师均为观察者。
一种基于激光的三维空间成像交互系统,包括控制激光模块、着色激光模块、交互信息获取模块、颗粒物生成模块、第二图像存储分析处理模块和供能模块,所述的第二图像存储分析处理模块包括图像信息存储模块和第二数据分析处理模块,所述的控制激光模块由发生器和激光控制器组成,所述基于激光的三维空间成像交互系统的结构框图如图1所示;所述的基于激光的三维空间成像交互系统在目标三维空间中生成三维图像并与用户交互的流程如图2所示。
本发明所述的系统具体工作步骤如下:
步骤1:系统初始化,第二数据分析处理模块以控制激光模块中激光发生器所构成的平面中心点为球形坐标系原点,建立球形坐标系,生成目标三维空间,并使每个激光发生器在坐标轴中的俯角坐标为0,颗粒物生成模块发射颗粒物进入所述的目标三维空间;
步骤2:第二数据分析处理模块获取图像信息存储模块中的三维空间图像点的参数信息,所述的三维空间图像点的参数信息包括图像点的时刻t,图像点的球坐标系坐标(r,θ,φ)和颜色标量值(R,G,B),即三维空间图像点i的信息参数为(ti,riii,Ri,Gi,Bi);
步骤3:交互信息获取模块获取ti时刻用户在目标三维空间的位置信息(ti,rimimim),并发送给第二数据分析处理模块;
具体实现过程如下所示:
以测定用户的手部各点位置为例,交互信息获取模块由三个激光测距装置和一个识别装置组成;首先由识别装置对手部各点位置进行识别,在由三个激光测距装置分别得到手指以第j个激光测距装置为原点的球坐标系参数(rjmjmjm),根据激光测距装置自身在系统建立的球坐标系位置参数(rjj,0),可计算得到手部位置的坐标(rmmm),计算公式如下:
其中,rjm为用户手指m到第j个激光测距装置的距离,θjm为用户手指m相对于第j个激光测距装置的转角,φjm为用户手部位置m相对于第j个激光测距装置的仰角。
交互信息获取模块通过测定用户手部各点的位置坐标,识别手部轮廓,将用户当前时刻的手部位置信息发送给第二数据分析处理模块。
步骤4:第二数据分析处理模块接收用户当前时刻ti的手部位置信息,并结合ti时刻前n个帧时间T用户在目标三维空间的位置信息,分析得到用户操作指令,然后根据ti时刻用户在目标三维空间中的位置信息和得到的用户操作指令,调整生成图像点的球坐标系坐标(ri',θi',φi')和颜色标量值(Ri',Gi',Bi'),并且进一步将图像点的球坐标系坐标(ri',θi',φi')转换为控制激光模块中各个激光发生器和激光控制器的执行指令参数(rikikik);
具体地,图像调整坐标系变换使用球坐标系图像的坐标变换方法对原坐标系点进行平移、旋转、比例放大缩小等变换,如对图像进行等比例放大缩小时,有以下关系:ri'=l·ri,θi'=θi,φi'=φi,l为比例系数;对图形进行旋转时,有以下关系:ri'=ri,θi'=θi+Δθ,φi'=φi+Δφ,Δθ和Δφ为相应的旋转角;如对图像进行平移时,可以先将球形坐标系坐标(riii)转换为平面直角坐标系(xi,yi,zi),平移得到(xi',yi',zi'),再转换成球坐标系坐标(ri',θi',φi'),其中有以下关系:xi'=xi+Δx,yi'=yi+Δy,zi'=zi+Δz,Δx,Δy,Δz分别为三个坐标轴的平移量;其他复杂变换可以由以上简单变换组合生成,例如折叠变换可以由旋转和平移变换叠加得到。
以激光发生器为例,图像点i的参数信息具体转换实现过程如下:
已知此时图像点i的参数信息为(ti,riii,Ri,Gi,Bi),控制激光模块根据该图像点参数信息中的(ti,ri',θi',φi')得到该图像点到控制激光模块各个激光发生器的具体指令参数(rikikik),第k个激光发生器的在球坐标系坐标参数为(rkk,0)计算公式如下所示:
其中,rik为图像点i到第k个激光发生器的距离,θik为图像点i相对于第k个激光发生器的转角,φik为图像点i相对于第k个激光发生器的仰角,c为声速,为第k个激光发生器的仰角调整相位。
在本实施例中以检测用户的手指为例,可以设定本系统生成的三维图像旋转的用户指令为大拇指和食指向外伸直成U型、其余手指保持握拳状、旋转手腕的动作,如图3所示;三维图像缩放的用户指令为除大拇指和食指以外的手指保持握拳状,大拇指和食指向外伸出成U型、变化大拇指和食指所成夹角的动作,如图4所示;本系统的暂停并显示和确定相应菜单的用户指令为食指伸直并双击相应三维图像、其余手指弯曲的动作,如图5所示;三维图像前后切换的用户指令为除食指以外的各手指保持握拳状,食指向前伸直快速向左或向右划动的动作,如图6所示。
步骤5:按照t时刻的三维空间图像点的球坐标系坐标(r',θ',φ'),生成激光驻波场,所述的激光驻波场控制颗粒物运动,并使颗粒物具有相应的速度,在与用户接触时给予用户相应的压力反馈,最终使所述的颗粒物稳定于目标三维空间中激光势阱位置。
具体激光驻波场的势能计算方式如下:
例如,控制激光模块由三个激光发生器和一个激光控制器组成,已知图像点在第k个激光发生器上的指令参数为则颗粒物位于激光驻波场中聚焦点时的势能Ve(ri)由以下公式计算得到:
K为激光驻波场的比例常数,qik为在ti时刻第k个激光的强度,Ek为第k个激光发生器发出的能量,(rikikik)为在ti时刻第k个激光发生器以自身为球坐标系原点的执行指令参数,为在ti时刻第k个激光发生器的激光相位调整参数。
同时,为了实现三维图像的真实触感,具体颗粒物对手指施加相应的压力Fi,通过系统控制颗粒物的运动速度vi来实现,具体计算公式如下所示:
其中,mi为单个颗粒物的质量,Δt为手指接触颗粒物的时间,其中Δt为常数,颗粒物速度可以根据颗粒物的运动时间参数计算得到,具体计算公式为其中,为颗粒物从点i-1移动到点i的位移向量,而Δti为系统当前设定的点i-1时间参数ti-1与点i时间参数ti之间的时间差,存在如下关系Δti=μi(ti-ti-1),其中μi为相应的材料硬度参数,可以通过查询相关材料参数设定;其中,颗粒物的运动速度vi与感应合成表达场势能差ΔV(ri)成正比,因此根据激光驻波场中颗粒物的势能Ve(ri)计算公式,可以通过调节激光发生器的发射强度qk,控制颗粒物的运动速度,具体换算关系,可由公式推导得到。
步骤6:按照t时刻三维空间图像点的球坐标系坐标(r',θ',φ'),接收激光发生器指令参数,调整着色激光方向,按照t时刻三维空间图像参数颜色标量值(R',G',B')调整着色激光强度,发射红、绿、蓝三种颜色的着色激光,聚焦于颗粒物,颗粒物呈现相应颜色,然后停止,等待下一次指令;
步骤7:重复步骤2~6,经过一个帧时间T,颗粒物遍历所有的三维空间图像点,在目标三维空间中生成三维图像。
实施例1化学爆炸过程演示
具体的,本发明所述的交互系统能够识别教师在三维空间中的手势,实现教师与三维图像的交互,教师演示化学爆炸过程如下:
(1)系统启动,并向目标三维空间中发射颗粒物,颗粒物稳定于目标三维空间中;
(2)教师首先做出三维图像前后切换手势指令,系统按照如前所述的具体工作步骤3~4识别教师的手势,读取图像信息存储模块中存储的化学爆炸三维图像的信息参数,系统按照如前所述的具体工作步骤1~7控制颗粒物在目标三维空间中显示三维图像,切换到化学爆炸的三维演示初始图像;
(3)教师使用手指双击触碰该三维初始图像,确定播放,系统按照如前所述的步骤1~7的具体工作步骤控制颗粒物运动展现化学爆炸场景图像;所述的化学爆炸场景图像包括实际的化学爆炸过程的所有三维图像,即本系统生成的三维图像展示了实际的化学爆炸过程;
(4)教师使用手指单击,系统按照如前所述的具体工作步骤3~4识别手势,暂停化学爆炸场景播放,此时颗粒物的各项控制参数(ti,riii,Ri,Gi,Bi)保持不变;
(5)教师使用手指放大和缩小暂停的静态化学爆炸三维图像,用手指双击显示相应的提示和资料,通过旋转手势对三维图像进行旋转,从不同角度来观察三维图像;
具体的图像调整坐标系变换使用球坐标系图像的坐标变换方法对原坐标系点进行平移、旋转、比例放大缩小等变换,如对图像进行等比例放大缩小时,有以下关系:ri'=l·ri,θi'=θi,φi'=φi,l为比例系数;对图形进行旋转时,有以下关系:ri'=ri,θi'=θi+Δθ,φi'=φi+Δφ,Δθ和Δφ为相应的旋转角;如对图像进行平移时,可以先将球形坐标系坐标(riii)转换为平面直角坐标系(xi,yi,zi),平移得到(xi',yi',zi'),再转换成球坐标系坐标(ri',θi',φi'),其中有以下关系:xi'=xi+Δx,yi'=yi+Δy,zi'=zi+Δz,Δx,Δy,Δz分别为三个坐标轴的平移量;
(6)演示完毕,教师使用手指双击手势,系统识别该手势,停止生成三维图像。
实施例2磁场磁铁相互吸引演示
具体的,本发明所述的系统还能实现用户在操作过程中的交互体感,在用户操作的同时给予用户相应的体感压力,在用户感受磁场磁铁相互吸引过程。
以学生操作磁场磁铁相互吸引演示为例,其过程如下:
(1)系统启动,并向目标三维空间中发射颗粒物,颗粒物稳定于目标三维空间中;
(2)学生首先做出三维图像前后切换手势指令,系统按照如前所述的具体工作步骤3~4识别学生的手势,读取图像信息存储模块中存储的磁铁相互吸引三维图像的信息参数,系统按照如前所述的具体工作步骤1~7控制颗粒物在目标三维空间中显示三维图像,切换到磁铁相互吸引的三维演示初始图像;
(3)学生使用手指双击触碰该三维初始图像,确定播放,系统按照如前所述的具体工作步骤1~7控制颗粒物运动展现磁铁相互吸引场景图像;所述的磁铁相互吸引场景图像包括实际的磁铁相互吸引过程的所有三维图像,即本系统生成的三维图像展示了实际的磁铁相互吸引过程;
(4)学生将手放入磁场中做“推开磁铁的三维图像”动作,系统按照如前所述的步骤3~4识别学生手势,对磁铁的三维图像的成像位置进行相应调整,对学生手部运动轨迹进行跟随,并按照如前所述的具体工作步骤5通过颗粒物的相对运动对手指施加相应的压力,使学生感受到磁铁吸引产生的压力;
具体颗粒物对手指施加相应的压力Fi,通过系统控制颗粒物的运动速度vi来实现,具体计算公式如下所示:
其中,mi为单个颗粒物的质量,Δt为手指接触颗粒物的时间,其中Δt为常数,颗粒物速度可以根据颗粒物的运动时间参数计算得到,具体计算公式为其中,为颗粒物从点i-1移动到点i的位移向量,而Δti为系统当前设定的点i-1时间参数ti-1与点i时间参数ti之间的时间差,存在如下关系Δti=μi(ti-ti-1),其中μi为相应的材料硬度参数,可以通过查询相关材料参数设定;其中,颗粒物的运动速度vi与感应合成表达场势能差ΔV(ri)成正比,因此根据激光驻波场中颗粒物的势能Ve(ri)计算公式,可以通过调节激光发生器的发射强度qk,控制颗粒物的运动速度,具体换算关系,可由公式推导得到。
(5)学生松开磁铁的三维图像,系统识别学生的手势,系统按照如前所述的具体工作步骤1~7控制颗粒物运动展现磁铁相互吸引场景图像;
(6)演示完毕,学生使用手指双击手势,系统识别该手势,停止生成三维图像。
实施例3消化系统消化苹果演示
具体的,教师还能够在三维图像有手指等其他身体部位遮挡时,仍然能够完整展示整个三维图像,以下以教师演示消化系统消化苹果的过程为例来具体说明:
(1)系统启动,并向目标三维空间中发射颗粒物,颗粒物稳定于目标三维空间中;
(2)教师首先做出三维图像前后切换手势指令,系统按照如前所述的具体工作步骤3~4识别教师的手势,读取图像信息存储模块消化系统消化苹果三维图像的信息参数,系统按照如前所述的具体工作步骤1~7控制颗粒物在目标三维空间中显示三维图像,切换到消化系统消化苹果过程的三维演示初始图像;
(3)教师使用手指双击触碰该三维初始图像,确定播放,系统按照如前所述的具体工作步骤1~7控制颗粒物运动展现消化系统消化苹果场景图像;所述的消化系统消化苹果场景图像包括真实苹果的三维图像、真实消化系统的三维图像和真实消化系统消化苹果过程的所有三维图像,即本系统生成的三维图像展示了真实的消化系统消化苹果过程;
(4)教师进行“手抓住苹果的三维图像喂送至消化系统”的动作,系统按照如前所述的具体工作步骤3~4通过交互信息模块识别手的位置和动作,调整苹果的三维图像的参数信息,控制苹果的三维图像进入消化系统;
(5)教师使用手指示消化系统进行消化系统演示,系统按照如前所述的具体工作步骤3~4识别手指位置,当手指位置与消化系统的显示区域重叠时,系统的第二图像存储分析处理模块对颗粒物的运动轨迹重新编辑,控制颗粒物的运动轨迹绕开手所处在的位置,并控制激光发生器的开启和关闭使颗粒物显示正常颜色;当手处于某个激光发生器与颗粒物之间时,关闭该激光发生器,同是增强其他激光发生器的强度,使消化系统显示不受手部动作影响;
其中,颗粒物的运动轨迹重新编辑,通过在原有的颗粒物位置参数上叠加相应的位移量得到,其中对图像进行平移时,可以先将球形坐标系坐标(riii)转换为平面直角坐标系(xi,yi,zi),平移得到(xi',yi',zi'),再转换成球坐标系坐标(ri',θi',φi'),其中有以下关系:xi'=xi+Δx,yi'=yi+Δy,zi'=zi+Δz,Δx,Δy,Δz分别为教师手指进入相应区域而导致的颗粒物在三个坐标轴上的平移量;
(6)演示完毕,教师使用手指双击手势确定演示完毕,系统按照如前所述的具体工作步骤3~4识别手势,停止生成三维图像。
实施例4球抛射撞击演示
具体的,学生还能够在对三维图像呈现的虚拟物体进行与真实物体相同的操作,以下以学生进行球抛射撞击的过程为例来具体说明:
(1)系统启动,并向目标三维空间中发射颗粒物,颗粒物稳定于目标三维空间中;
(2)学生首先做出三维图像前后切换手势指令,系统按照如前所述的步骤3~4识别学生的手势,读取图像信息存储模块球抛射撞击演示三维图像的信息参数,系统按照如前所述的具体工作步骤1~7控制颗粒物在目标三维空间中显示三维图像,切换到球抛射撞击演示过程的三维演示初始图像。
(3)学生使用手指双击触碰该三维初始图像,确定播放,系统按照如前所述的具体工作步骤1~7控制颗粒物运动展现球抛射撞击演示场景图像;所述的球抛射撞击演示场景图像包括真实的球的三维图像和真实的球抛射撞击过程的所有三维图像,即本系统生成的三维图像展示了真实的球抛射撞击的过程;
(4)学生用手抓取球的三维图像,系统按照如前所述的具体工作步骤3~4识别手的位置和动作,调整球的三维图像的参数信息,呈现球(三维图像)跟随手部移动,并且按照如前所述的步骤5通过颗粒物运动给予手部压力触觉反馈;
(5)学生进行抛射动作,系统按照如前所述的具体工作步骤3~4识别手的抛射动作,调整球的三维图像的参数信息,并显示球的三维图像按照物理规律运动;
(6)球与目标三维空间中其他球碰撞,系统按照如前所述的具体工作步骤3~4第二数据分析处理模块判别被抛射球与其他球的碰撞边界,并计算得到碰撞时刻的其他球三维图像点的运动位移,调整其他球的三维图像点平移运动;
具体其他球的平移运动和被抛射球的平移运动遵守完全弹性碰撞下的动量守恒与能量守恒,碰撞不损失动能。
(7)演示完毕,学生使用手指双击手势确定演示完毕,系统按照如前所述的具体工作步骤3~4识别手势,停止生成三维图像。
上述实施例用来解释说明本发明,而不是对本发明进行限制,凡是采用类似的激光发生器进行三维空间成像的方法和系统都将落入本发明的保护范围内。在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。

Claims (12)

1.一种基于激光的三维空间成像交互方法,其特征在于包括以下步骤:
步骤1:建立三维空间球坐标系,生成目标三维空间,使颗粒物进入所述的目标三维空间;
步骤2:获取所有的三维空间图像点的参数信息,所述的三维空间图像点的参数信息包括图像点的时刻t,图像点的球坐标系坐标(r,θ,φ)和颜色标量值(R,G,B);
步骤3:获取t时刻用户在目标三维空间的位置信息,并根据所述的位置信息,调整生成t时刻的三维空间图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B');
步骤4:按照t时刻的三维空间图像点的球坐标系坐标(r',θ',φ'),调整控制激光生成激光驻波场,所述的激光驻波场控制颗粒物运动,并使颗粒物具有相应的速度,在与用户接触时给予用户相应的压力反馈,最终使所述的颗粒物稳定于目标三维空间中激光势阱位置;
步骤5:按照t时刻三维空间图像点的球坐标系坐标(r',θ',φ'),调整着色激光方向,按照t时刻三维空间图像参数颜色标量值(R',G',B')调整着色激光强度,发射红、绿、蓝三种颜色的着色激光,使其聚焦于颗粒物,使颗粒物呈现相应颜色,然后停止发射激光,等待下一次指令;
步骤6:重复步骤2~5,经过一个帧时间T,颗粒物遍历目标三维空间中所有的图像点,在目标三维空间中生成三维图像。
2.根据权利要求1所述的基于激光的三维空间成像交互方法,其特征在于所述的步骤3为:获取t时刻用户在目标三维空间的位置信息,并结合t时刻前n个帧时间T用户在目标三维空间的位置信息,分析得到用户操作指令,然后根据t时刻用户在目标三维空间的位置信息和得到的用户操作指令,调整生成t时刻的三维空间图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B')。
3.根据权利要求2所述的基于激光的三维空间成像交互方法,其特征在于:所述步骤5中根据用户与前一个帧时间T生成的三维图像的相对空间位置关系和/或用户操作指令来控制发射或停止发射着色激光。
4.根据权利要求2或3所述的基于激光的三维空间成像交互方法,其特征在于:所述的用户操作指令选自三维图像的展开、关闭、旋转、切换、缩放、移动、折叠、合并、剖面展示、局部-整体转换、细节显示指令中的任意一种或任意多种。
5.根据权利要求2或3所述的基于激光的三维空间成像交互方法,其特征在于:所述的用户操作指令为翻转。
6.一种基于激光的三维空间成像交互系统,其特征在于:所述的交互系统包括控制激光模块(5)、着色激光模块(6)、交互信息获取模块、颗粒物生成模块、第一图像存储分析处理模块和供能模块,其中:
所述的控制激光模块(5)用于发射控制激光,形成激光驻波场,在三维空间中形成激光势阱,从而控制颗粒物运动至激光势阱位置,并稳定于该位置;
所述的着色激光模块(6)用于发射红、绿、蓝三种颜色的着色激光,控制颗粒物呈现相应颜色;
所述的交互信息获取模块用于测定用户在目标三维空间中的位置信息,将其转换为用户位置信号并发送至第一图像存储分析处理模块;
所述的颗粒物生成模块用于生成颗粒物;
所述的第一图像存储分析处理模块用于存储和读取三维图像点的参数信息,接收所述的交互信息获取模块发送的用户位置信号,将其分析处理后,调整生成t时刻的三维空间图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B');
所述的供能模块用于给控制激光模块、着色激光模块、交互信息获取模块、颗粒物生成模块、第一图像存储分析处理模块提供能源。
7.根据权利要求6所述的基于激光的三维空间成像交互系统,其特征在于所述的第一图像存储分析处理模块包括图像信息存储模块和第一数据分析处理模块,其中:
所述的图像信息存储模块用于存储三维图像点的参数信息;
所述的第一数据分析处理模块用于读取图像信息存储模块中的三维图像点的参数信息,接收所述的交互信息获取模块发送的用户位置信号,将其分析处理后,调整生成t时刻的三维空间图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B')。
8.一种基于激光的三维空间成像交互系统,其特征在于:所述的交互系统包括控制激光模块(5)、着色激光模块(6)、交互信息获取模块、颗粒物生成模块、第二图像存储分析处理模块和供能模块,其中:
所述的控制激光模块(5)用于发射控制激光,形成激光驻波场,在三维空间中形成激光势阱,从而控制颗粒物运动至激光势阱位置,并稳定于该位置;
所述的着色激光模块(6)用于发射红、绿、蓝三种颜色的着色激光,控制颗粒物呈现相应颜色;
所述的交互信息获取模块用于测定用户在目标三维空间中的位置信息,将其转换为用户位置信号并发送至第二图像存储分析处理模块;
所述的颗粒物生成模块用于生成颗粒物;
所述的第二图像存储分析处理模块用于存储和读取三维图像点的参数信息,接收所述的交互信息获取模块发送的用户位置信号,并根据t时刻前n个帧时间T的用户在目标三维空间中的位置信息,分析得到用户操作指令,然后根据t时刻用户在目标三维空间的位置信息和得到的用户操作指令,调整生成t时刻的三维空间图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B'),并将三维空间图像点的球坐标系坐标(r',θ',φ')转换为控制激光信号发送给控制激光模块,控制发射激光的方向、强度和相位,将颜色标量值(R',G',B')转换为着色激光信号,发送给着色激光模块,控制发出激光的方向、强度,向颗粒物生成模块发送颗粒物生成信号;
所述的供能模块用于给控制激光模块、着色激光模块、交互信息获取模块、颗粒物生成模块、第二图像存储分析处理模块提供能源。
9.根据权利要求8项所述的基于激光的三维空间成像交互系统,其特征在于:所述的第二图像存储分析处理模块包括图像信息存储模块和第二数据分析处理模块,其中:
所述的图像信息存储模块用于存储三维图像点的参数信息;
所述的第二数据分析处理模块用于读取图像信息存储模块中的三维图像点的参数信息,接收所述的交互信息获取模块发送的用户位置信号,并根据t时刻前n个帧时间T的用户在目标三维空间中的位置信息,分析得到用户操作指令,然后根据t时刻用户在目标三维空间的位置信息和得到的用户操作指令,调整生成t时刻的三维空间图像点的球坐标系坐标(r',θ',φ')和颜色标量值(R',G',B'),并将三维空间图像点的球坐标系坐标(r',θ',φ')转换为控制激光信号发送给控制激光模块,控制发出激光的方向、强度和相位,根据用户与前一个帧时间T生成的三维图像的相对空间位置关系,将颜色标量值(R',G',B')转换为着色激光信号,发送给着色激光模块,控制发出激光的方向、强度及激光的发射和停止发射,向颗粒物生成模块发送颗粒物生成信号。
10.根据权利要求8所述的基于激光的三维空间成像交互系统,其特征在于:所述的用户操作指令选自三维图像的展开、关闭、旋转、切换、缩放、移动、折叠、合并、剖面展示、局部-整体转换、细节显示指令中的任意一种或任意多种。
11.根据权利要求8所述的基于激光的三维空间成像交互系统,其特征在于:所述的用户操作指令为翻转。
12.根据权利要求6-11任一项所述的基于激光的三维空间成像交互系统,其特征在于所述的控制激光模块(5)由至少三个激光发生器和至少一个激光控制器组成。
CN201410216911.8A 2013-12-05 2014-05-21 基于激光的三维空间成像交互方法及系统 Active CN104699234B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410216911.8A CN104699234B (zh) 2013-12-05 2014-05-21 基于激光的三维空间成像交互方法及系统

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2013106558337 2013-12-05
CN201310655833 2013-12-05
CN201410216911.8A CN104699234B (zh) 2013-12-05 2014-05-21 基于激光的三维空间成像交互方法及系统

Publications (2)

Publication Number Publication Date
CN104699234A CN104699234A (zh) 2015-06-10
CN104699234B true CN104699234B (zh) 2018-02-02

Family

ID=53336131

Family Applications (4)

Application Number Title Priority Date Filing Date
CN201410217954.8A Active CN104699235B (zh) 2013-12-05 2014-05-21 基于超声波的三维空间成像交互方法及系统
CN201410216588.4A Active CN104689674B (zh) 2013-12-05 2014-05-21 基于广义量子超声陷阱的颗粒物聚集方法、聚集处理方法和聚集处理系统
CN201410216911.8A Active CN104699234B (zh) 2013-12-05 2014-05-21 基于激光的三维空间成像交互方法及系统
CN201410216890.XA Active CN104688265B (zh) 2013-12-05 2014-07-14 一种动态直接呈现图像的方法和系统

Family Applications Before (2)

Application Number Title Priority Date Filing Date
CN201410217954.8A Active CN104699235B (zh) 2013-12-05 2014-05-21 基于超声波的三维空间成像交互方法及系统
CN201410216588.4A Active CN104689674B (zh) 2013-12-05 2014-05-21 基于广义量子超声陷阱的颗粒物聚集方法、聚集处理方法和聚集处理系统

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201410216890.XA Active CN104688265B (zh) 2013-12-05 2014-07-14 一种动态直接呈现图像的方法和系统

Country Status (1)

Country Link
CN (4) CN104699235B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110502106A (zh) * 2019-07-26 2019-11-26 昆明理工大学 一种基于3d动态触摸的交互式全息显示系统及方法

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302303A (zh) * 2015-10-15 2016-02-03 广东欧珀移动通信有限公司 一种游戏控制方法及装置和移动终端
CN105607034A (zh) * 2015-12-23 2016-05-25 北京凌宇智控科技有限公司 一种三维空间检测系统、定位方法及系统
CN107121698B (zh) * 2016-02-24 2019-02-19 中国石油化工股份有限公司 用于优化三维地震波场模拟和成像的方法、装置及系统
CN106769707B (zh) * 2016-11-25 2023-03-21 中国科学院合肥物质科学研究院 一种势阱电压可调的颗粒物粒径谱测量装置及其测量方法
CN106843502B (zh) * 2017-03-10 2019-10-18 京东方科技集团股份有限公司 一种三维显示的触控互动系统及方法
CN107273831A (zh) * 2017-06-05 2017-10-20 苏州大学 一种基于球空间的三维目标识别方法
JP6946857B2 (ja) * 2017-08-24 2021-10-13 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
CN107589845B (zh) * 2017-09-19 2020-02-18 京东方科技集团股份有限公司 一种显示系统
CN110376549A (zh) * 2018-04-12 2019-10-25 北京凌宇智控科技有限公司 一种三维空间定位方法及系统
CN110376543A (zh) * 2018-04-12 2019-10-25 北京凌宇智控科技有限公司 一种三维空间定位方法和系统
CN110376550B (zh) * 2018-04-12 2024-04-12 北京凌宇智控科技有限公司 一种基于位置补偿的三维空间定位方法及系统
CN108771938A (zh) * 2018-04-18 2018-11-09 北京理工大学 一种超声波空气净化方法及系统
CN109697941A (zh) * 2018-12-29 2019-04-30 广州欧科信息技术股份有限公司 基于全息影像技术的历史文化遗产展示系统
CN109946944B (zh) * 2019-03-01 2021-09-03 悠游笙活(北京)网络科技有限公司 一种光泳陷阱投影系统和方法
CN109901371B (zh) * 2019-03-01 2021-09-03 悠游笙活(北京)网络科技有限公司 一种全息成像系统和方法
CN110989844A (zh) * 2019-12-16 2020-04-10 广东小天才科技有限公司 一种基于超声波的输入方法、手表、系统及存储介质
CN111322954B (zh) * 2020-03-19 2021-07-27 北京神工科技有限公司 一种装配工装位姿测量方法、装置、存储介质及电子设备
CN114911338A (zh) * 2021-02-09 2022-08-16 南京微纳科技研究院有限公司 无接触人机交互系统和方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102121817A (zh) * 2010-12-22 2011-07-13 浙江大学 颗粒场紧凑式数字全息装置及方法
CN102361497A (zh) * 2011-11-15 2012-02-22 南京大学 一种空间立体视频的显示方法及其显示系统
US20120223909A1 (en) * 2011-03-02 2012-09-06 Smart Technologies Ulc 3d interactive input system and method
CN103229041A (zh) * 2010-12-03 2013-07-31 索尼公司 3d数据分析装置、3d数据分析方法和3d数据分析程序

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1274614A (zh) * 1999-05-25 2000-11-29 安徽省卫生干部进修学校 一种超声振荡除尘方法及装置
US6447574B1 (en) * 2001-06-29 2002-09-10 Global Clean Air, Inc. System, process and apparatus for removal of pollutants from gaseous streams
JP2004351330A (ja) * 2003-05-29 2004-12-16 Sanyo Electric Co Ltd 空気清浄機
WO2006098450A1 (ja) * 2005-03-18 2006-09-21 Mitsubishi Chemical Corporation 発光装置、白色発光装置、照明装置及び画像表示装置
US8648772B2 (en) * 2009-08-20 2014-02-11 Amazon Technologies, Inc. Amalgamated display comprising dissimilar display devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103229041A (zh) * 2010-12-03 2013-07-31 索尼公司 3d数据分析装置、3d数据分析方法和3d数据分析程序
CN102121817A (zh) * 2010-12-22 2011-07-13 浙江大学 颗粒场紧凑式数字全息装置及方法
US20120223909A1 (en) * 2011-03-02 2012-09-06 Smart Technologies Ulc 3d interactive input system and method
CN102361497A (zh) * 2011-11-15 2012-02-22 南京大学 一种空间立体视频的显示方法及其显示系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110502106A (zh) * 2019-07-26 2019-11-26 昆明理工大学 一种基于3d动态触摸的交互式全息显示系统及方法

Also Published As

Publication number Publication date
CN104688265B (zh) 2017-01-25
CN104699234A (zh) 2015-06-10
CN104699235A (zh) 2015-06-10
CN104689674A (zh) 2015-06-10
CN104688265A (zh) 2015-06-10
CN104699235B (zh) 2017-12-01
CN104689674B (zh) 2017-09-05

Similar Documents

Publication Publication Date Title
CN104699234B (zh) 基于激光的三维空间成像交互方法及系统
Hilliges et al. HoloDesk: direct 3d interactions with a situated see-through display
US9509981B2 (en) Projectors and depth cameras for deviceless augmented reality and interaction
CN103793060B (zh) 一种用户交互系统和方法
CN107016704A (zh) 一种基于增强现实的虚拟现实实现方法
US20050264559A1 (en) Multi-plane horizontal perspective hands-on simulator
US20050219240A1 (en) Horizontal perspective hands-on simulator
CN105869167A (zh) 基于主被动融合的高分辨率深度图获取方法
CN107251101A (zh) 针对使用具有参数的标记的增强现实的场景修改
WO2005098517A2 (en) Horizontal perspective hand-on simulator
TW201104494A (en) Stereoscopic image interactive system
WO2017020256A1 (zh) 三维超声流体成像方法及系统
US20050248566A1 (en) Horizontal perspective hands-on simulator
Reyes et al. Mixed reality guidance system for motherboard assembly using tangible augmented reality
Periyasamy et al. Synpick: A dataset for dynamic bin picking scene understanding
CN207601427U (zh) 一种基于虚拟现实混合的仿真实验室
Cao et al. Mobiletutar: A lightweight augmented reality tutorial system using spatially situated human segmentation videos
TWM559476U (zh) 具有虛擬實境及混合實境購屋體驗的系統裝置
CN105608726A (zh) 一种三维交互式聊天方法
Siegl et al. An augmented reality human–computer interface for object localization in a cognitive vision system
CN109309827A (zh) 用于360°悬浮光场三维显示系统的多人实时跟踪装置和方法
Yang et al. Synthetic hands generator for RGB hand tracking
Pokorny et al. A database for reproducible manipulation research: CapriDB–Capture, Print, Innovate
Bolton et al. BodiPod: interacting with 3d human anatomy via a 360 cylindrical display
Morison Perspective control: Technology to solve the multiple feeds problem in sensor systems

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant