CN116055708B - 一种感知可视交互式球幕三维立体成像方法及系统 - Google Patents
一种感知可视交互式球幕三维立体成像方法及系统 Download PDFInfo
- Publication number
- CN116055708B CN116055708B CN202310341071.7A CN202310341071A CN116055708B CN 116055708 B CN116055708 B CN 116055708B CN 202310341071 A CN202310341071 A CN 202310341071A CN 116055708 B CN116055708 B CN 116055708B
- Authority
- CN
- China
- Prior art keywords
- data
- spherical screen
- action
- screen
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 45
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 34
- 230000000007 visual effect Effects 0.000 title claims abstract description 28
- 230000008447 perception Effects 0.000 title claims abstract description 14
- 230000009471 action Effects 0.000 claims abstract description 227
- 230000003993 interaction Effects 0.000 claims abstract description 122
- 238000000034 method Methods 0.000 claims abstract description 33
- 230000033001 locomotion Effects 0.000 claims description 62
- 238000004458 analytical method Methods 0.000 claims description 36
- 238000004088 simulation Methods 0.000 claims description 36
- 238000000605 extraction Methods 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 10
- 238000012937 correction Methods 0.000 claims description 8
- 230000006698 induction Effects 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 description 10
- 238000013507 mapping Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013506 data mapping Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 229910003460 diamond Inorganic materials 0.000 description 2
- 239000010432 diamond Substances 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明公开了一种感知可视交互式球幕三维立体成像方法及系统。通过获取任意视频数据与投影球幕系统配合使用,根据投影球幕系统生成软件计算方法,根据软件计算方法将原始视频数据进行2D平面影像转化得到球幕三维立体成像投影数据,将所述球幕投影数据通过预设球幕设备进行展示,通过球幕触屏或移动端设备获取用户触摸反馈信息,根据触摸反馈信息对用户触摸动作进行解析并基于预设球幕软件计算规则得到球幕系统操作指令,将操作指令发送至球幕系统进行球幕人机互动并展示出三维图像,进一步通过TUIO协议以及红外相机进行手势捕捉,实现球幕触摸互动展示,亦可通过球幕系统与用户预设屏幕实现多屏联动展示或多屏与球幕联动的展示。
Description
技术领域
本发明涉及三维成像领域,更具体的,涉及一种感知可视交互式球幕三维立体成像方法及系统。
背景技术
新型的球形显示技术,即球幕成像技术,是最近几年流行起来的一种新型异形投影表现形式,它利用特殊的光学镜头通过先进的计算机视觉技术和投影显示技术,将普通的平面影像进行特殊变换后投射到球幕上,使整个球体屏幕可360度投影成像,且可以在任何方位进行观看,完全打破了传统投影图像仅能是平面规则图形的局限。
但受制于传统的球幕成像系统,往往只能做到球幕的单独投影显示,无法实现较高的用户交互程度与满足用户对不同场景的投影需求,因此,现在亟需一种新的可交互式的球幕成像方法。
发明内容
本发明克服了现有技术的缺陷,提出了一种感知可视交互式球幕三维立体成像方法及系统。
本发明第一方面提供了一种感知可视交互式球幕三维立体成像方法,包括:
获取任意视频数据,根据所述任意视频数据进行数据格式化得到原始视频数据;
将所述原始视频数据进行三维成像分析,得到对应三维球幕投影数据,将所述三维球幕投影数据通过预设球幕设备进行展示;
获取用户球幕触摸动作数据,基于所述触摸动作数据进行动作解析并得到相应操作指令,根据操作指令实时更新球幕投影数据并进行展示;
获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令;
将所述联动指令发送至球幕系统,通过球幕系统对预设屏幕进行联动投影数据展示。
本方案中,所述获取任意视频数据,根据所述任意视频数据进行数据格式化得到原始视频数据,具体为:
将任意视频数据根据预设标准格式进行转化得到第一视频数据;
将第一视频数据根据预设球幕参数进行拉伸变换处理,得到变换后的原始视频数据。
本方案中,所述将所述原始视频数据进行三维成像分析,得到对应三维球幕投影数据,将所述三维球幕投影数据通过预设球幕设备进行展示,具体为:
获取预设球幕设备参数信息;
将原始视频数据进行三维成像分析,并得到原始三维投影数据;
获取原始三维投影数据的投影参数;
所述投影参数包括亮度值、分辨率、帧率;
基于预设球幕设备参数信息对投影参数进行修正,得到修正参数,根据所述修正参数将原始三维投影数据进行投影数据转化,得到三维球幕投影数据。
本方案中,所述获取用户球幕触摸动作数据,基于所述触摸动作数据进行动作解析并得到相应操作指令,根据操作指令实时更新球幕投影数据并进行展示,具体为:
获取用户球幕触摸动作数据;
根据预设动作规则,对用户球幕触摸动作数据进行解析并得到相应的操作指令;
将操作指令实时发送至球幕系统,根据操作指令进行投影内容匹配并得到第二球幕投影数据;
将所述第二球幕投影数据发送至预设球幕设备进行展示。
本方案中,所述获取用户球幕触摸动作数据,还包括;
通过投影仪投影棋盘格,若投影触摸板判断交互界面存在触碰交互,则获取对应交互平面信息;
根据所述交互平面信息在对应位置投影颜色编码结构光并获取手指三维信息;
根据手指三维信息,实时跟踪对应触点并提取触点信息得到手指触点形状信息;
基于手指三维信息构建用户手指模型;
通过用户手指模型,对手指触点形状信息进行关键点获取,基于关键点进行轨迹分析,并对预设轨迹模板进行匹配,根据匹配信息得到用户球幕触摸动作数据。
本方案中,所述获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令,具体为:
基于红外感应模块与视频识别模块,获取用户红外动作数据与视频动作数据;
对用户红外动作数据与视频动作数据进行肢体动作分析得到基于红外感应的第一动作数据与基于视频数据的第二动作数据;
将所述第一动作数据与第二动作数据进行数据融合与动作特征提取,得到动作特征数据;
根据预设手势动作规则,将动作特征数据进行动作指令匹配,得到预设屏幕的联动指令;
将联动指令通过球幕系统发送至对应预设屏幕设备,预设屏幕设备根据联动指令,从球幕系统中获取对应投影数据进行实时展示。
本方案中,所述将所述联动指令发送至球幕系统,通过球幕系统对预设屏幕进行联动投影数据展示,还包括:
基于无线通信协议,获取用户终端指令数据;
将所述指令数据实时发送至球幕系统,球幕系统根据指令数据进行分析并获取对应投影数据;
将所述球幕系统发送至预设屏幕进行投影展示。
本方案中,所述获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令,还包括:
获取VR视频数据;
获取预设仿真球幕设备参数;
根据所述预设仿真球幕设备参数,对VR视频数据进行球幕投影数据转化,得到仿真投影数据;
将仿真投影数据发送至预设仿真球幕设备进行展示;
通过预设交互设备,获取用户交互信息并对预设仿真球幕设备进行实时交互。
本发明第二方面还提供了一种感知可视交互式球幕三维立体成像系统,该系统包括:存储器、处理器,所述存储器中包括感知可视交互式球幕三维立体成像程序,所述感知可视交互式球幕三维立体成像程序被所述处理器执行时实现如下步骤:
获取任意视频数据,根据所述任意视频数据进行数据格式化得到原始视频数据;
将所述原始视频数据进行三维成像分析,得到对应三维球幕投影数据,将所述三维球幕投影数据通过预设球幕设备进行展示;
获取用户球幕触摸动作数据,基于所述触摸动作数据进行动作解析并得到相应操作指令,根据操作指令实时更新球幕投影数据并进行展示;
获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令;
将所述联动指令发送至球幕系统,通过球幕系统对预设屏幕进行联动投影数据展示。
本方案中,所述获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令,具体为:
基于红外感应模块与视频识别模块,获取用户红外动作数据与视频动作数据;
对用户红外动作数据与视频动作数据进行肢体动作分析得到基于红外感应的第一动作数据与基于视频数据的第二动作数据;
将所述第一动作数据与第二动作数据进行数据融合与动作特征提取,得到动作特征数据;
根据预设手势动作规则,将动作特征数据进行动作指令匹配,得到预设屏幕的联动指令;
将联动指令通过球幕系统发送至对应预设屏幕设备,预设屏幕设备根据联动指令,从球幕系统中获取对应投影数据进行实时展示。
本方案中,所述将所述联动指令发送至球幕系统,通过球幕系统对预设屏幕进行联动投影数据展示,还包括:
基于无线通信协议,获取用户终端指令数据;
将所述指令数据实时发送至球幕系统,球幕系统根据指令数据进行分析并获取对应投影数据;
将所述球幕系统发送至预设屏幕进行投影展示。
本发明公开了一种感知可视交互式球幕三维立体成像方法及系统。通过获取任意视频数据与投影球幕系统配合使用,根据投影球幕系统生成软件计算方法,根据软件计算方法将原始视频数据进行2D平面影像转化得到球幕三维立体成像投影数据,将所述球幕投影数据通过预设球幕设备进行展示,通过球幕触屏或移动端设备获取用户触摸反馈信息,根据触摸反馈信息对用户触摸动作进行解析并基于预设球幕软件计算规则得到球幕系统操作指令,将操作指令发送至球幕系统进行球幕人机互动并展示出三维图像,进一步通过TUIO协议以及红外相机进行手势捕捉,实现球幕触摸互动展示,亦可通过球幕系统与用户预设屏幕实现多屏联动展示或多屏与球幕联动的展示。
附图说明
图1示出了本发明一种感知可视交互式球幕三维立体成像方法的流程图;
图2示出了本发明屏幕联动展示流程图;
图3示出了本发明仿真球幕交互流程图;
图4示出了本发明一种感知可视交互式球幕三维立体成像系统的框图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
图1示出了本发明一种感知可视交互式球幕三维立体成像方法的流程图。
如图1所示,本发明第一方面提供了一种感知可视交互式球幕三维立体成像方法,包括:
S102,获取任意视频数据,根据所述任意视频数据进行数据格式化得到原始视频数据;
S104,将所述原始视频数据进行三维成像分析,得到对应三维球幕投影数据,将所述三维球幕投影数据通过预设球幕设备进行展示;
S106,获取用户球幕触摸动作数据,基于所述触摸动作数据进行动作解析并得到相应操作指令,根据操作指令实时更新球幕投影数据并进行展示;
S108,获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令。
S110,将所述联动指令发送至球幕系统,通过球幕系统对预设屏幕进行联动投影数据展示。
需要说明的是,所述本发明系统具体为球幕系统,所述球幕系统包括球面触摸互动系统。
根据本发明实施例,所述获取任意视频数据,根据所述任意视频数据进行数据格式化得到原始视频数据,具体为:
将任意视频数据根据预设标准格式进行转化得到第一视频数据;
将第一视频数据根据预设球幕参数进行拉伸变换处理,得到变换后的原始视频数据。
需要说明的是,原始视频数据为基于二维的视频数据。
根据本发明实施例,所述将所述原始视频数据进行三维成像分析,得到对应三维球幕投影数据,将所述三维球幕投影数据通过预设球幕设备进行展示,具体为:
获取预设球幕设备参数信息;
将原始视频数据进行三维成像分析,并得到原始三维投影数据;
获取原始三维投影数据的投影参数;
所述投影参数包括亮度值、分辨率、帧率;
基于预设球幕设备参数信息对投影参数进行修正,得到修正参数,根据所述修正参数将原始三维投影数据进行投影数据转化,得到三维球幕投影数据。
需要说明的是,所述预设球幕设备参数信息包括球幕的规格大小、所述球幕种类、适配投影亮度值、分辨率、帧率等,本发明系统通过分析预设球幕设备参数信息,对原始视频数据进行特定的三维成像与数据转化,能够得到对预设球幕相适配的三维球幕投影数据。
根据本发明实施例,所述获取用户球幕触摸动作数据,基于所述触摸动作数据进行动作解析并得到相应操作指令,根据操作指令实时更新球幕投影数据并进行展示,具体为:
获取用户球幕触摸动作数据;
根据预设动作规则,对用户球幕触摸动作数据进行解析并得到相应的操作指令;
将操作指令实时发送至球幕系统,根据操作指令进行投影内容匹配并得到第二球幕投影数据;
将所述第二球幕投影数据发送至预设球幕设备进行展示。
需要说明的是,所述将所述第二球幕投影数据发送至预设球幕设备进行展示中,用户触屏动作对应操作指令由用户预算设定与系统中,一般为放大、缩小、移动、点播等指令,通过分析用户球幕触摸动作数据,能够让用户与球幕进行数据交互,进一步提升用户体验感。
根据本发明实施例,所述获取用户球幕触摸动作数据,还包括;
通过投影仪投影棋盘格,若投影触摸板判断交互界面存在触碰交互,则获取对应交互平面信息;
根据所述交互平面信息在对应位置投影颜色编码结构光并获取手指三维信息;
根据手指三维信息,实时跟踪对应触点并提取触点信息得到手指触点形状信息;
基于手指三维信息构建用户手指模型;
通过用户手指模型,对手指触点形状信息进行关键点获取,基于关键点进行轨迹分析,并对预设轨迹模板进行匹配,根据匹配信息得到用户球幕触摸动作数据。
需要说明的是,所述投影棋盘一般为投影四种图像,包括两个矩形棋盘格和两个菱形棋盘格,同样形状的棋盘格的黑白格位置相反,以提高寻找角点的精度。所述用户手指模型中,不同用户对应的手指模型结构有所差异,通过对手指模型进行预设轨迹的匹配,能够进一步提高用户触屏动作识别的准确度。所述基于关键点进行轨迹分析中,若基于当前关键点无法匹配轨迹模板,球幕系统将自动增加关键点数量,以动态提高轨迹匹配率,另外,通过获取关键点进行轨迹匹配判断,能够有效降低计算量和存储需求,从而提高球幕系统运行效率。所述用户球幕触摸动作数据为通过球面触摸互动系统获取,所述球面触摸互动系统中,触摸球可为整球也可为半球,其中半球体验感更贴合人体习惯。球面触摸互动系统设备通过内置的红外感应系统及触控软件实现设备的触摸互动功能。可通过触摸球面实现画面控制。另外,球面触摸互动系统系统基于TUIO协议,采用directX图像技术开发,利用先进的计算机视觉技术,获取并识别手指在球幕上的移动,可以通过自然的手势姿态控制软件,实现图像在球面上的点击、缩放、三维旋转、拖拽等多种三维互动效果,实现了一种极为自然和方便的互动模式。另外,本发明球幕系统支持多人多点互动,拥有360度可视角度,且识别精度高,响应时间快,有丰富的3D效果,支持多种格式的图片、视频素材,拥有多种互动模板供用户选择,开发速度快,可根据用户需求定制开发。
图2示出了本发明屏幕联动展示流程图。
根据本发明实施例,所述获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令,具体为:
S202,基于红外感应模块与视频识别模块,获取用户红外动作数据与视频动作数据;
S204,对用户红外动作数据与视频动作数据进行肢体动作分析得到基于红外感应的第一动作数据与基于视频数据的第二动作数据;
S206,将所述第一动作数据与第二动作数据进行数据融合与动作特征提取,得到动作特征数据;
S208,根据预设手势动作规则,将动作特征数据进行动作指令匹配,得到预设屏幕的联动指令;
S210,将联动指令通过球幕系统发送至对应预设屏幕设备,预设屏幕设备根据联动指令,从球幕系统中获取对应投影数据进行实时展示。
需要说明的是,本发明系统包括红外感应模块与视频识别模块,且均置于球幕以内,用以捕捉用户动作,所述红外感应模块包括红外相机,用以通过红外感应捕捉用户手势动作,所述视频识别模块包括高速动作捕捉摄像机,用以通过视频分析捕捉用户动作信息。所述将所述第一动作数据与第二动作数据进行数据融合与动作特征提取中,通过红外与视频动作的捕捉与数据融合,能够大大增加动作识别的成功率,从而提高球幕系统的可交互性,所述动作特征提取中具体为基于TUIO协议进行动作捕捉分析。在本发明的一个较佳实施例中,本发明可通过球幕系统对预设屏幕进行用户交互联动展示,预设屏幕可以为触屏互动,也可以为动作手势捕捉互动,所述预设屏幕包括球幕与普通平面屏幕。
根据本发明实施例,所述将所述联动指令发送至球幕系统,通过球幕系统对预设屏幕进行联动投影数据展示,还包括:
基于无线通信协议,获取用户终端指令数据;
将所述指令数据实时发送至球幕系统,球幕系统根据指令数据进行分析并获取对应投影数据;
将所述球幕系统发送至预设屏幕进行投影展示。
需要说明的是,所述无线通信协议包括蓝牙协议、Wi-Fi等无线通信协议,本发明通过无线通信协议,能够让用户通过蓝牙、Wi-Fi等技术,从用户终端对球幕与其他屏幕进行投影数据的联动展示,提高了球幕系统的实用性。另外,通过本发明中的球幕系统与用户交互功能,能够实现球幕的多场景交互应用,例如科普教学、地质教学、展览、工程展示、娱乐、演出、活动仪式等。
图3示出了本发明仿真球幕交互流程图。
根据本发明实施例,所述获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令,还包括:
S302,获取VR视频数据;
S304,获取预设仿真球幕设备参数;
S306,根据所述预设仿真球幕设备参数,对VR视频数据进行球幕投影数据转化,得到仿真投影数据;
S308,将仿真投影数据发送至预设仿真球幕设备进行展示;
S310,通过预设交互设备,获取用户交互信息并对预设仿真球幕设备进行实时交互。
需要说明的是,所述预设仿真球幕设备包括用于虚拟现实的仿真穹幕,通过VR视频数据的球幕投影转化,能够让用户能够观看基于虚拟现实的投影数据,实现球幕的仿真内容观看,并通过预设交互设备,实现用户与仿真球幕的交互,提升用户体验。所述仿真穹幕可用于科学仿真模拟、城市规划模拟、交通模拟、飞行模拟、运输模拟等场景。所述VR(Virtual Reality)视频数据即基于虚拟现实的视频数据。
另外,本发明球幕设备中,可以为全球幕或半球幕等规格,球幕半径尺寸可以为250mm及以上,根据实际需求可定制生产。根据投影机的摆放位置,球幕可以为内投影与外投影两种方式。
根据本发明实施例,还包括:
获取主球幕投影数据与联动屏幕投影数据;
根据预设屏幕联动规则,将联动屏幕投影数据进行数据拆分,得到不同的用户交互动作与对应的细分投影数据;
根据用户交互动作与细分投影数据建立数据映射关系,并根据映射关系生成映射数据表;
将所述映射数据表导入球幕系统;
实时获取用户交互动作信息,通过映射数据表进行联动投影数据检索,得到对应的细分投影数据;
将所述细分投影数据实时传输至预设屏幕进行显示。
需要说明的是,所述用户交互动作包括触屏动作与手势动作,不同动作对应的联动屏幕投影数据也不同,如动作对应的移动、放大、缩小、细节展示、点播视频等操作,对应不同的联动屏幕内容。本发明通过对动作与联动数据的映射,能够在球幕系统进行实时用户交互过程中,提高其数据传输与展示的效率,降低系统延迟,进一步提高用户体验。
根据本发明实施例,还包括:
构建用户交互数据库;
实时获取用户触摸动作与手势动作的动作特征与对应识别的操作指令;
操作指令完成后,记录动作特征与操作指令并形成用户动作与指令匹配信息;
基于用户动作与指令匹配信息生成用户交互习惯数据,并将所述用户交互习惯数据导入用户交互数据库;
通过视频识别模块,对用户进行人脸识别认证;
基于认证结果,从用户交互数据库中进行数据检索,得到对应的用户交互习惯数据,并标记为检索结果交互习惯数据;
实时获取用户球幕触摸动作数据与手势动作数据,基于检索结果交互习惯数据,对用户动作进行快速指令匹配。
需要说明的是,本发明通过收集用户交互习惯数据,能够在后续提高用户对球幕的触摸与手势动作的识别率与降低识别延迟,进一步提高球幕系统的人机交互性,从而增强用户体验。
图4示出了本发明一种感知可视交互式球幕三维立体成像系统的框图。
本发明第二方面还提供了一种感知可视交互式球幕三维立体成像系统4,该系统包括:存储器41、处理器42,所述存储器中包括感知可视交互式球幕三维立体成像程序,所述感知可视交互式球幕三维立体成像程序被所述处理器执行时实现如下步骤:
获取任意视频数据,根据所述任意视频数据进行数据格式化得到原始视频数据;
将所述原始视频数据进行三维成像分析,得到对应三维球幕投影数据,将所述三维球幕投影数据通过预设球幕设备进行展示;
获取用户球幕触摸动作数据,基于所述触摸动作数据进行动作解析并得到相应操作指令,根据操作指令实时更新球幕投影数据并进行展示;
获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令。
将所述联动指令发送至球幕系统,通过球幕系统对预设屏幕进行联动投影数据展示。
需要说明的是,所述本发明系统包括球幕系统。
根据本发明实施例,所述获取任意视频数据,根据所述任意视频数据进行数据格式化得到原始视频数据,具体为:
将任意视频数据根据预设标准格式进行转化得到第一视频数据;
将第一视频数据根据预设球幕参数进行拉伸变换处理,得到变换后的原始视频数据。
需要说明的是,原始视频数据为基于二维的视频数据。
根据本发明实施例,所述将所述原始视频数据进行三维成像分析,得到对应三维球幕投影数据,将所述三维球幕投影数据通过预设球幕设备进行展示,具体为:
获取预设球幕设备参数信息;
将原始视频数据进行三维成像分析,并得到原始三维投影数据;
获取原始三维投影数据的投影参数;
所述投影参数包括亮度值、分辨率、帧率;
基于预设球幕设备参数信息对投影参数进行修正,得到修正参数,根据所述修正参数将原始三维投影数据进行投影数据转化,得到三维球幕投影数据。
需要说明的是,所述预设球幕设备参数信息包括球幕的规格大小、所述球幕种类、适配投影亮度值、分辨率、帧率等,本发明系统通过分析预设球幕设备参数信息,对原始视频数据进行特定的三维成像与数据转化,能够得到对预设球幕相适配的三维球幕投影数据。
根据本发明实施例,所述获取用户球幕触摸动作数据,基于所述触摸动作数据进行动作解析并得到相应操作指令,根据操作指令实时更新球幕投影数据并进行展示,具体为:
获取用户球幕触摸动作数据;
根据预设动作规则,对用户球幕触摸动作数据进行解析并得到相应的操作指令;
将操作指令实时发送至球幕系统,根据操作指令进行投影内容匹配并得到第二球幕投影数据;
将所述第二球幕投影数据发送至预设球幕设备进行展示。
需要说明的是,所述将所述第二球幕投影数据发送至预设球幕设备进行展示中,用户触屏动作对应操作指令由用户预算设定与系统中,一般为放大、缩小、移动、点播等指令,通过分析用户球幕触摸动作数据,能够让用户与球幕进行数据交互,进一步提升用户体验感。
根据本发明实施例,所述获取用户球幕触摸动作数据,还包括;
通过投影仪投影棋盘格,若投影触摸板判断交互界面存在触碰交互,则获取对应交互平面信息;
根据所述交互平面信息在对应位置投影颜色编码结构光并获取手指三维信息;
根据手指三维信息,实时跟踪对应触点并提取触点信息得到手指触点形状信息;
基于手指三维信息构建用户手指模型;
通过用户手指模型,对手指触点形状信息进行关键点获取,基于关键点进行轨迹分析,并对预设轨迹模板进行匹配,根据匹配信息得到用户球幕触摸动作数据。
需要说明的是,所述投影棋盘一般为投影四种图像,包括两个矩形棋盘格和两个菱形棋盘格,同样形状的棋盘格的黑白格位置相反,以提高寻找角点的精度。所述用户手指模型中,不同用户对应的手指模型结构有所差异,通过对手指模型进行预设轨迹的匹配,能够进一步提高用户触屏动作识别的准确度。所述基于关键点进行轨迹分析中,若基于当前关键点无法匹配轨迹模板,球幕系统将自动增加关键点数量,以动态提高轨迹匹配率,另外,通过获取关键点进行轨迹匹配判断,能够有效降低计算量和存储需求,从而提高球幕系统运行效率。所述用户球幕触摸动作数据为通过球面触摸互动系统获取,所述球面触摸互动系统中,触摸球可为整球也可为半球,其中半球体验感更贴合人体习惯。球面触摸互动系统设备通过内置的红外感应系统及触控软件实现设备的触摸互动功能。可通过触摸球面实现画面控制。另外,球面触摸互动系统系统基于TUIO协议,采用directX图像技术开发,利用先进的计算机视觉技术,获取并识别手指在球幕上的移动,可以通过自然的手势姿态控制软件,实现图像在球面上的点击、缩放、三维旋转、拖拽等多种三维互动效果,实现了一种极为自然和方便的互动模式。另外,本发明球幕系统支持多人多点互动,拥有360度可视角度,且识别精度高,响应时间快,有丰富的3D效果,支持多种格式的图片、视频素材,拥有多种互动模板供用户选择,开发速度快,可根据用户需求定制开发。
根据本发明实施例,所述获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令,具体为:
基于红外感应模块与视频识别模块,获取用户红外动作数据与视频动作数据;
对用户红外动作数据与视频动作数据进行肢体动作分析得到基于红外感应的第一动作数据与基于视频数据的第二动作数据;
将所述第一动作数据与第二动作数据进行数据融合与动作特征提取,得到动作特征数据;
根据预设手势动作规则,将动作特征数据进行动作指令匹配,得到预设屏幕的联动指令;
将联动指令通过球幕系统发送至对应预设屏幕设备,预设屏幕设备根据联动指令,从球幕系统中获取对应投影数据进行实时展示。
需要说明的是,本发明系统包括红外感应模块与视频识别模块,且均置于球幕以内,用以捕捉用户动作,所述红外感应模块包括红外相机,用以通过红外感应捕捉用户手势动作,所述视频识别模块包括高速动作捕捉摄像机,用以通过视频分析捕捉用户动作信息。所述将所述第一动作数据与第二动作数据进行数据融合与动作特征提取中,通过红外与视频动作的捕捉与数据融合,能够大大增加动作识别的成功率,从而提高球幕系统的可交互性,所述动作特征提取中具体为基于TUIO协议进行动作捕捉分析。在本发明的一个较佳实施例中,本发明可通过球幕系统对预设屏幕进行用户交互联动展示,预设屏幕可以为触屏互动,也可以为动作手势捕捉互动,所述预设屏幕包括球幕与普通平面屏幕。
根据本发明实施例,所述将所述联动指令发送至球幕系统,通过球幕系统对预设屏幕进行联动投影数据展示,还包括:
基于无线通信协议,获取用户终端指令数据;
将所述指令数据实时发送至球幕系统,球幕系统根据指令数据进行分析并获取对应投影数据;
将所述球幕系统发送至预设屏幕进行投影展示。
需要说明的是,所述无线通信协议包括蓝牙协议、Wi-Fi等无线通信协议,本发明通过无线通信协议,能够让用户通过蓝牙、Wi-Fi等技术,从用户终端对球幕与其他屏幕进行投影数据的联动展示,提高了球幕系统的实用性。另外,通过本发明中的球幕系统与用户交互功能,能够实现球幕的多场景交互应用,例如科普教学、地质教学、展览、工程展示、娱乐、演出、活动仪式等。
根据本发明实施例,所述获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令,还包括:
获取VR视频数据;
获取预设仿真球幕设备参数;
根据所述预设仿真球幕设备参数,对VR视频数据进行球幕投影数据转化,得到仿真投影数据;
将仿真投影数据发送至预设仿真球幕设备进行展示;
通过预设交互设备,获取用户交互信息并对预设仿真球幕设备进行实时交互。
需要说明的是,所述预设仿真球幕设备包括用于虚拟现实的仿真穹幕,通过VR视频数据的球幕投影转化,能够让用户能够观看基于虚拟现实的投影数据,实现球幕的仿真内容观看,并通过预设交互设备,实现用户与仿真球幕的交互,提升用户体验。所述仿真穹幕可用于科学仿真模拟、城市规划模拟、交通模拟、飞行模拟、运输模拟等场景。
另外,本发明球幕设备中,可以为全球幕或半球幕等规格,球幕半径尺寸可以为250mm及以上,根据实际需求可定制生产。根据投影机的摆放位置,球幕可以为内投影与外投影两种方式。
根据本发明实施例,还包括:
获取主球幕投影数据与联动屏幕投影数据;
根据预设屏幕联动规则,将联动屏幕投影数据进行数据拆分,得到不同的用户交互动作与对应的细分投影数据;
根据用户交互动作与细分投影数据建立数据映射关系,并根据映射关系生成映射数据表;
将所述映射数据表导入球幕系统;
实时获取用户交互动作信息,通过映射数据表进行联动投影数据检索,得到对应的细分投影数据;
将所述细分投影数据实时传输至预设屏幕进行显示。
需要说明的是,所述用户交互动作包括触屏动作与手势动作,不同动作对应的联动屏幕投影数据也不同,如动作对应的移动、放大、缩小、细节展示、点播视频等操作,对应不同的联动屏幕内容。本发明通过对动作与联动数据的映射,能够在球幕系统进行实时用户交互过程中,提高其数据传输与展示的效率,降低系统延迟,进一步提高用户体验。
根据本发明实施例,还包括:
构建用户交互数据库;
实时获取用户触摸动作与手势动作的动作特征与对应识别的操作指令;
操作指令完成后,记录动作特征与操作指令并形成用户动作与指令匹配信息;
基于用户动作与指令匹配信息生成用户交互习惯数据,并将所述用户交互习惯数据导入用户交互数据库;
通过视频识别模块,对用户进行人脸识别认证;
基于认证结果,从用户交互数据库中进行数据检索,得到对应的用户交互习惯数据,并标记为检索结果交互习惯数据;
实时获取用户球幕触摸动作数据与手势动作数据,基于检索结果交互习惯数据,对用户动作进行快速指令匹配。
需要说明的是,本发明通过收集用户交互习惯数据,能够在后续提高用户对球幕的触摸与手势动作的识别率与降低识别延迟,进一步提高球幕系统的人机交互性,从而增强用户体验。
本发明公开了一种感知可视交互式球幕三维立体成像方法及系统。通过获取任意视频数据与投影球幕系统配合使用,根据投影球幕系统生成软件计算方法,根据软件计算方法将原始视频数据进行2D平面影像转化得到球幕三维立体成像投影数据,将所述球幕投影数据通过预设球幕设备进行展示,通过球幕触屏或移动端设备获取用户触摸反馈信息,根据触摸反馈信息对用户触摸动作进行解析并基于预设球幕软件计算规则得到球幕系统操作指令,将操作指令发送至球幕系统进行球幕人机互动并展示出三维图像,进一步通过TUIO协议以及红外相机进行手势捕捉,实现球幕触摸互动展示,亦可通过球幕系统与用户预设屏幕实现多屏联动展示或多屏与球幕联动的展示。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (7)
1.一种感知可视交互式球幕三维立体成像方法,其特征在于,包括:
获取任意视频数据,根据所述任意视频数据进行数据格式化得到原始视频数据;
将所述原始视频数据进行三维成像分析,得到对应三维球幕投影数据,将所述三维球幕投影数据通过预设屏幕进行展示;
获取用户球幕触摸动作数据,基于所述触摸动作数据进行动作解析并得到相应操作指令,根据操作指令实时更新球幕投影数据并进行展示,所述用户球幕触摸动作数据通过球幕系统获取;
获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令;
将所述联动指令发送至球幕系统,通过球幕系统对预设屏幕进行联动投影数据展示;
所述方法还包括:
构建用户交互数据库;
实时获取用户触摸动作与手势动作的动作特征与对应识别的操作指令;
操作指令完成后,记录动作特征与操作指令并形成用户动作与指令匹配信息;
基于用户动作与指令匹配信息生成用户交互习惯数据,并将所述用户交互习惯数据导入用户交互数据库;
通过视频识别模块,对用户进行人脸识别认证;
基于认证结果,从用户交互数据库中进行数据检索,得到对应的用户交互习惯数据,并标记为检索结果交互习惯数据;
实时获取用户球幕触摸动作数据与手势动作数据,基于检索结果交互习惯数据,对用户动作进行快速指令匹配;
其中,所述获取用户球幕触摸动作数据,具体为;
通过投影仪投影棋盘格,若投影触摸板判断交互界面存在触碰交互,则获取对应交互平面信息;
根据所述交互平面信息在对应位置投影颜色编码结构光并获取手指三维信息;
根据手指三维信息,实时跟踪对应触点并提取触点信息得到手指触点形状信息;
基于手指三维信息构建用户手指模型;
通过用户手指模型,对手指触点形状信息进行关键点获取,基于关键点进行轨迹分析,并对预设轨迹模板进行匹配,根据匹配信息得到用户球幕触摸动作数据;
其中,所述获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令,将所述联动指令发送至球幕系统,通过球幕系统对预设屏幕进行联动投影数据展示,具体为:
基于红外感应模块与视频识别模块,获取用户红外动作数据与视频动作数据;
对用户红外动作数据与视频动作数据进行肢体动作分析得到基于红外感应的第一动作数据与基于视频数据的第二动作数据;
将所述第一动作数据与第二动作数据进行数据融合与动作特征提取,得到动作特征数据;
根据预设手势动作规则,将动作特征数据进行动作指令匹配,得到预设屏幕的联动指令;
将联动指令通过球幕系统发送至对应预设屏幕设备,预设屏幕设备根据联动指令,从球幕系统中获取对应投影数据进行实时展示。
2.根据权利要求1所述的一种感知可视交互式球幕三维立体成像方法,其特征在于,所述获取任意视频数据,根据所述任意视频数据进行数据格式化得到原始视频数据,具体为:
将任意视频数据根据预设标准格式进行转化得到第一视频数据;
将第一视频数据根据预设球幕参数进行拉伸变换处理,得到变换后的原始视频数据。
3.根据权利要求1所述的一种感知可视交互式球幕三维立体成像方法,其特征在于,所述将所述原始视频数据进行三维成像分析,得到对应三维球幕投影数据,将所述三维球幕投影数据通过预设屏幕进行展示,具体为:
获取预设球幕设备参数信息;
将原始视频数据进行三维成像分析,并得到原始三维投影数据;
获取原始三维投影数据的投影参数;
所述投影参数包括亮度值、分辨率和帧率;
基于预设球幕设备参数信息对投影参数进行修正,得到修正参数,根据所述修正参数将原始三维投影数据进行投影数据转化,得到三维球幕投影数据;
所述预设屏幕包括预设球幕设备。
4.根据权利要求1所述的一种感知可视交互式球幕三维立体成像方法,其特征在于,所述获取用户球幕触摸动作数据,基于所述触摸动作数据进行动作解析并得到相应操作指令,根据操作指令实时更新球幕投影数据并进行展示,具体为:
获取用户球幕触摸动作数据;
根据预设动作规则,对用户球幕触摸动作数据进行解析并得到相应的操作指令;
将操作指令实时发送至球幕系统,根据操作指令进行投影内容匹配并得到第二球幕投影数据;
将所述第二球幕投影数据发送至预设球幕设备进行展示;
所述预设屏幕包括预设球幕设备。
5.根据权利要求1所述的一种感知可视交互式球幕三维立体成像方法,其特征在于,所述将所述联动指令发送至球幕系统,通过球幕系统对预设屏幕进行联动投影数据展示,还包括:
基于无线通信协议,获取用户终端指令数据;
将所述指令数据实时发送至球幕系统,球幕系统根据指令数据进行分析并获取对应投影数据;
将所述球幕系统发送至预设屏幕进行投影展示。
6.根据权利要求1所述的一种感知可视交互式球幕三维立体成像方法,其特征在于,所述方法还包括:
获取VR视频数据;
获取预设仿真球幕设备参数;
根据所述预设仿真球幕设备参数,对VR视频数据进行球幕投影数据转化,得到仿真投影数据;
将仿真投影数据发送至预设仿真球幕设备进行展示;
通过预设交互设备,获取用户交互信息并对预设仿真球幕设备进行实时交互。
7.一种感知可视交互式球幕三维立体成像系统,其特征在于,该系统包括:存储器、处理器,所述存储器中包括感知可视交互式球幕三维立体成像程序,所述感知可视交互式球幕三维立体成像程序被所述处理器执行时实现如下步骤:
获取任意视频数据,根据所述任意视频数据进行数据格式化得到原始视频数据;
将所述原始视频数据进行三维成像分析,得到对应三维球幕投影数据,将所述三维球幕投影数据通过预设屏幕进行展示;
获取用户球幕触摸动作数据,基于所述触摸动作数据进行动作解析并得到相应操作指令,根据操作指令实时更新球幕投影数据并进行展示,所述用户球幕触摸动作数据通过球幕系统获取;
获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令;
将所述联动指令发送至球幕系统,通过球幕系统对预设屏幕进行联动投影数据展示;
所述系统还包括:
构建用户交互数据库;
实时获取用户触摸动作与手势动作的动作特征与对应识别的操作指令;
操作指令完成后,记录动作特征与操作指令并形成用户动作与指令匹配信息;
基于用户动作与指令匹配信息生成用户交互习惯数据,并将所述用户交互习惯数据导入用户交互数据库;
通过视频识别模块,对用户进行人脸识别认证;
基于认证结果,从用户交互数据库中进行数据检索,得到对应的用户交互习惯数据,并标记为检索结果交互习惯数据;
实时获取用户球幕触摸动作数据与手势动作数据,基于检索结果交互习惯数据,对用户动作进行快速指令匹配;
其中,所述获取用户球幕触摸动作数据,具体为;
通过投影仪投影棋盘格,若投影触摸板判断交互界面存在触碰交互,则获取对应交互平面信息;
根据所述交互平面信息在对应位置投影颜色编码结构光并获取手指三维信息;
根据手指三维信息,实时跟踪对应触点并提取触点信息得到手指触点形状信息;
基于手指三维信息构建用户手指模型;
通过用户手指模型,对手指触点形状信息进行关键点获取,基于关键点进行轨迹分析,并对预设轨迹模板进行匹配,根据匹配信息得到用户球幕触摸动作数据;
其中,所述获取用户手势动作信息,根据预设手势动作规则,对所述手势动作信息进行动作匹配,并得到预设屏幕的联动指令,将所述联动指令发送至球幕系统,通过球幕系统对预设屏幕进行联动投影数据展示,具体为:
基于红外感应模块与视频识别模块,获取用户红外动作数据与视频动作数据;
对用户红外动作数据与视频动作数据进行肢体动作分析得到基于红外感应的第一动作数据与基于视频数据的第二动作数据;
将所述第一动作数据与第二动作数据进行数据融合与动作特征提取,得到动作特征数据;
根据预设手势动作规则,将动作特征数据进行动作指令匹配,得到预设屏幕的联动指令;
将联动指令通过球幕系统发送至对应预设屏幕设备,预设屏幕设备根据联动指令,从球幕系统中获取对应投影数据进行实时展示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310341071.7A CN116055708B (zh) | 2023-04-03 | 2023-04-03 | 一种感知可视交互式球幕三维立体成像方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310341071.7A CN116055708B (zh) | 2023-04-03 | 2023-04-03 | 一种感知可视交互式球幕三维立体成像方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116055708A CN116055708A (zh) | 2023-05-02 |
CN116055708B true CN116055708B (zh) | 2023-10-24 |
Family
ID=86118603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310341071.7A Active CN116055708B (zh) | 2023-04-03 | 2023-04-03 | 一种感知可视交互式球幕三维立体成像方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116055708B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096529A (zh) * | 2011-01-27 | 2011-06-15 | 北京威亚视讯科技有限公司 | 多点触控交互系统 |
CN203217524U (zh) * | 2013-04-08 | 2013-09-25 | 盐城工学院 | 基于球形显示的多点触摸系统 |
CN103543885A (zh) * | 2013-11-01 | 2014-01-29 | 北京中教启星科技股份有限公司 | 多点触控的多媒体球幕演示仪及其多点触控方法 |
CN207752464U (zh) * | 2017-10-25 | 2018-08-21 | 秦皇岛视听机械研究所 | 一种科普高清球屏交互联动系统 |
-
2023
- 2023-04-03 CN CN202310341071.7A patent/CN116055708B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102096529A (zh) * | 2011-01-27 | 2011-06-15 | 北京威亚视讯科技有限公司 | 多点触控交互系统 |
CN203217524U (zh) * | 2013-04-08 | 2013-09-25 | 盐城工学院 | 基于球形显示的多点触摸系统 |
CN103543885A (zh) * | 2013-11-01 | 2014-01-29 | 北京中教启星科技股份有限公司 | 多点触控的多媒体球幕演示仪及其多点触控方法 |
CN207752464U (zh) * | 2017-10-25 | 2018-08-21 | 秦皇岛视听机械研究所 | 一种科普高清球屏交互联动系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116055708A (zh) | 2023-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109085966B (zh) | 一种基于云计算的三维展示系统及方法 | |
CN110716645A (zh) | 一种增强现实数据呈现方法、装置、电子设备及存储介质 | |
CN110163942B (zh) | 一种图像数据处理方法和装置 | |
US20150185825A1 (en) | Assigning a virtual user interface to a physical object | |
CN106730815B (zh) | 一种易实现的体感互动方法及系统 | |
CN106355153A (zh) | 一种基于增强现实的虚拟对象显示方法、装置以及系统 | |
US9392248B2 (en) | Dynamic POV composite 3D video system | |
CN104102412A (zh) | 一种基于增强现实技术的手持式阅览设备及其方法 | |
US20240078703A1 (en) | Personalized scene image processing method, apparatus and storage medium | |
KR20140082610A (ko) | 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치 | |
CN110262763B (zh) | 基于增强现实的显示方法和装置以及存储介质和电子设备 | |
CN109035415B (zh) | 虚拟模型的处理方法、装置、设备和计算机可读存储介质 | |
EP3172721B1 (en) | Method and system for augmenting television watching experience | |
CN109918005A (zh) | 一种基于移动终端的展示控制系统及方法 | |
WO2024131479A1 (zh) | 虚拟环境的显示方法、装置、可穿戴电子设备及存储介质 | |
CN110267079B (zh) | 待播放视频中人脸的替换方法和装置 | |
CN114358112A (zh) | 视频融合方法、计算机程序产品、客户端及存储介质 | |
CN114363705A (zh) | 一种增强现实设备及交互增强方法 | |
WO2024022070A1 (zh) | 画面显示方法、装置、设备及介质 | |
CN116055708B (zh) | 一种感知可视交互式球幕三维立体成像方法及系统 | |
CN114779948B (zh) | 基于面部识别的动画人物即时交互控制方法、装置及设备 | |
WO2022111005A1 (zh) | 虚拟现实设备及vr场景图像识别方法 | |
CN112804546B (zh) | 基于直播的互动方法、装置、设备和存储介质 | |
CN113434046A (zh) | 三维交互系统、方法、计算机设备及可读存储介质 | |
CN113887354A (zh) | 图像识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 518000 workshop 208, No. 1, Longcheng Industrial Park, huanggekeng community, Longcheng street, Longgang District, Shenzhen City, Guangdong Province Applicant after: Shenzhen Bainuo Digital Technology Co.,Ltd. Address before: 518000 workshop 208, No. 1, Longcheng Industrial Park, huanggekeng community, Longcheng street, Longgang District, Shenzhen City, Guangdong Province Applicant before: Shenzhen Bainuo Education Technology Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |