CN117055733A - 一种沉浸式场景交互系统 - Google Patents
一种沉浸式场景交互系统 Download PDFInfo
- Publication number
- CN117055733A CN117055733A CN202311053146.8A CN202311053146A CN117055733A CN 117055733 A CN117055733 A CN 117055733A CN 202311053146 A CN202311053146 A CN 202311053146A CN 117055733 A CN117055733 A CN 117055733A
- Authority
- CN
- China
- Prior art keywords
- scene
- user
- output
- sensor
- immersive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 45
- 238000004458 analytical method Methods 0.000 claims abstract description 18
- 210000000988 bone and bone Anatomy 0.000 claims description 7
- 238000007405 data analysis Methods 0.000 claims description 6
- 230000009471 action Effects 0.000 abstract description 18
- 230000002035 prolonged effect Effects 0.000 abstract description 3
- 238000000034 method Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000007654 immersion Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002853 ongoing effect Effects 0.000 description 1
- 230000010399 physical interaction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种沉浸式场景交互系统,本发明涉及展览展示领域中的多媒体技术领域。该沉浸式场景交互系统,无需穿戴设备:与传统的沉浸式产品相比,本发明产品无需使用任何穿戴设备,如头戴式显示器或手持控制器。这消除了用户佩戴设备的不便和限制,提供更自由、舒适的沉浸式体验;深度传感器的智能启停:本发明产品采用了深度传感器,通过智能启停技术,传感器在用户进入场景时自动启动,并在用户退出后自动进入待机状态。这样可以节省能源,并延长传感器的使用寿命;身体捕捉和动作分析:本发明产品利用深度传感器对用户身体进行捕捉和动作分析,传感器通过分析用户的骨骼点数据和运动,能够准确计算和识别用户正在做的动作。
Description
技术领域
本发明涉及展览展示领域中的多媒体技术领域,具体为一种沉浸式场景交互系统。
背景技术
现有沉浸式产品主要是折幕影院又称为折幕投影系统,是通过四台投影设备,采用投影融合技术,创造出超大无缝的逼真画面。从而达到身临其境和裸眼3D的世界效果,折幕系统可分为2折、3折、4折、5折、8折幕系统。8折幕则可以做成封闭的360度的全景展示系统。
然后现有沉浸式产品的不足有以下几个方面的不足:
1.可视角度限制:由于折幕系统的折叠结构,折幕系统在展示过程中可能存在可视角度的限制。观众位于特定位置时可能无法完全覆盖整个画面,导致观看体验不够理想。这可能对观众在沉浸式体验中的参与感产生影响。
2.交互受限:目前多为通过播放沉浸式影片的方式来为观众提供沉浸式体验,为了实现与投影画面的交互,可能需要使用额外的交互设备,如手柄、遥控器或触控屏等。观众需要通过这些设备来进行操作和控制,这可能对用户体验和操作的自然性产生一定影响。
3.多用户交互的管理:在多用户环境下,折幕系统可能面临多用户交互的管理问题。如何同时支持多个用户的交互操作、避免冲突和干扰,以及提供个性化的交互体验,可能需要进行合理的用户管理和交互控制。
发明内容
针对现有技术的不足,本发明提供了一种沉浸式场景交互系统,解决了可视角度方面、交互方面和多用户管理方面的问题。
为实现以上目的,本发明通过以下技术方案予以实现:一种沉浸式场景交互系统,包括深度传感器,所述深度传感器的输出信号计算机,所述计算机的输出信号连接有投影画面,所述计算机内包括深度传感器模块、数据处理模块、初始化场景模块和画面输出模块,所述深度传感器模块的输出端与数据处理模块的输入端口连接,所述数据处理模块的输出端与初始化场景模块的输入端口连接,所述初始化场景模块的输出端与画面输出模块的输入端口连接,所述深度传感器的输出端口分别连接程序和骨骼数据分析,所述程序和骨骼数据分析的输出端口与处理场景的输入端口连接。
优选的,所述程序内电性连接有开始,所述开始的输出端口连接获取传感器数据和用户进入。
优选的,所述获取传感器数据的输出端口连接分析骨骼点信息,所述分析骨骼点信息的输出端口连接处理场景,所述处理场景的输出端口连接用户退出。
优选的,所述程序的输出端口连接默认3维场景和传感器待机,所述默认3维场景的输出端口连接场景移动交互,所述场景移动交互的输出端与用户退出的输入端口连接。
优选的,所述传感器待机的输出端口连接捕捉用户,所述捕捉用户的输出端与用户进入的输入端口连接。
优选的,所述捕捉用户的输出端口连接身体捕捉和动作分析,所述身体捕捉和动作分析的输出端与场景移动交互的输入端口连接。
优选的,所述用户退出的输出端与默认3维场景的输入端口连接。
有益效果
本发明提供了沉浸式场景交互系统。与现有技术相比具备以下有益效果:
1、沉浸式场景交互系统,无需穿戴设备:与传统的沉浸式产品相比,本发明产品无需使用任何穿戴设备,如头戴式显示器或手持控制器。这消除了用户佩戴设备的不便和限制,提供更自由、舒适的沉浸式体验;深度传感器的智能启停:本发明产品采用了深度传感器,通过智能启停技术,传感器在用户进入场景时自动启动,并在用户退出后自动进入待机状态。这样可以节省能源,并延长传感器的使用寿命;身体捕捉和动作分析:本发明产品利用深度传感器对用户身体进行捕捉和动作分析,传感器通过分析用户的骨骼点数据和运动,能够准确计算和识别用户正在做的动作。这为实时的身体交互提供了基础,并丰富了用户与场景的互动方式。
2、沉浸式场景交互系统,场景移动交互:基于用户的动作分析结果,本发明产品可以实现场景的移动和交互,用户的手势、身体姿势或其他动作可以被识别和解析,从而控制场景中的物体位置、触发特定的动画效果或实现其他交互效果,这增强了用户的参与感和沉浸感;用户个性化设置:本发明产品提供个性化的设置选项,允许用户根据自己的偏好和需求进行定制,用户可以自定义交互方式、场景偏好或其他参数,获得更符合自己喜好的沉浸式体验。
附图说明
图1为本发明深度传感器和投影画面的连接框图;
图2为本发明计算机程序的流程图;
图3为本发明程序模块的系统结构图;
图4为本发明处理场景和投影画面的连接框图;
图5为本发明计算机程序工作步骤框图。
图中:1、深度传感器;2、计算机;201、深度传感器模块;202、数据处理模块;203、初始化场景模块;204、画面输出模块;3、投影画面;4、程序;401、开始;402、获取传感器数据;403、用户进入;404、分析骨骼点信息;405、场景移动交互;406、身体捕捉和动作分析;407、默认3维场景;408、传感器待机;409、捕捉用户;5、处理场景;6、骨骼数据分析;7、用户退出。
具体实施方式
下面将结合本发明实施例中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的仅仅是本发明一部分实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他技术,都属于本发明保护的范围。
实施例一:
请参阅图1和图2,本发明提供一种技术方案:一种沉浸式场景交互系统,包括深度传感器1,深度传感器1的输出信号连接计算机2,计算机的输出信号连接投影画面3,计算机2内包括深度传感器模块201、数据处理模块202、初始化场景模块203和画面输出模块204,深度传感器模块201的输出端与数据处理模块202的输入端口连接,数据处理模块202的输出端与初始化场景模块203的输入端口连接,初始化场景模块203的输出端与画面输出模块204的输入端口连接,深度传感器1的输出端口连接程序4和骨骼数据分析6,程序4和骨骼数据分析6的输出端口与处理场景5的输入端口连接,通过深度传感器1捕捉用户的身体数据,将数据传输给计算机2进行处理,计算机2利用算法和模型对用户的骨骼点信息进行分析,并识别用户正在进行的动作,基于识别结果,程序进行场景交互处理,控制场景中的物体位置、触发动画效果或交互反馈,最终,计算机2将处理后的画面数据输出给投影设备,实现沉浸式画面的投影展示,可以提供更自由、舒适的沉浸式体验,无需佩戴设备,节省能源并延长传感器的使用寿命,通过智能启停技术,实时捕捉用户身体数据并分析动作,丰富了交互方式。
实施例二:
请参阅图3,程序4内电性连接有开始401,开始401的输出端口连接获取传感器数据402和检测用户进入403,获取传感器数据402的输出端电性连接有分析骨骼点信息404,分析骨骼点信息404的输出端电性连接有处理场景5,处理场景5的输出端口连接用户退出7,由程序4获取传感器数据402并分析处理用户骨骼点信息,计算骨骼动作,根据动作处理场景,最后输出画面给投影,实现场景的移动和交互,增强用户的参与感和沉浸感,提供个性化设置选项,定制化用户体验。
实施例三:
请参阅图4和图5,程序4的输出端口连接默认3维场景407和传感器待机408,默认3维场景407的输出端口连接场景移动交互405,场景移动交互405的输出端与用户退出7的输入端口连接,传感器待机408的输出端口连接捕捉用户409,捕捉用户409的输出端与用户进入403的输入端口连接。程序启动:用户启动应用程序或设备后,系统进入工作状态;3D场景展示:应用程序展示一个引人注目的3D场景画面,可以是虚拟环境、游戏场景、艺术展示或其他沉浸式体验的场景;传感器待机:在展示场景期间,深度传感器处于待机状态,不进行身体捕捉和动作分析。这有助于减少功耗并延长传感器的使用寿命;用户进入:当用户进入场景范围内,深度传感器自动启动,并开始进行身体捕捉;身体捕捉和动作分析:深度传感器使用红外或其他深度感应技术,捕捉用户的身体并分析骨骼点。通过分析骨骼点的运动,可以计算和识别出用户正在做的动作。
实施例四:
请参阅图5,捕捉用户409的输出端口连接身体捕捉和动作分析406,身体捕捉和动作分析406的输出端与场景移动交互405的输入端口连接,用户退出7的输出端与默认3维场景407的输入端口连接,场景移动交互:基于用户的动作分析结果,应用程序可以相应地控制场景进行移动和交互。例如,根据用户的手势、身体姿势或其他动作,应用程序可以改变场景中的物体位置、触发特定的动画效果或响应用户的指令;用户退出:当用户离开场景范围后,深度传感器停止捕捉用户的身体数据,并将用户退出的事件通知应用程序;恢复默认场景:应用程序将画面恢复到默认的场景状态,等待下一位用户的进入;传感器待机:深度传感器重新进入待机状态,以节省能源并等待下一次使用。
工作时,沉浸式场景交互系统,通过深度传感器对用户的身体进行捕捉和动作分析。传感器启动后,它会捕捉用户的骨骼点数据,并通过计算和识别用户的动作。基于用户动作的结果,应用程序可以相应地控制场景进行移动和交互。用户的退出会触发传感器进入待机状态,并将画面恢复到默认的场景状态,以等待下一位用户的进入;通过以上的工作原理和改进点,本发明产品实现了无需佩戴设备的沉浸式体验,提供了更自由、舒适的交互方式,并具备节能和个性化设置等优势,进一步增强了用户的参与感和沉浸感。
同时本说明书中未作详细描述的内容均属于本领域技术人员公知的现有技术。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下。由语句“包括一个......限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素”。
尽管已经示出和描述了本发明的案例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些案例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (7)
1.一种沉浸式场景交互系统,包括深度传感器(1),其特征在于:所述深度传感器(1)的输出信号连接计算机(2),所述计算机的输出信号连接投影画面(3),所述计算机(2)内包括深度传感器模块(201)、数据处理模块(202)、初始化场景模块(203)和画面输出模块(204),所述深度传感器模块(201)的输出端与数据处理模块(202)的输入端口连接,所述数据处理模块(202)的输出端与初始化场景模块(203)的输入端口连接,所述初始化场景模块(203)的输出端与画面输出模块(204)的输入端口连接,所述深度传感器(1)的输出端口连接程序(4)进行骨骼数据分析(6),所述程序(4)和骨骼数据(6)的输出端均与处理场景(5)的输入端口连接。
2.根据权利要求1所述的一种沉浸式场景交互系统,其特征在于:所述程序(4)内电性连接有开始(401),所述开始(401)的输出端口连接获取传感器数据(402)和用户进入(403)。
3.根据权利要求2所述的一种沉浸式场景交互系统,其特征在于:所述获取传感器数据(402)的输出端口连接分析骨骼点信息(404),所述分析骨骼点信息(404)的输出端口连接处理场景(5),所述处理场景(5)的输出端口连接用户退出(7)。
4.根据权利要求1所述的一种沉浸式场景交互系统,其特征在于:所述程序(4)的输出端口连接默认3维场景(407)和传感器待机(408),所述默认3维场景(407)的输出端口连接场景移动交互(405),所述场景移动交互(405)的输出端与用户退出(7)的输入端口连接。
5.根据权利要求4所述的一种沉浸式场景交互系统,其特征在于:所述传感器待机(408)的输出端口连接捕捉用户(409),所述捕捉用户(409)的输出端与用户进入(403)的输入端口连接。
6.根据权利要求5所述的一种沉浸式场景交互系统,其特征在于:所述捕捉用户(409)的输出端口连接身体捕捉和动作分析(406),所述身体捕捉和动作分析(406)的输出端与场景移动交互(405)的输入端口连接。
7.根据权利要求3所述的一种沉浸式场景交互系统,其特征在于:所述用户退出(7)的输出端与默认3维场景(407)的输入端口连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311053146.8A CN117055733A (zh) | 2023-08-21 | 2023-08-21 | 一种沉浸式场景交互系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311053146.8A CN117055733A (zh) | 2023-08-21 | 2023-08-21 | 一种沉浸式场景交互系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117055733A true CN117055733A (zh) | 2023-11-14 |
Family
ID=88660535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311053146.8A Pending CN117055733A (zh) | 2023-08-21 | 2023-08-21 | 一种沉浸式场景交互系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117055733A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018035484A1 (en) * | 2016-08-18 | 2018-02-22 | Apple Inc. | System and method for interactive scene projection |
CN111459264A (zh) * | 2018-09-18 | 2020-07-28 | 阿里巴巴集团控股有限公司 | 3d对象交互系统和方法及非暂时性计算机可读介质 |
CN113342176A (zh) * | 2021-07-09 | 2021-09-03 | 郑州旅游职业学院 | 一种沉浸式旅游互动系统 |
CN114035682A (zh) * | 2021-10-29 | 2022-02-11 | 王朋 | 一种裸眼3d可交互沉浸式虚拟现实cave系统 |
CN114820095A (zh) * | 2021-01-29 | 2022-07-29 | 陕西红星闪闪网络科技有限公司 | 一种基于全息影像技术的集市购物系统及方法 |
-
2023
- 2023-08-21 CN CN202311053146.8A patent/CN117055733A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018035484A1 (en) * | 2016-08-18 | 2018-02-22 | Apple Inc. | System and method for interactive scene projection |
CN111459264A (zh) * | 2018-09-18 | 2020-07-28 | 阿里巴巴集团控股有限公司 | 3d对象交互系统和方法及非暂时性计算机可读介质 |
CN114820095A (zh) * | 2021-01-29 | 2022-07-29 | 陕西红星闪闪网络科技有限公司 | 一种基于全息影像技术的集市购物系统及方法 |
CN113342176A (zh) * | 2021-07-09 | 2021-09-03 | 郑州旅游职业学院 | 一种沉浸式旅游互动系统 |
CN114035682A (zh) * | 2021-10-29 | 2022-02-11 | 王朋 | 一种裸眼3d可交互沉浸式虚拟现实cave系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9842433B2 (en) | Method, apparatus, and smart wearable device for fusing augmented reality and virtual reality | |
US20130154913A1 (en) | Systems and methods for a gaze and gesture interface | |
US20130335405A1 (en) | Virtual object generation within a virtual environment | |
KR20170031733A (ko) | 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들 | |
JP2017522682A (ja) | 拡張現実技術に基づく手持ち式閲覧デバイス及びその方法 | |
US9274606B2 (en) | NUI video conference controls | |
WO2018006377A1 (zh) | 实时互动动画的全息投影系统、方法及人工智能机器人 | |
EP3111300A2 (en) | Controlling a computing-based device using gestures | |
CN112199016B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN107479712B (zh) | 基于头戴式显示设备的信息处理方法及装置 | |
US20220254125A1 (en) | Device Views and Controls | |
CN118159935A (zh) | 用于内容应用程序的设备、方法和图形用户界面 | |
CN110568931A (zh) | 交互方法、设备、系统、电子设备及存储介质 | |
JP7198244B2 (ja) | 動画配信システム、動画配信方法、及び動画配信プログラム | |
WO2024064828A1 (en) | Gestures for selection refinement in a three-dimensional environment | |
CN117980962A (zh) | 用于内容应用的设备、方法和图形用户界面 | |
CN109426342B (zh) | 基于增强现实的文档阅读方法和装置 | |
LIU et al. | A preliminary study of kinect-based real-time hand gesture interaction systems for touchless visualizations of hepatic structures in surgery | |
CN117055733A (zh) | 一种沉浸式场景交互系统 | |
Beimler et al. | Smurvebox: A smart multi-user real-time virtual environment for generating character animations | |
CN103810932A (zh) | 一种虚拟星空教学设备 | |
CN105843405A (zh) | 一种基于360度全景vr全息技术的系统和方法 | |
CN114979789A (zh) | 一种视频展示方法、装置以及可读存储介质 | |
Wu et al. | VISUAL PANEL: From an ordinary paper to a wireless and mobile input device | |
RU215462U1 (ru) | Устройство электронной маски для лица |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |