CN115379196A - 一种投影方法及电子设备 - Google Patents
一种投影方法及电子设备 Download PDFInfo
- Publication number
- CN115379196A CN115379196A CN202210986413.6A CN202210986413A CN115379196A CN 115379196 A CN115379196 A CN 115379196A CN 202210986413 A CN202210986413 A CN 202210986413A CN 115379196 A CN115379196 A CN 115379196A
- Authority
- CN
- China
- Prior art keywords
- user
- target screen
- information
- space
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000009877 rendering Methods 0.000 claims abstract description 121
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000003190 augmentative effect Effects 0.000 abstract description 10
- 230000003993 interaction Effects 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000004888 barrier function Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 241000234295 Musa Species 0.000 description 2
- 235000018290 Musa x paradisiaca Nutrition 0.000 description 2
- 235000014443 Pyrus communis Nutrition 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 239000005264 High molar mass liquid crystal Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种投影方法及电子设备,该方法包括:获取多个用户的眼部在空间中相对目标屏的位置信息;位置信息包括空间坐标信息及角度信息;基于空间坐标信息确定每个用户在目标屏上的注视区域及对应的渲染内容信息;基于角度信息将渲染内容信息进行渲染,得到每个用户对应的渲染图像;将每个用户对应的渲染图像投影至目标屏上与每个用户对应的注视区域。通过实施本申请,可以实现基于多个用户的眼部在空间中相对目标屏的位置信息同时进行增强现实内容渲染或交织画面渲染,并在目标屏上与每个用户对应的注视区域显示每个用户各自对应的渲染图像,从而支持多个用户在目标屏同时与各自对应的渲染图像进行互动或观看各自对应的渲染图像。
Description
技术领域
本申请涉及投影技术领域,尤其涉及一种投影方法及电子设备。
背景技术
在全息透明屏、镜面屏或裸眼3D屏中实现基于视点的增强现实渲染或交织渲染时,通常基于目标位置的用户的注视区域进行图像渲染,因此通常只能支持一个人观看及互动。而对于大幅面全息透明屏、镜面屏或裸眼3D屏,如果也采取这种方式进行增强现实渲染或交织渲染,将造成全息透明屏、镜面屏或裸眼3D屏的浪费,且降低用户体验。
发明内容
有鉴于此,本申请实施例通过提供一种投影方法及电子设备,用以至少解决现有技术中存在的上述技术问题。
根据本申请第一方面,本申请实施例提供了一种投影方法,包括:获取多个用户的眼部在空间中相对目标屏的位置信息;位置信息包括空间坐标信息及角度信息;基于空间坐标信息确定每个用户在目标屏上的注视区域及对应的渲染内容信息;基于角度信息将渲染内容信息进行渲染,得到每个用户对应的渲染图像;将每个用户对应的渲染图像投影至目标屏上与每个用户对应的注视区域。
可选地,在获取多个用户的眼部在空间中相对目标屏的位置信息之前,投影方法还包括:获取用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系;
相应地,
基于空间坐标信息确定每个用户在目标屏上的注视区域,包括:基于空间坐标信息从第一对应关系中查找到每个用户在目标屏上的注视区域。
可选地,获取用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系,包括:将目标屏划分为多个注视区域;确定每个注视区域对应的用户眼部的空间坐标信息;基于每个注视区域及每个注视区域对应的用户眼部的空间坐标信息,构建用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系。
可选地,基于空间坐标信息确定每个用户对应的渲染内容信息,包括:基于空间坐标信息确定每个用户在空间中的空间区域或在目标屏上的注视区域;基于每个用户对应的空间区域或注视区域确定每个用户对应的渲染内容信息。
可选地,基于每个用户对应的空间区域或注视区域确定每个用户对应的渲染内容信息,包括:基于每个用户对应的空间区域从空间区域与渲染内容信息的第二对应关系中查找到每个用户对应的渲染内容信息;或基于每个用户对应的注视区域从注视区域与渲染内容信息的第三对应关系中查找到每个用户对应的渲染内容信息。
可选地,基于空间坐标信息确定每个用户对应的渲染内容信息,包括:基于空间坐标信息获取每个用户的姿态信息;基于姿态信息生成每个用户对应的渲染内容信息。
可选地,将每个用户对应的渲染图像投影至目标屏上与每个用户对应的注视区域,包括:基于每个用户对应的注视区域将每个用户对应的渲染图像组合成一个成像画面;将成像画面投影至目标屏上。
可选地,目标屏为全息屏、镜面屏或裸眼3D屏。
可选地,在目标屏为裸眼3D屏的情况下,针对每个用户,该用户仅能在目标屏上观看到与该用户对应的渲染图形。
根据本申请第二方面,本申请实施例提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器执行如第一方面或第一方面任意实施方式中的投影方法。
本申请实施例提供的投影方法及电子设备,通过获取多个用户的眼部在空间中相对目标屏的位置信息;位置信息包括空间坐标信息及角度信息;基于空间坐标信息确定每个用户在目标屏上的注视区域及对应的渲染内容信息;基于角度信息将渲染内容信息进行渲染,得到每个用户对应的渲染图像;将每个用户对应的渲染图像投影至目标屏上与每个用户对应的注视区域;如此,可以实现基于多个用户的眼部在空间中相对目标屏的位置信息同时进行增强现实内容渲染或交织画面渲染,并在目标屏上与每个用户对应的注视区域显示每个用户各自对应的渲染图像,从而支持多个用户在目标屏同时与各自对应的渲染图像进行互动或观看各自对应的渲染图像,提高用户体验。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
图1为本申请实施例中一种投影方法的流程示意图;
图2为本申请实施例中在目标屏上同时显示多个用户对应的渲染图像的示意图;
图3为本申请实施例中基于每个用户的眼部相对目标屏的空间坐标信息实时计算每个用户在目标屏上的注视区域的示意图;
图4为本申请实施例中另一投影方法的流程示意图;
图5为本申请实施例中将目标屏划分为多个注视区域的结构示意图;
图6为本申请实施例中将空间划分为多个空间区域的结构示意图;
图7为本申请实施例中一种电子设备的硬件结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供了一种投影方法,可应用于在大幅面的显示屏中进行投影,如图1所示,投影方法包括:
S101,获取多个用户的眼部在空间中相对目标屏的位置信息;位置信息包括空间坐标信息及角度信息。
在本申请实施例中,以目标屏的中心为原点建立空间坐标系为例,则如图2所示,当多个用户站在空间中的不同位置及进行不同角度站位时,其眼部在空间中相对目标屏具有不同的空间坐标信息及角度信息。空间坐标信息包括X轴坐标信息、Y轴坐标信息、Z轴坐标信息,角度信息包括相对于目标屏所在平面的角度信息。如图2所示,用户A、用户B及用户C,这3个用户站在目标屏前时,其眼部在空间中相对目标屏的空间坐标分别为(x1、y1、z1)、(x1、y1、z1)、(x1、y1、z1),其眼部在空间中相对目标屏的角度分别为45°、90°、135°。
需要说明的是,在本申请实施例中,仅示例性地以目标屏的中心为原点建立空间坐标系为例计算多个用户的眼部在空间中相对目标屏的位置信息,并示出了3个用户站在目标屏前,并示例性的示出了角度45°、90°、135°,但并不以此为限,在其他实施例中,空间坐标的原点、用户的个数及角度可以根据实际情况设置及计算得到。
在一些实施例中,在计算用户的眼部在空间中相对目标屏的位置信息时,可以将用户头部的中心点在空间中相对目标屏的位置信息,作为用户的眼部在空间中相对目标屏的位置信息。
在一些实施例中,可以采用陀螺仪传感器来测量多个用户的眼部在空间中相对目标屏的位置信息。具体通过陀螺仪传感器来测量多个用户的眼部在空间中相对目标屏的位置信息的步骤为本领域常用技术,在此不再赘述。
在一些实施例中,可以在空间中设置摄像头,例如红外摄像头,通过摄像头采集多个用户及目标屏的图像,然后通过采集的图像计算多个用户的眼部在空间中相对目标屏的位置信息。具体通过图像计算多个用户的眼部在空间中相对目标屏的位置信息的步骤为本领域常用技术,在此不再赘述。
在一些实施例中,由于目前全息屏、镜面屏或裸眼3D屏技术成熟,可通过全息屏、镜面屏或裸眼3D屏进行增强现实内容渲染或交织渲染,以供一个用户观看或进行互动。因此,可设置目标屏为全息屏、镜面屏或裸眼3D屏,从而可以在同一个全息屏、镜面屏或裸眼3D屏,从而实现同时对多个用户各自对应的增强现实内容或交织画面进行渲染,进一步提高用户体验。
S102,基于空间坐标信息确定每个用户在目标屏上的注视区域及对应的渲染内容信息。
在本实施例中,渲染内容信息包括但不限于增强现实内容、交织画面等。
在一种实现方式中,可预置空间坐标信息与在目标屏上的注视区域的第一对应关系,然后基于空间坐标信息与在目标屏上的注视区域的第一对应关系确定每个用户在目标屏上的注视区域。
在另一种实现方式中,可基于每个用户的眼部相对目标屏的空间坐标信息实时计算每个用户在目标屏上的注视区域,例如,如图3所示,基于每个用户眼部相对目标屏的空间坐标信息确定每个用户眼部在目标屏上的注视点信息,基于每个用户的注视点信息确定每个用户在目标屏上的注视区域。
在本实施例中,为了使站在目标屏不同位置的用户能够看到不同的渲染图像,从而可以基于每个用户的眼部相对目标屏在空间中的空间坐标信息确定对应的渲染内容信息。不同的渲染图像可以是同一渲染内容信息不同角度的渲染图像,或是完全不同的渲染内容信息经过渲染后得到的渲染图像。例如,如图2中所示的用户A,用户B和用户C,基于用户A眼部相对目标屏的空间坐标信息,确定用户A对应的渲染内容为一个苹果,基于用户B眼部相对目标屏的空间坐标信息,确定用户B对应的渲染内容为一个梨,基于用户C眼部相对目标屏的空间坐标信息,确定用户C对应的渲染内容为一个香蕉。
S103,基于角度信息将渲染内容信息进行渲染,得到每个用户对应的渲染图像。
在本申请实施例中,确定了每个用户对应的渲染内容信息之后,可以基于每个用户的眼部在空间中相对目标屏的角度信息将渲染内容信息进行渲染,得到每个用户对应的渲染图像,使得渲染图像与该用户的眼部相对目标屏的角度相匹配,最适合或仅能供该用户观看,或与该用户进行互动。例如,如图2所示,将苹果的图像旋转45度,得到用户A对应的渲染图像;将梨的图像不进行旋转,得到用户B对应的渲染图像;将香蕉的图像旋转135度,得到用户C对应的渲染图像。
S104,将每个用户对应的渲染图像投影至目标屏上与每个用户对应的注视区域。
在本实施例中,将每个用户对应的渲染图像同时投影至目标屏上与每个用户对应的注视区域,就可以使得每个用户都能在目标屏上观看与自己相关的渲染图像或与自己相关的渲染图像进行互动,而不需要限制每次只能一个用户使用目标屏进行互动或仅支持一个用户观看渲染图像。
本申请实施例提供的投影方法,通过获取多个用户的眼部在空间中相对目标屏的位置信息;位置信息包括空间坐标信息及角度信息;基于空间坐标信息确定每个用户在目标屏上的注视区域及对应的渲染内容信息;基于角度信息将渲染内容信息进行渲染,得到每个用户对应的渲染图像;将每个用户对应的渲染图像投影至目标屏上与每个用户对应的注视区域;如此,可以实现基于多个用户的眼部在空间中相对目标屏的位置信息同时进行增强现实内容渲染或交织画面渲染,并在目标屏上与每个用户对应的注视区域显示每个用户各自对应的渲染图像,从而支持多个用户在目标屏同时与各自对应的渲染图像进行互动或观看各自对应的渲染图像,提高用户体验。
在一个可选的实施例中,如果是通过预置空间坐标信息与在目标屏上的注视区域的第一对应关系,然后基于空间坐标信息与在目标屏上的注视区域的第一对应关系确定每个用户在目标屏上的注视区域,那么,在步骤S101,获取多个用户的眼部在空间中相对目标屏的位置信息之前,如图4所示,投影方法还包括:S100,获取用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系。
相应地,步骤S102中,基于空间坐标信息确定每个用户在目标屏上的注视区域,包括:基于空间坐标信息从第一对应关系中查找到每个用户在目标屏上的注视区域。
在一种实现方式中,步骤S100,获取用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系,包括:将目标屏划分为多个注视区域;确定每个注视区域对应的用户眼部的空间坐标信息;基于每个注视区域及每个注视区域对应的用户眼部的空间坐标信息,构建用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系。
具体实施时,如图5所示,可以沿着目标屏横向方向将目标屏划分为多个注视区域,然后针对每个注视区域,确定距离该注视区域预设距离的空间为该注视区域对应的用户眼部的空间,该空间的坐标信息,就可以作为该注视区域对应的用户眼部的空间坐标信息。将每个注视区域与该区域对应的用户眼部的空间坐标信息进行关联,就得到了用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系。
在本实现方式中,通过将目标屏划分为多个注视区域,并确定每个注视区域对应的用户眼部的空间坐标信息,从而可以较快捷及简单地建立用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系。
在另一种实现方式中,步骤S100,获取用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系,包括:将目标屏对应的空间划分为多个空间区域;确定每个空间区域对应的空间坐标信息,得到每个空间区域对应的用户眼部的空间坐标信息;确定每个空间区域在目标屏上对应的注视区域;基于每个空间区域对应的用户眼部的空间坐标信息,以及每个空间区域对应的注视区域,构建用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系。
具体实施时,如图6所示,可以沿着空间横向方向将目标屏对应的空间划分为多个空间区域,然后针对每个空间区域,确定该空间区域正对目标屏的区域为该空间区域对应的注视区域,该空间的坐标信息,就可以作为该空间区域对应的用户眼部的空间坐标信息。将每个注视区域与该区域对应的用户眼部的空间坐标信息进行关联,就得到了用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系。
在本实现方式中,通过将空间划分为多个空间区域,并确定每个空间区域对应的注视区域,从而可以较快捷及简单地建立用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系。
在本实施例中,在获取多个用户的眼部在空间中相对目标屏的位置信息之前,通过获取用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系,从而可以实现直接从第一关系中查找到每个用户在目标屏上的注视区域,简单、快捷。
在一个可选的实施例中,步骤S102中,基于空间坐标信息确定每个用户对应的渲染内容信息,包括:基于空间坐标信息确定每个用户在空间中的空间区域或在目标屏上的注视区域;基于每个用户对应的空间区域或注视区域确定每个用户对应的渲染内容信息。
在一个可选的实施方式中,可以建立用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系,建立注视区域与渲染内容信息的第三对应关系;然后基于空间坐标信息从第一对应关系中查找到每个用户在目标屏上的注视区域,基于查找到的每个用户在目标屏上的注视区域,从第三对应关系中查找到每个用户对应的渲染内容信息。
具体实施时,可以首先判断每个用户对应的注视区域是否存在相同注视区域,在基于每个所述用户对应的注视区域确定存在相同注视区域的情况下,针对存在相同注视区域的目标用户,保留空间坐标信息满足第一预设条件的目标用户对应的注视区域,删除空间坐标信息不满足第一预设条件的其他目标用户对应的注视区域,基于更新后的每个所述用户对应的注视区域从第三对应关系中查找到每个所述用户对应的渲染内容信息;在基于每个所述用户对应的目标屏的注视区域确定不存在相同注视区域的情况下,基于每个所述用户对应的注视区域从第三对应关系中查找到每个所述用户对应的渲染内容信息。
在该实施方式中,通过建立用户眼部的空间坐标信息与在目标屏上的注视区域的第一对应关系,建立注视区域与渲染内容信息的第三对应关系,从而基于用户眼部的空间坐标信息就可以快速查找到每个用户对应的渲染内容信息,简单、快捷。
在另一个可选的实施方式中,可以建立用户眼部的空间坐标信息与空间的空间区域的对应关系,建立空间区域与渲染内容信息的第二对应关系;然后基于空间坐标信息确定从用户眼部的空间坐标信息与空间的空间区域的对应关系中查找到每个用户在空间中的空间区域,基于查找到的每个用户在空间中的空间区域,从空间区域与渲染内容信息的第二对应关系中查找到每个用户对应的渲染内容信息。
具体实施时,可以首先判断每个用户对应的空间区域是否存在相同空间区域,在基于每个所述用户对应的空间区域确定存在相同空间区域的情况下,针对存在相同空间区域的目标用户,保留空间坐标信息满足第一预设条件的目标用户对应的空间区域,删除空间坐标信息不满足第一预设条件的其他目标用户对应的空间区域,基于更新后的每个所述用户对应的空间区域从第二对应关系中查找到每个所述用户对应的渲染内容信息;在基于每个所述用户对应的目标屏的空间区域确定不存在相同空间区域的情况下,基于每个所述用户对应的空间区域从第二对应关系中查找到每个所述用户对应的渲染内容信息。
在该实施方式中,通过建立用户眼部的空间坐标信息与空间的空间区域的对应关系,建立空间区域与渲染内容信息的第二对应关系,从而基于用户眼部的空间坐标信息就可以快速查找到每个用户对应的渲染内容信息,简单、快捷。
在本实施例中,通过将空间划分为多个空间区域或将目标屏划分为多个注视区域,从而基于每个用户的眼部的空间坐标信息确定每个用户对应的渲染内容信息,可以实现每个用户对应的渲染内容信息的差异化。
在一个可选的实施例中,步骤S102中,基于空间坐标信息确定每个用户对应的渲染内容信息,包括:基于空间坐标信息获取每个用户的姿态信息;基于姿态信息生成每个用户对应的渲染内容信息。
具体实施时,针对每个空间坐标信息,可以通过摄像头采集该空间坐标信息对应的用户图片,通过图片分析,得到每个用户的姿态信息,姿态信息包括但不限于手的姿势信息、用户身体的姿势信息等。然后基于每个用户的姿态信息生成每个用户对应的渲染内容信息。例如,当姿态信息为手的姿势信息时,当识别到用户的手的姿势为爱心时,则可以生成爱心,作为该用户对应的渲染内容信息;当识别到用户的手的姿势为小鸟时,则可以生成小鸟,作为该用户对应的渲染内容信息。当姿态信息为用户身体的姿态信息时,如当多个用户通过镜面屏进行跳舞动作矫正时,当识别到用户身体的姿态信息时,可以基于该用户身体的姿态信息,生成该姿态信息对应的矫正姿态信息,作为该用户的渲染内容信息。
在本实施例中,基于间坐标信息获取每个用户的姿态信息;基于姿态信息生成每个用户对应的渲染内容信息,可以实现根据用户的姿态实时生成对应的渲染内容信息,可以满足用户想要根据自己的需求变换渲染内容信息,或对自己的姿态进行矫正的需求,实现每个用户对应的渲染内容信息的个性化。
在一些实施例中,将每个用户对应的渲染图像投影至目标屏上与每个用户对应的注视区域,包括:基于每个用户对应的注视区域将每个用户对应的渲染图像组合成一个成像画面;将成像画面投影至目标屏上。
具体实施时,由于需要同时将每个用户对应的渲染图像投影至目标屏上与每个用户对应的注视区域,为了减少投影仪使用的个数以及投影的效果,可以因此,在投影之前,可以基于每个用户对应的注视区域将每个用户对应的渲染图像组合成一个成像画面,然后通过一个投影仪将成像画面投影至目标屏上,就可以实现每个用户观看自己对应的渲染图像。
在一些实施例中,由于裸眼3D屏是利用人两眼具有视差的特性,在不需要任何辅助设备(如3D眼镜,头盔等)的情况下,即可获得具有空间、深度的逼真立体形象的显示系统。且裸眼3D屏一般是基于光屏障式3D技术来实现3D影像显示的,而光屏障式3D技术实现方法是使用一个开关液晶屏、偏振膜和高分子液晶层,利用液晶层和偏振膜制造出一系列方向为90°的垂直条纹。这些条纹宽几十微米,通过它们的光就形成了垂直的细条栅模式,称之为“视差障壁”。而该技术正是利用了安置在背光模块及LCD面板间的视差障壁,在立体显示模式下,应该由左眼看到的图像显示在液晶屏上时,不透明的条纹会遮挡右眼;同理,应该由右眼看到的图像显示在液晶屏上时,不透明的条纹会遮挡左眼,通过将左眼和右眼的可视画面分开,使观者看到3D影像。因此,在该实施例中,在目标屏为裸眼3D屏的情况下,针对每个用户,可使得该用户仅能在目标屏上观看到与该用户对应的渲染图形,从而每个用户仅能看到与自身相关的增强现实内容或交织画面,而无需关心其他人的增强现实内容或交织画面。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
图7示出了可以用来实施本申请的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如投影方法。例如,在一些实施例中,投影方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的投影方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行投影方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本申请的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本申请的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种投影方法,包括:
获取多个用户的眼部在空间中相对目标屏的位置信息;所述位置信息包括空间坐标信息及角度信息;
基于所述空间坐标信息确定每个所述用户在所述目标屏上的注视区域及对应的渲染内容信息;
基于所述角度信息将所述渲染内容信息进行渲染,得到每个所述用户对应的渲染图像;
将每个所述用户对应的渲染图像投影至所述目标屏上与每个所述用户对应的所述注视区域。
2.根据权利要求1所述的投影方法,在所述获取多个用户的眼部在空间中相对目标屏的位置信息之前,还包括:
获取用户眼部的空间坐标信息与在所述目标屏上的注视区域的第一对应关系;
相应地,
基于所述空间坐标信息确定每个所述用户在所述目标屏上的注视区域,包括:
基于所述空间坐标信息从所述第一对应关系中查找到每个所述用户在所述目标屏上的注视区域。
3.根据权利要求2所述的投影方法,所述获取用户眼部的空间坐标信息与在所述目标屏上的注视区域的第一对应关系,包括:
将所述目标屏划分为多个注视区域;
确定每个注视区域对应的用户眼部的空间坐标信息;
基于每个注视区域及每个注视区域对应的用户眼部的空间坐标信息,构建用户眼部的空间坐标信息与在所述目标屏上的注视区域的第一对应关系。
4.根据权利要求1所述的投影方法,基于所述空间坐标信息确定每个所述用户对应的渲染内容信息,包括:
基于所述空间坐标信息确定每个所述用户在空间中的空间区域或在所述目标屏上的注视区域;
基于每个所述用户对应的空间区域或注视区域确定每个所述用户对应的渲染内容信息。
5.根据权利要求4所述的投影方法,所述基于每个所述用户对应的空间区域或注视区域确定每个所述用户对应的渲染内容信息,包括:
基于每个所述用户对应的空间区域从空间区域与渲染内容信息的第二对应关系中查找到每个所述用户对应的渲染内容信息;或
基于每个所述用户对应的注视区域从注视区域与渲染内容信息的第三对应关系中查找到每个所述用户对应的渲染内容信息。
6.根据权利要求1所述的投影方法,基于所述空间坐标信息确定每个所述用户对应的渲染内容信息,包括:
基于所述空间坐标信息获取每个所述用户的姿态信息;
基于所述姿态信息生成每个所述用户对应的渲染内容信息。
7.根据权利要求1所述的投影方法,所述将每个所述用户对应的渲染图像投影至所述目标屏上与每个所述用户对应的所述注视区域,包括:
基于每个所述用户对应的所述注视区域将每个所述用户对应的渲染图像组合成一个成像画面;
将所述成像画面投影至所述目标屏上。
8.根据权利要求1所述的投影方法,所述目标屏为全息屏、镜面屏或裸眼3D屏。
9.根据权利要求8所述的投影方法,在所述目标屏为裸眼3D屏的情况下,针对每个所述用户,该用户仅能在所述目标屏上观看到与该用户对应的渲染图形。
10.一种电子设备,包括:
至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器执行如权利要求1-9任意一项所述的投影方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210986413.6A CN115379196A (zh) | 2022-08-17 | 2022-08-17 | 一种投影方法及电子设备 |
US18/232,694 US20240062341A1 (en) | 2022-08-17 | 2023-08-10 | Projection method and electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210986413.6A CN115379196A (zh) | 2022-08-17 | 2022-08-17 | 一种投影方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115379196A true CN115379196A (zh) | 2022-11-22 |
Family
ID=84064913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210986413.6A Pending CN115379196A (zh) | 2022-08-17 | 2022-08-17 | 一种投影方法及电子设备 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20240062341A1 (zh) |
CN (1) | CN115379196A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5959664A (en) * | 1994-12-29 | 1999-09-28 | Sharp Kabushiki Kaisha | Observer tracking autostereoscopic display and method of tracking an observer |
CN104618711A (zh) * | 2015-01-12 | 2015-05-13 | 深圳市亿思达科技集团有限公司 | 一种多区实现自由视角全息立体显示的设备及方法 |
CN104902252A (zh) * | 2015-01-12 | 2015-09-09 | 深圳市亿思达科技集团有限公司 | 一种自适应多人自由视角全息立体显示的移动终端及方法 |
CN109451296A (zh) * | 2018-09-26 | 2019-03-08 | 深圳市新致维科技有限公司 | 一种可供多人观看的裸眼3d系统和3d画面的显示方法 |
-
2022
- 2022-08-17 CN CN202210986413.6A patent/CN115379196A/zh active Pending
-
2023
- 2023-08-10 US US18/232,694 patent/US20240062341A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5959664A (en) * | 1994-12-29 | 1999-09-28 | Sharp Kabushiki Kaisha | Observer tracking autostereoscopic display and method of tracking an observer |
CN104618711A (zh) * | 2015-01-12 | 2015-05-13 | 深圳市亿思达科技集团有限公司 | 一种多区实现自由视角全息立体显示的设备及方法 |
CN104902252A (zh) * | 2015-01-12 | 2015-09-09 | 深圳市亿思达科技集团有限公司 | 一种自适应多人自由视角全息立体显示的移动终端及方法 |
CN109451296A (zh) * | 2018-09-26 | 2019-03-08 | 深圳市新致维科技有限公司 | 一种可供多人观看的裸眼3d系统和3d画面的显示方法 |
Also Published As
Publication number | Publication date |
---|---|
US20240062341A1 (en) | 2024-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10249089B2 (en) | System and method for representing remote participants to a meeting | |
JP7339386B2 (ja) | 視線追跡方法、視線追跡装置、端末デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
US9805509B2 (en) | Method and system for constructing a virtual image anchored onto a real-world object | |
US8571304B2 (en) | Method and apparatus for generating stereoscopic image from two-dimensional image by using mesh map | |
US20170186219A1 (en) | Method for 360-degree panoramic display, display module and mobile terminal | |
CN108881893A (zh) | 基于人眼跟踪的裸眼3d显示方法、装置、设备和介质 | |
CN111275801A (zh) | 一种三维画面渲染方法及装置 | |
US10789766B2 (en) | Three-dimensional visual effect simulation method and apparatus, storage medium, and display device | |
US12033270B2 (en) | Systems and methods for generating stabilized images of a real environment in artificial reality | |
CN111737603B (zh) | 判断兴趣点是否可视的方法、装置、设备以及存储介质 | |
CN113077548A (zh) | 针对物体的碰撞检测方法、装置、设备和存储介质 | |
CN113870439A (zh) | 用于处理图像的方法、装置、设备以及存储介质 | |
CN113724391A (zh) | 三维模型构建方法、装置、电子设备和计算机可读介质 | |
CN110286906B (zh) | 用户界面显示方法、装置、存储介质与移动终端 | |
CN104679222A (zh) | 基于人机交互的医疗办公系统、医疗信息共享系统及方法 | |
US10296098B2 (en) | Input/output device, input/output program, and input/output method | |
CN112634366A (zh) | 位置信息的生成方法、相关装置及计算机程序产品 | |
JP2014006674A (ja) | 画像処理装置及びその制御方法、プログラム | |
WO2020141446A1 (en) | Systems and/or methods for parallax correction in large area transparent touch interfaces | |
CN115379196A (zh) | 一种投影方法及电子设备 | |
CN115578432A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113434620A (zh) | 显示方法、装置、设备、存储介质以及计算机程序产品 | |
CN112473138A (zh) | 游戏的显示控制方法及装置、可读存储介质、电子设备 | |
JP7464933B2 (ja) | 表示装置及び表示システム | |
KR102683669B1 (ko) | 메타버스 환경에서 전시 서비스를 제공하는 서버 및 그 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |