WO2017066968A1 - 三维空间环境下的3d立体投影系统及其投影方法 - Google Patents

三维空间环境下的3d立体投影系统及其投影方法 Download PDF

Info

Publication number
WO2017066968A1
WO2017066968A1 PCT/CN2015/092581 CN2015092581W WO2017066968A1 WO 2017066968 A1 WO2017066968 A1 WO 2017066968A1 CN 2015092581 W CN2015092581 W CN 2015092581W WO 2017066968 A1 WO2017066968 A1 WO 2017066968A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
image
faces
parallax
unit
Prior art date
Application number
PCT/CN2015/092581
Other languages
English (en)
French (fr)
Inventor
那庆林
麦浩晃
黄彦
Original Assignee
神画科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 神画科技(深圳)有限公司 filed Critical 神画科技(深圳)有限公司
Priority to PCT/CN2015/092581 priority Critical patent/WO2017066968A1/zh
Publication of WO2017066968A1 publication Critical patent/WO2017066968A1/zh

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Definitions

  • the present invention relates to projection systems, and more particularly to a 3D stereoscopic projection system and a projection method thereof in a three-dimensional space environment.
  • the projection system in the related art generally places a 2D or 3D image on a plane, does not have a method of forming a 3D projection effect in a three-dimensional space composed of a plurality of planes or curved surfaces, and has no function of automatically processing a graphic.
  • the function is simple and can't satisfy the diversified needs of customers.
  • the technical problem to be solved by the present invention is to provide a 3D stereoscopic projection system in a three-dimensional space environment and a projection method thereof.
  • the technical solution adopted by the present invention to solve the technical problem is: constructing a 3D stereoscopic projection method in a three-dimensional space environment, wherein two or more projection images are placed on the projection display area And the at least two faces are intersecting faces of less than 180 degrees with respect to the viewer; the method comprises the steps of:
  • the projection application screen for mapping to each face is at least partially a 3D image, wherein at least a part of the picture has a parallax of negative parallax and/or positive parallax.
  • the 3D image in the projection application screen includes at least one 3D overall image to be mapped on the at least two sides.
  • the 3D overall image in the projection application screen displays a part on each of the faces Framing the picture, and the partial disparity of the 3D overall image in the projection application picture is negative parallax and/or positive parallax
  • the 3D overall image in the projection application screen displays a part of the screen on each of the faces
  • the parallax of the 3D overall image is a gradual state
  • the gradual state includes zero parallax positive parallax and/or A combined gradient state between negative parallaxes.
  • the 3D overall image in the projection application screen is continuously mapped on the respective faces, and a part of the continuous motion is sequentially displayed on each face, and the image parallax of at least one of the faces is negative parallax and / or positive parallax.
  • the 3D overall image in the projection application screen is continuously mapped on the respective surfaces, and a part of the continuous motion is sequentially displayed on each surface;
  • the parallax of the continuous images on the respective faces is a gradual state, and the gradual state includes any combination gradation state between the three states of the positive parallax, the zero parallax, and the negative parallax.
  • At least part of the picture of the projection application screen is zero parallax.
  • each of the at least two faces includes a base surface on which the projected image is mapped, and one or more additional faces; each of the additional faces is one of the following three-dimensional objects : A combination of one or more of a cube, a cuboid, a pyramid, a cone, a sphere, a cylinder, or a table.
  • the method further includes: a spatial recognition step: the step of performing three-dimensional spatial information collection on the projection space where the projection display area is located, to find at least two sides of the intersection of the projection display area in the projection space And performing three-dimensional spatial information reconstruction;
  • a projected image matching at least two faces of the region is further mapped by the projection unit to a projected display region formed by the at least two faces.
  • the method further includes: a spatial recognition step: the step of: separately identifying the incident angle of the projection unit to the incident angle of the at least two faces of the projection display area in the projection space, and performing the three-dimensional space Information reconstruction
  • Projection The unit performs mapping and forms a projected image that matches the at least two faces within the projected display area formed by the at least two faces.
  • a projection application screen matching the at least two intersecting faces is selected from a preset projection application screen in an automatic or manual manner.
  • the present invention also constructs a 3D stereoscopic projection system in a three-dimensional space environment, including:
  • a projection unit configured to project an image, wherein the projection display area formed by the projection unit has two or more faces on which the projected image is mapped, wherein at least two faces are relative to the viewer Intersecting surfaces with intersecting angles less than 180 degrees;
  • a picture storage unit configured to store a preset projection application screen corresponding to each of the faces
  • a 3D image processing unit configured to generate a 3D image projection screen by using the preset projection application screen, wherein the 3D image projection screen has at least part of the screen whose parallax is negative parallax and/or positive parallax; and, [ a projection image processing unit, configured to process the 3D image projection screen to form a screen for performing pattern correction based on the respective surfaces, and then mapped by the projection unit, and formed in the projection display area A 3D projection image having the desired effect matched to the respective faces.
  • the interactive control unit comprises a remote control based on wireless communication, and the remote controller transmits an interactive control signal by using 2.4G, Bluetooth, or WIFI communication;
  • the remote controller includes a mobile phone, a tablet computer, and a game controller. , or a combination of one or more of the air mice.
  • the interactive control unit includes an infrared remote-based external remote controller and an infrared monitoring lens;
  • the external remote controller may form an infrared spot in the projection display area, and the infrared monitoring lens captures The infrared light spot, the projection image processing unit displays a corresponding visible icon according to position information of the infrared light spot, and controls the visible icon through the external remote controller to implement an interactive control function
  • the interactive control unit comprises a direct touch interactive control unit, and select one of the interactive control modes from the dual monitor lens mode, the TOF sensor mode, or the structured light sensor mode.
  • the projection system further includes: [0032] a space recognition unit, configured to perform three-dimensional spatial information collection on a projection space defined by the projection unit and a projection display area thereof, to identify whether there are at least two intersecting surfaces in the projection space, and perform three-dimensional space Information reconstruction
  • the projection image processing unit processes the selected projection application screen based on the three-dimensional spatial information to form a screen for performing graphics correction based on the at least two intersecting surfaces, and then the projection The lens unit performs mapping and forms a 3D projection image having a desired effect matching the at least two intersecting faces within the projection display area.
  • the space recognition unit comprises an infrared light source, a monitoring module, and an image analysis module;
  • the infrared light source covers the projection space
  • the monitoring module monitors infrared light in the projection space
  • the image analysis module analyzes and processes the monitoring signal of the monitoring module to identify whether there are at least two intersecting surfaces in the projection space, and performs three-dimensional spatial information reconstruction.
  • the 3D stereoscopic projection system and the projection method thereof in the three-dimensional space environment embodying the present invention have the following beneficial effects:
  • the 3D image processing unit of the projection system of the present invention processes the preset projection application image to form a parallax of a partial screen.
  • 3D image projection image with negative parallax and/or positive parallax, the 3D projection image is mapped by the projection unit on the intersection surface with the angle of intersection with respect to the viewer of less than 180 degrees, so that the user can easily obtain the 3D projection image and expand the 3D image. source.
  • 1 is a schematic view showing the effect of the projection method of the projection system of the present invention in the first embodiment after being projected with the 3D glasses;
  • FIG. 2 is a schematic diagram showing the effect of the projection method of the projection system of the present invention after being projected in the second embodiment without the 3D glasses;
  • FIG. 3 is a schematic view showing the effect of the effect diagram of FIG. 2 after the 3D glasses are worn;
  • FIG. 4 is a diagram showing the effect of the projection method of the projection system of the present invention in the third embodiment without the 3D glasses being projected.
  • FIG. 5 is a schematic view showing the effect of the effect diagram of FIG. 4 after the 3D glasses are worn;
  • FIG. 6 is a schematic diagram showing the effect of interaction between the interactive manipulation unit of the projection system of the present invention and the projected picture.
  • a projection system in a preferred embodiment of the present invention includes a projection unit 1 for projecting an image, and two or more projection images are provided in the projection display area S formed by the projection unit 1. a face mapped thereon, wherein at least two faces are intersecting faces with an angle of intersection of less than 180 degrees with respect to the viewer; a picture storage unit for storing a preset projection application picture corresponding to each face; 3D image processing unit And generating a 3D image projection screen for the preset projection application screen, wherein the 3D image projection screen has at least part of the screen whose parallax is negative parallax (negative parallax: refers to a projection surface of the projection image protruding from the projection display area) and/or Positive parallax (positive parallax: refers to the projection image extending to the projection surface of the projection display area); projection image processing unit for processing the 3D image projection image to form a picture based on each surface for image correction, and then by the projection unit 1 mapping
  • Each of the at least two faces includes a base face, one or more additional faces on which the projected image is mapped.
  • Each additional face may be one of the following solid objects: a combination of one or more of a cube, a cuboid, a pyramid, a cone, a sphere, a cylinder, or a table.
  • the 3D image processing unit After the 3D image processing unit generates the 3D image projection image on the preset projection application screen, the 3D projection image may be projected and mapped on at least two sides of the projection display area S, and the preset projection application screen may be a 2D image, and the user is allowed to By playing 2D graphics through the projection system, you can see the 3D projection image, which expands the source of the 3D image and enhances the user's visual experience.
  • the method for the projection system to perform 3D stereoscopic projection in a three-dimensional space environment comprises the following steps:
  • the 3D image processing unit will need to perform spatial position information according to each face in the projection display area S.
  • the projection application screen of the projection is preset, and the projection to the projection display area s is pre-processed.
  • S2 Processing a preset projection application screen to form a screen for performing image correction based on each surface, and then mapping by the projection unit 1 to form an expected projection image in the projection display area S.
  • At least part of the projection application screens mapped to the respective faces are 3D images, wherein at least some of the images have a parallax of negative parallax and/or positive parallax, thereby enabling the viewer to bring the 3D glasses. See the 3D projection image.
  • the preset projection application screen includes a plurality of independent image features, as shown in FIG. 1, the sky and the moon and moon Al projected to the ceiling S2. , and the cloud A2 and tree A3 of the wall SI.
  • the star moon A1 is a positive parallax, and the visual display effect is located above the ceiling S2; while the cloud A2 is designed as a negative parallax, and the visual display effect is floating outside the wall S1, allowing the viewer to feel the clouds floating in the air.
  • the parallax of tree A3 can be set to zero.
  • the 3D image in the projection application picture includes one or more 3D whole images A to be mapped on at least two faces, so that the user can see the visual effect of the coherence of the images on at least two faces.
  • the 3D overall image A in the projection application screen displays a part of the screen on each side, and the partial parallax of the 3D overall image A in the application image is projected. Negative parallax and / or positive parallax.
  • the 3D overall graphic is a continuous overall feature, as shown in FIG. 2, the preset projection application picture is observed without the 3D glasses, and is projected onto the ceiling S2 and projected onto the wall S1.
  • the two small parallelograms A4 at the angle of the upper one, the parallax of the two small parallelograms A4 with the included angle are in a gradual state, from the top to the bottom, the positive parallax, the zero parallax, the negative parallax, the zero parallax, and the positive parallax.
  • the two small parallelograms A4 with the angle of the intersection see a 3D overall image of the large parallelogram A5 in the user with the 3D glasses.
  • the two ends of the large parallelogram A5 are respectively positive parallax, which are respectively imaged in the ceiling S2 and the wall S 1 ; the portion between the angle between the ceiling S2 and the wall S 1 is negative parallax, and is imaged on the ceiling S2 and the wall S1
  • the angle between the two spaces; the intersection of the two intersections with the ceiling S2 and the wall S1 is zero parallax, and the view is on the ceiling S2 and the wall S1.
  • At least part of the image of the projection application screen is zero parallax, and 2D can be seen on the projected image. 3D's diverse image effects, while also reducing the visual fatigue of the viewer.
  • the 3D overall image A in the projection application screen displays a part of the screen ⁇ on each surface, and the gradation state of the parallax of the 3D overall image A includes zero parallax and positive parallax and/or A variety of combinations of negative parallax states to meet a variety of visual effects.
  • the 3D overall image A is a dynamic 3D effect representing a continuous motion
  • the 3D overall image A in the projection application screen is continuously mapped to each surface, and A part of the continuous motion is sequentially displayed on each face.
  • the action ⁇ is continuously displayed, and at least the image parallax of one of the faces is negative parallax or positive parallax, and both positive parallax and negative parallax may be used.
  • the star A6 contained in the preset projection application screen observes the movement path of the line on the wall S1 and the ceiling S2 without the 3D glasses.
  • the effect is that the star A6 becomes falling from the sky, across the ceiling S2, and the ceiling S2 and the wall S1 are at the corners. The space, then into the wall Sl.
  • parallax of the crossed star A6 image is a positive parallax, it is displayed inside the ceiling S2 or the wall S1; when the parallax of the image such as the crossed star A6 is a negative parallax, it is displayed on the ceiling S2 and Within the angle of the wall S1; when the parallax of the image such as the crossed star A6 is zero, it is displayed on the ceiling S2 or the wall S1.
  • the parallax of the continuous image on each surface is a gradual state, and the gradual state includes zero parallax and positive parallax and/or negative parallax. Multiple combinations of gradient states.
  • At least part of the image of the projection application screen is zero parallax, and 2D can be seen on the projected image.
  • the partial display of the continuous display may continuously change between the surface of the at least two faces of the ceiling S2, the wall S1, and the like, and the space outside the surface, the surface, and the like.
  • the projection system further includes a space recognition unit 2, and the space recognition unit 2 is configured to perform three-dimensional spatial information collection on the projection space defined by the projection unit 1 and the projection display area S thereof, to identify the projection space. Whether there are at least two intersecting faces and performing three-dimensional spatial information reconstruction.
  • the space recognition unit 2 includes an infrared light source, a monitoring module, and an image analysis module.
  • the infrared light source covers the projection space; the monitoring module monitors the infrared light in the projection space; the image analysis module monitors the mode
  • the monitoring signal of the block is analyzed and processed to identify whether there are at least two intersecting faces in the projection space, and the three-dimensional spatial information is reconstructed.
  • the projection image processing unit processes the selected projection application screen based on the three-dimensional spatial information to form a screen for performing pattern correction based on the at least two intersecting surfaces, and then mapping by the projection lens unit, and in the projection display area A 3D projection image having a desired effect matching at least two intersecting faces is formed in S.
  • the 3D stereoscopic projection method in the three-dimensional space environment further includes a spatial recognition step, including: [0070] performing three-dimensional spatial information collection on the projection space where the projection display area S is located, so as to find that the projection space can be formed. At least two faces intersecting the display area S are projected, and three-dimensional spatial information reconstruction is performed.
  • processing the preset projection application screen in step S2 performing pattern correction based on the specific viewing angle, the three-dimensional spatial information, and the mutual relationship therebetween, and forming at least two with the projection display area S
  • the projection images matched by the planes are further mapped by the projection unit 1 to the projection display region S formed by at least two faces. After the space is recognized, a picture corresponding to a specific viewing angle can be formed to correct a more comfortable picture for the user to see, wherein the specific viewing angle can be pre-stored or re-positioned.
  • the spatial recognition step in the 3D stereoscopic projection method in a three-dimensional space environment may also include:
  • the projection rays of the projection unit 1 respectively reach an identification of an incident angle of at least two faces of the projection display region S in the projection space, and perform three-dimensional spatial information reconstruction;
  • processing the preset projection application screen in step S2 performing pattern correction based on the information of the incident angle of the projected light rays to the intersecting faces of the at least two faces, and then mapping by the projection unit 1 and at least A projection image matching at least two faces is formed in the projection display region S formed by the two faces. After the space is recognized, a screen corresponding to the incident angle of the projected light to the intersection of at least two faces can be formed, and the user can be more comfortable to see.
  • step S1 In the case where the position between the projection display area S of the projection unit 1 is appropriate, in step S1
  • the projection application screen matching at least two intersecting faces may also be selected from the preset projection application screens automatically or manually.
  • the projection system further includes an information processing unit, and can be based on the projected image
  • the interactive manipulation unit 3 cooperates with the information processing unit to realize interactive manipulation based on the projected image. Realize interactive control based on projected images, which can achieve more realistic interaction with projected images such as game interface, and enhance user experience.
  • the interactive control unit 3 includes a remote controller based on wireless communication, and the remote controller transmits an interactive control signal using 2.4G, Bluetooth, or WI FI communication.
  • the remote control includes a combination of one or more of a cell phone, a tablet, a game pad, or an air mouse to effect interaction between the projected images by operation on a cell phone, tablet, game pad, or air mouse.
  • the interactive manipulation unit 3 may further include an infrared light-based external remote controller and an infrared monitoring lens.
  • the external remote controller can form an infrared spot in the projection display area S, and the infrared monitoring lens captures the infrared spot.
  • the projection image processing unit displays the corresponding visible icon according to the position information of the infrared spot, and controls the visible icon through an external remote control to realize the interactive control function. .
  • the projection unit 1 is projected onto a projection display area S formed by the ceiling S2 and the wall surface S1.
  • the 3D projection image includes a spider web A7 and a spider A8, and the spider web A7 is carried by the user with the above projection method.
  • the glasses are seen to be connected between the ceiling S2 and the wall S1.
  • the spider A8 is seen by the user with the 3D glasses using the above projection method.
  • the spider A9 is connected to the ceiling S2 and suspended in the air.
  • the interactive control unit 3 includes an infrared light-based pistol-like external remote controller, and the external remote controller forms an infrared spot in the projection display area S, and the infrared spot is aimed at the spider A8 and then shoots the spider A8, and the 3D projection.
  • the spider A8 on the image interacts.
  • a variety of interaction modes can also be formed.
  • the interactive manipulation unit 3 may also include a direct touch interactive manipulation unit 3, and select one of the interactive operation modes from the dual monitor lens mode, the TOF sensor mode, or the structured light sensor mode.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

一种三维空间环境下的3D立体投影系统及其投影方法,投影系统包括:投影单元(1),用于投影图像,所述投影单元(1)所形成的投影显示区域(S)内有两个或多个可供投影图像映射于其上的面,其中至少两个面是相对于观看者的相交角度小于180度的相交面;画面存储单元,用于存储与所述各个面对应的预设投影应用画面;3D图像处理单元,用于将预设的所述投影应用画面生成3D图像投影画面,其中所述3D图像投影画面至少有部分画面其视差为负视差和/或正视差;以及,投影图像处理单元,用于对所述3D图像投影画面进行处理,以形成基于所述各个面进行图形校正的画面,再由所述投影单元(1)进行映射,并在所述投影显示区域(S)内形成与所述各个面匹配的具有预期效果的3D投影图像,让用户能轻松获得3D投影图形。

Description

三维空间环境下的 3D立体投影系统及其投影方法 技术领域
[0001] 本发明涉及投影系统, 更具体地说, 涉及一种三维空间环境下的 3D立体投影系 统及其投影方法。
背景技术
[0002] 相关技术中的投影系统通常是将 2D或 3D图像投放到平面, 没有在由多个平面 或曲面构成的三维空间内形成 3D投影效果的方法, 更没有自动对图形进行处理 的功能, 功能简单, 满足不了客户的多样化需求。
技术问题
[0003] 本发明要解决的技术问题在于, 提供一种三维空间环境下的 3D立体投影系统及 其投影方法。
问题的解决方案
技术解决方案
[0004] 本发明解决其技术问题所采用的技术方案是: 构造一种三维空间环境下的 3D立 体投影方法, 其中, 在投影显示区域内有两个或多个可供投影图像落于其上的 面, 且至少两个面是相对于观看者的相交角度小于 180度的相交面; 该方法包括 以下步骤:
[0005] Sl、 预设与所述各个面对应的投影应用画面;
[0006] S2、 对预设的所述投影应用画面进行处理, 以形成基于所述各个面进行图形校 正的画面, 再由投影单元进行映射, 并在所述投影显示区域内形成预期的投影 画面;
[0007] 用于映射于各个面的所述投影应用画面至少有部分为 3D图像, 其中至少有部分 画面的视差为负视差和 /或正视差。
[0008] 优选地, 所述投影应用画面中的 3D图像包含至少一个需映射于所述至少两个面 上的 3D整体图像。
[0009] 优选地, 所述投影应用画面中的 3D整体图像同吋在所述各个面上分别显示一部 分画面, 且所述投影应用画面中的 3D整体图像的部分视差为负视差和 /或正视差
[0010] 优选地, 所述投影应用画面中的 3D整体图像同吋在所述各个面上分别显示一部 分画面, 所述 3D整体图像的视差为渐变状态, 渐变状态包括零视差正视差和 /或 负视差之间的组合渐变状态。
[0011] 优选地, 所述投影应用画面中的 3D整体图像连续映射于所述各个面上、 并在各 个面上依次显示连续动作的一部分, 且至少在其中一个面的图像视差为负视差 和 /或正视差。
[0012] 优选地, 所述投影应用画面中的 3D整体图像连续映射于所述各个面上、 并在各 个面上依次显示连续动作的一部分;
[0013] 其在各个面上的连续图像的视差为渐变状态, 渐变状态包括正视差、 零视差、 负视差三种状态之间的任意组合渐变状态。
[0014] 优选地, 所述投影应用画面至少有部分画面为零视差。
[0015] 优选地, 所述至少两个面各个面中包括可供投影图像映射于其上的一个基础面 、 一个或多个附加面; 每个所述附加面是下列立体物体中的一个面: 正方体、 长方体、 棱锥体、 圆锥体、 球体、 圆柱体、 或台体中一种或多种的组合。
[0016] 优选地, 还包括空间识别步骤: 该步骤包括对所述投影显示区域所在投影空间 进行三维空间信息采集, 以找出所述投影空间内可形成投影显示区域的相交的 至少两个面, 并进行三维空间信息重构;
[0017] 在所述步骤 S2中对预设的所述投影应用画面进行处理吋, 基于特定观看角度、 所述三维空间信息、 以及它们之间的相互关系进行图形校正, 形成与可形成投 影显示区域的至少两个面匹配的投影图像, 再由所述投影单元向所述至少两个 面形成的投影显示区域进行映射。
[0018] 优选地, 还包括空间识别步骤: 该步骤包括对所述投影单元的投影光线分别到 投影空间内可形成投影显示区域的所述至少两个面的入射角度的识别, 并进行 三维空间信息重构;
[0019] 在所述步骤 S2中对预设的所述投影应用画面进行处理吋, 基于所述投影光线分 别到所述至少两个面的相交面的入射角度的信息进行图形校正, 再由所述投影 单元进行映射, 并在所述至少两个面形成的投影显示区域内形成与所述至少两 个面匹配的投影图像。
[0020] 优选地, 在所述步骤 S1中, 以自动或手动方式从预设的投影应用画面中选择与 所述至少两个相交面匹配的投影应用画面。
[0021] 本发明还构造一种三维空间环境下的 3D立体投影系统, 包括:
[0022] 投影单元, 用于投影图像, 所述投影单元所形成的投影显示区域内有两个或多 个可供投影图像映射于其上的面, 其中至少两个面是相对于观看者的相交角度 小于 180度的相交面;
[0023] 画面存储单元, 用于存储与所述各个面对应的预设投影应用画面;
[0024] 3D图像处理单元, 用于将预设的所述投影应用画面生成 3D图像投影画面, 其 中所述 3D图像投影画面至少有部分画面其视差为负视差和 /或正视差; 以及, [0025] 投影图像处理单元, 用于对所述 3D图像投影画面进行处理, 以形成基于所述各 个面进行图形校正的画面, 再由所述投影单元进行映射, 并在所述投影显示区 域内形成与所述各个面匹配的具有预期效果的 3D投影图像。
[0026] 优选地, 还包括信息处理单元、 以及可基于所述投影图像进行互动操控的互动 操控单元, 所述互动操控单元与所述信息处理单元配合工作以实现基于所述投 影图像的互动操控。
[0027] 优选地, 所述互动操控单元包括基于无线通信的遥控器, 所述遥控器使用 2.4G 、 蓝牙、 或者 WIFI通信方式传输互动操控信号; 所述遥控器包括手机、 平板电 脑、 游戏手柄、 或空中鼠标中一种或多种的组合。
[0028] 优选地, 所述互动操控单元包括基于红外光的外部遥控器及红外监控镜头; [0029] 所述外部遥控器可在所述投影显示区域内形成红外光斑, 所述红外监控镜头捕 捉所述红外光斑, 所述投影图像处理单元根据所述红外光斑的位置信息显示相 应的可见图标, 并通过所述外部遥控器控制所述可见图标以实现互动操控功能
[0030] 优选地, 所述互动操控单元包括直接触控式互动操控单元, 并从双监控镜头模 式、 TOF传感器模式、 或者结构光传感器模式选择其中的一种互动操控模式。
[0031] 优选地, 该投影系统中还包括: [0032] 空间识别单元, 用于对由所述投影单元及其投影显示区域所限定的投影空间进 行三维空间信息采集, 以识别所述投影空间内是否有至少两个相交面, 并进行 三维空间信息重构;
[0033] 其中, 所述投影图像处理单元基于所述三维空间信息对所选择的所述投影应用 画面进行处理, 以形成基于所述至少两个相交面进行图形校正的画面, 再由所 述投影镜头单元进行映射, 并在所述投影显示区域内形成与所述至少两个相交 面匹配的具有预期效果的 3D投影图像。
[0034] 优选地, 所述空间识别单元包括红外光源、 监控模块、 以及图像分析模块;
[0035] 所述红外光源覆盖所述投影空间;
[0036] 所述监控模块对所述投影空间内的红外光进行监控;
[0037] 所述图像分析模块对所述监控模块的监控信号进行分析处理, 以识别所述投影 空间内是否有至少两个相交面, 并进行三维空间信息重构。
发明的有益效果
有益效果
[0038] 实施本发明的三维空间环境下的 3D立体投影系统及其投影方法, 具有以下有益 效果: 本发明的投影系统的 3D图像处理单元将预设的投影应用画面处理形成部 分画面的视差为负视差和 /或正视差的 3D图像投影画面, 由投影单元在相对于观 看者的相交角度小于 180度的相交面上映射出 3D投影图像, 让用户能轻松获得 3D 投影图形, 扩展了 3D图像的来源。
对附图的简要说明
附图说明
[0039] 下面将结合附图及实施例对本发明作进一步说明, 附图中:
[0040] 图 1是本发明投影系统的投影方法在第一实施例中投影后带 3D眼镜看到的效果 示意图;
[0041] 图 2是本发明投影系统的投影方法在第二实施例中投影后未带 3D眼镜看到的效 果示意图;
[0042] 图 3是图 2中的效果示意图在带上 3D眼镜后看到的效果示意图;
[0043] 图 4是本发明投影系统的投影方法在第三实施例中投影后未带 3D眼镜看到的效 果示意图;
[0044] 图 5是图 4中的效果示意图在带上 3D眼镜后看到的效果示意图;
[0045] 图 6是本发明投影系统的互动操控单元与投影的画面进行互动的效果示意图。
实施该发明的最佳实施例
本发明的最佳实施方式
[0046] 为了对本发明的技术特征、 目的和效果有更加清楚的理解, 现对照附图详细说 明本发明的具体实施方式。
[0047] 如图 1所示, 本发明一个优选实施例中的投影系统包括投影单元 1, 用于投影图 像, 投影单元 1所形成的投影显示区域 S内有两个或多个可供投影图像映射于其 上的面, 其中至少两个面是相对于观看者的相交角度小于 180度的相交面; 画面 存储单元, 用于存储与各个面对应的预设投影应用画面; 3D图像处理单元, 用 于将预设的投影应用画面生成 3D图像投影画面, 其中 3D图像投影画面至少有部 分画面其视差为负视差 (负视差: 指投影图像凸出于投影显示区域的投影面) 和 /或正视差 (正视差: 指投影图像延伸至投影显示区域的投影面以内) ; 投影 图像处理单元, 用于对 3D图像投影画面进行处理, 以形成基于各个面进行图形 校正的画面, 再由投影单元 1进行映射, 并在投影显示区域 S内形成与各个面匹 配的具有预期效果的 3D投影图像。
[0048] 至少两个面各个面中包括可供投影图像映射于其上的一个基础面、 一个或多个 附加面。 每个附加面可以是下列立体物体中的一个面: 正方体、 长方体、 棱锥 体、 圆锥体、 球体、 圆柱体、 或台体中一种或多种的组合。
[0049] 对于普通用户, 为了简单易得, 投影显示区域 S的至少两个面通常为墙面 Sl、 天花板 S2及地面等, 在室内找个角落就可以观看。 3D图像处理单元对预设的投 影应用画面生成 3D图像投影画面后, 可在投影显示区域 S的至少两个面上投影映 射出 3D投影图像, 预设的投影应用画面可为 2D图像, 让用户通过投影系统播放 2 D图形就能看到 3D投影图像, 扩展了 3D图像的来源, 提升了用户的视觉体验。
[0050] 对应的, 投影系统在三维空间环境下进行 3D立体投影的方法包括以下步骤:
[0051] Sl、 预设与各个面对应的投影应用画面;
[0052] 3D图像处理单元根据投影显示区域 S内的各个面的空间位置信息, 将需要进行 投影的投影应用画面进行预设, 为投影到投影显示区域 s做先期处理。
[0053] S2、 对预设的投影应用画面进行处理, 以形成基于各个面进行图形校正的画面 , 再由投影单元 1进行映射, 并在投影显示区域 S内形成预期的投影画面。
[0054] 进一步地, 用于映射于各个面的投影应用画面, 至少有部分为 3D图像, 其中至 少有部分画面的视差为负视差和 /或正视差, 进而能让观看者带上 3D眼镜能看到 3D投影图像。
[0055] 在本发明投影系统的投影方法第一实施例中, 预设的投影应用画面中包含有多 个独立的图像特征, 如图 1中所示, 投影到天花板 S2的天空和星月 Al, 和墙面 SI 的云朵 A2和树 A3。 为了让各独立的图像特征之间的相对位置产生立体感觉, 则 需分别对投射在不同投影面的物体进行不同的 3D效果处理。 其中星月 A1为正视 差, 视觉显示效果为位于天花板 S2之上; 而云朵 A2则设计为负视差, 视觉显示 效果为漂浮于墙面 S1之外, 让观赏者感觉云朵飘在空中。 另外, 树 A3的视差可 以设为零。
[0056] 优选地, 投影应用画面中的 3D图像包含一个或多个需映射于至少两个面上的 3 D整体图像 A, 让用户看到至少两个面上的画面连贯起来的视觉效果。
[0057] 在本发明投影系统的投影方法第二实施例中, 投影应用画面中的 3D整体图像 A 同吋在各个面上分别显示一部分画面, 且投影应用画面中的 3D整体图像 A的部分 视差为负视差和 /或正视差。
[0058] 进一步地, 3D整体图形是一个连续的整体特征, 如图 2中所示, 其预设的投影 应用画面在不带 3D眼镜吋观察到的是投影到天花板 S2和投影到墙面 S1上的两个 呈夹角的小平行四边形 A4, 呈夹角的两个小平行四边形 A4的视差为渐变状态, 从上向下依次为正视差, 零视差, 负视差, 零视差, 正视差。 结合图 3所示, 依 次设置渐变视差后, 两个呈夹角的小平行四边形 A4在用户带 3D眼镜就看到一个 大平行四边形 A5的 3D整体图像八。 大平行四边形 A5的两端分别为正视差, 分别 成像在天花板 S2和墙面 S 1里面; 天花板 S2和墙面 S 1的夹角之间的部分为负视差 , 成像在天花板 S2和墙面 S1之间的夹角空间; 与天花板 S2和墙面 S1交叉的两交 线位置为零视差, 看到的则在天花板 S2和墙面 S1上。
[0059] 优选地, 投影应用画面至少有部分画面为零视差, 可以在投影图像上看到 2D、 3D多样的图像效果, 同吋还可缓解观看者视觉上疲劳。
[0060] 进一步地, 其他实施例中, 投影应用画面中的 3D整体图像 A同吋在各个面上分 别显示一部分画面吋, 3D整体图像 A的视差的渐变状态包括零视差与正视差和 / 或负视差之间的多种组合渐变状态, 满足多样的视觉效果。
[0061] 在本发明投影系统的投影方法第三实施例中, 当 3D整体图像 A为表现连续动作 的动态 3D效果吋, 投影应用画面中的 3D整体图像 A连续映射于各个面上、 并在 各个面上依次显示连续动作的一部分。
[0062] 连续地显示动作吋, 且至少在其中一个面的图像视差为负视差或正视差, 也可 同吋有正视差和负视差两种情况。 如图 4所示, 预设的投影应用画面中含有的星 星 A6在不带 3D眼镜吋观察到的是在墙面 S1和天花板 S2上线路呈弯折夹角的运动 轨迹。 如图 5所示, 当把星星 A6的运行轨迹进行适当 3D视差处理, 带上 3D眼镜 看, 效果则是星星 A6变为从天空下落, 划过天花板 S2,天花板 S2与墙面 S1夹角部 分的空间, 然后划进墙面 Sl。 具体做法为, 当划过的星星 A6图像的视差为正视 差吋, 其显示在天花板 S2或墙面 S1里面; 当划过的星星 A6等图像的视差为负视 差吋, 其显示在天花板 S2和墙面 S1的夹角内; 当划过的星星 A6等图像的视差为 零吋, 其显示在天花板 S2或墙面 S1上。
[0063] 结合图 4、 图 5, 当连续动作为持续显示的画面吋, 其在各个面上的连续图像之 视差为渐变状态, 渐变状态包括零视差与正视差和 /或负视差之间的多种组合渐 变状态。
[0064] 优选地, 投影应用画面至少有部分画面为零视差, 可以在投影图像上看到 2D、
3D多样的图像效果, 同吋还可缓解观看者视觉上疲劳。
[0065] 在其他实施例中, 为了体现 3D效果, 连续显示的部分画面可在天花板 S2、 墙 面 S1等至少两个面的表面和表面外、 表面内等空间之间连续变化。
[0066] 进一步地, 该投影系统中还包括空间识别单元 2, 空间识别单元 2用于对由投影 单元 1及其投影显示区域 S所限定的投影空间进行三维空间信息采集, 以识别投 影空间内是否有至少两个相交面, 并进行三维空间信息重构。
[0067] 空间识别单元 2包括红外光源、 监控模块、 以及图像分析模块。 红外光源覆盖 投影空间; 监控模块对投影空间内的红外光进行监控; 图像分析模块对监控模 块的监控信号进行分析处理, 以识别投影空间内是否有至少两个相交面, 并进 行三维空间信息重构。
[0068] 其中, 投影图像处理单元基于三维空间信息对所选择的投影应用画面进行处理 , 以形成基于至少两个相交面进行图形校正的画面, 再由投影镜头单元进行映 射, 并在投影显示区域 S内形成与至少两个相交面匹配的具有预期效果的 3D投影 图像。
[0069] 对应的, 三维空间环境下的 3D立体投影方法中还还包括空间识别步骤, 包括: [0070] 对投影显示区域 S所在投影空间进行三维空间信息采集, 以找出投影空间内可 形成投影显示区域 S的相交的至少两个面, 并进行三维空间信息重构。
[0071] 在步骤 S2中对预设的投影应用画面进行处理吋, 基于的特定观看角度、 三维空 间信息、 以及它们之间的相互关系进行图形校正, 形成与可形成投影显示区域 S 的至少两个面匹配的投影图像, 再由投影单元 1向至少两个面形成的投影显示区 域 S进行映射。 空间识别后, 可形成与特定观看角度对应的画面, 校正出让用户 看的更加舒适的画面, 其中, 特定观看角度可为预先存储, 也可为重新定位获 取。
[0072] 在其他实施例中, 三维空间环境下的 3D立体投影方法中的空间识别步骤也可包 括:
[0073] 对投影单元 1的投影光线分别到投影空间内可形成投影显示区域 S的至少两个面 的入射角度的识别, 并进行三维空间信息重构;
[0074] 在步骤 S2中对预设的投影应用画面进行处理吋, 基于投影光线分别到至少两个 面的相交面的入射角度的信息进行图形校正, 再由投影单元 1进行映射, 并在至 少两个面形成的投影显示区域 S内形成与至少两个面匹配的投影图像。 空间识别 后, 可形成与投影光线分别到至少两个面的相交面的入射角度对应的画面, 校 正出让用户看的更加舒适的画面。
[0075] 当然, 在投影单元 1投影显示区域 S之间的位置比较适宜的情况下, 在步骤 S1中
, 也可以以自动或手动方式从预设的投影应用画面中选择与至少两个相交面匹 配的投影应用画面。
[0076] 优选地, 如图 6所示, 投影系统还包括信息处理单元、 以及可基于投影图像进 行互动操控的互动操控单元 3, 互动操控单元 3与信息处理单元配合工作以实现 基于投影图像的互动操控。 实现基于投影图像的互动操控, 可实现与游戏界面 等投影图像之间更加逼真的互动, 提升用户的体验。
[0077] 互动操控单元 3包括基于无线通信的遥控器, 遥控器使用 2.4G、 蓝牙、 或者 WI FI通信方式传输互动操控信号。 遥控器包括手机、 平板电脑、 游戏手柄、 或空中 鼠标中一种或多种的组合, 通过对手机、 平板电脑、 游戏手柄、 或空中鼠标的 操作实现对投影图像之间的互动。
[0078] 在其他实施例中, 互动操控单元 3还可包括基于红外光的外部遥控器及红外监 控镜头。 外部遥控器可在投影显示区域 S内形成红外光斑, 红外监控镜头捕捉红 外光斑, 投影图像处理单元根据红外光斑的位置信息显示相应的可见图标, 并 通过外部遥控器控制可见图标以实现互动操控功能。
[0079] 如图 6所示, 投影单元 1投影到天花板 S2和墙面 S1形成的投影显示区域 S上, 3D 投影图像包括蜘蛛网 A7和蜘蛛 A8, 蜘蛛网 A7采用以上投影方法被用户带 3D眼镜 看到的是连接在天花板 S2和墙面 S1之间, 蜘蛛 A8采用以上投影方法被用户带 3D 眼镜看到的是通过一根蜘蛛丝 A9与天花板 S2连接吊在半空中。
[0080] 互动操控单元 3包括基于红外光的手枪状外部遥控器, 外部遥控器在投影显示 区域 S内形成红外光斑, 红外光斑对准蜘蛛 A8后向蜘蛛 A8进行枪击等动作, 与 3 D投影图像上的蜘蛛 A8等形成互动。 当然, 基于以上投影方法, 也可形成多种互 动方式。
[0081] 在一些实施例中, 互动操控单元 3也可包括直接触控式互动操控单元 3, 并从双 监控镜头模式、 TOF传感器模式、 或者结构光传感器模式选择其中的一种互动操 控模式。
[0082] 可以理解地, 上述各技术特征可以任意组合使用而不受限制。
[0083] 以上所述仅为本发明的实施例, 并非因此限制本发明的专利范围, 凡是利用本 发明说明书及附图内容所作的等效结构或等效流程变换, 或直接或间接运用在 其他相关的技术领域, 均同理包括在本发明的专利保护范围内。

Claims

权利要求书
一种三维空间环境下的 3D立体投影方法, 其特征在于, 其中, 在投 影显示区域 (S) 内有两个或多个可供投影图像落于其上的面, 且至 少两个面是相对于观看者的相交角度小于 180度的相交面; 该方法包 括以下步骤:
51、 预设与所述各个面对应的投影应用画面;
52、 对预设的所述投影应用画面进行处理, 以形成基于所述各个面进 行图形校正的画面, 再由投影单元 (1) 进行映射, 并在所述投影显 示区域 (S) 内形成预期的投影画面;
用于映射于各个面的所述投影应用画面至少有部分为 3D图像, 其中 至少有部分画面的视差为负视差和 /或正视差。
根据权利要求 1所述的三维空间环境下的 3D立体投影方法, 其特征在 于, 所述投影应用画面中的 3D图像包含至少一个需映射于所述至少 两个面上的 3D整体图像 (A) 。
根据权利要求 2所述的三维空间环境下的 3D立体投影方法, 其特征在 于, 所述投影应用画面中的 3D整体图像 (A) 同吋在所述各个面上分 别显示一部分画面, 且所述投影应用画面中的 3D整体图像 (A) 的部 分视差为负视差和 /或正视差。
根据权利要求 3所述的三维空间环境下的 3D立体投影方法, 其特征在 于, 所述投影应用画面中的 3D整体图像 (A) 同吋在所述各个面上分 别显示一部分画面, 所述 3D整体图像 (A) 的视差为渐变状态, 渐变 状态包括零视差与正视差和 /或负视差之间的组合渐变状态。
根据权利要求 2所述的三维空间环境下的 3D立体投影方法, 其特征在 于, 所述投影应用画面中的 3D整体图像 (A) 连续映射于所述各个面 上、 并在各个面上依次显示连续动作的一部分, 且至少在其中一个面 的图像视差为负视差和 /或正视差。
根据权利要求 5所述的三维空间环境下的 3D立体投影方法, 其特征在 于, 所述投影应用画面中的 3D整体图像 (A) 连续映射于所述各个面 上、 并在各个面上依次显示连续动作的一部分;
其在各个面上的连续图像的视差为渐变状态, 渐变状态包括零视差与 正视差和 /或负视差之间的组合渐变状态。
[权利要求 7] 根据权利要求 4或 6所述的三维空间环境下的 3D立体投影方法, 其特 征在于, 所述投影应用画面至少有部分画面为零视差。
[权利要求 8] 根据权利要求 1至 6任一项所述的三维空间环境下的 3D立体投影方法
, 其特征在于, 所述至少两个面各个面中包括可供投影图像映射于其 上的一个基础面、 一个或多个附加面; 每个所述附加面是下列立体物 体中的一个面: 正方体、 长方体、 棱锥体、 圆锥体、 球体、 圆柱体、 或台体中一种或多种的组合。
[权利要求 9] 根据权利要求 8所述的三维空间环境下的 3D立体投影方法, 其特征在 于, 还包括空间识别步骤: 该步骤包括对所述投影显示区域 (S) 所 在投影空间进行三维空间信息采集, 以找出所述投影空间内可形成投 影显示区域 (S) 的相交的至少两个面, 并进行三维空间信息重构; 在所述步骤 S2中对预设的所述投影应用画面进行处理吋, 基于特定观 看角度、 所述三维空间信息、 以及它们之间的相互关系进行图形校正 , 形成与可形成投影显示区域 (S) 的至少两个面匹配的投影图像, 再由所述投影单元 (1) 向所述至少两个面形成的投影显示区域 (S) 进行映射。
[权利要求 10] 根据权利要求 8所述的三维空间环境下的 3D立体投影方法, 其特征在 于, 还包括空间识别步骤: 该步骤包括对所述投影单元 (1) 的投影 光线分别到投影空间内可形成投影显示区域 (S) 的所述至少两个面 的入射角度的识别, 并进行三维空间信息重构; 在所述步骤 S2中对预设的所述投影应用画面进行处理吋, 基于所述投 影光线分别到所述至少两个面的相交面的入射角度的信息进行图形校 正, 再由所述投影单元 (1) 进行映射, 并在所述至少两个面形成的 投影显示区域 (S) 内形成与所述至少两个面匹配的投影图像。
[权利要求 11] 根据权利要求 8所述的三维空间环境下的 3D立体投影方法, 其特征在 于, 在所述步骤 SI中, 以自动或手动方式从预设的投影应用画面中选 择与所述至少两个相交面匹配的投影应用画面。
[权利要求 12] —种三维空间环境下的 3D立体投影系统, 其特征在于, 包括:
投影单元 (1) , 用于投影图像, 所述投影单元 (1) 所形成的投影显 示区域 (S) 内有两个或多个可供投影图像映射于其上的面, 其中至 少两个面是相对于观看者的相交角度小于 180度的相交面; 画面存储单元, 用于存储与所述各个面对应的预设投影应用画面; 3D图像处理单元, 用于将预设的所述投影应用画面生成 3D图像投影 画面, 其中所述 3D图像投影画面至少有部分画面其视差为负视差和 / 或正视差; 以及,
投影图像处理单元, 用于对所述 3D图像投影画面进行处理, 以形成 基于所述各个面进行图形校正的画面, 再由所述投影单元 (1) 进行 映射, 并在所述投影显示区域 (S) 内形成与所述各个面匹配的具有 预期效果的 3D投影图像。
[权利要求 13] 根据权利要求 12所述的三维空间环境下的 3D立体投影系统, 其特征 在于, 还包括信息处理单元、 以及可基于所述投影图像进行互动操控 的互动操控单元 (3) , 所述互动操控单元 (3) 与所述信息处理单元 配合工作以实现基于所述投影图像的互动操控。
[权利要求 14] 根据权利要求 13所述的三维空间环境下的 3D立体投影系统, 其特征 在于, 所述互动操控单元 (3) 包括基于无线通信的遥控器, 所述遥 控器使用 2.4G、 蓝牙、 或者 WIFI通信方式传输互动操控信号; 所述 遥控器包括手机、 平板电脑、 游戏手柄、 或空中鼠标中一种或多种的 组合。
[权利要求 15] 根据权利要求 13所述的三维空间环境下的 3D立体投影系统, 其特征 在于, 所述互动操控单元 (3) 包括基于红外光的外部遥控器及红外 监控镜头;
所述外部遥控器可在所述投影显示区域 (S) 内形成红外光斑, 所述 红外监控镜头捕捉所述红外光斑, 所述投影图像处理单元根据所述红 外光斑的位置信息显示相应的可见图标, 并通过所述外部遥控器控制 所述可见图标以实现互动操控功能。
[权利要求 16] 根据权利要求 13所述的三维空间环境下的 3D立体投影系统, 其特征 在于, 所述互动操控单元 (3) 包括直接触控式互动操控单元 (3) , 并从双监控镜头模式、 TOF传感器模式、 或者结构光传感器模式选择 其中的一种互动操控模式。
[权利要求 17] 根据权利要求 12至 16任一项所述的三维空间环境下的 3D立体投影系 统, 其特征在于, 该投影系统中还包括:
空间识别单元 (2) , 用于对由所述投影单元 (1) 及其投影显示区域 (S) 所限定的投影空间进行三维空间信息采集, 以识别所述投影空 间内是否有至少两个相交面, 并进行三维空间信息重构;
其中, 所述投影图像处理单元基于所述三维空间信息对所选择的所述 投影应用画面进行处理, 以形成基于所述至少两个相交面进行图形校 正的画面, 再由所述投影镜头单元进行映射, 并在所述投影显示区域 (S) 内形成与所述至少两个相交面匹配的具有预期效果的 3D投影图 像。
[权利要求 18] 根据权利要求 17所述的三维空间环境下的 3D立体投影系统, 其特征 在于, 所述空间识别单元 (2) 包括红外光源、 监控模块、 以及图像 分析模块;
所述红外光源覆盖所述投影空间;
所述监控模块对所述投影空间内的红外光进行监控;
所述图像分析模块对所述监控模块的监控信号进行分析处理, 以识别 所述投影空间内是否有至少两个相交面, 并进行三维空间信息重构。
PCT/CN2015/092581 2015-10-22 2015-10-22 三维空间环境下的3d立体投影系统及其投影方法 WO2017066968A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/CN2015/092581 WO2017066968A1 (zh) 2015-10-22 2015-10-22 三维空间环境下的3d立体投影系统及其投影方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2015/092581 WO2017066968A1 (zh) 2015-10-22 2015-10-22 三维空间环境下的3d立体投影系统及其投影方法

Publications (1)

Publication Number Publication Date
WO2017066968A1 true WO2017066968A1 (zh) 2017-04-27

Family

ID=58556493

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2015/092581 WO2017066968A1 (zh) 2015-10-22 2015-10-22 三维空间环境下的3d立体投影系统及其投影方法

Country Status (1)

Country Link
WO (1) WO2017066968A1 (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102497572A (zh) * 2011-09-07 2012-06-13 航天科工仿真技术有限责任公司 一种桌面式空间立体成像装置
CN102525398A (zh) * 2010-10-15 2012-07-04 尼德克株式会社 视标呈现装置
CN203324642U (zh) * 2013-05-27 2013-12-04 苏州和氏设计营造股份有限公司 裸眼3d投影显示系统
WO2015088230A1 (en) * 2013-12-09 2015-06-18 Cj Cgv Co., Ltd. Method and system for generating multi-projection images
CN105282535A (zh) * 2015-10-22 2016-01-27 神画科技(深圳)有限公司 三维空间环境下的3d立体投影系统及其投影方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102525398A (zh) * 2010-10-15 2012-07-04 尼德克株式会社 视标呈现装置
CN102497572A (zh) * 2011-09-07 2012-06-13 航天科工仿真技术有限责任公司 一种桌面式空间立体成像装置
CN203324642U (zh) * 2013-05-27 2013-12-04 苏州和氏设计营造股份有限公司 裸眼3d投影显示系统
WO2015088230A1 (en) * 2013-12-09 2015-06-18 Cj Cgv Co., Ltd. Method and system for generating multi-projection images
CN105282535A (zh) * 2015-10-22 2016-01-27 神画科技(深圳)有限公司 三维空间环境下的3d立体投影系统及其投影方法

Similar Documents

Publication Publication Date Title
JP6933727B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN113711109A (zh) 具有直通成像的头戴式显示器
US7907167B2 (en) Three dimensional horizontal perspective workstation
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
WO2018086224A1 (zh) 一种虚拟现实场景的生成方法、设备及虚拟现实系统
CN103543830B (zh) 一种人体骨骼点映射至立体显示中虚拟三维空间点的方法
CN105282535B (zh) 三维空间环境下的3d立体投影系统及其投影方法
JP2007531951A (ja) 水平遠近法ディスプレイ
WO2019028855A1 (zh) 一种虚拟显示装置、智能交互方法和云端服务器
CN107071388A (zh) 一种立体增强现实显示方法及装置
JP2015084002A (ja) ミラーディスプレイシステム、及び、その映像表示方法
JPWO2019171557A1 (ja) 画像表示システム
JP6682624B2 (ja) 画像処理装置
WO2012097556A1 (zh) 3d图标的处理方法、装置及移动终端
KR20170110920A (ko) 디스플레이 장치, 및 디스플레이 장치의 제어방법
WO2020017435A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN206639510U (zh) 基于vr交互的沙盘系统
US11178384B2 (en) Information processing system, storage medium, information processing apparatus and information processing method
WO2017066968A1 (zh) 三维空间环境下的3d立体投影系统及其投影方法
US20150237338A1 (en) Flip-up stereo viewing glasses
WO2017191703A1 (ja) 画像処理装置
WO2017054115A1 (zh) 具有增强现实效果的投影方法及系统
TWI537770B (zh) Interactive three - dimensional image display system
JP2017228141A (ja) 画像表示制御装置及びプログラム
WO2020130112A1 (ja) 所定のコンテンツを有する仮想空間を提供する方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15906486

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15906486

Country of ref document: EP

Kind code of ref document: A1