CN110930518A - 基于增强现实技术的投影方法及投影设备 - Google Patents
基于增强现实技术的投影方法及投影设备 Download PDFInfo
- Publication number
- CN110930518A CN110930518A CN201910807392.5A CN201910807392A CN110930518A CN 110930518 A CN110930518 A CN 110930518A CN 201910807392 A CN201910807392 A CN 201910807392A CN 110930518 A CN110930518 A CN 110930518A
- Authority
- CN
- China
- Prior art keywords
- projection
- information
- area
- projectable
- image information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/61—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/317—Convergence or focusing systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/54—Accessories
- G03B21/56—Projection screens
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B2206/00—Systems for exchange of information between different pieces of apparatus, e.g. for exchanging trimming information, for photo finishing
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B37/00—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
Abstract
本发明实施例涉及一种基于增强现实技术的投影方法及投影设备。应用于投影设备的方法包括:首先前期采集现实空间的图像信息,根据图像信息,构建三维虚拟空间模型,然后根据三维虚拟空间模型,确定最佳投影区域,进而将投影对象投影到最佳投影区域,实现真实世界信息和虚拟世界信息“无缝”集成,上述方法不需要用户佩戴复杂的体戴设施,提高了用户体验。
Description
【技术领域】
本发明涉及投影设备技术领域,尤其涉及一种基于增强现实技术的投影 方法及投影设备。
【背景技术】
增强现实技术是一种将真实世界信息和虚拟世界信息“无缝”集成的新 技术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息(视 觉信息,声音,味道,触觉等),通过电脑等科学技术,模拟仿真后再叠加, 将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感 官体验。真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存 在。
增强现实技术,不仅展现了真实世界的信息,而且将虚拟的信息同时显 示出来,两种信息相互补充、叠加。在视觉化的增强现实中,用户利用头盔 显示器,把真实世界与电脑图形多重合成在一起,便可以看到真实的世界围 绕着它。增强现实技术包含了多媒体、三维建模、实时视频显示及控制、多 传感器融合、实时跟踪、场景融合等新技术与新手段。增强现实提供了在一 般情况下,不同于人类可以感知的信息。
在实现本申请的过程中,申请人发现相关技术至少存在以下问题:目前 的增强现实需要比较麻烦的体戴设施,用户佩戴不方便,不敏捷,无法提供 给用户很好的体验。
【发明内容】
为了解决上述技术问题,本发明实施例提供一种无需佩戴现有体戴设施, 提高用户体验的的基于增强现实技术的投影方法及投影设备。
为解决上述技术问题,本发明实施例提供以下技术方案:一种基于增强 现实技术的投影方法,应用于投影设备,所述投影设备可投影投影对象,所 述基于增强现实技术的投影方法包括:
采集现实空间的图像信息;
根据所述图像信息,构建三维虚拟空间模型;
根据所述三维虚拟空间模型,确定最佳投影区域;
将所述投影对象投影到所述最佳投影区域。
可选地,所述根据所述图像信息,构建三维虚拟空间模型,包括:
将所述图像信息进行拼接处理,得到全景图像信息;
根据所述全景图像信息,解析出所述现实空间的三维尺寸数据;
根据所述全景图像信息和所述三维尺寸数据,构建所述三维虚拟空间模 型。
可选地,所述将所述图像信息进行拼接处理,得到全景图像信息,包括:
提取所述图像信息对应的采集时间点;
根据所述采集时间点,将所述图像信息依次顺序排列;
将相邻的两个所述图像信息的重合部分进行拼接处理,得到所述全景图 像信息。
可选地,所述根据所述三维虚拟空间模型,确定最佳投影区域,包括:
根据所述三维虚拟空间模型,确定成像区域;
检测所述成像区域,确定最佳投影区域。
可选地,所述检测所述成像区域,确定最佳投影区域,包括:
检测所述成像区域,确定可投影区域;
对所述可投影区域进行等级划分,得到不同等级的可投影区域;
根据所述投影对象和不同等级的可投影区域,确定最佳投影区域。
可选地,所述对所述可投影区域进行等级划分,得到不同等级的可投影 区域,包括:
检测所述可投影区域的尺寸信息;
根据所述尺寸信息,对所述可投影区域进行等级划分,得到不同等级的 可投影区域。
可选地,所述检测所述可投影区域的尺寸信息,包括:
利用尺寸检测区域对所述可投影区域进行检测,所述尺寸检测区域对应 一检测半径,以所述检测半径形成对应的所述尺寸检测区域;
当所述尺寸检测区域的面积小于所述可投影区域的面积时,将所述尺寸 检测区域对应的检测半径增大预设长度,继续利用增大后的所述尺寸检测区 域对所述可投影区域进行检测。
可选地,根据所述投影对象和不同等级的所述可投影区域,确定最佳投 影区域,包括
获取所述投影对象的尺寸信息和/或运动信息;
根据所述尺寸信息和/或运动信息及不同等级的所述可投影区域,确定最 佳投影区域。
可选地,所述将所述投影对象投影到所述最佳投影区域之后,还包括:
对所述投影对象进行图像校正。
可选地,所述对所述投影对象进行图像校正,包括:
获取所述投影对象对应的预设旋转信息;
根据所述预设旋转信息,生成校正旋转信息;
根据所述校正信息,对所述投影对象进行图像校正。
可选地,所述预设旋转信息包括预设旋转角度及预设旋转方向;
所述根据所述预设旋转信息,生成校正旋转信息,包括:
生成与所述预设旋转角度相同的校正旋转角度;
生成与所述预设旋转方向相反的校正旋转方向,所述校正旋转角度和所 述校正旋转方向组成所述校正旋转信息。
可选地,所述对所述投影对象进行图像校正,包括:
获取所述投影设备的预置转动信息;
根据所述预置转动信息,生成所述投影对象的画面变形信息;
根据所述画面变形信息,对所述投影对象进行图像校正。
可选地,所述将所述投影对象投影到所述最佳投影区域之后,还包括:
对所述投影设备进行自动对焦。
可选地,所述对所述投影设备进行自动对焦,包括:
根据所述三维虚拟空间模型,得到所述投影设备在所述三维虚拟空间模 型中的投影中心点与所述投影设备的距离信息;
获取所述投影设备的预置运动信息;所述预置运动信息包括预置移动方 向和预置移动距离;
根据所述距离信息和所述预置运动信息,对所述投影设备进行自动对焦。
为解决上述技术问题,本发明实施例还提供以下技术方案:一种投影设 备。所述投影设备包括:至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可 被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行, 以使所述至少一个处理器能够用于执行如上所述的基于增强现实技术的投影 方法。
与现有技术相比较,本发明实施例的提供基于增强现实技术的投影方法 可以通过前期采集现实空间的图像信息,根据所述图像信息,构建三维虚拟空 间模型,然后根据所述三维虚拟空间模型,确定最佳投影区域,进而将所述 投影对象投影到所述最佳投影区域,实现真实世界信息和虚拟世界信息“无 缝”集成,上述方法不需要用户佩戴复杂的体戴设施,提高了用户体验。
【附图说明】
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些 示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件 表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1为本发明实施例的应用环境示意图;
图2为本发明实施例提供的基于增强现实技术的投影方法的流程示意图;
图3是图2中S20的流程示意图;
图4是图3中S211的流程示意图;
图5是图2中S30的流程示意图;
图6是图5中S32的流程示意图;
图7是图6中S322的流程示意图;
图8是图2中S50其中一实施例的流程示意图;
图9是图2中S50另一实施例的流程示意图;
图10为本发明实施例提供的基于增强现实技术的投影装置的结构框图;
图11为本发明实施例提供的投影设备的结构框图。
【具体实施方式】
为了便于理解本发明,下面结合附图和具体实施例,对本发明进行更详细 的说明。需要说明的是,当元件被表述“固定于”另一个元件,它可以直接在 另一个元件上、或者其间可以存在一个或多个居中的元件。当一个元件被表述 “连接”另一个元件,它可以是直接连接到另一个元件、或者其间可以存在一 个或多个居中的元件。本说明书所使用的术语“上”、“下”、“内”、“外”、 “底部”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是 为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须 具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限 制。此外,术语“第一”、“第二”“第三”等仅用于描述目的,而不能理 解为指示或暗示相对重要性。
除非另有定义,本说明书所使用的所有的技术和科学术语与属于本发明 的技术领域的技术人员通常理解的含义相同。本说明书中在本发明的说明书 中所使用的术语只是为了描述具体的实施例的目的,不是用于限制本发明。 本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和 所有的组合。
此外,下面所描述的本发明不同实施例中所涉及的技术特征只要彼此之 间未构成冲突就可以相互结合。
本发明实施例提供了一种基于增强现实技术的投影方法,应用于投影设 备,所述投影设备可投影投影对象,所述方法可以通过前期采集现实空间的 图像信息,根据所述图像信息,构建三维虚拟空间模型,然后根据所述三维虚 拟空间模型,确定最佳投影区域,进而将所述投影对象投影到所述最佳投影 区域,实现真实世界信息和虚拟世界信息“无缝”集成,上述方法不需要用 户佩戴复杂的体戴设施,提高了用户体验。
以下举例说明所述基于增强现实技术的投影方法的应用环境。
图1是本发明实施例提供的基于增强现实技术的投影方法的应用环境的 示意图;如图1所示,所述应用场景包括投影设备10、现实空间20、投影对 象30及用户40。所述投影设备10位于所述现实空间20内,并且所述投影设 备10可将所述投影对象30投影至现实空间20,进而将虚拟的投影对象30应 用到真实世界,被用户40的感官所感知,从而达到超越现实的感官体验。
所述投影设备10内置有存储器,存储器内存储有所述投影对象30的投 影信息,所述投影信息包括投影对象30的大小、运动方向、旋转角度等等。 所述投影设备10可将所述投影对象30对应的投影信息投影至所述显示空间。 同时,所述投影设备10还可以采集现实空间20的图像信息;根据所述图像 信息,构建三维虚拟空间模型;根据所述三维虚拟空间模型,确定最佳投影区 域;将所述投影对象30投影到所述最佳投影区域。
具体地,所述投影设备10包括包括处理器、存储器、投影单元、短程无 线通信单元及网络通信单元。处理器是控制投影设备10的相应单元的处理设 备。所述处理设备还可以用于采集现实空间20的图像信息;根据所述图像信 息,构建三维虚拟空间模型;根据所述三维虚拟空间模型,确定最佳投影区域; 将所述投影对象30投影到所述最佳投影区域。存储器是存储处理器操作所需 的的数据等的存储器,所述存储器内存储有所述投影对象30的投影信息,所 述投影信息包括投影对象30的大小、运动方向、旋转角度等等。所述投影设备10可将所述投影对象30对应的投影信息投影至所述显示空间。投影单元 将存储器内存储有所述投影对象30的投影信息投影到显示空间上。该投影单 元使用光源(诸如,灯和激光器)将图像投影到显示空间的投影面上。具体地, 在使用激光源的情况下,由于通过在显示空间的投影面上进行扫描执行点状 绘制,因此可以在投影面的所有位置聚焦而不使黑色部分变亮。
在一些实施例中,所述投影设备10还包括陀螺仪传感器及加速度传感器, 通过结合陀螺仪传感器和加速度传感器的检测结果,可以得到所述投影设备 10的获取所述投影设备10的预置运动信息;所述预置运动信息包括预置移动 方向和预置移动距离。在一些实施例中,所述投影设备10还包括图像拍摄装 置,例如数字的单反摄像头,所述图像拍摄装置用于采集现实空间20的图像 信息。
所述现实空间20是指客观存在的实体空间,所述实体空间是三维空间, 具有长、宽、高三种度量。所述现实空间20中有可投影区域,例如:墙面、 地板等,所述投影设备10可将所述投影对象30投影到所述可投影区域。
图2为本发明实施例提供的基于增强现实技术的投影方法的实施例。如 图2所示,该基于增强现实技术的投影方法包括如下步骤:
S10、采集现实空间的图像信息。
具体地,可通过图像拍摄装置采集显示空间的图像信息,所述图像拍摄 装置可为数字的单反摄像头。
其中,所述现实空间是指客观存在的实体空间,所述实体空间是三维空 间,具有长、宽、高三种度量。所述现实空间中有可投影区域,例如:墙面、 地板等,所述投影设备可将所述投影对象投影到所述可投影区域。
其中,所述图像信息不一定是由所述图像拍摄装置拍摄的图像本身,也 可以是通过基于镜头特性信息施加校正以便抑制图像本身的失真而得到的校 正图像。在此,镜头特性是指表示装配于拍摄所述图像信息的摄像机的镜头 的镜头失真特性的信息。镜头特性信息可以是对应的镜头的已知的失真特性, 也可以是通过校准得到的失真特性,还可以是通过对图像信息进行图像处理 等而得到的失真特性。需要说明的是,上述镜头失真特性中不仅可以包含桶 形失真、枕形失真,还可以包含由鱼眼镜头等特殊镜头引起的失真。
S20、根据所述图像信息,构建三维虚拟空间模型。
具体地,首先将所述图像信息进行拼接处理,得到全景图像信息,进而 根据所述全景图像信息,解析出所述现实空间的三维尺寸数据,然后根据所 述图像信息和所述三维尺寸数据,构建所述三维虚拟空间模型。
S30、根据所述三维虚拟空间模型,确定最佳投影区域。
具体地,首先检测根据所述三维虚拟空间模型得到的成像区域,确定可 投影区域,然后对所述可投影区域进行等级划分,得到不同等级的可投影区 域,最终根据所述投影对象和不同等级的可投影区域,确定最佳投影区域。
S40、将所述投影对象投影到所述最佳投影区域。
具体地,所述投影设备内置有存储器,存储器内存储有所述投影对象的 投影信息,所述投影信息包括投影对象的大小、运动方向、旋转角度等等。 所述投影设备可将所述投影对象对应的投影信息投影至所述显示空间。
具体地,所述投影设备包括包括处理器、存储器、投影单元、短程无线 通信单元及网络通信单元。处理器是控制投影设备的相应单元的处理设备。 所述处理设备还可以用于采集现实空间的图像信息;根据所述图像信息,构建 三维虚拟空间模型;根据所述三维虚拟空间模型,确定最佳投影区域;将所 述投影对象投影到所述最佳投影区域。存储器是存储处理器操作所需的的数 据等的存储器,所述存储器内存储有所述投影对象的投影信息,所述投影信 息包括投影对象的大小、运动方向、旋转角度等等。所述投影设备可将所述 投影对象对应的投影信息投影至所述显示空间。投影单元将存储器内存储有 所述投影对象的投影信息投影到显示空间上。该投影单元使用光源(诸如, 灯和激光器)将图像投影到显示空间的投影面上。具体地,在使用激光源的情 况下,由于通过在显示空间的投影面上进行扫描执行点状绘制,因此可以在 投影面的所有位置聚焦而不使黑色部分变亮。
在一些实施例中,所述投影设备还包括陀螺仪传感器及加速度传感器, 通过结合陀螺仪传感器和加速度传感器的检测结果,可以得到所述投影设备 的获取所述投影设备的预置运动信息;所述预置运动信息包括预置移动方向 和预置移动距离。在一些实施例中,所述投影设备还包括图像拍摄装置,例 如数字的单反摄像头,所述图像拍摄装置用于采集现实空间的图像信息。
本发明实施例提供了一种基于增强现实技术的投影方法,所述方法可以 通过前期采集现实空间的图像信息,根据所述图像信息,构建三维虚拟空间模 型,然后根据所述三维虚拟空间模型,确定最佳投影区域,进而将所述投影 对象投影到所述最佳投影区域,实现真实世界信息和虚拟世界信息“无缝” 集成,上述方法不需要用户佩戴复杂的体戴设施,提高了用户体验。
为了更好的根据所述图像信息,构建三维虚拟空间模型,在一些实施例 中,请参阅图3,S20包括如下步骤:
S21:将所述图像信息进行拼接处理,得到全景图像信息。
具体地,所述图像拍摄装置可拍摄多个图像信息,因此需要将多个所述 图像信息进行处理,以得到所述全景图像信息。
具体地,每一个所述图像信息均对应于一个采集时间点(拍摄时间), 因此可根据所述采集时间点按照时间顺序或不同视角,将所述图像信息依次 顺序排列,然后将相邻的两个所述图像信息的重合部分进行拼接处理,得到 所述全景图像信息。
其中,所述拼接处理是利用图像拼接技术就是将数张有重叠部分的图像 (可能是不同时间、不同视角或者不同传感器获得的)拼成一幅无缝的全景图 或高分辨率图像的技术。图像配准(image alignment)和图像融合是图像拼接 的两个关键技术。图像配准是图像融合的基础,而且图像配准算法的计算量一 般非常大,因此图像拼接技术的发展很大程度上取决于图像配准技术的创新。 早期的图像配准技术主要采用点匹配法,这类方法速度慢、精度低,而且常常 需要人工选取初始匹配点,无法适应大数据量图像的融合。图像拼接的方法很 多,不同的算法步骤会有一定差异,但大致的过程是相同的。一般来说,图像拼接主要包括以下五步:1、图像信息预处理,图像信息预处理包括数字图像处 理的基本操作(如去噪、边缘提取、直方图处理等)、建立图像的匹配模板以 及对图像进行某种变换(如傅里叶变换、小波变换等)等操作。2、图像信息配 准,图像信息配准就是采用一定的匹配策略,找出待拼接图像中的模板或特征 点在参考图像中对应的位置,进而确定两幅图像之间的变换关系。3、建立图 像信息建立变换模型,图像信息建立变换模型根据模板或者图像特征之间的 对应关系,计算出数学模型中的各参数值,从而建立两幅图像的数学变换模 型。4、图像信息统一坐标变换,图像信息统一坐标变换根据建立的数学转换 模型,将待拼接图像转换到参考图像的坐标系中,完成统一坐标变换。5、图像 信息融合重构,图像信息融合重构将待拼接图像的重合区域进行融合得到拼 接重构的平滑无缝全景图像信息。
S22:根据所述全景图像信息,解析出所述现实空间的三维尺寸数据。
具体地,所述全景图像信息以独特地成像方式记录着所述现实空间的连 续视差,并将所述现实空间的场景隐藏其间。因此可以根据所述全景图像信 息进行深度提取计算和误差分析,得到所述现实空间对应的三维尺寸数据。
S23:根据所述全景图像信息和所述三维尺寸数据,构建所述三维虚拟空 间模型。
所述全景图像信息中包括多个实物图像信息,所述实物图像信息是指将 现实空间中的实物(墙壁、地面及桌椅等)进行拍摄图片而得到的实物图像 信息。然后根据实物图像信息与对应的三维尺寸数据,构建所述三维虚拟空 间模型。
为了更好的将所述图像信息进行拼接处理,得到全景图像信息,在一些 实施例中,请参阅图4,S21包括如下步骤:
S211:提取所述图像信息对应的采集时间点。
具体地,每个图像信息分别对应于一个采集时间点,所述采集时间点即 生成所述图像信息对应的拍摄时刻。例如,图像信息1对应的采集时间点为 t1,图像信息2对应的采集时间点为t2,图像信息3对应的采集时间点为t3, 图像信息4对应的采集时间点为t4。
S212:根据所述采集时间点,将所述图像信息依次顺序排列。
具体地,将所述采集时间点依照时间先后顺序进行排列,进而可将每个 所述采集时间点对应的图像信息按照时间先后顺序排列。例如,采集时间点 为t1、采集时间点为t2、采集时间点为t3及采集时间点为t4的时间先后顺 序为t4、t3、t2及t1。进而可根据时间先后顺序为t4、t3、t2及t1的每个 时间采集点对应的图形信息进行依次顺序排列为图像信息4、图像信息3、图 像信息2及图像信息1。
S213:将相邻的两个所述图像信息的重合部分进行拼接处理,得到所述 全景图像信息。
具体地,由于每两个相邻的所述图像信息均有重合部分,进而可将将相 邻的两个所述图像信息的重合部分进行拼接处理,得到所述全景图像信息。 例如,将相邻的两个图像信息4及图像信息3进行拼接处理,将相邻的两个 图像信息3及图像信息2进行拼接处理,将相邻的两个图像信息2及图像信 息1进行拼接处理,最终得到所述全景图像信息,所述全景图像信息包括图 像信息1、图像信息2、图像信息3及图像信息4。
为了根据所述三维虚拟空间模型,确定最佳投影区域,在一些实施例中, 请参阅图5,S30包括如下步骤:
S31:根据所述三维虚拟空间模型,确定成像区域。
具体地,所述三维虚拟空间模型中包括多个虚拟实物模型,多个所述虚 拟实物模块是根据实物图像信息与对应的三维尺寸数据,构建出的所述三维 虚拟实物模型。每个所述三维实物模型具有对应的尺寸信息(长度、宽度及 高度),进而可根据每个所述三维实物模型具有对应的尺寸信息确定其投影 面积,进而可根据所述投影面积的大小,确定成像区域。
S32:检测所述成像区域,确定最佳投影区域。
具体地,首先检测所述成像区域,确定可投影区域,对所述可投影区域 进行等级划分,得到不同等级的可投影区域,根据所述投影对象和不同等级 的可投影区域,确定最佳投影区域。
为了更好的根据所述检测所述成像区域,确定最佳投影区域,在一些实 施例中,请参阅图6,S32包括如下步骤:
S321:检测所述成像区域,确定可投影区域。
具体地,所述成像区域对应有长度信息,进而可根据成像区域的长度信 息得到所述成像区域的面积大小。然后根据所述成像区域的面积大小是否符 合预设投影面积,则可确定所述可投影区域。例如,所述成像区域的面积小 于预设投影面积,则所述成像区域不可作为可投影区域。又例如,所述成像 区域的面积大于或等于预设投影面积,则所述成像区域可作为可投影区域。
S322:对所述可投影区域进行等级划分,得到不同等级的可投影区域。
具体地,根据所述可投影区域的尺寸信息得到所述可投影区域的面积, 进而根据面积大小,对所述可投影区域进行等级划分,得到不同等级的可投 影区域。可以理解的是,越高等级的所述可投影区域的面积越大。
S323:根据所述投影对象和不同等级的可投影区域,确定最佳投影区域。
具体地,获取所述投影对象的尺寸信息和/或运动信息,进而根据所述尺 寸信息和/或运动信息及不同等级的所述可投影区域,确定最佳投影区域。例 如,所述投影对象的尺寸信息的长度和宽度分别为30cm及20cm,所述运动信 息中的运动距离为10cm,即可得到所述投影对象的所需的可最小可投影区域 面积为(30+10)*20=800cm2,相应地,其中不同等级的可投影区域中的可投 影区域面积大于所述最小可投影区域面积的即为最佳投影区域。例如,不同 等级的可投影区域中,第一级可投影区域的面积为300-400cm2,第二级可投影区域的面积为500-600cm2,第三级可投影区域的面积为700-800cm2,第 四级可投影区域的面积为900-1000cm2,所述不同等级的可投影区域中的第 一级可投影区域、第二级可投影区域和第三级可投影区域的面积均小于所述 最小可投影区域面积900cm2,所以第一级可投影区域、第二级可投影区域和 第三级可投影区域均不是最佳投影区域。所述不同等级的可投影区域中的第 四级可投影区域的面积900cm2大于所述最小可投影区域面积800cm2,则所 述第四级可投影区域为最佳投影区域。
为了更好的根据对所述可投影区域进行等级划分,得到不同等级的可投 影区域,在一些实施例中,请参阅图7,S322包括如下步骤:
S3221:检测所述可投影区域的尺寸信息。
S3222:根据所述尺寸信息,对所述可投影区域进行等级划分,得到不同 等级的可投影区域。
具体地,根据所述可投影区域的尺寸信息,得到可投影区域面积,根据 得到的所述可投影区域面积的大小,来确定不同等级的可投影区域。例如, 预设第一级可投影区域的面积为300-400cm2,第二级可投影区域的面积为 500-600cm2,第三级可投影区域的面积为700-800cm2,第四级可投影区域的 面积为900-1000cm2,若检测到所述可投影区域的面积的大小为600cm2,则 所述可投影区域被划分为所述第二级可投影区域。
为了更为准确的检测所述可投影区域的尺寸信息,在一些实施例中, S3221包括如下步骤:
利用尺寸检测区域对所述可投影区域进行检测,所述尺寸检测区域对应 一检测半径,以所述检测半径形成对应的所述尺寸检测区域;
当所述尺寸检测区域的面积小于所述可投影区域的面积时,将所述尺寸 检测区域对应的检测半径增大预设长度,继续利用增大后的所述尺寸检测区 域对所述可投影区域进行检测。
在一些实施例中,在将所述投影对象投影到所述最佳投影区域之后,所 述方法包括如下步骤:
S50、对所述投影对象进行图像校正。
具体地,获取所述投影对象对应的预设旋转信息,根据所述预设旋转信 息,生成校正旋转信息,根据所述校正信息,对所述投影对象进行图像校正。
为了更好的对所述投影对象进行图像校正,在一些实施例中,请参阅图8, S50包括如下步骤:
S51:获取所述投影对象对应的预设旋转信息。
其中,所述预设旋转信息包括预设旋转角度及预设旋转方向。所述投影 对象的所述预设旋转信息预存于所述投影设备的存储器内。
S53:根据所述预设旋转信息,生成校正旋转信息。
具体地,根据所述预设旋转角度及预设旋转方向,生成校正旋转信息。 所述校正旋转信息包括校正旋转角度及校正旋转方向。可以理解的是,所述 校正旋转角度和所述预设旋转角度大小相同。所述校正旋转方向与所述预设 旋转方向相反。所述根据所述预设旋转信息,生成校正旋转信息,包括:生 成与所述预设旋转角度相同的校正旋转角度;生成与所述预设旋转方向相反 的校正旋转方向,所述校正旋转角度和所述校正旋转方向组成所述校正旋转 信息。
S55:根据所述校正信息,对所述投影对象进行图像校正。
具体地,根据所述校正旋转角度和所述校正旋转方向,对所述投影对象 的旋转角度和旋转方向进行校正。
为了更好的对所述投影对象进行图像校正,在一些实施例中,请参阅图9, S50包括如下步骤:
S52:获取所述投影设备的预置转动信息。
其中,所述预置转动信息包括预置转动角度及预置转动方向。所述投影 设备的预置转动信息预存于所述投影设备的存储器内。
S54:根据所述预置转动信息,生成所述投影对象的画面变形信息。
具体地,根据所述预置转动角度及预置转动方向,生成所述投影对象的 画面变形信息。所述画面变形信息包括画面变形角度及画面变形方向。可以 理解的是,所述画面变形角度和所述预置转动角度大小相同。所述画面变形 方向与所述预置转动方向相反。
S56:根据所述画面变形信息,对所述投影对象进行图像校正。
具体地,根据所述画面变形角度及画面变形方向,对所述投影对象的旋 转角度和旋转方向进行校正。
在一些实施例中,在将所述投影对象投影到所述最佳投影区域之后,所 述方法包括如下步骤:
S60:对所述投影设备进行自动对焦。
具体地,根据所述三维虚拟空间模型,得到所述投影设备在所述三维虚 拟空间模型中的投影中心点与所述投影设备的距离信息;获取所述投影设备 的预置运动信息;所述预置运动信息包括预置移动方向和预置移动距离;根 据所述距离信息和所述预置运动信息,对所述投影设备进行自动对焦。
需要说明的是,在上述各个实施例中,上述各步骤之间并不必然存在一 定的先后顺序,本领域普通技术人员,根据本申请实施例的描述可以理解, 不同实施例中,上述各步骤可以有不同的执行顺序,亦即,可以并行执行, 亦可以交换执行等等。
作为本申请实施例的另一方面,本申请实施例提供一种基于增强现实技 术的投影装置50。请参阅图10,该基于增强现实技术的投影装置50包括: 图像信息采集模块51、三维虚拟空间模型构建模块52、最佳投影区域确定模 块53以及投影模块54。
图像信息采集模块51用于采集现实空间的图像信息。
三维虚拟空间模型构建模块52用于根据所述图像信息,构建三维虚拟空 间模型。
最佳投影区域确定模块53用于根据所述三维虚拟空间模型,确定最佳投 影区域。
投影模块54用于将所述投影对象投影到所述最佳投影区域。
因此,在本实施例中,可以通过前期采集现实空间的图像信息,根据所 述图像信息,构建三维虚拟空间模型,然后根据所述三维虚拟空间模型,确定 最佳投影区域,进而将所述投影对象投影到所述最佳投影区域,实现真实世 界信息和虚拟世界信息“无缝”集成,上述方法不需要用户佩戴复杂的体戴 设施,提高了用户体验。
需要说明的是,上述基于增强现实技术的投影装置可执行本发明实施例 所提供的基于增强现实技术的投影方法,具备执行方法相应的功能模块和有 益效果。未在基于增强现实技术的投影装置实施例中详尽描述的技术细节, 可参见本发明实施例所提供的基于增强现实技术的投影方法。
图11为本发明实施例提供的投影设备100的结构框图。该投影设备100 可以用于实现所述主控芯片中的全部或者部分功能模块的功能。如图11所示, 该投影设备100可以包括:处理器110、存储器120以及通信模块130。
所述处理器110、存储器120以及通信模块130之间通过总线的方式,建 立任意两者之间的通信连接。
处理器110可以为任何类型,具备一个或者多个处理核心的处理器110。 其可以执行单线程或者多线程的操作,用于解析指令以执行获取数据、执行 逻辑运算功能以及下发运算处理结果等操作。
存储器120作为一种非暂态计算机可读存储介质,可用于存储非暂态软 件程序、非暂态性计算机可执行程序以及模块,如本发明实施例中的基于增 强现实技术的投影方法对应的程序指令/模块(例如,附图10所示的图像信 息采集模块51、三维虚拟空间模型构建模块52、最佳投影区域确定模块53 以及投影模块54)。处理器110通过运行存储在存储器120中的非暂态软件 程序、指令以及模块,从而执行基于增强现实技术的投影装置50的各种功能 应用以及数据处理,即实现上述任一方法实施例中基于增强现实技术的投影 方法。
存储器120可以包括存储程序区和存储数据区,其中,存储程序区可存 储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据基于 增强现实技术的投影装置50的使用所创建的数据等。此外,存储器120可以 包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存 储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器 120可选包括相对于处理器110远程设置的存储器,这些远程存储器可以通过 网络连接至投影设备10。上述网络的实例包括但不限于互联网、企业内部网、 局域网、移动通信网及其组合。
所述存储器120存储有可被所述至少一个处理器110执行的指令;所述 至少一个处理器110用于执行所述指令,以实现上述任意方法实施例中基于 增强现实技术的投影方法,例如,执行以上描述的方法步骤10、20、30、40 等等,实现图10中的模块51-54的功能。
通信模块130是用于建立通信连接,提供物理信道的功能模块。通信模 块130以是任何类型的无线或者有线通信模块130,包括但不限于WiFi模块 或者蓝牙模块等。
进一步地,本发明实施例还提供了一种非暂态计算机可读存储介质,所 述非暂态计算机可读存储介质存储有计算机可执行指令,该计算机可执行指 令被一个或多个处理器110执行,例如,被图11中的一个处理器110执行, 可使得上述一个或多个处理器110执行上述任意方法实施例中基于增强现实 技术的投影方法,例如,执行以上描述的方法步骤10、20、30、40等等,实 现图10中的模块51-54的功能。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明 的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或 者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络 单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例 方案的目的。
通过以上的实施方式的描述,本领域普通技术人员可以清楚地了解到各 实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。 本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可 以通过计算机程序产品中的计算机程序来指令相关的硬件来完成,所述的计 算机程序可存储于一非暂态计算机可读取存储介质中,该计算机程序包括程 序指令,当所述程序指令被相关设备执行时,可使相关设备执行上述各方法 的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体 (Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM) 等。
上述产品可执行本发明实施例所提供的基于增强现实技术的投影方法, 具备执行基于增强现实技术的投影方法相应的功能模块和有益效果。未在本 实施例中详尽描述的技术细节,可参见本发明实施例所提供的基于增强现实 技术的投影方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其 限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也 可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同 方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实 施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然 可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征 进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (15)
1.一种基于增强现实技术的投影方法,应用于投影设备,所述投影设备可投影投影对象,其特征在于,包括:
采集现实空间的图像信息;
根据所述图像信息,构建三维虚拟空间模型;
根据所述三维虚拟空间模型,确定最佳投影区域;
将所述投影对象投影到所述最佳投影区域。
2.根据权利要求1所述的方法,其特征在于,所述根据所述图像信息,构建三维虚拟空间模型,包括:
将所述图像信息进行拼接处理,得到全景图像信息;
根据所述全景图像信息,解析出所述现实空间的三维尺寸数据;
根据所述全景图像信息和所述三维尺寸数据,构建所述三维虚拟空间模型。
3.根据权利要求2所述的方法,其特征在于,所述将所述图像信息进行拼接处理,得到全景图像信息,包括:
提取所述图像信息对应的采集时间点;
根据所述采集时间点,将所述图像信息依次顺序排列;
将相邻的两个所述图像信息的重合部分进行拼接处理,得到所述全景图像信息。
4.根据权利要求1所述的方法,其特征在于,所述根据所述三维虚拟空间模型,确定最佳投影区域,包括:
根据所述三维虚拟空间模型,确定成像区域;
检测所述成像区域,确定最佳投影区域。
5.根据权利要求4所述的方法,其特征在于,所述检测所述成像区域,确定最佳投影区域,包括:
检测所述成像区域,确定可投影区域;
对所述可投影区域进行等级划分,得到不同等级的可投影区域;
根据所述投影对象和不同等级的可投影区域,确定最佳投影区域。
6.根据权利要求5所述的方法,其特征在于,所述对所述可投影区域进行等级划分,得到不同等级的可投影区域,包括:
检测所述可投影区域的尺寸信息;
根据所述尺寸信息,对所述可投影区域进行等级划分,得到不同等级的可投影区域。
7.根据权利要求6所述的方法,其特征在于,所述检测所述可投影区域的尺寸信息,包括:
利用尺寸检测区域对所述可投影区域进行检测,所述尺寸检测区域对应一检测半径,以所述检测半径形成对应的所述尺寸检测区域;
当所述尺寸检测区域的面积小于所述可投影区域的面积时,将所述尺寸检测区域对应的检测半径增大预设长度,继续利用增大后的所述尺寸检测区域对所述可投影区域进行检测。
8.根据权利要求7所述的方法,其特征在于,根据所述投影对象和不同等级的所述可投影区域,确定最佳投影区域,包括
获取所述投影对象的尺寸信息和/或运动信息;
根据所述尺寸信息和/或运动信息及不同等级的所述可投影区域,确定最佳投影区域。
9.根据权利要求1-8任一项所述的方法,其特征在于,所述将所述投影对象投影到所述最佳投影区域之后,还包括:
对所述投影对象进行图像校正。
10.根据权利要求9所述的方法,其特征在于,所述对所述投影对象进行图像校正,包括:
获取所述投影对象对应的预设旋转信息;
根据所述预设旋转信息,生成校正旋转信息;
根据所述校正信息,对所述投影对象进行图像校正。
11.根据权利要求10所述的方法,其特征在于,所述预设旋转信息包括预设旋转角度及预设旋转方向;
所述根据所述预设旋转信息,生成校正旋转信息,包括:
生成与所述预设旋转角度相同的校正旋转角度;
生成与所述预设旋转方向相反的校正旋转方向,所述校正旋转角度和所述校正旋转方向组成所述校正旋转信息。
12.根据权利要求9所述的方法,其特征在于,所述对所述投影对象进行图像校正,包括:
获取所述投影设备的预置转动信息;
根据所述预置转动信息,生成所述投影对象的画面变形信息;
根据所述画面变形信息,对所述投影对象进行图像校正。
13.根据权利要求1-8任一项所述的方法,其特征在于,所述将所述投影对象投影到所述最佳投影区域之后,还包括:
对所述投影设备进行自动对焦。
14.根据权利要求13所述的方法,其特征在于,所述对所述投影设备进行自动对焦,包括:
根据所述三维虚拟空间模型,得到所述投影设备在所述三维虚拟空间模型中的投影中心点与所述投影设备的距离信息;
获取所述投影设备的预置运动信息;所述预置运动信息包括预置移动方向和预置移动距离;
根据所述距离信息和所述预置运动信息,对所述投影设备进行自动对焦。
15.一种投影设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够用于执行如权利要求1-14中任一项所述的基于增强现实技术的投影方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910807392.5A CN110930518A (zh) | 2019-08-29 | 2019-08-29 | 基于增强现实技术的投影方法及投影设备 |
PCT/CN2019/110873 WO2021035891A1 (zh) | 2019-08-29 | 2019-10-12 | 基于增强现实技术的投影方法及投影设备 |
US17/530,860 US20220078385A1 (en) | 2019-08-29 | 2021-11-19 | Projection method based on augmented reality technology and projection equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910807392.5A CN110930518A (zh) | 2019-08-29 | 2019-08-29 | 基于增强现实技术的投影方法及投影设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110930518A true CN110930518A (zh) | 2020-03-27 |
Family
ID=69848656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910807392.5A Pending CN110930518A (zh) | 2019-08-29 | 2019-08-29 | 基于增强现实技术的投影方法及投影设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220078385A1 (zh) |
CN (1) | CN110930518A (zh) |
WO (1) | WO2021035891A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111491146A (zh) * | 2020-04-08 | 2020-08-04 | 上海乂学教育科技有限公司 | 用于智能教学的互动投影系统 |
CN112702587A (zh) * | 2020-12-29 | 2021-04-23 | 广景视睿科技(深圳)有限公司 | 一种智能跟踪投影方法及系统 |
CN113259653A (zh) * | 2021-04-14 | 2021-08-13 | 广景视睿科技(深圳)有限公司 | 一种定制动向投影的方法、装置、设备及系统 |
US11942008B2 (en) | 2020-12-29 | 2024-03-26 | Iview Displays (Shenzhen) Company Ltd. | Smart tracking-based projection method and system |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210123059A (ko) * | 2020-04-02 | 2021-10-13 | 삼성전자주식회사 | 영상 투사 장치 및 영상 투사 장치의 제어 방법 |
JP7163947B2 (ja) * | 2020-10-22 | 2022-11-01 | セイコーエプソン株式会社 | 投写領域の設定支援方法、設定支援システム、及びプログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105182662A (zh) * | 2015-09-28 | 2015-12-23 | 神画科技(深圳)有限公司 | 具有增强现实效果的投影方法及系统 |
CN106445169A (zh) * | 2016-10-24 | 2017-02-22 | 福建北极光虚拟视觉展示科技有限公司 | 一种基于动态触发源的增强现实交互系统 |
CN106993174A (zh) * | 2017-05-24 | 2017-07-28 | 青岛海信宽带多媒体技术有限公司 | 一种投影设备电动对焦方法及装置 |
CN107222732A (zh) * | 2017-07-11 | 2017-09-29 | 京东方科技集团股份有限公司 | 自动投影方法以及投影机器人 |
CN109005394A (zh) * | 2018-09-19 | 2018-12-14 | 青岛海信激光显示股份有限公司 | 一种投影图像的校正方法及投影机 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4702072B2 (ja) * | 2006-01-20 | 2011-06-15 | カシオ計算機株式会社 | 投影装置、投影装置の測距仰角制御方法及びプログラム |
JP4838746B2 (ja) * | 2007-03-19 | 2011-12-14 | 富士フイルム株式会社 | コンテンツ表示方法、プログラム、及び装置、並びに記録媒体 |
US20110106439A1 (en) * | 2009-11-04 | 2011-05-05 | In-Tai Huang | Method of displaying multiple points of interest on a personal navigation device |
US20120300020A1 (en) * | 2011-05-27 | 2012-11-29 | Qualcomm Incorporated | Real-time self-localization from panoramic images |
US9723293B1 (en) * | 2011-06-21 | 2017-08-01 | Amazon Technologies, Inc. | Identifying projection surfaces in augmented reality environments |
US9336607B1 (en) * | 2012-11-28 | 2016-05-10 | Amazon Technologies, Inc. | Automatic identification of projection surfaces |
US9036943B1 (en) * | 2013-03-14 | 2015-05-19 | Amazon Technologies, Inc. | Cloud-based image improvement |
KR102077105B1 (ko) * | 2013-09-03 | 2020-02-13 | 한국전자통신연구원 | 사용자 인터랙션을 위한 디스플레이를 설계하는 장치 및 방법 |
JP6096634B2 (ja) * | 2013-10-17 | 2017-03-15 | 株式会社ジオ技術研究所 | 仮想現実を用いた3次元地図表示システム |
US9965030B2 (en) * | 2014-07-31 | 2018-05-08 | Samsung Electronics Co., Ltd. | Wearable glasses and method of displaying image via the wearable glasses |
US10462421B2 (en) * | 2015-07-20 | 2019-10-29 | Microsoft Technology Licensing, Llc | Projection unit |
CN108427498A (zh) * | 2017-02-14 | 2018-08-21 | 深圳梦境视觉智能科技有限公司 | 一种基于增强现实的交互方法和装置 |
CN109242958A (zh) * | 2018-08-29 | 2019-01-18 | 广景视睿科技(深圳)有限公司 | 一种三维建模的方法及其装置 |
US10841544B2 (en) * | 2018-09-27 | 2020-11-17 | Rovi Guides, Inc. | Systems and methods for media projection surface selection |
CN109615703B (zh) * | 2018-09-28 | 2020-04-14 | 阿里巴巴集团控股有限公司 | 增强现实的图像展示方法、装置及设备 |
US11245883B2 (en) * | 2018-12-17 | 2022-02-08 | Lightform, Inc. | Method for augmenting surfaces in a space with visual content |
-
2019
- 2019-08-29 CN CN201910807392.5A patent/CN110930518A/zh active Pending
- 2019-10-12 WO PCT/CN2019/110873 patent/WO2021035891A1/zh active Application Filing
-
2021
- 2021-11-19 US US17/530,860 patent/US20220078385A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105182662A (zh) * | 2015-09-28 | 2015-12-23 | 神画科技(深圳)有限公司 | 具有增强现实效果的投影方法及系统 |
CN106445169A (zh) * | 2016-10-24 | 2017-02-22 | 福建北极光虚拟视觉展示科技有限公司 | 一种基于动态触发源的增强现实交互系统 |
CN106993174A (zh) * | 2017-05-24 | 2017-07-28 | 青岛海信宽带多媒体技术有限公司 | 一种投影设备电动对焦方法及装置 |
CN107222732A (zh) * | 2017-07-11 | 2017-09-29 | 京东方科技集团股份有限公司 | 自动投影方法以及投影机器人 |
CN109005394A (zh) * | 2018-09-19 | 2018-12-14 | 青岛海信激光显示股份有限公司 | 一种投影图像的校正方法及投影机 |
Non-Patent Citations (1)
Title |
---|
柳林等主编: "《海洋地理信息系统(上册)》", 31 August 2018 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111491146A (zh) * | 2020-04-08 | 2020-08-04 | 上海乂学教育科技有限公司 | 用于智能教学的互动投影系统 |
CN112702587A (zh) * | 2020-12-29 | 2021-04-23 | 广景视睿科技(深圳)有限公司 | 一种智能跟踪投影方法及系统 |
WO2022141826A1 (zh) * | 2020-12-29 | 2022-07-07 | 广景视睿科技(深圳)有限公司 | 一种智能跟踪投影方法及系统 |
US11942008B2 (en) | 2020-12-29 | 2024-03-26 | Iview Displays (Shenzhen) Company Ltd. | Smart tracking-based projection method and system |
CN113259653A (zh) * | 2021-04-14 | 2021-08-13 | 广景视睿科技(深圳)有限公司 | 一种定制动向投影的方法、装置、设备及系统 |
Also Published As
Publication number | Publication date |
---|---|
US20220078385A1 (en) | 2022-03-10 |
WO2021035891A1 (zh) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110930518A (zh) | 基于增强现实技术的投影方法及投影设备 | |
US10789765B2 (en) | Three-dimensional reconstruction method | |
US8350850B2 (en) | Using photo collections for three dimensional modeling | |
US10223839B2 (en) | Virtual changes to a real object | |
CN108594999B (zh) | 用于全景图像展示系统的控制方法和装置 | |
US20120242795A1 (en) | Digital 3d camera using periodic illumination | |
US20100328308A1 (en) | Three Dimensional Mesh Modeling | |
JP6352208B2 (ja) | 三次元モデル処理装置およびカメラ校正システム | |
WO2019035155A1 (ja) | 画像処理システム、画像処理方法、及びプログラム | |
WO2014172484A1 (en) | Handheld portable optical scanner and method of using | |
US11620730B2 (en) | Method for merging multiple images and post-processing of panorama | |
US10169891B2 (en) | Producing three-dimensional representation based on images of a person | |
JP5901447B2 (ja) | 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラム | |
JPWO2018179040A1 (ja) | カメラパラメータ推定装置、方法およびプログラム | |
Placitelli et al. | Low-cost augmented reality systems via 3D point cloud sensors | |
CN114640833A (zh) | 投影画面调整方法、装置、电子设备和存储介质 | |
JPWO2020075252A1 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
CN110191284B (zh) | 对房屋进行数据采集的方法、装置、电子设备和存储介质 | |
CN109166176B (zh) | 三维人脸图像的生成方法与装置 | |
JP2022524787A (ja) | 物体検出範囲推定のための、方法、システム、及びプログラム | |
JP2005141655A (ja) | 3次元モデリング装置及び3次元モデリング方法 | |
JP2005063041A (ja) | 3次元モデリング装置、方法、及びプログラム | |
KR20130039173A (ko) | 매칭 정보에 의한 입체 영상 보정 장치 및 그 방법 | |
JP2013148467A (ja) | 計測装置、方法及びプログラム | |
CN108921908B (zh) | 表面光场的采集方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200327 |