CN105824173A - 交互式投影仪及其用于确定对象的深度信息的操作方法 - Google Patents

交互式投影仪及其用于确定对象的深度信息的操作方法 Download PDF

Info

Publication number
CN105824173A
CN105824173A CN201510860404.2A CN201510860404A CN105824173A CN 105824173 A CN105824173 A CN 105824173A CN 201510860404 A CN201510860404 A CN 201510860404A CN 105824173 A CN105824173 A CN 105824173A
Authority
CN
China
Prior art keywords
image
depth information
invisible
light source
light beam
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510860404.2A
Other languages
English (en)
Inventor
游智翔
杨茆世芳
陈世杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of CN105824173A publication Critical patent/CN105824173A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0272Details of the structure or mounting of specific components for a projector or beamer module assembly
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/54Details of telephonic subscriber devices including functional features of a projector or beamer module assembly

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Projection Apparatus (AREA)
  • Multimedia (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

本发明公开了一种交互式投影仪及其用于确定对象的深度信息的操作方法。交互式投影仪包括光学引擎、图像俘获单元以及处理单元。光学引擎经由可见光源和不可见光源将可见图像与不可见图案投影到投影区域,且可见光源和不可见光源是被集成到光学引擎。图像俘获单元从投影区域俘获具有深度信息的图像,且具有深度信息的图像是经由不可见光源投影在对象上。处理单元电耦合到光学引擎和图像俘获单元。处理单元接收具有深度信息的图像且根据具有深度信息的图像确定交互式事件,且根据所述交互式事件,刷新光学引擎的状态。

Description

交互式投影仪及其用于确定对象的深度信息的操作方法
技术领域
本发明涉及一种交互式投影仪(interactiveprojector)及其用于确定对象的深度信息的操作方法。
背景技术
近年来,零接触人机接口(contact-freehuman-machineinterfaces,cfHMIs)得到快速开发。目前许多制造商已经专门制作各种可以应用在日常生活中的人机交互装置。举例来说,微软制造深度相机Kinect与投影仪的组合借此得到交互式投影的应用。然而,此设计的问题在于高制造成本和外观上过大的体积。另外,由于深度相机与投影仪之间的图像对准仍为实验阶段中的产品,其尚未适用于产品应用。因此,在人机交互装置的制造过程中,图像对准技术仍面对很多困难且复杂的问题。
发明内容
本发明涉及一种交互式投影仪及其用于确定对象的深度信息的操作方法。
在本发明的一个示范性实施例中,交互式投影仪包含光学引擎、图像俘获单元以及处理单元。光学引擎经由可见光源和不可见光源将可见图像与不可见图案投影到投影区域。此处,可见光源和不可见光源是被集成到光学引擎。图像俘获单元从投影区域俘获具有深度信息的图像,其中具有深度信息的图像是经由不可见光源投影在对象上。处理单元电耦合到光学引擎和图像俘获单元。处理单元接收具有深度信息的图像且根据具有深度信息的图像确定交互式事件,以通过所述交互式事件,刷新光学引擎的状态。
在本发明的另一示范性实施例中,提供用于确定对象的深度信息的交互式投影仪的操作方法,交互式投影仪包含光学引擎、图像俘获单元以及处理单元,且操作方法包含以下步骤。光学引擎将不可见光束投影到投影区域上,以形成不可见图案。图像俘获单元俘获不可见图案,且处理单元存储所述不可见图案作为参考图案。光学引擎对位于投影区域中的对象投射不可见光束,形成具有所述对象的深度信息的图像。图像俘获单元俘获具有所述对象的深度信息的图像。处理单元将参考图案与具有对象的深度信息的图像进行比较,以获得所述对象的深度信息。
为让本申请的上述特征和优点能更明显易懂,下文特举实施例,并配合所附附图作详细说明如下。
附图说明
图1是本发明的一个实施例的交互式投影仪的示意图。
图2是本发明的一个实施例的光学引擎的示意图。
图3是图2中所描绘的光学引擎的配置的一个实施例的示意图。
图4是本发明的一个实施例的光学引擎的示意图。
图5是图4中所描绘的光学引擎的配置的一个实施例的示意图。
图6是根据本发明用于确定对象的深度信息的交互式投影仪的操作方法的流程图。
图7是根据本发明的俘获具有对象的深度信息的图像的方法的流程图。
附图标记说明
100:交互式投影仪
110、110′:光学引擎
112、112′:光源单元
114:图像源
116:投影透镜
118:透镜单元
120:图像俘获单元
130:处理单元
CW:色轮
DM:双色镜
LS:光源
M1、M2、M3:反射镜
PA:投影区域
具体实施方式
附图中以及以下说明的细节仅仅是本发明的示范性实施例,用以描述以及说明本发明的一般原理,不应视为限制或确定本发明的范围。
图1是本发明的一个实施例的交互式投影仪的示意图。图2是本发明的一个实施例的光学引擎的示意图。图3是说明图2中所描绘的光学引擎的配置的一个实施例的示意图。如图1、图2和图3中所示,本发明的实施例的交互式投影仪100包含光学引擎110、图像俘获单元120和处理单元130。下文分别描述这些组件的示范性功能。
光学引擎110包含光源单元112、图像源114和投影透镜116。光源单元112具有光源LS,其整合了可发出可见光的可见光源与可发出不可见光的不可见光源,以使得光源单元112同时或周期性地提供可见光束和不可见光束。在本实施例中,可见光源例如包含白色发光二极管(1ight-emittingdiode,LED),但本发明不限于此。在其它实施例中,可见光源包含红色LED、绿色LED和蓝色LED。在本实施例中,不可见光源例如包含红外线(infraredray,IR)。在本实施例中,光源单元112更包括色轮(colorwheel)、至少一个反射镜、至少一个双色镜(dichroicmirror)或其组合,本发明不限于此。
图像源114定位于可见光束和不可见光束的光路径PL上。在可见光束和不可见光束通过图像源114时,图像源114将可见光束转换为可见图像光束且将不可见光束转换为不可见图像光束。在一个实施例中,图像源114例如包含显示面板。
投影透镜116定位于可见图像光束和不可见图像光束的光路径PI上。在可见图像光束和不可见图像光束通过投影透镜116时,投影透镜116将可见图像和不可见图案投影到位于光学引擎110外部的投影区域PA。
在本实施例中,光源单元112更包括色轮CW(参见图3),其中色轮CW具有红色区R、蓝色区B、绿色区G以及无色区C。当色轮CW旋转时,光源LS根据色轮的转动位置发射可见光或不可见光,并提供具有不同颜色的可见光束和不可见光束。当由光源LS提供的可见光通过色轮CW上的具有特定颜色的区域时,其它颜色的可见光被过滤掉,使得穿过色轮CW的可见光转换成对应于具有特定颜色的所述区域的单色可见光。举例来说,当色轮CW旋转到红色区时,由光源LS发出的可见光在穿过色轮CW之后转换成红色的可见光束。于另一实例,当色轮CW旋转到无色区时,光源LS发出的不可见光,无经过转换,作为不可见光束直接穿过色轮CW。此外,在本实施例中,由光源单元112提供的可见光束和不可见光束的光路径PL共享同一传输路径。
通过旋转色轮CW,由光源LS(例如,白色LED)发出的可见光分裂为具有单色的可见光束,例如红色可见光束、绿色可见光束和蓝色可见光束。这些红色可见光束、绿色可见光束和蓝色可见光束随后投影到图像源114以形成对应的可见图像光束,且接着通过投影透镜116投影到投影区域PA,以呈现彩色投影帧,即可见图像。在本实施例中,可见图像可例如为用户操作接口。另外,由光源LS(例如,IR)发出的不可见光作为不可见光束穿过色轮CW。将不可见光束随后投影到图像源114以形成对应的不可见图像光束,且通过投影透镜116投影到投影区域PA,形成不可见图案。
图像俘获单元120从投影区域PA俘获具有深度信息的图像,其中具有深度信息的图像是当不可见图像光束投影到位于投影区域PA中的对象上时而产生。
此外,在图像俘获单元120俘获具有深度信息的图像之前,图像俘获单元120先俘获参考图案,参考图案是通过将不可见图像光束投影到作为背景值的投影区域PA,而产生的不可见图案。在本实施例中,图像俘获单元120可例如为深度相机、具有多个透镜的3D相机、用于构造三维(three-dimensional,3D)图像的多个相机的组合,或能够检测3D空间信息的其它图像传感器。
处理单元130电耦合到光学引擎110和图像俘获单元120。处理单元130接收具有深度信息的图像,且将参考图案与具有深度信息的图像进行比较以获得对象的深度信息。根据从具有深度信息的图像获得的对象的深度信息,处理单元130确定交互式事件。换句话说,处理单元130对具有对象的深度信息的图像执行图像分析,以侦测具有对象的区域,再根据具有对象的所述区域来确定交互式事件。随后,处理单元130根据交互式事件刷新光学引擎110的状态。举例来说,根据交互式事件更新由光学引擎110投影的可见图像。处理单元130例如是例如中央处理单元(centralprocessingunit,CPU)、图形处理单元(graphicsprocessingunit,GPU)或其它可编程微处理器等装置。
图4是根据本发明的一个实施例的光学引擎的示意图。图5是说明图4中所描绘的光学引擎的配置的一个实施例的示意图。一起参见图2、图3、图4和图5,图4的光学引擎110′和图2的光学引擎110是相似的,差异在于,图4的光学引擎110′以光源单元112′替代图2的光源单元112并且更包括透镜单元118。
一起参见图1、图4和图5,本发明的实施例的交互式投影仪100包含光学引擎110′、图像俘获单元120和处理单元130。光学引擎110′包含光源单元112′、图像源114、投影透镜116以及透镜单元118。下文分别描述这些组件的示范性功能。
光源单元112′具有光源LS,其整合了可发出可见光的可见光源和可发出不可见光的不可见光源,以使得光源单元112′同时或周期性地提供可见光束和不可见光束。在本实施例中,可见光源包含红色LED、绿色LED和蓝色LED。在本实施例中,不可见光源例如包含红外线(IR)。
在本实施例中,光源单元112′更包含至少一个反射镜镜M1~M3以及至少一个双色镜DM。如图5中所示,光源LS中集成的红色LED、蓝色LED、绿色LED和红外线(IR)光源分别发射具有光路径PR的红光、具有光路径PG的绿光、具有光路径PB的蓝光以及具有光路径PIR的不可见光。由于这些可见光束与不可见光束的光路径(例如,PR、PG、PB、PIR)不在同一传输路径,因此光源单元112′利用反射镜镜M1~M3和双色镜DM调整上述可见光束与不可见光束的光路径(例如,PR、PG、PB、PIR),使其合并到同一传输路径中,因此由光源单元112′提供的可见光束和不可见光束具有同一传输路径。换句话说,由光源单元112′提供的可见光束和不可见光束共享光路径PL。如图5中的示范性实施例,光源单元112′提供绿色光束;然而,本发明不限于此。
透镜单元118位于可见光束和不可见光束的光路径PL上,且在光源单元112与图像单元114之间,其中透镜单元118包含至少一个光学透镜。光源单元112提供的可见光束和不可见光束投影在透镜单元118上时,透镜单元118调整可见光束和不可见光束朝向图像源114的传输路径。
图像源114定位于可见光束和不可见光束的光路径PL上。在可见光束和不可见光束通过图像源114时,图像源114将可见光束转换为可见图像光束且将不可见光束转换为不可见图像光束。在一个实施例中,图像源114例如包含微型显示面板。
投影透镜116位于可见图像光束和不可见图像光束的光路径PI上。在可见图像光束和不可见图像光束通过投影透镜116时,投影透镜116将可见图像和不可见图案投影到位于光学引擎110外部的投影区域PA。
图像俘获单元120从投影区域PA俘获具有深度信息的图像,其中具有深度信息的图像是当不可见图像光束投影到位于投影区域PA中的对象上时而产生。
此外,在图像俘获单元120俘获具有深度信息的图像之前,图像俘获单元120首先俘获参考图案,参考图案是通过将不可见图像光束投影到作为背景值的投影区域PA,而产生的不可见图案。在本实施例中,图像俘获单元120可例如为深度相机、具有多个透镜的3D相机、用于构造三维(three-dimensional,3D)图像的多个相机的组合,或能够检测3D空间信息的其它图像传感器。
处理单元130电耦合到光学引擎110和图像俘获单元120。处理单元130接收具有深度信息的图像,且将参考图案与具有深度信息的图像进行比较以获得对象的深度信息。根据从具有深度信息的图像获得的对象的深度信息,处理单元130确定交互式事件。换句话说,处理单元130对具有对象的深度信息的图像执行图像分析,以侦测具有对象的区域,再根据具有对象的所述区域来确定交互式事件。随后,,处理单元130根据交互式事件刷新光学引擎110的状态。举例来说,根据交互式事件更新由光学引擎110投影的可见图像。处理单元130例如是例如中央处理单元(centralprocessingunit,CPU)、图形处理单元(graphicsprocessingunit,GPU)或其它可编程微处理器等装置。
图6是根据本发明用于确定对象的深度信息的交互式投影仪的操作方法的流程图。在本示范性实施例中所描述的操作方法可适于图1中所示的交互式投影仪100,且所述操作方法中的步骤是以交互式投影仪100中的组件于下文中说明。交互式投影仪100包含光学引擎110、图像俘获单元120以及与光学引擎110和图像俘获单元120电耦合的处理单元130。在步骤S10中,光学引擎110将不可见光束投影到投影区域PA,以形成不可见图案。在步骤S20中,图像俘获单元120俘获不可见图案,且处理单元130存储所述不可见图案作为参考图案。在步骤S30中,光学引擎110对位于投影区域PA中的对象投射不可见光束,以形成具有对象的深度信息的图像。在步骤S40中,图像俘获单元120俘获具有对象的深度信息的图像。在步骤S50中,处理单元130将参考图案与具有对象的深度信息的图像进行比较,以获得对象的深度信息。
在一个示范性实施例中,具有深度信息的图像可例如为动态图案,因此处理单元130将具有深度信息的图像划分为具有第一分辨率的第一区和具有第二分辨率的第二区,且第一分辨率小于第二分辨率。随后,步骤S40可划分成步骤S41、步骤S42、步骤S43以及步骤S44。在图7中是根据本发明俘获具有对象的深度信息的图像的方法的流程图。图像俘获单元120对具有所述对象的深度信息的所述图像俘获具有第一分辨率的图像(步骤S41)。处理单元130将具有第一分辨率的图像与参考图案进行比较(步骤S42)。处理单元130确定是否侦测到具有所述对象的区域(步骤S43)。如果是,那么图像俘获单元120以第二分辨率对具有所述对象的区域俘获具有第二分辨率的图像(步骤S44);如果不,那么重复步骤S42直到在步骤43中确认具有对象的区域。在本实施例中,具有第一分辨率的图像相对于具有第二分辨率的图像需要较少的运算时间。在一个实施例中,参考图案可例如呈动态图案的形式,其可划分成具有不同分辨率的多个图像区域。
总而言之,与常规的人机交互式装置的设计相比,通过将可见光源和不可见光源整合到本发明的交互式投影仪的光源单元,其允许交互式投影仪将可见图像(例如,用户操作接口)和不可见图案(例如,参考图案和具有对象的深度信息的图像)投影到同一个投影区域上,使得本发明的交互式投影仪不需要满足深度相机与投影仪之间的图像对准的条件,具有简单制造过程、低制造成本以及便于随身携带的大小。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (15)

1.一种交互式投影仪,其特征在于,包括:
光学引擎,整合可见光源和不可见光源,且经由所述可见光源和所述不可见光源将可见图像与不可见图案投影到投影区域;
图像俘获单元,从所述投影区域俘获具有深度信息的图像,且具有深度信息的所述图像是经由所述不可见光源投影在对象上;以及
处理单元,电耦合到所述光学引擎和所述图像俘获单元,其中所述处理单元接收具有深度信息的所述图像并以具有深度信息的所述图像确定交互式事件,且根据所述交互式事件刷新所述光学引擎的状态。
2.如权利要求1所述的交互式投影仪,其特征在于,所述可见光源包括白色发光二极管,或红色发光二极管、绿色发光二极管和蓝色发光二极管。
3.如权利要求1所述的交互式投影仪,其特征在于,所述不可见光源包括红外线。
4.如权利要求1所述的交互式投影仪,其特征在于,所述光学引擎包括:
光源单元,整合所述可见光源和所述不可见光源,且提供可见光束和不可见光束;
图像源,位于所述可见光束和所述不可见光束的光路径上,将所述可见光束转换为可见图像光束且将所述不可见光束转换为不可见图像光束;以及
投影透镜,位于所述可见图像光束和所述不可见图像光束的光路径上,且将所述可见图像和所述不可见图案投影到位于所述光学引擎外部的所述投影区域。
5.如权利要求4所述的交互式投影仪,其特征在于,所述可见图像光束和所述不可见图像光束通过穿过所述投影透镜而投影,以形成所述可见图像和所述不可见图案。
6.如权利要求4所述的交互式投影仪,其特征在于,所述光学引擎还包括:
透镜单元,位于所述可见光束和所述不可见光束的光路径上,调整所述可见光束和所述不可见光束朝向所述图像源的传输路径。
7.如权利要求4所述的交互式投影仪,其特征在于,所述光源单元还包括色轮、至少一个反射镜、至少一个双色镜或其组合。
8.如权利要求1所述的交互式投影仪,其特征在于,所述可见图像包括用户操作接口。
9.如权利要求1所述的交互式投影仪,其特征在于,所述不可见图案是经由所述不可见光源投影到所述投影区域上的参考图案。
10.如权利要求9所述的交互式投影仪,其特征在于,所述处理单元将所述参考图案与具有深度信息的所述图像进行比较,以获得所述对象的深度信息用于确定所述交互式事件。
11.如权利要求10所述的交互式投影仪,其特征在于,具有深度信息的所述图像是动态图案,所述处理单元将具有深度信息的所述图像划分为具有第一分辨率的第一区和具有第二分辨率的第二区,且所述第一分辨率小于所述第二分辨率。
12.如权利要求1所述的交互式投影仪,其特征在于,由所述光学引擎投影的所述可见图像是根据所述交互式事件而更新。
13.一种用于确定对象的深度信息的交互式投影仪的操作方法,其特征在于,所述交互式投影仪包括光学引擎、图像俘获单元以及处理单元,且所述操作方法包括:
利用所述光学引擎将不可见光束投影到投影区域上,以形成不可见图案;
由所述图像俘获单元俘获所述不可见图案,且所述处理单元存储所述不可见图案作为参考图案;
利用所述光学引擎对位于所述投影区域中的对象投射所述不可见光束,以形成具有所述对象的深度信息的图像;
以所述图像俘获单元俘获具有所述对象的深度信息的所述图像;以及
利用所述处理单元将所述参考图案与具有所述对象的深度信息的所述图像进行比较,以获得所述对象的深度信息。
14.如权利要求13所述的用于确定对象的深度信息的交互式投影仪的操作方法,其特征在于,俘获具有所述对象的深度信息的所述图像的方法包括:
以所述图像俘获单元对具有所述对象的深度信息的所述图像俘获具有第一分辨率的图像;
利用所述处理单元将所述具有第一分辨率的图像与所述参考图案进行比较以侦测具有所述对象的区域;以及
以所述图像俘获单元对具有所述对象的区域俘获具有第二分辨率的图像,以形成具有所述对象的深度信息的所述图像,其中所述第一分辨率小于所述第二分辨率。
15.如权利要求14所述的用于确定对象的深度信息的交互式投影仪的操作方法,其特征在于,在所述处理单元将所述参考图案与具有所述对象的深度信息的所述图像进行比较期间,所述第一分辨率的图像相对于所述第二分辨率的图像需要较少的运算时间。
CN201510860404.2A 2015-01-27 2015-12-01 交互式投影仪及其用于确定对象的深度信息的操作方法 Pending CN105824173A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562108060P 2015-01-27 2015-01-27
US62/108,060 2015-01-27
US14/886,114 2015-10-19
US14/886,114 US20160216778A1 (en) 2015-01-27 2015-10-19 Interactive projector and operation method thereof for determining depth information of object

Publications (1)

Publication Number Publication Date
CN105824173A true CN105824173A (zh) 2016-08-03

Family

ID=56432568

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510860404.2A Pending CN105824173A (zh) 2015-01-27 2015-12-01 交互式投影仪及其用于确定对象的深度信息的操作方法

Country Status (2)

Country Link
US (1) US20160216778A1 (zh)
CN (1) CN105824173A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106530343A (zh) * 2016-10-18 2017-03-22 深圳奥比中光科技有限公司 一种基于目标深度图像的投影装置和投影方法
CN106774850A (zh) * 2016-11-24 2017-05-31 深圳奥比中光科技有限公司 一种移动终端及其交互控制方法
CN106897688A (zh) * 2017-02-21 2017-06-27 网易(杭州)网络有限公司 交互式投影装置、控制交互式投影的方法和可读存储介质
WO2021114502A1 (zh) * 2019-12-13 2021-06-17 成都极米科技股份有限公司 投影仪及投影方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10542245B2 (en) * 2017-05-24 2020-01-21 Lg Electronics Inc. Mobile terminal and method for controlling the same
CN111479099A (zh) * 2019-01-24 2020-07-31 中强光电股份有限公司 投影装置及其投影方法
CN111629190A (zh) * 2019-02-28 2020-09-04 中强光电股份有限公司 投影系统以及投影方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010043289A1 (en) * 2000-02-25 2001-11-22 Marshall Stephen W. Robust color wheel phase error method for improved channel change re-lock performance
CN1570707A (zh) * 2003-07-15 2005-01-26 明基电通股份有限公司 具有图像拾取器的投影系统
CN1582567A (zh) * 2001-06-05 2005-02-16 瑞克楚斯系统公司 交互式视频显示系统
US20050275909A1 (en) * 2001-03-15 2005-12-15 Tsutomu Takayama Image processing for correcting defects of read image
CN2921582Y (zh) * 2006-06-15 2007-07-11 威海华菱光电有限公司 图像读取装置用棒状光源
US20090115779A1 (en) * 2007-11-05 2009-05-07 Alan Shulman Methods and systems for navigation and terrain change detection
US7560679B1 (en) * 2005-05-10 2009-07-14 Siimpel, Inc. 3D camera
WO2010119650A1 (ja) * 2009-04-13 2010-10-21 Necエンジニアリング株式会社 画像読取装置
CN102207667A (zh) * 2010-03-31 2011-10-05 香港应用科技研究院有限公司 交互式投影装置
CN102221887A (zh) * 2011-06-23 2011-10-19 康佳集团股份有限公司 互动投影系统及方法
US20120038592A1 (en) * 2010-08-11 2012-02-16 Young Optics Inc. Input/output device and human-machine interaction system and method thereof
US20120274745A1 (en) * 2011-04-29 2012-11-01 Austin Russell Three-dimensional imager and projection device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5906779B2 (ja) * 2012-02-09 2016-04-20 株式会社リコー 画像表示装置
US20160150219A1 (en) * 2014-11-20 2016-05-26 Mantisvision Ltd. Methods Circuits Devices Assemblies Systems and Functionally Associated Computer Executable Code for Image Acquisition With Depth Estimation

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010043289A1 (en) * 2000-02-25 2001-11-22 Marshall Stephen W. Robust color wheel phase error method for improved channel change re-lock performance
US20050275909A1 (en) * 2001-03-15 2005-12-15 Tsutomu Takayama Image processing for correcting defects of read image
CN1582567A (zh) * 2001-06-05 2005-02-16 瑞克楚斯系统公司 交互式视频显示系统
CN1570707A (zh) * 2003-07-15 2005-01-26 明基电通股份有限公司 具有图像拾取器的投影系统
US7560679B1 (en) * 2005-05-10 2009-07-14 Siimpel, Inc. 3D camera
CN2921582Y (zh) * 2006-06-15 2007-07-11 威海华菱光电有限公司 图像读取装置用棒状光源
US20090115779A1 (en) * 2007-11-05 2009-05-07 Alan Shulman Methods and systems for navigation and terrain change detection
WO2010119650A1 (ja) * 2009-04-13 2010-10-21 Necエンジニアリング株式会社 画像読取装置
CN102207667A (zh) * 2010-03-31 2011-10-05 香港应用科技研究院有限公司 交互式投影装置
US20120038592A1 (en) * 2010-08-11 2012-02-16 Young Optics Inc. Input/output device and human-machine interaction system and method thereof
US20120274745A1 (en) * 2011-04-29 2012-11-01 Austin Russell Three-dimensional imager and projection device
CN102221887A (zh) * 2011-06-23 2011-10-19 康佳集团股份有限公司 互动投影系统及方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106530343A (zh) * 2016-10-18 2017-03-22 深圳奥比中光科技有限公司 一种基于目标深度图像的投影装置和投影方法
CN106774850A (zh) * 2016-11-24 2017-05-31 深圳奥比中光科技有限公司 一种移动终端及其交互控制方法
CN106774850B (zh) * 2016-11-24 2020-06-30 深圳奥比中光科技有限公司 一种移动终端及其交互控制方法
CN106897688A (zh) * 2017-02-21 2017-06-27 网易(杭州)网络有限公司 交互式投影装置、控制交互式投影的方法和可读存储介质
WO2021114502A1 (zh) * 2019-12-13 2021-06-17 成都极米科技股份有限公司 投影仪及投影方法

Also Published As

Publication number Publication date
US20160216778A1 (en) 2016-07-28

Similar Documents

Publication Publication Date Title
CN105824173A (zh) 交互式投影仪及其用于确定对象的深度信息的操作方法
EP3018903B1 (en) Method and system for projector calibration
US10917629B2 (en) Dynamic vision sensor and projector for depth imaging
US9560327B2 (en) Projection system and projection method
US9052575B2 (en) Determining correspondence mappings from infrared patterns projected during the projection of visual content
CN102455779B (zh) 信息处理设备和方法
CN103279313B (zh) 显示装置以及显示控制方法
US10216075B2 (en) Digital light projector having invisible light channel
US9549174B1 (en) Head tracked stereoscopic display system that uses light field type data
US20150296150A1 (en) Combined visible and non-visible projection system
WO2018196472A1 (zh) 一种投影方法、装置、系统及存储介质
US10382731B2 (en) Projector, multi-projection system, and method for controlling projector
CN104849949A (zh) 投影系统及其投影方法
CN103425354A (zh) 数据处理装置、显示装置以及数据处理装置的控制方法
TWI504931B (zh) 投影系統及其投影方法
JP2014192808A (ja) 投影装置、プログラム
US8902309B2 (en) Apparatus of acquiring 3D information, method for driving light source thereof, and system for acquiring 3D information
US11782268B2 (en) Eyeball tracking system for near eye display apparatus, and near eye display apparatus
CN103076983B (zh) 一种基于激光投影的触摸屏人机交互系统
US10055065B2 (en) Display system, projector, and control method for display system
US20220197039A1 (en) Eyeball tracking system of near-eye display device and near-eye display device
CN111052869B (zh) 改善用户观察到的图像的透视颜色感知的照明方法和系统
JP2012181264A (ja) 投影装置、投影方法及びプログラム
JP2017021237A (ja) 画像投影装置、画像投影システム、表示装置、および、表示システム
US20150381956A1 (en) Image projection apparatus, image projection method, and storage medium of program

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160803