CN105700736B - 输入操作检测设备、投影装置、交互白板和数字标识装置 - Google Patents
输入操作检测设备、投影装置、交互白板和数字标识装置 Download PDFInfo
- Publication number
- CN105700736B CN105700736B CN201510919004.4A CN201510919004A CN105700736B CN 105700736 B CN105700736 B CN 105700736B CN 201510919004 A CN201510919004 A CN 201510919004A CN 105700736 B CN105700736 B CN 105700736B
- Authority
- CN
- China
- Prior art keywords
- image
- imaging
- projection
- imaging section
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供了输入操作检测设备、投影装置、交互白板和数字标识装置。一种输入操作检测设备,用于检测输入到图像的输入操作,其包括第一成像部和第二成像部以及基于通过第一成像部和第二成像部所获取的数据来检测输入操作的处理器。图像被分为第一图像和第二图像。第一成像部和第二成像部的成像光学系统的光轴与图像在相对于对应图像的中心的对应成像部的安装位置侧的同侧上、在点上相交。
Description
技术领域
本发明涉及输入操作检测设备、投影装置、交互白板、数字标识装置(digitalsignage)和投影系统。特别地,本发明涉及适用于检测通过用户输入的输入操作的输入操作检测设备、包括输入操作检测设备的投影装置、包括输入操作检测设备的交互白板、包括输入操作检测设备的数字标识装置以及包括投影装置的投影系统。
背景技术
交互投影装置已经商业上可用。此种类型的投影装置具有允许用户在屏幕上投影的图像上输入字母和绘画、增加或减少所投影图像的尺寸、翻页等功能。
在这些功能中,用户的手指或者由用户所持的棒或笔可以用作接触屏幕的输入装置,并且投影装置检测输入装置的动作和位置并且将检测结果发送到例如计算机。
即,具有上述交互功能的装置包括检测通过用户输入的输入操作的操作检测设备。
例如,专利文献1(日本特开专利申请No.2013-61552)公开了一种包括用于将投影图像投影到投影表面的投影装置,用于通过多个图像传感器捕捉包括投影表面的成像区域的图像的成像装置,用于基于通过多个图像传感器所获取的图像获取表示到成像区域中存在的成像对象的距离的距离数据的距离获取装置,用于基于所获取的距离数据从投影表面定义在预定范围内存在的图像对象并且将图像对象检测作为输入部的输入部检测装置,以及用于根据投影图像上的输入部的动作和/或位置来分析输入到投影图像上的输入操作的分析装置。
发明内容
然而,难以在上述输入操作检测设备中减小成本而不降低检测准确度。
根据本发明的一个方面,提供了一种输入操作检测设备,其包括包含第一成像光学系统和第一图像传感器的第一成像部、包含第二成像光学系统和第二图像传感器的第二成像部以及用于基于通过第一成像部和第二成像部所获取的投影数据来检测输入操作的处理器。将图像关于第一方向分为第一图像和第二图像。第一成像部用于捕捉第一图像并且第二成像部用于捕捉第二图像。第一成像光学系统的光轴与图像在相对于第一图像的中心的第一成像部的安装位置侧同侧上、在交叉点处相交,第二成像光学系统的光轴与图像在相对于第二图像的中心的第二成像部的安装位置侧同侧上、在交叉点处相交。
附图说明
图1是示出了根据本发明的实施例的投影系统的总体配置的示意图;
图2是用于说明投影装置的第一说明性视图;
图3是用于说明投影装置的第二说明性视图;
图4是说明图像R和L的说明性视图;
图5是用于说明第一距离测量部的说明性视图;
图6是用于说明第二距离测量部的说明性视图;
图7是用于说明距离测量部的外观的说明性视图;
图8是用于说明第一距离测量部的成像部的说明性视图;
图9是用于说明第二距离测量部的成像部的说明性视图;
图10是用于说明第一距离测量部和投影图像的第一说明性视图;
图11是用于说明第一距离测量部和投影图像的第二说明性视图;
图12是用于说明第二距离测量部和投影图像的第一说明性视图;
图13是用于说明第二距离测量部和投影图像的第二说明性视图;
图14是用于说明第一距离测量部的成像区域以及第二距离测量部的成像区域重叠的成像区域的说明性视图;
图15是用于说明通过处理器执行的输入操作检测处理的流程图;
图16是用于说明附接于图像R的参考标记的说明性视图;
图17是用于说明比较示例的说明性视图;
图18是用于说明实施例的第一特定示例的说明性视图;
图19是用于说明在其中第一距离测量部的光轴与第一特定示例中的投影图像相交的点J的说明性视图;
图20是用于说明比较示例的数值的说明性视图;
图21是用于说明实施例的第一特定示例的数值的说明性视图;
图22是用于说明在其中第一距离测量部的光轴与第二特定示例中的投影图像相交的点J的说明性视图;
图23是用于说明实施例的第二特定示例的数值的说明性视图;
图24是用于说明拍摄的图像的第一说明性视图;
图25是用于说明拍摄的图像的第二说明性视图;
图26是用于说明比较示例中成像元件所需的尺寸的说明性视图;
图27是用于说明比较示例中拍摄的图像的数值的说明性视图;
图28是用于说明第一特定示例中成像元件的所需尺寸的第一说明性视图;
图29是用于说明第一特定示例中拍摄的图像的数值的说明性视图;
图30是用于说明第一特定示例中成像元件的所需尺寸的第二说明性视图;
图31是用于说明第二特定示例中成像元件的所需尺寸的第二说明性视图;
图32是用于说明第二特定示例中拍摄的图像的数值的说明性视图;
图33是用于说明投影装置的第一变型的说明性视图;
图34是用于说明距离测量部的第一变型的说明性视图;
图35是用于说明距离测量部的第二变型的说明性视图;
图36是用于说明距离测量部的第三变型的第一说明性视图;
图37是用于说明距离测量部的第三变型的第二说明性视图;
图38是用于说明投影装置的第三变型的第二说明性视图;
图39是用于说明互动白板的示例的说明性视图;以及
图40是用于说明数字标识装置的说明性视图。
具体实施方式
其后,将结合图1到图32描述本发明的实施例。图1示出了根据实施例的投影系统100的示意性配置。
投影系统100包括投影装置10和图像管理设备30。投影系统100的用户通过诸如他/她的手指、笔和/或指示棒的输入装置触摸屏幕300的投影表面以便将信息输入到在投影表面上投影的图像(其后,也称作“投影图像”)。
投影装置10以及图像管理装置30置于例如书桌、桌子或专用基座(其后,称作“基座400”)上。此处,将与基座400的表面正交的方向定义为Z轴方向。屏幕300被放置在相对于投影装置10的+Y轴方向中的位置。将屏幕300的-Y轴方向侧的表面定义为投影表面。注意到投影表面可以是白板、墙表面等的板表面。
图像管理设备30存储多个图像数据并且响应于通过用户输入的命令将成像对象的图像数据(其后,也称作“投影图像数据”)发送到投影装置10。图像管理设备30和投影装置10通过诸如通用串行总线(USB)缆线或通过无线通信相互通信。对于图像管理设备30,可以使用安装有预设程序的个人计算机。
当图像管理设备30具有用于诸如USB闪存驱动器和SD卡的可分离记录介质的接口时,图像管理设备30可以投影存储于记录介质中的图像作为投影图像。
投影装置10是所谓的交互投影装置。投影装置10被放置在针对投影图像的中心的-Z轴方向中的位置(见图2)。如图2、3所示,投影装置10例如包括投影部11、两个距离测量部(13、14)以及处理器15。在收容箱(未示出)中容纳这些部件。
与传统的投影装置类似,投影部11包括光源、颜色过滤器、光学元件等;并且通过处理器15被控制。
处理器15与图像管理设备30执行双向通信。当接收投影图像数据时,处理器15在数据上执行预编程处理并且经由投影部11将所处理的图像投影到屏幕300上。
如图4所示,投影图像被通过穿过投影图像的中心并且平行于Z轴的虚线分为两个图像(即,相对于Z轴方向被分为两个图像)。将在+X轴侧上的图像定义为“图像R”并且将在-X轴上的图像定义为“图像L”。
将第一距离测量部13放置在由图像R的中心的-X轴侧和-Z轴侧上。将第二距离测量部放置在由图像L的中心的+X轴侧和-Z轴侧。
如图5所示作为示例,第一距离测量部13包括第一光发射部131、第一成像部132以及第一算数部133。如图6所示作为示例,第二距离测量部14包括第二光发射部141、第二成像部142和第二算数部143。在图7中示出了距离测量部(13,14)的外观作为示例。注意到光发射部131、141,成像部132、142以及算术部133、143被分别容纳在收纳箱中。
光发射部131、141的每一个包括用于发射近红外光的光源。通过处理器15点亮/熄灭光源。可以通过LED或激光二极管(LD)配置光源。另外,每个光发射部可以包括调整从光源照射光的过滤器或光学元件。通过包括光学元件或过滤器,光发射部可以调整检测光的发射方向(角度)或将检测光修正到结构光(见图34)、到调制光(见图35)、到至成像对象的光形成纹路(见图36)等。
第一光发射部131向图像R发射光(检测光),同时第二光发射部141向图像L发射光(检测光)。
第一成像部132捕捉已经从第一光发射部131发射并且通过成像对象所反射的光。如图8所示作为示例,第一成像部132包括第一图像传感器132a和第一成像光学系统132b。第一图像传感器132a用于作为区域图像传感器并且具有矩形的形状。第一成像光学系统132b将被从第一光发射部131所发射并且通过成像对象所反射的光引导到第一图像传感器132a。由于第一图像传感器132a用于区域图像传感器,所以第一图像传感器132a可以共同地获取二维数据而无需使用诸如多面镜的光检测装置。
第二成像部142捕捉从第二光发射部141发射并且通过成像对象所反射的光。如图9所示作为示例,第二成像部142包括第二图像传感器142a和第二成像光学系统142b。第二图像传感器142a用于作为区域图像传感器并且具有矩形的形状。第二成像光学系统142b将被从第二光发射部141所发射并且通过成像对象所反射的光引导到第二图像传感器142a。由于第二图像传感器142a用于区域图像传感器,所以第二图像传感器142a可以共同地获取二维数据而无需使用诸如多面镜的光检测装置。
定义第一成像光学系统132b的场角(field angle)以便允许第一成像光学系统132b捕捉图像R的整个区域。定义第二成像光学系统142b的场角以便允许第二成像光学系统142b捕捉图像L的整个区域。相应地,通过第一成像光学系统132b和第二成像光学系统142b捕捉投影图像的整个区域。
此处,成像对象可以是在其上未投影的投影图像的投影表面,在投影表面上投影的投影图像或连同输入装置的投影对象。
成像光学系统配置所谓的同轴光学系统。其后,也将第一成像光学系统132b的光轴称作“第一距离测量部13的光轴”并且也将第二成像光学系统142b的光轴称作“第二距离测量部14的光轴”。
放置第一距离测量部13以便第一距离测量部13的光轴在相对于投影图像(见图10)的中心的-Z轴侧上以及相对于图像R(见示出的图11)的中心的-X轴侧上的位置与投影表面相交。即,也将第一距离测量部13放置在相对于投影图像(见图10)的中心的-Z轴侧上以及相对于图像R(见图11所示)的中心的+X轴侧上的位置。
放置第二距离测量部14以便第二距离测量部14的光轴在针对投影图像(见图12)的中心的-Z轴侧上以及针对图像L(见示出的图13)的中心的+X轴上的位置与投影表面相交。即,也将第二距离测量部14放置在针对投影图像(见图12)的中心的-Z轴侧上以及针对图像L(见图11所示)的中心的+X轴侧上的位置。
如上述,在此实施例中,第一和第二距离测量部13,14的光轴与相对于对应图像的中心的对应距离检测部13,14的安装位置相同侧上的位置(相交点)与投影表面相交。
注意在投影图像的中心周边第一和第二距离测量部13,14的成像区域相互重叠(见图14)。通过这种方式,其可以确保捕捉投影图像的中心部分而无需考虑距离测量部13,14的安装错误。
第一算术部133基于第一光发射部131的光发射定时以及通过第一图像传感器132a捕捉的反射光的投影定时计算成像对象的距离。另外,第一算术部133获取投影图像(即深度图)的三维数据(投影数据)。注意到所获取的深度图的中心对应于第一距离检测部13的光轴。
第一算术部133以预定间隔(帧率)获取成像对象的深度图并且将深度图发送到处理器15。
第二算术部143基于第二光发射部141的光发射定时以及通过第二图像传感器142a捕捉的反射光的投影定时计算成像对象的距离。另外,第二算术部143获取投影图像(即深度图)的三维数据(投影数据)。注意到所获取的深度图的中心对应于第二距离检测部14的光轴。
第二算术部143以预定间隔(帧率)获取成像对象的深度图并且将深度图发送到处理器15。
处理器15将通过第一算术部133获取的深度图和通过第二算数部143获取的深度图组合以生成用于整个投影图像的深度图。处理器15基于所生成的整个投影图像的深度图确定输入装置的位置和动作并且还响应于所确定的位置和动作检测输入操作数据。处理器15向图像管理设备30发送检测的输入操作数据。
当从处理器15接收到输入操作数据时,图像管理设备30根据输入操作数据执行成像控制。作为结果,在投影图像上反映输入操作数据。
接着,将结合图15的流程图描述通过处理器15执行的检测输入操作数据的处理(输入操作检测处理)。
注意到在执行下面的处理之前,处理器15具有在期间不存在输入操作装置的成像对象的深度图,并且处理器15在处理器15的存储器(未示出)中存储图作为参考深度图。在下面的描述中,输入装置是用户的手指。
在第一步骤S401中,处理器15确定是否从算数部133,143中的每一个发送新的深度图。当处理器15从每个算数部133,143接收新的深度图时,确定结果变为肯定并且处理前进到步骤S403。
在步骤S403中,处理器15将通过第一算术部133获取的深度图和通过第二算数部143获取的深度图组合以生成用于整个投影图像的深度图。程序随后前进到步骤S405。
在步骤S405中,处理器15确定所生成的用于整个投影图的深度图和参考深度图之间的差异。这表明在距离测量部13,14的投影区域之内处理器15确定使用用户的手指的图和不适用用户的手指的图之间的差异。通过确定差异,处理器15偏置投影表面(投影图像)的距离数据并且只计算手指的距离数据。应注意在下文,差异也称作“差分深度图”。
程序随后前进到S407,其中处理器15基于差分深度图确定输入操作装置(即用户的手指)是否存在于投影区域中。当差分深度图的值等于或者小于阈值时,处理器15确定输入操作装置不存在于投影区域并且程序返回到步骤S401。另一方面,当该值大于阈值时,处理器15确定存在输入操作装置并且程序前进到步骤S409。
在步骤S409中,处理器15通过在差分深度图上执行已知的图像处理提取用户的手指的形状。程序随后前进到步骤S411。
在步骤S411中,处理器15基于提取的手指形状估计(estimate)用户的手指的指尖位置。程序随后前进到步骤S413。
在步骤S413,根据差分深度图,处理器15使用投影表面作为参考估计U轴方向上的指尖位置(也称作“差分距离”)。基于估计的指尖位置,处理器15确定指尖是否接触投影表面或接近投影表面。当估计的差分距离等于或小于预定距离时(例如3mm),确定结果变为肯定并且程序前进到步骤S415。
在步骤S415中,处理器15基于指尖位置和指尖动作检测并且获取输入操作数据。输入操作数据可以是点击投影在投影图像上的图标并且通过指尖指示的输入操作或者输入操作数据可以是如果指尖在投影图像上移动则输入字母或画线的输入操作。
在下一个步骤S417中,处理器15将检测的输入操作数据发送到图像管理设备30。图像管理设备30响应于输入操作数据执行图像控制。即,在投影图像上显示输入操作数据。程序随后返回到步骤S401。
注意到在步骤S413中当差分距离大于预定距离(例如3mm)时,程序返回步骤S401。
此处,将基于特定示例描述在第一距离测量部13和图像R之间的关系。注意到在具体实施例中,为了促进理解,将第一距离测量部13的投影区域的尺寸设置为与图像R的尺寸相同。另外,将第一距离测量部13放置在包括投影图像的中心的YZ表面。
如图16所示,在投影图像上标记参考标志A至I。点A指示投影图像的中心。点B指示穿过点A并且通过-Z轴侧上的投影图像的边缘与Z轴平行的线的相交。点C指示穿过点A并且通过+Z轴侧上的投影图像的边缘与Z轴平行的线的相交。点D指示穿过点A并且通过+X轴侧上的投影图像的边缘与X轴平行的线的相交。点E指示穿过点D并且通过-Z轴侧上的投影图像的边缘与Z轴平行的线的相交。点F指示穿过点D并且通过+Z轴侧上的投影图像的边缘与Z轴平行的线的相交。点G指示图像R的中心。点H指示穿过点G并且通过-Z轴侧上的投影图像的边缘与Z轴平行的线的相交。点I指示穿过点G并且通过+Z轴侧上的投影图像的边缘与Z轴平行的线的相交。
示例1
图17示出了比较示例,并且图18示出了第一特定示例(示例1)。比较示例和示例1之间的差异是针对Y轴方向第一距离测量部13的光轴的倾斜角。在比较示例中,第一距离测量部13的光轴与图像R的中心G的投影表面相交。在示例1中,第一距离测量部13的光轴针对图像R的中心G与-Z轴和-X轴侧上位置的投影表面相交(例如,在图19所示的点J)。
将穿过点J并且平行于Z轴的线与穿过点A并且平行于X轴的线的相交定义为点Jx。将穿过点J并且平行于Z轴的线与穿过点A并且平行于Z轴的线的相交定义为点Jz。点Jx将角∠AOD分为两个(例如∠AOJx=∠JxOD)。另外,点Jy将角∠BOC分为两个(例如∠BOJy=∠JyOC)。
在示例1和比较示例中,从第一成像光学系统132b的中心号投影表面的Y轴距离上的距离被设置为400mm(毫米),并且在投影表面上所投影的投影图像的尺寸被设置为60英尺(具有纵横比16:9)。即,在X轴方向上投影图像的宽度是1328mm并且在Z轴方向上投影图像的高度是747mm。
图20表示比较示例的数值并且图21表示上述条件下示例1的数值。此处,坐标系统的原点是第一成像光学系统132b的中心O。-Z轴侧上的投影图像的标远被定义为Z坐标上的145mm。在示例1中,确定第一距离测量部13的安装角使得将第一距离测量部13的光轴与投影图像相交的点J被定义为X坐标上的274.0mm以及Y坐标上的371.5mm。
在比较示例中,第一成像光学系统132b的最大半视角是∠GOB并且是-41.17度。在示例1中,第一成像光学系统132b的最大半视角是∠JOE并且是-34.76度。即,示例1可以由比较示例的半视角度数减少6.41度。如所知的,当半视角超过45度(即视角90度)时,将角度减少6.41度将在像差和制造成本方面具有相对高的优势。
如上述,确定第一距离测量部13的安装角度如此在其中第一距离测量部13的光轴与投影图像内插的点J位于关于图像R的中心G的-X轴侧和-Z轴侧。通过这种方式,其可以减少最大半视角。
示例2
将参照图22和图23说明第二特定示例(示例2)。在示例2中,确定第一距离测量部13的安装角如此在其中第一距离测量部13的光轴与投影图像内插的点J定义为X坐标中的260.3mm和Z坐标中的391.7mm。由于图像R的中心G的X坐标是332.1mm并且其Z坐标是518.6mm,点J位于关于图像R的中心G的-Z轴侧和-X轴侧。
将穿过点J并且通过在-Z轴侧上的投影图像的边缘平行于Z轴的线的相交定义为点Jx1。将穿过点J并且通过在+Z轴侧上的投影图像的边缘平行于Z轴的线的相交定义为点Jx2。另外,将穿过点J并且通过平行于Z轴并且穿过点A的线平行于X轴的线的相交定义为点Jz1。将穿过点J并且通过在+X轴侧上的投影图像的边缘平行于X轴的线的相交定义为点Jz2。
点J是在平行于X轴的方向的视角的中心并且是平行于Z轴的方向的视角的中心。即,其满足∠Jy1OJ=∠JOJy2和∠Jx1OJ=∠JOJx2。
在示例2中,第一成像光学系统132b的最大半视角是∠JOE并且是-36.85度。即,示例2可以从比较示例中减少半视角4.32度。如所知的,当半视角超过45度(即,视角90度)时,将角度减少4.32度可以在像差和制造成本方面具有相对高的优势。
虽然省略了详细的描述,但是在第二距离测量部14和图像L之间的关系与第一距离测量部13与图像R之间的关系相同。
接着,将描述使用第一成像部132在第一图像传感器132a的光接收表面上成像的图像R的位置和尺寸。其后,第一图像传感器132a的光接收表面上成像的图像也称作“拍摄的图像”。
图24和图25示出了在第一图像传感器132a的光接收表面上成像的图像R的拍摄的图像。在图24中,在拍摄图像上的参考标记B’,C’,E’,F’和J’各自对应于图像R上的B,C,E,F和J。由于投影表面和图像传感器132a的光接收表面并不相互平行,所以投影图像的形状不是精确的矩形而是变形的矩形(例如,梯形)。
图26和图27示出了在比较示例中拍摄图像上的点B’,C’,E’,F’和G’所计算的坐标值。注意到为了促进理解,成像光学系统132b的焦距被设置为1mm。另外,将成像光学系统132b的光轴指示作为S0距离,将平行于第一图像传感器132a的光接收表面上的X轴的距离指示作为S2距离并且将垂直于S0和S2的距离指示为S1距离。
点G’是在第一距离测量部13的光轴上并且是第一图像传感器132a的光接收表面的中心。此处,点G’的坐标值被定义为(S0,S1,S2)=(0,0,0)。由于角∠GOB和∠GOE相对大,所以点B’和E’处于远离点G’处,并且点C’,F’和G’处于接近点G’处。
如图27所示,在S2方向上坐标值的绝对值的最大值是0.693的并且在S1方向上坐标值的绝对值的最大值是0.712。在图26中通过虚线绘制的矩形指示当设置原点((S1,S2)=(0,0))作为中心时需要捕捉图像R的图像传感器132a的尺寸。矩形为通过第一成像部132成像的拍摄图像外切并且包括点B’,C’,E’和F’。此处,矩形的平方区域是0.493(平方毫米)mm2(即,0.693×0.712)。
图28和图29表示示例1中拍摄图像上点B’,C’,E’,F’和J’所计算的坐标值。点J’存在于第一距离测量部13的光轴上并且因此位于图像传感器132a的光接收表面的中心。相应地,将点J’的坐标值定义为(S0,S1,S2)=(0,0,0)。
此处,角∠JOB等于角∠JOC,并且点B’和C’针对S1方向对称地放置。如图29所示,在S2方向的坐标值的绝对值的最大值是0.645,并且在S1方向的坐标值的绝对值的最大值是0.474。通过图28中的虚线绘制的矩形指示当设置原点((S1,S2)=(0,0))作为中心时需要捕捉图像R的图像传感器132a的尺寸。矩形为通过第一成像部132捕捉的拍摄图像外切并且包括点B’,C’,E’和F’。此处,矩形的平方区域是0.306mm2(即,0.645×0.474)。
示例1的矩形小于比较示例的矩形。具体地,示例1的矩形的平方面积比对于比较示例变为62%。即,通过平移在其中第一距离测量部13的光轴与投影表面相交的交叉点来关于图像R的中心接近第一距离测量部13的安装位置侧;其变为可以在减少第一成像光学系统的场角时使用更小的图像传感器。
在此情况下,确定在其中第一距离测量部13的光轴与投影表面相交的交叉点使得第一成像部132的矩形的中心与第一图像传感器132a匹配。
在图28所示的用于捕捉图像R的图像传感器132a中,针对点B’和C’在S2方向上正向侧(+侧)的部分是冗余的。因此,可以调整并且平移矩形的中心到点Q使得如图30所示点B’和C’位于矩形的边缘。在这种情况下,所调整的矩形的平方区域变为0.272mm2(即,0.574×0.474)。作为结果,调整的矩形的平方区域对于比较示例变为55%。
注意到,确定在第一距离测量部13的光轴与投影表面交叉的交叉点使得第一成像部132的矩形的中心也与这种情况下的第一图像传感器132a的中心匹配。
图31和图32表示在示例2中拍摄图像上所计算的点B’,C’,E’,F’和J’的坐标值。点J’位于第一距离测量部13的光轴上并且是第一图像传感器132a的光接收表面的中心。此处,将点J’的坐标值定义为(S0,S1,S2)=(0,0,0)。
点B’和C’针对S1方向对称地被放置。通过图31的虚线绘制的矩形指示当设置原点((S1,S2)=(0,0))作为中心时需要捕捉图像R的图像传感器132a的尺寸。在此示例中,图像传感器的区域不具备有冗余部分。注意到矩形为通过第一成像部132捕捉的拍摄图像外切并且包括点B’,C’,E’和F’。此处,矩形的平方区域是0.279mm2(即,0.571×0.488)。
即,示例2中的矩形小于比较示例中的矩形,并且示例2中的矩形的平方区域比针对比较示例变为57%。
此处,确定在其中第一距离测量部13的光轴与投影表面相交的交叉点使得为拍摄图像外切的矩形的中心位于第一图像传感器132a的中心的附近。
在根据本实施例的投影装置10中,两个距离测量部(13,14)和处理器15对应于本发明的实施例的输入操作检测设备。
另外,第一测量部13对应于本发明的实施例的输入操作检测设备的第一成像部,并且第二距离检测部14对应于本发明的实施例的输入操作检测设备的第二成像部。此处,图像R对应于第一图像,并且图像L对应于第二图像。
如上述,实施例的投影装置10包括投影部11、两个距离测量部(13,14)和处理器15。将通过穿过投影图像的中心并且平行于Z轴的虚线将投影图像分为图像R(第一图像)和图像L(第二图像)(即,相对于Z轴方向将投影图像分为图像R,L)。
投影部11基于处理器15的命令在屏幕300上投影图像。第一距离测量部13包括用于向图像R发射检测光的第一光发射部131,用于捕捉图像R的第一成像部132以及用于基于第一成像部132的捕捉的图像结果获取(计算)深度图的第一算数部133。第二距离测量部14包括用于向图像L发射检测光的第二光发射部141,用于捕捉图像L的第二成像部142以及用于基于第二成像部142的捕捉的图像结果获取(计算)深度图的第二算数部143。每个成像部(132,142)包括图像传感器(132a,142a)和成像光学系统(132b,142b)。处理器15根据第一距离测量部13的深度图和第二距离测量部14的深度图检测通过输入装置输入的输入操作数据。
在每个距离测量部(13,14)中,对应距离检测部的光轴在针对Z轴方向和X轴方向这两者的对应的图像(R,L)的中心的对应距离测量部(13,14)的安装位置侧的同侧位置与投影表面相交(交叉点)。
相应地,两个距离测量部(13,14)适当地相对于投影图像放置。作为结果,其变为可以以高准确度检测屏幕300上投影的整个投影图像中输入装置的动作和位置。另外,由于两个距离检测部(13,14)用于覆盖整个投影图像,可以减少每个成像光学系统的场角。即,变得可以以低成本生产成像系统。其结果是,可以以低成本生产包括两个距离检测部(13,14)和处理器15的输入操作检测设备而无需降低检测准确度。
在此实施例中,在输入操作检测处理中当估计的差分距离等于或小于预定距离(例如3mm)时,处理器15确定指尖接触投影表面。通过这种方式,即便距离检测部具有距离检测错误,用户也可以执行期望的输入操作。另外,如所说明的即便当指尖没物理上接触投影表面而是足够接近投影表面(例如3mm之内)存在,处理器15也认定指尖接触投影表面。由此,这可以改善设备的实用性。
另外,实施例的两个距离测量部13,14相对于XY表面对称地放置,其包括投影图像的中心。即,两个距离测量部13,14的配置可能相互相同。相应地,容易将距离测量部13,14集成到投影装置10。另外,由于两个距离测量部13,14相互接近放置,所以容易整体地组成这些距离检测部13,14。此外,放置投影部11使得投影部11的光轴符合X轴方向上投影图像的中心。作为结果,可以容易地将两个距离测量部13,14集成投影部11,并且因此可以缩小投影装置10。
在实施例中,每个距离测量部13,14包括光发射部131,141。布置每个距离测量部13,14使得每个距离测量部13,14的光发射方向符合对应成像光学系统132b,142b的光轴。通过这种方式,容易并且适当地放置光发射部131,141,具体地,适当地对距离测量部13,14配置输入操作检测设备。
根据实施例的投影装置10装备有包括两个距离测量部13,14和处理器15的输入操作检测设备。因此,投影装置10可以以低成本对投影图像执行期望的操作。
根据实施例的投影系统100包括投影装置10。作为结果,变得可以以低成本保证性能。
注意到在上述说明中,例示性地提出将用户的手指作为输入装置。然而,不应限制于此。输入装置可以是例如笔或者棒。
此处,可以整体地组合投影装置10和图像管理设备30。
在上述实施例中,距离测量部13,14可以通过附接元件(未示出)分离地附接到收容箱,如图33所示。在如此的配置下,通过缆线将经由距离测量部13,14获取的深度图发送到安装于收容箱之内的处理器15。注意到在如此情况下,可以在远离收容箱的位置放置距离测量部13,14。
可以连同投影部11在收容箱中容纳两个距离测量部13,14。在如此的配置下,可以容易地优化投影部11和两个距离测量部13,14的位置关系。
另外,图像管理设备30可以执行通过处理器15执行的上述说明的处理的一部分。例如,当通过图像管理设备30执行输入操作检测处理时,通过缆线或无线地将通过距离测量部13,14获取的深度图发送到图像管理设备30。
另外,距离测量部13,14的光发射部131,141可以发射结构光,如图34所示(仅示出了第一距离测量部13)。此处,结构光表明适用于结构光方法的光。例如,结构光可以是条纹形状光或基块形状光。如所知的,照射区域比投影图像大。由于从光发射部131,141发射的光接近红外光,所以发射光不妨碍用户观看投影图像。成像部132,142捕捉已经通过成像对象反射并且变形的结构光的图像。每个算数部133,143将从对应的光发射部131,141发射的光与从对应的成像部132,142成像的光比较以便使用三角法(triangulation method)获取(计算)深度图。注意到这称为图案投影方法。
在上述实施例中,距离测量部13,14的光发射部131,141可以发射密度被通过预定频率调整并调制的调制光,如图35所示(仅示出了第一距离测量部13)。如所知的,照射区域大于投影图像。由于从光发射部131,141发射的光接近红外光,发射光不妨碍用于观看投影图像。成像部132,142捕捉已经通过成像对象被反射并且其相已经被平移的结构光的图像。每个算数部133,143将从对应的光发射部131,141发射的光与从对应的成像部132,142成像的光比较以便基于时间差或相差获取(计算)深度图。注意到这称为时间飞行法(Time-OfFlight,TOP)。
在上述实施例中,距离测量部13,14的每个光发射部131,141可以发射光以将纹路形成到图像对象上,如图35所示(仅示出了第一距离测量部13)。如所知的,照射区域大于投影区域。由于从光发射部131,141发射的光接近红外光,发射光不妨碍用于观看投影图像。在此配置下,每个距离测量部13,14包括捕捉投影到成像对象上的纹路图案的图像的两个成像部132,132,142,142。即,第一成像部132和第二成像部142分别具有两个光轴。算数部133,143基于通过对应的两个成像部捕捉的图像的视差计算深度图。具体地,算术部133,143向每个图像执行所谓立体平行化(stereo-parallelization)的处理并且通过假设每个距离测量部的光轴是平行的来转换图像。因此,每个成像部132,142的光轴不需要平行放置。质疑道这是所谓的立体方法。如图37所示当从X轴方向观看时重叠立体平行化处理后的光轴,从而与上述实施例的光轴对应。
在上面的实施例中,例示地将投影装置10置于基座400上。但是,其不应被限制于此。例如,如图38所示可以将投影装置10悬挂在天花板上。在如此情况下,经由悬挂元件将投影装置10固定于天花板。
包括两个距离测量部13,14和处理器15的输入操作检测设备可以被应用于交互白板或者数字标识装置。在两种情况下,其可以投影期望的图像而不增加成本。
图39示出了交互白板的示例。交互白板500包括安装有显示菜单、命令、执行结果等的面板和用于输入坐标值的输入部的面板部501;用于存储控制器或投影单元的存储器;以特定高度支持面板部501和存储器的支架;以及用于存储计算机、扫描仪、打印机、视频播放器等的设备存储器502(见JP2002-278700A)。在设备存储器502中存储输入操作检测设备。通过拉出设备存储器502,输入操作检测设备出现。输入操作检测设备检测通过用户输入到投影图像的输入操作。可以通过诸如USB缆线的有线通信或通过无线通信实现在控制器和输入操作检测设备之间的通信。
图40示出了数字标识装置的示例。数字标识装置600包括玻璃表面作为投影表面。通过投影仪从投影表面的后侧投影图像。在扶手上安装输入操作检测设备。可以通过诸如USB缆线的有线通信实现在投影仪和输入操作检测设备之间的通信。相应地,数字标识装置600可以实现交互功能。
如上述,包括两个距离测量部13,14和处理器15的输入操作检测设备可以被应用于具有交互功能的设备或者可以向其添加交互功能的设备。
虽然依据示例性实施例描述了本发明,但是其不限于此。应该理解在不脱离通过下面的权利要求定义的本发明的范围的情况下,可以通过本领域技术人员在实施例中进行各种改变和修改。
Claims (15)
1.一种输入操作检测设备,其用于检测由用户输入到图像的输入操作,所述输入操作检测设备包括:
第一成像部,其包括第一成像光学系统和第一图像传感器;
第二成像部,其包括第二成像光学系统和第二图像传感器;以及
处理器,用于基于通过第一成像部和第二成像部所获取的投影数据来检测输入操作,其中
图像相对于第一方向被分为第一图像和第二图像,
第一成像部用于捕捉第一图像并且第二成像部用于捕捉第二图像,
第一成像光学系统的光轴与图像在第一交叉点处相交,所述第一交叉点位于相对于第一图像的中心处于第一成像部的安装位置侧的同侧上,并且
第二成像光学系统的光轴与图像在第二交叉点处相交,所述第二交叉点位于相对于第二图像的中心处于第二成像部的安装位置侧的同侧上。
2.根据权利要求1所述的设备,其中第一成像部和第二成像部的投影数据包括深度图。
3.根据权利要求1所述的设备,其中确定所述第一交叉点和所述第二交叉点,使得将与对应的第一图像和第二图像外切的矩形的中心分别与对应第一传感器和第二传感器的中心匹配。
4.根据权利要求1所述的设备,其中确定第一图像传感器和第二图像传感器相对于对应的第一成像光学系统和第二成像光学系统的位置,使得将与对应的第一图像和第二图像外切的矩形的中心分别与对应的第一图像传感器和第二图像传感器的中心匹配。
5.根据权利要求1所述的设备,其中将第一成像部和第二成像部放置在平面附近,该平面垂直于第一方向并且包括对应的第一图像和第二图像的中心。
6.根据权利要求1所述的设备,其中
第一成像部和第二成像部包括第一光发射部和第二光发射部,
第一光发射部向第一成像光学系统的光轴和图像的所述第一交叉点发射检测光,并且
第二光发射部向第二成像光学系统的光轴和图像的所述第二交叉点发射检测光。
7.根据权利要求6所述的设备,其中第一光发射部和第二光发射部发射结构光。
8.根据权利要求6所述的设备,其中第一光发射部和第二光发射部发射调制光。
9.根据权利要求6所述的设备,其中第一光发射部和第二光发射部发射光以在成像对象上形成纹路。
10.一种投影装置,所述投影装置包括:
投影部,其用于将图像投影到投影表面;以及
根据权利要求1的输入检测设备,其用于检测对于在投影表面上投影的图像的用户输入的输入操作。
11.根据权利要求10所述的投影装置,其中将输入操作检测设备可分离地提供到容纳投影部的收容箱。
12.根据权利要求10所述的投影装置,其中将输入操作检测设备安装到容纳投影部的收纳箱。
13.一种互动白板,包括:
根据权利要求1的输入操作检测设备。
14.一种数字标识装置,包括:
根据权利要求1的输入操作检测设备。
15.一种投影系统,包括:
根据权利要求10的投影装置;以及
控制器,用于基于通过投影装置的输入操作检测设备所检测的输入操作来控制图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014250479A JP2016114963A (ja) | 2014-12-11 | 2014-12-11 | 入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステム |
JP2014-250479 | 2014-12-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105700736A CN105700736A (zh) | 2016-06-22 |
CN105700736B true CN105700736B (zh) | 2018-08-24 |
Family
ID=54770781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510919004.4A Expired - Fee Related CN105700736B (zh) | 2014-12-11 | 2015-12-11 | 输入操作检测设备、投影装置、交互白板和数字标识装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10048808B2 (zh) |
EP (1) | EP3032375B1 (zh) |
JP (1) | JP2016114963A (zh) |
CN (1) | CN105700736B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6822234B2 (ja) * | 2017-03-15 | 2021-01-27 | セイコーエプソン株式会社 | プロジェクターシステム |
JP6836176B2 (ja) * | 2017-04-17 | 2021-02-24 | セイコーエプソン株式会社 | 表示装置及び表示装置の制御方法 |
CN107451561A (zh) * | 2017-07-31 | 2017-12-08 | 广东欧珀移动通信有限公司 | 虹膜识别补光方法和装置 |
JP7196644B2 (ja) | 2019-01-30 | 2022-12-27 | 株式会社リコー | 傾き検出装置、読取装置、画像処理装置および傾き検出方法 |
JP7131415B2 (ja) | 2019-01-31 | 2022-09-06 | 株式会社リコー | 傾き検出装置、読取装置、画像処理装置および傾き検出方法 |
US11823421B2 (en) * | 2019-03-14 | 2023-11-21 | Nokia Technologies Oy | Signalling of metadata for volumetric video |
CN113760131B (zh) * | 2021-08-05 | 2023-09-22 | 当趣网络科技(杭州)有限公司 | 投影触控处理方法、装置及计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103002239A (zh) * | 2011-09-14 | 2013-03-27 | 株式会社理光 | 投影仪装置和操作检测方法 |
DE102011119082A1 (de) * | 2011-11-21 | 2013-05-23 | Übi UG (haftungsbeschränkt) | Vorrichtungsanordnung zur Schaffung eines interaktiven Bildschirms aus einem Bildschirm |
CN104035555A (zh) * | 2013-03-05 | 2014-09-10 | 株式会社理光 | 系统、信息处理装置和信息处理方法 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6710770B2 (en) * | 2000-02-11 | 2004-03-23 | Canesta, Inc. | Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device |
EP1241869B1 (en) | 2001-03-14 | 2010-08-11 | Ricoh Company, Ltd. | Light-emission modulation having effective scheme of creating gray scale on image |
JP4515653B2 (ja) | 2001-03-15 | 2010-08-04 | 株式会社リコー | 情報入力装置、情報入力装置の制御方法、プログラムおよびプログラムを記録したコンピュータ読み取り可能な記録媒体 |
US6791596B2 (en) | 2001-06-28 | 2004-09-14 | Ricoh Company, Ltd. | Method and apparatus for image forming capable of effectively generating pixel clock pulses |
US7564588B2 (en) | 2002-01-24 | 2009-07-21 | Ricoh Company, Ltd. | Image forming device, image forming method, and recording medium that provide multi-level error diffusion |
JP4014083B2 (ja) | 2002-03-06 | 2007-11-28 | 株式会社リコー | 画像形成装置 |
AU2003238660A1 (en) * | 2002-06-26 | 2004-01-19 | Vkb Inc. | Multifunctional integrated image sensor and application to virtual interface technology |
JP4165746B2 (ja) | 2003-02-07 | 2008-10-15 | 株式会社リコー | 画素クロック生成回路及び画像形成装置 |
US7496121B2 (en) | 2003-03-20 | 2009-02-24 | Ricoh Company, Ltd. | Laser modulating and driving device and image reproducing apparatus using the same |
JP4204000B2 (ja) | 2003-12-02 | 2009-01-07 | 株式会社リコー | ディザマトリクス作成方法および装置、画像処理方法および装置、画像形成方法および装置、プログラムおよび記録媒体 |
JP4605692B2 (ja) | 2004-03-19 | 2011-01-05 | 株式会社リコー | 半導体レーザ変調駆動装置及び画像形成装置 |
JP2007038477A (ja) | 2005-08-02 | 2007-02-15 | Ricoh Co Ltd | 画素クロック及びパルス変調信号生成装置、光走査装置及び画像形成装置 |
US8081355B2 (en) | 2007-03-05 | 2011-12-20 | Ricoh Company, Ltd. | Illumination unit, image read apparatus, image formation apparatus |
JP2008225000A (ja) | 2007-03-12 | 2008-09-25 | Ricoh Co Ltd | 画像処理装置、画像処理方法、プログラム及び記録媒体 |
US7961365B2 (en) | 2007-05-10 | 2011-06-14 | Ricoh Company, Ltd. | Image reading apparatus and image forming apparatus |
US20090073495A1 (en) | 2007-09-14 | 2009-03-19 | Ricoh Company, Ltd | Image processing apparatus and computer program product |
US8199371B2 (en) | 2008-02-25 | 2012-06-12 | Ricoh Company, Ltd. | Image reader and image formation apparatus |
JP4513905B2 (ja) * | 2008-06-27 | 2010-07-28 | ソニー株式会社 | 信号処理装置、信号処理方法、プログラム及び記録媒体 |
US8169671B2 (en) | 2008-06-30 | 2012-05-01 | Ricoh Company, Ltd. | Lighting unit, image reading apparatus and image forming apparatus using the same |
JP4922258B2 (ja) | 2008-07-14 | 2012-04-25 | 株式会社リコー | 画像読取装置及び画像形成装置 |
JP5181899B2 (ja) | 2008-07-25 | 2013-04-10 | 株式会社リコー | 画像読取装置及び画像形成装置 |
JP5196305B2 (ja) | 2008-07-30 | 2013-05-15 | 株式会社リコー | 読取光学系ユニット、画像読取装置および画像形成装置 |
GB2477044B (en) | 2008-08-22 | 2012-04-04 | Northrop Grumman Systems Corp | Compound gesture recognition |
JP2010050850A (ja) | 2008-08-22 | 2010-03-04 | Ricoh Co Ltd | 画像処理装置、画像処理方法、画像形成装置、プログラム、及び記録媒体 |
US8208751B2 (en) | 2008-11-27 | 2012-06-26 | Ricoh Company, Limited | Image processing apparatus, image processing method, and program |
US9417700B2 (en) * | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
US8633810B2 (en) * | 2009-11-19 | 2014-01-21 | Robert Bosch Gmbh | Rear-view multi-functional camera system |
US8988508B2 (en) | 2010-09-24 | 2015-03-24 | Microsoft Technology Licensing, Llc. | Wide angle field of view active illumination imaging system |
US8610971B2 (en) | 2010-10-20 | 2013-12-17 | Ricoh Company, Limited | Image forming apparatus |
GB201205303D0 (en) * | 2012-03-26 | 2012-05-09 | Light Blue Optics Ltd | Touch sensing systems |
JP6270157B2 (ja) * | 2012-07-30 | 2018-01-31 | 国立研究開発法人産業技術総合研究所 | 画像処理システムおよび画像処理方法 |
US9465484B1 (en) * | 2013-03-11 | 2016-10-11 | Amazon Technologies, Inc. | Forward and backward looking vision system |
US10093247B2 (en) * | 2013-05-23 | 2018-10-09 | GM Global Technology Operations LLC | Enhanced front curb viewing system |
JP2015212927A (ja) * | 2014-04-17 | 2015-11-26 | 株式会社リコー | 入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム |
-
2014
- 2014-12-11 JP JP2014250479A patent/JP2016114963A/ja active Pending
-
2015
- 2015-11-13 US US14/940,484 patent/US10048808B2/en not_active Expired - Fee Related
- 2015-11-17 EP EP15195020.1A patent/EP3032375B1/en not_active Not-in-force
- 2015-12-11 CN CN201510919004.4A patent/CN105700736B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103002239A (zh) * | 2011-09-14 | 2013-03-27 | 株式会社理光 | 投影仪装置和操作检测方法 |
DE102011119082A1 (de) * | 2011-11-21 | 2013-05-23 | Übi UG (haftungsbeschränkt) | Vorrichtungsanordnung zur Schaffung eines interaktiven Bildschirms aus einem Bildschirm |
CN104035555A (zh) * | 2013-03-05 | 2014-09-10 | 株式会社理光 | 系统、信息处理装置和信息处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105700736A (zh) | 2016-06-22 |
EP3032375A1 (en) | 2016-06-15 |
JP2016114963A (ja) | 2016-06-23 |
US10048808B2 (en) | 2018-08-14 |
US20160170564A1 (en) | 2016-06-16 |
EP3032375B1 (en) | 2018-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105700736B (zh) | 输入操作检测设备、投影装置、交互白板和数字标识装置 | |
US10091489B2 (en) | Image capturing device, image processing method, and recording medium | |
US9323338B2 (en) | Interactive input system and method | |
US20160259402A1 (en) | Contact detection apparatus, projector apparatus, electronic board apparatus, digital signage apparatus, projector system, and contact detection method | |
WO2013035758A1 (ja) | 情報表示システム、情報表示方法、及び記憶媒体 | |
CN103299259A (zh) | 检测装置、输入装置、投影机以及电子设备 | |
CN102799318A (zh) | 一种基于双目立体视觉的人机交互方法及系统 | |
US9746966B2 (en) | Touch detection apparatus, touch detection method, and non-transitory computer-readable recording medium | |
JP2014170511A (ja) | システム、画像投影装置、情報処理装置、情報処理方法およびプログラム | |
JP2017199289A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
US20150301690A1 (en) | Input-operation detection device, image display apparatus, projector apparatus and projector system | |
JP6528964B2 (ja) | 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法 | |
US9639209B2 (en) | Optical touch system and touch display system | |
CN110132129B (zh) | 基于增强现实的检查系统及方法 | |
KR20130050672A (ko) | 3차원 카메라를 이용한 가상 터치 방법 및 장치 | |
CN113760131B (zh) | 投影触控处理方法、装置及计算机可读存储介质 | |
KR101426378B1 (ko) | 깊이 정보를 이용한 프레젠테이션 이벤트 처리 장치 및 방법 | |
JP2017219942A (ja) | 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。 | |
US10073614B2 (en) | Information processing device, image projection apparatus, and information processing method | |
KR20170129948A (ko) | 인터랙티브 프로젝터, 인터랙티브 프로젝션 시스템 및, 인터랙티브 프로젝터의 제어 방법 | |
JP6643825B2 (ja) | 装置及び方法 | |
US20240070889A1 (en) | Detecting method, detecting device, and recording medium | |
KR20200039983A (ko) | 공간 터치 감지 장치 및 이를 포함하는 표시 장치 | |
TWI543047B (zh) | 光學式觸控面板 | |
US11460956B2 (en) | Determining the location of a user input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180824 Termination date: 20201211 |