CN104035555A - 系统、信息处理装置和信息处理方法 - Google Patents

系统、信息处理装置和信息处理方法 Download PDF

Info

Publication number
CN104035555A
CN104035555A CN201410075195.6A CN201410075195A CN104035555A CN 104035555 A CN104035555 A CN 104035555A CN 201410075195 A CN201410075195 A CN 201410075195A CN 104035555 A CN104035555 A CN 104035555A
Authority
CN
China
Prior art keywords
image
unit
destination object
detecting
view field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410075195.6A
Other languages
English (en)
Other versions
CN104035555B (zh
Inventor
柳下高弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of CN104035555A publication Critical patent/CN104035555A/zh
Application granted granted Critical
Publication of CN104035555B publication Critical patent/CN104035555B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen

Abstract

本发明提供了一种系统、信息处理装置和信息处理方法,其中所述系统包括:投影单元,用于将图像投影在投影对象上;图像捕捉单元,用于捕捉存在于从投影单元投影的投影光的光学路径中的目标对象的图像;检测单元,用于基于通过图像捕捉单元捕捉的捕捉图像来检测从目标对象反射的光;判定单元,用于基于捕捉的图像判定与通过投影单元投影的图像对应的在目标空间中的目标对象的位置信息;以及识别单元,用于基于通过检测单元检测的从目标对象反射的光以及通过判定单元判定的位置信息,来识别在投影对象上的投影区域,其中将图像投影到所述投影对象上。

Description

系统、信息处理装置和信息处理方法
相关申请的交叉参考
本申请权利要求享有在2013年3月5日于日本提交的日本专利申请No.2013-043392的优先权并且通过参考的方式合并其整个内容。
技术领域
本发明涉及系统、信息处理装置和信息处理方法。
背景技术
传统上已经提出用户界面(UI)设备,使用户能在显示屏前方的使用空闲的空间作为虚拟操作表面。当观看在显示屏上显示的图像时,用户可以使用虚拟操作表面作为触摸面板并通过移动手指等(目标对象)来输入操作输入。
在UI设备中,在真实空间(虚拟操作表面)中目标对象的位置和在显示屏幕上目标对象的位置之间的对应是重要的。例如日本专利申请特开No.2000-200149公开了一种技术,其中显示用于标度的图像(这意为用于确定在真实空间中的目标对象位置和在显示屏上的目标对象位置之间的对应关系的处理),该图像使得在矩形图像的四个角上显示指定的标记,并且指着所投影的标度图像上的指定标记的手的位置(在真实空间中的位置)与在显示屏上的标记的位置关联。
但是在日本专利申请特开No.2000-200149公开的技术中,当用户不能通过他/她的手到达标记时(在如此的情况下,例如在大屏幕上投影上述标度图像),存在不能执行精确标度的问题。
鉴于上述提到的环境,存在提供可以执行精确标度的系统、信息处理装置和信息处理方法的需要,该精确标度是检测对投影图像执行的指令操作所必需的。
发明内容
本发明的目标是至少部分解决传统技术中的问题。
一种系统,包括:投影单元,用于在投影区域上投影图像;图像捕捉单元,用于捕捉存在于从投影单元投影的投影光的光学路径中的目标对象的图像;检测单元,用于基于通过图像捕捉单元捕捉的捕捉图像来检测从目标对象反射的光;判定单元,用于基于捕捉的图像,判定与通过投影单元投影的图像对应的在目标空间中的目标对象的位置信息;以及识别单元,用于基于通过检测单元检测的从目标对象反射的光以及通过判定单元判定的位置信息,来识别在投影对象上的投影区域,其中将图像投影到所述投影对象上。
一种信息处理装置,包括:检测单元,用于基于通过捕捉目标对象的图像的图像捕捉单元所捕捉的图像,检测从目标对象所反射的光,所述目标对象存在于从将图像投影在投影对象上的图像投影装置投影的投影光的光学路径上;判定单元,用于基于捕捉的图像,判定与通过投影单元投影的图像对应的在目标空间中的目标对象的位置信息;以及识别单元,用于基于通过检测单元检测的从目标对象所反射的光和通过判定单元判定的位置信息,识别在投影对象上的投影区域,其中间图像投影到所述投影对象上。
一种信息处理方法,包括:检测步骤,基于通过捕捉目标对象的图像的图像捕捉单元所捕捉的图像,检测从目标对象反射的光,所述目标对象存在于从将图像投影在投影对象上的图像投影装置投影的投影光的光学路径上;判定步骤,基于捕捉的图像,判定与通过图像投影装置投影的图像对应的在目标空间中的目标对象的位置信息;以及识别步骤,基于在所述检测步骤中检测的从目标对象反射的光和通过在所述判定步骤中判定的位置信息,识别投影对象上的投影区域,其中将图像投影到所述投影对象上。
当结合附图考虑时,通过阅读对本发明当前优选实施例的以下详细描述,将更好地理解此发明的上述以及其他目标、特征、有益效果以及技术和工业重要性。
附图说明
图1示出了用户向虚拟操作表面伸出手;
图2是实施例的坐标系的说明图;
图3是当从上方观看时,图1的俯视图;
图4是示出了当投影仪远离投影对象并且放大投影图像尺寸时,在真实空间上手指的坐标值的示意图;
图5是示出了当向右边移动投影仪时,在真实空间上手指的坐标值的示意图;
图6是示出了依据第一实施例,投影仪的功能配置例子的方框图;
图7是示出了第一实施例中所投影的标度图像的一个例子;
图8是第一实施例中用于生成标度信息的处理的一个例子的流程图;
图9是示出了依据第二实施例,投影仪的功能配置例子的方框图;
图10示出了第二实施例中所投影的标度图像的一个例子;以及
图11是第二实施例中,用于生成标度图像信息的处理的一个例子的流程图。
具体实施方式
以下,将结合附图详细描述依据本发明的系统、信息处理装置和信息处理方法的实施例。虽然使用超短焦距投影仪作为应用本发明的图像投影装置的例子,但是图像投影装置不限于此。例如,可以采用短焦距投影仪或长焦距投影仪作为应用本发明的图像投影装置。
此处,术语“焦距”和投影距离同义,指的是从投影表面到光学位置的距离(例如,从投影端口到投影对象的距离,其中从投影端口投影投影光,在将图像投影到投影对象上)。超短焦距投影仪在投影距离上比短焦距投影仪短,并且短焦距投影仪在投影距离上比长焦距投影仪短。例如对于超短焦距投影仪可以将投影距离设置为“11.7至24.9cm”,对于短焦距投影仪可以将投影距离设置为“0.7至14.6m”,对于长焦距投影仪可以将投影距离设置为1.3至32.4m”。(第一实施例)
在本实施例中,如图1所示,在投影对象2(在图1例子中是墙表面)的投影区域3上投影图像。假设在投影区域3前方的空闲空间中设置虚拟操作表面4。当用户(操作者)在虚拟操作表面4上执行如移动手(手指)的指令操作时,投影仪100响应于所辨别的指令操作,切换要投影在投影区域3上的图像。
在此实施例中,为了在与投影区域3对应的目标空间(包括虚拟操作平面4的真实空间)中辨别指令操作,使用了光学传感器。可以将目标空间理解为与通过投影仪100投影的图像对应的空间。在通过使用光学传感器辨别指令操作的情况下,需要安置光学传感器,以便不会将人体插入执行操作的手(检测对象)和光学传感器之间。在图1的例子中,光学传感器包括三维距离传感器200和相机(在此例子中的单眼相机)300。可以将光学传感器理解为投影仪100的一个元件。
三维距离传感器200包括未示出的用于发射红外光的光发射单元和未示出的用于接收从手反射和返回的光的光接收单元。三维距离传感器200通常被用于手势辨别等。三维距离传感器200可以基于所接收光的图案形状、光接收角度、从光发射到光接收所花费的时间来测量用光进行照射的点(照射点)和三维距离传感器200之间的三维距离。如果三维距离传感器200和投影区域3之间的三维位置关系是已知的,那么可以测量照射点(手的位置)和投影区域3之间的三维位置关系。从另一个角度,可以看做三维距离传感器200测量照射点的三维位置。三维距离传感器200向投影仪100输出指示测量结果的测量信息。
相机300捕捉存在于从投影仪100投影的投影光的光学路径上的目标对象(例如人的手)的图像。在此例子中,相机300生成与投影区域3对应的目标空间的捕捉的图像。从捕捉的图像中,能识别指示存在于投影光的光学路径中的目标对象(在照片信息中捕捉的)的反射光的信息(例如反射光的颜色和亮度)。相机300还向投影仪100输出捕捉的图像。可以理解为相机300对应于所附权利要求中的“图像捕捉单元”。在此例子中,还可以理解为前述光学传感器对应于所附权利要求中的“图像捕捉单元”。
另外,在本实施例中,如图2所示,设置投影区域3的坐标系(屏幕的坐标系),使投影区域3的中心作为原点,垂直方向(重力作用方向)作为Yi轴,并且水平方向作为Xi轴。将光学传感器固定到投影对象2(墙表面)上。设置通过光学传感器测量的真实空间(目标空间)的坐标系,使在投影对象2处的光学传感器的上方表面末端的任意点作为原点,垂直方向作为Ys轴,水平方向作为Xs轴,并且深度方向(投影区域3的法线方向)作为Zs轴。但是设置坐标系的方式不限于此。
此处,如在本实施例中一样,假设将光学传感器固定到投影对象2(墙表面)上。每当移动投影仪100时(每当改变投影图像的尺寸和投影位置时),都有必要重新进行标度处理,该标度处理确定在通过光学传感器检测的手的坐标(Xs,Ys)与在投影区域3上的坐标(Xi,Yi)之间的对应关系。例如在示出如从上方观看图1时的图3的俯视图中,在通过手指示投影在投影区域上的图像(投影图像)的右端的状态下,通过光学传感器测量的手的Xs轴坐标值是Xs1。但是,当投影仪100远离投影对象2并且放大了投影图像尺寸(投影区域3的尺寸)时,如图4所示,在通过手指示所投影的图像的右端状态下,通过光学传感器测量的Xs轴坐标值是Xs2(>Xs1)。另外,如图5所示,例如当向右(在Xs轴的正方向上)移动投影仪100时,在通过手指示所投影的图像的右端状态下,通过光学传感器测量的Xs轴坐标值是Xs3(>Xs1)。
在下面的描述中,对焦点放在与投影仪100的标度处理有关的功能上。图6是示出依据本实施例的投影仪100的功能配置例子的方框图。如图6所示,投影仪100包括输出控制单元101、检测单元102、判定单元103、识别单元104和确定单元105。
输出控制单元101执行控制来输出用于在前述标度处理中使用的标度图像,该标度处理确定在目标空间中目标对象的位置(真实空间坐标系中的坐标值(Xs,Ys))和投影区域3上的位置(投影区域3的坐标系中的坐标值(Xi,Yi))之间的对应关系。在本实施例中,输出控制单元101执行控制来输出取决于投影区域3上的位置而具有不同颜色的标度图像。输出控制单元101对应于所附权利要求中的“输出控制单元”。
图7示出了通过输出控制单元101在投影对象2上投影的标度图像的一个例子。但是,标度图像的配置不限于图7中所示出的。在图7的例子中,标度图像数据(投影目标图像数据)包括多个图像元素块,每个图像元素块包含一个或多个像素。将各个图像元素块设置得在显示颜色上彼此不同。在本例子中,可以理解为每个图形元素块形成在标度中使用的标记。
再次根据图6继续描述。基于通过相机300捕捉的图像,检测单元102检测从目标对象反射的光(以下也称作“反射光”),该目标对象存在于从投影仪100投影的投影光的光学路径上。在本实施例中,基于通过相机300捕捉的图像,来检测存在于投影光的光学路径上的目标对象的反射光的颜色。检测单元102对应于所附权利要求中的“检测单元”。
判定单元103判定前述的、在目标空间中目标对象的位置信息。在本实施例中,判定单元10基于来自三维距离传感器200的输出(测量结果信息),判定前述的、目标空间中目标对象的位置信息(表示三维位置的信息)。在此例子中,由于判定单元103事先知晓三维距离传感器200和投影区域3之间的三维位置关系,所以判定单元103可以从通过三维距离传感器200测量的目标对象的三维距离中判定目标对象的位置信息。但是,并不限于此,例如可以将判定单元103配置为:基于通过相机300捕捉的图像来判定在目标空间中目标对象的位置信息。判定单元103对应于所附权利要求中的“判定单元”。
识别单元104基于通过检测单元102检测的从目标对象反射的光,和通过判定单元103判定的位置信息来识别在其上投影图像的投影对象2的投影区域3。识别单元104与所附权利要求中的“识别单元”对应。
确定单元105基于通过检测单元102检测的反射光,确定通过判定单元103判定的位置信息对应于投影区域3上的哪个位置。更具体地,当在投影对象2上投影前述标度图像时,确定单元105基于通过检测单元102检测的反射光识别由目标对象(例如用户的手指)指示的投影区域3的位置(投影区域3的坐标系中的坐标值)。确定单元105确定在投影区域3上识别的位置与通过判定单元103判定的位置信息(真实空间的坐标系中的坐标值)对应。
在本实施例中,确定单元105基于通过检测单元102检测的反射光的颜色,来识别由目标对象指示的、在投影区域3上的位置。更具体地,确定单元105识别与通过检测单元102检测的反射光的颜色相对应的投影区域3上的位置,作为由目标对象指示的位置。确定单元105与所附权利要求中的“确定单元”对应。
例如,假设如图7所示一样配置被投影到投影区域3上的标度图像。在图7的例子中,如果假设在投影区域3中右上端区域(与在要投影的图像数据中、右上端部分的图像元素块对应的区域)的颜色为粉色,那么,当用户的手指(手)接触右上端部分时,通过用户的手指反射粉色投影光,并且将反射的光捕捉在通过相机300捕捉的图像中。因此在检测单元102中检测到粉色的反射光。在此例子中,由于确定单元105事先知晓反射光的颜色和投影区域3上的坐标值(投影区域的坐标系中的坐标值)之间的对应关系,所以确定单元105可以从通过检测单元102检测的反射光的颜色中识别对应于该颜色的投影区域3上的坐标值。可以确定,在那个时间点上,识别的坐标值与通过判定单元103判定的位置信息(与投影对象2接触的手指的真实空间位置)对应。
在此情况下,如果可以将在投影区域3上的、Xi轴坐标值和Yi轴坐标值都彼此不相同的两个位置与接触投影对象2的手指的真实空间位置进行关联,那么,随后通过线性插入可以获取其他位置与手指的真实空间位置的关联。因此在本实施例中,确定单元105执行两次标度处理,该标度处理用于关联接触投影对象2的手指的真实空间位置(真实空间的坐标系中的坐标值)和在投影区域3上的位置。确定单元105随后执行线性插入以便生成标度信息,该标度信息将在投影区域3上的各个坐标值和接触投影对象2的手指的真实空间坐标值进行关联。
前述标度处理的次数不限于两次,只要是两次或者更多就可以。例如可以将标度处理配置为在生成标度信息之前,执行三次标度处理,和/或可以将标度处理配置为在生成标度信息之前,执行四次标度处理。还可以将本实施例配置为使得在执行两次标度处理之后并且在生成标度信息之前,显示(投影)图像来提示用户选择是否要执行额外的标度处理。
另外,在本实施例中,将包括CPU、ROM和RAM的通用计算机设备装配到投影仪100上。通过使CPU执行存储在ROM等之中的程序来执行投影仪100的各个单元(输出控制单元101、检测单元102、判定单元103、识别单元104和确定单元105)的上述功能。但是本发明不限于这种配置。可以通过专用硬件电路来执行投影仪100的各个单元的以上提及的功能中的至少一部分。
现在,根据图8,将描述投影仪100生成标度信息的处理。图8是示出投影仪100生成标度信息的处理的一个例子的流程图。如图8所示,投影仪100(例如确定单元105)首先执行初始化处理(步骤S101)。在此例子中,投影仪100将表示标度处理次数的计数值n设置成初始值“0”(n=0)。投影仪100还将与第一(在此例子中的n=0)标度处理对应的、在投影区域3上的每个X轴坐标值Xi[0]和Yi轴坐标值Yi[0]设置成缺省值“null”。
接着,输出控制单元101开始进行标度图像的投影(步骤S102)。随后,确定单元105基于检测单元102的检测,确定用户的手指(手)是否已经与投影对象2发生接触(步骤S103)。如果确定用户的手指已经与投影对象2发生接触(步骤S103中的是),则确定单元105从判定单元103获取在那个时间点、由判定单元103判定的手指的位置信息(与投影对象2接触的手指的真实空间坐标值)(步骤S104)。接着,确定单元105基于通过检测单元102检测的反射光的颜色来判定投影区域3上的坐标值(表示由用户的手指所指示的、在投影区域上的位置的坐标值)(步骤S105)。根据前边描述的方法基于反射光的颜色识别在投影区域3上的坐标值。
接着,确定单元105确定在上述步骤S105中判定的投影区域3上的坐标值是否与设置的坐标值相同(步骤S106)。在第一(n=0)标度处理中,确定单元105确定在上述步骤S105中判定的投影区域3上的坐标值与在前述的初始化处理中设置的缺省“null”相同。在第二和后续的标度处理(n≥1)中,确定单元105确定在上述步骤S105中判定的投影区域3上的坐标值是否与已经与真实空间坐标值关联的、在投影区域3上的坐标值相同。
在上述步骤S106中,如果确定了在上述步骤S105中判定的投影区域3上的坐标值与设置的坐标值相同(步骤S106中为是),则处理返回上述步骤S103,借此重复步骤S103以后的处理。
如果确定了在上述步骤S105中判定的投影区域3上的坐标值与设置的坐标值不同(步骤S106中的否),确定单元105确定在上述步骤S104中获取的真实空间坐标值与在步骤S105中判定的投影区域3上的坐标值对应。随后,确定单元105将关联的数据存储到未示出的存储器中(步骤S107)。在此例子中,未示出的存储器还存储在前述初始化处理中设置的数据。在第一标度处理中,在未示出的存储器内存储的坐标值Xi[0]和坐标值Yi[0]的缺省值(“null”)被更新为在步骤S105中判定的各自的坐标值。
接着,投影仪100(例如确定单元105)将表示标度处理次数的计数值n加一(步骤S108)。投影仪100(例如确定单元105)随后确定计数值是否达到2(步骤S109)。如果确定计数值n尚未达到2(步骤109中的否),则处理返回到上述步骤S103,借此重复步骤S103以后的处理。相反,如果确定计数值n达到2(步骤S109中为是),则输出控制单元101终止标度图像的投影(步骤S110)。随后,基于两次标度处理的结果,确定单元105可以通过执行线性插入等来生成标度信息(步骤S111)。
如前面所述,在本实施例中,基于通过检测单元102检测的反射光,确定单元105确定通过判定单元判定的位置信息(表示在目标空间中目标对象的位置的信息)与投影区域3上的哪个位置对应。更具体地,在输出控制单元101执行控制来输出标度图像,其中该标度图像取决于在投影区域3上的位置而具有不同颜色的情形下,确定单元105基于通过检测单元102检测的反射光的颜色识别由目标对象指示的投影区域3上的位置。确定单元105随后确定在投影区域3上的识别的位置与在那个时间点通过判定单元103判定的位置信息对应。这可以达到允许在标度中使用的标记的位置具有灵活性的同时,能够执行精确的标度处理的有益效果。
(第二实施例)
现在,将描述本发明的第二实施例。在第二实施例中,要投影的标度图像与上面描述的第一实施例的配置不同。以下将提供具体的说明。应当注意到,将相应地省略对那些与前述第一实施例相同的部件的描述。
图9是示出依据第二实施例,投影仪1000的功能配置例子的方块图。如图9所示,投影仪1000包括输出控制单元1010、检测单元1020、判定单元103、识别单元104和确定单元1050。由于判定单元103和识别单元104的功能与第一实施例相同,所以省略了对其的详细描述。
输出控制单元1010执行控制来输出标度图像,在该标度图像中,在投影区域3上的、具有指定值亮度的图案图像的显示位置随时间变化。图10示出了通过输出控制单元1010投影到投影对象2上的标度图像的一个示例。标度图像的配置不限于图10所示的。图10示出了高亮度图案图像(标记图案图像)顺次沿光栅扫描方向移动的配置。可以通过循环复制多个帧执行此配置,其中,该帧具有定位的指定白色区域(矩形白色区域),以便在全黑背景下沿光栅扫描方向从一个帧到另一个帧地逐渐移位。在图10的例子中,与白色对应的亮度对应于指定值的亮度。在此例子中输出控制单元1010还执行控制来通知确定单元1050要投影的标度图像的帧数量。
检测单元1020具有基于来自相机300的捕捉的画面,来检测来自目标对象的反射光的亮度的功能,其中该目标对象存在于投影光的光学路径上。
确定单元105基于通过检测单元1020检测的反射光的亮度,来识别目标对象所指示的投影区域3上的位置。另外,当通过检测单元1020检测的反射光的亮度等于或大于指定值时,确定单元1050识别在那个时间点、投影区域3上的图案图像的显示位置,作为目标对象所指示的位置。在此例子中,确定单元1050事先知晓在由输出控制单元1010通知的帧数量和表示在投影区域3上图案图像的显示位置的坐标值之间的对应关系。因此,从通过输出控制单元1010通知的帧数量中,确定单元1050能够直接知晓在投影区域3上当前显示的图案图像的显示位置(投影区域3的坐标系中的坐标值)。
现在,根据图11,描述投影仪1000生成标度信息的处理。图11是示出了投影仪1000生成标度信息的处理的一个例子的流程图。由于在图11中所示的步骤S201和步骤S202中的处理的内容与在图8中所示的在步骤S101和步骤S102中的处理的内容相同,所以省略对其的详细描述。
在步骤S203中,输出控制单元1010执行控制来切换标度图像帧(步骤S203)。其结果是,在投影区域3上的图案图像的显示位置也发生变化。接着,基于通过检测单元102的检测,确定单元1050确定用户的手指是否已经与投影对象2接触(步骤S204)。如果确定用户的手尚未与投影对象2接触(步骤S204中为否),那么处理返回到上述处理S203,并且输出控制单元1010执行控制来切换到下一帧。
与此相反,如果确定用户的手指已经与投影对象2发生接触(步骤S204中为是),那么确定单元1050从判定单元103获取在那个时间点、通过判定单元103判定的位置信息(与投影对象2接触的手指的真实空间坐标值)(步骤S205)。确定单元1050随后确定通过检测单元1020检测的反射光的亮度是否与指定值相等(步骤S206)。
如果在上述步骤S206中确定通过检测单元1020检测的反射光的亮度与指定值不相等(步骤S206中为否),则处理返回到上述步骤S203,并且输出控制单元1010执行控制来切换到下一帧。与此相反,如果确定通过检测单元1020检测的反射光的亮度与指定值相等(步骤206中为是),则确定单元1050由在那个时间点投影的标度图像的帧数量(通过输出控制单元1010通知的帧数量)来判定表示在投影区域3上的图案图像的显示位置的坐标值(步骤S207)。
接着,确定单元1050确定上述步骤S107中判定的投影区域3上的坐标值是否与设置的坐标值相同(步骤S208)。处理的内容与图8所示的步骤S105中的处理内容相同。
如果在上述步骤S208中确定在上述步骤S207中判定的投影区域3上的坐标值与设置的坐标值相同(步骤S208为是),则处理返回上述步骤S203,借此重复步骤S203以后的处理。
如果确定在步骤S107中判定的投影区域3上的坐标值与设置的坐标值不同(步骤S208中为否),则确定单元1050确定在上述步骤S205中获得的真实空间坐标值与在步骤S207中判定的投影区域3上的坐标值相对应。随后,确定单元105在未示出的存储器中存储坐标值关联数据(步骤S209)。处理的内容与图8所示的步骤S107中的处理内容相同。
由于下个步骤S210和后续步骤的处理内容与图8中所示的步骤S108和后续步骤的处理的内容相同,所以省略了对其的详细描述。此外,在本实施例中,能达到与前述第一实施例中相似的效果。
例如,可以将与前述标度处理有关的功能(输出控制单元101和1010、检测单元102和1020、判定单元103、识别单元104和确定单元105和1040)配置为装配到与投影仪连接的信息处理装置上。简言之,本发明可以应用于信息处理装置。可以将根据本发明的信息处理装置配置为至少包括检测单元、判定单元和识别单元。将检测单元配置为基于通过捕捉目标对象的图像的图像捕捉单元所捕捉的图像,来检测从目标对象反射的光,该目标对象存在于将图像投影在投影目标上的图像投影装置投影的投影光的光学路径上。将判定单元配置为基于捕捉到的图像,判定与通过图像投影装置投影的图像相对应的在目标空间中的目标对象的位置信息。将识别单元配置为基于通过检测单元检测的从目标对象反射的光和通过判定单元判定的位置信息,来识别在投影有图像的投影对象上的投影区域。
可以将前述投影仪(100、1000)中包括的各个单元的功能配置为以分布的方式装配到投影仪上和与投影仪连接的信息处理装置上。简言之,本发明也可以应用于包括投影仪和与投影仪连接的信息处理装置的系统。根据本发明的系统可以被配置为至少包括投影单元、图像捕捉单元、检测单元、判定单元和识别单元。将投影单元配置为将图像投影在投影对象上。将图像捕捉单元配置为捕捉存在于从投影单元投影的投影光的光学路径上的目标对象的图像。将检测单元配置为基于通过图像捕捉单元捕捉的图像,检测从目标对象反射的光。将判定单元配置为基于捕捉到的图像,判定与通过投影单元投影的图像相对应的、在目标空间中的目标对象的位置信息。将识别单元配置为基于通过检测单元检测的从目标对象反射的光和通过判定单元判定的位置信息,识别投影了图像的投影对象上的投影区域。
在前述投影仪(100、1000)中执行的程序可以被配置为以可安装或可执行文件格式,记录在计算机可读记录介质上的形式提供,所述计算机可读记录介质诸如是CD-ROM、软盘(FD)、CD-R、和数字化通用盘(DVD)。
另外,可以在前述投影仪(100、1000)中执行的程序配置为以存储在与如互联网的网络连接的计算机中并且经由网络而被下载的形式提供。也可以将前述投影仪(100、1000)中执行的程序配置为经由如互联网的网络提供或分布。
实施例可以达到如下有益效果:能提供可以执行精确标度的系统、信息处理装置和信息处理方法,其中所述精确标度是检测对投影图像执行的指令操作所必需的。
虽然为了完全和清楚地公开,已经根据具体实施例描述了本发明,但是所附权利要求并不由此限制,而应该解释为体现落入于此提出的基本教示之内的、对于本领域技术人员来说可以发生的所有变形和替选结构。

Claims (19)

1.一种系统,包括:
投影单元,用于将图像投影在投影对象上;
图像捕捉单元,用于捕捉存在于从投影单元投影的投影光的光学路径中的目标对象的图像;
检测单元,用于基于通过图像捕捉单元捕捉的捕捉图像来检测从目标对象反射的光;
判定单元,用于基于捕捉的图像,判定与通过投影单元投影的图像对应的在目标空间中的目标对象的位置信息;以及
识别单元,用于基于通过检测单元检测的从目标对象反射的光,以及通过判定单元判定的位置信息,来识别在投影对象上的投影区域,其中将图像投影到所述投影对象上。
2.根据权利要求1所述的系统,还包括确定单元,用于基于通过检测单元检测的从目标对象反射的光,来确定通过判定单元判定的位置信息与在投影区域上的哪个位置对应。
3.根据权利要求2所述的系统,还包括输出控制单元,用于执行控制来输出在标度处理中使用的标度图像,所述标度处理确定在目标空间中的目标对象的位置和投影区域上的位置之间的对应关系,其中
当将标度图像投影到投影对象上时,确定单元基于通过检测单元检测的从目标对象反射的光识别由目标对象指示的投影区域上的位置,并且确定在投影区域上的识别出的位置与通过判定单元判定的位置信息对应。
4.根据权利要求3所述的系统,其中输出控制单元执行控制来输出取决于在投影区域上的位置而具有不同颜色的标度图像。
5.根据权利要求4所述的系统,其中确定单元基于通过检测单元检测的从目标对象反射的光的颜色,来识别通过目标对象所指示的投影区域上的位置。
6.根据权利要求5所述的系统,其中确定单元识别与通过检测单元检测的从目标对象反射的光的颜色相对应的投影区域上的位置,作为由目标对象指示的位置。
7.根据权利要求3所述的系统,其中输出控制单元执行控制来输出标度图像,在所述标度图像中,在投影区域上具有指定值亮度的图案图像的显示位置随时间变化。
8.根据权利要求7所述的系统,其中确定单元基于通过检测单元检测的从目标对象反射的光的亮度,识别通过目标对象指示的投影区域的位置。
9.根据权利要求8所述的系统,其中当通过检测单元检测的从目标对象反射的光的亮度等于或大于指定值时,确定单元识别在那个时间点获取的投影区域上图案图像的显示位置作为由目标对象指示的位置。
10.一种信息处理装置,包括:
检测单元,用于基于通过捕捉目标对象的图像的图像捕捉单元所捕捉的图像,检测从目标对象反射的光,所述目标对象存在于从将图像投影在投影对象上的图像投影装置投影的投影光的光学路径上;
判定单元,用于基于捕捉的图像,判定与通过投影单元投影的图像对应的在目标空间中的目标对象的位置信息;以及
识别单元,用于基于通过检测单元检测的从目标对象反射的光,和通过判定单元判定的位置信息,识别在投影对象上的投影区域,其中将图像投影到所述投影对象上。
11.根据权利要求10所述的信息处理装置,还包括确定单元,用于基于通过检测单元检测的从目标对象反射的光,确定通过判定单元判定的位置信息与投影区域上的哪个位置对应。
12.根据权利要求11所述的信息处理装置,还包括输出控制单元,用于执行控制来输出在标度处理中使用的标度图像,所述标度处理确定在目标空间中的目标对象的位置和投影区域上的位置之间的对应关系,其中
当将在标度处理中使用的标度图像投影在投影对象上时,确定单元基于通过检测单元检测的从目标对象反射的光识别由目标对象指示的投影区域上的位置,并且确定在投影区域上的识别出的位置与通过判定单元判定的位置信息对应,其中所述标度处理确定在目标空间中的目标对象的位置和投影区域上的位置之间的对应关系。
13.根据权利要求12所述的信息处理装置,其中输出控制单元执行控制来输出取决于在投影区域上的位置而具有不同颜色的标度图像。
14.根据权利要求13所述的信息处理装置,其中确定单元基于通过检测单元检测的从目标对象反射的光的颜色,来识别通过目标对象所指示的投影区域上的位置。
15.根据权利要求14所述的信息处理装置,其中确定单元识别与通过检测单元检测的从目标对象所反射的光的颜色相对应的投影区域上的位置,作为由目标对象指示的位置。
16.根据权利要求12所述的信息处理装置,其中输出控制单元执行控制来输出标度图像,在所述标度图像中,在投影区域上具有指定值亮度的图案图像的显示位置随时间变化。
17.根据权利要求16所述的信息处理装置,其中确定单元基于通过检测单元检测的从目标对象反射的光的亮度,识别通过目标对象指示的投影区域的位置。
18.根据权利要求17所述的信息处理装置,其中当通过检测单元检测的从目标对象所反射的光的亮度等于或大于指定值时,确定单元识别在那个时间点获取的投影区域上图案图像的显示位置作为由目标对象指示的位置。
19.一种信息处理方法,包括:
检测步骤,基于通过捕捉目标对象的图像的图像捕捉单元所捕捉的图像,检测从目标对象反射的光,所述目标对象存在于从将图像投影在投影对象上的图像投影装置投影的投影光的光学路径上;
判定步骤,基于捕捉的图像,判定与通过图像投影装置投影的图像对应的在目标空间中的目标对象的位置信息;以及
识别步骤,基于在所述检测步骤中检测的从目标对象所反射的光,和通过在判定步骤中判定的位置信息,识别在投影对象上的投影区域,其中将图像投影在所述投影对象上。
CN201410075195.6A 2013-03-05 2014-03-03 系统、信息处理装置和信息处理方法 Expired - Fee Related CN104035555B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013043392A JP6075122B2 (ja) 2013-03-05 2013-03-05 システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
JP2013-043392 2013-03-05

Publications (2)

Publication Number Publication Date
CN104035555A true CN104035555A (zh) 2014-09-10
CN104035555B CN104035555B (zh) 2017-04-12

Family

ID=51466356

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410075195.6A Expired - Fee Related CN104035555B (zh) 2013-03-05 2014-03-03 系统、信息处理装置和信息处理方法

Country Status (3)

Country Link
US (1) US9535538B2 (zh)
JP (1) JP6075122B2 (zh)
CN (1) CN104035555B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105700736A (zh) * 2014-12-11 2016-06-22 株式会社理光 输入操作检测设备、投影装置、交互白板和数字标识装置
CN107211104A (zh) * 2015-02-03 2017-09-26 索尼公司 信息处理装置、信息处理方法和程序
CN109072282A (zh) * 2016-04-25 2018-12-21 株式会社理光 测试装置和其制备方法、测试方法和测试套装以及用于制备测试装置的转印介质
CN111837094A (zh) * 2018-03-12 2020-10-27 索尼公司 信息处理装置、信息处理方法和程序
CN113422948A (zh) * 2021-06-30 2021-09-21 华中科技大学 一种基于位置匹配的切片式三维图像显示方法及系统

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6070211B2 (ja) * 2013-01-22 2017-02-01 株式会社リコー 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム
DE102013211904A1 (de) * 2013-06-24 2014-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen von Gesten im Strahlbereich eines Projektors
JP2015060296A (ja) * 2013-09-17 2015-03-30 船井電機株式会社 空間座標特定装置
JP2016048541A (ja) 2014-06-19 2016-04-07 株式会社リコー 情報処理システム、情報処理装置及びプログラム
US20160191878A1 (en) * 2014-12-25 2016-06-30 Panasonic Intellectual Property Management Co., Ltd. Image projection device
US11513637B2 (en) * 2016-01-25 2022-11-29 Hiroyuki Ikeda Image projection device
CN107085493A (zh) * 2016-02-16 2017-08-22 中强光电股份有限公司 触控式投影系统及其触控灵敏度的调整方法
JP6729146B2 (ja) * 2016-08-03 2020-07-22 コベルコ建機株式会社 障害物検出装置
US20180059863A1 (en) * 2016-08-26 2018-03-01 Lenovo (Singapore) Pte. Ltd. Calibration of pen location to projected whiteboard
CN110168474A (zh) * 2017-02-24 2019-08-23 索尼移动通信株式会社 信息处理设备、信息处理方法和程序
US11944887B2 (en) * 2018-03-08 2024-04-02 Sony Corporation Information processing device and information processing method
CN113661474A (zh) 2019-04-10 2021-11-16 株式会社村上开明堂 基准位置设定方法和操作检测装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102455779A (zh) * 2010-10-15 2012-05-16 联想(北京)有限公司 信息处理设备和方法
WO2012173001A1 (ja) * 2011-06-13 2012-12-20 シチズンホールディングス株式会社 情報入力装置

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6364068A (ja) 1986-09-05 1988-03-22 Ricoh Co Ltd 静電記録装置
JP2771822B2 (ja) 1988-10-21 1998-07-02 株式会社リコー 光照射画像形成装置
US4918489A (en) 1989-05-24 1990-04-17 Ricoh Co., Ltd. Method of supplying recording sheets in image forming apparatus
US5019913A (en) 1989-10-02 1991-05-28 Ricoh Company, Ltd. Recording apparatus having control data selectively designated in memory which corresponds to one of multiple optical scanning systems
JP3348221B2 (ja) 1989-10-31 2002-11-20 株式会社リコー 画像記録装置
JP3201796B2 (ja) 1991-10-31 2001-08-27 株式会社リコー 画像形成装置
US5565907A (en) 1993-04-20 1996-10-15 Ricoh Company, Ltd. Image forming apparatus capable of producing high quality halftone images
JPH09261429A (ja) 1996-03-25 1997-10-03 Ricoh Co Ltd 画像形成装置
US6459816B2 (en) 1997-05-08 2002-10-01 Ricoh Company, Ltd. Image processing system for compressing image data including binary image data and continuous tone image data by a sub-band transform method with a high-compression rate
US20030012445A1 (en) 1997-05-08 2003-01-16 Nekka Matsuura Image processing system for compressing image data including binary image data and continuous tone image data by a sub-band transform method with a high-compression rate
US6704455B1 (en) 1997-05-29 2004-03-09 Ricoh Company, Ltd. Image processing system and image processing method
JP3964042B2 (ja) 1998-04-08 2007-08-22 株式会社リコー カラー画像処理装置およびカラー画像処理方法
JP3682709B2 (ja) 1998-06-12 2005-08-10 株式会社リコー 画像処理装置
JP3615399B2 (ja) 1998-09-22 2005-02-02 株式会社リコー 画像処理装置および画像処理方法
JP3883028B2 (ja) 1998-12-14 2007-02-21 株式会社リコー 画像符号化装置及び方法
JP2000200149A (ja) 1999-01-05 2000-07-18 Seiko Epson Corp 表示システムおよびポインティング制御方法並びに記録媒体
US6788811B1 (en) 1999-05-10 2004-09-07 Ricoh Company, Ltd. Coding apparatus, decoding apparatus, coding method, decoding method, amd computer-readable recording medium for executing the methods
JP3857509B2 (ja) 1999-09-20 2006-12-13 株式会社リコー 画像処理装置、画像処理システム、画像符号化方法、及び記憶媒体
US7221483B2 (en) 2000-09-05 2007-05-22 Ricoh Company, Ltd. Image encoding method and apparatus, image decoding method and apparatus, image processing apparatus, image formation apparatus, and computer-executable programs
US7277585B2 (en) 2001-05-25 2007-10-02 Ricoh Company, Ltd. Image encoding method, image encoding apparatus and storage medium
JP2003029201A (ja) * 2001-07-11 2003-01-29 Canon Inc 画像投射装置及び画像補正方法
JP2003087547A (ja) 2001-09-12 2003-03-20 Ricoh Co Ltd 画像処理装置
JP4061143B2 (ja) 2002-07-11 2008-03-12 株式会社リコー 画像処理装置および画像処理方法
JP3952459B2 (ja) 2002-11-15 2007-08-01 株式会社リコー 画像処理装置、プログラム、記憶媒体及び画像処理方法
JP3950791B2 (ja) 2002-12-10 2007-08-01 株式会社リコー 画像処理装置及び画像データ処理方法
JP2004221950A (ja) 2003-01-15 2004-08-05 Ricoh Co Ltd 画像処理装置、プログラムおよび記憶媒体
JP4001284B2 (ja) 2003-03-11 2007-10-31 株式会社リコー 画像処理装置および画像処理方法
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US8386909B2 (en) * 2005-04-07 2013-02-26 Hewlett-Packard Development Company, L.P. Capturing and presenting interactions with image-based media
JP4860388B2 (ja) 2005-09-27 2012-01-25 株式会社リコー 画像処理装置、画像処理方法及び該方法を実行させるためのプログラムを格納したコンピュータ読み取り可能な記録媒体
US8149451B2 (en) 2007-07-18 2012-04-03 Ricoh Company, Ltd. Information processing device, information embedding method, and program
JP4745317B2 (ja) * 2007-11-07 2011-08-10 シャープ株式会社 表示システムおよび指示位置の検出方法
JP5277703B2 (ja) 2008-04-21 2013-08-28 株式会社リコー 電子機器
JP5347784B2 (ja) 2008-08-19 2013-11-20 株式会社リコー 画像処理装置、付加情報提供方法、プログラム、記憶媒体
JP2010113568A (ja) * 2008-11-07 2010-05-20 Toyota Infotechnology Center Co Ltd 動作検出装置及びそれを用いた操作システム
JP5413061B2 (ja) 2009-08-31 2014-02-12 株式会社リコー 画像形成システム及び画像形成方法
JP5471266B2 (ja) * 2009-10-07 2014-04-16 セイコーエプソン株式会社 位置検出機能付き投射型表示装置
JP5510907B2 (ja) * 2009-12-01 2014-06-04 学校法人東京電機大学 タッチ位置入力装置及びタッチ位置入力方法
JP2011248041A (ja) * 2010-05-26 2011-12-08 Seiko Epson Corp 取り付け装置及び投写型表示装置
US20120062518A1 (en) * 2010-09-09 2012-03-15 Light Blue Optics Ltd Touch Sensing Systems
US20120236344A1 (en) 2010-09-16 2012-09-20 Ricoh Company, Ltd. Image processing system and image processing apparatus
WO2012064520A1 (en) * 2010-11-12 2012-05-18 3M Innovative Properties Company Interactive polarization-preserving projection display
JP2012108232A (ja) * 2010-11-16 2012-06-07 Nikon Corp 電子機器
GB2486445B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction apparatus system and method
JP5644421B2 (ja) * 2010-11-25 2014-12-24 富士通株式会社 指示手段形状取得装置及び指示手段形状取得プログラム、並びに投影システム
JP2012150636A (ja) * 2011-01-19 2012-08-09 Seiko Epson Corp 投写型表示装置及び情報処理システム
JP2013021674A (ja) * 2011-06-13 2013-01-31 Ricoh Co Ltd 画像計測方法、画像計測装置及び画像検査装置
JP5864177B2 (ja) * 2011-09-15 2016-02-17 船井電機株式会社 プロジェクタおよびプロジェクタシステム
WO2013104061A1 (en) * 2012-01-11 2013-07-18 Smart Technologies Ulc Calibration of an interactive light curtain
JP6135239B2 (ja) 2012-05-18 2017-05-31 株式会社リコー 画像処理装置、画像処理プログラム、画像処理方法
US20140111479A1 (en) * 2012-10-24 2014-04-24 Apple Inc. Interactive Three-Dimensional Display System
JP6111706B2 (ja) * 2013-02-01 2017-04-12 セイコーエプソン株式会社 位置検出装置、調整方法、および調整プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102455779A (zh) * 2010-10-15 2012-05-16 联想(北京)有限公司 信息处理设备和方法
WO2012173001A1 (ja) * 2011-06-13 2012-12-20 シチズンホールディングス株式会社 情報入力装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105700736A (zh) * 2014-12-11 2016-06-22 株式会社理光 输入操作检测设备、投影装置、交互白板和数字标识装置
US10048808B2 (en) 2014-12-11 2018-08-14 Ricoh Company, Ltd. Input operation detection device, projection apparatus, interactive whiteboard, digital signage, and projection system
CN105700736B (zh) * 2014-12-11 2018-08-24 株式会社理光 输入操作检测设备、投影装置、交互白板和数字标识装置
CN107211104A (zh) * 2015-02-03 2017-09-26 索尼公司 信息处理装置、信息处理方法和程序
CN109072282A (zh) * 2016-04-25 2018-12-21 株式会社理光 测试装置和其制备方法、测试方法和测试套装以及用于制备测试装置的转印介质
CN109072282B (zh) * 2016-04-25 2022-03-15 株式会社理光 测试装置和其制备方法、测试方法和测试套装以及用于制备测试装置的转印介质
CN111837094A (zh) * 2018-03-12 2020-10-27 索尼公司 信息处理装置、信息处理方法和程序
CN113422948A (zh) * 2021-06-30 2021-09-21 华中科技大学 一种基于位置匹配的切片式三维图像显示方法及系统
CN113422948B (zh) * 2021-06-30 2022-07-15 华中科技大学 一种基于位置匹配的切片式三维图像显示方法及系统

Also Published As

Publication number Publication date
JP6075122B2 (ja) 2017-02-08
JP2014170511A (ja) 2014-09-18
CN104035555B (zh) 2017-04-12
US9535538B2 (en) 2017-01-03
US20140253511A1 (en) 2014-09-11

Similar Documents

Publication Publication Date Title
CN104035555A (zh) 系统、信息处理装置和信息处理方法
TWI534661B (zh) 畫像辨識裝置及操作判定方法以及電腦程式
US10091489B2 (en) Image capturing device, image processing method, and recording medium
JP6417702B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9507437B2 (en) Algorithms, software and an interaction system that support the operation of an on the fly mouse
US8525814B2 (en) System and method of distinguishing multiple touch points applied to an optical touch system
CN102375619B (zh) 光学位置输入系统和方法
KR20140016987A (ko) 가상 필기 입력을 위한 방법 및 전자 장치
JP2017199289A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
KR20090085160A (ko) 대화형 입력 시스템 및 방법
CN104915066A (zh) 互动投影装置及其触控位置判断方法
US20170228092A1 (en) Touch region projection onto touch-sensitive surface
CN112540696A (zh) 屏幕触控管理方法、智能终端、装置及可读存储介质
CN114138121A (zh) 用户手势识别方法、装置、系统、存储介质及计算设备
CN105824398A (zh) 一种来电处理方法及移动终端
CN108572734A (zh) 一种基于红外激光辅助成像的手势控制系统
JP2016218893A (ja) 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
US20180032142A1 (en) Information processing apparatus, control method thereof, and storage medium
JP2015184906A (ja) 肌色検出条件決定装置、肌色検出条件決定方法及び肌色検出条件決定用コンピュータプログラム
CN115033170A (zh) 一种基于虚拟键盘的输入控制系统、方法及相关装置
JP7286612B2 (ja) 操作検出装置及び操作検出方法
KR101669850B1 (ko) 센서 켈리브레이션 방법 및 이를 위한 전자 장치와 마커 보드 장치
KR100962511B1 (ko) 전자펜 마우스 및 그 동작 방법
Matsubara et al. Touch detection method for non-display surface using multiple shadows of finger
JP6709022B2 (ja) タッチ検出装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170412

Termination date: 20200303