CN103324282B - 输入用户接口装置、投影装置、命令确定方法 - Google Patents

输入用户接口装置、投影装置、命令确定方法 Download PDF

Info

Publication number
CN103324282B
CN103324282B CN201310177813.3A CN201310177813A CN103324282B CN 103324282 B CN103324282 B CN 103324282B CN 201310177813 A CN201310177813 A CN 201310177813A CN 103324282 B CN103324282 B CN 103324282B
Authority
CN
China
Prior art keywords
mentioned
order
shape
posture
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310177813.3A
Other languages
English (en)
Other versions
CN103324282A (zh
Inventor
高须晶英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of CN103324282A publication Critical patent/CN103324282A/zh
Application granted granted Critical
Publication of CN103324282B publication Critical patent/CN103324282B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明的课题在于可区分基于用户的手等的被拍摄体的移动的命令与基于移动以外的被拍摄体的姿势的命令,并进行输入。输入用户接口装置(1)包括电子摄像机(3),其拍摄包括被拍摄体像的图像;形状检测装置(5),其检测通过电子摄像机(3)拍摄的图像中的拍摄体像的形状;姿势检测装置(7),其检测通过电子摄像机(3)拍摄的图像中的拍摄体像的姿势;以及控制部(8),其根据通过形状检测装置(5)检测的形状和通过姿势检测装置(7)检测的姿势,确定命令。

Description

输入用户接口装置、投影装置、命令确定方法
技术领域
本发明涉及输入用户接口装置、投影装置、命令确定方法。
背景技术
在过去,采用计算机等设备的输入用户接口包括有通过用户的身体摆动、手的摆动而进行输入的感知用户接口。
具体来说,摄像机构对用户的手的摆动进行拍摄,作为计算机的控制部通过规定的算法,根据拍摄图像,识别手的摆动,根据该识别结果,进行显示画面中的图像的旋转等(比如,参照JP特开11-338120号公报)。
另外,具有下述的方向输入用户接口(位置输入用户接口),其中,摄像机构对用户的手的移动进行拍摄,作为计算机的控制部对应于手的移动,使显示画面的光标或指针移动。
在将这样的方向输入用户接口和JP特开11-338120号公报中记载的用户接口组合的场合,难以识别用户的手的动作是关于方向输入,还是关于手的摆动。
即,即使在看上去用户进行手的摆动,输入了图像的旋转等的命令的情况下,控制部误识别为方向输入,使显示画面中的光标或指针移动。
反之,即使在看上去用户移动手,输入了光标或指针移动等的命令的情况下,控制部误识别为手的摆动,显示画面中的图像产生旋转等。
发明内容
本发明要解决的课题在于可区分而输入基于用户的手等的被拍摄体的位置指定的命令、和基于位置指定以外的被拍摄体的姿势的命令。
用于解决课题的技术方案
为了解决上述的课题,本发明的输入用户接口装置的特征在于该输入用户接口装置包括:摄像机构,该摄像机构拍摄包括被拍摄体像的图像;形状检测机构,该形状检测机构检测由上述摄像机构拍摄的上述图像中的上述被拍摄体像的形状;判断机构,该判断机构判断由上述形状检测机构检测出的上述形状是与姿势命令对应的形状,还是与指定位置数据的位置指定命令相对应的形状;以及命令确定机构,该命令确定机构根据由上述判断机构判断出的判断结果,将命令确定为上述姿势命令、或上述位置指定命令。
本发明的投影装置的特征在于该投影装置包括上述输入用户接口装置;以及投影装置主体,该投影装置主体输入由外部设备输出的影像信号,并投影基于该影像信号的画面,由上述命令确定机构确定的姿势命令为针对上述投影装置主体的控制命令。
本发明的命令确定方法的特征在于该命令确定方法包括:摄像步骤,对包括被拍摄体像的图像进行拍摄;形状检测步骤,检测由上述摄像步骤拍摄的上述图像中的上述被拍摄体像的形状;判断步骤,判断由上述形状检测步骤检测出的上述形状是与姿势命令对应的形状,还是与指定位置数据的位置指定命令相对应的形状;以及命令确定步骤,根据由上述判断步骤判断出的判断结果,将命令确定为上述姿势命令、或上述位置指定命令。
附图说明
图1为表示本发明的第1实施方式的输入用户接口装置的使用状态的立体图;
图2表示与姿势命令相对应的手的形状;
图3表示与位置指定命令相对应的手的形状;
图4为上述输入用户接口装置的方框图;
图5为以示意方式表示与姿势命令相对应的参照形状数据的图;
图6为以示意方式表示与位置指定命令相对应的参照形状数据的图;
图7为用于说明上述输入用户接口装置的控制部的功能和处理的流程图;
图8为用于说明本发明的第2实施方式的输入用户接口装置的控制部的功能和处理的流程图;
图9为本发明的第3实施方式的投影装置的方框图。
具体实施方式
下面通过附图,对用于实施本发明的方式进行说明。
但是,在下述的实施方式中,为了实施本发明,附加技术上优选的各种限定。
由此,本发明的技术范围并不限于下述的实施方式和图示例子。
(第1实施方式)
图1为表示本发明的第1实施方式的输入用户接口装置1的使用状态的立体图。
该输入用户接口装置1为感知用户接口(Perceptual User Interface)装置。
像图1所示的那样,投影画面98通过投影装置30,投影于桌子99上。
投影画面98包括在电子摄像机3的摄像范围中,电子摄像机3的摄影范围与投影画面98大致相同,或大于投影画面98。
用户97的手96为被拍摄体,该手96被输入用户接口装置1的电子摄像机3所拍摄。
用户97在投影画面98上,改变手96的形状,或使手移动,通过手96的形状和移动,进行命令输入。
例如,当用户97打开手96,形成使该手96的手指之间轻轻地关闭的状态(参照图2),并快速地使手96摆动时,投影画面98中的页面或窗口被切换。
姿势命令指后述的位置指定命令以外的命令,作为页面切换命令或窗口切换命令以外的姿势命令,除了页面切换命令或窗口切换命令以外,包括点击命令、选择命令、复制命令、粘贴命令、打印屏幕命令、删除命令、退格命令、下翻页命令、上翻页命令、换行命令、空格命令、拖拽命令、drop命令、Alt命令、shift命令、ctrl命令、caps lock命令、tab命令、传真命令、画面放大命令、画面缩小命令等。
在姿势命令具有多种的场合,针对1种姿势命令,分配1种手形状/姿势。
如果用户97的手96为图2以外的形状,比如,用户97的手96为手指指向形状(参照图3),则输入位置指定命令。
即,如果将投影画面98中的光标(指针)显示于与手96的位置相对应的部位,用户97的手96为图3所示的状态,移动手96,则投影画面98中的光标沿手96的移动方向移动。
被拍摄体也可以是用户97实体实际具有的人手96以外的。
比如,也可以是,由投影投影画面98的投影装置30以外的投影装置、光照射装置或激光打印机等在桌子99上映出的图形(手的形状)、光点等的像作为被拍摄体,或者在桌子99上由用户97移动的指示杆也可以作为被拍摄体。
在图1中,投影装置30设置于桌子99上,投影画面98投影于桌子99上。
还可相对该情况,投影装置30设置于立起的墙或屏幕的前面,投影画面98投影于该墙或屏幕上。
在该场合,电子摄像机3也在墙或屏幕的前面,朝向墙或屏幕而设置,投影画面98收纳于电子摄像机3的摄影范围内。
图4为输入用户接口装置1的方框图。
输入用户接口装置1包括电子摄像机3、摄像机控制部4、形状检测装置5、位置检测装置6、姿势检测装置7、控制部8和存储部9。
作为摄像机构的电子摄像机3具有成像元件和摄像透镜,摄像透镜在成像元件上成像,成像元件将通过摄像透镜而成的像通过光电变换,变换为电信号。
电子摄像机3对包括投影画面98并大于该投影画面98的范围进行拍摄。
于是,如果被拍摄体(比如,手96)位于投影画面98和投影装置30之间,则被拍摄体通过电子摄像机3而拍摄,在通过电子摄像机3的成像元件而拍摄的帧(图像)中包括被拍摄体像。
电子摄像机3由摄像机控制部4控制。
即,摄像机控制部4通过驱动电子摄像机3的摄像透镜,进行该摄像透镜的变焦、对焦,摄像机控制部4驱动成像元件,由此,通过成像元件进行摄像。
摄像机控制部4按照规定的帧速率,驱动电子摄像机3,电子摄像机3按照规定的帧速率反复进行摄像,将通过电子摄像机3而拍摄的多个帧依次转送给摄像机控制部4。
摄像机控制部4依次对通过电子摄像机3的成像元件而拍摄的多个帧进行信号处理,由此,依次对这些帧进行数字化处理,将经过数字化处理后的帧从摄像机控制部4依次转送给形状检测装置5和位置检测装置6。
作为形状检测机构的形状检测装置5检测从摄像机控制部4转送的帧之中的被拍摄体像的形状。
具体来说,形状检测装置5对从摄像机控制部4转送的帧,实施图像处理(比如,二值化处理或特征抽取处理(比如,边缘抽取处理)或它们的组合),从该帧中,将被拍摄体像识别为该像的背景,检测该检测出的被拍摄体像的形状(图像处理后的帧)。
另外,形状检测装置5将所检测出的被拍摄体像的形状数据(图像处理后的帧)输出给控制部8。
被拍摄像的形状数据比如,由帧中的被拍摄像的边缘上的各点的位置数据构成。
这些点的位置数据通过帧中的XY坐标系中的XY坐标表示。
X坐标为帧中的横向的位置,Y坐标为帧中的纵向的位置。
原点为帧的中心点或帧的某个角度等。
由于依次将多个帧从摄像机控制部4转送给形状检测装置5,因此形状检测装置5针对每个帧依次检测被拍摄体像的形状,并将所检测出的被拍摄体像的形状的数据依次输出给控制部8。
作为位置检测机构的位置检测装置6检测从摄像机控制部4转送的帧中的被拍摄体像的位置数据。
具体来说,位置检测装置6对从摄像机控制部4转送的帧,实施图像处理(比如,二值化处理或特征抽取处理(比如,边缘抽取处理)或它们的组合),从该帧中检测被拍摄体像,并检测该所检测出的被拍摄体像的位置。
另外,位置检测装置6将所检测出的被拍摄体像的位置的数据输出给控制部8。
被拍摄体像的位置数据通过帧中的XY坐标系中的XY坐标表示。
特别是,被拍摄体像的位置数据通过该被拍摄体像的代表点(比如,该被拍摄体像的重心、该被拍摄体像的边缘上的规定的一个或多个点(比如,在被拍摄体为96的场合下,是指尖的点)等)的XY坐标表示。
由于多个帧从摄像机控制部4依次转送给位置检测装置6,因此位置检测装置6针对每个帧,依次检测被拍摄体像的位置,将所检测出的被拍摄体像的位置的数据依次输出给控制部8和姿势检测装置7。
姿势检测装置7检测从摄像机控制部4转送的多个帧中的被拍摄体像的姿势(移动)。
具体来说,姿势检测装置7检测从位置检测装置6依次输入的位置的差分(该差分为被拍摄体像的姿势/移动)。
比如,姿势检测装置7求出某帧的被拍摄体像的位置(该位置是从位置检测装置6输入的位置。)、与该某帧的1个之前或多个之前的帧的被拍摄体像的位置数据(该位置数据为从位置检测装置6输入的数据,临时锁存于姿势检测装置7中)的差。
另外,姿势检测装置7将所检测出的被拍摄体像的姿势数据输出给控制部8。
由于通过位置检测装置6检测出的被拍摄体像的位置数据从位置检测装置6依次转送给姿势检测装置7,因此姿势检测装置7针对每个帧,依次检测被拍摄体像的姿势(位置变化、位置差分),将该姿势数据(位置变化数据、位置差分数据)依次输出给控制部8。
此外,由于被拍摄体像的姿势数据为每1帧的位置的变化,故其像的移动速度根据该像的每1帧的位置的变化和帧速率而求出,该像的姿势数据表示该像的移动速度。
控制部8为具有微型处理器等的微型计算机。
存储部9为可读写的非易失性半导体存储器、硬盘驱动器等。
在存储部9中,存储控制部8可读取/可运行的程序9a。
控制部8访问存储部9,由此,控制部8执行基于程序9a的处理。
由此,控制部8具有基于程序9a的功能,并且进行摄像机控制部4的控制。
在作为形状存储机构和第2形状存储机构的存储部9中,存储有姿势命令用的第1参照形状数据9b、和位置指定命令用的第2参照形状数据9c。
第1参照形状数据9b比如,像图5所示的那样,由轻轻关闭手指之间的状态的手形状的像9b1的边缘上的各点的位置数据构成。
第2参照形状数据9c比如,像图6所示的那样,由捏住中指至小指,伸出食指的手指指向的手形状的像9c1的边缘上的各点的位置数据构成。
另外,在姿势命令具有多种的场合,第1参照形状数据9b仅仅具有该种类的数量,针对每个第1参照形状数据9b,数据内容不同。对于第2参照形状数据9c,也是同样的。
在作为姿势存储机构的存储部9中,存储有参照姿势数据9d。
参照姿势数据9d为位置的差分数据。
即,参照姿势数据9d为由X方向的移动量和Y方向的移动量构成的数据。
此外,在姿势命令具有多种的场合,参照姿势数据9d仅仅具有该种类的数量,针对每个参照姿势数据9d,数据内容不同,参照姿势数据9d按照每种姿势命令,与第1参照形状数据9b相对应。
控制部8依次输入通过形状检测装置5按照每帧所依次检测出的被拍摄体像的形状数据。
控制部8依次输入通过位置检测装置6按照每帧所依次检测出的被拍摄体像的位置数据。
控制部8依次输入通过姿势检测装置7按照每帧所依次检测出的被拍摄体像的姿势数据。
控制部8通过程序9被用作命令确定机构。
即,控制部8根据从形状检测装置5输入的形状数据和从姿势检测装置7输入的姿势数据等,确定命令,将已确定的命令输出给计算机90。
计算机90进行与从控制部8输入的命令相对应的动作。
参照图7,对用作命令确定机构的控制部8所进行的命令确定处理进行说明。
首先,控制部8判断被拍摄体像的位置的变化的有无(步骤S1)。
被拍摄体像的位置的变化的有无的判断像比如下述的例1和例2那样。
(例1)
在从位置检测装置6输入某帧的被拍摄体像的位置数据后,控制部8将该位置数据和相比该某帧的1个或多个之前的帧的被拍摄体像的位置数据进行比较,由此,判断被拍摄体像的位置的变化的有无(步骤S1)。
作为比较的结果,如果两者的位置数据相等,则通过控制部8判断为被拍摄体像的位置没有变化(步骤S1:否),如果两者的位置数据不同,则通过控制部8判断为被拍摄体像的位置有变化(步骤S1:是)。
(例2)
从姿势检查装置7输入某帧的被拍摄体像的姿势数据后,控制部8通过判断该姿势数据是否是表示没有移动的数据的信息,来判断被拍摄体像的位置的变化的有无(步骤S1)。
如果已输入的姿势数据为表示没有移动的数据的信息,则通过控制部8判断为被拍摄体像的位置没有变化(步骤S1:否),如果已输入的姿势数据不是表示没有移动的数据的信息,则通过控制部8判断为被拍摄体像的位置有变化(步骤S1:是)。
另外,被拍摄体像的位置的变化的有无的判断也可为以上的例1、例2以外的算法。
如果没有被拍摄体像的位置的变化(步骤S1:否),则控制部8的处理返回到步骤S1,通过控制部8判断之后的帧的被拍摄体像的位置的变化的有无。
另一方面,如果被拍摄体像的位置有变化(步骤S1:是),则控制部8将从形状检测装置5输入的被拍摄体像的形状数据与第1参照形状数据9b、第2参照形状数据9c相比较(步骤S2、步骤S3)。
具体来说,控制部8首先计算表示被拍摄体像的形状数据和第1参照形状数据9b的类似程度的类似度,将该计算出的类似度与规定的阈值相比较(步骤S2)。
作为比较的结果,如果类似度超过规定的阈值,则控制部8判断为被拍摄体像的形状数据与第1参照形状数据9b一致(步骤S2:是)。
另一方面,如果类似度小于规定的阈值,则控制部8判断为被拍摄体像的形状数据与第1参照形状数据9b不一致(步骤S2:否)
关于被拍摄体像的形状数据与第2参照形状数据9c的比较(步骤S4),也是同样的。
此外,在与姿势命令相对应的形状具有多种的场合,针对多个第1参照形状数据9b的每个,进行与被拍摄体像的形状数据的比较处理。
在从形状检测装置5输入的被拍摄体像的形状数据不与参照形状数据9b、9c的任意者一致的场合(步骤S2:否,步骤S3:否),控制部8的处理返回到步骤S1,通过控制部8判断之后的帧的被拍摄体像的位置的变化的有无。
在从形状检测装置5输入的被拍摄体像的形状数据与第1参照形状数据9b一致的场合(步骤S2:是),控制部8将从姿势检测装置7输入的姿势数据与参照姿势数据9d相比较(步骤S4)。
另外,在姿势命令具有多种的场合,按照与姿势命令相对应的每个形状,将参照姿势数据9d与姿势检测装置7的输入姿势数据相比较,该参照姿势数据9d是与在步骤S2判断为与被拍摄体像的形状数据一致的第1参照形状数据9b相对应的数据。
在从姿势检测装置7输入的被拍摄体像的姿势数据与参照姿势数据9d一致的场合(步骤S4:是),控制部8确定为与该姿势相对应的姿势命令(步骤S5)。
接着,控制部8将已确定的姿势命令输出给计算机90(步骤S6)。
计算机90进行与从控制部8输入的姿势命令相对应的动作。
作为姿势命令,包括页面切换命令、窗口切换命令、点击命令、选择命令、复制命令、粘贴命令、打印屏幕命令、删除命令、回车命令、下翻页命令、上翻页命令、退格命令、换行命令、空格命令、拖拽命令、drop命令、Alt命令、shift命令、ctrl命令、caps lock命令、tab命令、传真命令、画面放大命令、画面缩小命令等。
在从姿势检测装置7输入的被拍摄体像的姿势数据不与参照姿势数据9d一致的场合(步骤S4:否),控制部8的处理返回到步骤S1,通过控制部8而判断之后的帧的被拍摄体像的位置的变化的有无。
在从形状检测装置5输入的被拍摄体像的形状数据不与第1参照形状数据9b一致的场合(步骤S2,否),在从形状检测装置5输入的被拍摄体像的形状数据与第2参照形状数据9c一致的场合(步骤S3,是),控制部8确定位置指定命令(步骤S7)。
接着,控制部8将从位置检测装置6输入的位置数据输出给计算机90(步骤S8)。
输入了位置数据的计算机90将光标或指针设定在基于该位置数据的位置,形成包括该光标或指针的画面,将基于该画面的影像信号输出给投影装置30。
于是,在投影画面98中显示光标或指针,该光标或指针的显示位置为基于其位置数据的位置。
像上述那样,控制部8在识别是已拍摄的被拍摄体像的形状与姿势命令相对应(第1参照形状数据9b),还是与位置指定命令相对应(第2参照形状数据9c)后,判断被拍摄体像的姿势数据是否与参照姿势数据9d相匹配。
于是,可正确地判断是被拍摄体(比如,手96)的移动与姿势命令输入有关,还是与位置输入/方向输入有关。
在被拍摄体的移动与姿势命令输入有关的场合,没有光标、指针误移动的情况,反之,在被拍摄体的移动与位置输入/方向输入有关的场合,计算机90不错误地进行与姿势命令相对应的动作。
具体来说,如果用户97的手96呈像图2那样打开的形状,使手96移动,页面切换等的动作通过计算机90而进行,光标、指针等没有移动。
于是,可进行正确的命令输入。
另一方面,如果用户97的手96呈像图3那样的手指指向形状,使手96移动,则光标、指针移动,计算机90不进行页面切换等的动作。
(第2实施方式)
在第2实施方式和第1实施方式中,基于程序9a的控制部8的处理顺序不同。
具体来说,第2实施方式的控制部8按照程序9a而进行的命令确定处理像图8所示的那样。
图8所示的步骤S11的处理与图7所示的步骤S1的处理相同。
在具有被拍摄体像的位置的变化的场合(步骤S11:是),控制部8的处理转到步骤S12,在没有被拍摄体像的位置的变化的场合(步骤S11:否),控制部8的处理返回到步骤S11。
图8所示的步骤S12的处理与图7所示的步骤S3的处理相同。
从形状检测装置5输入的被拍摄体像的形状数据与第2参照形状数据9c一致的场合(步骤S12:是),控制部8的处理接着进行步骤S15、步骤S16。
图8所示的步骤S15、步骤S16的处理分别与图7所示的步骤S7、步骤S8的处理相同。
图8所述的步骤S13、步骤S14的处理分别与图7所示的步骤S2、步骤S4的处理相同。
在从形状检测装置5输入的被拍摄体像的形状数据与第1参照形状数据9b一致的场合(步骤S13:是),控制部8的处理转到步骤S14,在不一致的场合(步骤S13:否),控制部8的处理返回到步骤S11。
图8所示的步骤S14的处理与图7所示的步骤S4的处理相同。
在从姿势检测装置7输入的被拍摄体像的姿势数据与参照姿势数据9d一致的场合(步骤S14:是),控制部8的处理转到步骤S17、S18,在不是这样的场合(步骤S14:否),控制部8的处理返回到步骤S11。
图8所示的步骤S17、S18的处理与图7所示的步骤S5、S6的处理分别相同。
在从形状检测装置5输入的被拍摄体像的形状数据与参照形状数据9b、9c中的任意者均不一致的场合(步骤S13:否,步骤S14:否),控制部8的处理返回到步骤S11。
同样在第2实施方式中,产生与第1实施方式相同的效果。
(第3实施方式)
图9为具有第1实施方式或第2实施方式的输入用户接口装置1的投影装置40的方框图。
该投影装置40代替图1所示的投影装置30,而投影投影画面98。
该投影装置40不但包括图4所示的输入用户接口装置1的组成部件,而且具有影像输入端子41、影像信号变换部42、影像信号处理部(scaler,定标器)43、显示控制器44、显示元件45、光照射装置46、投影透镜47、透镜驱动部48和输入部49等。
在这里,投影装置主体50由影像输入端子41、影像信号变换部42、影像信号处理部(scaler,换算器)43、显示控制器44、显示元件45、光照射装置46、投影透镜47与透镜驱动部48构成。
输入部49由多个开关(按钮)等构成。
输入部49由用户等操作,这样,与操作内容相对应的命令输出给控制部8。
外部设备91的影像输出端子经由影像信号缆线,与影像输入端子41连接,将通过外部设备91而输出的影像信号输入到影像输入端子41中。
另外,影像信号也可通过无线方式,从外部设备91,送给投影装置40。
影像信号变换部42将通过影像输入端子41而输入的模拟影像信号变换为数字影像信号,并将该数字影像信号及输入到影像输入端子41中的数字影像信号变换为规定的格式。
影像信号处理部43对通过影像信号变换部42输出的影像信号,进行各种的信号处理。
比如,影像信号处理部43进行通过影像信号变换部42输出的影像信号的定标,调整影像信号的像素数(分辨率)。
此外,影像信号处理部43通过进行基于定标后的影像信号的画面(图像)的坐标变换(比如,射影变换),进行梯形失真校正(keystone adjustment)等的畸变校正。
通过影像信号处理部43进行信号处理后的影像信号转送给显示控制器44。
在这里,畸变校正前的投影画面98通过电子摄像机3而拍摄,投影画面98的外缘形状通过形状检测装置5或控制部8而检测,控制部8对基于该外缘形状的校正参数进行运算,影像信号处理部43通过按照该校正参数,进行影像信号的画面的坐标变换(比如,射影变换),进行畸变校正。
于是,电子摄像机3可兼用于畸变校正和命令输入。
显示控制器44根据从影像信号处理部43而输入的影像信号,驱动显示元件45。
显示控制器44按照从影像信号处理部43而输入的影像信号,针对显示元件45的每个像素,进行调制控制(比如,PWM控制或PNM控制等),由此,照射到显示元件45的光通过像素而按照每个像素而调制。
由此,通过显示元件45,形成画面(图像)。
显示元件45为具有呈二维阵列状排列的多个像素等的DMD(digital·micromirror·device,数字反射镜器件),透射型LCD面板(液晶显示面板)或反射型LCD面板。
在显示元件45为DMD的场合,显示元件45的像素为可动微反射镜,在显示元件45为LCD面板的场合,显示元件45的像素为液晶闸门元件。
还有,显示控制器44控制光照射装置46。
光照射装置46为朝向显示元件45照射可见光的装置。
具体地,光照射装置46为分时方式或分色方式的装置。
在光照射装置46为分色方式的场合,光照射装置46具有白色光源和分色器等,从白色光源发出的白色光通过分色器,分离为多种颜色(比如,红色、绿色、蓝色)。
在该场合,显示元件45按照每种颜色而存在,将多种颜色的光分别照射到显示元件45,将在各显示元件45中透射或反射的光合成。
在光照射装置46为分时方式的场合,光照射装置46依次反复将相互不同的颜色的可见光(比如,红色光,绿色光,蓝色光)照射到显示元件45,该反复的周期相当于1帧的周期。
在光照射装置46为分时方式的场合,光照射装置46为滤色片方式或彩色光源方式。
在光照射装置46为滤色片方式的场合,光照射装置46具有滤色片、主轴马达和白色光源等,滤色片通过主轴马达而旋转,从白色光源发出的白色光通过旋转的滤色片,由此,将白色光依次更换地变换为各种颜色(红色、绿色、蓝色)。
在光照射装置46为彩色光源方式的场合,光照射装置46具有相互不同的颜色的多个光源(比如,红色光源、绿色光源、蓝色光源),这些光源依次反复点亮。
另外,光源指半导体发光元件(比如,激光二极管、发光二极管)或灯(比如,卤素灯、氖气灯、金卤灯、水银灯、放电灯),或在半导体发光元件或灯上组合有荧光体的类型。
投影透镜47将通过显示画面45而形成的画面作为投影画面98而投影于屏幕上。
投影透镜47可进行对焦的调整,并且可进行焦距调整。
投影透镜47由透镜驱动部48驱动。
透镜驱动部48通过驱动投影透镜47的构成透镜,进行变焦、对焦。
投影透镜47按照与电子摄像机3(参照图1)相同的朝向而设置。
存储于存储部9中的程序9a不但在摄像机控制部4,而且在控制部8中进行影像信号变换部42、影像信号处理部43、显示控制器44、透镜驱动部48的综合控制。
比如,控制部8形成包括光标(或指针)和窗口等的对象的画面(图像)数据,将该画面数据输出给影像信号处理部43,对影像信号处理部43,进行合成处理。
此外,画面中的对象以外的背景区域的像素值的透射率为100%或近似于100%。
输入了画面数据的影像信号处理部43在从影像信号变换部42而输入的影像信号的画面中,合成从控制部8而输入的画面的对象。
接着,影像信号处理部43进行合成有对象的画面的影像信号的定标,另外进行该影像信号的梯形失真校正、反馈校正。
将经过该校正处理的影像信号转送给显示控制器44,显示控制器44根据该影像信号,驱动显示元件45。
由此,画面通过显示元件45而形成,通过光照射装置46而照射到显示元件45中的光通过投影透镜47而投影,由此投影画面98(参照图1)映入屏幕、墙、或桌子99(参照图1)。
控制部8进行图7或图8所示的处理。
其中,控制部8不将步骤S6、步骤S8、步骤S18和步骤S16的命令或位置数据输出给外部的计算机90(图1)。
代替它,控制部8进行按照在步骤S5、步骤S7、步骤S17和步骤S15中确定的命令的动作。
在控制部8像步骤S5、步骤S17那样,确定为姿势命令后,该控制部8进行与该已确定的姿势命令相对应的动作。
比如,姿势命令包括页面切换命令、窗口切换命令、点击命令、选择命令、复制命令、粘贴命令、打印屏幕命令、删除命令、回车命令、下翻页命令、上翻页命令、退格命令、换行命令、空格命令、拖拽命令、drop命令、Alt命令、shift命令、ctrl命令、caps lock命令、tab命令、传真命令、画面放大命令、画面缩小命令等。
其它的姿势命令包括对投影装置主体50的控制命令。
比如,对投影装置主体50的控制命令包括对影像信号变换部42的控制命令、对影像信号处理部43的控制命令、对显示控制器44的控制命令、对透镜驱动部48的控制命令。
另一方面,在控制部8像步骤S7、步骤S15那样,确定为位置指定命令时,该控制部8在与从位置检测装置6而输入的位置数据相对应的位置,在画面(图像)中设定光标或指针,将包括该光标或指针的画面数据输出给影像信号处理部43,在影像信号处理部43中进行合成处理。
于是,在投影画面98中,显示光标或指针,该光标或指针的显示位置为符合位置数据的位置。
同样在第3实施方式中,产生与第1实施方式相同的效果。
(变形例)
形状检测装置5、位置检测装置6和姿势检测装置7既可为逻辑电路,也可是基于程序的计算机(具体来说,graphic processing unit(GPU),图形处理单元)的处理。
此外,对于程序9a,也可使控制部8进行与形状检测装置5、位置检测装置6和姿势检测装置7等同的处理。
程序9a、第1参照形状数据9b、第2参照形状数据9c和参照姿势数据9d存储于1个存储部9中,但是它们也可存储于各自的存储部中。
还有,在不改变本发明的主要部分的范围内,可根据以上说明的具体例子,进行变更/改良。
以上对本发明的实施方式进行了说明,但是,本发明的技术范围并不限于上述实施方式,而根据在权利要求书中的记载而确定。
此外,根据权利要求书中的记载,添加与本发明的本质无关的变更的等同的范围也包括在本发明的技术范围内。

Claims (10)

1.一种输入用户接口装置,该输入用户接口装置包括:
摄像机构,该摄像机构拍摄包括被拍摄体像的图像;
位置检测机构,该位置检测机构检测由上述摄像机构拍摄的上述图像中的上述被拍摄体像的位置有无变化;
形状检测机构,该形状检测机构检测由上述摄像机构拍摄的上述图像中的上述被拍摄体像的形状;
判断机构,该判断机构判断由上述形状检测机构检测出的上述形状是与姿势命令对应的形状,还是与指定位置数据的位置指定命令相对应的形状;
命令确定机构,该命令确定机构根据由上述判断机构判断出的判断结果,将命令确定为上述姿势命令、或上述位置指定命令;以及
姿势检测机构,该姿势检测机构检测由上述摄像机构拍摄的上述图像中的上述被拍摄体像的位置的差分来作为该被拍摄体像的姿势,
上述命令确定机构在上述位置检测机构检测出上述被拍摄体像的位置有变化,并且上述判断机构判断为上述形状与和姿势命令相对应的参照形状一致,并且判断为由上述姿势检测机构检测出的上述姿势与和上述姿势命令相对应的参照姿势一致的情况下,将命令确定为上述姿势命令;在上述位置检测机构检测出上述被拍摄体像的位置有变化,并且上述判断机构判断为上述形状与和上述位置指定命令相对应的参照形状一致的情况下,将命令确定为上述位置指定命令,
所述参照姿势是存储在上述输入用户接口装置中的和姿势命令相对应的参照形状的位置的差分,
在上述命令确定机构中,作为将命令确定为上述位置指定命令的条件,不使用上述参照姿势。
2.根据权利要求1所述的输入用户接口装置,其中,该输入用户接口装置还包括:
形状存储机构,该形状存储机构存储与上述姿势命令相对应的上述参照形状,
上述判断机构通过对存储于上述形状存储机构中的上述参照形状和由上述形状检测机构检测出的上述形状进行比较,判断由上述形状检测机构检测出的上述形状是否与和上述姿势命令相对应的上述参照形状一致。
3.根据权利要求1所述的输入用户接口装置,其中,该输入用户接口装置还包括:
姿势存储机构,该姿势存储机构存储与上述姿势命令相对应的上述参照姿势,
上述命令确定机构通过对存储于上述姿势存储机构中的上述参照姿势和由上述姿势检测机构检测出的上述姿势进行比较,判断由上述姿势检测机构检测出的上述姿势是否与和上述姿势命令相对应的上述参照姿势一致。
4.根据权利要求1所述的输入用户接口装置,其中,上述命令确定机构在上述判断机构判断为上述形状与和上述位置指定命令相对应的第2参照形状一致的情况下,将命令确定为上述位置指定命令。
5.根据权利要求4所述的输入用户接口装置,其中,该输入用户接口装置还包括:
第2形状存储机构,该第2形状存储机构存储与上述位置指定命令相对应的上述第2参照形状,
上述判断机构通过对存储于上述第2形状存储机构中的上述第2参照形状和由上述形状检测机构检测出的上述形状进行比较,判断由上述形状检测机构检测出的上述形状是否与和上述位置指定命令相对应的上述第2参照形状一致。
6.根据权利要求4所述的输入用户接口装置,其中,上述命令确定机构在上述判断机构判断为上述形状与和上述位置指定命令相对应的第2参照形状一致的情况下,将由上述位置检测机构检测出的上述位置的指定确定为上述位置指定命令。
7.根据权利要求4所述的输入用户接口装置,其中,上述第2参照形状为手的手指指向形状。
8.一种投影装置,该投影装置包括:
根据权利要求1~7中的任意一项所述的输入用户接口装置;以及
投影装置主体,该投影装置主体输入由外部设备输出的影像信号,并投影基于该影像信号的画面,
由上述命令确定机构确定的姿势命令为针对上述投影装置主体的控制命令。
9.根据权利要求8所述的投影装置,其中,该投影装置还包括:
校正参数计算机构,该校正参数计算机构检测由上述投影装置主体投影且由上述摄像机构所拍摄的投影画面的外缘的形状,并根据该外缘形状,计算校正参数,
上述投影装置主体包括影像信号处理部,该影像信号处理部根据由上述校正参数计算机构计算的校正参数,进行上述影像信号的画面的坐标变换,由此进行畸变校正。
10.一种命令确定方法,该命令确定方法包括:
摄像步骤,拍摄包括被拍摄体像的图像;
位置检测步骤,检测由上述摄像步骤拍摄的上述图像中的上述被拍摄体像的位置有无变化;
形状检测步骤,检测由上述摄像步骤拍摄的上述图像中的上述被拍摄体像的形状;
判断步骤,判断由上述形状检测步骤检测出的上述形状是与姿势命令对应的形状,还是与指定位置数据的位置指定命令相对应的形状;
命令确定步骤,根据由上述判断步骤判断出的判断结果,将命令确定为上述姿势命令、或上述位置指定命令;以及
姿势检测步骤,检测由上述摄像步骤拍摄的上述图像中的上述被拍摄体像的位置的差分来作为该被拍摄体像的姿势,
上述命令确定步骤在上述位置检测步骤检测出上述被拍摄体像的位置有变化,并且上述判断步骤判断为上述形状与和姿势命令相对应的参照形状一致,并且判断为由上述姿势检测步骤检测出的上述姿势与和上述姿势命令相对应的参照姿势一致的情况下,将命令确定为上述姿势命令;在上述位置检测步骤检测出上述被拍摄体像的位置有变化,并且上述判断步骤判断为上述形状与和上述位置指定命令相对应的参照形状一致的情况下,将命令确定为上述位置指定命令,
所述参照姿势是存储在输入用户接口装置中的和姿势命令相对应的参照形状的位置的差分,
在上述命令确定步骤中,作为将命令确定为上述位置指定命令的条件,不使用上述参照姿势。
CN201310177813.3A 2012-03-21 2013-03-21 输入用户接口装置、投影装置、命令确定方法 Active CN103324282B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012064038A JP2013196482A (ja) 2012-03-21 2012-03-21 入力ユーザーインターフェイス装置、投影装置、プログラム及びコマンド決定方法
JP2012-064038 2012-03-21

Publications (2)

Publication Number Publication Date
CN103324282A CN103324282A (zh) 2013-09-25
CN103324282B true CN103324282B (zh) 2017-12-19

Family

ID=49193081

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310177813.3A Active CN103324282B (zh) 2012-03-21 2013-03-21 输入用户接口装置、投影装置、命令确定方法

Country Status (4)

Country Link
US (1) US9213411B2 (zh)
JP (1) JP2013196482A (zh)
KR (1) KR101457976B1 (zh)
CN (1) CN103324282B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102165818B1 (ko) * 2013-09-10 2020-10-14 삼성전자주식회사 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체
CN103581727A (zh) * 2013-10-17 2014-02-12 四川长虹电器股份有限公司 一种基于智能电视平台的手势识别交互系统及交互方法
CN103677992B (zh) * 2013-12-20 2017-02-22 深圳泰山在线科技有限公司 体感方式的页面切换方法及系统
CN104883522B (zh) * 2014-02-28 2019-01-15 联想(北京)有限公司 一种信息处理方法及电子设备
US10452206B2 (en) 2014-12-08 2019-10-22 Maxell, Ltd. Projection video display device and video display method
US10447979B2 (en) * 2014-12-25 2019-10-15 Panasonic Intellectual Property Management Co., Ltd. Projection device for detecting and recognizing moving objects
US11002855B2 (en) 2016-12-27 2021-05-11 Microvision, Inc. Occlusion-based height estimation
US10761188B2 (en) 2016-12-27 2020-09-01 Microvision, Inc. Transmitter/receiver disparity for occlusion-based height estimation
US10061441B2 (en) * 2016-12-27 2018-08-28 Microvision, Inc. Touch interactivity with occlusions in returned illumination data
JP6911439B2 (ja) * 2017-03-24 2021-07-28 セイコーエプソン株式会社 プロジェクター
CN107367966B (zh) * 2017-07-14 2020-09-04 深圳凌触科技有限公司 人机交互方法以及装置
CN115695744A (zh) * 2021-07-26 2023-02-03 成都极米科技股份有限公司 投影画面校正方法、装置及投影仪

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1879130A2 (en) * 2006-07-13 2008-01-16 Northrop Grumman Corporation Gesture recognition interface system
US20090103780A1 (en) * 2006-07-13 2009-04-23 Nishihara H Keith Hand-Gesture Recognition Method
CN101943947A (zh) * 2010-09-27 2011-01-12 鸿富锦精密工业(深圳)有限公司 交互显示系统
CN102253573A (zh) * 2010-05-18 2011-11-23 鸿富锦精密工业(深圳)有限公司 前投影装置及其前投影控制方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3244798B2 (ja) * 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
JPH11338120A (ja) * 1998-05-27 1999-12-10 Dainippon Screen Mfg Co Ltd レイアウト装置
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
KR20070025138A (ko) 2005-08-31 2007-03-08 노성렬 공간상에서의 3차원 동작에 대한 인식을 통한 공간투영프리젠테이션 시스템 및 그 방법
JP2008146243A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
CN101132535A (zh) * 2007-09-12 2008-02-27 浙江大学 基于转台的多投影大屏拼接方法
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
JP5295839B2 (ja) * 2009-03-30 2013-09-18 株式会社東芝 情報処理装置、フォーカス移動制御方法及びフォーカス移動制御プログラム
JP2011050013A (ja) * 2009-08-28 2011-03-10 Panasonic Corp 映像投影装置及び映像投影方法
US8514188B2 (en) * 2009-12-30 2013-08-20 Microsoft Corporation Hand posture mode constraints on touch input
JP5413673B2 (ja) * 2010-03-08 2014-02-12 ソニー株式会社 情報処理装置および方法、並びにプログラム
EP2369443B1 (en) * 2010-03-25 2017-01-11 BlackBerry Limited System and method for gesture detection and feedback

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1879130A2 (en) * 2006-07-13 2008-01-16 Northrop Grumman Corporation Gesture recognition interface system
US20090103780A1 (en) * 2006-07-13 2009-04-23 Nishihara H Keith Hand-Gesture Recognition Method
CN102253573A (zh) * 2010-05-18 2011-11-23 鸿富锦精密工业(深圳)有限公司 前投影装置及其前投影控制方法
CN101943947A (zh) * 2010-09-27 2011-01-12 鸿富锦精密工业(深圳)有限公司 交互显示系统

Also Published As

Publication number Publication date
KR101457976B1 (ko) 2014-11-04
KR20130107234A (ko) 2013-10-01
CN103324282A (zh) 2013-09-25
US20130249790A1 (en) 2013-09-26
US9213411B2 (en) 2015-12-15
JP2013196482A (ja) 2013-09-30

Similar Documents

Publication Publication Date Title
CN103324282B (zh) 输入用户接口装置、投影装置、命令确定方法
CN105706028B (zh) 投影型影像显示装置
CN103019638B (zh) 显示装置、投影仪以及显示方法
US8643598B2 (en) Image processing apparatus and method, and program therefor
US9728168B2 (en) Image processing apparatus
US20050243073A1 (en) Presentation device and display method
CN102739934A (zh) 图像处理装置、图像处理方法、图像处理程序和成像装置
JP2006236195A (ja) プレゼンテーション制御装置
CN105100590A (zh) 图像显示拍摄系统、拍摄装置以及显示装置
WO2018150569A1 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP2013243466A (ja) 遊戯用撮影装置、遊戯用撮影方法およびプログラム
CN108401452B (zh) 使用虚拟现实头戴式显示器系统来执行真实目标检测和控制的装置和方法
CN113853569A (zh) 头戴式显示器
CN111147733B (zh) 信息处理设备、信息处理方法和存储介质
JP6156559B2 (ja) 遊戯用撮影装置、遊戯用撮影方法、及びプログラム
CN111221482B (zh) 基于指挥台的界面布局调整方法
JP5967275B2 (ja) 写真撮影遊戯機とその制御方法及び制御コンピュータ
JP6090369B2 (ja) 遊戯用撮影装置、遊戯用撮影方法およびプログラム
JP2014132772A (ja) 遊戯用撮影装置、遊戯用撮影装置の処理方法およびプログラム
JP5967283B2 (ja) 写真撮影遊戯機とその制御方法及び制御プログラム
US20230209027A1 (en) Display method, projector, and storage medium storing program
JP2017173848A (ja) 遊戯用撮影装置、遊戯用撮影方法、及びプログラム
JP2006163922A (ja) コンピュータの遠隔操作システム
JP5488584B2 (ja) 画像処理装置及びプログラム
JP2020173327A (ja) 表示方法および表示装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant