CN104281276B - 信息处理装置、操作输入检测方法、程序和存储介质 - Google Patents
信息处理装置、操作输入检测方法、程序和存储介质 Download PDFInfo
- Publication number
- CN104281276B CN104281276B CN201410302243.0A CN201410302243A CN104281276B CN 104281276 B CN104281276 B CN 104281276B CN 201410302243 A CN201410302243 A CN 201410302243A CN 104281276 B CN104281276 B CN 104281276B
- Authority
- CN
- China
- Prior art keywords
- information
- user
- black light
- laser designator
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 52
- 238000001514 detection method Methods 0.000 title claims abstract description 25
- 238000003860 storage Methods 0.000 title claims abstract description 9
- 238000012360 testing method Methods 0.000 claims abstract description 25
- 238000004458 analytical method Methods 0.000 claims description 9
- 230000001052 transient effect Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 description 60
- 238000004891 communication Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 34
- 238000000034 method Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 28
- 230000000007 visual effect Effects 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 12
- 238000004519 manufacturing process Methods 0.000 description 11
- 230000001419 dependent effect Effects 0.000 description 7
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 230000001678 irradiating effect Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000003825 pressing Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000002035 prolonged effect Effects 0.000 description 2
- 108091071337 20 family Proteins 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000010977 unit operation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03542—Light pens for emitting or receiving light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本发明涉及信息处理装置、操作输入检测方法、程序和存储介质。提供了一种信息处理装置,包括:识别来自激光指示器的激光在投影图像上的照射位置的识别部;获取由所述激光指示器内提供的操作部检测到的用户操作信息的获取部;以及基于由所述识别部识别出的照射位置以及由所述获取部获取的用户操作检测针对所述投影图像的操作输入信息的检测部。
Description
相关申请的交叉引用
本申请要求于2013年7月4日提交的日本优先权专利申请JP2013-140856的权益,其中该日本申请的全部内容通过引用结合在此。
技术领域
本公开涉及信息处理装置、操作输入检测方法、程序和存储介质。
背景技术
能够在大型平面上投影图像的投影仪在各种场合下使用,诸如在公司用于会议或报告,或在学校用于讲课。进一步地,周知在对由投影仪放大并投影的图像进行说明时,使用在投影图像上投影激光的激光指示器。近年来,业已提出了诸如下列的在投影仪的UI操作下使用具有投影激光功能的激光指示器的技术。
例如,JP2001-125738A公开了一种通过计算投影图像数据与拍摄投影图像表面的被拍摄图像数据之间的差异来识别激光指示器的移动并且执行与该激光指示器的指定移动相关联的命令的控制系统。具体地,在其中由激光指示器照射的指示器如同形成右箭头地移动的情况下,这一控制系统将进行控制以执行诸如“行进至下一幻灯片”的关联显示命令。
进一步地,JP2008-15560A提出了一种即便在屏幕安装位置的亮度改变的情况下也能用于正确检测由投影仪投影图像上激光指示器的指示位置的判定系统。具体地,这一判定系统在开始投影之前设置指示器位置判定阈值,计算当前帧的被拍摄图像数据与之前帧的被拍摄图像数据之差的图像数据,并且将超过阈值的图像位置判定为激光指示器的照射位置。
发明内容
然而,在JP2001-125738A和JP2008-15560A中,仅仅基于被拍摄图像识别来自激光指示器的激光照射位置。
因此,本公开提出了一种能够通过使用激光指示器对投影图像直观地执行操作输入的信息处理装置、操作输入检测方法、程序和存储介质。
根据本公开的一个实施方式,提供了一种信息处理装置,包括:识别来自激光指示器的激光在投影图像上的照射位置的识别部;获取由设置在所述激光指示器内的操作部检测到的用户操作信息的获取部;以及基于由所述识别部识别出的照射位置以及由所述获取部获取的用户操作检测针对所述投影图像的操作输入信息的检测部。
根据本公开的另一个实施方式,提供了一种操作输入检测方法,包括:识别来自激光指示器的激光在投影图像上的照射位置;获取由设置在所述激光指示器内的操作部检测到的用户操作的信息;以及基于识别出的所述照射位置和获取的所述用户操作检测针对所述投影图像的操作输入信息。
根据本公开的又一个实施方式,提供了一种程序,用于使得计算机用作:识别来自激光指示器的激光在投影图像上的照射位置的识别部;获取由设置在所述激光指示器内的操作部检测到的用户操作信息的获取部;以及基于由所述识别部识别出的照射位置以及由所述获取部获取的用户操作检测针对所述投影图像的操作输入信息的检测部。
根据本公开的再一个实施方式,提供了一种具有程序存储其上的非暂态计算机可读存储介质,所述程序使得计算机用作:识别来自激光指示器的激光在投影图像上的照射位置的识别部;获取由设置在所述激光指示器内的操作部检测到的用户操作信息的获取部;以及基于由所述识别部识别出的照射位置以及由所述获取部获取的用户操作检测针对所述投影图像的操作输入信息的检测部。
根据诸如上述的本公开的一个或多个实施方式,变得能够通过使用激光指示器对投影图像直观地执行操作输入。
附图说明
图1是用于描述根据本公开实施方式的操作系统的概要的图示;
图2是用于描述根据本公开第一实施方式的操作系统的总体构成的图示;
图3A是用于描述根据第一实施方式的与由激光指示器的用户操作相对应的激光与不可见光标记的第一照射方法的图示;
图3B是用于描述根据第一实施方式的与由激光指示器的用户操作相对应的激光与不可见光标记的第二照射方法的图示;
图4A是用于描述根据第一实施方式的包括在激光指示器内的多个操作按钮的图示;
图4B是用于描述根据第一实施方式的包括在激光指示器内的触摸面板的图示;
图5是示出了根据第一实施方式的操作系统的内部构成的一个例子的框图;
图6是示出了根据第一实施方式的操作处理的序列图;
图7是示出了根据第一实施方式的投影仪的操作处理的流程图;
图8是用于描述根据第一实施方式的变形例的激光指示器的图示;
图9是示出了根据第一实施方式的变形例的操作系统的内部构成的一个例子的框图;
图10是用于描述根据本公开第二实施方式的操作系统的总体构成的图示;
图11是示出了根据第二实施方式的操作系统的内部构成的一个例子的框图;
图12是用于描述根据本公开第三实施方式的操作系统的总体构成的图示;
图13是示出了根据第三实施方式的操作系统的内部构成的一个例子的框图;
图14是用于描述根据本公开第四实施方式的操作系统的总体构成的图示;
图15是示出了根据第四实施方式的通信终端的内部构成的一个例子的框图;
图16是用于描述根据本公开第五实施方式的操作系统的总体构成的图示;
图17是示出了根据第五实施方式的操作系统的内部构成的一个例子的框图;
图18是用于描述根据本公开第六实施方式的操作系统的总体构成的图示;
图19是示出了根据第六实施方式的操作系统的内部构成的一个例子的框图;
图20是用于描述根据本公开第七实施方式的操作系统的总体构成的图示;以及
图21是示出了根据第七实施方式的通信终端的内部构成的一个例子的框图。
具体实施方式
其后,将参考附图详细描述本公开的优选实施方式。注意到,在本说明书和附图中,具有基本相同功能和结构的结构性元件由相同的参考编号所指示,并由此省略对这些结构性元件的重复解释。
描述将以如下次序给出。
1.根据本公开第一实施方式的操作系统的概要
2.各实施方式
2-1.第一实施方式
2-1-1.总体构成
2-1-2.内部构成
2-1-3.操作处理
2-1-4.变形例
2-2.第二实施方式
2-3.第三实施方式
2-4.第四实施方式
2-5.第五实施方式
2-6.第六实施方式
2-7.第七实施方式
3.结论
<<1.根据本公开第一实施方式的操作系统的概要>>
首先,将参考图1描述根据本公开一个实施方式的操作系统的概要。如图1所示,根据本公开一个实施方式的操作系统包括投影仪1、激光指示器2、向投影仪1输出投影内容的PC(个人计算机)3。投影内容是图像、文本、其他各种图形图像、地图和网站等,并在其后被称为投影图像数据。
投影仪1根据来自PC3的控制信号将从PC3接收到的图像数据投影到屏幕或墙(其后将使用屏幕S作为例子)上。
激光指示器2具有根据由用户(演讲者)对操作按钮20a的按下操作照射激光(可见光)的功能。用户可以在通过使用激光指示器2并对在屏幕S上投影的图像照射激光从而指示匹配说明位置的照射位置P的同时进行报告。
PC3电子生成用于投影的图像,将图像数据有线/无线地传送至投影仪1,并执行投影控制。虽然在图1中示出了笔记本型PC作为例子,但是根据本实施方式的PC3不限于笔记本型PC,并且可以是桌上型PC或网络上的服务器(云)。
(背景)
在此,如上所述,在JP2001-125738A和JP2008-15560A中,仅仅基于拍摄投影图像的被拍摄图像识别来自激光指示器的激光照射位置。因此,例如为了输入诸如“行进至下一幻灯片”的命令,需要用激光在投影图像上做出诸如画出右箭头图形的复杂手势。
进一步地,一种已知的方法通过使用分立的遥控器将控制信号传送至投影仪或PC,并且在此情况下,用户(演讲者)通过将他/她的目光从投影图像或观众转移来操作遥控器,并且也会需要用户将他或她的注意转移到投影仪或PC上。
尚不存在一种通过激光指示器对投影图像执行直观的操作输入(例如像是由鼠标光标移动显示屏上的鼠标光标并点击屏幕上的按钮之类的操作)的方法。
因此,考虑到上述情况而导致了对根据本公开各实施方式的操作系统的创建。根据本公开各实施方式的操作系统能够通过激光指示器对投影图像执行直观的操作输入。其后将具体描述根据本公开各实施方式的操作系统。
<<2.各实施方式>>
<2-1.第一实施方式>
首先将参考图2描述根据本公开第一实施方式的操作系统的总体构成。
(2-1-1.总体构成)
图2是用于描述根据第一实施方式的操作系统的总体构成的图示。如图2所示,根据本实施方式的操作系统包括投影仪1a(根据本公开一个实施方式的信息处理装置)、激光指示器2a和PC3a。
根据本实施方式的投影仪1a有线/无线地连接至PC3a并将从PC3a接收到的图像投影至屏幕S上。进一步地,投影仪1a具有用于识别激光指示器2a在投影图像上的照射的成像部(不可见光成像部12和可见光成像部15)。成像部可以内建在投影仪1中,也可以是外部附接的。
进一步地,通过包括投影仪1a,成像部能够自动执行要被拍摄投影图像的范围校准。具体地,成像部可以与投影仪1a的投影方向连动地改变成像范围或成像方向。注意到,通过使得成像部拍摄范围的面积比投影图像的范围更广,就能够针对投影图像之外的范围(图像外)在UI操作中使用激光照射。
激光指示器2a根据包括在激光指示器2a中的操作按钮20a的按下照射能够被人眼看见的可见光线的激光V以及不可见光标记M。激光指示器2a被用户通过激光V来指示投影图像上的任意位置。进一步地,不可见光标记M被照射至与激光V的照射位置P相同或相近的位置,并且由不能被人眼看见的诸如红外光的光线照射。不可见光标记M的照射根据针对激光指示器2a内的被检测投影图像的用户操作(操作输入)来控制。
具体地,如图3A所示,激光指示器2a在操作按钮20a被半按的情况下仅照射激光V,而在操作按钮20a被全按(完全按下)的情况下照射激光V和不可见光标记M。可以在不可见光标记M内嵌入诸如图3所示二维条形码或一维条形码之类的信息(用户ID等),或者该不可见光标记M可以仅仅是与激光有相同形状的点,或者可以具有任意形状(十字形或心形等)。进一步地,不可见光标记M不限于静止图像,并且可以是通过改变颜色或形状而闪烁的运动图像。通过使图像改变,变得能够更容易地在位置识别部识别出该图像。
进一步地,如图3B所示,激光指示器2a可以在操作按钮20a被半按的情况下(第一阶段操作)照射激光V和不可见光标记M1,并且可以在操作按钮20a被全按(第二阶段操作)的情况下照射激光V和不可见光标记M2。例如,可以在半按状态下照射的不可见光标记M1中嵌入用户ID,而在全按状态下照射的不可见光标记M2中嵌入用户操作信息(按钮正被全按)。
以此方式,根据本实施方式的激光指示器2a根据由操作按钮20a检测到的用户操作来控制不可见光标记M的照射。由操作按钮20a检测到的用户操作不限于图3A和图3B所示的“半按”和“全按”,并且可以是按钮被按下的次数(连按两次等)。
进一步地,包括在激光指示器2a内的操作部不限于其中能够由一个操作按钮20a检测多个阶段的用户操作的配置,并且可以是诸如图4A所示通过多个操作按钮20b和20b’来检测多个阶段的用户操作的配置。如图4A所示,在根据本实施方式的激光指示器2a’壳体的上下表面上分别包括操作按钮20b和20b’。同样地,激光指示器2a’在操作按钮20b被按下的情况下仅照射激光V,而在操作按钮20b’也被按下的情况下照射激光V和不可见光标记M。以此方式,激光指示器2a’检测两个阶段的用户操作(其中按钮被按下一次的阶段(第一阶段)以及其中按钮被按下两次的阶段(第二阶段)),并且根据检测到的用户操作控制不可见光标记M的照射。
进一步地,在激光指示器2a上表面并排包括左右两个控制按钮,并且可以类似于诸如左点击和右点击的鼠标操作来执行用户操作。激光指示器2a执行控制从而根据左点击或右点击来照射不同的不可见光标记M。进一步地,在此情况下,可以分别在激光指示器2a内包括激光的ON/OFF开关。
此外,激光指示器2a内包括的操作部不限于由诸如上述操作按钮20a、20b和20b’的物理结构实现,并且可由检测手指接触/接近度的传感器实现。例如,如图4B所示,用户操作由包括在激光指示器2a’’内的触摸面板20c检测。激光指示器2a’’执行控制从而通过触摸面板20c根据手指的接触/接近度或接触频率(轻击频率)来照射不同的不可见光标记M。进一步地,在此情况下,激光指示器2a’’可以在手指持续接触/接近触摸面板20c时照射激光V,并且可以分别在激光指示器2a’’内包括激光的ON/OFF开关。
注意到,激光指示器2a的形状不限于图2至4B示出的形状,并且例如可以是其中将照射部分包括在尖端中的指示器。进一步地,激光指示器2a内包括的按钮数量不限于图3A或图4A的例示,并且例如可以是三个或更多个。通过包括多个按钮,用户可以任意选择可见激光的颜色(例如,一个按钮用于红色激光发射、一个按钮用于蓝色激光发射、一个按钮用于绿色激光发射等)。
如上所述,根据本实施方式的激光指示器2a照射用于指示投影图像上的任意位置的激光V(可见光),并且照射与由激光指示器2a检测到的诸如按钮按下或轻击操作的用户操作相对应的不可见光标记M。
由激光指示器2a照射的激光V(可见光)和不可见光标记M由投影仪1a中包括的成像部(不可见光成像部12和可见光成像部15)拍摄,并且在投影仪1a中识别照射位置坐标或用户操作信息等。投影仪1a基于不可见光标记M将识别出的激光V的照射位置P与用户操作信息相结合,并将该结合作为操作输入信息发送至PC3a。
PC3a根据从投影仪1a接收到的操作输入信息执行控制,并将反映了该操作输入信息的投影图像数据传送至投影仪1a。
以此方式,就能够依赖于根据本实施方式的操作系统执行诸如根据从激光指示器2a照射的在投影图像任意位置上的激光V的照射位置P(对应于鼠标光标)按下操作按钮20a的直观操作输入(对应于鼠标点击)。接下来将参考图5具体说明包括在根据本发明实施方式的操作系统中的每个装置的内部构成。
(2-1-2.内部构成)
图5是示出了根据本公开第一实施方式的操作系统的内部构成的一个例子的框图。
(投影仪1a)
如图5所示,投影仪1a具有投影图像接收部10、图像投影部11、不可见光成像部12、用户操作信息获取部13a、可见光成像部15、位置识别部16a和操作输入信息输出部17。
投影图像接收部10有线/无线地接收来自PC3a的投影图像数据,并将接收到的图像数据传送至图像投影部11。
图像投影部11在投影屏幕或墙上反映(投影)从图像投影部11发送的图像数据。
不可见光(非可见光)成像部12具有拍摄由激光指示器2a照射在投影图像上的不可见光标记M的功能。例如,不可见光成像部12由红外相机或紫外相机实现。不可见光成像部12将拍摄到的不可见光输出至用户操作信息获取部13a。
用户操作信息获取部13a用作基于拍摄了不可见光标记M的不可见光拍摄图像获取由包括在激光指示器2a中的操作部20检测到的用户操作的信息。例如,用户操作信息获取部13a通过分析不可见光拍摄图像识别不可见光标记M的存在、不可见光标记M的形状以及嵌入在不可见光标记M中的信息等,并获取相关联的用户操作信息。例如,相关联的用户操作信息是操作按钮20a被全按、连续按两次、右点击或左点击等。
用户操作信息获取部13a将获取的用户操作信息输出至操作输入信息输出部17。
可见光成像部15具有拍摄由激光指示器2a通过图像投影部11照射在投影图像上的激光V的指示符(照射位置P)的功能。可见光成像部15将拍摄到的可见光图像输出至位置识别部16a。
位置识别部16a用作基于拍摄了投影图像的可见光拍摄图像识别由激光指示器2a在投影图像上的激光V的照射位置P的识别部。例如,位置识别部16a通过检测拍摄投影图像的可见光拍摄图像与由图像投影部11投影的图像之差来检测照射位置P(例如,位置坐标)。进一步地,位置识别部16a可以通过将当前投影图像的在前帧的可见光拍摄图像与当前投影图像的可见光拍摄图像之差添加至分析以改善精确性。注意到上述“当前投影图像的在前帧”不限于前一帧,并且可以是在前的多个帧,例如前两帧、前三帧等。与多个帧相比能够进一步改善精确性。
位置识别部16a将示出识别出的照射位置P(例如,位置坐标)的信息输出至操作输入信息输出部17。
操作输入信息输出部17用作基于从用户操作信息获取部13a输出的用户操作信息以及示出了从位置识别部16a输出的照射位置P的信息来检测针对该投影图像的操作输入信息的检测部。具体地,操作输入信息输出部17针对由照射位置P在投影图像上示出的位置坐标检测输入的规定用户操作输入信息作为操作输入信息。进一步地,操作输入信息输出部17还用作将检测到的操作输入信息有线/无线地传送至PC3a的传输部。
至此已经具体描述了投影仪1a的内部构成。注意到为了改善位置识别部16a识别照射位置P的精确度,以及用户操作信息获取部13a识别不可见光标记M的精确度,投影仪1a的图像投影部11可以窄化颜色区域。
具体地,例如为了改善不可见光标记M的识别精确度,图像投影部11可以从投影光中剪切不可见光。进一步地,为了改善照射位置P的识别精确度,图像投影部11可以适当暗化投影图像。暗化投影图像的定时可以在从位置识别部16a照射激光V的情况下(例如,在识别出照射位置P的情况下)被触发。进一步地,通过由图像投影部11扫描照射投影图像,可以容易地识别照射位置P。
(激光指示器2a)
如图5所示,激光指示器2a具有操作部20、可见光激光照射部21以及不可见光标记照射部22。
操作部20具有检测用户操作的功能,并由例如图3A所示的操作按钮20a、图4A所示的操作按钮20b和20b’、图4B所示的触摸面板20c,或激光ON/OFF开关(未在图中示出)实现。操作部20将检测到的用户操作输出至可见光激光照射部21或不可见光标记照射部22。
可见光激光照射部21具有根据用户操作照射可见光激光(被称为激光)的功能。例如,可见光激光照射部21在操作按钮20a被半按的情况下、在操作按钮20b被全按的情况下、或在激光ON/OFF开关指向“ON”的情况下照射可见光激光。
不可见光标记照射部22具有根据用户操作照射不可见光标记(被称为不可见光图像)的功能。例如,不可见光标记照射部22在在操作按钮20a被全按的情况下、在操作按钮20b和20b’被同时按下的情况下、或在触摸面板20c被轻击的情况下照射不可见光标记。不可见光标记可以仅仅是与激光形状相同的点,也可以具有任意形状(十字形或心形等)。
进一步地,在可见光激光由可见光激光照射部21照射的情况下,不可见光标记照射部22可以在与激光的照射位置P相同的位置处或其附近照射不可见光标记。在此情况下,不可见光标记照射部22可以照射例如以二维条形码或一维条形码的形式的、作为不可见光标记的嵌入的信息(用户ID等)。同样地,在其中检测到诸如操作按钮20a被全按之类的多个阶段的用户操作的情况下,不可见光标记照射部22根据该用户操作改变被照射的不可见光标记。
(PC3a)
如图5所示,PC3a具有控制部30、图像输出部31和操作输入部32a。
控制部30具有控制PC3a的所有部件的功能。具体地,例如控制部30可以在由图像输出部31输出(传送)至投影仪1a的投影图像数据中反映由操作输入部32a检测到的操作输入信息。
操作输入部32a具有从PC3a的键盘或鼠标等接受用户操作的输入(操作输入信息)的功能。进一步地,操作输入部32a用作接收来自投影仪1a的操作输入信息的接收部。操作输入部32a将接受的操作输入信息输出至控制部30。
图像输出部31具有将投影图像数据有线/无线地传送至投影仪1a的功能。投影图像数据的传送可以持续执行。进一步地,操作输入部32a接收到的操作输入信息可以通过控制部30反映到传送至投影仪1a的投影图像数据中。
通过上述构成,首先经由不可见光标记在投影仪1a中识别由用户使用激光指示器2a为投影图像执行的用户操作(操作按钮20a的全按操作、触摸面板20c的接触操作等)。随后投影仪1a将包括可见光激光的照射位置P和基于不可见光标记识别出的用户操作的操作输入信息传送至PC3a。PC3a根据操作输入信息执行处理并将针对反映该处理的投影的图像传送至投影仪1a。同样地,用于其中反映了根据操作输入信息的处理的投影的图像由投影仪1a投影。
以此方式,用户能够在无需激光指示器2a与PC3a通信的情况下通过使用激光指示器2a来执行对投影图像的直观操作输入。注意到,根据本实施方式的投影仪1a的构成不限于图5的示例。例如,投影仪1a可以不具有可见光成像部15。在此情况下,位置识别部16a将由不可见光成像部12拍摄到的不可见光标记的坐标位置识别为照射位置P。
或者,投影仪1a可以不具有不可见光成像部12。在此情况下,激光指示器2a的可见光激光照射部21照射根据用户操作变化的可见光标记。可以在该可见光标记内嵌入诸如二维条形码或一维条形码之类的信息(用户ID等),或者该可见光标记可以仅仅是与激光有相同形状的点,或者可以具有任意形状(十字形或心形等)。进一步地,该可见光标记不限于静止图像,并且可以是通过改变颜色或形状而闪烁的运动图像。通过使图像改变,变得能够更容易地在位置识别部识别出该图像。同样地,投影仪1a的用户操作信息获取部13a通过分析由可见光成像部15拍摄到的可见光标记的存在、颜色或形状等来获取用户操作信息。以此方式,通过使用根据用户操作照射的可由人眼看见的可见光标记,可以为用户实现操作输入的反馈。
(2-1-3.操作处理)
首先将参考图6描述根据本实施方式的这一操作系统的操作处理。图6是示出了根据本公开第一实施方式的操作处理的序列图。如图6所示,首先在步骤S106,PC3a和投影仪1a有线/无线连接。连接方法在本公开内无具体限制。
接下来在步骤S109,PC3a的图像输出部31将投影图像数据传送至投影仪1a。
接下来在步骤S112,投影仪1a的图像投影部11将由投影图像接收部10从投影仪1a接收到的投影图像投影在屏幕S上。
接下来在步骤S115,投影仪1a开始由可见光成像部15针对投影图像范围的可见光成像以及由不可见光成像部12针对投影图像范围的不可见光成像。
另一方面,在步骤S118和S121,激光指示器2a根据用户操作照射可见光激光。具体地,例如在操作按钮20a被半按的情况下,激光指示器2a通过可见光激光照射部21照射激光。以此方式,用户(演讲者)可以在使用激光指示投影图像内的任意位置的同时对观众进行解释。
接下来,在步骤S124,投影仪1a的位置识别部16a基于由可见光成像部15拍摄到的可见光识别激光的照射位置P(坐标位置)。
接下来在步骤S127和S130,激光指示器2a根据用户操作照射不可见光标记。具体地,例如在操作按钮20a被全按的情况下,激光指示器2a通过不可见光标记照射部22在与激光相同的位置处或其附近照射不可见光标记。以此方式,用户(演讲者)可以在使用激光指示投影图像内的任意位置的同时直观地执行对被指示位置的点击操作。
随后在步骤S133,投影仪1a的用户操作信息获取部13a基于由不可见光成像部12拍摄到的不可见光拍摄图像分析不可见光标记的存在或形状等,并获取用户操作信息。例如,在不可见光标记被照射在投影图像上的情况下,或者在不可见光标记具有预定形状的情况下,用户操作信息获取部13a获取“全按操作”作为用户操作信息。进一步地,用户操作信息获取部13a可以从嵌入在照射于投影图像上的不可见光标记的信息中获取“全按操作”作为用户操作信息。
接下来在步骤S136,投影仪1a的操作输入信息输出部17基于由位置识别部16a识别的照射位置P以及由用户操作信息获取部13a获取的用户操作信息来检测针对该投影图像的操作输入信息。
接下来在步骤S139,投影仪1a的操作输入信息输出部17将检测到的操作输入信息传送至PC3a。
随后在步骤S142,PC3a的操作输入部32a接收来自投影仪1a的操作输入信息。
接下来在步骤S145,PC3a的控制部30在投影图像数据中反映接收到的操作输入信息。具体地,例如在其中操作输入信息是示出了“针对照射位置P(坐标位置)的(全按操作)”的信息的情况下,控制部30执行其中点击操作作为与当前投影图像的照射位置P相对应的位置的输入的处理。
于是在步骤S148,PC3a的图像输出部31将反映后(根据操作输入信息的处理之后)的投影用图像传送至投影仪1a。
此后,重复上述步骤S112至S148。
以此方式,用户(演讲者)可以在使用激光指示投影图像内的任意位置的同时通过使用激光指示器2a直观地执行针对被指示位置的操作输入。例如,用户(演讲者)可以对投影图像直观地执行与使用鼠标进行的操作相类似的操作,诸如点击操作、拖曳操作或双击操作。
注意到如上所述,根据本实施方式的投影仪1a的位置识别部16a可以将不可见光标记的坐标位置识别为由激光指示器2a指示的位置(照射位置P)。在此情况下,在上述步骤S115中,投影仪1a仅开始由不可见光成像部12对投影图像范围的不可见光成像。于是在上述步骤S124中,位置识别部16a基于由不可见光成像部12拍摄到的可见光拍摄图像识别该照射位置P。
如上参考图6描述的操作处理是由包括在根据本实施方式的操作系统内的投影仪1a、激光指示器2a和PC3a进行的所有处理。在此将参考图7具体描述特定于根据本实施方式的投影仪1a(根据本公开一个实施方式的信息处理装置)的操作处理。
图7是示出了根据本公开第一实施方式的投影仪1a的操作处理的流程图。如图7所示,首先在步骤S203,投影仪1a有线/无线地连接至PC3a。
接下来在步骤S206,投影仪1a判断是否正确连接,并且在没有正确连接的情况下(S206/否),在步骤S209,提示对PC3a的正确连接。
另一方面,在正确连接的情况下(S206/是),投影仪1a通过图像投影部11执行图像投影(S212),通过可见光成像部15执行可见光成像(S215),并且通过不可见光成像部12执行不可见光成像(S227)。
具体地,在步骤S112,投影仪1a通过图像投影部11将由投影图像接收部10从PC3a接收到的图像投影在屏幕S上。
进一步地,在步骤S215,投影仪1a通过可见光成像部15执行针对在屏幕S上投影的投影图像的可见光成像。
接下来在步骤S218,投影仪1a的位置识别部16a分析可见光拍摄图像。
接下来在步骤S221,位置识别部16a判断是否能够从可见光拍摄图像中识别可见光激光的点。
接下来在能够识别出可见光激光的点的情况下(S221/是),在步骤S224,位置识别部16a识别该可见光激光的点的位置坐标(照射位置P)。
另一方面,在步骤S227,投影仪1a通过不可见光成像部12执行针对在屏幕S上的投影图像的不可见光成像。
接下来在步骤S230,投影仪1a的用户操作信息获取部13a分析不可见光拍摄图像。
接下来在步骤S233,用户操作信息获取部13a判断是否能够从该不可见光拍摄图像中识别出不可见光标记。
接下来在能够识别出不可见光标记的情况下(S233/是),在步骤S236,用户操作信息获取部13a从该不可见光标记的存在或形状等中获取用户操作信息。
随后在步骤S239,操作输入信息输出部17基于由位置识别部16a识别的照射位置P以及由用户操作信息获取部13a获取的用户操作信息来检测针对该投影图像的操作输入信息。
接下来在步骤S242,操作输入信息输出部17将检测到的操作输入信息传送至PC3a。传送至PC3a的操作输入信息在用于在PC3a中投影的图像中反映,用于投影的该反映图像被传送至PC3a,并且用于投影的该反映图像由图像投影部11在上述步骤S212中投影。
于是在步骤S245,重复在上述步骤206至S242中示出的处理,直到存在结束指令(关电源指令)为止。
随后在存在结束指令的情况下(S245/是),在步骤S248,投影仪1a将该投影仪1a的电源关闭。
(2-1-4.变形例)
至此,已经具体描述了根据第一实施方式的操作系统。虽然根据上述事实上的投影仪1a的用户操作信息获取部13a基于不可见光标记获取了由激光指示器2a检测到的用户操作信息(操作按钮20a的全按操作等),但是根据本实施方式的用户操作信息的获取方法不限于此。例如,投影仪1a可以无线地接收来自激光指示器2a的用户操作信息。其后将参考图8至图9描述其中无线接收用户操作信息的情况作为第一实施方式的变形例。根据该变形例的操作系统包括投影仪1a’(根据本公开一个实施方式的信息处理装置)、激光指示器2a’和PC3a。由于PC3a的内部构成与参考图5描述的模块相类似,因此在此将省略对其的描述。
图8是用于描述根据第一实施方式的变形例的激光指示器2a’的图示。如图8左侧所示,激光指示器2a’在操作按钮20a被半按的同时由可见光线照射激光V。
同样地,如图8右侧所示,在操作按钮20a被全按(完全按下)的情况下,激光指示器2a’在持续照射激光V的同时还把示出了全按操作已被执行的用户操作信息无线传送至投影仪1a’。以此方式,根据本变形例的激光指示器2a’不同于图3A和图3B的示例,并且根据用户对操作按钮20a的全按操作将用户操作信息无线传送至投影仪1a’。
随后将参考图9具体说明形成根据这一变形例的操作系统的每个装置的内部构成。
图9是示出了根据本公开第一实施方式的变形例的操作系统的内部构成的一个例子的框图。如图9所示,投影仪1a’具有投影图像接收部10、图像投影部11、用户操作信息获取部13a’、可见光成像部15、位置识别部16a和操作输入信息输出部17。由于投影图像接收部10、图像投影部11、可见光成像部15、位置识别部16a和操作输入信息输出部17与参考图5描述的模块相类似,因此在此将省略对其的描述。
用户操作信息获取部13a’具有从激光指示器2a’无线接收用户操作信息的功能。虽然投影仪1a’和激光指示器2a’之间的无线通信系统不受具体限制,但是数据的收发例如通过Wi-Fi(注册商标)或Bluetooth(注册商标)等执行。
进一步地,如图9所示,根据该变形例的激光指示器2a’具有操作部20、可见光激光照射部21和传输部23。由于操作部20和可见光激光照射部21与参考图5描述的模块相同,因此在此将省略对其的描述。
传输部23具有与配对的投影仪1a’(连接设置)无线通信的功能。具体地,在由操作部20检测到用户操作的情况下,该传输部23将示出上述用户操作(例如,操作按钮20a的全按操作)的信息(用户操作信息)传送至投影仪1a’。
通过上述构成,首先通过使用激光指示器2a’的用户针对投影图像执行的用户操作(操作按钮20a的全按操作等)经由无线通信传送至投影仪1a’。随后投影仪1a’将包括可见光激光的照射位置P和从激光指示器2a’接收到的用户操作的操作输入信息传送至PC3a。PC3a根据操作输入信息执行处理并将针对反映该信息的投影的图像传送至投影仪1a’。于是,用于其中反映了根据操作输入信息的处理的投影的图像由投影仪1a’投影。
以此方式,用户能够在无需激光指示器2a’与PC3a通信的情况下通过使用激光指示器2a’来执行对投影图像的直观操作输入。
<2-2.第二实施方式>
接下来将具体参考图10至图11描述根据本公开的第二实施方式。在该实施方式中,根据上述第一实施方式的投影仪1a的不可见光成像部12、用户操作信息获取部13a、可见光成像部15、位置识别部16a和用户操作信息获取部13a被包括在与投影仪1a分离的装置(为了方便称为指示器识别相机)内。以此方式,通过将根据本实施方式的指示器识别相机(根据本公开一个实施方式的信息处理装置)新引入现有的投影仪系统,可以建立能够通过激光指示器进行直观操作插入的操作系统。
(2-2-1.总体构成)
首先将参考图10描述根据本公开第二实施方式的操作系统的总体构成。图10是用于描述根据本公开第二实施方式的操作系统的总体构成的图示。如图10所示,根据本实施方式的操作系统包括投影仪1b、指示器识别相机4a、激光指示器2a和PC3a。由于激光指示器2a和PC3a的功能与参考图2描述的第一实施方式中的相同,因此将省略对其的描述。
投影仪1b有线/无线地连接至PC3a,并且接收来自该PC3a的投影图像数据。投影仪1b于是基于接收到的图像数据在屏幕S上投影图像。
指示器识别相机4a成像用于投影图像的可见光,识别不可见光标记M,并检测由激光指示器2a指示的位置(照射位置P)和操作输入信息。于是,指示器识别相机4a将检测到的操作输入信息传送至PC3a。
PC3a根据从指示器识别相机4a接收到的操作输入信息执行控制,并将反映了该操作输入信息的投影图像数据传送至投影仪1b。
以此方式,依赖于根据本实施方式的操作系统,用户能够执行直观的操作输入,诸如根据从激光指示器2a照射的在投影图像上任意位置处的激光V的照射位置P按下操作按钮20a。
(2-2-2.内部构成)
接下来将参考图11具体说明包括在根据本发明实施方式的操作系统中的每个装置的内部构成。图11是示出了根据本公开第二实施方式的操作系统的内部构成的一个例子的框图。
(投影仪1b)
如图11所示,投影仪1b具有投影图像接收部10和图像投影部11。与第一实施方式相类似,投影图像接收部10有线/无线地接收来自PC3a的投影图像数据,并将接收到的图像数据传送至图像投影部11。图像投影部11基于从投影图像接收部10输出的图像数据指示图像在屏幕S上的投影。
(指示器识别相机4a)
如图11所示,指示器识别相机4a具有不可见光成像部42、用户操作信息获取部43、位置识别部46和操作输入信息输出部47。
类似于根据第一实施方式的不可见光成像部12,不可见光成像部42具有在投影图像上成像由激光指示器2a照射的不可见光标记M的功能。不可见光成像部42的成像范围被调整为包括在屏幕S上投影的投影图像的范围。
位置识别部46基于由不可见光成像部42拍摄到的不可见光拍摄图像识别不可见光标记M的坐标位置。由于该不可见光标记M被照射在与激光的照射位置P相同的位置处或其附近,位置识别部46可以将该不可见光标记M的坐标位置识别为激光的照射位置P。
类似于根据第一实施方式的用户操作信息获取部13a,用户操作信息获取部43用作基于拍摄不可见光标记M的不可见光拍摄图像获取由激光指示器2a检测到的用户操作信息的获取部。
类似于据第一实施方式的操作输入信息输出部17,操作输入信息输出部47具有基于从用户操作信息获取部43输出的用户操作信息以及示出了从位置识别部46输出的照射位置P的信息来检测针对该投影图像的操作输入信息的功能。进一步地,操作输入信息输出部47还具有将检测到的操作输入信息有线/无线地传送至PC3a的功能。
(激光指示器2a)
由于激光指示器2a的内部构成与参考图5描述的第一实施方式的相类似,因此在此将省略对其的描述。
(PC3a)
PC3a的内部构成与参考图5描述的第一实施方式的相类似。具体地,根据本实施方式的操作输入部32a具有接收来自指示器识别相机4a的操作输入信息的功能。操作输入部32a将从该指示器识别相机4a接收到的操作输入信息输出至控制部30。于是,控制部30根据操作输入信息执行处理,并将反映了该处理的投影图像数据从图像输出部31传送至投影仪1b。
如上所述,通过包括与投影仪1b相分离的指示器识别相机4a(根据本公开一个实施方式的信息处理装置)的构成,根据第二实施方式的操作系统能够使用激光指示器2a实现用于投影图像的直观用户操作。
<2-3.第三实施方式>
接下来将具体参考图12至图13描述根据本公开的第三实施方式。在本实施方式中,包括根据上述第二实施方式的指示器识别相机4a的用户操作信息获取部43、位置识别部46和操作输入信息输出部47的功能的指示器识别引擎内建在PC3内。以此方式,通过将具有根据本实施方式的指示器识别引擎的PC(其后称为指示器识别PC)新引入具有投影仪和相机的现有投影仪系统内,就能够建立可由激光指示器进行直观操作输入的操作系统。指示器识别引擎的并入可以通过硬件也可以将通过软件实现。例如,可以通过将指示器识别应用并入通用PC来实现该指示器识别PC。
(2-3-1.总体构成)
首先将参考图12描述根据本公开第三实施方式的操作系统的总体构成。图12是用于描述根据本公开第三实施方式的操作系统的总体构成的图示。如图12所示,根据本实施方式的操作系统包括投影仪1b、相机4b、激光指示器2a和指示器识别PC3b(根据本发明一个实施方式的信息处理装置)。由于投影仪1b和激光指示器2a的功能与参考图11描述的第二实施方式中的相同,因此将省略对其的描述。
相机4b有线/无线地连接至指示器识别PC3b,并且拍摄用于投影图像的不可见光的不可见光拍摄图像传送至PC3b。
指示器识别PC3b基于不可见光拍摄图像识别不可见光标记M,并检测由激光指示器2a指示的位置(照射位置P)和操作输入信息。于是,PC3b根据检测到的操作输入信息执行控制,并将反映了该操作输入信息的投影图像数据传送至投影仪1b。
以此方式,依赖于根据本实施方式的操作系统,用户能够执行直观的操作输入,诸如根据从激光指示器2a照射的在投影图像上任意位置处的激光V的照射位置P按下操作按钮20a。
(2-3-2.内部构成)
接下来将参考图13具体公开包括在根据本发明实施方式的操作系统中的每个装置的内部构成。图13是示出了根据本公开第三实施方式的操作系统的内部构成的一个例子的框图。注意到,由于投影仪1b和激光指示器2a的内部构成与参考图11公开的第二实施方式中的相同,因此将省略对其的描述。
(相机4b)
如图13所示,相机4b具有不可见光成像部42和拍摄图像传输部49。类似于根据第二实施方式的相同模块,不可见光成像部42具有在投影图像上成像由激光指示器2a照射的不可见光标记M的功能。拍摄图像传输部49将由不可见光成像部42拍摄到的不可见光拍摄图像有线/无线地传送至指示器识别PC3b。
(指示器识别PC3b)
如图13所示,指示器识别PC3b具有控制部30、图像输出部31、操作输入部32b、用户操作信息获取部33、拍摄图像接收部34和位置识别部36。
拍摄图像接收部34从相机4b有线/无线地接收不可见光拍摄图像,将接收到的不可见光拍摄图像输出至位置识别部36和用户操作信息获取部33。
与图11所示的根据第二实施方式的位置识别部46相类似,该位置识别部36基于不可见光拍摄图像识别不可见光标记M的坐标位置。由于该不可见光标记M被照射在与激光的照射位置P相同的位置处或其附近,位置识别部36可以将该不可见光标记M的坐标位置识别为激光的照射位置P。
类似于图11所示的根据第二实施方式的用户操作信息获取部43,用户操作信息获取部33用作基于拍摄不可见光标记M的不可见光拍摄图像获取由激光指示器2a检测到的用户操作信息的获取部。
操作输入部32b具有与图11所示的根据第二实施方式的操作输入信息输出部47类似的功能。具体地,操作输入部32b具有基于从用户操作信息获取部33检测到的用户操作信息以及示出了从位置识别部36检测到的照射位置P的信息来检测针对该投影图像的操作输入信息的功能。于是,操作输入部32b将检测到的操作输入信息输出至控制部30。
控制部30根据操作输入信息执行处理,并将反映了该处理的投影图像数据从图像输出部31传送至投影仪1b。
如上所述,根据该第三实施方式的操作系统包括与相机4b分立的具有内建指示器识别引擎的PC3b(根据本公开一个实施方式的信息处理装置),并且能够使用激光指示器2a执行针对投影图像的直观用户操作。
<2-4.第四实施方式>
接下来将具体参考图14至图15描述根据本公开的第四实施方式。在本实施方式中,根据上述第三实施方式的相机4b和具有内建指示器识别引擎的PC3b由一体化装置实现。具体地,例如可以通过将指示器识别引擎并入具有内建相机的移动通信终端(智能电话或平板终端等)来实现相机4b和PC3b。以此方式,通过将其中并入了根据本实施方式的指示器识别引擎的通信终端引入具有投影仪的现有投影仪系统,就可以建立能够由激光指示器执行直观的操作输入的操作系统。指示器识别引擎的并入可以通过硬件也可以将通过软件实现。例如,可以通过将应用指示器识别的应用并入通用通信终端来实现用于指示器识别的通信终端。
(2-4-1.总体构成)
首先将参考图14描述根据本公开第四实施方式的操作系统的总体构成。图14是用于描述根据本公开第四实施方式的操作系统的总体构成的图示。如图14所示,根据本实施方式的操作系统包括投影仪1b、通信终端5(根据本公开一个实施方式的信息处理装置)和激光指示器2a。由于投影仪1b和激光指示器2a的功能与图12和图13所示的第三实施方式中的相类似,因此将省略对其的描述。
通信终端5有线/无线地连接至投影仪1b,并且传送投影图像数据。进一步地,通信终端5基于从投影在屏幕S上的图像中拍摄不可见光的不可见光拍摄图像分析由激光指示器2a照射的不可见光标记M,并且获取照射位置P和用户操作信息。进一步地,通信终端5基于照射位置P和用户操作信息检测操作输入信息,并且根据检测到的操作输入信息执行控制。随后,该通信终端5将反映了上述操作输入信息的用于投影的投影图像数据传送至投影仪1b。
以此方式,依赖于根据本实施方式的操作系统,用户能够执行直观的操作输入,诸如根据从激光指示器2a照射的在投影图像上任意位置处的激光V的照射位置P按下操作按钮20a。
(2-4-2.内部构成)
接下来将参考图15具体说明包括在根据本发明实施方式的操作系统中的通信终端5的内部构成。图15是示出了根据本公开第四实施方式的通信终端5的内部构成的一个例子的框图。
通信终端5具有控制部50、图像输出部51、操作输入部52、用户操作信息获取部53、不可见光成像部54和位置识别部56。
不可见光成像部54具有拍摄由激光指示器2a照射在投影于屏幕S的图像上的不可见光标记M的功能。
与根据图13所示的第三实施方式的位置识别部36相类似,该位置识别部56基于不可见光拍摄图像识别不可见光标记M的坐标位置。由于该不可见光标记M被照射在与激光的照射位置P相同的位置处或其附近,位置识别部56可以将该不可见光标记M的坐标位置识别为激光的照射位置P。
类似于图13所示的根据第三实施方式的用户操作信息获取部33,用户操作信息获取部53用作基于拍摄不可见光标记M的不可见光拍摄图像获取由激光指示器2a检测到的用户操作信息的获取部。
操作输入部52具有与图13所示的根据第三实施方式的操作输入部32b类似的功能。具体地,操作输入部52具有基于从用户操作信息获取部53输出的用户操作信息以及示出了从位置识别部56输出的照射位置P的信息来检测针对该投影图像的操作输入信息的功能。于是,操作输入部52将检测到的操作输入信息输出至控制部30。
控制部30根据操作输入信息执行处理,并将反映了该处理的投影图像数据从图像输出部31传送至投影仪1b。
如上所述,根据该第四实施方式的操作系统包括具有内建的相机4b以及并入的指示器识别引擎的通信终端5(根据本公开一个实施方式的信息处理装置),并且能够使用激光指示器2a执行针对投影图像的直观用户操作。
<2-5.第五实施方式>
接下来将具体参考图16至图17描述本公开的第五实施方式。在上述的每一个实施方式中,投影在屏幕S上的图像(投影图像)由包括在投影仪1a内的相机、单独的相机或是包括在通信终端5内的相机所拍摄,并且基于拍摄到的图像识别照射位置P。然而,由根据本公开一个实施方式的操作系统执行的照射位置P识别方法不限于上述的每一个实施方式,并且例如可以是在激光指示器2内包括相机并且仅在操作按钮20a被按下时执行对不可见光图像和照射位置P进行识别的方法。以此方式,通过仅在操作按钮20a被按下时执行对不可见光图像和照射位置P的识别,就能够排除非必须的功率消耗。
(2-5-1.总体构成)
首先将参考图16描述根据本公开第五实施方式的操作系统的总体构成。图16是用于描述根据本公开第五实施方式的操作系统的总体构成的图示。如图16所示,根据本实施方式的操作系统包括投影仪1c(根据本公开一个实施方式的信息处理装置)、激光指示器2b和PC3a。由于PC3a的功能与上述第一实施方式中的相类似,因此将省略对其的描述。
投影仪1c有线/无线地连接至PC3a,并且接收来自该PC3a的投影图像数据。进一步地,投影仪1c将投影图像数据投影在屏幕S上。此外,根据本实施方式的投影仪1c将诸如红外光的不可见光的坐标特定映射图(被称为坐标识别图像)Q叠加在屏幕S(图像投影区域)上。不可见光的坐标特定映射图Q的投影区域可以在包括图像投影区域的范围内。
进一步地,在被初始化时,投影仪1c可以将嵌入了用于激光指示器2b执行与该投影仪1c的无线通信连接设置的信息的不可见光图像重叠地投影在屏幕S(图像投影区域)上。
激光指示器2b根据操作按钮20a的按压状态执行可见光线(激光V)的照射以及用户操作信息的传输控制。具体地,例如激光指示器2b在操作按钮20a被半按的情况下照射激光V,在持续照射激光V的同时在操作按钮20a被全按的情况下通过无线通信向投影仪1c传送示出了该全按操作的信息(用户操作信息)。
此外,在操作按钮20a被全按的情况下,根据该实施方式的激光指示器2b在包括激光V的照射位置P的范围内拍摄不可见光。在被初始化的情况下,激光指示器2b可以从不可见光拍摄图像中读取连接信息,并且能够基于该连接信息自动执行与投影仪1c的无线连接设置。注意到,激光指示器2b和投影仪1c的连接设置(配对)可由用户手动执行。
此外,激光指示器2b识别包括在不可见光拍摄图像中的坐标特定映射图Q’,并且读取坐标特定信息等。激光指示器2b将已被读取的信息(其后称为读取信息)连同用户操作信息一起经由无线通信传送至投影仪1c。
已经接收到来自激光指示器2b的用户操作信息和读取信息的投影仪1c可以基于该读取信息识别激光指示器2b的照射位置P。进一步地,投影仪1c基于照射位置P和用户操作信息检测操作输入信息,并且将检测到的操作输入信息传送至PC3a。
PC3a根据传送的操作输入信息执行控制,并将反映了该操作输入信息的投影图像数据传送至投影仪1c。
以此方式,依赖于根据本实施方式的操作系统,来自投影仪1c的不可见光的坐标特定映射图被重叠地投影在投影图像上,在激光指示器2b侧拍摄不可见光,并且基于该不可见光拍摄图像由激光指示器2b识别照射位置P。
(2-5-2.内部构成)
接下来将参考图17具体说明包括在根据本发明实施方式的操作系统中的每个装置的内部构成。图17是示出了根据本公开第五实施方式的操作系统的内部构成的一个例子的框图。
(投影仪1c)
投影仪1c具有投影图像接收部10、图像投影部11、不可见光图像生成部18、不可见光投影部19、信息获取部13c、位置识别部16c和操作输入信息输出部17。
由于投影图像接收部10和图像投影部11与根据第一实施方式的相同模块类似,因此在此省略对其的描述。
不可见光图像生成部18生成嵌入了在由激光指示器2b识别照射位置P时使用的坐标特定信息的不可见光坐标特定映射图Q,以及其中嵌入了连接信息的不可见光的图像。
不可见光投影部19将由不可见光图像生成部18生成的不可见光坐标特定映射图Q以及其中嵌入了连接信息的图像重叠地投影在屏幕S的投影图像上。注意到,不可见光投影部19和图像投影部11的投影可以是由同一光源经由不同滤波器进行的投影。
信息获取部13c与激光指示器2b无线通信,并从激光指示器2b接收用户操作信息和读取信息。
位置识别部16c基于由不可见光图像生成部18创建的坐标特定映射图Q以及包括在由信息获取部13c接收并从拍摄不可见光的坐标特定映射图Q’读取的坐标特定信息来识别激光指示器2b的照射位置P(坐标位置)。如,位置识别部16c将坐标特定映射图Q与由坐标特定信息示出的坐标特定映射图Q’相比较,并且指定坐标特定映射图Q’在坐标特定映射图Q中的位置。于是,位置识别部16c将坐标特定映射图Q’的中心位置识别为激光指示器2b的照射位置P(坐标位置)。
操作输入信息输出部17具有基于从信息获取部13a接收到的用户操作信息以及示出了从位置识别部16c识别出的照射位置P的信息来检测针对该投影图像的操作输入信息的功能。进一步地,操作输入信息输出部17还将检测到的操作输入信息有线/无线地传送至PC3a。
(激光指示器2b)
如图17所示,激光指示器2b具有操作部20、可见光激光照射部21、不可见光成像部25、信息读取部26和传输部23。
可见光激光照射部21具有根据由操作部20检测到的用户操作照射激光V(可见光)的功能。具体地,例如在操作按钮20a被半按的情况下,可见光激光照射部21照射激光V。
不可见光成像部25具有根据由操作部20检测到的用户操作拍摄在包括由激光V照射的位置(照射位置P)的范围内的不可见光的功能。例如,该不可见光成像部25仅在操作按钮20a被全按的情况下执行不可见光成像。
信息读取部26基于不可见光拍摄图像识别坐标特定映射图Q’并且读取坐标特定信息等。
传输部23将由信息读取部26读取的信息(读取信息)以及由操作部20检测到的用户操作信息(例如,全按操作)经由无线通信传送至投影仪1c。
以此方式,例如根据本实施方式的激光指示器2b在操作按钮20a被半按(第一阶段操作)的情况下照射激光V。同样地,在操作按钮20a被全按(第二阶段操作)的情况下,激光指示器2b在照射激光V的同时执行不可见光成像,并将从不可见光拍摄图像中读取的信息和用户操作信息无线传送至投影仪1c。以此方式,用户就能够通过使用激光指示器2b直观地执行用于投影图像的操作输入。
(PC3a)
PC3a的内部构成与第一实施方式的相类似。也就是说,操作输入部32a从投影仪1c接收操作输入信息,并且控制部30根据这一操作输入信息执行处理。进一步地,图像输出部31将其中反映了由控制部30执行的处理的投影图像数据传送至投影仪1c。
如上所述,在根据第五实施方式的操作系统中,相机(不可见光成像部25)被包括在激光指示器2b中,并且根据由激光指示器2b检测到的用户操作执行不可见光成像。进一步地,投影仪1c能够接收从在激光指示器2b侧拍摄不可见光的坐标指定映射图Q’中读取的坐标指定信息,并且能够基于这一坐标指定信息识别激光指示器2b的照射位置P。
<2-6.第六实施方式>
包括在根据上述第五实施方式的操作系统中的每个装置的构成仅仅是一个例子,并且根据本公开一个实施方式的操作系统的每个构成都不限于图17的示例。例如,根据上述第五实施方式的投影仪1c的不可见光图像生成部18、不可见光投影部19、信息获取部13c、位置识别部16c和用户操作信息获取部13a可以被包括在与投影仪1c分离的装置(为了方便称为指示器识别装置)内。以此方式,通过将根据本实施方式的指示器识别装置(根据本公开一个实施方式的信息处理装置)新引入现有的投影仪系统,可以建立能够通过激光指示器进行直观操作插入的操作系统。
(2-6-1.总体构成)
首先将参考图18描述根据本公开第六实施方式的操作系统的总体构成。图18是用于描述根据本公开第六实施方式的操作系统的总体构成的图示。如图18所示,根据本实施方式的操作系统包括投影仪1b、指示器识别装置6、激光指示器2b和PC3a。由于PC3a与上述第一实施方式中的相类似,投影仪1b与上述第二实施方式中的相类似,而激光指示器2b与上述第五实施方式中的相类似,因此在此将省略对其的描述。
指示器识别装置6将诸如红外光的不可见光的坐标特定映射图Q叠加在屏幕S(图像投影区域)上。不可见光的坐标特定映射图Q的投影区域可以在包括图像投影区域的范围内。
与第五实施方式类似,激光指示器2b根据操作按钮20a的按下操作照射激光V,拍摄在屏幕S上包括照射位置P的范围内的不可见光,并且识别包括在不可见光拍摄图像中的坐标特定映射图Q’。随后该激光指示器2b将检测到的用户操作信息以及从坐标特定映射图Q’中读取的信息传送至指示器识别装置6。
该指示器识别装置6基于从激光指示器2b接收到的读取信息识别激光指示器2b的照射位置P。进一步地,该指示器识别装置6基于识别出的照射位置P以及从激光指示器2b接收到的用户操作信息检测操作输入信息,并且将检测到的操作输入信息传送至PC3a。
PC3a根据传送的操作输入信息执行控制,并将反映了该操作输入信息的投影图像数据传送至投影仪1c。
以此方式,依赖于根据本实施方式的操作系统,通过将根据本实施方式的指示器识别装置6(根据本公开一个实施方式的信息处理装置)新引入现有的投影仪系统,可以建立能够通过激光指示器进行直观操作插入的操作系统。
(2-6-2.内部构成)
接下来将参考图19具体说明包括在根据本发明实施方式的操作系统中的每个装置的内部构成。图19是示出了根据本公开第六实施方式的操作系统的内部构成的一个例子的框图。注意到由于PC3a的构成与上述第一实施方式中的构成相类似,投影仪1b的构成与上述第二实施方式中的构成相类似,而激光指示器2b的构成与上述第五实施方式中的构成相类似,因此在此将省略对其的具体描述。
(指示器识别装置6)
如图19所示,指示器识别装置6具有不可见光图像生成部68、不可见光投影部69、信息获取部63、位置识别部66和操作输入信息输出部67。
与根据第五实施方式的不可见光图像生成部18类似,不可见光图像生成部68生成不可见光的坐标特定映射图Q,以及其中嵌入了连接信息的不可见光的图像。
与根据第五实施方式的不可见光投影部19类似,不可见光投影部69将由不可见光图像生成部68生成的不可见光的坐标特定映射图Q以及其中嵌入了连接信息的图像重叠地投影在屏幕S的投影图像上。
与根据第五实施方式的信息获取部13c类似,信息获取部63与激光指示器2b无线通信,并从激光指示器2b接收用户操作信息和读取信息。
与根据第五实施方式的位置识别部16c类似,位置识别部66基于由不可见光图像生成部68生成的坐标特定映射图Q以及从拍摄不可见光的坐标特定映射图Q’读取的坐标特定信息来识别激光指示器2b的照射位置P(坐标位置)。
类似于据第五实施方式的操作输入信息输出部17,操作输入信息输出部67具有基于从信息获取部63接收到的用户操作信息以及由位置识别部66识别出的照射位置P来检测针对该投影图像的操作输入信息的功能。进一步地,操作输入信息输出部67还将检测到的操作输入信息有线/无线地传送至PC3a。
如上所述,通过包括与投影仪1b相分离的指示器识别装置6(根据本公开一个实施方式的信息处理装置)的构成,根据第六实施方式的操作系统能够使用激光指示器2b实现用于投影图像的直观用户操作。
<2-7.第七实施方式>
接下来将具体参考图20至图21具体描述根据本公开的第七实施方式。在本实施方式中,根据上述第六实施方式的指示器识别装置6和PC3a由一体化装置实现。具体地,例如可以通过将指示器识别引擎并入具有内建相机的移动通信终端(智能电话或平板终端等)来实现指示器识别装置6和PC3a。以此方式,通过将其中并入了根据本实施方式的指示器识别引擎的通信终端引入具有投影仪的现有投影仪系统,就可以建立能够由激光指示器执行直观的操作输入的操作系统。
(2-7-1.总体构成)
首先将参考图20描述根据本公开第七实施方式的操作系统的总体构成。图20是用于描述根据本公开第七实施方式的操作系统的总体构成的图示。如图20所示,根据本实施方式的操作系统包括投影仪1b、通信终端7(根据本公开一个实施方式的信息处理装置)和激光指示器2b。由于投影仪1b的功能已在上述第二实施方式中描述,而激光指示器2b的功能已在上述第五实施方式中描述,因此在此将省略对其的描述。
通信终端7有线/无线地连接至投影仪1b,并且传送投影图像数据。进一步地,通信终端7将诸如红外光的不可见光的坐标特定映射图Q投影在屏幕S上投影的图像上。
进一步地,通信终端7经由无线通信从激光指示器2b接收用户操作信息以及从由激光指示器2b拍摄的不可见光拍摄图像中读取的读取信息,并且基于这些信息检测操作输入信息。于是,通信终端7根据检测到的操作输入信息执行控制,并将反映了该操作输入信息的投影图像数据传送至投影仪1b。
以此方式,依赖于根据本实施方式的操作系统,通过将其中并入了指示器识别引擎的通信终端7(根据本公开一个实施方式的信息处理装置)引入现有的投影仪系统,就能够由激光指示器执行直观的操作输入。
(2-7-2.内部构成)
接下来将参考图21具体说明包括在根据本发明实施方式的操作系统中的通信终端7的内部构成。图21是示出了根据本公开第七实施方式的通信终端7的内部构成的一个例子的框图。
如图21所示,通信终端7具有控制部70、图像输出部71、不可见光图像生成部78、不可见光投影部79、信息获取部73、位置识别部76和操作输入部72。不可见光图像生成部78、不可见光投影部79、信息获取部73和位置识别部76分别具有与根据第六实施方式的不可见光图像生成部68、不可见光投影部69、信息获取部63和位置识别部66相类似的功能。
进一步地,类似于据第六实施方式的操作输入部52,操作输入部72具有基于从信息获取部73输出的用户操作信息以及示出了由位置识别部76检测到的照射位置P的信息来检测针对该投影图像的操作输入信息的功能。于是,操作输入部72将检测到的操作输入信息输出至控制部70。
控制部70根据操作输入信息执行处理,并将反映了该处理的投影图像数据从图像输出部71传送至投影仪1b。
如上所述,根据第六实施方式,通过将包括具有内建的相机以及并入的指示器识别引擎的通信终端7(根据本公开一个实施方式的信息处理装置)引入现有的投影仪系统,变得能够使用激光指示器2b执行针对投影图像的直观用户操作。
<<3.结论>>
如上所述,通过在根据本实施方式的操作系统中使用激光指示器2,能够在照射激光V的状态下执行针对投影图像的直观操作输入。由第一阶段操作(例如,操作按钮20a半按)开始激光V的照射,并且继续第二阶段操作(例如,操作按钮20a全按、按两次等),以对应直观的操作输入。以此方式,就能够由激光指示器2针对投影图像(例如,地图或网站等)执行与鼠标GUI的点击、拖曳、范围选择或双击等相对应的直观操作输入。
具体地,在上述第一至第七实施方式中,由激光指示器2a检测到的用户操作信息(操作按钮20a的全按操作等)经由从激光指示器2a照射的不可见光标记M或经由无线图像传送。进一步地,在上述第一至第四实施方式中,根据本公开一个实施方式的信息处理装置由投影仪1a和1a’、指示器识别相机4a、指示器识别PC3b和通信终端5实现。这一信息处理装置通过分析拍摄不可见光标记M的不可见光图像或是通过与激光指示器2a的无线通信获取由激光指示器2a检测到的用户操作信息。此外,这一信息处理装置基于可见光图像/不可见光图像识别由激光指示器2a的激光V在投影图像上指示的照射位置P。同样地,该信息处理装置能够基于识别出的照射位置P和上述获取的用户操作信息来检测操作输入信息。
注意到,由激光指示器2a检测到的用户操作信息(操作按钮20a的全按操作等)的传送不限于由从激光指示器2a照射的不可见光标记M的传送,并且可以是对可见光标记的传送。
进一步地,在第五至第七实施方式中,不可见光的坐标特定映射图Q被重叠投影在屏幕S的投影图像上,并且不可见光由激光指示器2b拍摄。激光指示器2b将由操作部20检测到的用户操作信息(操作按钮20a的全按操作等)以及从不可见光拍摄图像读取的读取图像经由无线通信传送至信息处理装置。在上述第五至第七实施方式中,根据本公开一个实施方式的信息处理装置由投影仪1c、指示器识别装置6和通信终端7实现。这一信息处理装置基于从激光指示器2b接收到的读取信息识别由激光指示器2a的激光V在投影图像上指示的照射位置P。同样地,该信息处理装置能够基于识别出的照射位置P和上述接收到的用户操作信息来检测操作输入信息。
本领域技术人员应该理解的是,取决于设计要求和其他因素,会出现各种修改、组合、子组合和变化,而这些修改、组合、子组合和变化仍将位于所附权利要求或其等效方案的范围内。
例如,能够创建用于使得诸如内建在投影仪1a、1a’和1c、指示器识别相机4a、指示器识别装置6、指示器识别PC3b或通信终端5和7中的CPU、ROM和RAM之类的硬件呈现出上述投影仪1a、1a’和1c、指示器识别相机4a、指示器识别装置6、指示器识别PC3b或通信终端5和7的功能的计算机程序。进一步地,可以提供其上记录有这一计算机程序的计算机可读存储介质。
进一步地,根据本公开一个实施方式的操作系统可以通过多个投影仪1执行直观的操作输入。以此方式,变得能够由多人执行协同操作,或者使用双手由多个激光指示器2执行UI操作。
例如,对多个激光指示器2的每个照射位置P的识别可以基于嵌入在与激光V一同照射的不可见光的一维条形码或二维条形码中的用户ID来进行。或者,对每个照射位置P的识别可以基于激光V(可见光)的颜色或形状来进行。用户可以通过包括在激光指示器2a内的开关、在触摸面板的显示屏幕上或在投影图像上来选择激光V的颜色或形状。
进一步地,通过执行连同根据第二阶段用户操作照射不可见光标记M一起的音频输出,根据上述第一至第四实施方式的激光指示器2a能够向用户提供直观操作输入的反馈。
此外,本技术还可如下构成。
(1)一种信息处理装置,包括:
识别来自激光指示器的激光在投影图像上的照射位置的识别部;
获取由设置在所述激光指示器内的操作部检测到的用户操作的信息的获取部;以及
基于由所述识别部识别出的照射位置以及由所述获取部获取的用户操作检测针对所述投影图像的操作输入信息的检测部。
(2)根据(1)的信息处理装置,
其中所述识别部基于拍摄投影表面的拍摄图像识别所述照射位置。
(3)根据(1)或(2)所述的信息处理装置,
其中所述激光指示器照射与由所述操作部检测到的用户操作相对应的不可见光标记,以及
其中所述获取部基于拍摄由所述激光指示器照射的不可见光标记的拍摄图像获取所述用户操作的信息。
(4)根据(3)所述的信息处理装置,
其中所述不可见光标记是点、图形、一维/二维条形码或运动图像。
(5)根据(3)或(4)所述的信息处理装置,
其中所述识别部基于拍摄所述不可见光标记的拍摄图像而将所述不可见光标记的位置坐标识别为所述激光指示器的照射位置。
(6)根据(1)或(2)所述的信息处理装置,
其中所述获取部从所述激光指示器接收并获取由所述激光指示器检测到的所述用户操作的信息。
(7)根据(1)或(2)所述的信息处理装置,
其中所述激光指示器照射与由所述操作部检测到的用户操作相对应的可见光标记,以及
其中所述获取部基于拍摄由所述激光指示器照射的可见光标记的拍摄图像获取所述用户操作的信息。
(8)根据(7)所述的信息处理装置,
其中所述激光指示器根据所述用户操作使得所述可见光标记的形状和颜色中的至少一种改变。
(9)根据(1)至(8)中任一项所述的信息处理装置,
其中所述识别部基于拍摄整个所述投影图像的拍摄图像识别来自所述激光指示器的激光在所述投影图像上的照射位置。
(10)根据(1)至(8)中任一项所述的信息处理装置,
其中所述识别部基于拍摄重叠和投影在所述投影图像上的不可见光的坐标识别图像的拍摄图像来识别来自所述激光指示器的激光在所述投影图像上的照射位置。
(11)根据(10)所述的信息处理装置,
其中拍摄所述不可见光的坐标识别图像的所述拍摄图像是拍摄来自所述激光指示器的激光在所述投影图像上的照射位置周边的拍摄图像。
(12)根据(1)至(10)中任一项所述的信息处理装置,
其中所述识别部识别来自多个激光指示器的激光在所述投影图像上的照射位置,
其中所述多个激光指示器照射示出了所述多个激光指示器的识别信息的不可见光或可见光标记,以及
其中所述获取部基于拍摄由所述多个激光指示器中的每一个激光指示器照射的所述不可见光或可见光标记的拍摄图像,获取用于识别所述激光指示器中的每一个的识别信息。
(13)一种操作输入检测方法,包括:
识别来自激光指示器的激光在投影图像上的照射位置;
获取由设置在所述激光指示器内的操作部检测到的用户操作的信息;以及
基于识别出的所述照射位置和获取的所述用户操作检测针对所述投影图像的操作输入信息。
(14)一种程序,用于使得计算机用作:
识别来自激光指示器的激光在投影图像上的照射位置的识别部;
获取由设置在所述激光指示器内的操作部检测到的用户操作信息的获取部;以及
基于由所述识别部识别出的照射位置以及由所述获取部获取的用户操作检测针对所述投影图像的操作输入信息的检测部。
(15)具有程序存储其上的非暂态计算机可读存储介质,所述程序使得计算机用作:
识别来自激光指示器的激光在投影图像上的照射位置的识别部;
获取由设置在所述激光指示器内的操作部检测到的用户操作信息的获取部;以及
基于由所述识别部识别出的照射位置以及由所述获取部获取的用户操作检测针对所述投影图像的操作输入信息的检测部。
Claims (13)
1.一种信息处理装置,包括:
识别来自激光指示器的激光在投影图像上的照射位置的识别部;
获取由设置在所述激光指示器内的操作部检测到的用户操作的信息的获取部;以及
基于由所述识别部识别出的照射位置以及由所述获取部获取的用户操作检测针对所述投影图像的操作输入信息的检测部,
其中所述激光指示器照射与由所述操作部检测到的用户操作相对应的不可见光标记或可见光标记,以及
其中所述获取部基于拍摄由所述激光指示器照射的不可见光标记或可见光标记的拍摄图像,通过分析不可见光标记或可见光标记的存在、形状、颜色以及嵌入在不可见光标记或可见光标记中的信息来获取所述用户操作的信息。
2.如权利要求1所述的信息处理装置,
其中所述识别部基于拍摄投影表面的拍摄图像识别所述照射位置。
3.如权利要求1所述的信息处理装置,
其中所述不可见光标记是点、图形、一维/二维条形码或运动图像。
4.如权利要求1所述的信息处理装置,
其中所述识别部基于拍摄所述不可见光标记的拍摄图像而将所述不可见光标记的位置坐标识别为所述激光指示器的照射位置。
5.如权利要求1所述的信息处理装置,
其中所述获取部从所述激光指示器接收并获取由所述激光指示器检测到的所述用户操作的信息。
6.如权利要求1所述的信息处理装置,
其中所述激光指示器根据所述用户操作使得所述可见光标记的形状和颜色中的至少一种改变。
7.如权利要求1所述的信息处理装置,
其中所述识别部基于拍摄整个所述投影图像的拍摄图像识别来自所述激光指示器的激光在所述投影图像上的照射位置。
8.如权利要求1所述的信息处理装置,
其中所述识别部基于拍摄重叠和投影在所述投影图像上的不可见光的坐标识别图像的拍摄图像来识别来自所述激光指示器的激光在所述投影图像上的照射位置。
9.如权利要求8所述的信息处理装置,
其中拍摄所述不可见光的坐标识别图像的所述拍摄图像是拍摄来自所述激光指示器的激光在所述投影图像上的照射位置周边的拍摄图像。
10.如权利要求1所述的信息处理装置,
其中所述识别部识别来自多个激光指示器的激光在所述投影图像上的照射位置,
其中所述多个激光指示器照射示出了所述多个激光指示器的识别信息的不可见光或可见光标记,以及
其中所述获取部基于拍摄由所述多个激光指示器中的每一个激光指示器照射的所述不可见光或可见光标记的拍摄图像,获取用于识别所述激光指示器中的每一个的识别信息。
11.一种操作输入检测方法,包括:
识别来自激光指示器的激光在投影图像上的照射位置;
获取由设置在所述激光指示器内的操作部检测到的用户操作的信息;以及
基于识别出的所述照射位置和获取的所述用户操作检测针对所述投影图像的操作输入信息,
其中所述激光指示器照射与由所述操作部检测到的用户操作相对应的不可见光标记或可见光标记,以及
其中所述用户操作的信息是基于拍摄由所述激光指示器照射的不可见光标记或可见光标记的拍摄图像、通过分析不可见光标记或可见光标记的存在、形状、颜色以及嵌入在不可见光标记或可见光标记中的信息而获取的。
12.一种程序,用于使得计算机用作:
识别来自激光指示器的激光在投影图像上的照射位置的识别部;
获取由设置在所述激光指示器内的操作部检测到的用户操作的信息的获取部;以及
基于由所述识别部识别出的照射位置以及由所述获取部获取的用户操作检测针对所述投影图像的操作输入信息的检测部,
其中所述激光指示器照射与由所述操作部检测到的用户操作相对应的不可见光标记或可见光标记,以及
其中所述获取部基于拍摄由所述激光指示器照射的不可见光标记或可见光标记的拍摄图像,通过分析不可见光标记或可见光标记的存在、形状、颜色以及嵌入在不可见光标记或可见光标记中的信息来获取所述用户操作的信息。
13.一种具有程序存储其上的非暂态计算机可读存储介质,所述程序使得计算机用作:
识别来自激光指示器的激光在投影图像上的照射位置的识别部;
获取由设置在所述激光指示器内的操作部检测到的用户操作的信息的获取部;以及
基于由所述识别部识别出的照射位置以及由所述获取部获取的用户操作检测针对所述投影图像的操作输入信息的检测部,
其中所述激光指示器照射与由所述操作部检测到的用户操作相对应的不可见光标记或可见光标记,以及
其中所述获取部基于拍摄由所述激光指示器照射的不可见光标记或可见光标记的拍摄图像,通过分析不可见光标记或可见光标记的存在、形状、颜色以及嵌入在不可见光标记或可见光标记中的信息来获取所述用户操作的信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013140856A JP2015014882A (ja) | 2013-07-04 | 2013-07-04 | 情報処理装置、操作入力検出方法、プログラム、および記憶媒体 |
JP2013-140856 | 2013-07-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104281276A CN104281276A (zh) | 2015-01-14 |
CN104281276B true CN104281276B (zh) | 2019-01-29 |
Family
ID=52132466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410302243.0A Expired - Fee Related CN104281276B (zh) | 2013-07-04 | 2014-06-27 | 信息处理装置、操作输入检测方法、程序和存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150009138A1 (zh) |
JP (1) | JP2015014882A (zh) |
CN (1) | CN104281276B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015158644A (ja) * | 2014-02-25 | 2015-09-03 | カシオ計算機株式会社 | 投影装置、投影方法及びプログラム |
JP2016103073A (ja) | 2014-11-27 | 2016-06-02 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理システム |
JP2016212291A (ja) * | 2015-05-11 | 2016-12-15 | 株式会社リコー | 画像投影システム、画像処理装置、及びプログラム |
WO2017130504A1 (ja) | 2016-01-25 | 2017-08-03 | 裕行 池田 | 画像投影装置 |
US20180210561A1 (en) * | 2017-01-24 | 2018-07-26 | Semiconductor Energy Laboratory Co., Ltd. | Input unit, input method, input system, and input support system |
JP6848575B2 (ja) * | 2017-03-22 | 2021-03-24 | カシオ計算機株式会社 | 制御システム、制御方法、及び制御プログラム |
CN107831920B (zh) * | 2017-10-20 | 2022-01-28 | 广州视睿电子科技有限公司 | 光标移动显示方法、装置、移动终端及存储介质 |
JP2021165865A (ja) * | 2018-07-03 | 2021-10-14 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
CN113227719B (zh) * | 2018-12-27 | 2024-09-24 | 株式会社堀场制作所 | 测定系统、测定装置、测定方法以及程序 |
CN111666880A (zh) * | 2020-06-06 | 2020-09-15 | 南京聚特机器人技术有限公司 | 一种针对灭火器指针式仪表的智能识别系统 |
CN112702586B (zh) * | 2020-12-21 | 2023-06-30 | 极米科技股份有限公司 | 基于可见光的投影仪虚拟触控跟踪方法、装置及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6050690A (en) * | 1998-01-08 | 2000-04-18 | Siemens Information And Communication Networks, Inc. | Apparatus and method for focusing a projected image |
US20110230238A1 (en) * | 2010-03-17 | 2011-09-22 | Sony Ericsson Mobile Communications Ab | Pointer device to navigate a projected user interface |
CN102231187A (zh) * | 2011-07-12 | 2011-11-02 | 四川大学 | 一种基于计算机视觉检测技术的qr码检测识别方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3470170B2 (ja) * | 1993-12-28 | 2003-11-25 | 株式会社日立製作所 | 遠隔指示入力方法及び装置 |
JP3277658B2 (ja) * | 1993-12-28 | 2002-04-22 | 株式会社日立製作所 | 情報表示装置 |
JP3554517B2 (ja) * | 1999-12-06 | 2004-08-18 | 株式会社ナムコ | ゲーム用の装置、位置検出用の装置及び情報記憶媒体 |
US7113169B2 (en) * | 2002-03-18 | 2006-09-26 | The United States Of America As Represented By The Secretary Of The Air Force | Apparatus and method for a multiple-user interface to interactive information displays |
US20030222849A1 (en) * | 2002-05-31 | 2003-12-04 | Starkweather Gary K. | Laser-based user input device for electronic projection displays |
JP4180403B2 (ja) * | 2003-03-03 | 2008-11-12 | 松下電器産業株式会社 | プロジェクタシステム、プロジェクタ装置、画像投射方法 |
US7477236B2 (en) * | 2005-04-29 | 2009-01-13 | Microsoft Corporation | Remote control of on-screen interactions |
US8106884B2 (en) * | 2006-03-20 | 2012-01-31 | Samsung Electronics Co., Ltd. | Pointing input device, method, and system using image pattern |
US7872637B2 (en) * | 2007-04-25 | 2011-01-18 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | System and method for tracking a laser spot on a projected computer screen image |
US20090091532A1 (en) * | 2007-10-04 | 2009-04-09 | International Business Machines Corporation | Remotely controlling computer output displayed on a screen using a single hand-held device |
JP2010015398A (ja) * | 2008-07-03 | 2010-01-21 | Sanyo Electric Co Ltd | プレゼンテーションシステム及び撮像装置 |
JP5943335B2 (ja) * | 2011-04-27 | 2016-07-05 | 長崎県公立大学法人 | プレゼンテーション装置 |
US9195677B2 (en) * | 2011-05-20 | 2015-11-24 | Stephen Ball | System and method for decorating a hotel room |
-
2013
- 2013-07-04 JP JP2013140856A patent/JP2015014882A/ja active Pending
-
2014
- 2014-06-25 US US14/314,417 patent/US20150009138A1/en not_active Abandoned
- 2014-06-27 CN CN201410302243.0A patent/CN104281276B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6050690A (en) * | 1998-01-08 | 2000-04-18 | Siemens Information And Communication Networks, Inc. | Apparatus and method for focusing a projected image |
US20110230238A1 (en) * | 2010-03-17 | 2011-09-22 | Sony Ericsson Mobile Communications Ab | Pointer device to navigate a projected user interface |
CN102231187A (zh) * | 2011-07-12 | 2011-11-02 | 四川大学 | 一种基于计算机视觉检测技术的qr码检测识别方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2015014882A (ja) | 2015-01-22 |
CN104281276A (zh) | 2015-01-14 |
US20150009138A1 (en) | 2015-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104281276B (zh) | 信息处理装置、操作输入检测方法、程序和存储介质 | |
CN103858364B (zh) | 编码光检测器 | |
CN105308549B (zh) | 信息处理装置、控制方法、程序和存储介质 | |
JP6469686B2 (ja) | モバイルコンピューティングデバイスを用いた照明制御 | |
CN103168505B (zh) | 用于控制照明系统的用户交互系统和便携式电子设备 | |
CN105122943B (zh) | 特性化光源和移动设备的方法 | |
TWI289779B (en) | Method and apparatus for light input device | |
US20150201480A1 (en) | Control method for mobile device | |
CN106797692A (zh) | 照明偏好裁决 | |
CN106774868B (zh) | 一种无线演示装置 | |
JP6547013B2 (ja) | 生体情報解析装置及びその頬紅解析方法 | |
CN108496142A (zh) | 一种手势识别方法及相关装置 | |
CN107006100B (zh) | 控制照明动态 | |
JP2010522922A (ja) | 電子機器を追跡するためのシステム及び方法 | |
JP2014535154A (ja) | 光制御方法及び該光制御方法を使用する照明装置 | |
CN107094247A (zh) | 位置检测装置及其对比度调整方法 | |
US20120293555A1 (en) | Information-processing device, method thereof and display device | |
JP2009110688A (ja) | 照明装置、照明方法、およびプログラム | |
CN107102736A (zh) | 实现增强现实的方法 | |
KR101989998B1 (ko) | 가상의 터치 스크린이 구현되는 컴퓨터 입력 시스템 | |
CN106020511A (zh) | 交互式投影机及交互式投影系统 | |
CN105262538B (zh) | 一种光信息定位系统 | |
EP2805583B1 (en) | Method for detecting and controlling coded light sources | |
JP2005063225A (ja) | 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム | |
US11716798B2 (en) | Controller for controlling light sources and a method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190129 |
|
CF01 | Termination of patent right due to non-payment of annual fee |