CN107077266B - 显示装置和显示装置的控制方法 - Google Patents

显示装置和显示装置的控制方法 Download PDF

Info

Publication number
CN107077266B
CN107077266B CN201580059745.8A CN201580059745A CN107077266B CN 107077266 B CN107077266 B CN 107077266B CN 201580059745 A CN201580059745 A CN 201580059745A CN 107077266 B CN107077266 B CN 107077266B
Authority
CN
China
Prior art keywords
pointer
operator
unit
detection unit
detects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580059745.8A
Other languages
English (en)
Other versions
CN107077266A (zh
Inventor
本田康弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of CN107077266A publication Critical patent/CN107077266A/zh
Application granted granted Critical
Publication of CN107077266B publication Critical patent/CN107077266B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Abstract

提供提高了通过多个指示体进行操作的情况下的操作性的显示装置和显示装置的控制方法。显示装置具有:检测部,其检测第1指示体的针对屏幕SC的操作和第2指示体的针对屏幕SC的操作;以及无效判定部,其受理使操作无效的指示。无效判定部在检测部检测到第2指示体的操作、然后检测到第1指示体的操作后,受理了指示的情况下,使第2指示体的操作无效。

Description

显示装置和显示装置的控制方法
技术领域
本发明涉及显示装置和显示装置的控制方法。
背景技术
以往,提出了检测指示体的操作而显示与检测到的操作对应的图像的装置(例如参照专利文献1)。在专利文献1中公开了能够进行两种指示单元的操作的装置。
现有技术文献
专利文献
专利文献1:日本特开2014-102628号公报
发明内容
发明要解决的课题
并且,以往,存在在希望取消已经输入的操作的情况下使所输入的操作无效的撤销操作这样的操作。但是,在能够进行多个指示体的操作的显示装置中,在输入了撤销操作的情况下始终取消撤销操作之前刚刚输入的操作不一定符合操作者的意愿。另一方面,例如,每当进行撤销操作时指定使哪个操作无效的方法非常麻烦。
本发明是鉴于上述情况而完成的,其目的在于,提供能够提高在通过多个指示体进行操作的情况下的操作性的显示装置和显示装置的控制方法。
用于解决课题的手段
为了实现上述目的,本发明的显示装置的特征在于,所述显示装置具有:检测部,其检测第1指示体对操作面的操作和第2指示体对所述操作面的操作;以及控制部,其受理使操作无效的指示,所述控制部在所述检测部检测到所述第2指示体的操作、然后检测到所述第1指示体的操作后,受理了所述指示的情况下,使所述第2指示体的所述操作无效。
根据本发明,能够提高通过多个指示体进行操作的情况下的操作性。
并且,本发明的特征在于,在上述显示装置中,所述控制部切换地执行第1处理和第2处理,所述第1处理是如下处理:在所述检测部检测到所述第2指示体的操作、然后检测到所述第1指示体的操作后,受理了所述指示的情况下,使所述第2指示体的所述操作无效,所述第2处理是如下处理:在所述检测部检测到所述第2指示体的操作、然后检测到所述第1指示体的操作后,受理了所述指示的情况下,使所述第1指示体的所述操作无效。
根据本发明,能够选择要无效的指示体的操作。
并且,本发明的特征在于,在上述显示装置中,所述检测部与操作所述第1指示体的操作者对应地检测所述第1指示体的操作,并且,与操作所述第2指示体的操作者对应地检测所述第2指示体的操作,在所述检测部检测到所述第2指示体的第1操作、然后检测到所述第1指示体的操作后、检测出所述第2指示体的第2操作、所述第2操作是表示所述指示的操作的情况下,在判定为所述第2操作的操作者和所述第1操作的操作者相同时,所述控制部使所述第1操作无效,在判定为所述第2操作的操作者和所述第1操作的操作者不相同时,所述控制部不使所述第1操作无效。
根据本发明,如果第2操作的操作者和第1操作的操作者相同,则能够使第2指示体的第1操作无效。并且,能够防止其他操作者使第2指示体的第1操作无效。
并且,本发明的特征在于,在上述显示装置中,在从所述检测部检测到所述第1操作起经过预先设定的时间之前,所述第2操作的操作者和所述第1操作的操作者相同的情况下,所述控制部使所述第1操作无效,在经过了所述预先设定的时间后,所述检测部检测到的所述第2指示体的第3操作是表示使所述第1操作无效的指示的操作的情况下,即使所述第3操作的操作者和所述第1操作的操作者不相同,所述控制部也使所述第1操作无效。
根据本发明,能够防止在经过预先设定的时间之前,其他操作者使第1操作无效。并且,能够防止在经过了预先设定的时间后,如果不是进行了第1操作的操作者则无法使第1操作无效的情况的产生。
并且,本发明的特征在于,在上述显示装置中,所述显示装置具有存储部,该存储部存储将所述检测部检测到的所述第2指示体的操作和进行了所述操作的操作者对应起来的操作历史信息,所述控制部在经过了所述预先设定的时间时,从所述操作历史信息中删除进行了所述操作的操作者的信息。
根据本发明,能够通过简单的处理实现进行了操作的操作者以外的操作者使第2指示体的操作无效的处理。
本发明的显示装置的控制方法的特征在于,所述控制方法具有以下步骤:检测第1指示体对操作面的操作和第2指示体对所述操作面的操作;以及受理使操作无效的指示,在检测到所述第2指示体的操作、然后检测到所述第1指示体的操作后,受理了所述指示的情况下,使所述第2指示体的所述操作无效。
根据本发明,能够提高通过多个指示体进行操作的情况下的操作性。
附图说明
图1是示出投影仪的外观和使用状态的图。
图2是投影仪和第1指示体的功能框图。
图3是示出操作历史表的图。
图4是示出控制部的处理顺序的流程图。
图5是示出控制部的处理顺序的流程图。
图6是进行了指示的情况下的投影仪的动作的说明图。
具体实施方式
图1是示出投影仪100的设置状态的图。
投影仪100设置在屏幕SC(操作面)的正上方或斜上方,朝向斜下方的屏幕SC投射图像。屏幕SC是固定在壁面上或竖立设置地面上的平板或幕。本发明不限于该例子,也可以使用壁面作为屏幕SC。该情况下,在用作屏幕SC的壁面的上部安装投影仪100即可。
投影仪100与PC(个人计算机)、视频再现装置、DVD再现装置、Blu-ray(注册商标)Disc(蓝光盘)再现装置等图像供给装置连接。投影仪100根据从图像供给装置供给的模拟图像信号或数字图像数据,向屏幕SC投射图像。并且,投影仪100也可以读出内置的存储部60(图2)或外部连接的存储介质中存储的图像数据,根据该图像数据在屏幕SC中显示图像。
投影仪100检测操作者针对屏幕SC的操作。在针对屏幕SC的操作中利用笔型的第1指示体70或操作者的手指即第2指示体80。并且,针对屏幕SC的操作包含通过第1指示体70或第2指示体80指定(指示)屏幕SC上的一定位置的操作、连续指示屏幕SC上的不同位置的操作。指定(指示)屏幕SC上的一定位置的操作是使第1指示体70或第2指示体80与屏幕SC上的一定位置接触一定时间的操作。并且,连续指示屏幕SC上的不同位置的操作是使第1指示体70或第2指示体80与屏幕SC接触并移动来描绘文字或图形等的操作。并且,第2指示体80的针对屏幕SC的操作包含手势(动作)。手势包含不使第2指示体80与屏幕SC接触而在空中描绘记号或文字的操作、放大、缩小等操作。
投影仪100检测操作者通过第1指示体70或第2指示体80进行的操作,使检测到的操作反映在屏幕SC的显示图像中。进而,投影仪100也可以通过检测指示位置而作为定点设备进行动作,输出屏幕SC上的指示位置的坐标。并且,能够使用该坐标对投影仪100进行GUI(Graphical User Interface)操作。
图2是示出投影仪100的结构的结构图。
投影仪100具有I/F(接口)部11和图像I/F(接口)部12作为与外部装置连接的接口。I/F部11和图像I/F部12具有有线连接用的连接器,也可以具有与该连接器对应的接口电路。并且,I/F部11和图像I/F部12也可以具有无线通信接口。作为有线连接用的连接器和接口电路,举出以有线LAN、IEEE1394、USB等为基准的部件。并且,作为无线通信接口,举出以无线LAN、Bluetooth(注册商标)等为基准的部件。图像I/F部12还能够使用HDMI(注册商标)接口等图像数据用的接口。图像I/F部12也可以具有输入声音数据的接口。
I/F部11是在与PC等外部装置之间收发各种数据的接口。I/F部11对与图像的投射有关的数据、设定投影仪100的动作的数据等进行输入输出。后述的控制部30具有经由I/F部11与外部装置收发数据的功能。
图像I/F部12是输入数字图像数据的接口。本实施方式的投影仪100根据经由图像I/F部12输入的数字图像数据来投射图像。另外,投影仪100也可以具有根据模拟图像信号来投射图像的功能,该情况下,图像I/F部12也可以具有模拟图像用的接口和将模拟图像信号转换为数字图像数据的A/D转换电路。
投影仪100具有形成光学图像的投射部20。投射部20具有光源部21、光调制装置22和投射光学系统23。光源部21具有由氙灯、超高压水银灯、LED(Light Emitting Diode)或激光光源等构成的光源。并且,光源部21也可以具有将光源发出的光引导至光调制装置22的反射器和辅助反射器。进而,投影仪100也可以具有用于提高投射光的光学特性的透镜组(图示省略)、偏振板、或使光源发出的光的光量在到达光调制装置22的路径上降低的调光元件等。
光调制装置22例如具有与RGB的三原色对应的3枚透射型液晶面板,对透过该液晶面板的光进行调制而生成图像光。来自光源部21的光被分离成RGB的3个颜色的颜色光,各颜色光入射到对应的各液晶面板。通过十字分色棱镜等合成光学系统对穿过各液晶面板而被调制的颜色光进行合成,射出到投射光学系统23。
投射光学系统23具有向屏幕SC方向引导由光调制装置22调制后的图像光而使其在屏幕SC上成像的透镜组。并且,投射光学系统23也可以具有进行屏幕SC的显示图像的放大/缩小和焦点的调整的变焦机构、进行对焦的调整的对焦调整机构。在投影仪100为短焦点型的情况下,也可以在投射光学系统23中具有使图像光朝向屏幕SC反射的凹面镜。
投射部20与根据控制部30的控制使光源部21点亮的光源驱动部45以及根据控制部30的控制使光调制装置22进行动作的光调制装置驱动部46连接。光源驱动部45也可以具有进行光源部21的点亮、熄灭的切换而对光源部21的光量进行调整的功能。
投影仪100具有对投射部20投射的图像进行处理的图像处理系统。该图像处理系统包含对投影仪100进行控制的控制部30、存储部60、操作检测部17、图像处理部40、光源驱动部45和光调制装置驱动部46。并且,在图像处理部40上连接有帧存储器41,在控制部30上连接有位置检测部50。这些各部也可以包含在图像处理系统中。
控制部30通过执行规定的控制程序61而对投影仪100的各部进行控制。存储部60非易失性地存储控制部30执行的控制程序61、操作历史表62和控制部30处理的数据。操作历史表62在后面详细叙述。
图像处理部40根据控制部30的控制,对经由图像I/F部12输入的图像数据进行处理,向光调制装置驱动部46输出图像信号。图像处理部40执行的处理是3D(立体)图像和2D(平面)图像的判别处理、分辨率转换处理、帧率转换处理、失真校正处理、数字变焦处理、色调校正处理、亮度校正处理等。图像处理部40执行由控制部30指定的处理,根据需要,使用从控制部30输入的参数进行处理。并且,当然可以组合执行上述中的多个处理。
图像处理部40与帧存储器41连接。图像处理部40在帧存储器41中展开从图像输入I/F12输入的图像数据,对展开的图像数据执行上述各种处理。图像处理部40从帧存储器41中读出处理后的图像数据,生成与该图像数据对应的R、G、B的图像信号,将其输出到光调制装置驱动部46。
光调制装置驱动部46与光调制装置22的液晶面板连接。光调制装置驱动部46根据从图像处理部40输入的图像信号对液晶面板进行驱动,在各液晶面板上描绘图像。
操作检测部17与作为输入设备发挥功能的遥控器受光部18以及操作面板19连接,检测经由遥控器受光部18和操作面板19的操作。
遥控器受光部18接收投影仪100的操作者使用的遥控器(图示省略)与按钮操作对应地发送的红外线信号。遥控器受光部18对从上述遥控器接收到的红外线信号进行解码,生成表示上述遥控器中的操作内容的操作数据,输出到控制部30。
操作面板19设置在投影仪100的外装壳体上,具有各种开关和指示灯。操作检测部17基于控制部30的控制,根据投影仪100的动作状态和设定状态,使操作面板19的指示灯适当点亮和熄灭。对该操作面板19的开关进行操作后,与所操作的开关对应的操作数据从操作检测部17输出到控制部30。
位置检测部50检测第1指示体70和第2指示体80中的至少任意一方的指示位置。位置检测部50具有拍摄部51、发送部52、拍摄控制部53、对象检测部54和坐标计算部55的各部。
拍摄部51形成将包含屏幕SC及其周边部的范围作为拍摄范围而拍摄后的拍摄图像。拍摄部51能够分别执行基于红外光的拍摄和基于可视光的拍摄。具体而言,能够构成为具有拍摄红外光的红外用摄像元件、拍摄可视光的可视光用摄像元件、红外用摄像元件的接口电路和可视光用摄像元件的接口电路。并且,也可以构成为通过一个摄像元件进行可视光和红外光的拍摄。并且,例如,也可以在拍摄部51中设置对入射到摄像元件的光的一部分进行遮挡的滤光器,在使摄像元件接收红外光的情况下,将主要透射红外区域的光的滤光器配置在摄像元件之前。摄像元件能够使用CCD、CMOS中的任意一方,并且,还能够使用其他元件。
拍摄部51的基于红外光的拍摄时的拍摄方向和拍摄范围(视场角)朝向与投射光学系统23相同的方向或大致相同的方向,覆盖投射光学系统23在屏幕SC上投射图像的范围。同样,拍摄部51的基于可视光的拍摄时的拍摄方向和拍摄范围朝向与投射光学系统23相同的方向或大致相同的方向,覆盖投射光学系统23在屏幕SC上投射图像的范围。拍摄部51分别输出利用红外光进行拍摄而得到的拍摄图像的数据和利用可视光进行拍摄而得到的拍摄图像的数据。
拍摄控制部53根据控制部30的控制,对拍摄部51进行控制,使拍摄部51执行拍摄。拍摄控制部53取得拍摄部51的拍摄图像的数据,输出到对象检测部54。在拍摄部51利用可视光进行拍摄而得到的拍摄图像的数据中显现屏幕SC、屏幕SC中显示的显示图像和拍摄范围内存在的操作者。并且,在拍摄部51利用红外光进行拍摄而得到的拍摄图像的数据中显现第1指示体70发出的红外光的像。
发送部52根据拍摄控制部53的控制,对第1指示体70发送红外线信号。发送部52具有红外LED等光源,根据拍摄控制部53的控制使该光源点亮和熄灭。
从拍摄控制部53对对象检测部54输入拍摄图像的数据。对象检测部54从所输入的拍摄图像的数据中检测显现人物的人物区域。人物区域是拍摄图像中包含人物的像的区域。对象检测部54对人物区域的检测能够使用一般公知的方法。例如,对象检测部54检测所输入的拍摄图像的数据的边缘,检测与人的形状匹配的区域作为人物区域。并且,对象检测部54也可以检测颜色信息(亮度、色度等)在规定时间内变化的区域,检测所检测到的区域的尺寸为规定值以上的区域、所检测到的区域的经时移动范围在规定范围内的区域作为人物区域。
并且,对象检测部54从拍摄图像的数据的人物区域中检测操作者的手指的图像而检测第2指示体80。对象检测部54从人物区域中检测与预先设定的手指的形状或特征近似的区域作为第2指示体80的区域。对象检测部54检测的操作者的手指可以是一根或多根手指、手整体、或包含手指的手的一部分中的任意一种。
并且,对象检测部54从检测到的第2指示体80的区域中确定手指的前端(指尖),检测所确定的手指的前端的位置作为指示位置。对象检测部54利用拍摄图像的数据中的坐标来计算第2指示体80的指示位置的坐标。
并且,对象检测部54检测所检测到的第2指示体80与屏幕SC之间的距离。对象检测部54根据拍摄图像的数据,判定所检测到的手指的前端与屏幕SC之间的距离。例如,对象检测部54从拍摄图像的数据中检测手指的图像和手指的影子的图像,根据检测到的图像之间的距离,求出手指的前端与屏幕SC之间的距离。
并且,对象检测部54在从拍摄图像的数据中检测到多个人物区域的情况下,针对各人物区域检测第2指示体80的区域和第2指示体80的指示位置的坐标,计算检测到的第2指示体80与屏幕SC之间的距离。
对象检测部54检测第1指示体70的指示位置的坐标。对象检测部54检测拍摄部51通过红外光进行拍摄而得到的拍摄图像的数据中显现的红外光的像,检测拍摄图像的数据中的第1指示体70的指示位置的坐标。从拍摄部51的拍摄图像的数据中确定第1指示体70的方法在后面详细叙述。
并且,对象检测部54判定第1指示体70的前端部71是否与屏幕SC接触,生成表示前端部71是否与屏幕SC接触的触摸信息。第1指示体70的前端部71是否与屏幕SC接触的判定方法也在后面叙述。
并且,在使用多个第1指示体70的情况下,对象检测部54将多个第1指示体70发出的红外光的像的各个像区分为不同的第1指示体70的像。对象检测部54对多个第1指示体70发出的红外光的像进行区分的方法在后面叙述。坐标计算部55对第1指示体70各自指示的指示位置的坐标赋予识别各第1指示体70的识别信息,输出到控制部30。
坐标计算部55将指示位置的坐标转换为屏幕SC的显示图像中的指示位置的坐标。对象检测部54检测的第1指示体70和第2指示体80的指示位置的坐标是拍摄图像的数据中的坐标。坐标计算部55根据对象检测部54检测到的指示位置的坐标,基于校准的结果,计算假想地设置在屏幕SC的显示图像上的坐标轴中的指示位置的坐标。拍摄图像的数据中的坐标受到投影仪100与屏幕SC之间的距离、投射光学系统23中的变焦率、投影仪100的设置角度、拍摄部51与屏幕SC之间的距离等各种要素的影响。坐标计算部55基于事前实施的校准的结果,根据拍摄图像的数据中的指示位置的坐标,计算屏幕SC的显示图像中的指示位置的坐标。在校准中,从投射部20向屏幕SC投射规定的图案图像,拍摄部51对所显示的图案图像进行拍摄。根据拍摄部51拍摄的图案图像,导出拍摄图像的数据中的坐标与屏幕SC的显示图像上的坐标的对应关系(坐标转换参数)。
坐标计算部55将由第2指示体80指示的指示位置的坐标、指示体信息、距离信息、人物区域的范围信息、拍摄图像的数据输出到控制部30。指示体信息是表示指示位置的坐标是由第2指示体80指示的坐标的信息。距离信息是表示第2指示体80与屏幕SC之间的距离的信息。人物区域的范围信息是对象检测部54在指示位置的坐标的计算中使用的范围信息。
并且,坐标计算部55将由第1指示体70指示的指示位置的坐标、指示体信息、触摸信息、识别信息输出到控制部30。指示体信息是表示指示位置的坐标是由第1指示体70指示的坐标的信息。触摸信息是表示第1指示体70的前端部71是否与屏幕SC接触的信息。识别信息是在使用多个第1指示体70的情况下识别各第1指示体70的信息。在仅使用一个第1指示体70的情况下,坐标计算部55对指示位置的坐标、指示体信息和触摸信息附加识别信息,输出到控制部30。
第1指示体70具有控制部73、收发部74、操作开关75和电源部76,这些各部收容在轴部72(图1)中。控制部73与收发部74以及操作开关75连接,检测操作开关75的接通/断开状态。收发部74具有红外LED等光源和接收红外光的受光元件,根据控制部73的控制,使光源点亮和熄灭,并且将表示受光元件的受光状态的信号输出到控制部73。
电源部76具有干电池或二次电池作为电源,对控制部73、收发部74和操作开关75的各部供给电力。第1指示体70也可以具有对来自电源部76的电源供给进行接通/断开的电源开关。
这里,对通过位置检测部50与第1指示体70的相互通信而从拍摄部51的拍摄图像的数据中确定第1指示体70的指示位置的方法进行说明。
在检测第1指示体70的操作的情况下,控制部30对拍摄控制部53进行控制,从发送部52发送同步用的信号。即,拍摄控制部53根据控制部30的控制,使发送部52的光源以规定的周期点亮。发送部52周期性地发出的红外光作为使位置检测部50与第1指示体70同步的同步信号发挥功能。
另一方面,控制部73在从电源部76开始电源的供给而进行了规定的初始化动作后,通过收发部74接收投影仪100的发送部52发出的红外光。当通过收发部74接收发送部52周期性地发出的红外光后,控制部73使收发部74的光源与该红外光的时机同步地以预先设定的第1指示体70固有的点亮模式点亮(发光)。并且,控制部73根据操作开关75的操作状态,切换收发部74的点亮模式。因此,投影仪100的对象检测部54能够根据多个拍摄图像的数据,判定第1指示体70的操作状态、即前端部71是否按压屏幕SC。
并且,控制部73在从电源部76供给电源的期间内,反复执行上述模式。即,发送部52周期性地对第1指示体70发送同步用的红外线信号,第1指示体70与发送部52发送的红外线信号同步地发送预先设定的红外线信号。
拍摄控制部53进行使拍摄部51的拍摄时机与第1指示体70点亮的时机一致的控制。拍摄控制部53根据使发送部52点亮的时机来决定该拍摄时机。对象检测部54能够根据拍摄部51的拍摄图像的数据中是否显现第1指示体70的光的像来确定第1指示体70点亮的模式。对象检测部54根据多个拍摄图像的数据判定第1指示体70的前端部71是否按压屏幕SC,生成触摸信息。
第1指示体70的点亮模式能够包含第1指示体70的每个个体固有的模式、或者多个第1指示体70共通的模式和每个个体固有的模式。该情况下,对象检测部54在拍摄图像的数据中包含多个第1指示体70发出的红外光的像的情况下,能够将各个像区分为不同的第1指示体70的像。
控制部30通过读出并执行存储部60中存储的控制程序61,实现投射控制部31、人物检测部32、检测部33、无效判定部34、检测控制部35的功能,对投影仪100的各部进行控制。
投射控制部31根据从操作检测部17输入的操作数据,取得操作者操作遥控器而进行的操作内容。投射控制部31根据操作者进行的操作对图像处理部40、光源驱动部45和光调制装置驱动部46进行控制,向屏幕SC投射图像。
并且,投射控制部31对图像处理部40进行控制,使其执行上述3D(立体)图像与2D(平面)图像的判别处理、分辨率转换处理、帧率转换处理、失真校正处理、数字变焦处理、色调校正处理、亮度校正处理等。并且,投射控制部31与图像处理部40的处理对应地控制光源驱动部45,对光源部21的光量进行控制。
人物检测部32根据从位置检测部50输入的拍摄图像的数据和人物区域的范围信息,从拍摄图像的人物区域中检测与预先设定的面部的形状或特征相似的区域作为面部区域。人物检测部32根据检测到的面部区域计算特征量。这里,特征量是指拍摄图像中显现的人物固有的值。人物检测部32例如在预先设定的条件下计测人物的面部区域的大小、人物的面部区域在拍摄图像中占据的比例、眼睛与眉毛的间隔、双眼的间隔、眼睛的纵向的长度和横向的宽度等并进行数值化,求出特征量。并且,人物检测部32也可以在预先设定的条件下计测鼻子的纵向的长度和横向的宽度、嘴的横向的宽度、眼睛与鼻子的间隔、鼻子与嘴的间隔、有无眼镜等并进行数值化,求出特征量。
并且,人物检测部32将从拍摄图像的人物区域中去除面部区域后的区域作为人体区域,根据该人体区域计算特征量。人物检测部32从人体区域中识别操作者的身体的部位例如肩、手、脚等,例如在预先设定的条件下计测脚的长度、臂的长度、身高、体型等并进行数值化,求出特征量。并且,人物检测部32也可以从拍摄图像的数据的人物区域中检测衣服的颜色、头发的颜色作为特征量。
并且,人物检测部32根据拍摄图像的数据、拍摄图像中的人物区域的范围信息,计算表示操作者的位置的位置信息。例如,人物检测部32计算拍摄图像的水平方向上的人物区域的中心坐标,将计算出的中心坐标作为操作者的水平方向上的位置信息。
并且,在拍摄图像的数据中显现屏幕SC和拍摄范围内存在的操作者。人物检测部32从拍摄图像的数据中检测人物区域和屏幕SC,计算拍摄图像的垂直方向上的人物区域的中心坐标与屏幕之间的距离。人物检测部32将从屏幕SC到人物区域的中心坐标的距离作为操作者的垂直方向上的位置信息。
并且,在拍摄图像中显现多个人物、从位置检测部50输入了多个人物区域的范围信息的情况下,人物检测部32针对各人物区域确定操作者的位置。
图3示出操作历史表62。在操作历史表62中登记操作历史信息。在操作历史信息中包含操作者ID、位置信息、人物区域的范围、特征量、操作信息、轨迹数据、日期时间信息等。
操作者ID是识别操作者的ID。人物检测部32从拍摄图像中检测出新的操作者(位置信息和特征量)后,对检测到的操作者赋予操作者ID,与位置信息、人物区域的范围以及特征量一起登记在操作历史表62中。新的操作者是特征量与操作历史表62中已经登记的操作者不同的操作者。操作信息、轨迹数据和日期时间信息是由后述检测部33生成并由检测部33登记在操作历史表62中的信息。这些信息在后面详细叙述。
人物检测部32对从本次的拍摄图像中检测到的操作者的特征量和操作历史表62中登记的各操作者的特征量进行比较,判定检测到的操作者是否是已经检测的操作者。
在操作历史表62中登记了与从本次的拍摄图像中检测到的操作者(以下称为对象操作者)的特征量一致的特征量的情况下,人物检测部32判定为对象操作者是已经检测的操作者。该情况下,人物检测部32从操作历史表62中读出特征量一致的操作者的位置信息,对读出的位置信息和从本次的拍摄图像中检测到的位置信息进行比较。人物检测部32判定对象操作者是否从上次的拍摄图像中检测到的位置进行了移动。在位置信息存在更新的情况下,人物检测部32在操作历史表62的相应单元中登记从本次的拍摄图像中检测到的位置信息和人物区域的范围信息而进行更新。
并且,在操作历史表62中未登记与对象操作者的特征量一致的特征量的情况下,人物检测部32判定为对象操作者是新检测到的操作者。
人物检测部32对对象操作者赋予新的ID编号(称为操作者ID),将位置信息、人物区域的范围信息和特征量登记在操作历史表62中。
检测部33具有存储器(图示省略),检测第1指示体70针对操作面的操作和第2指示体80针对操作面的操作。操作包含指定(指示)屏幕SC上的一定位置的操作、连续指示屏幕SC上的不同位置的操作、手势操作等。
无效判定部34具有第1模式和第2模式作为处理模式。无效判定部34在设定为第1模式的情况下,执行第1处理。并且,无效判定部34在设定为第2模式的情况下,执行第2处理。无效判定部34切换执行第1模式和第2模式。即,不会同时执行第1处理和第2处理。在由检测部33检测到使已经输入的操作无效的指示(以下称为无效指示)后,无效判定部34根据处理模式判定要无效的操作,使判定出的操作无效。
并且,检测部33例如在检测到作为第2指示体80的操作者的手指从左向右或从右向左挥动一次或多次的手势的情况下,将检测到的手势判定为无效指示。另外,检测部33例如也可以在检测到通过第1指示体70在屏幕SC上描绘叉形符号等预先设定的记号的操作的情况下,将该操作判定为无效指示。
在由检测部33检测到无效指示后,无效判定部34参照进行了该无效指示的操作者的操作历史信息。
作为进行了无效指示的操作者的操作历史信息,无效判定部34判定是否按照第2指示体80的操作(第1操作)、第1指示体70的操作、表示无效指示的操作(第2操作)的顺序检测到操作。无效判定部34在按照所述顺序检测到操作的情况下,判定处理模式是第1模式还是第2模式,根据处理模式是第1模式还是第2模式,如下所述改变处理。首先,无效判定部34在按照所述顺序检测到操作的情况下,如果是第1模式,则作为第1处理,使第2指示体80的操作无效。接着,无效判定部34在按照所述顺序检测到操作的情况下,如果处理模式是第2模式,则作为第2处理,使第1指示体70的操作无效。
并且,即使在检测第2指示体80的操作和第1指示体70的操作的期间内检测到其他操作者的操作,无效判定部34也可以在第1处理中使第2指示体80的操作无效。并且,无效判定部34也可以在第2处理中使第1指示体70的操作无效。并且,在检测第1指示体70的操作和表示无效指示的操作的期间内检测到基于其他操作者的操作的情况下,无效判定部34也可以在第1处理中使第2指示体80的操作无效。并且,无效判定部34也可以在第2处理中使第1指示体70的操作无效。具体而言,作为操作历史信息,在按照第2指示体80的操作(第1操作)、第1指示体70的操作、表示无效指示的操作(第2操作)的顺序检测到操作的情况下,控制部30也可以在根据操作历史信息判定为第2操作的操作者和第1操作的操作者相同时,使第1操作无效,在判定为第2操作的操作者和第1操作的操作者不相同时,不使第1操作无效。
检测控制部35对位置检测部50进行控制,使其执行第1指示体70和第2指示体80的指示位置的检测。
并且,检测控制部35根据从无效判定部34输入的命令等,执行预先设定的处理。例如,检测控制部35根据从无效判定部34输入的描绘命令和指定描绘位置的坐标,进行通过图像处理部40描绘图形并将所描绘的图形重叠在图像I/F部12输入的输入图像上而进行投射的处理。并且,检测控制部35也可以将所取得的坐标输出到与I/F部11连接的PC等外部装置。该情况下,检测控制部35也可以将所取得的坐标转换为在与I/F部11连接的外部装置的操作系统中被识别为坐标输入设备的输入的数据格式并进行输出。例如,在I/F部11连接有利用Windows(注册商标)操作系统进行工作的PC的情况下,输出在操作系统中作为HID(Human Interface Device)的输入数据进行处理的数据。并且,检测控制部35也可以识别是第1指示体70的指示位置还是第2指示体80的指示位置的数据、以及表示操作开关75的操作状态的数据与坐标的数据一起输出。
图4和图5是示出检测部33和无效判定部34的处理顺序的流程图。
首先,检测部33从位置检测部50和人物检测部32输入数据集(步骤S1)。数据集包含第1数据集和第2数据集。第1数据集是在位置检测部50检测到的指示位置的坐标是第1指示体70的指示位置的坐标的情况下输入到检测部33的数据。在第1数据集中包含指示位置的坐标、指示体信息、触摸信息和识别信息。并且,第2数据集是在位置检测部50检测到的指示位置的坐标是第2指示体80的指示位置的坐标的情况下输入到检测部33的数据。在第2数据集中包含从位置检测部50输入的指示位置的坐标、指示体信息、距离信息和人物区域的范围信息、从人物检测部32输入的操作者的位置信息、人物区域的范围信息。检测部33根据从位置检测部50输入的人物区域的范围信息和从人物检测部32输入的人物区域的范围信息,将指示位置的坐标和操作者的位置信息对应起来。即,检测部33将人物区域的范围信息相同的指示位置的坐标和操作者的位置信息对应起来。
接着,检测部33使存储器存储从位置检测部50输入的数据集,生成表示第1指示体70和第2指示体80中的至少任意一方的指示位置的轨迹的轨迹数据(步骤S2)。
检测部33在所输入的数据集是第1数据集的情况下,首先,根据触摸信息判定第1指示体70是否与屏幕SC接触。检测部33在根据触摸信息判定为第1指示体70未与屏幕SC接触的情况下,不将本次输入的第1数据集作为无效数据存储在存储器中。
接着,检测部33参照第1数据集中包含的识别信息,判定和与本次输入的第1数据集的识别信息相同的识别信息对应的指示位置的坐标是否已经存储在存储器中。在与相同的识别信息对应的指示位置的坐标存储在存储器中的情况下,检测部33与该存储器中存储的指示位置的坐标对应地使存储器存储本次输入的第1数据集的指示位置的坐标。即,检测部33使存储器对应地存储由同一第1指示体70指示的指示位置的坐标。
并且,检测部33在和与本次输入的第1数据集的识别信息相同的识别信息对应的指示位置的坐标未存储在存储器中的情况下,以不与其他指示位置的坐标对应的方式存储本次输入的第1数据集的指示位置的坐标。
并且,检测部33在所输入的数据集是第2数据集的情况下,首先,参照第2数据集中包含的距离信息。检测部33根据距离信息,判定本次输入的第2数据集属于以下2个群组中的哪个群组。第1群组是由与屏幕SC接触的第2指示体80指示了指示位置的群组。第2群组是第2指示体80不与屏幕SC接触、且第2指示体80与屏幕SC之间的距离在预先设定的距离以内的群组。
检测部33判定与本次输入的第2数据集中包含的位置信息所表示的操作者的位置相同的位置、或从位置信息所表示的操作者的位置起在预先设定的距离以内的与位置信息对应的指示位置的坐标是否存储在存储器中。即,检测部33根据操作者的位置信息,判定指示了本次输入的指示位置的坐标的操作者过去指示的指示位置的坐标是否存储在存储器中。另外,作为对象的指示位置的坐标是由第2指示体80指示的指示位置的坐标。
检测部33在判定为由相同的操作者输入的指示位置的坐标存储在存储器中时,判定本次输入的第2数据集的指示位置的坐标和存储器中已经存储的指示位置的坐标是否属于相同群组。检测部33在判定为属于相同群组时,与已经存储的指示位置的坐标对应地使存储器存储本次输入的第2数据集的指示位置的坐标。并且,检测部33在判定为不属于相同群组时,存储本次输入的第2数据集的指示位置的坐标而不与存储器中已经存储的其他指示位置的坐标对应。即,即使是由相同的操作者指示的指示位置的坐标,检测部33也区分第2指示体80与屏幕SC接触的情况下的指示位置和第2指示体80未与屏幕SC接触的情况下的指示位置,使存储器进行存储。
接着,检测部33根据所生成的指示位置的轨迹数据,检测第1指示体70和第2指示体80中的至少任意一方的操作(步骤S3)。在检测部33检测的第1指示体70和第2指示体80的操作中,例如包括在指示位置描绘图形或配置文字或记号的操作、沿着指示位置的轨迹数据描绘图形的操作、删除所描绘的图形或文字或记号的操作等。检测部33使用根据第1指示体70的指示位置的坐标生成的轨迹数据,例如检测描绘图形的操作等。并且,检测部33使用根据分类为第1群组的指示位置的坐标、即与屏幕SC接触的第2指示体80的指示位置的坐标生成的轨迹数据,例如检测进行描绘或配置文字或记号的操作等。
并且,检测部33检测的第2指示体80的操作包含手势。在手势中例如包含使屏幕SC的显示图像放大或缩小的操作、使临时输入的操作无效的操作等。检测部33使用根据分类为第2群组的指示位置的坐标、即不与屏幕SC接触的第2指示体80的指示位置的坐标生成的轨迹数据,检测第2指示体80的手势。
检测部33对第2指示体80的指示位置的轨迹数据和存储部60的手势图案辞典中登记的手势的动作图案进行比较,检测手势。检测部33从第2指示体80的指示位置的轨迹数据中提取第2指示体80的动作特征(例如运动向量)。然后,检测部33对提取出的第2指示体80的动作特征和手势图案辞典中登记的手势的动作图案进行比较,检测手势。
检测部33在无法检测到第1指示体70和第2指示体80的操作的情况下(步骤S3/否),返回步骤S1的处理。并且,检测部33在检测到第1指示体70的操作的情况下(步骤S3/是),将表示检测到的操作的内容的操作信息和操作的检测中使用的轨迹数据登记在操作历史表62中(步骤S4)。并且,检测部33在检测到第2指示体80的操作的情况下(步骤S3/是),将表示检测到的操作的内容的操作信息和操作的检测中使用的轨迹数据登记在操作历史表62中(步骤S4)。此时,检测部33参照操作历史表62中登记的人物区域的范围信息,判定与操作信息以及轨迹数据对应的操作者ID。例如,检测部33根据轨迹数据所表示的坐标包含在哪个人物区域中或最接近哪个人物区域,判定与操作信息以及轨迹数据对应的操作者ID。在操作信息中还包含表示是第1指示体70的操作还是第2指示体80的操作的指示体信息。并且,检测部33将在操作历史表62中登记操作信息和轨迹数据的日期时间作为日期时间信息登记在操作历史表62中。
并且,检测部33在检测到手势作为第2指示体80的操作的情况下,将表示手势的内容的操作信息和轨迹数据登记在操作历史表62中。此时,检测部33根据轨迹数据所表示的坐标包含在哪个人物区域中或最接近哪个人物区域,判定与操作信息以及轨迹数据对应的操作者ID。并且,检测部33将登记操作信息和轨迹数据的日期时间作为日期时间信息登记在操作历史表62中。
并且,当在操作历史表62中登记操作信息、轨迹数据和日期时间信息后经过预先设定的时间时,检测部33从操作历史表62中删除和这些信息对应的与操作者有关的信息。与操作者有关的信息包含操作者ID、位置信息、人物区域和特征量的信息。
接着,检测部33根据轨迹数据判定是否检测到无效指示(步骤S5)。在检测到的操作不是无效判定的情况下(步骤S5/否),检测部33将指示执行与检测到的操作对应的处理的命令输出到检测控制部35(步骤S12)。并且,检测部33在检测到的操作是无效指示的情况下(步骤S5/是),将检测到无效指示的意思和检测到操作的操作者的操作者ID通知给无效判定部34。
无效判定部34在从检测部33输入检测到无效指示的意思的通知后,从操作历史表62取得与该通知一起输入的操作者ID所表示的操作者的操作历史信息(步骤S6)。无效判定部34取得操作者ID所表示的操作者的操作历史信息中的无效指示的前一个输入的操作历史信息和无效指示的前2个输入的操作历史信息。
接着,无效判定部34根据所取得的操作历史信息判定无效条件是否成立(步骤S7)。在按照第2指示体80的操作、第1指示体70的操作、无效指示的顺序检测到操作、且这些操作由相同的操作者进行输入的情况下,无效判定部34判定为无效条件成立。无效判定部34在步骤S7的判定是肯定判定的情况下(步骤S7/是),判定当前的处理模式是否是第1模式(步骤S8)。在肯定判定的情况下(步骤S8/是),无效判定部34选择第2指示体80的操作作为要无效的操作(步骤S9)。在第1模式中,在笔等第1指示体70的操作和操作者的手指即第2指示体80的操作中,判定为第1指示体70的操作正确的可能性较高,选择第2指示体80的操作作为要无效的操作。例如,在误检测作为第2指示体80的操作者的手指的运动、操作者输入第1指示体70的操作而未注意到输入了第2指示体80的操作的情况下,能够通过无效指示使第2指示体80的操作无效。并且,误检测操作者的手指的运动的情况例如是指,操作者无意地使手指与屏幕SC接触的情况、将在与其他操作者的会话中进行的手势误检测为针对屏幕SC的操作的情况。
图6是进行了指示的情况下的投影仪100的动作的说明图。图6(A)~图6(E)示出进行了指示的情况下的屏幕SC的显示状态。根据第1指示体70和第2指示体80的操作以及无效指示,投影仪100使屏幕SC的显示状态如图6所示的箭头那样迁移。
图6中示出屏幕SC和该屏幕SC中描绘的文字。在图6(A)中示出在屏幕SC中以3行的方式描绘了“专利12345”、“专利67890”、“专利ABCDE”的文字的状态。在图6(B)中示出从图6(A)所示的状态删除了第1行的“专利12345”的文字后的状态。设该“专利12345”的文字是由于第2指示体80的操作而误删除的。例如是投影仪100将在与其他操作者的会话中进行的手势误检测为针对屏幕SC的操作的情况。图6(C)示出操作者未注意到第2指示体80的误操作而在“专利ABCDE”的文字的下方输入“专利EFGHIJ”的文字、在屏幕SC中描绘“专利EFGHIJ”的文字的状态。在输入了“专利EFGHIJ”的文字后,操作者注意到误删除了第1行描绘的“专利12345”的文字而进行了使之前的操作无效的撤销操作的情况下,会删除“专利EFGHIJ”。在图6(D)中示出通过撤销操作而从屏幕SC的显示中删除了“专利EFGHIJ”后的状态。
在图6(E)中示出在图6(C)所示的未注意到误操作而在“专利ABCDE”的文字的下方输入了“专利EFGHIJ”的文字后、对投影仪100输入本实施方式的第1模式中的无效指示的情况下的屏幕SC的显示状态。
无效判定部34在检测到通过第2指示体80删除“专利12345”的文字的操作、然后检测到通过第1指示体70输入“专利EFGHIJ”的文字的操作后,在受理了无效指示的情况下,判定为符合无效条件。该情况下,无效判定部34选择第2指示体80的操作即删除“专利12345”的文字的操作作为要无效的对象。
并且,在步骤S8的判定是否定判定的情况下(步骤S8/否),无效判定部34判定为处理模式是第2模式,选择第1指示体70的操作作为要无效的操作(步骤S10)。无效判定部34选择要无效的操作后,输出使所选择的操作无效的命令(步骤S11)。例如,在要无效的操作是删除屏幕SC中描绘的图形的操作的情况下,无效判定部34将描绘被删除的图形的描绘命令和表示图形的描绘位置的坐标信息输出到检测控制部35。检测控制部35根据无效判定部34的指示,指示图像处理部40描绘图形。图像处理部40在帧存储器41中展开的图像数据上重叠所指示的图形。并且,在要无效的操作是在屏幕SC中描绘图形的操作的情况下,无效判定部34将删除所描绘的图形的删除命令和表示要删除的图形的位置的位置信息输出到检测控制部35。检测控制部35根据无效判定部34的指示,指示图像处理部40删除图形。图像处理部40根据检测控制部35的指示,删除帧存储器41中展开的图像数据的相应指示位置上重叠的图形。
并且,在步骤S7的判定是否定判定的情况下(步骤S7/否),无效判定部34判定检测到的操作(第3操作)是否是指定了屏幕SC中描绘的图形、文字或记号(以下称为图形等)的无效指示(步骤S13)。例如,在检测到在屏幕SC中描绘的图形上描绘叉形符号等预先设定的记号的操作的情况下,无效判定部34判定为是指定了图形等的无效指示。在判定为是指定了图形等的无效指示后(步骤S13/是),无效判定部34参照操作历史表62的轨迹数据。无效判定部34参照操作历史表62的轨迹数据,检测在轨迹数据中包含由删除指示指定的图形等的描绘位置的操作历史信息作为对应的操作历史信息(步骤S15)。即,对应的操作历史信息是描绘了通过无效指示而无效的图形等的操作的信息。接着,无效判定部34参照操作历史表62,判定操作历史信息中是否对应有与操作者有关的信息(步骤S16)。在未对应与操作者有关的信息的情况下(步骤S16/否),无效判定部34将使所指定的图形等无效的命令和表示要无效的图形的位置的位置信息输出到检测控制部35(步骤S17)。未对应与操作者有关的信息的情况例如包含如下情况等:在操作历史表62中登记操作信息、轨迹数据和日期时间信息后经过了预先设定的时间,从操作历史表62中删除了和这些信息对应的与操作者有关的信息。检测控制部35根据无效判定部34的指示,对图像处理部40发出使图形等无效的指示。图像处理部40根据检测控制部35的指示,删除帧存储器41中展开的图像数据的相应指示位置上重叠的图形等。
并且,在对应有与操作者有关的信息的情况下(步骤S16/是),无效判定部34判定步骤S15中检测到操作历史信息的操作的操作者和步骤S13的无效指示的操作者是否是相同的操作者(步骤S18)。在不是相同的操作者的情况下(步骤S18/否),无效判定部34不输入无效指示(步骤S19)。即,维持在屏幕SC中显示由无效指示指定的图形等的状态。并且,在操作者相同的情况下(步骤S18/是),无效判定部34将使图形等无效的命令和表示要删除的图形的位置的位置信息输出到检测控制部35(步骤S17)。并且,无效判定部34在步骤S13的指示不是指定了图形等的无效指示的情况下(步骤S13/否),将指示执行与操作对应的处理的命令输出到检测控制部35(步骤S14)。
另外,在上述步骤S2中,检测部33在根据触摸信息判定为第1指示体70与屏幕SC接触的情况下,也可以检测所输入的第1数据集中包含的指示位置的坐标作为操作。该情况下,检测部33也可以对指示位置的坐标赋予描绘命令并将其输出到检测控制部35。检测控制部35根据指示位置的坐标,使图像处理部40在帧存储器41中展开的图像数据的相应指示位置描绘文字和图形。并且,第2指示体80的指示位置的坐标中的属于第1群组的指示位置的坐标也同样。
如以上说明的那样,本实施方式的投影仪100具有检测部33和无效判定部34。检测部33检测第1指示体70对屏幕SC的操作和第2指示体80对屏幕SC的操作。无效判定部34受理使操作无效的指示。无效判定部34在检测部33检测到第2指示体80的操作、然后检测到第1指示体70的操作后,在受理了指示的情况下,使第2指示体80的操作无效。因此,能够提高通过多个指示体(第1指示体70和第2指示体80)进行操作的情况下的操作性。
并且,无效判定部34切换执行第1处理和第2处理。第1处理是如下处理:在检测部33检测到第2指示体80的操作、然后检测到第1指示体70的操作后,在受理了指示的情况下,使第2指示体80的操作无效。并且,第2处理是如下处理:在检测部33检测到第2指示体80的操作、然后检测到第1指示体70的操作后,在受理了指示的情况下,使第1指示体70的操作无效。因此,能够选择要无效的指示体(第1指示体70和第2指示体80)的操作。
并且,检测部33与操作第1指示体70的操作者对应地检测第1指示体70的操作,并且,与操作第2指示体80的操作者对应地检测第2指示体80的操作。在检测部33检测到第2指示体80的第1操作、然后检测到第1指示体70的操作后,检测第2指示体80的第2操作,在第2操作是表示指示的操作的情况下,在判定为第2操作的操作者和第1操作的操作者相同时,无效判定部34使第1操作无效。并且,在判定为第2操作的操作者和第1操作的操作者不相同时,无效判定部34不使第1操作无效。因此,如果第2操作的操作者和第1操作的操作者相同,则能够使第2指示体80的第1操作无效。并且,能够防止其他操作者使第2指示体80的第1操作无效。
并且,在从检测部33检测到第1操作起经过预先设定的时间之前,在第2操作的操作者和第1操作的操作者相同的情况下,无效判定部34使第1操作无效。在经过了预先设定的时间后,在检测部33检测到的第2指示体80的第3操作是表示使第1操作无效的指示的操作的情况下,即使第3操作的操作者和第1操作的操作者不相同,无效判定部34也使第1操作无效。因此,能够防止在经过预先设定的时间之前,其他操作者使第1操作无效。并且,能够防止在经过了预先设定的时间后,如果不是进行了第1操作的操作者则无法使第1操作无效的情况的产生。
具有存储部60,该存储部60存储将检测部33检测到的第2指示体80的操作和进行了操作的操作者对应起来的操作历史信息,控制部140在经过预先设定的时间后,从操作历史信息中删除进行了所述操作的操作者的信息。因此,能够通过简单的处理实现进行了操作的操作者以外的操作者使第2指示体80的操作无效的处理。
另外,上述实施方式和变形例只不过是应用了本发明的具体方式的例子,并不限定本发明,能够作为不同方式来应用本发明。例如,第1指示体70不限于笔型的指示体,第2指示体80不限于操作者的手指。例如,作为第1指示体70,也可以使用激光指示器或指示棒等,其形状和尺寸没有限定。
并且,在图3中示出登记了操作历史信息的操作历史表62,但是,操作历史信息只要是将位置信息、特征量、操作信息、轨迹数据、日期时间信息与操作者ID对应起来的形式即可。
并且,在上述实施方式中,位置检测部50通过拍摄部51对屏幕SC进行拍摄并确定第1指示体70和第2指示体80的位置,但是,本发明不限于此。例如,拍摄部51不限于设置在投影仪100的主体上并对投射光学系统23的投射方向进行拍摄。也可以采用使拍摄部51与投影仪100主体分开的结构,拍摄部51从屏幕SC的侧方或正面进行拍摄。
并且,在上述实施方式中,说明了用户对从前投影型投影仪100投射(显示)图像的屏幕SC进行第1指示体70和第2指示体80的操作的方式。除此以外,也可以是对投影仪100以外的显示装置显示的显示画面进行指示操作的方式。作为投影仪100以外的显示装置,能够使用背投(背面投射)型投影仪、液晶显示器、有机EL(Electro Luminescence)显示器。并且,作为显示装置,能够使用等离子体显示器、CRT(阴极线管)显示器、SED(Surface-conduction Electron-emitter Display)等。
并且,在上述实施方式中,说明了使用发送部52发出的红外线信号从投影仪100对第1指示体70发送同步用的信号的结构,但是,同步用的信号不限于红外线信号。例如,也可以构成为通过电波通信或超声波无线通信来发送同步用的信号。在投影仪100中设置通过电波通信或超声波无线通信来发送信号的发送部52,在第1指示体70中设置相同的接收部,由此,能够实现该结构。
并且,在上述实施方式中,说明了根据收发部74的点亮模式来判定第1指示体70的前端部71是否按压屏幕SC的例子,但是,本发明不限于此。例如,也可以与第2指示体80同样,通过从拍摄图像的数据中检测第1指示体70的图像和第1指示体70的影子的图像,判定第1指示体70的前端部71是否按压屏幕SC。
并且,在上述实施方式中,作为对光源发出的光进行调制的光调制装置22,举例说明了使用与RGB的各颜色对应的3枚透射型液晶面板的结构,但是,本发明不限于此。例如,也可以是使用3枚反射型液晶面板的结构,还可以使用组合了1枚液晶面板和色轮的方式。并且,还可以通过使用了3枚数字镜器件(DMD)的方式、组合了1枚数字镜器件和色轮的DMD方式等来构成。在仅使用1枚液晶面板或DMD作为光调制装置的情况下,不需要十字分色棱镜等相当于合成光学系统的部件。并且,除了液晶面板和DMD以外,只要是能够对光源发出的光进行调制的光调制装置,则能够采用而没有问题。
并且,图2所示的投影仪100的各功能部示出功能结构,具体的安装方式没有特别限制。即,不是必须安装与各功能部单独对应的硬件,当然也可以是通过由一个处理器执行程序来实现多个功能部的功能的结构。并且,上述实施方式中通过软件实现的功能的一部分也可以通过硬件来实现,或者,通过硬件实现的功能的一部分也可以通过软件来实现。而且,关于投影仪100的其他各部的具体的细微结构,能够在不脱离本发明主旨的范围内任意变更。
标号说明
20:投射部;21:光源部;22:光调制装置;23:投射光学系统;30:控制部;31:投射控制部;32:人物检测部;33:检测部;34:无效判定部(控制部);35:检测控制部;40:图像处理部;50:位置检测部;51:拍摄部;52:发送部;53:拍摄控制部;54:对象检测部;55:坐标计算部;60:存储部;70:第1指示体;80:第2指示体;100:投影仪(显示装置);SC:屏幕(操作面)。

Claims (5)

1.一种显示装置,其特征在于,所述显示装置具有:
检测部,其检测第1指示体对操作面的操作和第2指示体对所述操作面的操作;以及
控制部,其受理使操作无效的指示,
所述控制部在所述检测部检测到所述第2指示体的操作、然后检测到所述第1指示体的操作后,受理了所述指示的情况下,使所述第2指示体的所述操作无效,
所述检测部与操作所述第1指示体的操作者对应地检测所述第1指示体的操作,并且,与操作所述第2指示体的操作者对应地检测所述第2指示体的操作,
在所述检测部检测到所述第2指示体的第1操作、然后检测到所述第1指示体的操作后、检测出所述第2指示体的第2操作、所述第2操作是表示所述指示的操作的情况下,
在判定为所述第2操作的操作者和所述第1操作的操作者相同时,所述控制部使所述第1操作无效,
在判定为所述第2操作的操作者和所述第1操作的操作者不相同时,所述控制部不使所述第1操作无效。
2.根据权利要求1所述的显示装置,其特征在于,
所述控制部切换地执行第1处理和第2处理,
所述第1处理是如下处理:在所述检测部检测到所述第2指示体的操作、然后检测到所述第1指示体的操作后,受理了所述指示的情况下,使所述第2指示体的所述操作无效,
所述第2处理是如下处理:在所述检测部检测到所述第2指示体的操作、然后检测到所述第1指示体的操作后,受理了所述指示的情况下,使所述第1指示体的所述操作无效。
3.根据权利要求1所述的显示装置,其特征在于,
在从所述检测部检测到所述第1操作起经过预先设定的时间之前,所述第2操作的操作者和所述第1操作的操作者相同的情况下,所述控制部使所述第1操作无效,
在经过了所述预先设定的时间后,所述检测部检测到的所述第2指示体的第3操作是表示使所述第1操作无效的指示的操作的情况下,即使所述第3操作的操作者和所述第1操作的操作者不相同,所述控制部也使所述第1操作无效。
4.根据权利要求3所述的显示装置,其特征在于,
所述显示装置具有存储部,该存储部存储将所述检测部检测到的所述第2指示体的操作和进行了所述操作的操作者对应起来的操作历史信息,
所述控制部在经过了所述预先设定的时间时,从所述操作历史信息中删除进行了所述操作的操作者的信息。
5.一种显示装置的控制方法,其特征在于,所述控制方法具有以下步骤:
检测第1指示体对操作面的操作和第2指示体对所述操作面的操作;以及
受理使操作无效的指示,
在检测到所述第2指示体的操作、然后检测到所述第1指示体的操作后,受理了所述指示的情况下,使所述第2指示体的所述操作无效,
其中,与操作所述第1指示体的操作者对应地检测所述第1指示体的操作,并且,与操作所述第2指示体的操作者对应地检测所述第2指示体的操作,
在检测到所述第2指示体的第1操作、然后检测到所述第1指示体的操作后、检测出所述第2指示体的第2操作、所述第2操作是表示所述指示的操作的情况下,
在判定为所述第2操作的操作者和所述第1操作的操作者相同时,使所述第1操作无效,
在判定为所述第2操作的操作者和所述第1操作的操作者不相同时,不使所述第1操作无效。
CN201580059745.8A 2014-11-13 2015-11-05 显示装置和显示装置的控制方法 Active CN107077266B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014-231010 2014-11-13
JP2014231010A JP6409517B2 (ja) 2014-11-13 2014-11-13 表示装置、及び、表示装置の制御方法
PCT/JP2015/005540 WO2016075905A1 (ja) 2014-11-13 2015-11-05 表示装置、及び、表示装置の制御方法

Publications (2)

Publication Number Publication Date
CN107077266A CN107077266A (zh) 2017-08-18
CN107077266B true CN107077266B (zh) 2020-08-28

Family

ID=55954009

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580059745.8A Active CN107077266B (zh) 2014-11-13 2015-11-05 显示装置和显示装置的控制方法

Country Status (6)

Country Link
US (1) US10353479B2 (zh)
EP (1) EP3220248A4 (zh)
JP (1) JP6409517B2 (zh)
CN (1) CN107077266B (zh)
TW (1) TW201617812A (zh)
WO (1) WO2016075905A1 (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5024397B2 (ja) * 2010-01-29 2012-09-12 ブラザー工業株式会社 入力装置及び入力制御プログラム
CN102707861A (zh) * 2011-03-28 2012-10-03 联想(北京)有限公司 电子设备及其显示方法
CN103477311A (zh) * 2010-11-22 2013-12-25 爱普生挪威研究和发展公司 基于相机的多点触摸交互设备、系统和方法
CN103809867A (zh) * 2012-11-13 2014-05-21 联想(北京)有限公司 一种控制方法、装置及电子设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3758866B2 (ja) 1998-12-01 2006-03-22 富士ゼロックス株式会社 座標入力装置
EP2212764B1 (en) 2007-10-11 2017-06-14 Microsoft Technology Licensing, LLC Method for palm touch identification in multi-touch digitizing systems
JP4851547B2 (ja) 2009-01-27 2012-01-11 株式会社エヌ・ティ・ティ・ドコモ モード設定システム
JP5368585B2 (ja) * 2010-01-15 2013-12-18 パイオニア株式会社 情報処理装置、その方法、および、表示装置
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
US8902192B2 (en) 2011-06-22 2014-12-02 Sharp Kabushiki Kaisha Touch panel system and electronic device
JP5350437B2 (ja) 2011-06-27 2013-11-27 シャープ株式会社 タッチセンサシステム
CN104303131B (zh) * 2012-05-22 2017-03-29 索尼公司 图像处理设备、图像处理方法
JP6003566B2 (ja) * 2012-11-19 2016-10-05 コニカミノルタ株式会社 オブジェクト操作装置及びオブジェクト操作制御プログラム
KR102202899B1 (ko) * 2013-09-02 2021-01-14 삼성전자 주식회사 복수의 어플리케이션 제공 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5024397B2 (ja) * 2010-01-29 2012-09-12 ブラザー工業株式会社 入力装置及び入力制御プログラム
CN103477311A (zh) * 2010-11-22 2013-12-25 爱普生挪威研究和发展公司 基于相机的多点触摸交互设备、系统和方法
CN102707861A (zh) * 2011-03-28 2012-10-03 联想(北京)有限公司 电子设备及其显示方法
CN103809867A (zh) * 2012-11-13 2014-05-21 联想(北京)有限公司 一种控制方法、装置及电子设备

Also Published As

Publication number Publication date
US10353479B2 (en) 2019-07-16
JP6409517B2 (ja) 2018-10-24
EP3220248A1 (en) 2017-09-20
JP2016095646A (ja) 2016-05-26
TW201617812A (zh) 2016-05-16
CN107077266A (zh) 2017-08-18
WO2016075905A1 (ja) 2016-05-19
EP3220248A4 (en) 2018-07-04
US20170315619A1 (en) 2017-11-02

Similar Documents

Publication Publication Date Title
US9645678B2 (en) Display device, and method of controlling display device
CN107077258B (zh) 投射型影像显示装置以及影像显示方法
US9992466B2 (en) Projector with calibration using a plurality of images
CN105468210B (zh) 位置检测装置、投影仪以及位置检测方法
US9753580B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
JP2013140533A (ja) 表示装置、プロジェクター、表示システム及びデバイスの切替方法
CN105468139B (zh) 位置检测装置、投影仪以及位置检测方法
JP2015166893A (ja) 位置検出装置、及び、位置検出装置の制御方法
JP6665415B2 (ja) プロジェクター、及び、プロジェクターの制御方法
US20150279336A1 (en) Bidirectional display method and bidirectional display device
JP6439398B2 (ja) プロジェクター、及び、プロジェクターの制御方法
JP2019061513A (ja) 位置検出装置、位置検出システム及び位置検出装置の制御方法
CN107077266B (zh) 显示装置和显示装置的控制方法
JP6098153B2 (ja) 表示装置、及び、表示装置の制御方法
US10078378B2 (en) Position detection device, display device, method of controlling position detection device, and method controlling display device for discriminating a pointing element
JP2016151924A (ja) プロジェクター及びプロジェクターの制御方法
JP2015219547A (ja) 機器制御システム、機器制御プログラムおよび機器制御装置
JP2015184972A (ja) 動き検出装置、画像表示装置、及び、動き検出方法
JP2013218430A (ja) 入力装置、プロジェクター、表示システム、及び入力方法
JP2015219546A (ja) 機器制御システム、機器制御プログラムおよび機器制御装置
JP2015219548A (ja) 機器制御システム、機器制御プログラムおよび機器制御装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant