CN109375793A - 输入装置、显示系统及输入方法 - Google Patents

输入装置、显示系统及输入方法 Download PDF

Info

Publication number
CN109375793A
CN109375793A CN201811156363.9A CN201811156363A CN109375793A CN 109375793 A CN109375793 A CN 109375793A CN 201811156363 A CN201811156363 A CN 201811156363A CN 109375793 A CN109375793 A CN 109375793A
Authority
CN
China
Prior art keywords
input
operating parts
image
operating
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811156363.9A
Other languages
English (en)
Inventor
田村明彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012086717A external-priority patent/JP6145963B2/ja
Priority claimed from JP2013008976A external-priority patent/JP6273671B2/ja
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of CN109375793A publication Critical patent/CN109375793A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Abstract

本发明涉及输入装置、显示系统以及输入方法,能够用于普通计算机的输入,得到与鼠标等普通指示器的操作相同的操作感。投影仪(11)利用操作检测部(165)检测第1输入操作和第2输入操作,并对能够检测出输入操作的范围即操作区域中的输入操作的操作位置进行检测,当从检测出第1输入操作起在规定时间以内未检测出第2操作时,通知第1操作和操作位置。

Description

输入装置、显示系统及输入方法
本申请是申请号为201310111231.5,申请日为2013年4月1日,发明名称为“输入装置、显示系统及输入方法”的发明专利申请的分案申请。
技术领域
本发明涉及输入装置、显示系统及输入方法。
背景技术
以往,作为平板型计算机等计算机所使用的输入装置,已知有通过触控来操作显示器的显示面的构成(例如参照专利文献1)。在专利文献1的构成中,公开了一种对基于触控的触摸、滑动、保持、保持/拖动等各种操作进行检测,模拟与各操作对应的鼠标等指示器的姿势(gesture)的方法。这样通过触控直接输入规定操作的输入装置由于构成简单,所以能够进行直观的操作。为了活用这样的输入装置,例如在专利文献1的构成中,若计算机检测出触控的保持,则模拟鼠标的第2鼠标按键点击。由此,能够将基于触控的操作作为具有2个以上按键的鼠标的操作进行处理。该情况下,若进行对触控的保持进行分类的操作,则由于计算机针执行对操作以能看见的形式进行反馈的处理,所以使用触控能够以鼠标那样的感觉进行操作。
专利文献1:日本特开2002-189567号公报
在专利文献1所记载的构成中,计算机将触控的操作分类,进行针对保持操作实施反馈等的处理。然而,这样的动作需要以触控的使用为前提的计算机的构成。例如,需要适于触控使用的专用设备驱动程序、与上述那样的位置输入操作对应的操作系统的功能。因此,上述以往的方法不是能够适用于不具有特定构成的普通计算机的方法。
发明内容
本发明是鉴于上述的情况而完成的,其目的在于,提供能够用于普通计算机的输入,且得到与基于鼠标等普通指示器的操作相同的操作感的输入装置、显示系统以及输入方法。
为了解决上述课题,本发明的输入装置具备:操作检测机构,其检测输入操作;位置检测机构,其对能够通过上述操作检测机构检测出上述输入操作的操作区域中的上述输入操作的操作位置进行检测;和操作通知机构,其在通过上述操作检测机构检测出第1输入操作后未在规定时间以内检测出第2输入操作的情况下,通知第1操作以及由上述位置检测机构检测出的操作位置。
根据本发明,在检测出第1输入操作后未在规定时间内检测出第2输入操作的情况下,通知第1操作。例如,若使用至少具有2种操作状态的比较简单的输入设备,进行一方的操作后未在规定时间以内进行另一方操作,则通知一方的操作。因此,能够通过是否在规定时间以内进行第2输入操作来调整通知第1操作的定时。另外,例如作为通知第1操作的动作,若可进行通常指示器的操作信号的输出,则能够使用上述的输入设备作为指示器。因此,能够使用简单构成的输入设备,实现接近于更多功能的指示器的操作性。
在上述输入装置中,上述操作通知机构也可以在通知了上述第1操作以及通过上述位置检测机构检测出的操作位置后,通知上述第1操作的解除。
该情况下,通过用户进行第1输入操作,来通知该第1操作,并且能够通知该第1操作的解除。
另外,在上述输入装置中,上述操作通知机构也可以在通知了上述第1操作以及通过上述位置检测机构检测出的操作位置后,在通过上述操作检测机构检测出上述第2输入操作前,通知上述第1操作的解除。
该情况下,若用户进行了第1输入操作,则在进行第2输入操作前,能够执行第1操作的通知和该第1操作的解除的通知。
另外,在上述输入装置中,上述操作通知机构也可以在从通知了上述第1操作以及由上述位置检测机构检测出的操作位置起经过了规定时间后,通知上述第1操作的解除。
该情况下,在执行了第1操作的通知后间隔规定时间执行第1操作的解除的通知。因此,在接受操作的通知的设备中,能够可靠地识别第1操作的通知和第1操作的解除的通知。
另外,在上述输入装置中,上述操作通知机构在通知了上述第1操作以及通过上述位置检测机构检测出的操作位置后,在通过上述操作检测机构检测出上述第2输入操作之前的期间,执行不伴有通知的其他处理。
该情况下,能够在检测出第1操作后到进行第2输入操作的期间不进行通知地执行其他处理。因此,利用到进行第1操作的解除的通知等之前的待机时间来执行其他处理,能够高效地进行处理。另外,具有在执行其他处理中不给接受通知的设备带来影响的优点。
另外,在上述输入装置中,上述操作通知机构在通过上述操作检测机构检测出上述第2输入操作后,通知上述第1操作的解除。
该情况下,若在检测出第1输入操作后检测出第2输入操作,则通知第1操作的解除。因此,用户通过在第1输入操作后进行第2输入操作,能够在任意的定时通知第1操作的解除。
另外,在上述输入装置中,上述操作通知机构也可以在从通过上述操作检测机构检测出上述第1输入操作起在上述规定时间以内检测出上述第2输入操作的情况下,通知与上述第1操作不同的第2操作。
该情况下,若从检测出第1输入操作起在规定时间以内检测出第2输入操作,则通知第2操作。因此,用户通过调整进行第2输入操作的定时,能够通知与第1操作不同的第2操作。从而,能够使用具有简单构成的输入设备,实现与更多功能的指示器接近的操作性。
另外,在上述输入装置中,构成为当在通过上述操作检测机构检测出上述第1输入操作后,检测出上述第2输入操作时,通知上述第1操作的解除,并且,在从检测出上述第1输入操作起在上述规定时间以内检测出上述第2输入操作的情况下,通知与上述第1操作不同的第2操作。
该情况下,在进行了第1输入操作和第2输入操作的情况下,可执行2个动作中的任意一个。即,根据检测出第2输入操作的定时,可执行通知第1操作的解除的动作、和通知第2操作的动作中的任意一个。因此,用户能够通过调整进行第2输入操作的时刻,来执行2个通知中的所希望的通知。
另外,在上述输入装置中,上述操作通知机构也可以在通知了上述第2操作后通知上述第2操作的解除。
该情况下,能够与第1输入操作以及第2输入操作对应地通知第1操作,并且通知第2操作和第2操作的解除。因此,能够与两种输入操作对应地通知第1操作以及第2操作,并且通知各操作的解除。
另外,在上述输入装置中,上述操作通知机构也可以通知上述第2操作,并且通知通过上述位置检测机构检测出的操作位置。
该情况下,由于能够针对第2操作通知操作位置,所以能够与第1输入操作以及第2输入操作对应地实现更多样的操作。
另外,在上述输入装置中,构成为投影仪,该投影仪具备:对光源发出的光进行调制的光调制机构;基于图像数据,利用上述光调制机构形成显示图像的图像形成机构;和投射通过上述图像形成机构形成的显示图像的投射机构;通过上述投射机构投射的显示图像所表示的范围为上述操作区域。
该情况下,基于图像数据投射显示图像的投影仪对应于显示图像所表示的范围中的第1输入操作而通知第1操作。由此,在通过投影仪投射了显示图像的状态下,例如能够使用操作件的个数少的具有简单构成的输入设备,实现与使用了更多功能的指示器的情况相同的操作性。因此,能够实现投影仪的便利性的提高。
另外,为了解决上述课题,本发明的显示系统是投影仪检测通过指示体输入的输入操作,将与上述输入操作对应的操作通知给计算机,上述计算机执行上述操作的显示系统,上述指示体具有操作件、和将从上述操作件输入的输入操作指示给上述投影仪的发送机构,上述投影仪具有:光调制机构,其对光源发出的光进行调制;图像形成机构,其基于图像数据使显示图像形成于上述光调制机构;投射机构,其对通过上述图像形成机构形成的显示图像进行投射;操作检测机构,其对通过上述指示体通知的输入操作进行检测;位置检测机构,其在通过上述投射机构投射的显示图像所表示的操作区域中,检测通过上述操作检测机构检测出的输入操作的操作位置;和操作通知机构,其在从通过上述操作检测机构检测出第1输入操作起未在规定时间以内检测出第2输入操作的情况下,将第1操作以及通过上述位置检测机构检测出的操作位置通知给上述计算机;上述计算机具有基于来自上述操作通知机构的通知,执行上述第1操作的控制机构。
根据本发明,基于图像数据投射显示图像的投影仪根据显示图像所表示的范围的第1输入操作和规定时间以内的第2输入操作的有无,将第1操作通知给计算机。计算机能够执行与第1操作对应的控制。因此,在通过投影仪投射了显示图像的状态下,例如能够使用操作件个数少的具有简单的构成,并适于与显示图像对应的输入操作的指示体,与使用了更多功能的指示器的情况相同地操作计算机。由此,能够利用投影仪的显示图像,快速地操作计算机。另外,通过使用指示体,能够有效地利用投影仪的显示图像来操作计算机。
另外,在上述显示系统中,上述操作通知机构也可以在从通过上述操作检测机构检测出上述第1输入操作起在上述规定时间以内检测出上述第2输入操作的情况下,将与上述第1操作不同的第2操作通知给上述计算机,上述控制机构基于来自上述操作通知机构的通知,执行上述第2操作。
该情况下,若从检测出第1输入操作起在规定时间以内检测出第2输入操作,则通知第2操作。因此,用户通过调整进行第2输入操作的定时,能够通知与第1操作不同的第2操作。因此,能够使用具有简单构成的输入设备,与使用了更多功能的指示器的情况相同地操作计算机。
另外,在上述显示系统中,上述计算机也可以具备具有2个以上操作件的指示器,上述操作通知机构将上述第1操作作为基于上述指示器所具备的第1操作件进行的操作通知给上述计算机,将上述第2操作作为基于上述指示器所具备的第2操作件进行的操作通知给上述计算机。
该情况下,基于图像数据投射显示图像的投影仪对输入设备的操作进行检测,作为计算机所具备的指示器的两种操作进行通知。因此,能够在显示图像被投射的状态下,使用具有简单构成的输入设备,与计算机所具备的指示器相同地操作计算机。
另外,为了解决上述课题,本发明的输入方法的特征在于,检测第1输入操作和第2输入操作,并对能够检测出上述输入操作的范围即操作区域中的输入操作的操作位置进行检测,在从检测出上述第1输入操作起未在规定时间以内检测出上述第2输入操作的情况下,通知第1操作和上述操作位置。
根据本发明,根据是否从检测出第1输入操作起在规定时间以内检测出第2输入操作,来通知第1操作。因此,能够使用具有简单构成的输入设备,实现接近于更多功能的指示器的操作性。
根据本发明,能够使用具有简单构成的输入设备,实现接近于更多功能的指示器的操作性。
附图说明
图1是表示第1实施方式涉及的显示系统的构成的图。
图2是表示显示系统的功能构成的框图。
图3是表示PC的功能构成的框图。
图4是表示检测以及转换坐标的处理的说明图,图4(A)表示投射状态的例子,图4(B)表示变更了图像的情况的例子。
图5表示投影仪的动作的流程图。
图6是表示笔形指示器的操作和投影仪输出的操作数据之间的对应的时序图。
图7是表示第2实施方式中的投影仪的动作的流程图。
具体实施方式
[第1实施方式]
以下,参照附图对应用了本发明的实施方式进行说明。
图1是表示使用了本发明的第1实施方式涉及的投影仪11的显示系统10的构成的图。
投影仪11通过图像信号电缆等与PC(个人计算机)13有线连接。投影仪11基于从PC13输入的图像将显示图像投射在作为投射面(显示面)的屏幕SC上。这里,将投影仪11上被投射图像的范围作为实际投射区域11B(可显示区域)。屏幕SC并不局限于图1所示那样的固定在壁面上的平板,也可以将壁面本身作为屏幕SC使用。
在显示系统10中,用户能够手持作为笔形输入设备的笔形指示器2(指示体),来进行对投影仪11指示屏幕SC的实际投射区域11B中的位置的位置指示操作。在笔形指示器2的前端配置有开关21,若用户进行将笔形指示器2按压至屏幕SC的按压操作,则开关21被按压而打开。
如后所述,投影仪11具有检测笔形指示器2的前端位置的功能,将表示检测出的笔形指示器2的位置坐标的坐标数据输出给PC13。另外,投影仪11具有检测出笔形指示器2的开关21打开的功能,如后所述,执行与开关21的开/关对应的动作。通过该构成,投影仪11作为针对PC13的输入装置发挥功能。另外,投影仪11与笔形指示器2和PC13一同构成显示系统10。另外,投影仪11通过USB电缆等与PC13连接,向PC13发送由笔形指示器2指示出的位置坐标数据、基于开关21的开/关的操作数据等。在本实施方式中,将投影仪11能够检测由笔形指示器2指示的操作、笔形指示器2的位置的范围作为操作区域,并且,将该操作区域作为投影仪11进行投射的实际投射区域11B。此外,操作区域也可以包括投影仪11进行投影的实际投射区域11B以外的区域作为可检测范围。
图2是表示显示系统10的功能构成的框图。
投影仪11具备图像处理单元110、投射单元3(显示机构)、位置检测单元150、坐标转换部160、输出控制部101、控制这些各部的控制部103。图像处理单元110基于从PC13输入的图像数据来执行显示用的图像处理。投射单元3根据图像处理单元110的控制向屏幕SC投射图像。位置检测单元150检测屏幕SC上的笔形指示器2的指示位置。坐标转换部160将位置检测单元150检测出的指示位置的坐标转换为图像数据中的坐标。输出控制部101将坐标转换部160转换了的转换后的坐标输出给PC13。
控制部103由未图示的CPU、非易失性存储器、RAM等构成。控制部103读出存储于存储部105的控制程序105A并执行,来控制投影仪11的各部。控制部103作为校准执行部103A以及位置检测控制部103B(操作通知机构)发挥功能。位置检测控制部103B执行后述的校准,求出拍摄图像数据中的坐标和成为校准对象的屏幕SC上的区域中的坐标的对应关系(坐标转换参数)。位置检测控制部103B通过后述的位置检测单元150以及操作检测部165来检测由笔形指示器2指示的指示位置和开关21的开/关。存储部105由磁、光记录装置或者半导体存储元件构成,存储有包括控制程序105A的各种程序以及各种设定值等数据。
在控制部103上连接有配置在投影仪11的框体(图示略)的操作面板41。控制部103根据投影仪11的动作状态等进行操作面板41的指示灯的点亮控制,另一方面,检测操作面板41的开关的操作。另外,投影仪11具备遥控器受光部45,其接收用户使用的遥控器(图示略)对应于用户的操作而发送的红外线信号。控制部103基于操作面板41或者遥控器受光部45输出的操作信号来判别用户进行的操作内容,控制投影仪11。
投射单元3具备由照明光学系统31、光调制装置32(光调制单元)以及投射光学系统33构成的投射部30(投射机构)。照明光学系统31具备由氙灯、超高压水银灯、LED(LightEmitting Diode:发光二极管)等构成的光源。照明光学系统31还可以具备将光源发出的光导向光调制装置32的反射器、辅助反射器。另外,还可以具备用于提高投射光的光学特性的透镜组(图示略)、偏振片、或使光源发出的光的光量在到光调制装置32的路径上减少的调光元件等。
光调制装置32接受来自图像处理单元110的信号,对照明光学系统31发出的光进行调制。在本实施方式中,光调制装置32具备与RGB三原色对应的3个透射式液晶面板。在该构成中,来自照明光学系统31的光被分离成RGB3种颜色的颜色光,各种颜色光入射到对应的各液晶面板。通过各液晶面板而调制后的颜色光被交叉分色棱镜等合成光学系统合成,射出到投射光学系统33。
投射光学系统33具备进行所投射的图像的放大、缩小以及调焦的变焦透镜、调整变焦程度的变焦调整用马达、进行对焦调整的对焦调整用马达等。
另外,投射单元3具备投射光学系统驱动部121、光调制装置驱动部119以及光源驱动部117。投射光学系统驱动部121与投射部30一起根据显示控制部107的控制来驱动投射光学系统33所具备的各马达。光调制装置驱动部119基于从显示控制部107输出的图像信号来驱动光调制装置32,从而进行描绘。光源驱动部117根据控制部103的控制来驱动照明光学系统31所具备的光源。
图像处理单元110所具有的图像输入部104具备与PC13连接的接口。例如能够将各种通用接口用于图像输入部104的接口。作为具体的例子,能够列举可输入数字映像信号的DVI(Digital Visual Interface:数字视频接口)接口、USB接口以及LAN接口。另外,例如也能够使用NTSC、PAL以及SECAM等输入复合映像信号的S映像端子、输入复合映像信号的RCA端子、输入分量映像信号的D端子、依据HDMI(注册商标)标准的HDMI连接器等。另外,图像输入部104也可以构成为具有将模拟映像信号转换为数字图像数据的A/D转换电路,通过VGA端子等模拟映像端子与PC13连接。此外,图像输入部104可以通过有线通信进行图像信号的收发,也可以通过无线通信进行图像信号的收发。另外,还可以使图像输入部104构成为具备VESA(Video Electronics Standards Association“视频电子标准协会)决策的显示端口(DisplayPort)。具体而言,可以具备显示端口(Display Port)连接器或微型显示端口(Mini DisplayPort)连接器、依据DisplayPort标准的接口电路。该情况下,投影仪11能够与PC13、具有与PC13相同功能的便携式设备所具备的DisplayPort连接。
另外,图像处理单元110(图像形成机构)具备对经由图像输入部104输入的图像数据进行处理的显示控制部107。另外,图像处理单元110具备图像处理部113,其根据显示控制部107的控制将图像在帧存储器115中展开,生成投射部30所投射的图像。
显示控制部107根据控制部103的控制进行输入至图像输入部104的图像数据的格式(帧频、分辨率、压缩状态)判别等。而且,显示控制部107决定用于将显示图像显示于光调制装置32所需要的处理,控制图像处理部113来执行该处理。图像处理部113根据显示控制部107的控制将输入至图像输入部104的图像数据在帧存储器115中展开。图像处理部113针对展开的图像数据适当地执行隔行/逐行转换、分辨率转换等各种转换处理。而且,基于处理后的图像数据生成用于显示在帧存储器115中描绘出的显示图像的规定格式的图像信号,并输入至显示控制部107。
图像处理部113能够根据显示控制部107的控制执行梯形修正、与彩色模式对应的色调修正、图像的放大/缩小处理等各种图像处理。显示控制部107将通过图像处理部113处理后的图像信号输出至光调制装置驱动部119,显示于光调制装置32。另外,图像处理部113根据显示中的图像数据的分辨率、长宽比、光调制装置32的液晶显示面板的显示尺寸等信息,导出后述的图像位置信息,将求出的图像位置信息输出至坐标转换部160。
位置检测单元150(位置检测机构)具备拍摄屏幕SC的拍摄部153、以及控制拍摄部153的拍摄控制部155。另外,位置检测单元150具备位置检测部151和坐标计算部159。位置检测部151基于拍摄部153的拍摄图像来检测笔形指示器2的指示位置。坐标计算部159计算位置检测部151检测出的指示位置的坐标。
拍摄部153具有对投射部30投射的图像进行拍摄的照相机,投射部30能够在屏幕SC上投射图像的最大范围(相当于后述的可投射区域11A)包含于拍摄部153的视场角。拍摄部153根据拍摄控制部155的控制执行拍摄,并输出拍摄图像数据。
拍摄控制部155根据控制部103的控制来控制拍摄部153,使拍摄部153执行拍摄,获取拍摄部153输出的拍摄图像数据,输出至位置检测处理部157。从拍摄部153输出的拍摄图像数据可以是以RGB、YUV等形式表示的数据、或仅表示亮度成分的数据。拍摄控制部155可以将从拍摄部153输出的拍摄图像数据直接输出至位置检测处理部157,也可以在进行了分辨率调整、向规定文件格式(JPEG、BMP等)的转换等基础上,输出至位置检测处理部157。在具有对拍摄部153拍摄时的变焦倍率、对焦、光圈进行调整的机构的情况下,拍摄控制部155控制这些机构,使它们在预先设定的条件下执行拍摄。
此外,拍摄部153并不局限于能够拍摄可见光的构成,也可以是能够拍摄非可见光(红外光等)的构成。该情况下,能够采用笔形指示器2射出非可见光,拍摄部153拍摄该非可见光的构成。另外,能够采用笔形指示器2具备能够反射非可见光的反射部,投影仪11根据控制部103的控制向屏幕SC投射非可见光,拍摄部153拍摄被笔形指示器2的反射部反射后的非可见光的构成等。
位置检测处理部157对从拍摄控制部155输入的拍摄图像数据进行解析,从该拍摄图像数据提取出实际投射区域11B的外部与实际投射区域11B的边界以及笔形指示器2的图像,确定由笔形指示器2指示的指示位置。求出笔形指示器2的指示位置例如作为笔形指示器2的前端位置。位置检测处理部157确定出的指示位置是拍摄图像数据中的位置,坐标计算部159将该确定出的指示位置转换为图像处理部113描绘出的帧存储器115上的坐标。帧存储器115中描绘出的图像上的坐标和拍摄图像数据上的坐标受到各种要素的影响。该要素例如是投影仪11和屏幕SC的距离、投射光学系统33中的变焦率、投影仪11的设置角度、拍摄装置5和屏幕SC的距离等。投影仪11首先执行校准,求出图像处理部113描绘出的图像上的坐标和屏幕SC上的坐标之间的对应关系(坐标转换参数)。坐标计算部159基于在校准中求出的坐标转换参数将拍摄图像数据中的坐标转换为帧存储器115上的坐标。坐标计算部159转换后的坐标被输出至坐标转换部160。
坐标转换部160将位置检测单元150输出的坐标转换为从PC13输入的图像中的坐标。坐标转换部160获取包括图像处理部113在帧存储器115中展开的图像的分辨率、和与图像处理部113展开图像时进行的分辨率转换、变焦等处理内容相关的信息的各种信息。而且,坐标转换部160根据获取的信息,将位置检测处理部157求出的坐标转换为表示输入图像数据中的坐标的坐标数据。能够将坐标转换部160转换后的坐标数据输出至输出控制部101和图像处理部113。能够利用位置检测控制部103B的功能来控制坐标转换部160输出坐标数据的输出目的地。
在PC13中,能够将坐标转换部160输出的坐标数据作为与根据鼠标18(图3)等指示器的操作而输入的数据同样的数据进行处理。这是因为利用坐标转换部160转换为对PC13输出的图像中的坐标进行表示的数据。由此,包括投影仪11的显示系统10与通过鼠标18等直接输入至PC13的构成相同地发挥功能。
投影仪11具备检测笔形指示器2的开关21的操作状态的操作检测部165(操作检测机构)。如图2所示,笔形指示器2具备电源部23、基于该电源部23的电力发送无线信号的发送部25。若开关21打开,则发送部25作为利用了红外线、无线电波的无线信号发送表示开关21的打开状态的数据。另外,发送部25与技术方案中的发送机构相当。操作检测部165接收发送部25利用红外线、无线电波发送的无线信号,检测开关21的开/关。操作检测部165检测出的开关21的操作状态被输出至输出控制部101,且经由输出控制部101被输入至控制部103。控制部103利用位置检测控制部103B的功能,基于操作检测部165的检测状态来判定开关21的开/关,如参照图5在后面叙述那样,将操作数据输出至PC13。
输出控制部101具备与PC13连接的接口。该接口例如可列举USB接口、有线LAN接口、无线LAN接口、IEEE1394等通用接口。输出控制部101根据控制部103的控制将坐标转换部160的转换处理后的坐标数据输出至PC13。该坐标数据作为与鼠标18(图3)、跟踪球、数字化仪、手写板等指示器输出的坐标数据相同的数据被输入至PC13。另外,输出控制部101将由位置检测控制部103B生成的操作数据输出至PC13。该操作数据是具有与操作鼠标18的第1鼠标按键(所谓的右按键)181、第2鼠标按键(所谓的左按键)182时鼠标18输出至PC13的数据相同的格式的数据。
图3是表示PC13的功能构成的框图。
如图3所示,PC13具备执行控制程序,从而中枢控制PC13的各部的CPU131。另外,具备对由CPU131执行的基本控制程序、该程序所涉及的数据进行存储的ROM132,以及暂时存储CPU131执行的程序、数据的RAM133。并且,PC13具备存储部134、输入部135、显示部136以及外部I/F137,这些各部通过总线相互连接。外部I/F137与外部装置之间收发数据等。
存储部134非易失性地存储各种程序、数据。具体而言,存储部134对由CPU131执行的OS(操作系统)、设备驱动程序、显示控制程序以及执行显示控制程序时输出的图像数据等进行存储。CPU131执行操作系统来实现PC13的基本功能。而且,执行构成该操作系统的一部分的设备驱动程序,能够从后述的与输入I/F141连接的包括键盘17以及鼠标18在内的输入设备进行输入。另外,CPU131执行显示控制程序,执行通过显示器144来显示图像数据的功能。在执行该功能时,将图像输出至显示器144,且输出至投影仪11。这里,CPU131与技术方案中的控制单元相当。
输入部135检测输入操作,将表示输入内容的数据、操作信号输出至CPU131。输入部135所具有的输入I/F141具备连接器、电源供给电路,在该输入I/F141上连接有键盘17、鼠标18等输入设备。输入I/F141例如由USB接口等输入设备用的通用接口构成。输入I/F141被输入与键盘17被操作的键对应的操作信号。另外,从鼠标18输入与移动鼠标18的操作对应的相对坐标数据或者绝对坐标数据、表示鼠标18的第1鼠标按键181(第1操作件)以及第2鼠标按键182(第2操作件)的操作状态的数据。另外,在输入I/F141上连接有与投影仪11连接的通信电缆,从投影仪11输入由笔形指示器2指示的指示位置的坐标数据。从投影仪11输入根据通用指示器的操作而输入的绝对坐标数据以及与开关21的操作状态对应的操作数据。将这些数据作为与鼠标18、跟踪球、数字化仪、手写板等指示器输出的坐标数据相同的数据进行输入。PC13能够利用与各种指示器对应的通用设备驱动程序来处理从投影仪11输入的坐标数据。PC13例如能够基于该坐标数据来进行移动鼠标光标、指示光标等的动作。
显示部136输出用于显示由CPU131进行的处理结果等的显示数据。显示部136所具有的图像输出I/F143具备图像信号输出用连接器等,在该图像输出I/F143上连接有显示器144以及与投影仪11连接的图像信号电缆(图示略)。图像输出I/F143例如具备输出模拟映像信号的VGA端子、输出数字映像信号的DVI接口、USB接口、或者LAN接口等。另外,例如也可以具备NTSC、PAL以及SECAM等输出复合映像信号的S映像端子、输出复合映像信号的RCA端子、输出分量映像信号的D端子等。另外,还可以具备依据HDMI(注册商标)标准的HDMI连接器等。图像输出I/F143具备多个连接器,任意一个连接器上分别连接有显示器144以及投影仪11。另外,图像输出I/F143也可以构成为具备VESA决策的DisplayPort。具体而言,还可以构成为具备DisplayPort连接器或Mini DisplayPort连接器、依据DisplayPort标准的接口电路。该情况下,PC13能够经由DisplayPort向投影仪11、显示器144或其他设备输出数字映像信号。其中,图像输出I/F143可以通过有线通信进行图像信号的收发,也可以通过无线通信进行图像信号的收发。
CPU131在执行显示控制程序的过程中,当从输入部135输入了与指示器的操作对应的坐标数据、操作数据时,生成用于在与所输入的坐标对应的位置显示指示光标12(图1)的图像。而且,CPU131生成将指示光标12重叠于再生中的图像数据而成的图像数据,将该图像数据从图像输出I/F143输出至投影仪11。
图4是表示检测以及转换坐标的处理的说明图,(A)表示投射状态的例子,(B)表示变更了图像后的情况的例子。
在使用光调制装置32所具有的液晶显示面板整体投射了显示图像的情况下,在图4(A)中以双点划线表示的可投射区域11A形成图像。除了投影仪11位于屏幕SC的正前方的情况外,由于在可投射区域11A中像图4(A)所示那样产生梯形形变,所以投影仪11利用显示控制部107的功能进行梯形修正。在执行了梯形修正后,被投射图像的区域成为按照是长方形且成为最大尺寸的方式设定在屏幕SC上的实际投射区域11B。此外,也可以根据光调制装置32的液晶显示面板的分辨率和梯形形变的程度来决定实际投射区域11B的尺寸,而不是最大尺寸。
校准执行部103A在梯形修正后的实际投射区域11B中执行上述的校准。首先,校准执行部103A控制图像处理部113,使帧存储器115描绘规定的校准用图像,由此,校准用图像被投射至屏幕SC。接下来,在校准用图像被投射到屏幕SC的状态下,位置检测单元150根据校准执行部103A的控制来拍摄屏幕SC。校准用图像例如是在白色的背景上配置点而成的图像,可以使用预先存储于存储部105等的图像,也可以每当执行校准时由校准执行部103A生成。
校准执行部103A根据拍摄图像数据来检测实际投射区域11B的外部与实际投射区域11B的边界、以及配置于校准用图像的点,确定出拍摄图像数据中的位置。即,确定出位置检测单元150的拍摄范围(视场角)、屏幕SC的实际投射区域11B上的位置和图像处理部113在帧存储器115中描绘出的图像上的位置之间的对应关系。校准执行部103A基于通过该处理而确定出的对应关系,求出坐标计算部159所使用的坐标转换参数。坐标计算部159基于该坐标转换参数来进行坐标计算处理,将拍摄图像数据上的坐标转换为图像处理部113描绘出的图像上的坐标。而且,将坐标计算部159转换后的坐标输出至坐标转换部160,利用坐标转换部160转换为PC13输出的图像数据中的坐标。对该转换处理进行说明。
在图4(A)的例子中,实际投射区域11B的分辨率是1280×800个点,从PC13输入的图像数据的分辨率也为1280×800个点,显示1280×800个点的显示图像201。
如图4(A)所示,假设采用将实际投射区域11B的左上角设为原点,将右方向设为X轴方向,将下方向设为Y轴方向的X-Y正交坐标系,位置检测处理部157求出笔形指示器2的指示位置的坐标(X1n,Y1n)。另外,显示图像201的X方向的端位置是X1max,Y方向的端位置是Y1max。
这里,例如设想从PC13输入的图像数据被切换为分辨率1024×768个点的显示图像202的情况。该情况下,如图4(B)所示,投射1066×800个点的显示图像202。由于显示图像202与显示图像201相比分辨率低,所以被投射显示图像202的区域与实际投射区域11B相比变小。
此时,若在不使屏幕SC上的笔形指示器2移动的状态下,将屏幕SC的图像从显示图像201切换为显示图像202,则即便笔形指示器2静止,指示位置与图像的相对位置也变化。这是因为在显示图像201和显示图像202中,原点的位置和尺寸不同。因此,坐标计算部159求出的坐标(X1n,Y1n)(图4(A))和显示图像202中的指示位置的坐标(X2n,Y2n)(图4(B))不一致。例如,若在坐标(X1n,Y1n)的位置显示指示光标12,则如图4(B)所示,导致指示光标12从笔形指示器2的指示位置偏移。若从显示图像201切换至显示图像202后进行校准,则该偏移消除,但由于校准的次数增加,所以繁琐,导致在校准的执行中使用户等待。
鉴于此,坐标计算部159计算出实际投射区域11B中的指示位置的坐标,利用坐标转换部160将该坐标转换为显示中的显示图像的指示位置的坐标,从而投影仪11与显示图像的分辨率无关地输出正确的坐标。
接下来,坐标转换部160从图像处理部113获取图像位置信息。该图像位置信息至少包括实际投射区域11B中的切换后的显示图像202的显示位置的坐标、以及显示图像202的显示尺寸(显示图像202的端位置的坐标)。坐标转换部160基于获取的图像位置信息,将坐标计算部159求出的坐标转换为以显示图像202的角落为原点的坐标。通过进行该转换,即便显示图像的尺寸变化,也能够不进行校准地正确求出所显示的图像中的指示位置的坐标。
由于坐标转换部160转换所使用的图像位置信息受到显示图像的分辨率、显示位置的影响,所以有时图像位置信息也因这些条件的变更而变化。例如是执行了显示分辨率的变更、长宽比的变更、变焦、图像显示位置的变更(移动)、多画面显示处理等投射状态变化那样的处理的情况、以及PC13输出至投影仪11的图像数据的分辨率变化的情况。校准执行部103A在产生了图像位置信息变化这样的现象、处理的情况下,更新图像位置信息,坐标转换部160基于更新后的图像位置信息来转换坐标。由此,投影仪11能够输出与显示图像的最新状态相符而转换的正确的指示位置的坐标。另外,校准执行部103A根据需要进行校准,确定出实际投射区域11B中的位置与输入图像数据中的位置的对应。具体而言,在进行了梯形修正的情况下,当投影仪11的设置条件改变时、光学条件改变时等执行校准。由此,能够更加正确地输出指示位置的坐标。
投影仪11利用操作检测部165检测笔形指示器2的操作,根据开关21的开/关,PC13与鼠标18(图3)一样地输出能够由通用的设备驱动程序处理的操作数据。
鼠标18具备第1鼠标按键181和第2鼠标按键182这2个操作件。若按下第1鼠标按键181,则表示第1鼠标按键181的按压操作的操作数据被输入至PC13,若解除第1鼠标按键181的按压,则表示第1鼠标按键181的释放操作的操作数据被输入至PC13。第2鼠标按键182也一样,根据按压操作/按压操作解除将按压操作/释放操作的操作数据输入至PC13。
投影仪11根据笔形指示器2的一个开关21的开/关来输出从鼠标18输入至PC13的与第1鼠标按键181、第2鼠标按键182的操作数据相当的操作数据。以下,对该动作进行详细说明。
图5是表示投影仪11的动作的流程图。
在本实施方式中,使用了笔形指示器2的输入操作中使开关21打开的操作与本发明的“第1输入操作”对应,使开关21关闭的操作与本发明的“第2输入操作”对应。即,若用户进行将笔形指示器2按压至屏幕的操作(按压操作)而进行了使开关21打开的操作,则检测为第1输入操作。在该状态下,若用户进行使笔形指示器2从屏幕离开的操作而使开关21关闭,则检测为第2输入操作。
对应于该第1以及第2输入操作,投影仪11输出至PC13的数据与本发明的“第1操作”、“第1操作的解除”、“第2操作”、“第2操作的解除”相当。第1操作是作为鼠标的右按键的第1鼠标按键181(第1操作件)的按压操作。第1操作的解除是第1鼠标按键181(第1操作件)的释放操作。另外,第2操作是作为鼠标的左按键的第2鼠标按键182(第2操作件)的按压操作。第2操作的解除是第2鼠标按键182的释放操作。例如,投影仪11向PC13输出表示第1鼠标按键181的释放的数据的动作与通知第1操作的解除的动作相当。
此外,在以下说明的动作中使用了几个预先设定的值,这些值可以预先通过遥控器(图示略)、操作面板41的操作而被输入,或在工厂出厂时被输入,并存储于存储部105。
在投影仪11执行通常动作时,位置检测控制部103B等待笔形指示器2按压(press)屏幕SC的操作(步骤SA11)。即,在笔形指示器2的开关21未打开的期间待机(步骤SA11;否)。若由操作检测部165检测出开关21打开(步骤SA11;是),则位置检测控制部103B通过位置检测单元150来检测笔形指示器2的前端位置的坐标(步骤SA12)。
位置检测控制部103B将内置的计时器(图示略)的计数值复位(步骤SA13),开始基于计时器的计时(步骤SA14)。位置检测控制部103B对是否检测出笔形指示器2从屏幕SC离开(释放)而使开关21关闭进行判别(步骤SA15)。在检测出开关21关闭的情况下(步骤SA15;是),位置检测控制部103B进行通过坐标转换部160对在步骤SA12中检测出的位置坐标进行转换的处理(步骤SA16)。接着,位置检测控制部103B生成与鼠标18的第2鼠标按键182(左按键)的按压操作相当的操作数据,并与转换后的坐标数据一起输出至PC13(步骤SA17)。并且,位置检测控制部103B生成表示第2鼠标按键182的释放操作的操作数据,并与坐标转换部160转换后的坐标数据一起输出至PC13(步骤SA18),然后结束本处理。
通过该步骤SA11~SA18的动作,当从按压笔形指示器2起在规定时间以内放开时,将表示按压鼠标18的第2鼠标按键182后放开的操作的操作数据(即与左击相当)输出至PC13。
另一方面,在未检测出笔形指示器2的释放操作(第2输入操作)的情况下(步骤SA15;否),位置检测控制部103B通过位置检测单元150检测笔形指示器2的前端位置的坐标(步骤SA21)。位置检测控制部103B基于检测出的位置坐标和在步骤SA12中检测出的坐标,来判定笔形指示器2是否移动超过了与移动距离相关的规定阈值(步骤SA22)。换句话说,在开关21打开后的移动距离、即开始图5的处理后的移动距离超过了预先设定的阈值的情况下,判断为笔形指示器2在开关21打开的状态下移动了。
在判断为笔形指示器2移动了的情况下(步骤SA22;是),位置检测控制部103B通过坐标转换部160转换在步骤SA21中检测出的坐标(步骤SA23)。然后,将坐标数据和表示第2鼠标按键182(左按键)的按压操作的操作数据输出至PC13(步骤SA24)。在该步骤SA24中,位置检测控制部103B至少输出2次数据。首先,输出表示在步骤SA12中检测出的初始指示位置的坐标的坐标数据和表示第2鼠标按键182的按压操作的操作数据。然后,输出表示在步骤SA21中检测出的坐标的坐标数据和表示第2鼠标按键182的按压操作的操作数据。通过这些多次的数据输出,PC13能够获取笔形指示器2移动前后的坐标。另外,基于这些多次的数据,PC13能够识别在移动中第2鼠标按键182被按压的状态。因此,在进行了使笔形指示器2在开关21打开的状态下移动的输入操作的情况下,PC13检测使用了鼠标18的拖动操作。
这里,位置检测控制部103B判定是否检测出了笔形指示器2的释放操作(第2输入操作)(步骤SA25)。在未检测出笔形指示器2的释放操作的情况下(步骤SA25;否),返回到步骤SA24,反复输出坐标数据和操作数据。该情况下,投影仪11反复(连续)输出表示第2鼠标按键182的按压操作的操作数据和坐标数据。此外,在从步骤SA25返回至步骤SA24而多次执行步骤SA24的情况下,位置检测控制部103B在步骤SA24中输出移动后的坐标数据和操作数据。即,在连续进行步骤SA24的数据输出的情况下,第二次以后不进行在步骤SA12中检测出的坐标数据的输出。另外,在从步骤SA25返回至步骤SA24的过程中,位置检测控制部103B也可以通过位置检测单元150检测笔形指示器2的前端位置的坐标,在步骤SA24中输出在此检测出的坐标数据和操作数据。该情况下,即使在步骤SA22中判断为笔形指示器2的指示位置移动了之后指示位置又进行了移动,也能够追随指示位置的移动将坐标数据输出至PC13。
另一方面,在检测出笔形指示器2被释放的情况下(步骤SA25;是),位置检测控制部103B生成表示第2鼠标按键182的释放操作的操作数据,并转移至步骤SA18。在步骤SA18中,将表示第2鼠标按键182的按压操作的操作数据和转换后的坐标数据输出至PC13,结束本处理。
通过该步骤SA22~SA25以及SA18的动作,对应于按压笔形指示器2后移动的操作,将与鼠标18的拖动操作相当的操作数据输出至PC13。
并且,在判断为笔形指示器2移动未超过规定阈值的情况下(步骤SA22;否),位置检测控制部103B判别计时器的计数值是否超过了预先设定的时间阈值(步骤SA31)。这里,在计时器的计数值未超过阈值的情况下(步骤SA31;否),位置检测控制部103B返回到步骤SA15。
在计时器的计数值超过了阈值的情况下(步骤SA31;是),位置检测控制部103B通过坐标转换部160转换在步骤SA21中检测出的坐标(步骤SA32)。位置检测控制部103B生成与第1鼠标按键181(右按键)的按压操作相当的操作数据,并与转换后的坐标数据一起输出至PC13(步骤SA33)。换句话说,若笔形指示器2的开关21打开的状态持续规定时间以上,则对PC13通知第1鼠标按键181的按压操作。
然后,位置检测控制部103B等待预先设定的时间(延迟时间)(步骤SA34)。在步骤SA34中,位置检测控制部103B确保在步骤SA33中向PC13输出数据后,不向PC13输出表示操作的数据的时间。在经过了延迟时间后,位置检测控制部103B将表示第1鼠标按键181的释放操作的操作数据和在步骤SA32中转换后的坐标数据输出至PC13(步骤SA35)。在步骤SA35中,在检测出开关21的释放前(检测出第2输入操作前),输出表示第1鼠标按键181的释放的操作数据。因此,在笔形指示器2被按压、开关21打开的状态下,PC13执行与第1鼠标按键181的按压&释放(即与右击相当)对应的处理。例如,显示上下文菜单(context menu),或在采用窗口系统的操作系统中将与笔形指示器2的指示位置对应的窗口切换成动态显示,或将图标的显示状态切换成选择状态。若PC13的显示状态这样变化,则投射至屏幕SC的图像也同样变化。因此,用户能够在释放笔形指示器2的开关21(进行第2输入操作)前,根据屏幕SC上的图像的变化来知晓用户的输入操作被通知为第1鼠标按键181的点击操作。
另外,通过在步骤SA34中设置延迟时间进行等待,能够防止表示第1鼠标按键181的按压操作的操作数据和表示释放操作的操作数据在短时间内被连续输出至PC13。换句话说,因此将表示第1鼠标按键181的按压操作的操作数据和表示释放操作的操作数据间隔时间来输入至PC13。由此,具有能通过PC13执行的应用程序可靠地获取连续的操作数据,可靠地识别第1鼠标按键181的按压操作和释放操作的优点。
此外,位置检测控制部103B也可以在经过了步骤SA34的延迟时间后,检测笔形指示器2的前端位置的坐标,并转换检测出的坐标,在步骤SA35中将坐标输出至PC13。该情况下,当笔形指示器2的前端在不超过步骤SA22的判定所采用的阈值的范围内进行了移动时,能够将该小的移动通知给PC13。
接着,在开关21关闭或笔形指示器2的前端位置超出到位置检测单元150的检测范围外(操作区域外)的期间,控制部103进行不向PC13输出操作数据的处理(后处理)(步骤SA36)。然后,若进行笔形指示器2的释放操作(第2输入操作)而使开关21关闭(步骤SA37),则结束本处理。
作为后处理而执行的处理没有特别限定。例如包括如下方式:控制部103在进行上述的后处理的期间,即便通过位置检测单元150检测出笔形指示器2的移动,也忽略坐标的变化,不进行针对PC13的坐标输出。
图6是表示笔形指示器2的操作和投影仪11输出的操作数据之间的对应的一个例子的时序图。图中,(A)表示笔形指示器2的操作状态、即开关21的开/关的状态,(B)表示投影仪11输出的第2鼠标按键182的操作数据。另外,(C)表示投影仪11输出的第1鼠标按键181的操作数据,(D)表示投影仪11输出的第1鼠标按键181的操作数据的其它例子。
首先,举出在时刻T1开始笔形指示器2的操作(第1输入操作),开关21打开,在时刻T2检测出操作的解除(第2输入操作),开关21关闭的例子。若检测出开关21关闭的时机(时刻T2)在经过检测右击的计时器的阈值的时刻(时刻T4)之前,则输出表示第2鼠标按键182的按压操作的操作数据(相当于步骤SA17)。在检测出开关21关闭的时刻T2输出该操作数据。该操作数据的输出结束的时机(时刻T3)由传输速度、数据格式等决定,不受计时器的阈值等制约。在输出了第2鼠标按键182的按压操作的操作数据后,在经过规定时间后,输出表示第2鼠标按键182的释放操作(第2操作的解除)的操作数据(相当于步骤SA18)。
接下来,列举在检测出笔形指示器2的开关21打开的操作后,直至超过计时器的阈值为止都未检测出开关21的关闭的例子。当在图6(A)的时刻T5检测出开关21打开,直至经过检测右击的计时器的阈值的时刻T6为止没有检测出开关21关闭时,在时刻T6之后通知第1鼠标按键181的按压操作。
该通知如图6(C)中用(1)~(3)所表示那样,包括3个阶段的动作。即,(1)在时刻T6输出第1鼠标按键181的按压操作的操作数据(步骤SA33),(2)进行延迟时间的待机(步骤SA34),(3)输出第1鼠标按键181的释放操作的操作数据(步骤SA35)。如上所述,操作数据的输出结束的时机(时刻T7)由传输速度等决定。
只要在经过了计时器的阈值的时刻T6之后执行(1)~(3)的通知动作即可,也可以不从时刻T6开始。例如,也可以如图6(D)所示,从比时刻T6晚的时刻(例如时刻T6′)开始(1)~(3)的通知动作。
并且,控制部103在到检测出开关21关闭之前的期间,(4)执行后处理(相当于步骤SA36)。也可以在后处理结束的时刻T8之后执行上述的(1)~(3)的通知动作。
这样,投影仪11基于一个操作件即开关21的开/关状态,输出与2个操作件即第1鼠标按键181以及第2鼠标按键182的操作以及操作的解除对应的操作数据,将操作通知给PC13。
如以上说明那样,应用了本发明的实施方式涉及的投影仪11具备:操作检测部165,其对由笔形指示器2进行的输入操作进行检测;位置检测单元150,其对能够通过操作检测部165检测出输入操作的操作区域中的输入操作的操作位置进行检测;和位置检测控制部103B,其在通过操作检测部165检测出第1输入操作后在规定时间以内未检测出第2输入操作的情况下,通知第1操作以及由位置检测单元150检测出的操作位置。投影仪11根据进行第1输入操作到进行第2输入操作的时间来通知特定的操作。例如,根据检测出笔形指示器2的开关21打开的操作(第1输入操作)到进行笔形指示器2的开关21关闭的操作(第1输入操作)的时间,将表示第1鼠标按键181的按压操作和释放操作的操作数据、或表示第2鼠标按键182的按压操作和释放操作的操作数据输出至PC13。作为更加具体的例子,当检测出使开关21打开的操作后在规定时间以内未检测出使开关21关闭的操作时,将表示第1鼠标按键181的按压操作(第1操作)的操作数据输出至PC13。
这样,利用笔形指示器2进行与开关21的开/关有关的1种操作,就能够输出表示第1鼠标按键181的按压操作和释放操作的操作数据。由此,由于利用只能够进行比较简单的操作的笔形指示器2那样的输入设备,例如便能够通知与第1鼠标按键181、第2鼠标按键182的点击操作相当的特定操作以及该操作的解除,所以能够使用具有简单构成的输入设备,实现接近于更多功能的指示器的操作性。
而且,如在本实施方式中例示那样,通过输出表示鼠标18那样的通常指示器的操作的操作信号或操作数据,能够进行与指示器同样的操作,另外,能够作为像PC13这样的通常计算机的输入装置进行使用。
另外,也可以在输出了表示第1鼠标按键181的按压操作的操作数据的情况下,在检测出开关21关闭的操作前输出表示第1鼠标按键181的释放操作的操作数据。该情况下,作为通知目的地装置的PC13能够进行与第1鼠标按键181的释放对应的处理。通过在笔形指示器2的开关21实际关闭前,进行与第1鼠标按键181的释放操作对应的处理,用户能够知道第1鼠标按键181的操作被通知给PC13。
并且,由于若在规定时间以内执行笔形指示器2的释放操作,则不输出第1鼠标按键181的操作数据,而输出第2鼠标按键182的操作数据,所以能够使用笔形指示器2,实现具有多个操作件的鼠标18那样的操作性。
另外,也可以在从输出第1鼠标按键181的按压操作的操作数据起经过了规定时间后,输出第1鼠标按键181的释放操作的操作数据。
而且,由于投影仪11具备将从PC13输入的图像显示于屏幕SC的投射单元3,位置检测单元150对设定于屏幕SC的作为操作区域的实际投射区域11B中的操作位置进行检测,位置检测控制部103B将检测出的操作位置的坐标数据输出至PC13,所以利用只能够进行比较简单的操作的笔形指示器2就能够进行基于屏幕SC上显示的图像的操作。因此,能够使用笔形指示器2实现与作为通常指示器的鼠标18等的操作相同的操作性。
[第2实施方式]
图7是表示应用了本发明的第2实施方式中的投影仪11的动作的流程图。在该第2实施方式中,对参照图1~图4说明了的投影仪11的其它动作例进行说明。显示系统10的各部构成与第1实施方式相同,附加相同标记而省略图示以及说明。
图7的动作是替代图5的动作而执行的动作。与图5一样,位置检测控制部103B等待笔形指示器2的开关21打开的操作(步骤SA11),若检测出开关21打开(步骤SA11;是),则通过位置检测单元150检测指示位置的坐标(步骤SA12)。
位置检测控制部103B将内置的计时器的计数值复位(步骤SA13)。这里,位置检测控制部103B通过坐标转换部160转换在步骤SA12中检测出的位置坐标(步骤SB11),将表示第2鼠标按键182的按压操作的操作数据和转换后的坐标数据输出至PC13(步骤SB12)。
位置检测控制部103B开始基于计时器的计时(步骤SA14),判别是否通过操作检测部165检测出笔形指示器2的释放操作(步骤SA15)。在检测出笔形指示器2的释放操作的情况下(步骤SA15;是),位置检测控制部103B将表示第2鼠标按键182的释放操作的操作数据和转换后的坐标数据输出给PC13(步骤SA18),结束本处理。
另外,在未检测出笔形指示器2的释放操作的情况下(步骤SA15;否),位置检测控制部103B执行与图5的步骤SA21~SA25以及SA31~SA37相同的动作。
在该图7的动作中,若执行笔形指示器2的按压操作,则投影仪11不执行是否检测出笔形指示器2的释放操作的判别(图5的步骤SA15),在步骤SB11~SB12中将表示第2鼠标按键182的按压操作的操作数据输出至PC13。因此,PC13能够与第2鼠标按键182的按压操作对应立即开始动作。例如,若设想PC13根据指示器的操作来执行描绘图像的应用程序的情况,则这样的应用程序以第2鼠标按键182的按压操为契机开始描绘。因此,投影仪11通过响应于笔形指示器2的按压操作而将表示第2鼠标按键182的按压操作的操作数据输出至PC13,能够对应于笔形指示器2的按压操作迅速地开始描绘。这样,在与PC13中执行的应用程序的规格相符,执行了笔形指示器2的按压操作后,不进行是否检测出笔形指示器2的释放操作的判别,就能够输出表示第2鼠标按键182的按压操作的操作数据。而且,若与之后的笔形指示器2的释放操作的时机配合,适当地输出鼠标18的操作数据,则能够舒适地操作各种应用程序。
此外,上述各实施方式只不过是应用了本发明的具体方式的例子,不对本发明进行限定。例如,也能够利用与投影仪11外部连接的数码照相机来代替投影仪11的位置检测单元150所具有的拍摄部153以及拍摄控制部155的功能。该数码照相机只要根据控制部103的控制执行拍摄,将拍摄图像数据输出至位置检测处理部157即可。另外,指示屏幕SC上的位置的指示体并不局限于笔形指示器2,例如也可以构成为将用户的手指作为指示体使用,检测其指示位置。另外,例如也可以构成为在作为显示面的屏幕SC或其他显示方式的显示画面上设置感压式、静电电容式的触摸面板,利用该触摸面板检测作为指示体的笔形指示器2、用户的手指等的接触。该情况下,也可以使用不具有开关21的笔形指示器2。
并且,并不局限于投影仪11和PC13的连接方式是通过电缆等有线连接的构成,也可以通过使用了无线LAN等的无线通信进行连接。另外,光调制装置32并不局限于使用了与RGB各种颜色对应的3枚透射式或者反射型的液晶面板的构成。例如,也可以由1个液晶面板和色轮组合的方式、使用了3个数字微镜元件(DMD)的方式、1个数字微镜元件和色轮组合的DMD方式等构成。这里,在使用1个液晶面板或者DMD作为显示部的情况下,不需要与交叉分色棱镜等合成光学系统相当的部件。另外,除了液晶面板以及DMD以外,只要是能够调制光源发出的光的构成,便能够毫无问题地采用。
另外,也能够将本发明应用于投影仪以外的各种显示装置等。例如,能够应用于在液晶显示面板中显示图像/动态图像(映像)的液晶显示器或者在液晶电视、PDP(等离子显示器面板)中显示图像/动态图像的显示器装置或者电视接收机。另外,能够应用于在被称作OLED(Organic light-emitting diode:有机发光二极管)、OEL(Organic Electro-Luminescence:有机电致发光)等的有机EL显示面板中显示图像/动态图像的显示器装置或者电视接收机等自发光型的显示装置等。在这些情况下,液晶显示面板、等离子显示器面板、有机EL显示面板相当于显示机构,其显示画面相当于显示面。更加详细而言,能够显示图像的区域整体相当于上述各实施方式的实际投射区域11B或者可投射区域11A。
另外,图2、图3所示的投影仪11以及PC13的各功能部表示由硬件和软件的配合实现的功能构成,并不对具体安装方式进行特别限定。因此,未必需要安装与各功能部分别对应的硬件,当然能够通过一个处理器执行程序来实现多个功能部的功能。另外,可以利用硬件实现在上述各实施方式中利用软件实现的功能的一部分,或也可以利用软件实现利用硬件实现的功能的一部分。除此之外,在不脱离本发明主旨的范围内,也能够对包括投影仪11以及PC13的显示系统10的其他各部的具体的细微结构进行任意变更。
另外,投影仪11、PC13也可以从经由通信网络连接的其他装置下载投影仪11、PC13执行的程序并执行。另外,还可以构成为投影仪11、PC13读取记录于可移动型的记录介质的程序并执行。
另外,在上述各实施方式中,将第1输入操作设为笔形指示器2的按压操作(开关21的打开),将第2输入操作设为与笔形指示器2的释放操作(开关21的关闭)来作为不同的操作。但本发明并不局限于此,例如,也可以按照将第1输入操作以及第2输入操作均设为笔形指示器2的按压操作的方式将反复重复相同的操作作为输入操作。
符号说明:2…笔形指示器(指示体),3…投射单元(显示机构),10…显示系统,11…投影仪(输入装置,检测装置),11A…可投射区域,11B…实际投射区域,13…PC,18…鼠标(指示器),30…投射部(投射机构),31…照明光学系统(光源),32…光调制装置(光调制机构),101…输出控制部,103…控制部,103A…校准执行部,103B…位置检测控制部(操作通知机构),105A…控制程序,107…显示控制部,110…图像处理单元(图像形成机构),150…位置检测单元,151…位置检测部(位置检测机构),153…拍摄部,157…位置检测处理部,159…坐标计算部,160…坐标转换部(操作检测机构),165…操作检测部,181…第1鼠标按键(第1操作件),182…第2鼠标按键(第2操作件),SC…屏幕(投射面,显示面)。

Claims (5)

1.一种投影仪,其特征在于,具备:
光调制机构,对光源发出的光进行调制;
图像形成机构,基于图像数据,使显示图像形成于所述光调制机构;
投射机构,投射通过所述图像形成机构形成的显示图像;
操作检测机构,检测使用指示体的输入操作,所述指示体指示通过所述投射机构投射的显示图像所表示的操作区域内的位置;
位置检测机构,在所述操作区域中,对通过所述操作检测机构检测出的所述输入操作的操作位置进行检测;以及
操作通知机构,在从通过所述操作检测机构检测出使所述指示体所具备的操作件打开的操作起在规定时间以内作为所述输入操作没有检测出使所述操作件关闭的操作的情况下,通知按压指示器所具备的第1操作件的操作以及通过所述位置检测机构检测出的操作位置,并且在通知了按压所述第1操作件的操作以及所述操作位置之后,通知释放所述第1操作件的操作,并且
若通过所述操作检测机构检测出使所述操作件打开的操作作为所述输入操作,则通知按压所述指示器所具备的第2操作件的操作以及通过所述位置检测机构检测出的操作位置,并且
在从通过所述操作检测机构检测出使所述操作件打开的操作起在规定时间以内作为所述输入操作检测出使所述操作件关闭的操作的情况下,通知释放所述第2操作件的操作。
2.根据权利要求1所述的投影仪,其特征在于,
所述位置检测机构在所述操作区域中,拍摄使所述操作件打开的操作、使所述操作件关闭的操作、以及所述操作位置。
3.根据权利要求2所述的投影仪,其特征在于,
所述操作检测机构将所述位置检测机构拍摄到的所述操作位置的坐标转换为所述显示图像上的坐标。
4.一种显示系统,其特征在于,
在所述显示系统中,投影仪检测通过指示体输入的输入操作,向计算机通知与所述输入操作对应的操作,并且由所述计算机执行所述操作,
所述指示体具有:
操作件;以及
发送机构,对所述投影仪指示从所述操作件输入的输入操作,
所述投影仪具有:
光调制机构,对光源发出的光进行调制;
图像形成机构,基于图像数据,使显示图像形成于所述光调制机构;
投射机构,投射通过所述图像形成机构形成的显示图像;
操作检测机构,对通过所述指示体通知的输入操作进行检测;
位置检测机构,在通过所述投射机构投射的显示图像所表示的操作区域中,对通过所述操作检测机构检测出的输入操作的操作位置进行检测;以及
操作通知机构,在从通过所述操作检测机构检测出使所述指示体所具备的操作件打开的操作起在规定时间以内作为所述输入操作没有检测出使所述操作件关闭的操作的情况下,向所述计算机通知按压指示器所具备的第1操作件的操作以及通过所述位置检测机构检测出的操作位置,并且在通知了按压所述第1操作件的操作以及所述操作位置之后,向所述计算机通知释放所述第1操作件的操作,并且
若通过所述操作检测机构检测出使所述操作件打开的操作作为所述输入操作,则向所述计算机通知按压所述指示器所具备的第2操作件的操作以及通过所述位置检测机构检测出的操作位置,并且
在从通过所述操作检测机构检测出使所述操作件打开的操作起在规定时间以内作为所述输入操作检测出使所述操作件关闭的操作的情况下,向所述计算机通知释放所述第2操作件的操作,
所述计算机具有控制机构,所述控制机构基于来自所述操作通知机构的通知来执行处理。
5.一种投影仪的控制方法,其特征在于,
所述投影仪具备:光调制机构,对光源发出的光进行调制;图像形成机构,基于图像数据,使显示图像形成于所述光调制机构;投射机构,投射通过所述图像形成机构形成的显示图像;操作检测机构,检测使用指示体的输入操作,所述指示体指示通过所述投射机构投射的显示图像所表示的操作区域内的位置;位置检测机构,在所述操作区域中,对通过所述操作检测机构检测出的所述输入操作的操作位置进行检测,
在所述投影仪的控制方法中,
在从通过所述操作检测机构检测出使所述指示体所具备的操作件打开的操作起在规定时间以内作为所述输入操作没有检测出使所述操作件关闭的操作的情况下,通知按压指示器所具备的第1操作件的操作以及通过所述位置检测机构检测出的操作位置,并且在通知了按压所述第1操作件的操作以及所述操作位置之后,通知释放所述第1操作件的操作,
若通过所述操作检测机构检测出使所述操作件打开的操作作为所述输入操作,则通知按压所述指示器所具备的第2操作件的操作以及通过所述位置检测机构检测出的操作位置,
在从通过所述操作检测机构检测出使所述操作件打开的操作起在规定时间以内作为所述输入操作检测出使所述操作件关闭的操作的情况下,通知释放所述第2操作件的操作。
CN201811156363.9A 2012-04-05 2013-04-01 输入装置、显示系统及输入方法 Pending CN109375793A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2012-086717 2012-04-05
JP2012086717A JP6145963B2 (ja) 2012-04-05 2012-04-05 プロジェクター、表示システム、及びプロジェクターの制御方法
JP2013008976A JP6273671B2 (ja) 2013-01-22 2013-01-22 プロジェクター、表示システム、及びプロジェクターの制御方法
JP2013-008976 2013-01-22
CN201310111231.5A CN103365549B (zh) 2012-04-05 2013-04-01 输入装置、显示系统及输入方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201310111231.5A Division CN103365549B (zh) 2012-04-05 2013-04-01 输入装置、显示系统及输入方法

Publications (1)

Publication Number Publication Date
CN109375793A true CN109375793A (zh) 2019-02-22

Family

ID=49291886

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201811156363.9A Pending CN109375793A (zh) 2012-04-05 2013-04-01 输入装置、显示系统及输入方法
CN201310111231.5A Active CN103365549B (zh) 2012-04-05 2013-04-01 输入装置、显示系统及输入方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201310111231.5A Active CN103365549B (zh) 2012-04-05 2013-04-01 输入装置、显示系统及输入方法

Country Status (2)

Country Link
US (1) US9134814B2 (zh)
CN (2) CN109375793A (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5924020B2 (ja) * 2012-02-16 2016-05-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
US9134814B2 (en) * 2012-04-05 2015-09-15 Seiko Epson Corporation Input device, display system and input method
US20140337804A1 (en) * 2013-05-10 2014-11-13 Microsoft Corporation Symbol-based digital ink analysis
JP6326895B2 (ja) * 2014-01-21 2018-05-23 セイコーエプソン株式会社 位置検出装置、位置検出システム、及び、位置検出装置の制御方法
JP6398248B2 (ja) * 2014-01-21 2018-10-03 セイコーエプソン株式会社 位置検出システム、及び、位置検出システムの制御方法
JP6375660B2 (ja) * 2014-01-21 2018-08-22 セイコーエプソン株式会社 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法
JP6544073B2 (ja) * 2015-06-22 2019-07-17 セイコーエプソン株式会社 画像表示システムおよび画像表示方法
JP6816402B2 (ja) * 2016-08-12 2021-01-20 セイコーエプソン株式会社 表示装置および表示装置の制御方法
US20180059863A1 (en) * 2016-08-26 2018-03-01 Lenovo (Singapore) Pte. Ltd. Calibration of pen location to projected whiteboard
JP7188176B2 (ja) * 2019-02-25 2022-12-13 セイコーエプソン株式会社 プロジェクター、画像表示システム及び画像表示システムの制御方法
JP2020144413A (ja) * 2019-03-04 2020-09-10 セイコーエプソン株式会社 表示方法および表示装置
JP2021128661A (ja) 2020-02-17 2021-09-02 セイコーエプソン株式会社 操作検出方法、操作検出装置及び表示システム
JP2021128657A (ja) 2020-02-17 2021-09-02 セイコーエプソン株式会社 位置検出方法、位置検出装置及び位置検出システム
JP2021128659A (ja) 2020-02-17 2021-09-02 セイコーエプソン株式会社 位置検出方法、位置検出装置及び表示装置
JP2021193499A (ja) * 2020-06-08 2021-12-23 セイコーエプソン株式会社 位置検出システム、位置検出装置、プロジェクター及び位置検出方法

Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0538705A1 (en) * 1991-10-21 1993-04-28 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
JPH05274081A (ja) * 1992-03-27 1993-10-22 Toshiba Corp 手書き入力装置
US5831601A (en) * 1995-06-07 1998-11-03 Nview Corporation Stylus position sensing and digital camera with a digital micromirror device
JP2000148079A (ja) * 1998-11-11 2000-05-26 Seiko Epson Corp 表示装置、ポインタ及び情報記録媒体
JP2001084103A (ja) * 1999-09-10 2001-03-30 Fujitsu Ltd 入力処理方法及びそれを実施する入力処理装置
JP2002189567A (ja) * 2000-11-10 2002-07-05 Microsoft Corp ハイレベルアクティブペンマトリックス
US20020097230A1 (en) * 2001-01-19 2002-07-25 Transvision, Inc. Large-screen display with remote optical graphic interface
JP2003173237A (ja) * 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
JP2003263274A (ja) * 2002-03-07 2003-09-19 Ricoh Co Ltd タッチパネル付きディスプレイ装置
JP2003296026A (ja) * 2002-04-02 2003-10-17 Sanee Denki Kk タッチパネルへのマウス機能割り当て方法及び装置
US20060033702A1 (en) * 2004-08-10 2006-02-16 Beardsley Paul A Motion-based text input
JP3821194B2 (ja) * 1998-03-31 2006-09-13 セイコーエプソン株式会社 ポインティング位置検出装置及び方法、プレゼンテーションシステム、情報記憶媒体
CN1936809A (zh) * 2005-09-21 2007-03-28 阿尔卑斯电气株式会社 输入装置
CN101364151A (zh) * 2007-08-10 2009-02-11 三菱电机株式会社 位置检测装置
CN101375297A (zh) * 2006-01-13 2009-02-25 智能技术Ulc公司 交互式输入系统
EP2068230A2 (en) * 2007-11-01 2009-06-10 Northrop Grumman Space & Mission Systems Corp. Calibration of a gesture recognition interface system
US20090316952A1 (en) * 2008-06-20 2009-12-24 Bran Ferren Gesture recognition interface system with a light-diffusive screen
CN101681214A (zh) * 2007-04-18 2010-03-24 卢依狄亚公司 可转换成转录设备的具有关联表面的预装配的部分
WO2010032354A1 (ja) * 2008-09-22 2010-03-25 日本電気株式会社 画像オブジェクト制御システム、画像オブジェクト制御方法およびプログラム
US20100079413A1 (en) * 2008-09-29 2010-04-01 Denso Corporation Control device
JP2011081651A (ja) * 2009-10-08 2011-04-21 Sanyo Electric Co Ltd 投写型映像表示装置
JP2011209579A (ja) * 2010-03-30 2011-10-20 Canon Inc 画像表示システムおよびその制御方法
CN102272703A (zh) * 2008-11-05 2011-12-07 智能技术无限责任公司 具有多角度反射结构的交互输入系统
CN202093496U (zh) * 2011-04-15 2011-12-28 深圳市华测检测技术股份有限公司 一种新型投影仪装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5521986A (en) * 1994-11-30 1996-05-28 American Tel-A-Systems, Inc. Compact data input device
JP2000105671A (ja) * 1998-05-11 2000-04-11 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
US7293231B1 (en) * 1999-03-18 2007-11-06 British Columbia Ltd. Data entry for personal computing devices
JP4044255B2 (ja) * 1999-10-14 2008-02-06 富士通株式会社 情報処理装置、及び画面表示方法
JP3613177B2 (ja) * 2000-12-26 2005-01-26 インターナショナル・ビジネス・マシーンズ・コーポレーション 入力対象選択装置及び方法
JP2002259060A (ja) * 2001-02-15 2002-09-13 Internatl Business Mach Corp <Ibm> 複数の入力デバイスを備えたコンピュータシステム、入力システム、デバイス管理プログラム、デバイス設定プログラム、ダブルクリック伝達方法、および記憶媒体
US20040239763A1 (en) * 2001-06-28 2004-12-02 Amir Notea Method and apparatus for control and processing video images
US7406399B2 (en) * 2003-08-26 2008-07-29 Siemens Energy & Automation, Inc. System and method for distributed reporting of machine performance
US7023536B2 (en) * 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
IL161002A0 (en) * 2004-03-22 2004-08-31 Itay Katz Virtual video keyboard system
US20060197742A1 (en) * 2005-03-04 2006-09-07 Gray Robert H Iii Computer pointing input device
US7536595B1 (en) * 2005-10-19 2009-05-19 At&T Intellectual Property, Ii, L.P. Systems, devices, and methods for initiating recovery
JP4788318B2 (ja) * 2005-12-02 2011-10-05 ヤマハ株式会社 位置検出システム、この位置検出システムに用いるオーディオ装置及び端末装置
US7664537B2 (en) * 2005-12-12 2010-02-16 Microsoft Corporation Performance and efficiency of wireless devices
JP2007172303A (ja) * 2005-12-22 2007-07-05 Seiko Epson Corp 情報入力システム
JP4635957B2 (ja) * 2006-05-12 2011-02-23 株式会社デンソー 車載操作システム
TWI312241B (en) * 2006-05-24 2009-07-11 Elan Microelectronics Corporatio Remote control with a communication function
GB2447979B (en) * 2007-03-30 2009-09-23 Ashley Kalman Ltd Projection method
US20090019188A1 (en) * 2007-07-11 2009-01-15 Igt Processing input for computing systems based on the state of execution
US8676273B1 (en) * 2007-08-24 2014-03-18 Iwao Fujisaki Communication device
JP2009094868A (ja) * 2007-10-10 2009-04-30 Fuji Xerox Co Ltd 情報処理装置、遠隔指示システム及びプログラム
US20090295746A1 (en) * 2008-04-29 2009-12-03 Davidson Philip L Event registration and dispatch system and method for multi-point controls
US8284170B2 (en) * 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
US9753558B2 (en) * 2009-01-22 2017-09-05 Texas Instruments Incorporated Pointing system and method
US20130155031A1 (en) * 2010-06-29 2013-06-20 Elliptic Laboratories As User control of electronic devices
WO2012040827A2 (en) * 2010-10-01 2012-04-05 Smart Technologies Ulc Interactive input system having a 3d input space
JP2012212342A (ja) * 2011-03-31 2012-11-01 Hitachi Consumer Electronics Co Ltd 電子ペン及びこれを用いたプロジェクタシステム
US8773374B2 (en) * 2011-05-13 2014-07-08 Blackberry Limited Identification of touch point on touch screen device
US9134814B2 (en) * 2012-04-05 2015-09-15 Seiko Epson Corporation Input device, display system and input method

Patent Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0538705A1 (en) * 1991-10-21 1993-04-28 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
JPH05274081A (ja) * 1992-03-27 1993-10-22 Toshiba Corp 手書き入力装置
US5831601A (en) * 1995-06-07 1998-11-03 Nview Corporation Stylus position sensing and digital camera with a digital micromirror device
JP3821194B2 (ja) * 1998-03-31 2006-09-13 セイコーエプソン株式会社 ポインティング位置検出装置及び方法、プレゼンテーションシステム、情報記憶媒体
JP2000148079A (ja) * 1998-11-11 2000-05-26 Seiko Epson Corp 表示装置、ポインタ及び情報記録媒体
JP2001084103A (ja) * 1999-09-10 2001-03-30 Fujitsu Ltd 入力処理方法及びそれを実施する入力処理装置
JP2002189567A (ja) * 2000-11-10 2002-07-05 Microsoft Corp ハイレベルアクティブペンマトリックス
US20020097230A1 (en) * 2001-01-19 2002-07-25 Transvision, Inc. Large-screen display with remote optical graphic interface
JP2003173237A (ja) * 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
JP2003263274A (ja) * 2002-03-07 2003-09-19 Ricoh Co Ltd タッチパネル付きディスプレイ装置
JP2003296026A (ja) * 2002-04-02 2003-10-17 Sanee Denki Kk タッチパネルへのマウス機能割り当て方法及び装置
US20060033702A1 (en) * 2004-08-10 2006-02-16 Beardsley Paul A Motion-based text input
CN1936809A (zh) * 2005-09-21 2007-03-28 阿尔卑斯电气株式会社 输入装置
CN101375297A (zh) * 2006-01-13 2009-02-25 智能技术Ulc公司 交互式输入系统
CN101681214A (zh) * 2007-04-18 2010-03-24 卢依狄亚公司 可转换成转录设备的具有关联表面的预装配的部分
CN101364151A (zh) * 2007-08-10 2009-02-11 三菱电机株式会社 位置检测装置
EP2068230A2 (en) * 2007-11-01 2009-06-10 Northrop Grumman Space & Mission Systems Corp. Calibration of a gesture recognition interface system
US20090316952A1 (en) * 2008-06-20 2009-12-24 Bran Ferren Gesture recognition interface system with a light-diffusive screen
WO2010032354A1 (ja) * 2008-09-22 2010-03-25 日本電気株式会社 画像オブジェクト制御システム、画像オブジェクト制御方法およびプログラム
US20100079413A1 (en) * 2008-09-29 2010-04-01 Denso Corporation Control device
CN102272703A (zh) * 2008-11-05 2011-12-07 智能技术无限责任公司 具有多角度反射结构的交互输入系统
JP2011081651A (ja) * 2009-10-08 2011-04-21 Sanyo Electric Co Ltd 投写型映像表示装置
JP2011209579A (ja) * 2010-03-30 2011-10-20 Canon Inc 画像表示システムおよびその制御方法
CN202093496U (zh) * 2011-04-15 2011-12-28 深圳市华测检测技术股份有限公司 一种新型投影仪装置

Also Published As

Publication number Publication date
US9134814B2 (en) 2015-09-15
CN103365549A (zh) 2013-10-23
US20130265228A1 (en) 2013-10-10
CN103365549B (zh) 2019-03-05

Similar Documents

Publication Publication Date Title
CN103365549B (zh) 输入装置、显示系统及输入方法
US9310938B2 (en) Projector and method of controlling projector
CN103019638B (zh) 显示装置、投影仪以及显示方法
US9684385B2 (en) Display device, display system, and data supply method for display device
CN107272923B (zh) 显示装置、投影仪、显示系统以及设备的切换方法
CN103870233B (zh) 显示装置及其控制方法
US9830023B2 (en) Image display apparatus and method of controlling image display apparatus
CN103279313B (zh) 显示装置以及显示控制方法
CN103049233A (zh) 显示装置、显示装置的控制方法以及程序
JP2017182110A (ja) 表示システム、表示装置、情報処理装置及び情報処理方法
JP6051828B2 (ja) 表示装置、及び、表示装置の制御方法
JP6273671B2 (ja) プロジェクター、表示システム、及びプロジェクターの制御方法
CN104978079B (zh) 双向显示方法以及双向显示装置
JP6665415B2 (ja) プロジェクター、及び、プロジェクターの制御方法
US10909947B2 (en) Display device, display system, and method of controlling display device
JP2017111828A (ja) プロジェクター、及び、プロジェクターの制御方法
JP6145963B2 (ja) プロジェクター、表示システム、及びプロジェクターの制御方法
US20110285624A1 (en) Screen positioning system and method based on light source type
JP6111682B2 (ja) 表示装置、および、表示装置の制御方法
JP2007272927A (ja) 情報入出力装置、及び情報入出力方法
JP2014119530A (ja) 表示制御装置、プロジェクター、及び、プロジェクターの制御方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190222

WD01 Invention patent application deemed withdrawn after publication