CN105723303A - 投影型影像显示装置、操作检测装置及投影型影像显示方法 - Google Patents

投影型影像显示装置、操作检测装置及投影型影像显示方法 Download PDF

Info

Publication number
CN105723303A
CN105723303A CN201380079895.6A CN201380079895A CN105723303A CN 105723303 A CN105723303 A CN 105723303A CN 201380079895 A CN201380079895 A CN 201380079895A CN 105723303 A CN105723303 A CN 105723303A
Authority
CN
China
Prior art keywords
projection
detection
state
image
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201380079895.6A
Other languages
English (en)
Other versions
CN105723303B (zh
Inventor
成川沙希子
松原孝志
森直树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Hitachi Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Ltd filed Critical Hitachi Maxell Ltd
Publication of CN105723303A publication Critical patent/CN105723303A/zh
Application granted granted Critical
Publication of CN105723303B publication Critical patent/CN105723303B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

本发明提供一种无需在操作面上设置触摸传感器等即能够正确地检测出电子笔和手指对操作面的接触位置的投影型影像显示装置。投射包含影像的光,将与上述包含影像的光不同的照明光照射到至少一部分与上述光所投射的影像投射面重叠的操作面,拍摄上述操作面。进行用于检测前端发光的第一操作对象物与上述操作面接触的位置的第一检测处理,进行用于检测不发光的第二操作对象物与上述操作面接触的位置的第二检测处理,基于上述第一检测处理或上述第二检测处理的检测结果来变更上述显示的影像的至少一部分。

Description

投影型影像显示装置、操作检测装置及投影型影像显示方法
技术领域
本发明涉及检测用户操作的投影型影像显示装置、操作检测装置及投影型影像显示方法。
背景技术
专利文献1中以“不使用特殊的设备而检测出操作信息”(参考说明书的段落【0006】)为目的,作为达成该目的的手段,记载了如下的操作检测装置及其程序:“一种同时使用照明单元和摄像单元的操作检测装置,其特征在于,包括:在通过上述照明单元照射的状态下由上述摄像单元拍摄操作者的单元;基于由上述摄像单元获得的操作者的图像数据来检测上述操作者的特定部位的区域的单元;从上述检测出的操作者的特定部位的区域提取影子部分的单元;从上述提取出的影子部分中检测边缘成直线的多条线段、检测所检测出的线段彼此相交成锐角的点、将该交点作为上述操作者的特定部位的区域内的手指位置来检测的单元”(参考说明书的段落【0007】)。
此外,专利文献2中以“提供以能够同等地分开使用电子笔和手指从而并行使用它们的方式构成的电子笔系统”(参考说明书的段落【0008】)为课题,作为其解决手段,记载了如下的电子笔系统:“一种电子笔系统,其包括电子笔、具有使用该电子笔以及手指进行触摸操作的触摸面的触摸面板体、检测在上述触摸面上电子笔和手指的触摸位置的位置检测装置、将上述触摸面作为显示画面来显示所需的图像的显示装置、和使与上述位置检测装置获取的位置检测信息对应的图像显示在上述显示装置的控制装置,上述控制装置包括:在从上述位置检测装置接收到位置检测信息时辨别该位置检测信息来自于上述电子笔和手指的哪一方的指示物辨别单元、根据上述电子笔的触摸操作进行规定的笔输入处理的第一控制单元、和根据手指的触摸操作进行规定的手指输入处理的第二控制单元,其中,上述第一控制单元的笔输入处理和第二控制单元的手指输入处理并行执行”(参考说明书的段落【0009】)。
现有技术文献
专利文献
专利文献1:日本特开2008-59283号公报
专利文献2:日本特开2011-143557号公报
发明内容
发明要解决的问题
在专利文献1中,拍摄被照明的用户特定部位,并基于拍摄的图像数据来检测手指动作及其位置。然而,由于没有考虑用户握有物体进行操作的情况,因此无法使用电子笔等进行操作。
在专利文献2中,使用触摸面板体,检测电子笔和手指对触摸面上的触摸位置。然而,由于检测触摸位置的位置检测装置与触摸面板体一体化,因此如果操作面上没有传感器就无法检测触摸位置。
解决问题的手段
为了解决上述问题,采用例如权利要求书中记载的构成。
本申请包含多个解决上述问题的手段,如果举其一例,本发明为一种投射影像进行显示的投影型影像显示装置,其特征在于,包括:投射上述影像的影像投射部;至少一个以上的照明部,将与上述影像投射部的投射光不同的照明光照射到至少一部分与上述影像投射部投射影像的影像投射面重叠的操作面;拍摄上述操作面的摄像部;进行第一检测处理的第一检测部,上述第一检测处理用于检测前端发光的第一操作对象物与上述操作面接触的位置;进行与上述第一检测处理不同的第二检测处理的第二检测部,上述第二检测处理用于检测不发光的第二操作对象物与上述操作面接触的位置;控制部,控制上述投影型影像显示装置的动作,使得基于上述第一检测部或上述第二检测部的检测结果来变更上述影像投射部所投射的影像的至少一部分。
此外,本发明为一种检测操作的操作检测装置,所述操作用于操作投射影像进行显示的投影型影像显示装置,所述操作检测装置的特征在于,包括:进行第一检测处理的第一检测部,上述第一检测处理用于检测前端发光的第一操作对象物与操作面接触的位置;进行与上述第一检测处理不同的第二检测处理的第二检测部,上述第二检测处理用于检测不发光的第二操作对象物与操作面接触的位置。
此外,本发明为一种投射影像进行显示的投影型影像显示方法,其特征在于:投射上述影像,将与上述投射的投射影像的投射光不同的照明光照射到至少一部分与上述投射影像的面重叠的操作面,拍摄上述操作面,进行用于检测前端发光的第一操作对象物与上述操作面接触的位置的第一检测处理,进行与上述第一检测处理不同的、用于检测不发光的第二操作对象物与上述操作面接触的位置的第二检测处理,基于上述第一检测处理或上述第二检测处理的检测结果来变更上述投射影像的至少一部分。
发明效果
根据本发明,存在如下效果:提供一种投影型影像显示装置、操作检测装置和投影型影像显示方法,其无需在操作面上设置触摸传感器等即能够正确地检测出电子笔和手指对操作面的接触位置,提高了用户的操作性。
附图说明
图1是表示操作检测装置的构成的第一例的框图。
图2是表示操作检测装置的构成的第二例的框图。
图3是基于第二例的构成的操作检测装置的概要图。
图4A是表示操作检测装置的概貌和用手指操作的用户的状态的一个例子的图。
图4B是表示操作检测装置的概貌和用手指操作的用户的状态的一个例子的图。
图4C是表示操作检测装置的概貌和用电子笔操作的用户的状态的一个例子的图。
图4D是表示操作检测装置的概貌和用电子笔操作的用户的状态的一个例子的图。
图5A是表示电子笔的构成的一个例子的图。
图5B是表示电子笔的前端非接触时的状态的一个例子的图。
图5C是表示电子笔的前端接触时的状态的一个例子的图。
图6A是表示检测电子笔与壁面的接触点的处理流程的一个例子的图。
图6B是表示图6A的S602的细节的一个例子的图。
图6C是表示图6A的S602和S603的细节的一个例子的图。
图7A是表示手指与壁面为非接触的情况下的影子的形状的一个例子的正视图。
图7B是表示手指与壁面为非接触的情况下的影子的形状的一个例子的顶视图。
图7C是表示手指与壁面接触了的情况下的影子的形状的一个例子的正视图。
图7D是表示手指与壁面接触了的情况下的影子的形状的一个例子的顶视图。
图8A是表示手指与壁面的距离导致的影子的形状的差异的一个例子的图。
图8B是表示特征点与影子的距离的关系的一个例子的图。
图8C是表示特征点与影子的距离的关系的一个例子的图。
图8D是表示特征点与影子的距离的关系的一个例子的图。
图8E是表示特征点与影子的距离的关系的一个例子的图。
图9A是表示检测手指与壁面的接触点的处理流程的一个例子的图。
图9B是表示图9A的S908的细节的一个例子的图
图10A是表示不同操作位置导致的操作状态的一个例子的图。
图10B是表示不同操作位置导致的操作状态的一个例子的图。
图11是表示来自外部的光线照射到壁面的状态的一个例子的图。
图12A是表示通知是否能够使用基于手指的操作的处理流程的一个例子的图。
图12B是表示图12A中状态频繁地切换时的处理的一个例子的图。
图13A是表示以消息显示无法使用基于手指的操作的状态的一个例子的图。
图13B是表示以图标显示无法使用基于手指的操作的状态的一个例子的图。
图14A是表示以消息显示无法使用基于手指的操作的状态的一个例子的图。
图14B是表示以灯光显示无法使用基于手指的操作的状态的一个例子的图。
图14C是表示以声音通知无法使用基于手指的操作的状态的一个例子的图。
图15是表示向用户出示的设定菜单的一个例子的图。
图16A是表示切换照明装置的照明状态的处理流程的一个例子的图。
图16B是表示图16A中状态频繁地切换时的处理的一个例子的图。
具体实施方式
以下,使用附图说明实施例。
【实施例1】
在实施例1中,针对如下方法进行说明:通过使用一个摄像机和两个照明装置,在不设置例如触摸传感器等的情况下,检测电子笔的接触点坐标和手指的接触点坐标。
图1是表示操作检测装置的构成的第一例的框图。
图2是表示操作检测装置的构成的第二例的框图。
图3是基于第二例的构成的操作检测装置的概貌图。
在图1和图2中,101为坐标检测装置,102为摄像机(以下也称为摄像部),103和104为照明装置,105为手指接触位置检测部,106为笔接触位置检测部,107为笔/手指使用可否判断部,108为通信部,109为控制部。150为操作对象装置,151为通信部,152为设定输入部,153为控制部,154为影像投射部,155为显示部,156为发光部,157为声音输出部。120为检测结果数据,170为电子笔。
此外,虽然在图1中,102~109、151~157各部分独立,但是根据需要,可以由一个或多个构成要素来构成。例如,105~107可以以通过一个或多个中央处理装置(CPU)执行其处理的方式构成。此外,虽然在图1中,102~109各部分都在坐标检测装置101内部,151~157各部分都在操作对象装置150内部,但是也可以如图2和图3所示,在外部具有一个或多个构成要素,通过网络连接或通用串行总线(USB)来结合。或者,也可以构成为,将坐标检测装置101与操作对象装置150结合,整体成为一个装置。
摄像机102具有图像传感器、透镜、滤光器等,用于拍摄图像。
照明装置103和104具有发光二极管、电路基板、透镜等,用于照射摄像机102拍摄的区域。照明装置103、104除了始终点亮之外,也可以以103和104交替点亮的方式各自点亮熄灭,除此之外,还可以在103和104的点亮切换时暂时使两者熄灭。或者,也可以按相同的时序使103和104点亮熄灭。照明的光可以是不可见的,例如摄像机102、照明装置103、104可以由红外摄像机和红外照明装置构成,通过拍摄红外图像,进行后述的检测手指接触位置的处理。在由红外摄像机和红外照明装置构成的情况下,也可以在红外摄像机上追加滤光器,将非红外区域的光屏蔽一部分或者全部来进行拍摄。
手指接触位置检测部105具有电路基板或软件等,从摄像机102拍摄的图像检测手指的接触位置。关于手指的接触位置的检测方法,在后面使用图9进行叙述。
笔接触位置检测部106具有电路基板或软件等,从摄像机102拍摄的图像检测电子笔170的接触位置。关于电子笔的接触位置的检测方法,在后面使用图6A至图6C进行叙述。
笔/手指使用可否判断部107具有电路基板或软件等,根据摄像机102拍摄的图像判断可否使用基于手指的操作。关于判断方法,在后面使用图11进行叙述。
通信部108具有网络连接或USB连接、超声波单元、红外线通信装置等,为能够与显示器或投影仪等位于坐标检测装置101外部的装置进行通信的接口。
控制部109具有电路基板或软件等,控制摄像机102、照明装置103、照明装置104、手指接触位置检测部105、笔接触位置检测部106、笔/手指使用可否判断部107、通信部108。
检测结果数据120为坐标检测装置101经由通信部108向操作对象装置150输出的数据,包括手指的接触点坐标、笔的接触点坐标、笔/手指使用可否信息等。操作对象装置150例如为投影仪,接收检测结果数据120,根据用户的基于手指或笔的操作进行影像显示。
通信部151具有网络连接、USB连接、超声波单元、红外线通信装置等,为能够与位于操作对象装置150外部的装置进行通信的接口。
设定输入部152由按钮、触摸面板等构成,为接收用户输入的接口。
控制部153具有电路基板、软件等,控制通信部151、设定输入部152、影像投射部154、显示部155、发光部156、声音输出部157、电子笔170。
影像投射部154具有光源灯、液晶面板、透镜等,向投射面投射影像。在此,如果使影像投射部154投射的光为比某个规定波长短的可见区域的光,使照明装置103、104照射的光为比某个规定波长长的不可见区域的光,则用户仅能看见影像投射部154投射的光。为了控制投射的光的波长,可以使用带通滤光器等。
显示部155具有电路基板、液晶显示屏等,显示文字、图像等信息。其并非是用于显示影像投射部154投射的影像的显示部,而是用于显示与该影像信息不同的其它信息的显示部。
发光部156具有电路基板、发光元件等,生成点亮、闪烁、熄灭等状态。
声音输出部157具有电路基板、放大器、扬声器等,输出声音消息、效果音等。
电子笔170具有电路基板、发光元件等。关于电子笔的细节,在后面使用图5A至图5C进行叙述。
摄像机102拍摄的区域,即照明装置103、104照射照明光的区域是指,用于用户例如使用手指、电子笔170对影像投射部154投射的影像进行操作的操作面。根据该操作面上的用户的指示,影像投射部154投射的影像至少一部分被变更,或者整体切换为其它影像。操作面至少一部分与影像投射部154投射的影像投射面重叠,用户通过例如使用手指、电子笔170指着影像投射部154投射的影像的一部分,来进行上述指示。
此外,如后面所述,手指接触位置检测部105、笔接触位置检测部106、笔/手指使用可否判断部107为用于检测用户操作并判断手指、电子笔170可否使用的主要构成要素。可以将这三个构成要素合并称为操作检测判断部。可以将具有该操作检测判断部的装置,或者具有手指接触位置检测部105和笔接触位置检测部106的装置称为操作检测装置。
图4A至图4D表示操作检测装置的概貌和进行操作的用户200的状态的一个例子。图4A和图4B中用户200用手指对操作检测装置进行操作,图4C和图4D中用户200用电子笔170对操作检测装置进行操作。
图5A为表示电子笔170的构成的一个例子的图。
图5B和图5C是表示电子笔的前端非接触时和前端接触时的状态的一个例子的图。
在图5A中,170是电子笔,171是发光元件,172是前端接触检测部,173是发光控制部。前端接触检测部172具有电路基板、压力传感器等,判断电子笔170的前端是否与壁面等接触。发光控制部173具有电路基板、软件等,基于前端接触检测部172的判断结果,在电子笔170的前端未接触的情况下控制使得发光元件171熄灭(如图5B所示),在电子笔170的前端接触的情况下控制使得发光元件171点亮(如图5C所示)。或者,也可以在电子笔170的前端接触的情况下控制使得发光元件171点亮,在未接触的情况下控制使其闪烁等,在接触时和非接触时以发光元件171成为不同状态的方式进行控制。或者,也可以在接触时和非接触时以发光元件171的闪烁成为不同频率的方式进行控制。
用户使用电子笔170或手指操作上述操作面。因此,以下有时将以电子笔170为代表的前端发光的操作部称为第一操作对象物,将以手指为代表的不发光的操作部称为第二操作对象物。
此外,摄像机102和发光元件171也可以分别由红外摄像机和红外照明装置构成,通过拍摄红外图像来进行后述的检测笔的接触位置的处理。此外,在由红外摄像机和红外照明装置构成的情况下,也可以在红外摄像机中增加滤光器,将非红外区域的光屏蔽一部分或者全部来进行拍摄。
接下来,在图6A至图6C中,针对检测电子笔与壁面的接触位置的方法进行说明。
图6A至图6C表示在笔接触位置检测部106中检测电子笔170与壁面201的接触点的处理的一个例子。
图6A表示处理流程。虽然图6A所示的处理流程为将S601~S604的处理各自执行一次的一轮流程,但是实际上该流程连续地重复,在S603、S604后返回S601。
首先,在S601中,判断在摄像机102拍摄的图像中笔接触位置检测部106是否检测到明亮发光的区域。在检测到的情况下进入S602,在未检测到的情况下结束图6A所示的一连串流程。
在S602中,判断发光区域是否满足规定条件。S602的各种条件,以发光区域是电子笔170的发光导致的情况下满足,除此之外的原因所导致的情况下不满足的方式进行设定。
图6B是表示图6A的S602的细节的一个例子的图。
图6C是表示图6A的S602和S603的细节的一个例子的图。
如图6B所示,确认面积、周长、纵向最大长度、横向最大长度、纵横比等特征是否位于上限值与下限值之间,判断出例如图6C所示的发光区域651满足条件,发光区域652不满足条件。判断的结果是,在满足条件的情况下进入S603,在不满足条件的情况下进入S604。
在S603中,如图6C所示,检测发光区域651的重心650作为笔尖的接触点。或者,也可以检测发光区域651周围的点群的重心位置作为笔尖的接触点。当S603的处理结束时,图6A所示的一连串流程结束。
在S604中,判断为发光区域不是笔产生的。当S604的处理结束时,图6A所示的一连串流程结束。
在此,对S602的步骤的动作进行补充。如果坐标检测装置101仅检测电子笔170的接触位置,则不需要照明装置103、104,但是在本实施例中,为了也适合检测手指的接触位置,使用了照明装置。其结果是,在照明光照射到金属等光的反射率较高的物体的情况下,如图6C的652所示的明亮发光的区域被摄像机102拍摄到。S602,在发光体仅为电子笔170的发光元件171的情况下,是可省略的处理,但是在如上所述的笔尖以外的物体明亮发光的情况下,是为了防止错误地检测笔的接触位置而用于确认各种条件是否得到满足的处理。即,S602在避免错误检测方面发挥有效作用。
此外,笔接触位置检测部106中的处理也可以使用获得同样结果的其它图像处理算法。
图7A至图7D是表示手指400与壁面201有无接触导致的影子的形状的差异的一个例子的图。
如图7A所示,在手指400与壁面201不接触的情况下,在手指400两侧分别产生由照明装置104投影出的影子401和由照明装置103投影出的影子402,影子401与影子402为离开的状态。图7B说明了图7A所示的影子产生的原理。从手指的前端方向看时,照明装置104照射的光被手指400遮挡,在壁面201上产生影子401。此外,照明装置103照射的光被手指400遮挡,在壁面201上产生影子402。因此,在摄像机101拍摄的图像中,影子401与影子402为离开的状态。
另一方面,如图7C所示,在手指400的指尖与壁面201接触的情况下,影子401与影子402成为在手指400的指尖位置接近的状态。图7D说明了图7C所示的影子产生的原理。从手指的前端方向看时,照明装置104照射的光被手指400遮挡,在壁面201上产生影子401。此外,照明装置103照射的光被手指400遮挡,在壁面201上产生影子402。因此,在摄像机102拍摄的图像中,影子401与影子402成为在指尖位置接近的状态。
接下来,在图8A至图9B中,针对检测手指与壁面的接触位置的方法进行说明。
图8A至图8E是表示手指400与壁面201的距离导致的影子的形状的差异的一个例子的图。
图8A表示影子的形状根据手指400与壁面201的距离而变化的状态,在手指400与壁面201的距离最近的情况下,影子401与影子402成为在指尖位置接近的状态。当手指400与壁面201分离时,影子401与影子402的距离逐渐变大。在手指400与壁面201的距离最远的情况下,影子401与影子402成为离开的状态。这样,影子401与影子402的距离随着手指400离开壁面201而增大。
图8B至图8E说明将影子401与影子402的距离替换成两个特征点之间的距离进行定义的方法。例如如图8B所示,可以在各影子的前端分别设定特征点403和404,将特征点之间的距离d定义为影子401与影子402的距离。或者,如图8C所示,可以在各影子的与手指对应的部分的外侧分别设定特征点403和404,将特征点之间的距离d定义为影子401与影子402的距离。或者,如图8D所示,可以在各影子的位于最外侧的部分分别设定特征点403和404,将特征点之间的距离d定义为影子401与影子402的距离。或者,如图8E所示,可以在各影子的与手腕对应的部分的外侧分别设定特征点403和404,将特征点之间的距离d定义为影子401与影子402的距离。
图9A和图9B是表示在手指接触位置检测部105中检测手指400与壁面201的接触点的处理的一个例子的图。
图9A表示处理流程。虽然图9A所示的处理流程为将S901~S908的处理各自执行一次的一轮流程,但是实际上该流程连续地重复,在S906、S908后返回S901。首先,在S901中,在摄像机102拍摄的图像中,判断是否检测到与手指或手相关的两个影子。在检测到的情况下进入S902,在未检测到的情况下结束图9A所示的一连串流程。
在S902中,在与手指或手相关的两个影子中,分别检测特征点403和特征点404。当S902的处理结束时,进入S903。
在S903中,测定特征点403与特征点404的距离d。当S903的处理结束时,进入S904。
在S904中,判断特征点403与特征点404的距离d是否小于规定值。在小于规定值的情况下进入S905,在规定值以上的情况下进入S906。
在S905中,判断为手指400与壁面201接触。当S905的处理结束时,进入S907。
在S906中,判断为手指400与壁面201未接触。当S906的处理结束时,结束图9A所示的一连串流程。
在S907中,如图9B所示,在与手指或手相关的两个影子中,分别检测前端941与前端942。当S607的处理结束时,进入S908。
图9B是表示图9A的S908的细节的一个例子的图。
在S908中,如图9B所示,检测前端941与前端942的中点950作为手指400与壁面201的接触点。当S908的处理结束时,结束图9A所示的一连串流程。
此外,手指接触位置检测部105中的处理也可以使用获得同样结果的其它图像处理算法。
当按图9A和图9B所示的处理顺序进行手指的接触点检测时,在例如手掌的一部分、弯曲的指关节等手指前端之外的部分无意地与壁面201接触了的情况下,或者在握住电子笔170的手的一部分与壁面201接触了的情况下,不会检测到接触点。这样,通过本实施例获得如下效果:在手指前端之外的部位与壁面201接触了的情况下,将其判断为用户无意的接触,避免接触点的检测。
将用于判断用户所指的位置的、上面图6A的S602至S604的使用电子笔170时的方法与图9A的S904至S908的使用手指时的方法进行比较可知,两种方法完全不同。因此,如图1所示,坐标检测装置101具有手指接触位置检测部105和笔接触位置检测部这两者是本实施方式的一个特征。
图10A和图10B是表示不同操作位置和操作对象导致的操作状态的一个例子的图。
图10A表示用户的操作位置导致的影子的形状的差异。在用户200的操作位置从壁面201的中心偏离或者从照明装置103与104之间偏离的情况下,摄像机102与照明装置103、照明装置104的位置关系都没有改变。因此,在摄像机102的拍摄图像中,如图中所示,保持了手指400位于中央、在其两侧产生影子401、402的状态。因此,在用户的操作位置从壁面201中心偏离了的情况下,也能够进行影子401、402的检测,图7A至图9B中说明的检测方法和控制方法能够同样地全部适用。
图10B表示用不同的两个操作对象即手指400和电子笔171进行操作的状态。在坐标检测装置101中,手指接触位置检测部105与笔接触位置检测部106相互独立,如果使两者并行工作,则又能够同时检测手指和笔的接触位置。此外,由于电子笔的接触点坐标与手指的接触点坐标区分检测,因此在电子笔接触的情况下和手指接触的情况下,也能够实现不同的操作或显示状态。
如上所述,在本实施例中使用一个摄像机和两个照明装置来检测电子笔的接触点坐标和手指的接触点坐标,作为检测结果数据输出到操作对象装置。通过本实施例,无需在操作面上设置触摸传感器等即能够正确地检测电子笔和手指对操作面的接触位置。由此,存在能够提高用户对操作对象装置的操作性的效果。
【实施例2】
在实施例2中,针对在操作检测装置无法检测出手指的接触点的情况下向用户通知该状况的方法进行说明。
图11是表示来自外部的光照射到壁面的状态的一个例子的图。
1101为荧光灯、白炽灯的光、太阳光等来自外部的光(外部光),是与上述照明装置103、104不同的光源。当这种外部光1101强烈照射到壁面201时,影子401、402的形状被破坏,或者变淡,与周围的明暗差变小等。由此,产生无法通过摄像机102正确地捕捉其形状,或者手指接触位置检测部106无法正确地检测出手指400与壁面201的接触位置等现象。另一方面,对于电子笔170,由于发光元件171自发光,因此不易受到外部光1101的影响,即使在外部光照射的环境下,笔接触位置检测部107也能够正确地检测出电子笔170与壁面201的接触位置。
在这种仅能够使用基于电子笔170的操作而无法使用基于手指400的操作的状况下,通过发出通知让用户掌握该状况,来提高操作对象装置的操作性。针对通知方法的细节,在后面使用图12A和图12B进行叙述。此外,在同样的状况下,通过专门为电子笔170的操作来控制照明装置103、104的照明状态,在外部光1101照射的环境下,能够更稳定地检测出电子笔170的接触位置。针对照明状态的控制方法的细节,在后面使用图16A和图16B叙述。
针对是否是能够使用基于手指的操作的状态,在笔/手指使用可否判断部107中进行判断。例如在仅照明装置103、104点亮、完全没有外部光1101照射的状况下,预先将摄像机102拍摄的图像的辉度作为数据保存。之后,如果当前拍摄的图像的辉度比保存的数据大规定值,则能够推定为外部光1101的量较多。其结果是,能够判断为无法使用基于手指的操作。或者,暂时熄灭照明装置103、104,即在仅有外部光1101照射的状况下进行拍摄,如果此时的画面的辉度大于某个规定值,则能够判断为外部光1101的量较多,无法使用基于手指的操作。判断结果反映在检测结果数据120的笔/手指使用可否信息中,从通信部108向操作对象装置150输出。
图12A和图12B是表示通知可否使用基于手指的操作的处理的一个例子的图。
图12A表示处理流程。虽然图12A所示的处理流程为将S1201~S1207的处理各自执行一次的一轮流程,但是实际上该流程连续地重复,在S1204、S1205、S1206、S1207后返回S1201。首先,在S1201中,笔/手指使用可否判断部107使用例如上述方法判断是否为能够使用手指操作的状态。在能够使用的情况下进入S1202,在无法使用的情况下进入S1203。
在S1202中,判断手指操作的使用可否状态自上次是否有变化。即,相对于S1201中判断的结果,当前的判断结果是否有变化。在有变化的情况下,即在从能够使用手指操作的状态切换到无法使用的状态的情况下,进入S1204。在没有变化的情况下,即在当前也是能够使用手指操作的状态的情况下,进入S1206。
在S1203中,判断手指操作的使用可否状态自上次是否有变化。即,相对于S1201中判断的结果,当前的判断结果是否有变化。在有变化的情况下,即在从无法使用手指操作的状态切换到能够使用的状态的情况下,进入S1205。在没有变化的情况下,即在当前也是无法使用手指操作的状态的情况下,进入S1207。
在S1204中,开始进行不能使用手指操作的通知,当该处理结束时,图12A所示的一连串流程结束。
在S1205中,开始进行能够使用手指操作的通知,当该处理结束时,图12A所示的一连串流程结束。
在S1206中,继续进行能够使用手指操作的通知。但是,也可以省略该处理,在使用可否状况没有变化的情况下,不继续向用户进行相同的通知。当S1206的处理结束时,图12A所示的一连串流程结束。
在S1207中,继续进行不能使用手指操作的通知。但是,也可以省略该处理,在使用可否状况没有变化的情况下,不继续向用户进行相同的通知。当S1207的处理结束时,图12A所示的一连串流程结束。
此外,在S1201中判断出为无法使用手指操作的状态的情况下,可以在手指接触位置检测部105中中断检测手指的接触位置的处理。由此,通过降低手指接触位置检测部105的处理负荷,将该部分的处理能力用于笔接触位置检测部106,可以获得提高检测笔的接触位置的处理速度的效果。或者,也可以进行控制,使得在通信部108中不输出手指的接触点坐标。由此,可以获得防止向操作对象装置150输出在影子401、402的形状被破坏的状态下检测出的精度低的手指接触点坐标的效果。
当根据图12A所示的处理流程进行处理时,在手指操作的使用可否状态频繁切换的情况下,也每次进行通知。但是,如果频繁地进行通知,则有可能打扰用户。为了减轻它,如图12B所示,在从无法使用手指操作的状态切换到能够使用的状态后,可以在能够使用的状态经过某个规定时间之后再进行通知。
图12B是表示图12A中在状态频繁切换时的处理的一个例子的图。在图12B中,在时刻t=T1、T3、T5、T8时,从能够使用手指操作的状态切换到无法使用的状态,在时刻t=T2、T4、T6时,从无法使用手指操作的状态切换到能够使用的状态。这种情况下,并不是在每次状态切换时进行通知,而是例如如下地进行处理。
在t=T2、T4、T6时,由于自变成能够使用手指操作的状态起未经过规定时间以上,存在短时间内再次切换到无法使用的状态的可能性,因此不进行通知。上述规定时间是指,图中的t=T7与t=T6之间的时间。在t=T7时,由于能够确认自在t=T6时切换到能够使用手指操作的状态起经过了规定时间以上,因此开始进行能够使用手指操作的通知。在t=T1、T8时,在切换到无法使用手指操作的状态的同时,开始进行无法使用手指操作的通知。在t=T3、T5时,由于在t=T1时进行了无法使用手指操作的通知后,在一次都没有进行能够使用的通知的情况下再次切换到无法使用的状态,因此不进行通知。
图13A和图13B是表示使用投射影像通知无法使用基于手指的操作的状态的一个例子的图。即,在此,影像投射部154投射的光包含用于进行上述通知的消息信息。当然,可以包含表示处于能够进行手指操作的状态的第一显示状态和表示处于不能进行手指操作的状态的第二显示状态这两者。
是否为能够使用手指操作的状况,例如如图13A中1301、1302所示,通过影像投射部154将消息投射到壁面201进行通知。或者,如图13B中1303、1304所示,投射图标进行通知。
图14A至图14C是表示通过投射影像之外的方法通知无法使用基于手指的操作的状态的一个例子的图。
是否为能够使用手指操作的状况,例如如图14A所示,在显示部155显示消息进行通知。或者,如图14B所示,在发光部156切换错误灯的点亮和熄灭进行通知。或者,如图14C所示,通过声音输出部157输出声音消息或效果音进行通知。
或者,作为上述之外的方法,可以通过控制部153控制电子笔170,在能够使用基于手指的操作时和无法使用时使发光元件171以不同颜色发光等,通过笔的状态变化来通知使用可否状态。
图15是表示向用户出示的设定菜单的一个例子的图。
设定菜单与无法使用手指操作时的通知有关,是用于用户进行设定的界面。设定菜单由设定输入部152启动,由影像投射部154投射到壁面201,或者在显示部155显示。设置设定菜单的界面可以获得能够根据用户偏好设定无法使用手指操作时的通知的效果。
在设定菜单中,用户可以选择是否进行无法使用手指操作时的通知。此外,在选择了进行通知的情况下,以消息显示、图标显示、基于声音的显示、基于错误灯的显示为主,可以选择通过哪一种方式进行通知。
图12A至图15针对操作检测装置能够检测出电子笔170的接触点但不能检测出手指的接触点的情况进行了说明,但是在例如电子笔170的电池剩余量减少等情况下,反而不能检测出电子笔的接触点而能够检测出手指的接触点。对于这种情况,也可以同样地通知无法使用基于电子笔的操作的意思。电子笔170的电池剩余量减少可以在例如笔/手指使用可否判断部107中通过发光区域651的辉度降低、面积减少等来检测出。
因此,如图1所示,坐标检测装置101除了手指接触位置检测部105和笔接触位置检测部之外,还具有笔/手指使用可否判断部107,这是本实施方式的一个特征。
如上所述,在本实施例中,在来自外部的光(外部光)照射的环境下,基于摄像机拍摄的图像来判断是否为能够使用手指操作的状态。在判断为无法使用手指操作的状态的情况下,向用户进行通知。由此,用户能够掌握操作对象装置的状态,存在能够提高用户对操作对象装置的操作性的效果。
【实施例3】
在实施例3中,针对在操作检测装置无法检测出手指的接触点的情况下变更照明装置的照明状态的方法进行说明。
如图11中所述,当荧光灯、白炽灯的光、太阳光等来自外部的光(外部光)1101强烈照射到壁面201时,产生仅能够使用基于电子笔170的操作而无法使用基于手指400的操作的状态。这样,在外部光照射的环境下,如果专门为电子笔170的操作来控制照明装置103、104的照明状态,则能够更稳定地检测出电子笔170的接触位置。专用于电子笔170的操作的照明状态是指,例如使照明装置103、104熄灭或者变暗的状态。当照明装置103、104照射的光量消失或减少时,在电子笔170与壁面201接触的情况下发光元件171与周围的明暗差增大,在笔接触位置检测部106中能够更准确地检测出发光区域651。其结果是,能够更稳定地检测出电子笔170的接触位置。
图16A和图16B表示根据可否使用基于手指的操作来切换照明装置的照明状态的处理的一个例子。
图16A表示处理流程。图16A所示的处理流程为将S1601~S1607的处理各自执行一次的一轮流程,但是实际上该流程连续地重复,在S1604、S1605、S1606、S1607后返回S1601。首先,在S1601中,在笔/手指使用可否判断部107中判断是否为能够使用手指操作的状态。在能够使用的情况下进入S1602,在无法使用的情况下进入S1603。
在S1602中,判断手指操作的使用可否状态自上次是否有变化。即,相对于S1601中判断的结果,当前的判断的结果是否有变化。在有变化的情况下,即在从能够使用手指操作的状态切换到无法使用的状态的情况下,进入S1604。在没有变化的情况下,即在当前也是能够使用手指操作的情况下,进入S1606。
在S1603中,判断手指操作的使用可否状态自上次是否有变化。即,相对于S1601中判断的结果,当前的判断的结果是否有变化。在有变化的情况下,即在从无法使用手指操作的状态切换到能够使用的状态的情况下,进入S1605。在没有变化的情况下,即在当前也是无法使用手指操作的情况下,进入S1607。
在S1604中,切换到专用于笔操作的照明状态,即,使照明装置103、104熄灭或变暗,当该处理结束时,图16A所示的一连串流程结束。
在S1605中,解除专用于笔操作的照明状态,即,使照明装置103、104回到通常的亮度,当该处理结束时,图16A所示的一连串流程结束。
在S1606中,继续解除专用于笔操作的照明状态,当该处理结束时,图16A所示的一连串流程结束。
在S1607中,继续保持专用于笔操作的照明状态,当该处理结束时,图16A所示的一连串流程结束。
当根据图16A所示的处理流程进行处理时,在手指操作的使用可否状态频繁切换的情况下,也每次都切换照明装置的照明状态。在图12B中,在从无法使用手指操作的状态切换到能够使用的状态后,在能够使用的状态经过某个规定时间以上之后再进行通知,与此同样地,对于照明装置的照明状态,也可以在能够使用手指操作的状态经过某个规定时间以上之后再进行切换。
图16B是表示图16A中状态频繁切换时的处理的一个例子的图。图16B中,手指的使用可否状态按与图12B所示的时序相同的时序切换。这种情况下,照明装置的照明状态例如如下地进行处理。
在t=T2、T4、T6时,由于自变成能够使用手指操作的状态起未经过规定时间以上,存在短时间内再次切换到无法使用的状态的可能性,因此不进行照明状态的切换。上述规定时间是指,图中t=T7与t=T6之间的时间。在t=T7时,由于能够确认自t=T6时切换到能够使用手指操作的状态起经过了规定时间以上,因此解除专用于笔操作的照明状态。在t=T1、T8时,在切换到无法使用手指操作的状态的同时,切换到专用于笔操作的照明状态。在t=T3、T5时,由于在t=T1时切换到专用于笔操作的照明状态后,在一次都没有变更照明状态的情况下再次切换到无法使用手指操作的状态,因此不进行照明状态的切换。
在图16A和图16B中,通过控制照明装置102、103的照明状态,实现了稳定的电子笔接触点检测,而代替该方法或者与该方法并行地,可以通过控制部153控制电子笔170。例如,在无法使用手指操作的状态时,如果增加发光元件171的发光强度,则在电子笔170与壁面201接触了的情况下,发光元件171与周围的明暗差增大,能够稳定地检测出电子笔170的接触位置。相反,在能够使用手指操作的状态时,如果解除对发光元件171的发光强度进行增加,则能够抑制电子笔170中消耗的电力。
因此,如图1所示,坐标检测装置101除了手指接触位置检测部105和笔接触位置检测部之外,还具有笔/手指使用可否判断部107,这是本实施方式的一个特征。
如上所述,在本实施例中,在来自外部的光(外部光)照射的环境下,基于摄像机拍摄的图像来判断是否为能够使用手指操作的状态。在判断为无法使用手指操作的状态的情况下,切换到照明装置专用于电子笔操作的状态,即熄灭或变暗的状态。由此,即使在外部光照射的环境下,也能够实现稳定的电子笔的接触位置检测。此外,通过这样使照明装置熄灭或变暗,也可以获得抑制电力消耗的效果。
此外,上述实施方式是用于说明本发明的一个例子,并无意将本发明的范围仅限定在实施方式中。对于各实施方式,可以考虑添加了各种变更的实施方式,这些都在本发明的范围内。
【符号说明】
101:坐标检测装置
102:摄像机
103:照明装置
104:照明装置
105:手指接触位置检测部
106:笔接触位置检测部
107:笔/手指使用可否判断部
108:通信部
109:控制部
120:检测结果数据
150:操作对象装置
151:通信部
152:设定输入部
153:控制部
154:影像投射部
155:显示部
156:发光部
157:声音输出部
170:电子笔
171:发光元件
172:前端接触检测部
173:发光控制部
200:用户
201:壁面
202:摄像范围
400:手指
401、402:影子
403、404:特征点
650:笔尖的接触点
651、652:发光区域
941、942:影子的前端
950:手指的接触点
1101:外部光
1301、1302:消息
1303、1304:图标

Claims (15)

1.一种投射影像进行显示的投影型影像显示装置,其特征在于,包括:
投射所述影像的影像投射部;
至少一个以上的照明部,将与所述影像投射部的投射光不同的照明光照射到至少一部分与所述影像投射部投射影像的影像投射面重叠的操作面;
拍摄所述操作面的摄像部;
进行第一检测处理的第一检测部,所述第一检测处理用于检测前端发光的第一操作对象物与所述操作面接触的位置;
进行与所述第一检测处理不同的第二检测处理的第二检测部,所述第二检测处理用于检测不发光的第二操作对象物与所述操作面接触的位置;和
控制部,控制所述投影型影像显示装置的动作,使得基于所述第一检测部或所述第二检测部的检测结果来变更所述影像投射部投射的影像的至少一部分。
2.如权利要求1所述的投影型影像显示装置,其特征在于:
所述影像投射部的投射影像的显示状态包括:
在所述投射影像中进行用于表示处于所述第一检测处理和所述第二检测处理这两个检测处理都工作的状态的显示的第一显示状态;和
在所述投射影像中进行用于表示处于所述第一检测处理工作但所述第二检测处理不工作的状态的显示的第二显示状态。
3.如权利要求1所述的投影型影像显示装置,其特征在于:
所述控制部,在从所述第一检测部和所述第二检测部两者都能够进行所述检测的状态变化成了任一者无法进行所述检测的状态的情况下,或者,在从所述第一检测部和所述第二检测部中的任一者无法进行所述检测的状态变化成了两者都能进行所述检测的状态的情况下,进行控制以通知状态发生了变化。
4.如权利要求3所述的投影型影像显示装置,其特征在于:
所述控制部进行控制,以使用所述影像投射部投射的投射影像来通知状态发生了变化。
5.如权利要求3所述的投影型影像显示装置,其特征在于:
所述投影型影像显示装置包括影像显示部,
所述控制部进行控制,以使用在所述影像显示部显示的影像来通知状态发生了变化。
6.如权利要求3所述的投影型影像显示装置,其特征在于:
所述投影型影像显示装置包括声音输出部,
所述控制部进行控制,以使用从所述声音输出部输出的声音来通知状态发生了变化。
7.如权利要求3所述的投影型影像显示装置,其特征在于:
所述投影型影像显示装置包括发光部,
所述控制部进行控制,以使用所述发光部发出的光来通知状态发生了变化。
8.如权利要求3所述的投影型影像显示装置,其特征在于:
所述控制部进行控制,以使用所述第一操作对象物发出的光来通知状态发生了变化。
9.如权利要求1所述的投影型影像显示装置,其特征在于:
所述控制部,在所述第一检测部和所述第二检测部中的任一者无法进行所述检测的情况下,进行控制以停止无法进行所述检测的检测部的动作。
10.如权利要求1所述的投影型影像显示装置,其特征在于:
所述控制部,在所述第一检测部检测出的光的特征与所述第一操作对象物发出的光的特征不同的情况下,进行控制以停止基于所述第一检测部检测出的光进行的控制。
11.如权利要求1所述的投影型影像显示装置,其特征在于:
所述控制部,根据是处于所述第一检测部和所述第二检测部两者都能进行所述检测的状态还是处于任一者无法进行所述检测的状态,进行控制以使所述照明部的发光量、发光时间、发光频率、发光模式中的至少一个不同。
12.一种检测操作的操作检测装置,所述操作用于操作投射影像进行显示的投影型影像显示装置,所述操作检测装置的特征在于,包括:
进行第一检测处理的第一检测部,所述第一检测处理用于检测前端发光的第一操作对象物与操作面接触的位置;和
进行与所述第一检测处理不同的第二检测处理的第二检测部,所述第二检测处理用于检测不发光的第二操作对象物与操作面接触的位置。
13.如权利要求12所述的操作检测装置,其特征在于:
包括判断是否为所述第一检测处理和所述第二检测处理都工作的状态的使用可否判断部。
14.一种投射影像进行显示的投影型影像显示方法,其特征在于:
投射所述影像;
将与所述投射的投射影像的投射光不同的照明光照射到至少一部分与所述投射影像的面重叠的操作面;
拍摄所述操作面;
进行用于检测前端发光的第一操作对象物与所述操作面接触的位置的第一检测处理;
进行与所述第一检测处理不同的、用于检测不发光的第二操作对象物与所述操作面接触的位置的第二检测处理;
基于所述第一检测处理或所述第二检测处理的检测结果,变更所述投射影像的至少一部分。
15.如权利要求14所述的投影型影像显示方法,其特征在于:
所述投射影像的显示状态包括:
在所述投射影像中进行用于表示处于所述第一检测处理和所述第二检测处理这两个检测处理都工作的状态的显示的第一显示状态;和
在所述投射影像中进行用于表示处于所述第一检测处理工作但所述第二检测处理不工作的状态的显示的第二显示状态。
CN201380079895.6A 2013-10-08 2013-10-08 投影型影像显示装置、操作检测装置及投影型影像显示方法 Active CN105723303B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/077304 WO2015052765A1 (ja) 2013-10-08 2013-10-08 投射型映像表示装置、操作検出装置及び投射型映像表示方法

Publications (2)

Publication Number Publication Date
CN105723303A true CN105723303A (zh) 2016-06-29
CN105723303B CN105723303B (zh) 2019-01-22

Family

ID=52812616

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380079895.6A Active CN105723303B (zh) 2013-10-08 2013-10-08 投影型影像显示装置、操作检测装置及投影型影像显示方法

Country Status (5)

Country Link
US (2) US10025430B2 (zh)
EP (1) EP3056975B1 (zh)
JP (1) JP6105075B2 (zh)
CN (1) CN105723303B (zh)
WO (1) WO2015052765A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108663816A (zh) * 2017-03-28 2018-10-16 精工爱普生株式会社 光射出装置以及图像显示系统
CN114115582A (zh) * 2020-06-17 2022-03-01 精工爱普生株式会社 位置检测方法、投影仪的控制方法、位置检测装置和投影仪

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015052765A1 (ja) * 2013-10-08 2015-04-16 日立マクセル株式会社 投射型映像表示装置、操作検出装置及び投射型映像表示方法
JP2016038902A (ja) * 2014-08-06 2016-03-22 株式会社リコー 接触検出システム、情報処理方法、情報処理装置、及びプログラム
US10521050B2 (en) * 2014-11-13 2019-12-31 Maxell, Ltd. Projection video display apparatus and video display method
WO2016171166A1 (ja) * 2015-04-20 2016-10-27 株式会社リコー 座標検知装置、電子黒板、画像表示システム、座標検知方法
WO2017002250A1 (ja) * 2015-07-01 2017-01-05 日立マクセル株式会社 表示システム、電子ペン装置、電子ペン装置発光制御方法
JP6665194B2 (ja) * 2015-09-28 2020-03-13 マクセル株式会社 照明装置
JP6538871B2 (ja) * 2015-11-13 2019-07-03 マクセル株式会社 操作検出装置、操作検出方法、及び映像表示システム
CN106980416A (zh) * 2016-01-18 2017-07-25 中强光电股份有限公司 触控显示系统及其触控方法
TR201606367A2 (tr) * 2016-05-13 2017-11-21 Sensobright Ind Llc Bir dokunmatik panel.
US20180059863A1 (en) * 2016-08-26 2018-03-01 Lenovo (Singapore) Pte. Ltd. Calibration of pen location to projected whiteboard
JP7222391B2 (ja) * 2018-03-08 2023-02-15 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019159748A (ja) * 2018-03-13 2019-09-19 セイコーエプソン株式会社 画像投写システム、指示体及び画像投写システムの制御方法
JP7321995B2 (ja) * 2018-03-23 2023-08-07 株式会社ワコム 位置指示器及び位置検出システム
CA3106385A1 (en) 2018-09-13 2020-03-19 Kissei Pharmaceutical Co., Ltd. Imidazopyridinone compound
KR102156539B1 (ko) * 2019-01-15 2020-09-16 임성민 접촉음 센싱 펜마우스 및 이를 이용한 강의 시스템
US20230113359A1 (en) * 2020-10-23 2023-04-13 Pathway Innovations And Technologies, Inc. Full color spectrum blending and digital color filtering for transparent display screens
US20220360755A1 (en) * 2020-10-23 2022-11-10 Ji Shen Interactive display with integrated camera for capturing audio and visual information
JP7338659B2 (ja) * 2021-03-30 2023-09-05 セイコーエプソン株式会社 指示体の検出方法及びプロジェクションシステム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273091A (ja) * 2000-03-24 2001-10-05 Seiko Epson Corp 多重解像度画像解析による指示位置検出
JP2007086962A (ja) * 2005-09-21 2007-04-05 Fuji Xerox Co Ltd 画面位置指示システム及び画面位置指示方法
US20070188445A1 (en) * 2006-02-10 2007-08-16 Microsoft Corporation Uniquely identifiable inking instruments
US20070242056A1 (en) * 2006-04-12 2007-10-18 N-Trig Ltd. Gesture recognition feedback for a dual mode digitizer
WO2013104060A1 (en) * 2012-01-11 2013-07-18 Smart Technologies Ulc Interactive input system and method

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3876942B2 (ja) 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
US6963937B1 (en) * 1998-12-17 2005-11-08 International Business Machines Corporation Method and apparatus for providing configurability and customization of adaptive user-input filtration
EP1352303A4 (en) * 2001-01-08 2007-12-12 Vkb Inc DATA INPUT DEVICE
JP4185825B2 (ja) * 2003-07-01 2008-11-26 キヤノン株式会社 座標入力装置及びその制御方法、情報処理装置、プログラム
US7460110B2 (en) * 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7499027B2 (en) 2005-04-29 2009-03-03 Microsoft Corporation Using a light pointer for input on an interactive display surface
JP4733600B2 (ja) 2006-08-31 2011-07-27 日本電信電話株式会社 操作検出装置とそのプログラム
US20100177053A2 (en) * 2008-05-09 2010-07-15 Taizo Yasutake Method and apparatus for control of multiple degrees of freedom of a display
TW201032105A (en) * 2009-02-19 2010-09-01 Quanta Comp Inc Optical sensing screen and panel sensing method
US8514187B2 (en) * 2009-09-30 2013-08-20 Motorola Mobility Llc Methods and apparatus for distinguishing between touch system manipulators
KR101623214B1 (ko) * 2010-01-06 2016-05-23 삼성전자주식회사 다기능 펜 및 다기능 펜의 사용 방법
US8482539B2 (en) 2010-01-12 2013-07-09 Panasonic Corporation Electronic pen system
JP4857385B2 (ja) 2010-01-12 2012-01-18 パナソニック株式会社 電子ペンシステム
JP5486977B2 (ja) * 2010-03-24 2014-05-07 株式会社日立ソリューションズ 座標入力装置及びプログラム
JP5709405B2 (ja) 2010-05-18 2015-04-30 株式会社タイトー 画像認識によるラクガキ装置
GB2487043B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction and illumination system and method
GB2486445B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction apparatus system and method
US9031847B2 (en) * 2011-11-15 2015-05-12 Microsoft Technology Licensing, Llc Voice-controlled camera operations
JP6031750B2 (ja) * 2011-11-25 2016-11-24 株式会社リコー 表示制御装置、画像表示システム、表示制御方法およびプログラム
JP6141596B2 (ja) 2011-12-27 2017-06-07 セイコーエプソン株式会社 表示装置、表示システム及び表示装置のデータ供給方法
JP2013175142A (ja) * 2012-01-27 2013-09-05 Sharp Corp 座標入力装置、及び座標入力システム
US20130257811A1 (en) * 2012-03-29 2013-10-03 Hitachi Solutions, Ltd. Interactive display device
TWI470511B (zh) * 2012-06-06 2015-01-21 Wistron Corp 雙模輸入裝置
US9575712B2 (en) * 2012-11-28 2017-02-21 Microsoft Technology Licensing, Llc Interactive whiteboard sharing
JP5728592B1 (ja) * 2013-05-30 2015-06-03 株式会社東芝 電子機器および手書き入力方法
KR101832042B1 (ko) * 2013-07-31 2018-02-23 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 프로젝터 유닛 및 컴퓨터를 가진 시스템
US10114512B2 (en) * 2013-09-30 2018-10-30 Hewlett-Packard Development Company, L.P. Projection system manager
WO2015052765A1 (ja) * 2013-10-08 2015-04-16 日立マクセル株式会社 投射型映像表示装置、操作検出装置及び投射型映像表示方法
WO2015075767A1 (ja) * 2013-11-19 2015-05-28 日立マクセル株式会社 投射型映像表示装置
GB2523077A (en) * 2013-12-23 2015-08-19 Light Blue Optics Ltd Touch sensing systems
GB2522249A (en) * 2014-01-20 2015-07-22 Promethean Ltd Active pointing device detection
JP6398248B2 (ja) * 2014-01-21 2018-10-03 セイコーエプソン株式会社 位置検出システム、及び、位置検出システムの制御方法
JP6375672B2 (ja) * 2014-01-21 2018-08-22 セイコーエプソン株式会社 位置検出装置、及び位置検出方法
JP6248723B2 (ja) * 2014-03-17 2017-12-20 株式会社リコー 座標検知システム、座標検知方法、情報処理装置及びプログラム
JP6269227B2 (ja) * 2014-03-25 2018-01-31 セイコーエプソン株式会社 表示装置、プロジェクター、および表示制御方法
WO2015143618A1 (en) * 2014-03-25 2015-10-01 Intel Corporation Switchable input modes for external display operation
US9740338B2 (en) * 2014-05-22 2017-08-22 Ubi interactive inc. System and methods for providing a three-dimensional touch screen
TWI522722B (zh) * 2014-06-06 2016-02-21 中強光電股份有限公司 光源裝置及其調整方法
CN106471450B (zh) * 2014-06-26 2020-08-18 索尼公司 信息处理设备、信息处理方法和程序
JP2016038902A (ja) * 2014-08-06 2016-03-22 株式会社リコー 接触検出システム、情報処理方法、情報処理装置、及びプログラム
US10048856B2 (en) * 2014-12-30 2018-08-14 Microsoft Technology Licensing, Llc Configuring a user interface based on an experience mode transition
JP6485160B2 (ja) * 2015-03-27 2019-03-20 セイコーエプソン株式会社 インタラクティブプロジェクター、及び、インタラクティブプロジェクターの制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273091A (ja) * 2000-03-24 2001-10-05 Seiko Epson Corp 多重解像度画像解析による指示位置検出
JP2007086962A (ja) * 2005-09-21 2007-04-05 Fuji Xerox Co Ltd 画面位置指示システム及び画面位置指示方法
US20070188445A1 (en) * 2006-02-10 2007-08-16 Microsoft Corporation Uniquely identifiable inking instruments
US20070242056A1 (en) * 2006-04-12 2007-10-18 N-Trig Ltd. Gesture recognition feedback for a dual mode digitizer
WO2013104060A1 (en) * 2012-01-11 2013-07-18 Smart Technologies Ulc Interactive input system and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108663816A (zh) * 2017-03-28 2018-10-16 精工爱普生株式会社 光射出装置以及图像显示系统
CN108663816B (zh) * 2017-03-28 2023-10-27 精工爱普生株式会社 光射出装置以及图像显示系统
CN114115582A (zh) * 2020-06-17 2022-03-01 精工爱普生株式会社 位置检测方法、投影仪的控制方法、位置检测装置和投影仪
CN114115582B (zh) * 2020-06-17 2023-12-22 精工爱普生株式会社 位置检测方法、投影仪的控制方法、位置检测装置和投影仪

Also Published As

Publication number Publication date
US10025430B2 (en) 2018-07-17
WO2015052765A1 (ja) 2015-04-16
US20160253043A1 (en) 2016-09-01
EP3056975A4 (en) 2017-06-21
EP3056975A1 (en) 2016-08-17
JP6105075B2 (ja) 2017-03-29
US10719171B2 (en) 2020-07-21
US20180292950A1 (en) 2018-10-11
JPWO2015052765A1 (ja) 2017-03-09
CN105723303B (zh) 2019-01-22
EP3056975B1 (en) 2020-08-12

Similar Documents

Publication Publication Date Title
CN105723303A (zh) 投影型影像显示装置、操作检测装置及投影型影像显示方法
US11606851B2 (en) Lighting apparatus
CN107077258B (zh) 投射型影像显示装置以及影像显示方法
JP6037901B2 (ja) 操作検出装置、操作検出方法及び表示制御データ生成方法
KR20170122259A (ko) 인터랙티브 프로젝터, 인터랙티브 프로젝션 시스템 및, 인터랙티브 프로젝터의 제어 방법
JP2016186674A (ja) インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
JP2018038469A (ja) 情報処理システム、拡張入力装置、および情報処理方法
CN105632453A (zh) 显示装置、显示控制方法和显示系统
US10795467B2 (en) Display device, electronic blackboard system, and user interface setting method
JP2002116878A (ja) 画像生成システム、プレゼンテーションシステムおよび情報記憶媒体
TWI518553B (zh) 具多模式之互動投影系統及其指示裝置與控制方法
JP2016186677A (ja) インタラクティブプロジェクションシステム,指示体,およびインタラクティブプロジェクションシステムの制御方法
JP6690271B2 (ja) 位置検出システム、位置検出装置、および位置検出方法
JP2006338328A (ja) 操作システム、処理装置、指示装置、操作方法およびプログラム
JP6451446B2 (ja) インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
JP2017062813A (ja) 映像表示装置及びプロジェクタ
JP5842144B2 (ja) 調光制御装置、調光制御方法、及び調光制御プログラム
JP2004348442A (ja) 資料提示装置用ライトペン
JP6690272B2 (ja) 位置検出システム、自発光指示体、および固有情報取得方法
CN115525201A (zh) 图像处理方法和图像处理装置
US20120146917A1 (en) Key input apparatus capable of displaying key input using light and method of emitting the light
JP2016024521A (ja) 情報処理システム、情報処理装置、情報処理方法、情報処理プログラム、およびスタイラスペン

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20180706

Address after: Kyoto Japan

Applicant after: MAXELL, Ltd.

Address before: Osaka Japan

Applicant before: Hitachi Maxell, Ltd.

GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: Kyoto Japan

Patentee after: MAXELL, Ltd.

Address before: Kyoto Japan

Patentee before: MAXELL HOLDINGS, Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220614

Address after: Kyoto Japan

Patentee after: MAXELL HOLDINGS, Ltd.

Address before: Kyoto Japan

Patentee before: MAXELL, Ltd.