JP2014174832A - 操作検出装置及び操作検出方法 - Google Patents

操作検出装置及び操作検出方法 Download PDF

Info

Publication number
JP2014174832A
JP2014174832A JP2013048305A JP2013048305A JP2014174832A JP 2014174832 A JP2014174832 A JP 2014174832A JP 2013048305 A JP2013048305 A JP 2013048305A JP 2013048305 A JP2013048305 A JP 2013048305A JP 2014174832 A JP2014174832 A JP 2014174832A
Authority
JP
Japan
Prior art keywords
shadow
user
unit
camera
shadows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013048305A
Other languages
English (en)
Other versions
JP2014174832A5 (ja
JP6037900B2 (ja
Inventor
Takashi Matsubara
孝志 松原
Sakiko Narukawa
沙希子 成川
Naoki Mori
直樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2013048305A priority Critical patent/JP6037900B2/ja
Priority to US14/187,488 priority patent/US9367176B2/en
Priority to CN201410073622.7A priority patent/CN104049792B/zh
Publication of JP2014174832A publication Critical patent/JP2014174832A/ja
Publication of JP2014174832A5 publication Critical patent/JP2014174832A5/ja
Priority to US15/161,813 priority patent/US10514806B2/en
Application granted granted Critical
Publication of JP6037900B2 publication Critical patent/JP6037900B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Signal Processing (AREA)

Abstract

【課題】手を開いた状態でも複数の指の接触位置をそれぞれ正しく検出し、マルチタッチ操作に対応する操作検出を可能にすること。
【解決手段】操作検出装置1は、ユーザ3の操作する操作面22に異なる位置から照明光を照射する第1、第2の照明101,102と、操作面をユーザの操作部(指)30とともに撮像するカメラ100と、カメラの撮像画像からユーザの操作部30に対する第1、第2の影401,402を抽出する影領域抽出部104と、抽出された第1、第2の影のそれぞれの輪郭線501,502を検出する輪郭検出部105と、各輪郭線間の距離dからユーザの操作部の操作面への接触点Pを検出する接触点検出部106と、を備える。
【選択図】図1

Description

本発明は、ユーザの指操作を検出する操作検出装置及び操作検出方法に関する。
投写型映像表示装置(プロジェクタ)の投写面(スクリーン)上でのユーザ操作入力として、タッチセンサ等の特殊なデバイスを用いることなく、ユーザの操作部(指)を撮像しその影を抽出して指接触操作を検出する技術が提案されている
特許文献1には、照明手段により照らされた状態で操作者を撮像手段に撮像させる手段と、前記撮像手段により得られる操作者の画像データをもとに、前記操作者の特定部位の領域を検出する手段と、前記検出された操作者の特定部位の領域から影の部分を抽出する手段と、前記抽出された影の部分の中から、エッジが直線を成す線分を複数検出し、検出された線分同士が鋭角に交わる点を検出し、この交点を前記操作者の特定部位の領域内における指差し位置として検出する手段と、を具備する操作検出装置が記載されている。
また、特許文献2には、スクリーンに映像を投写する投写部と、少なくとも前記スクリーンに投写された映像を含む領域を撮像するための撮像部と、前記撮像部により撮像された画像から、前記スクリーン上方を移動する所定物体の実像を検出する実像検出部と、前記撮像部により撮像された画像から、前記投写部からの投写光により生じる前記所定物体の影を検出する影検出部と、前記所定物体の実像と影の対応点間の距離が所定のしきい値以下である場合、前記所定物体が前記スクリーンに接触していると判定する接触判定部と、前記接触判定部により接触していると判定されたとき、前記所定物体の座標を前記映像に対するポインティング位置として出力する座標決定部と、を備える投写型映像表示装置が記載されている。
特開2008−59283号公報 特開2011−180712号公報
特許文献1では、撮像手段により得られる操作者の画像データから影の部分を抽出し、影のエッジが鋭角に交わる点を指差し位置として検出している。しかしながら、手を開いて浮かせた状態では、ある指の影の上に他の指が重なって見えることにより、影のエッジが鋭角に交わる点が複数個発生することが予想されるため、指差し位置とは異なる点が誤って検出される恐れがある。従って、手を開いた状態で複数の指の指差し位置を同時に検出する、いわゆるマルチタッチ操作の検出には適していない。
また、特許文献2では、所定物体(指)の実像と影の対応点間の距離が所定のしきい値以下である場合、所定物体がスクリーンに接触していると判定している。しかしながら、手を開いた状態では、ある指の実像によって他の指の影の一部が見えなくなるため、指の実像と影の対応点を検出することが困難になる。さらに、手を開いて浮かせた状態では指の実像と影の距離が離れるため、例えば、ある指の実像の先端部に他の指の影の先端部が接近して、ある指の実像と影の対応点間の距離が閾値以下になったかのように見え、指がスクリーンに接触していると誤って判定される恐れがある。従って、この方式もマルチタッチ操作の検出には適していない。
本発明は上記の課題を鑑み、手を開いた状態でも複数の指の接触位置をそれぞれ正しく検出し、マルチタッチ操作に対応する操作検出装置及び操作検出方法を提供することを目的とする。
上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。
本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、本発明の操作検出装置は、操作面に異なる位置から照明光を照射する第1、第2の照明と、照明光が照射された操作面をユーザの操作部とともに撮像するカメラと、カメラより得られる撮像画像からユーザの操作部に対する第1、第2の影を抽出する影領域抽出部と、抽出された第1、第2の影のそれぞれの輪郭線を検出する輪郭検出部と、各輪郭線間の距離からユーザの操作部の操作面への接触点を検出する接触点検出部と、を備える。前記影領域抽出部は、撮像画像の輝度を所定の閾値と比較し、第1、第2の照明で投影されるユーザの操作部に対する第1、第2の影を区別して抽出し、前記輪郭検出部は、第1、第2の影の輪郭線の中で対応する略直線状の線分を輪郭線として抽出し、前記接触点検出部は、抽出した2つの輪郭線間の距離が所定の閾値以下となったときにユーザの操作部が操作面へ接触したと判定することを特徴とする。
本発明によれば、操作面上にタッチセンサなどを設けることなく、操作面に対する複数の指の接触位置を正しく検出し、精度の高いマルチタッチ操作を実現することができる。
実施例1にかかる操作検出装置の構成図。 操作検出装置を用いたユーザの操作を示す正面図(カメラを内部構成)。 操作検出装置を用いたユーザの操作を示す正面図(カメラを外部構成)。 操作検出装置を用いたユーザの操作を示す側面図。 カメラで撮像されるユーザの指の影の形状を示す図(1本の指の場合)。 カメラで撮像されるユーザの指の影の形状を示す図(複数の指の場合)。 指の影の形状の変化を説明する図(上面図)。 指の影の輪郭の変化を説明する図(カメラから見た図)。 影の輪郭線の検出方法を説明する図。 複数の指で操作する場合の輪郭線の状態を示す図。 実施例1における接触点検出の処理フローを示す図。 実施例2にかかる操作検出装置の構成図。 指の影の形状の変化を説明する図(上面図)。 指の影の輪郭の変化を説明する図(カメラから見た図)。 実施例2における接触点検出の処理フローを示す図。 実施例3にかかる操作検出装置の構成図。 複数照明による指の影の形状を示す図。 実施例3における接触点検出の処理フローを示す図。 実施例4にかかるプロジェクタの構成図。 短投写型のプロジェクタの操作状態を示す正面図。 短投写型のプロジェクタの操作状態を示す側面図。 ヘッドマウント型プロジェクタの例を示す外観図。
以下、実施例を図面を用いて説明する。
実施例1では、1つのカメラと異なる位置に配置した2つの照明とを用いて、操作面に対するユーザの操作部(指)の接触点を検出する操作検出装置について説明する。
図1は、実施例1にかかる操作検出装置の構成図を示す。操作検出装置1は、カメラ100、2つの照明101,102、影領域抽出部104、輪郭検出部105、接触点検出部106、制御部120、出力部130を含み、操作面に対する指の接触位置などの検出結果データ150を操作対象装置2に出力する。操作対象装置2は例えばプロジェクタであり、検出結果データ150を受け、ユーザの操作に対応して映像表示を行う。図1では各要素100〜106、120、130を全て操作検出装置1の内部に構成しているが、一部の構成要素、例えばカメラ100と照明101,102を操作検出装置1の外部に構成し、ネットワークやユニバーサルシリアルバス(USB)を介して接続しても良い。各構成要素100〜106、120、130は独立しているが、必要に応じて1または複数の構成要素で構成しても良い。例えば、要素104〜106、120、130は1または複数の中央処理装置(CPU)でその処理を行うように構成しても良い。
図2Aと図2B及び図3は、操作検出装置1を用いてユーザ3が操作を行う状態を示す図である。図2A、図2Bは操作状態の正面図、図3は操作状態の側面図である。なお、図2Aは、カメラ100と照明101,102を操作検出装置1の内部に構成した場合、図2Bは、カメラ100と照明101,102を操作検出装置1の外部に構成した場合である。ユーザ3は操作部である指30を、壁面21の操作面22のある位置に接触させることで所望の操作を行う。操作対象装置2がプロジェクタの場合は、操作面22が投写映像を表示するスクリーンとなり、ユーザはスクリーン上を操作することになる。
操作検出装置1は壁面21の上部に取り付け、2つの照明101,102はカメラ100を挟んで、壁面21の横方向の異なる位置にずらして配置する。なお、図2Bでは、2つの照明101,102を壁面21の左右端部に配置している。2つの照明101,102でユーザ3の指30を照射し、カメラ100により指30とその近傍を撮像する。指30が操作面22に接触すると指30の影の形状が変化することから、操作検出装置1はカメラ100の画像を解析し指の接触点を検出する。
次に、各部の動作を説明する。カメラ100は、イメージセンサ、レンズなどで構成され、ユーザ3の操作部である指30を含む画像を撮像する。2つの照明101,102は、発光ダイオード、回路基板、レンズなどで構成され、操作面22およびユーザ3の指30に照明光を照射して、カメラ100で撮像する画像内に指30の影を投影するものである。なお、照明101,102は赤外光照明とし、カメラ100は赤外光カメラで構成しても良い。これにより、カメラ100で撮像する赤外光画像を、操作対象装置2(プロジェクタ)で投写される可視光映像から分離して取得することができる。
影領域抽出部104は、回路基板やソフトウェアなどで構成され、カメラ100で得られた画像から影を抽出し影画像を生成する。例えば、操作検出時の撮像画像から予め撮像した操作面22の背景画像を減算して差分画像を生成し、差分画像の輝度を所定の閾値Lthで二値化して、閾値以下の領域を影領域とすれば良い。さらに、抽出した影に対して互いに連結していない影の領域をそれぞれ別の影として区別する、いわゆるラベリング処理を行う。ラべリング処理により、抽出した複数の影についてどの指に対応するかを識別することができる。
輪郭検出部105は、回路基板やソフトウェアなどで構成され、影画像から影領域の輪郭を抽出する。例えば、影画像内を一定の方向(左上から右下)に走査して輪郭追跡の開始画素を決定し、開始画素の近傍画素を反時計回りで追跡することで輪郭が得られる。輪郭の検出方法は、図6で説明する。なお、影領域抽出部104及び輪郭検出部105の処理は、上記方法に限らず、他の画像処理のアルゴリズムを用いても良い。
接触点検出部106は、回路基板やソフトウェアなどで構成され、輪郭の形状や位置に基づいて、操作面22に対する指30の接触状態を判定し、また接触点(座標)を検出する。接触点の検出方法については、図5A,Bと図8で説明する。
制御部120は、回路基板やソフトウェアなどで構成され、カメラ100の画像の撮像動作に基づいて、照明101,102、影領域抽出部104、輪郭検出部105、接触点検出部106、出力部130を制御する。
出力部130は、操作対象である操作対象装置(プロジェクタ)2に検出結果データ150を出力するインタフェースであり、ネットワーク接続やユニバーサルシリアルバス(USB)接続、超音波ユニット、赤外線通信装置などで構成される。検出結果データ150には、指30が操作面22に接触しているか否かの接触状態情報や接触点座標が含まれる。
図4Aと図4Bは、カメラによって撮像されるユーザの指の影の形状を示す図である。図4Aは1本の指の場合、図4Bは手を開いた複数の指の場合である。そして、ユーザの指30が操作面22(紙面)に接触していない状態(a)と接触した状態(b)とで、影の形状がどのように変化するかを示している。
図4Aにおいて、指30が操作面22に接触していない状態(a)では、指30の左右に2つの照明101,102による2つの影401,402(斜線で示す)ができる。左側の影401は右側の照明102で投影されたものであり、右側の影402は左側の照明101で投影されたものである。これら2つの影401,402は互いに離れて存在する。一方、指30の先端部(指先)30aが操作面22に接触している状態(b)では、2つの影401,402は、指先30aの位置で接近して存在する。なお、影401,402の先端側の一部領域は指30の陰に隠れているが、この隠れた部分は影領域には含めない。
一方図4Bでは、手を開いた複数(5本)の指31,32,・・・35の場合であるが、基本的には図4Aの1本の指の場合と同様である。各指が操作面に接触していない状態(a)では、それぞれの指の左右に影(斜線で示す)ができる。ただしこの状態では、いくつかの影は他の指に隠れたり他の指の影と重なっているため、明瞭に見えるのは、指31の左側の影411、指32の左側の影421、指34の右側の影442、指35の右側の影452などである。一方、各指がスクリーンに接触している状態(b)では、各指の2つの影は明瞭となり指先の位置で接近して存在する。ここでは、指31の2つの影411,412、指32の2つの影421,422について符号を付して示している。
図5Aと図5Bは、指の影の形状から接触を判定する方法を説明する図である。図5Aは、操作面22の上方(天井側)から見て影の形状の変化を説明する図である。図5Bは、操作面22をカメラ側から見て影の輪郭の変化を説明する図である。いずれも、ユーザの指30が操作面22に接触していない状態(a)と接触した状態(b)とを比較している。ここでは簡単のために、1本の指30の場合(図4A)について説明するが、複数の指の場合(図4B)も同様である。
図5Aにおいて、指30が操作面22に接触していない状態(a)では、2つの照明101,102からの光は指30で遮断され、それぞれ影402,401(斜線で示す)が形成される。その時、カメラ100が撮像する画像では指30の実像が手前に写るため、指30の裏側にある部分は影として撮像されない。その結果、カメラ100の撮像画像では、2つの影401,402は離れて存在する。ここで、影401,402の外側同士の距離をdとする。この距離dは、指30と操作面22の間隙sに依存し、間隙sが大きいほど距離dは大きくなる。一方、指30が操作面22に接触している状態(b)では、間隙s=0となるから、影401,402の外側同士の距離は最小値d0になる。よって、影401,402の外側同士の距離dを測定することで、指30が操作面22に接触したか否かを判定することができる。
図5Bにおいて、カメラ画像では指30の形状を投影した影が写し出される。そして影の輪郭のうち、指30の左側にできる影401の左側(外側)の輪郭線501と、右側にできる影402の右側(外側)の輪郭線502を検出する。これらの輪郭線は、影を取り囲む輪郭線の中で対応するほぼ直線状の線分に限定して抽出し、指先の曲線状の部分は含まないようにする。そして、2つの影401,402間の距離として、抽出した2つの輪郭線501,502間の最短距離dを求める。この場合、輪郭線501,502は平行ではなく、通常は指先側の端部501a,502a間で最短距離dが決まる。
指30が操作面22に接触していない状態(a)では、2つの影401,402は離れて存在することから、2つの輪郭線501,502の最短距離dも大きい値となる。一方、指30が操作面22に接触している状態(b)では、2つの影401,402は接近し、2つの輪郭線501,502も接近する。その最短距離は指先側の端部501a,502aで最小値d0となる。従って、所定の閾値dth(ただしdth>d0)を定め、輪郭線501,502間の最短距離dが、閾値dth以内かどうかを判定することで、指30が操作面22に接触しているか否かを判別することができる。この例では輪郭線501,502を2つの影401,402の外側部分から抽出しているので、内側部分から抽出する場合に比べて輪郭線間の距離の変化が顕著であり、その結果接触検出精度が向上する。
指30が操作面22に接触したことを判定した場合、輪郭線501,502の端部501a,502aの中点Pを接触点と決定し、操作面22における接触点の座標値を算出する。なお、接触点の座標を精度良く算出するために、必要に応じて中点Pの座標を指先方向に所定量だけずらす補正を施しても良い。
図6は、影の輪郭線の検出方法を説明する図である。図6(a)に示すように、撮像画面90内には手の影の画像40が含まれている。左側の輪郭線を求めるときは、画面90内を左から右側に向う走査線91(実線)にて、影の画素の有無を検出する。このとき、走査画素が影以外の画素(画素0とする)から影の画素(画素1とする)に切り替わる位置が左側の輪郭線となる。図のように複数の指の影が存在すると、各指の影ごとに画素0から画素1に切り替わり、輪郭線が複数検出される。このようにして、(b)に示す左側の輪郭線50Lが得られる。
同様に、右側の輪郭線を求めるときは、画面90内を右から左側に向う走査線92(破線)にて、影の画素の有無を検出する。このようにして、(c)に示す右側の輪郭線50Rが得られる。このようにして得られた輪郭線50L,50Rのうち、指先などの曲線部分を除去して、略直線状の線分からなる輪郭線を検出する。なお、上記方法は一例であり、輪郭線の検出には他のアルゴリズムを用いても良い。
図7には、複数の指で操作する場合の輪郭線の状態を示す図である。(a)のように、手3aを開いた状態で複数の指31,32・・・を操作面に接触させた際に、各指に対し、左側の影411,421・・・と、右側の影412,422・・・ができる。(b)はそれらの輪郭線を示し、左側の影411,421・・・に対する左側の輪郭線511L,521L・・・と、右側の影412,422・・・に対する右側の輪郭線512R,522R・・・を示す。各指の対応する輪郭線間の最短距離は、その指先付近において最小値d0となる。この距離は、指31のように指先方向が上下方向から傾いてもほぼ等しくなる。これより本実施例によれば、手を開いた状態でも複数の指についての接触を独立して検出できるので、マルチタッチ操作に適用可能となる。
図8は、実施例1における接触点検出の処理フローを示す図である。
S1000で、操作検出装置1は指の接触点を検出する処理を開始する。制御部120の指示により2つの照明101,102から照明光を照射し、カメラ100で操作面を撮像する。
S1001では、影領域抽出部104は、カメラ100で撮像した画像から背景を減算して差分画像を求め、輝度が閾値Lth以下の部分を影領域として抽出する。S1002では、影領域抽出部104は、抽出した影に対して互いに連結していない影の領域をそれぞれ別の影として区別する、いわゆるラベリング処理を行う。
S1003では、輪郭検出部105は、ラベリング処理した各影に対して輪郭線を検出する。例えば図5Bのように、影401の左側の輪郭線501と、影402の右側の輪郭線502を検出する。ここで、複数の指の影が存在する場合には、特定の指に対応する一対の影の決定はラべリング処理に基づき、各影に対する輪郭線の左右の切り換えは、図6の手法に基づく。
S1004では、接触点検出部106は、検出した輪郭線501,502の最短距離dが閾値dth以下となる箇所が存在するかどうかを判定する。この閾値dthは、図5Bにおける指接触時の輪郭線の端部501a,502aの距離d0を識別できるように定める。判定の結果、存在すればS1005へ進む。存在しなければS1001へ戻り、上記の処理を繰り返す。
S1005では、接触点検出部106は、S1004で検出した箇所(最短距離dが閾値dth以下となる箇所)の中点Pを接触点と決定し、操作面22における接触点の座標値を算出する。出力部130は、算出された接触点の座標を検出結果データ150として出力する。
S1006では、ユーザの指示等による接触点検出の継続を判定し、継続する場合はS1001に戻り上記の処理を繰り返す。
上記したように実施例1の操作検出装置は、1つのカメラと2つの照明を用いて、2つの照明で投影される2つの影の輪郭線を検出する。そして、輪郭線の最短距離が所定の距離以内に近づいている箇所から接触点を検出して、接触点の座標を出力する。この方法は手を開いた状態で複数の指の接触をそれぞれ独立で検出できるので、マルチタッチ操作に対しても正しく検出することができる。
操作対象装置2はプロジェクタの例を説明したが、一般のディスプレイ、ヘッドマウントディスプレイなどへの適用も可能である。操作面はスクリーンに限らず、壁面やテーブルなど、どのような面でも適用できる。
実施例2では、操作検出装置1の2つの照明101,102を交互に点灯させることで、指の接触点を検出する構成とした。
図9は、実施例2にかかる操作検出装置の構成図を示す。実施例1(図1)と異なる点は、照明切り替え用のスイッチ110を追加したことである。スイッチ110は回路基板などで構成され、制御部120の指示により、照明101と照明102とを交互に点灯させる。この際制御部120は、照明101と照明102の点灯タイミングに合わせて、カメラ100の撮像を切り替える。これにより、例えばカメラ100で撮像されるあるタイミング(フレーム1)の画像には、照明101で投影される影のみが撮像され、次のタイミング(フレーム2)の画像には、照明102で投影される影のみが撮像される。従って、指の影の位置は1フレームごとに切り替わる画像となり、2つの影の距離から指の接触を容易に検出することができる。
実施例2では、照明を交互に点灯させて影を抽出するため、2つの影の一部が重なる場合でも両者を時間的に分離して検出できるという特徴がある。よって、2つの照明101,102がカメラ100に対して同じ側に設置され、2つの影が指に対して同じ側に形成されて一部が重なる場合であっても、接触点を正しく検出することができる。以下の例では、2つの照明101,102がカメラ100に対して同じ側に設置される場合について説明する。もちろん、2つの照明101,102がカメラ100を挟んで互いに反対側に設置される場合にも有効であることは言うまでもない。
図10Aと図10Bは、2つの照明101,102をカメラ100に対して同じ側に設置された場合の指の影の形状の変化を示す図である。図10Aは、操作面22の上方(天井側)から見た上面図である。図10Bは、操作面22をカメラ側から見た図である。いずれも、ユーザの指30が操作面22に接触していない状態(a)と接触した状態(b)とを比較している。
フレーム1で照明101を点灯すると、指30に対する影401が形成され、フレーム2で照明102を点灯すると影402が形成される。両者の影401,402は、指30に対し同じ側(図では右側)に存在する。
この場合の影の輪郭線は、図10Bに示すように、指30から見ていずれも影の外側(図では右側)から抽出する。すなわち、フレーム1では影401に対する輪郭線501を、フレーム2では影402に対する輪郭線502を抽出し、輪郭線501,502の最短距離d’を求める。距離d’が最短になるのは、通常は指先に近い輪郭線の端部(白丸印で示す)である。距離d’は指32と操作面22との間隙sに依存し、指が操作面に接触すると最小値d0’となる。なお、この値d0’は実施例1(図5A、図5B)での値d0とは異なり、より小さい値となる。この場合には、所定の閾値dth’(ただしdth’>d0’)を定め、輪郭線501,502間の最短距離d’が、閾値dth’以内かどうかを判定することで、指30が操作面22に接触しているか否かを判別することができる。
図11は、実施例2における接触点検出の処理フローを示す図である。ここでは、図10Aと図10Bに示すように、2つの照明101,102をカメラ100に対して同じ側に設置し、指30に生じる2つの影401,402から接触点を検出する場合について説明する。
S1100で、操作検出装置1は指の接触点を検出する処理を開始する。
S1101では、フレーム1のタイミングで、制御部120の指示により照明101を点灯し、カメラ100で撮像する。影領域抽出部104は、撮像画像から指30の右側にできる影401を抽出する。S1102では、輪郭検出部105は、影401の右側の輪郭線501を検出する。
S1103では、フレーム2のタイミングで、制御部120の指示により照明102を点灯し、カメラ100で撮像する。影領域抽出部104は、撮像画像から指30の右側にできる影402を抽出する。S1104では、輪郭検出部105は、影402の右側の輪郭線502を検出する。
S1105では、接触点検出部106は、検出した輪郭線501,502の最短距離d’が閾値dth’以下となる箇所が存在するかどうかを判定する。この閾値dth’は、図10Bにおける指接触時の輪郭線の距離d0’を識別できるように定める。判定の結果、存在すればS1106へ進む。存在しなければS1101へ戻り、上記の処理を繰り返す。
S1106では、接触点検出部106は、S1105で検出した箇所(最短距離d’が閾値dth’以下となる箇所)の近傍(左側)P’を接触点と決定し、操作面22における接触点の座標値を算出する。出力部130は、算出された接触点の座標を検出結果データ150として出力する。
S1107では、ユーザの指示等による接触点検出の継続を判定し、継続する場合はS1101に戻り上記の処理を繰り返す。
上記処理フローでは、2つの照明101,102をカメラ100に対して同じ側に設置する場合を説明したが、2つの照明101,102がカメラ100を挟んで反対側に設置される場合には、図5で示したように影401の左側の輪郭線501と影402の右側の輪郭線502を検出し、その最短距離を求めれば良い。
上記したように、実施例2の操作検出装置は、1つのカメラと2つの照明を用いて、2つの照明を交互に点灯させることで、それぞれの照明で投影される2つの影の輪郭線を検出する。そして、輪郭線間の最短距離が所定の距離以内に近づいている箇所を接触点と決定して、接触点の座標を出力する。実施例2では、2つの影を時間的に分離して抽出できるので、2つの照明がカメラに対して同じ側に設置される場合でも、正しく検出できる。よって、照明の配置に関し自由度が増す。
実施例3では、操作検出装置1の照明に複数個の照明を用いることで、指の接触点を検出する構成とした。
図12は、実施例3にかかる操作検出装置の構成図を示す。実施例1(図1)と異なるのは、2つの照明101,102を複数(N)個の照明103に置き換えた点である。複数の照明103はカメラ100に対して互いにずらした位置に配置し、全て同時に点灯させる。
図13は、複数照明103を使用した際の、カメラによって撮像されるユーザの指の影の形状を示す図である。ここではN=8個の照明をカメラ100の両側に4個ずつ配置した場合を示す。(a)は操作面22に指30が接触していない場合、(b)は操作面22に指30が接触した場合、(c)は接触点の決定法を示す。(a)に示すように、指30が操作面22に接触していない場合は、指30の左右に複数照明103で投影される複数(N=8個)の影401〜408ができる。指が操作面22に近づくと、隣接する影の間で重複部401’〜408’が生じる。
(b)に示すように、指30が操作面22に接触している場合は、複数の影401〜408は指先30aに集中してくる。その結果、指先30a近傍には複数の影が重なる部分が生じる。影が重なると重なり数に応じて影の濃度(暗さ)が増大し、領域409’では全て(片側の4個)の影が重複し影濃度が最大となる。影濃度最大部409’は、影の輝度が最小となることから輝度の閾値Lth’を定めて抽出する。
(c)は、指の両側に、影濃度最大部409’(影の輝度が閾値Lth’以下)を抽出したものであり、これらを包囲する領域410を接触領域と定める。そして、接触領域410の指先側最上部P”を指の接触点として決定する。
図14は、実施例3における接触点検出の処理フローを示す図である。
S1200で、操作検出装置1は複数の照明103を点灯させ、指の接触点を検出する処理を開始する。
S1201では、カメラ100で撮像した画像から、影領域抽出部104は複数の影を抽出する。この際、影領域抽出部104では、複数の影が重なった影濃度最大部409’を抽出するように、影を抽出する際の輝度の閾値Lth’を定めておく。
S1202では、影領域抽出部104において、影濃度最大部409’が抽出できたか否かを判定する。影409’が抽出できた場合はS1203に進む。抽出できない場合はS1201に戻る。
S1203では、輪郭検出部105はS1202で抽出した影濃度最大部409’を取り囲む領域410を決定する。この領域410は指接触領域となる。
S1204では、接触点検出部106は、S1203で検出した領域410の指先側最上部P”を接触点と決定し、操作面22における接触点の座標値を算出する。
S1205では、ユーザの指示等による接触点検出の継続を判定し、継続する場合はS1201に戻り上記の処理を繰り返す。
上記したように実施例3の操作検出装置は、1つのカメラと複数の照明とを用いて、複数の照明で投影される影濃度が最大となる部分を検出する。この影濃度が最大となる部分から接触点を決定することができる。この手法は複数の影が重なる場合に適用でき、照明数は2以上の任意である。本実施例では、影の濃度(輝度)を判定するだけで接触点を検出できるので、処理工程が少なく検出の迅速化が図れる効果がある。
実施例4では、前記した操作検出装置1を内蔵したプロジェクタの構成について説明する。
図15は、実施例4にかかるプロジェクタ2a(2b)の構成図を示す。ここにプロジェクタ2a(2b)は、実施例1(図1)で述べた操作検出装置1を内蔵するとともに、プロジェクタ機能として映像投写をするための構成が加えられている。プロジェクタの機能として、中央処理部201、操作解析部202、メモリ203、映像制御部204、映像投写部210などを有する。
中央処理部201は、中央処理装置(CPU)等の半導体チップや、オペレーティングシステム(OS)等のソフトウェアで構成され、操作解析部202で検出されるユーザの操作などに基づいて、メモリ203への情報の入出力や、映像制御部204、映像投写部210等の各部を制御する。
操作解析部202は、回路基板やソフトウェアで構成され、操作検出装置1の出力部130から得られる接触点の座標に基づき、投写中の映像と接触点の対応を判別することにより、投写映像に対するユーザの操作を検出する。
メモリ203は、半導体などで構成され、中央処理部201の演算や制御に必要な情報や、投写映像として表示する映像情報などを記憶する。
映像制御部204は、回路基板などで構成され、中央処理部201の制御に応じて、映像情報の描画に必要な演算処理を行い、映像投写部210の入力に適した形式で、画素の集合からなる描画情報を出力する。
映像投写部210は、ランプ等の光源や、レンズ、反射ミラー等の光学部品や、液晶パネル等から構成され、光源から出射される光束を変調して、映像制御部204から送られる描画情報に応じた画像光を形成し、スクリーン等の投写面上に画像光を拡大投写する。
なお、図15の各部は独立しているが、必要に応じて1または複数の構成要件で構成しても良い。例えば、201〜204は、1または複数の半導体チップ(System-on-a-chip:SoC等)でその処理を行うように構成しても良い。
図16と図17は、前記プロジェクタとして短投写型のプロジェクタ2aの例を示す外観図である。図16は、ユーザが操作する状態を示す正面図、図17は側面図である。短投写型プロジェクタ2aは壁面21上部に取り付けられる。映像投写部210からは、GUI等の所定の映像信号に基づき投写光23aを出射することにより、壁面21のスクリーン22’に投写映像23を映し出す。ユーザ3は操作面を兼ねるスクリーン22’上で指操作することで、投写映像23に対して表示等の制御を行うことができる。
ユーザ3が投写映像23の任意の箇所に指30を触れると、操作検出装置1は指の影画像をから接触点を検出して、検出データを中央処理部201を介して操作解析部202に送る。操作解析部202は投写映像23に対する操作内容を解析し、中央処理部201はユーザの操作に応じた映像の変更等の処理を実行する。このように、プロジェクタ2aに前記操作検出装置1を内蔵することにより、ユーザは投写映像に対して効率良く操作を行うことができ、特に本実施例ではマルチタッチ操作を好適に行うことができる。
図18は、前記プロジェクタの他の構成として、ヘッドマウント型プロジェクタ2bの例を示す外観図である。ヘッドマウント型プロジェクタ2bは、眼鏡型の筐体には小型プロジェクタ本体20が取り付けられ、眼鏡のレンズ面に投写光23aを出射することで映像23を映し出し、ユーザが映像を見ることができる。
また、眼鏡型の筐体の両端には照明101及び照明102が取り付けられ、筐体の中央にはカメラ100が取り付けられ、ユーザの視線の先にある操作面22を照射するとともに、操作面22に対するユーザの指操作を撮像しその接触点を検出することができる。
これにより、小型プロジェクタ本体20により眼鏡のレンズ面に投写される映像23とユーザが操作する操作面22とが、ユーザの視界において重なり、あたかも操作面22上に映像が表示されているかのように振る舞う。すなわち、小型プロジェクタ本体20が映像を表示した場合、ユーザは操作面22に指先を触れることで、表示される映像に対してマルチタッチ操作を行うことができる。
上記したように、前記操作検出装置をプロジェクタに内蔵することにより、映像の投写面にセンサなどを設けることなく、投写映像をマルチタッチ操作することができる効果が得られる。
なお、上述した本実施形態は本発明の説明のための例示であり、本発明の範囲を実施形態にのみ限定する趣旨ではない。
1:操作検出装置、
100:カメラ、
101,102,103:照明、
104:影領域抽出部、
105:輪郭検出部、
106:接触点検出部、
110:スイッチ、
120:制御部、
130:出力部、
150:検出結果データ、
2:操作対象装置(プロジェクタ)、
2a:短投写型プロジェクタ、
2b:ヘッドマウント型プロジェクタ、
20:小型プロジェクタ本体、
21:壁面、
22:操作面、
23:投写映像、
23a:投写光、
201:中央処理部、
202:操作解析部、
203:メモリ、
204:映像制御部、
205:映像投写部、
3:ユーザ、
30,31〜35:指、
401,402,403〜408:影、
409’:影濃度最大部、
410:接触領域、
501,502:輪郭線。

Claims (8)

  1. 操作面に対するユーザの操作を検出する操作検出装置において、
    前記操作面に異なる位置から照明光を照射する第1、第2の照明と、
    前記照明光が照射された前記操作面を前記ユーザの操作部とともに撮像するカメラと、
    該カメラより得られる撮像画像から前記ユーザの操作部に対する第1、第2の影を抽出する影領域抽出部と、
    前記抽出された第1、第2の影のそれぞれの輪郭線を検出する輪郭検出部と、
    前記各輪郭線間の距離から前記ユーザの操作部の前記操作面への接触点を検出する接触点検出部と、を備え、
    前記影領域抽出部は、前記撮像画像の輝度を所定の閾値と比較し、前記第1、第2の照明で投影される前記ユーザの操作部に対する第1、第2の影を区別して抽出し、
    前記輪郭検出部は、前記第1、第2の影の輪郭線の中で対応する略直線状の線分を輪郭線として抽出し、
    前記接触点検出部は、前記抽出した2つの輪郭線間の距離が所定の閾値以下となったときに前記ユーザの操作部が前記操作面へ接触したと判定することを特徴とする操作検出装置。
  2. 請求項1に記載の操作検出装置であって、
    前記第1、第2の照明を時間的に交互に照射させ、前記カメラはそれぞれの照射タイミングに合わせて前記操作面を撮像するものであって、
    前記影領域抽出部は、前記撮像画像から、第1の照明で投影される第1の影と、第2の照明で投影される第2の影とを、時間的に分離して抽出することを特徴とする操作検出装置。
  3. 請求項2に記載の操作検出装置であって、
    前記第1、第2の照明は、前記カメラに対して同じ側に設置されたことを特徴とする操作検出装置。
  4. 請求項1から3のいずれかに記載の操作検出装置であって、
    前記輪郭検出部は、前記第1、第2の影の輪郭線として、前記ユーザの操作部から見て該第1、第2の影の外側同士の輪郭線を抽出することを特徴とする操作検出装置。
  5. 操作面に対するユーザの操作を検出する操作検出装置において、
    前記操作面に異なる位置から照明光を照射する複数の照明と、
    前記照明光が照射された前記操作面を前記ユーザの操作部とともに撮像するカメラと、
    該カメラより得られる撮像画像から、前記ユーザの操作部に対する複数の影が重なる影濃度最大領域を抽出する影領域抽出部と、
    前記影濃度最大領域から前記ユーザの操作部の前記操作面への接触点を検出する接触点検出部と、を備え、
    前記影領域抽出部は、前記影濃度最大領域として影の輝度が所定の閾値以下となる部分を抽出することを特徴とする操作検出装置。
  6. 操作面に対するユーザの操作を検出する操作検出方法において、
    第1、第2の照明により前記操作面に異なる位置から照明光を照射し、
    カメラにより前記照明光が照射された前記操作面を前記ユーザの操作部とともに撮像し、
    前記カメラより得られる撮像画像の輝度を所定の閾値と比較し、前記第1、第2の照明で投影される前記ユーザの操作部に対する第1、第2の影を区別して抽出し、
    前記抽出された第1、第2の影の輪郭線の中で対応する略直線状の線分を輪郭線として抽出し、
    前記抽出した2つの輪郭線間の距離が所定の閾値以下となったときに前記ユーザの操作部が前記操作面へ接触したと判定することを特徴とする操作検出方法。
  7. 請求項6に記載の操作検出方法において、
    前記第1、第2の照明を時間的に交互に照射させ、前記カメラはそれぞれの照射タイミングに合わせて前記操作面を撮像するものであって、
    前記撮像画像から、第1の照明で投影される第1の影と、第2の照明で投影される第2の影とを、時間的に分離して抽出することを特徴とする操作検出方法。
  8. 操作面に対するユーザの操作を検出する操作検出方法において、
    複数の照明により前記操作面に異なる位置から照明光を照射し、
    カメラにより前記照明光が照射された前記操作面を前記ユーザの操作部とともに撮像し、
    該カメラより得られる撮像画像から、前記ユーザの操作部に対する複数の影が重なり影の輝度が所定の閾値以下となる影濃度最大領域を抽出し、
    前記影濃度最大領域から前記ユーザの操作部の前記操作面への接触点を検出することを特徴とする操作検出方法。
JP2013048305A 2013-03-11 2013-03-11 操作検出装置及び操作検出方法 Active JP6037900B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013048305A JP6037900B2 (ja) 2013-03-11 2013-03-11 操作検出装置及び操作検出方法
US14/187,488 US9367176B2 (en) 2013-03-11 2014-02-24 Operation detection device, operation detection method and projector
CN201410073622.7A CN104049792B (zh) 2013-03-11 2014-02-28 操作检测装置和操作检测方法
US15/161,813 US10514806B2 (en) 2013-03-11 2016-05-23 Operation detection device, operation detection method and projector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013048305A JP6037900B2 (ja) 2013-03-11 2013-03-11 操作検出装置及び操作検出方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016213933A Division JP6199472B2 (ja) 2016-11-01 2016-11-01 プロジェクタ及びヘッドマウント型表示装置

Publications (3)

Publication Number Publication Date
JP2014174832A true JP2014174832A (ja) 2014-09-22
JP2014174832A5 JP2014174832A5 (ja) 2015-11-12
JP6037900B2 JP6037900B2 (ja) 2016-12-07

Family

ID=51487290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013048305A Active JP6037900B2 (ja) 2013-03-11 2013-03-11 操作検出装置及び操作検出方法

Country Status (3)

Country Link
US (2) US9367176B2 (ja)
JP (1) JP6037900B2 (ja)
CN (1) CN104049792B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017060993A1 (ja) * 2015-10-07 2017-04-13 日立マクセル株式会社 映像表示装置およびこれに用いる操作検出方法
WO2019230461A1 (ja) * 2018-05-28 2019-12-05 マクセル株式会社 映像表示装置、映像表示方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108664173B (zh) * 2013-11-19 2021-06-29 麦克赛尔株式会社 投影型影像显示装置
JP6229572B2 (ja) * 2014-03-28 2017-11-15 セイコーエプソン株式会社 ライトカーテン設置方法および双方向表示装置
EP3176681A4 (en) * 2014-07-30 2018-04-18 Sony Corporation Information processing device, information processing method and program
CN105159498B (zh) * 2015-09-07 2017-12-15 武汉精测电子技术股份有限公司 图形用户界面触控效果检测方法
US10438370B2 (en) * 2016-06-14 2019-10-08 Disney Enterprises, Inc. Apparatus, systems and methods for shadow assisted object recognition and tracking
CN106445132A (zh) * 2016-09-19 2017-02-22 努比亚技术有限公司 基于屏幕投影的操控装置和方法
CN108733205B (zh) * 2017-04-20 2021-07-13 奥克斯空调股份有限公司 一种手势图像获取设备及方法
KR101965322B1 (ko) 2017-08-31 2019-04-04 주식회사 화승알앤에이 호스의 후가공 방법 및 장치
CN108984039B (zh) * 2018-08-03 2021-04-09 珠海市暴雨科技有限公司 一种电子白板装置及其显示方法
TWI734024B (zh) * 2018-08-28 2021-07-21 財團法人工業技術研究院 指向判斷系統以及指向判斷方法
JP2020160808A (ja) * 2019-03-27 2020-10-01 セイコーエプソン株式会社 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP2021056588A (ja) * 2019-09-27 2021-04-08 セイコーエプソン株式会社 位置検出装置、プロジェクター、及び位置検出方法
JP2021128657A (ja) * 2020-02-17 2021-09-02 セイコーエプソン株式会社 位置検出方法、位置検出装置及び位置検出システム
JP2021193499A (ja) * 2020-06-08 2021-12-23 セイコーエプソン株式会社 位置検出システム、位置検出装置、プロジェクター及び位置検出方法
CN111711758B (zh) * 2020-06-29 2021-06-18 广东小天才科技有限公司 多指定位的试题拍摄方法、装置、电子设备和存储介质
US11921957B2 (en) * 2021-12-08 2024-03-05 Capital One Services, Llc Follow-the-leader control of tapping devices
DE102021134446A1 (de) 2021-12-23 2023-06-29 Endress+Hauser Group Services Ag Stereoskopische Messanordnung zum Ermitteln einer Positionsinformation eines Ereignisorts in einem Überwachungsraum von einem Bezugspunkt und Verfahren zum Ermitteln einer Positionsinformation eines Ereignisorts in einem Überwachungsraum

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004523031A (ja) * 2001-01-08 2004-07-29 ヴィーケービー インコーポレイテッド データ入力装置
US20080013826A1 (en) * 2006-07-13 2008-01-17 Northrop Grumman Corporation Gesture recognition interface system

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4468694A (en) * 1980-12-30 1984-08-28 International Business Machines Corporation Apparatus and method for remote displaying and sensing of information using shadow parallax
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6775014B2 (en) * 2001-01-17 2004-08-10 Fujixerox Co., Ltd. System and method for determining the location of a target in a room or small area
US7705231B2 (en) * 2007-09-07 2010-04-27 Microsoft Corporation Automatic accompaniment for vocal melodies
US9348463B2 (en) * 2006-08-03 2016-05-24 New York University Retroreflection based multitouch sensor, method and program
JP4733600B2 (ja) 2006-08-31 2011-07-27 日本電信電話株式会社 操作検出装置とそのプログラム
JP2011180712A (ja) * 2010-02-26 2011-09-15 Sanyo Electric Co Ltd 投写型映像表示装置
US8810509B2 (en) * 2010-04-27 2014-08-19 Microsoft Corporation Interfacing with a computing application using a multi-digit sensor
US20120249422A1 (en) * 2011-03-31 2012-10-04 Smart Technologies Ulc Interactive input system and method
KR20130014774A (ko) * 2011-08-01 2013-02-12 삼성전자주식회사 디스플레이장치 및 그 제어방법
US9030445B2 (en) * 2011-10-07 2015-05-12 Qualcomm Incorporated Vision-based interactive projection system
JP6049334B2 (ja) * 2012-07-12 2016-12-21 キヤノン株式会社 検出装置、検出方法及びプログラム
CN102799318B (zh) * 2012-08-13 2015-07-29 深圳先进技术研究院 一种基于双目立体视觉的人机交互方法及系统
JP6037901B2 (ja) * 2013-03-11 2016-12-07 日立マクセル株式会社 操作検出装置、操作検出方法及び表示制御データ生成方法
US20140267031A1 (en) * 2013-03-12 2014-09-18 Kenneth J. Huebner Spatially aware pointer for mobile appliances
US20150102993A1 (en) * 2013-10-10 2015-04-16 Omnivision Technologies, Inc Projector-camera system with an interactive screen
JP6349811B2 (ja) * 2014-03-17 2018-07-04 セイコーエプソン株式会社 映像信号出力装置、映像信号出力方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004523031A (ja) * 2001-01-08 2004-07-29 ヴィーケービー インコーポレイテッド データ入力装置
US20080013826A1 (en) * 2006-07-13 2008-01-17 Northrop Grumman Corporation Gesture recognition interface system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017060993A1 (ja) * 2015-10-07 2017-04-13 日立マクセル株式会社 映像表示装置およびこれに用いる操作検出方法
JPWO2017060993A1 (ja) * 2015-10-07 2018-07-05 マクセル株式会社 映像表示装置およびこれに用いる操作検出方法
US10459577B2 (en) 2015-10-07 2019-10-29 Maxell, Ltd. Video display device and manipulation detection method used therefor
WO2019230461A1 (ja) * 2018-05-28 2019-12-05 マクセル株式会社 映像表示装置、映像表示方法

Also Published As

Publication number Publication date
US20160266722A1 (en) 2016-09-15
US10514806B2 (en) 2019-12-24
US20140253513A1 (en) 2014-09-11
JP6037900B2 (ja) 2016-12-07
CN104049792B (zh) 2017-07-11
US9367176B2 (en) 2016-06-14
CN104049792A (zh) 2014-09-17

Similar Documents

Publication Publication Date Title
JP6037900B2 (ja) 操作検出装置及び操作検出方法
JP6037901B2 (ja) 操作検出装置、操作検出方法及び表示制御データ生成方法
CN108664173B (zh) 投影型影像显示装置
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
US10642422B2 (en) Information processing apparatus, control method for the information processing apparatus, and storage medium
WO2016021022A1 (ja) 投写型映像表示装置及びその制御方法
US20130127705A1 (en) Apparatus for touching projection of 3d images on infrared screen using single-infrared camera
US20170322672A1 (en) Projection video display apparatus and video display method
US20140306934A1 (en) Optical touch panel system, optical apparatus and positioning method thereof
US20110193969A1 (en) Object-detecting system and method by use of non-coincident fields of light
JP6307576B2 (ja) 映像表示装置及びプロジェクタ
JP6199472B2 (ja) プロジェクタ及びヘッドマウント型表示装置
KR100936666B1 (ko) 적외선 스크린 방식의 투영 영상 터치 장치
US9489077B2 (en) Optical touch panel system, optical sensing module, and operation method thereof
KR20090037535A (ko) 터치스크린의 입력 처리 방법
US20240069647A1 (en) Detecting method, detecting device, and recording medium
KR20190027081A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
US20150153904A1 (en) Processing method of object image for optical touch system
WO2018211659A1 (ja) 操作検出装置、及びそれを備えた映像表示装置、映像表示方法
TW201523395A (zh) 光學觸控系統、光學感測模組及其運作方法
TW201312423A (zh) 光學觸控系統及其定位方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140908

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140912

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161101

R150 Certificate of patent or registration of utility model

Ref document number: 6037900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250