JP2014174833A - 操作検出装置及び操作検出方法 - Google Patents

操作検出装置及び操作検出方法 Download PDF

Info

Publication number
JP2014174833A
JP2014174833A JP2013048306A JP2013048306A JP2014174833A JP 2014174833 A JP2014174833 A JP 2014174833A JP 2013048306 A JP2013048306 A JP 2013048306A JP 2013048306 A JP2013048306 A JP 2013048306A JP 2014174833 A JP2014174833 A JP 2014174833A
Authority
JP
Japan
Prior art keywords
unit
shadows
user
detection
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013048306A
Other languages
English (en)
Other versions
JP6037901B2 (ja
JP2014174833A5 (ja
Inventor
Sakiko Narukawa
沙希子 成川
Takashi Matsubara
孝志 松原
Naoki Mori
直樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2013048306A priority Critical patent/JP6037901B2/ja
Priority to US14/172,030 priority patent/US10152177B2/en
Priority to CN201410057545.6A priority patent/CN104052950B/zh
Publication of JP2014174833A publication Critical patent/JP2014174833A/ja
Publication of JP2014174833A5 publication Critical patent/JP2014174833A5/ja
Application granted granted Critical
Publication of JP6037901B2 publication Critical patent/JP6037901B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】操作面上にセンサを設けることなく、操作面に対するユーザの指の接触位置を検出するとともに、指と操作面の接近度や指さし方向を検出すること。
【解決手段】影領域抽出部104は、カメラ100より得られる撮像画像の輝度を閾値と比較し、第1、第2の照明101,102で生じるユーザの指30に対する第1、第2の影401,402を抽出する。接近度検出部106は、第1、第2の影内の2つの特徴点601,602間の距離dから指の操作面22への接近度を検出し、接触点検出部107は、2つの特徴点の位置から指の操作面への接触点Pを検出する。方向検出部109は、第1、第2の影の輪郭線501,502の方向から指の指し示す方向700を検出する。さらに表示制御部121は、検出結果データ150に基づき、操作対象装置2に対する表示制御データ151を生成する。
【選択図】図1

Description

本発明は、ユーザの指操作を検出する操作検出装置及び操作検出方法に関する。
投写型映像表示装置(プロジェクタ)の投写面(スクリーン)上でのユーザ操作入力として、タッチセンサ等の特殊なデバイスを用いることなく、ユーザの操作部(指)を撮像しその影を抽出して指接触操作を検出する技術が提案されている
特許文献1には、照明手段により照らされた状態で操作者を撮像手段に撮像させる手段と、前記撮像手段により得られる操作者の画像データをもとに、前記操作者の特定部位の領域を検出する手段と、前記検出された操作者の特定部位の領域から影の部分を抽出する手段と、前記抽出された影の部分の中から、エッジが直線を成す線分を複数検出し、検出された線分同士が鋭角に交わる点を検出し、この交点を前記操作者の特定部位の領域内における指差し位置として検出する手段と、を具備する操作検出装置が記載されている。
また、特許文献2には、スクリーンに映像を投写する投写部と、少なくとも前記スクリーンに投写された映像を含む領域を撮像するための撮像部と、前記撮像部により撮像された画像から、前記スクリーン上方を移動する所定物体の実像を検出する実像検出部と、前記撮像部により撮像された画像から、前記投写部からの投写光により生じる前記所定物体の影を検出する影検出部と、前記所定物体の実像と影の対応点間の距離が所定のしきい値以下である場合、前記所定物体が前記スクリーンに接触していると判定する接触判定部と、前記接触判定部により接触していると判定されたとき、前記所定物体の座標を前記映像に対するポインティング位置として出力する座標決定部と、を備える投写型映像表示装置が記載されている。
特開2008−59283号公報 特開2011−180712号公報
特許文献1では、撮像手段により得られる操作者の画像データから影の部分を抽出し、影のエッジが鋭角に交わる点を指差し位置として検出している。しかしながら、手を開いて浮かせた状態では、ある指の影の上に他の指が重なって見えることにより、影のエッジが鋭角に交わる点が複数個発生することが予想されるため、指差し位置とは異なる点が誤って検出される恐れがある。従って、手を開いた状態で複数の指の指差し位置を同時に検出する、いわゆるマルチタッチ操作の検出には適していない。
また、特許文献2では、所定物体(指)の実像と影の対応点間の距離が所定のしきい値以下である場合、所定物体がスクリーンに接触していると判定している。しかしながら、手を開いた状態では、ある指の実像によって他の指の影の一部が見えなくなるため、指の実像と影の対応点を検出することが困難になる。さらに、手を開いて浮かせた状態では指の実像と影の距離が離れるため、例えば、ある指の実像の先端部に他の指の影の先端部が接近して、ある指の実像と影の対応点間の距離が閾値以下になったかのように見え、指がスクリーンに接触していると誤って判定される恐れがある。従って、この方式もマルチタッチ操作の検出には適していない。
また、いずれの特許文献においても、操作状態における指と操作面との間隙(接近度)の検出や指さし方向の検出に関しては何ら考慮されていない。
本発明は上記の課題を鑑み、手を開いた状態でも複数の指の接触位置をそれぞれ正しく検出するとともに、指と操作面の接近度や指さし方向を検出する操作検出装置及び操作検出方法を提供することを目的とする。
上記課題を解決するために、特許請求の範囲に記載の構成を採用する。その一例を挙げれば、本発明の操作検出装置は、操作面に異なる位置から照明光を照射する第1、第2の照明と、照明光が照射された操作面をユーザの操作部とともに撮像するカメラと、カメラより得られる撮像画像の輝度を所定の閾値と比較し、第1、第2の照明で生じるユーザの操作部に対する第1、第2の影を抽出する影領域抽出部と、抽出された第1、第2の影の形状から、ユーザの操作部の操作面に対する接近度、接触点、操作部の指し示す方向の少なくとも1つの操作状態を検出する操作状態検出部と、を備える。
好ましくは前記操作状態検出部は、抽出された第1、第2の影の中からそれぞれの特徴点を検出する特徴点検出部と、抽出された第1、第2の影の輪郭線から略直線状の線分をそれぞれの輪郭線として検出する輪郭検出部と、検出した2つの特徴点間の距離からユーザの操作部の操作面への接近度を検出する接近度検出部と、検出した2つの特徴点の位置からユーザの操作部の前記操作面への接触点を検出する接触点検出部と、検出した輪郭線の方向からユーザの操作部の指し示す方向を検出する方向検出部と、を備え、接近度検出部は、検出した2つの特徴点間の距離が所定の閾値以下となったときにユーザの操作部が操作面に接触したと判定する。
本発明によれば、操作面上にタッチセンサなどを設けることなく、操作面に対する複数の指の接触位置を正しく検出し、かつ指と操作面の接近度や指さし方向を検出することが可能となる。これより、操作対象装置への操作性が向上する。
実施例1における操作検出装置を示す構成図。 図1の変形例を示す構成図。 操作検出装置1を用いてユーザが操作を行う状態を示す図。 2つの照明で生じるユーザの指の影の形状を示す図。 ユーザの操作位置による影の形状の影響を示す図。 指と操作面の間隙と影の形状との関係を示す図。 特徴点による接近度の判定を説明する図。 特徴点による接触点の決定を説明する図。 特徴点を他の位置に設定した場合を示す図。 複数の指で操作する場合の影の形状を示す図。 輪郭線による指さし方向の決定を説明する図。 操作検出方法の処理フローを示す図。 指の接近度に応じた制御の一例を示す図。 指さし方向に応じた制御の一例を示す図。 2つ影が重なって生じる場合を示す図(実施例2)。 重なった影の分離方法を説明する図。 操作検出装置を内蔵したプロジェクタを示す構成図(実施例3)。 短投写型プロジェクタ2aの例を示す図。 ヘッドマウント型プロジェクタ2bの例を示す図。
以下、実施例を図面を用いて説明する。
実施例1では、1つのカメラと異なる位置に配置した2つの照明とを用いて、操作面に対するユーザの操作部(指)と操作面との接近度、指と操作面の接触点、指が指し示す方向(指さし方向)を検出する操作検出装置とその方法について説明する。
図1は、実施例1における操作検出装置の構成図を示す。操作検出装置1は、カメラ100、2つの照明101,102、影領域抽出部104、特徴点検出部105、接近度検出部106、接触点検出部107、輪郭検出部108、方向検出部109、制御部120、表示制御部121、出力部130を含む。制御部120は、各検出部で検出した操作面に対する指の接近度、接触点座標、指さし方向などの操作状態の検出結果データ150を生成し、また表示制御部121は、検出結果に基づき操作モード、ポインタ表示位置、ポインタ表示方向などの表示制御データ151を生成し、出力部130から操作対象装置2に出力する。操作対象装置2は例えばプロジェクタ(映像投写表示装置)であり、検出結果データ150と表示制御データ151を受け、ユーザの操作に応答して映像表示を行う。
図1では各要素100〜109、120、121、130を全て操作検出装置1の内部に構成しているが、一部の構成要素を外部に接続して構成しても良い。例えばカメラ100と照明101,102を操作検出装置1の外部に構成し、ネットワークやユニバーサルシリアルバス(USB)を介して接続しても良い。また、表示制御部121は操作検出装置1の内部ではなく、操作対象装置2側に構成しても良い。
図2は、図1の操作検出装置の変形例を示す構成図であり、操作対象装置2の内部に表示制御部205を有する場合である。この場合、操作対象装置2の表示制御部205は、操作検出装置1から出力される検出結果データ150に基づき、操作モードなどの表示制御データ151を生成することで、操作対象装置2は図1の構成と同様の制御を行うことができる。
また各構成要素100〜109、120、121、130は独立しているが、必要に応じて1または複数の構成要素で構成しても良い。例えば、要素104〜109、120、121、130は1または複数の中央処理装置(CPU)でその処理を行うように構成しても良い。
図3は、操作検出装置1を用いてユーザ3が操作を行う状態を示す図である。(a)は操作状態の正面図、(b)は操作状態の側面図である。ユーザ3は操作部である指30を、壁面21の操作面22に接近させ、またある位置に接触させることで所望の操作を行う。ここでは操作対象装置2がプロジェクタの場合を想定しており、操作面22が投写映像を表示するスクリーンとなり、ユーザはスクリーン上を操作することになる。
操作検出装置1は壁面21の上部に取り付け、2つの照明101,102はカメラ100を挟んで、壁面21の横方向の異なる位置にずらして配置する。2つの照明101,102でユーザ3の指30を照射し、カメラ100により指30とその近傍を撮像する。指30が操作面22に接近または接触すると指30の影の形状が変化することから、操作検出装置1はカメラ100の画像を解析し、指の接近度、接触点、指さし方向を検出する。
次に、操作検出装置1の各部の動作を説明する。カメラ100は、イメージセンサ、レンズなどで構成され、ユーザ3の操作部である指30を含む画像を撮像する。2つの照明101,102は、発光ダイオード、回路基板、レンズなどで構成され、操作面22およびユーザ3の指30に照明光を照射して、カメラ100で撮像する画像内に指30の影を投影するものである。なお、照明101,102は赤外光照明とし、カメラ100は赤外光カメラで構成しても良い。これにより、カメラ100で撮像する赤外光画像を、操作対象装置2(プロジェクタ)で投写される可視光映像から分離して取得することができる。
影領域抽出部104は、カメラ100で得られた画像から影領域を抽出し影画像を生成する。例えば、操作検出時の撮像画像から予め撮像した操作面22の背景画像を減算して差分画像を生成し、差分画像の輝度を所定の閾値Lthで二値化して、閾値以下の領域を影領域とすれば良い。さらに、抽出した影に対して互いに連結していない影の領域をそれぞれ別の影として区別する、いわゆるラベリング処理を行う。ラべリング処理により、抽出した複数の影についてどの指に対応するか、すなわち1本の指に対応する対となる2つの影を識別することができる。
特徴点検出部105は、影領域抽出部104で抽出した影画像内の特定の位置(以下、特徴点と呼ぶ)を検出する。例えば特徴点として、影画像内の先端位置(指先位置に対応)を検出する。特徴点検出のためには種々の手法が用いられるが、先端位置の場合はその影画像を構成する画素の座標データから検出可能であり、あるいは特徴点の持つ特有の形状に一致する部分を画像認識などにより検出することでも可能である。特徴点は1つの影から1箇所検出するので、1本の指(2つの影)に対しては2か所検出される。
接近度検出部106は、特徴点検出部105で検出した2つの特徴点間の距離dを測定し、距離dに基づいて指と操作面との間隙s(接近度A)を検出する。これにより、指が操作面に接触しているか、接触していないかを判定する。
接触点検出部107は、接近度検出部106により指が操作面に接触していると判定した場合、その特徴点の位置に基づいて、操作面に対する指の接触点を検出し、その座標を算出する。
輪郭検出部108は、影領域抽出部104で抽出した影画像から影領域の輪郭を抽出する。例えば、影画像内を一定の方向に走査して輪郭追跡の開始画素を決定し、開始画素の近傍画素を反時計回りで追跡することで輪郭が得られる。
方向検出部109は、輪郭検出部108で検出した輪郭線からほぼ直線状の線分を抽出する。そして、抽出した輪郭線の方向に基づいて、操作面上の指の指さし方向を検出する。
なお、上記した各検出部の処理は、上記手法に限らず、他の画像処理のアルゴリズムを用いても良い。また、上記した各検出部は、回路基板によるハードウェアだけでなく、ソフトウェアで構成することもできる。
制御部120は、装置全体の動作を制御し、各検出部で検出した操作面に対する指の接近度、接触点座標、指さし方向などの検出結果データ150を生成する。
表示制御部121は、制御部120で生成した指の接近度、接触点座標、指さし方向などの検出結果データ150に基づいて、操作対象装置2(プロジェクタ)に対する操作モード、ポインタ位置、ポインタ方向などの表示制御データ151を生成する。
出力部130は、生成した検出結果データ150や表示制御データ151を操作対象装置2に出力するインタフェースであり、ネットワーク接続やユニバーサルシリアルバス(USB)接続、超音波ユニット、赤外線通信装置などで構成される。
図4は、2つの照明で生じるユーザの指の影の形状を示す図である。(a)は指30と操作面22が接触していない状態、(b)は接触している状態であり、それぞれ操作面22の上方から見た上面図とカメラ画像を示す。
(a)に示すように指30が操作面22に接触していない状態(間隙s)では、2つの照明101,102からの光は指30で遮断され、それぞれ影402,401(斜線で示す)が形成される。カメラ画像では、2つの影401,402は指30の両側に互いに離れて存在する。
一方(b)に示すように指30の指先が操作面22に接触している状態(間隙s=0)では、2つの影401,402は、指30の指先の位置で接近して存在する。なお、影401,402の一部領域は指30の陰に隠れているが、この隠れた部分は影領域には含めない。本実施例では、指30が操作面22に接近すると影401と影402と間隔(特に特徴点間の距離)が接近する性質を利用して、指30と操作面22との接触を判定するものである。
図5は、ユーザの操作位置による影の形状の影響を示す図である。ここでは、ユーザの操作位置が操作面22の中央から左側にずれた場合(ユーザ位置3)と、右側にずれた場合(ユーザ位置3’)のカメラ画像を比較している。このときカメラ100から見たユーザの操作位置は変化するが、それらのカメラ画像では、指30(30’)に対する影401(401’),402(402’)の位置関係は変わらない。すなわち、ユーザ操作位置に関係なく、常に指30(30’)の両側に影401(401’)と402(402’)が存在する。これは、カメラ100と照明101,102の位置関係により一義的に決定されるからである。従って、ユーザが操作面22に対してどの位置で操作しても2つの影401,402の検出が可能であり、本実施例の操作検出方法が有効に適用できる。
図6は、指と操作面の間隙と影の形状との関係を示す図である。指30の両側に形成される2つの影401,402の間隔は、指30と操作面22との間隙sによって変化する。2つの影401,402の間隔を定義するために、それぞれの影401,402の内部に特徴点601,602(×印で示す)を設定し、特徴点間の距離dを測定する。ここでは影の先端位置(指先位置)に特徴点を設定している。指30と操作面22の間隙sが大きい場合には、2つの影401,402の間隔は大きく、2つの特徴点601,602の距離dも大きい。指30が操作面22に接近するに従い、特徴点601,602の距離dは小さくなり、指30が操作面22に接触すると(間隙s=0)、特徴点601,602の距離dは最小値となる。
図7は、接近度検出部106における接近度の判定を説明する図である。ここでは、特徴点間の距離dに基づき指の接近度Aの判定を行う。指の接近度Aを判定するために、特徴点間の距離dに対する4個の閾値d1,d2,d3,d4(ただし、d1<d2<d3<d4)を定める。これにより接近度Aを5段階(レベル1〜5)に分類し、レベル値が大きいほど、指30と操作面22との間隙sが小さいものとする。まず、指30が操作面22に接触した状態(間隙s=0)を識別するための閾値d1を定め、距離d<d1の場合には、接近度Aは最大レベル5(接触状態)であると判定する。それ以外の非接触状態については、閾値d2〜d4を用いて接近度Aを4段階(レベル4〜1)に分類する。このうちd>d4の場合は、接近度Aは最小レベル1であると判定する。この例では4個の閾値により接近度を5段階に分類したが、接近度の分類数はこれに限らず、制御内容に合わせて適宜設定すれば良い。
図8は、接触点検出部107における接触点の決定を説明する図である。指30が操作面22に接触した状態での影401,402の形状を示し、ここでは特徴点601,602を、それぞれの影401,402の先端位置に設定している。この場合は、2つの特徴点601,602は接触点である指先位置に近いことから、2つの特徴点601,602の中点Pを指30と操作面22との接触点と見なし、その座標を算出することができる。
上記の例では、特徴点601,602を、それぞれの影401,402の先端位置に設定しているが、この方法によれば特徴点の設定が容易であり、また、接触点Pの位置もその近傍に存在するので容易に決定できる。
図9は、特徴点を他の位置に設定した場合を示す図である。図8では特徴点601,602を影401,402の先端位置に設定したのに対し、図9では各影の長手方向中間位置に特徴点601’,602’を設定している。この場合にも、影401,402の間隔の変化に伴い特徴点601’,602’間の距離d’が変化するので、指30と操作面22の接近度Aの判定を行うことができる。なお、この場合の接触点P’は特徴点601’,602’の位置から長手方向にずれることになるので、特徴点601’,602’から予想される接触点P’までの距離(補正量)を予め求めておき、これで補正することで接触点P’を求めることが可能である。同様にして、特徴点を影401,402内のこれ以外の位置に設定することもできる。
図10は、複数の指で操作する場合の影の形状を示す図である。手を開いた状態で複数の指31,32・・・を操作面に接触させた際に、各指に対し、左側の影411,421・・・と、右側の影412,422・・・が形成される。そして、各影に対して特徴点を設定する。ここでは、影411,412に対する特徴点611,612と、影421,422に対する特徴点621,622を示す。対応する特徴点611,612、あるいは特徴点621,622間の距離dを測定することで、それぞれの指31,32の接近度や接触点を求めることができる。これより本実施例によれば、手を開いた状態でも複数の指についての接触を独立して検出できるので、マルチタッチ操作に適用可能となる。
図11は、方向検出部109における指さし方向の決定を説明する図である。指30の方向(指さし方向)を傾けたときの影401,402の形状を示し、指さし方向の変化に伴って影401,402の向きも変化する。指さし方向を検出するために、まず輪郭検出部108にて影401,402に対する輪郭線501,502を検出する。なお、輪郭線の検出では、指先などの曲線部分を除去して、略直線状の線分からなる輪郭線を検出する。その後、方向検出部109は次の方法で指さし方向を決定する。
(a)では、影401,402に対する内側の輪郭線501,502を使用する。そして、内側の輪郭線501,502の傾き方向701,702のいずれかを指さし方向として決定する。
(b)では、影401,402に対する外側の輪郭線501’,502’を使用する。そして、外側の輪郭線501’,502’の傾き方向701’,702’のいずれかを指さし方向として決定する。
(c)では、影401,402に対する内側の輪郭線501,502を使用する。そして、内側の輪郭線501,502の中線の傾き方向703を指さし方向として決定する。この場合には2つの輪郭線501,502の平均方向から求めるので、より精度が高くなる。なお、外側の輪郭線501’,502’の中線方向を指さし方向としても良い。
図12は、実施例1における操作検出方法の処理フローを示す図である。(a)は接近度と接触点の検出、(b)は指さし方向の検出の場合である。
まず、(a)の接近度と接触点の検出方法から説明する。
S1001では、影領域抽出部104は、カメラ100で撮像した画像から背景を減算して差分画像を求め、輝度が閾値Lth以下の部分を影領域として抽出する。その際、抽出した影に対して互いに連結していない影の領域をそれぞれ別の影として区別する、いわゆるラベリング処理を行う。
S1002では、特徴点検出部105は、ラベリング処理した各影に対して特徴点を検出する。例えば図6のように、各影401,402の先端位置を特徴点601,602として検出する。
S1003では、検出した2つの特徴点601,602間の距離dを測定する。
S1004では、接近度検出部106は、距離dに基づいて指30と操作面22の接近度Aを判定する。判定では、例えば図7を用いて距離dを閾値d1〜d4と比較し、接近度Aをレベル1〜5に分類する。そしてd<d1の場合は、接近度A=5(接触状態)と判定する。
S1005では、判定した接近度Aは接触時のレベル(=5)かどうかを判定する。判定結果が接近度A=5であればS1006へ進み、それ以外(非接触状態)の場合は終了する。
S1006では、接触点検出部107は、指30と操作面22の接触点を検出する。例えば図8のように、2つの特徴点601,602の中点Pを接触点とし、その座標を算出する。特徴点の設定方法が上記(先端位置)と異なる場合は、その設定方法に応じて接触点位置を補正すれば良い。
なお、操作状態においては以上の処理フローを繰り返して実行し、操作状態の変化に追従した操作検出を行うものとする。
次に、(b)の指さし方向の検出方法を説明する。
S1011では、影領域抽出部104は、カメラ100で撮像した画像から背景を減算して差分画像を求め、輝度が閾値Lth以下の部分を影領域として抽出する。これは前記S1001と同様である。
S1012では、輪郭検出部108は、ラベリング処理した各影に対して輪郭線(略直線部)を検出する。例えば図11(c)のように、影401,402の内側の輪郭線501,502を検出する。その際、これらの輪郭線のうち指先などの曲線部分を除去して、略直線状の線分を検出する。
S1013では、方向検出部109は、各輪郭線501,502の中線の傾き方向703を指さし方向と判定する。なお、指さし方向の判定は、図11(a)(b)に示す方法でも良い。
なお、操作状態においては以上の処理フローを繰り返して実行し、操作状態の変化に追従した操作検出を行うものとする。
また、図12(a)の接近度と接触点の検出処理と(b)の指さし方向検出処理は、並行して行うことができる。
図13は、表示制御部121における指の接近度に応じた制御の一例を示す図である。指30と操作面22との接近度Aに応じて、操作モードとポインタ表示の切り替えを示している。
操作モードに関しては、接近度Aが最も高いレベル5(接触状態)では接触操作モードとする。それ以外の非接触状態で接近度Aが比較的高いレベル4,3では空中操作モードに、接近度Aが比較的低いレベル2,1では操作オフモードに切り替える。このような制御により、ユーザ3は指30を操作面22に接触させた状態に加え、操作面22から浮かせた状態においても操作対象装置2の操作が可能となる。また、指30が操作面22から一定距離以上離れている場合には、操作オフモードに切り替わり、ユーザの意図しない操作を防ぐことができる。
またポインタ表示に関しては、接近度Aが比較的高いレベル5、4ではポインタを表示し、接近度Aが比較的低い3,2,1ではポインタを表示しないように切り替える。このような制御により、ユーザ3は指30が操作面22に接触する前の段階でポインタを確認することができ、接触時のポインタの位置を合わせ易くなる。以上の制御により、操作対象装置2への操作性が向上する。
図14は、表示制御部121における指さし方向に応じた制御の一例を示す図である。
(a)は、指さし方向700に応じてポインタ800の表示位置を補正する場合である。ポインタ800を表示する際、接触点検出部107において検出した接触点Pと全く同じ位置に表示すると、ポインタ800が指30に隠れてユーザ3から見えにくくなる。そこで、方向検出部109で検出した指さし方向700に沿ってポインタ800を指先前方に所定量だけずらして表示する。これによりポインタ800はユーザ3から見やすくなる。
また、上記に加えて、指30の接近度Aに応じてポインタ800の表示位置のずらし量(補正量)を変更しても良い。例えば接近度Aが低いときには補正量を大きくし、接近度Aが高いときには補正量を小さくする。これにより、ユーザ3の指30が操作面22に近づくに従ってポインタ800の位置が指先に近づき、ユーザ3はポインタ800の表示位置を目安にすることで精度の良い操作ができるようになる。
(b)は、指さし方向700に応じてポインタ800の表示方向を補正する場合である。矢印形状のポインタ800を表示する際、例えば(a)のように指さし方向700と無関係に常に一定の方向に表示すると、ポインタ800の表示方向が指さし方向700と一致せずユーザ3に対し違和感を与えることがある。そこで、方向検出部109において検出した指さし方向700にポインタ800の表示方向を合わせて表示する。これにより指さし方向700との不一致がなくなり、ユーザ3に対する違和感を解消できる。
(c)は、指さし方向700に応じて接触点の位置を補正する場合である。接触点検出部107において検出される接触点Pは特徴点の位置から決定されるので、実際に操作面22と接触する位置からずれることがある。例えば、特徴点を影の先端位置とする場合、実際の接触位置(指の腹の部分となることが多い)よりも指の先端側(爪先)の位置にずれてしまう。そこで、方向検出部109において検出した指さし方向700に沿って、指の付け根側に接触点位置を所定量だけ補正する(P→P”)。これにより、指30と操作面22の接触点をより正確に取得することができる。
上述したように実施例1の操作検出装置では、1つのカメラと2つの照明とを用いて、操作部である指に対する2つの影の形状を解析し、指と操作面の接近度、接触点座標、指さし方向などを検出し、検出結果データとして操作対象装置に出力する。また、検出結果に基づき、操作モード、ポインタ表示位置、ポインタ表示方向などを切り替えるための表示制御データを操作対象装置に出力する。本実施例によれば、操作面上にタッチセンサなどを設けることなく、操作面に対する複数の指の接触位置を正しく検出し、かつ指と操作面の接近度や指さし方向を検出することが可能となる。これにより、操作対象装置への操作性が向上する。なお、ポインタの表示機能は操作対象装置の種類に応じて採用すればよく、例えばタブレット端末では必須ではない。
なお、本実施例では2つの影内にそれぞれ特徴点を定め、特徴点間の距離と特徴点の位置に基づき接近度や接触点を検出した。これに代わる他の方法として、2つの影に輪郭線を定め、輪郭線間の距離に基づき接近度や接触点を検出することも可能である。
前記実施例1では、2つの照明101,102により生じる指に対する2つの影401,402が、指の両側に離れて存在する場合を前提とした。これに対し実施例2では、2つの照明101,102の配置が変更された結果、2つの影の一部が重なって存在する場合において、2つの影を分離する方法を説明する。2つの影を分離することで、実施例1と同様に指と操作面の接近度、接触点座標、指さし方向などを検出することができる。
図15は、実施例2において2つの影が重なって存在する場合の影の形状を示す図である。ここでは、2つの照明101,102がカメラ100に対して同じ側(図では左側)に設置され、その結果2つの影403,404は、指30に対して同じ側(右側)に形成されてその一部が重なっている。
(a)は指30が操作面22に接触していない場合である。上面図において、照明102,101からの光が指30で遮断され、3つの影403,404,405ができる。このうち影405は、両方の照明102,101が遮断された領域である。カメラ画像では、指30の右側に、照明102によって形成される薄い影403と、照明101によって投影される薄い影404と、それらの間に両者が重なった濃い影405が形成される。
(b)は指30が操作面22に接触している場合である。この場合は、指30の右側に、照明101による薄い影404と、それに隣接する濃い影405が指30に接近して存在する。
図16は、重なった影の分離方法を説明する図である。影領域検出部104は、検出された影をその濃度の違いを利用して元の2つの影に分離する。
(a)は検出された影を示し、ここでは図15(a)の場合を取り上げる。上記したように、薄い影403,404と濃い影405が存在するが、濃い影405は薄い影403,404が重なって生じたものである。
(b)は影の分離法を示すもので、照明102によって生じる影は、薄い影403と濃い影405を加算して第1の領域401’として求める。また照明101によって生じる影は、薄い影404と濃い影405を加算して第2の領域402’として求める。このように、影濃度を2段階で識別して濃度毎の領域に区分しておき、薄い影の領域とこれに隣接する濃い影の領域を加算することで照明毎に生じる影401’,402’に分離することができる。
(c)は、分離した影401’,402’に対して特徴点601,602を定め、特徴点間の距離dを求める場合を示す。
(d)は、分離した影401’,402’に対して輪郭線501,502を定め、指さし方向703を求める場合を示す。
このように実施例2では、カメラ100に対する照明101,102の配置が変更された結果、2つの影401’,402’の一部が重なった場合においても、元の2つの影401’,402’に分離することが可能であり、実施例1と同様に接近度、接触点、指さし方法を検出することができる。よって、照明の配置に関し自由度が増す。
なお、本実施例では影の濃度の違いを利用して2つの影401’,402’に分離したが、他の方法として、照明101と照明102とを交互に点灯させ、1フレームごとに影が切り替わる画像を取り込んで影を分離することができる。あるいは、照明101と照明102の光の波長が異なるようにし、それぞれの波長に適応するカメラを用いることで影を分離することができる。
実施例3では、前記した操作検出装置1を内蔵したプロジェクタの構成について説明する。
図17は、実施例3におけるプロジェクタ2a(2b)の構成図を示す。ここにプロジェクタ2a(2b)は、実施例1(図1)で述べた操作検出装置1を内蔵するとともに、プロジェクタ機能として映像投写をするための構成が加えられている。プロジェクタの機能として、中央処理部201、操作解析部202、メモリ203、映像制御部204、映像投写部210などを有する。
中央処理部201は、中央処理装置(CPU)等の半導体チップや、オペレーティングシステム(OS)等のソフトウェアで構成され、操作解析部202で解析されるユーザの操作などに基づいて、メモリ203への情報の入出力や、映像制御部204、映像投写部210等の各部を制御する。また、操作検出装置1の出力部130から得られる表示制御データ151(操作モード)に基づき、操作モードを接触操作モード、空中操作モード、操作オフモードの間で切り替える。
操作解析部202は、回路基板やソフトウェアで構成され、操作検出装置1の出力部130から得られる検出結果データ150(接近度、接触点、指さし方向)に基づき、投写中の映像に対するユーザの操作内容を解析する。
メモリ203は、半導体などで構成され、中央処理部201の演算や制御に必要な情報や、投写映像として表示する映像情報などを記憶する。
映像制御部204は、回路基板などで構成され、中央処理部201の制御に応じて、映像情報の描画に必要な演算処理を行い、映像投写部210の入力に適した形式で、画素の集合からなる描画情報を出力する。また、操作検出装置1の出力部130から得られる表示制御データ151(ポインタ位置、ポインタ方向)に基づき、映像に重畳するポインタの描画条件を変更する。
映像投写部210は、ランプ等の光源や、レンズ、反射ミラー等の光学部品や、液晶パネル等から構成され、光源から出射される光束を変調して、映像制御部204から送られる描画情報に応じた画像光を形成し、スクリーン等の投写面上に画像光を拡大投写する。
なお、図17の各部は独立しているが、必要に応じて1または複数の構成要件で構成しても良い。例えば、201〜204は、1または複数の半導体チップ(System-on-a-chip:SoC等)でその処理を行うように構成しても良い。
図18は、前記プロジェクタとして短投写型プロジェクタ2aの例を示し、(a)は正面図、(b)は側面図である。短投写型プロジェクタ2aは壁面21上部に取り付けられる。映像投写部210からは、GUI等の所定の映像信号に基づき投写光23aを出射することにより、壁面21のスクリーン22’に投写映像23を映し出す。ユーザ3は操作面を兼ねるスクリーン22’上で指操作することで、投写映像23に対して所望の制御を行うことができる。
ユーザ3が投写映像23の任意の箇所に指30を触れる、あるいは指を近づけることにより、操作検出装置1は指の影画像から接近度、接触点、指さし方向などを検出して、検出データ150を中央処理部201を介して操作解析部202に送る。操作解析部202は投写映像23に対する操作内容を解析し、中央処理部201はユーザの操作に応じて映像の変更等の処理を実行する。また、操作検出装置1は、検出データ150に基づき表示制御データ151(操作モード、ポインタ位置、ポインタ方向)を生成し、中央処理部201を介して映像制御部204に送る。このように、プロジェクタ2aに前記操作検出装置1を内蔵することにより、ユーザは投写映像に対して効率良く操作を行うことができる。
図19は、前記プロジェクタの他の構成として、ヘッドマウント型プロジェクタ2bの例を示し、(a)は外観図、(b)は上面図である。ヘッドマウント型プロジェクタ2bでは、眼鏡型の筐体には小型プロジェクタ本体20が取り付けられ、眼鏡のレンズ面に投写光23aを出射することで映像23を映し出し、ユーザは映像を見ることができる。
また、眼鏡型の筐体の両端には照明101及び照明102が取り付けられ、筐体の中央にはカメラ100が取り付けられ、ユーザの視線の先にある操作面22を照射するとともに、操作面22に対するユーザの指操作を撮像しその接近度や接触点などを検出することができる。
これにより、小型プロジェクタ本体20により眼鏡のレンズ面に投写される映像23とユーザが操作する操作面22とが、ユーザの視界において重なり、あたかも操作面22上に映像が表示されているかのように振る舞う。すなわち、小型プロジェクタ本体20が映像を表示した場合、ユーザは操作面22に対し指操作を行うことで、表示される映像に対する操作制御を行うことができる。
上記したように、操作検出装置1を内蔵するプロジェクタ2a,2bにおいては、映像の投写面にセンサなどを設けることなく、マルチタッチ操作を含めユーザは投写映像に対して効率良く操作を行うことができ、プロジェクタの使い勝手が向上する。
なお、上述した本実施形態は本発明の説明のための例示であり、本発明の範囲を実施形態にのみ限定する趣旨ではない。
1:操作検出装置、
100:カメラ、
101,102:照明、
104:影領域抽出部、
105:特徴点検出部、
106:接近度検出部、
107:接触点検出部、
108:輪郭検出部、
109:方向検出部、
120:制御部、
121:表示制御部、
130:出力部、
150:検出結果データ、
151:表示制御データ、
2:操作対象装置(プロジェクタ)、
2a:短投写型プロジェクタ、
2b:ヘッドマウント型プロジェクタ、
20:小型プロジェクタ本体、
21:壁面、
22:操作面、
23:投写映像、
23a:投写光、
201:中央処理部、
202:操作解析部、
203:メモリ、
204:映像制御部、
210:映像投写部、
3:ユーザ、
30,31,32:指、
401,402,403,404,405:影、
501,502:輪郭線、
601,602:特徴点、
700,701,702,703:指さし方向、
800:ポインタ、
P:接触点。

Claims (12)

  1. 操作面に対するユーザの操作を検出する操作検出装置において、
    前記操作面に異なる位置から照明光を照射する第1、第2の照明と、
    前記照明光が照射された前記操作面を前記ユーザの操作部とともに撮像するカメラと、
    該カメラより得られる撮像画像の輝度を所定の閾値と比較し、前記第1、第2の照明で生じる前記ユーザの操作部に対する第1、第2の影を抽出する影領域抽出部と、
    前記抽出された第1、第2の影の形状から、前記ユーザの操作部の前記操作面に対する接近度、接触点、操作部の指し示す方向の少なくとも1つの操作状態を検出する操作状態検出部と、
    を備えることを特徴とする操作検出装置。
  2. 請求項1に記載の操作検出装置であって、
    前記操作状態検出部は、
    前記抽出された第1、第2の影の中からそれぞれの特徴点を検出する特徴点検出部と、
    前記抽出された第1、第2の影の輪郭線から略直線状の線分をそれぞれの輪郭線として検出する輪郭検出部と、
    前記検出した2つの特徴点間の距離から前記ユーザの操作部の前記操作面への接近度を検出する接近度検出部と、
    前記検出した2つの特徴点の位置から前記ユーザの操作部の前記操作面への接触点を検出する接触点検出部と、
    前記検出した輪郭線の方向から前記ユーザの操作部の指し示す方向を検出する方向検出部と、を備え、
    前記接近度検出部は、前記検出した2つの特徴点間の距離が所定の閾値以下となったときに前記ユーザの操作部が前記操作面に接触したと判定することを特徴とする操作検出装置。
  3. 請求項2に記載の操作検出装置であって、
    前記特徴点検出部は、前記抽出された第1、第2の影の中で前記操作部の先端位置を前記特徴点として検出し、
    前記接触点検出部は、前記検出した2つの特徴点の中点位置を前記接触点として検出することを特徴とする操作検出装置。
  4. 請求項2に記載の操作検出装置であって、
    前記影領域抽出部は、前記抽出された第1、第2の影が重なって抽出された場合、薄い影の領域とこれに隣接する濃い影の領域を加算することで、前記第1、第2の照明により生じる第1、第2の影に分離することを特徴とする操作検出装置。
  5. 請求項1または2に記載の操作検出装置であって、
    前記操作状態検出部により検出した接近度、接触点、操作部の指し示す方向の検出結果に基づき、当該操作検出装置に接続された操作対象装置に対する表示制御データを生成する表示制御部を備えることを特徴とする操作検出装置。
  6. 請求項5に記載の操作検出装置であって、
    前記表示制御部の生成する前記表示制御データには、操作モードの切替、ポインタ表示位置の補正、ポインタ表示方向の補正、接触点位置の補正の少なくとも1つを含むことを特徴とする操作検出装置。
  7. 操作面に対するユーザの操作を検出する操作検出方法において、
    第1、第2の照明により前記操作面に異なる位置から照明光を照射し、
    カメラにより前記照明光が照射された前記操作面を前記ユーザの操作部とともに撮像し、
    該カメラより得られる撮像画像の輝度を所定の閾値と比較し、前記第1、第2の照明で生じる前記ユーザの操作部に対する第1、第2の影を抽出し、
    前記抽出された第1、第2の影の形状から、前記ユーザの操作部の前記操作面に対する接近度、接触点、操作部の指し示す方向の少なくとも1つの操作状態を検出することを特徴とする操作検出方法。
  8. 請求項7に記載の操作検出方法であって、
    前記操作状態の検出のために、
    前記抽出された第1、第2の影の中からそれぞれの特徴点を検出し、
    前記抽出された第1、第2の影の輪郭線から略直線状の線分をそれぞれの輪郭線として検出し、
    前記検出した2つの特徴点間の距離から前記ユーザの操作部の前記操作面への接近度を検出し、
    前記検出した2つの特徴点の位置から前記ユーザの操作部の前記操作面への接触点を検出し、
    前記検出した輪郭線の方向から前記ユーザの操作部の指し示す方向を検出するものであって、
    前記検出した2つの特徴点間の距離が所定の閾値以下となったときに前記ユーザの操作部が前記操作面に接触したと判定することを特徴とする操作検出方法。
  9. 請求項8に記載の操作検出方法であって、
    前記特徴点の検出では、前記抽出された第1、第2の影の中で前記操作部の先端位置を前記特徴点として検出し、
    前記接触点の検出では、前記検出した2つの特徴点の中点位置を前記接触点として検出することを特徴とする操作検出方法。
  10. 請求項8に記載の操作検出方法であって、
    前記影領域の抽出では、前記抽出された第1、第2の影が重なって抽出された場合、薄い影の領域とこれに隣接する濃い影の領域を加算することで、前記第1、第2の照明により生じる第1、第2の影に分離することを特徴とする操作検出方法。
  11. 請求項7または8に記載の操作検出方法であって、
    前記操作状態として検出した接近度、接触点、操作部の指し示す方向の検出結果に基づき、操作対象装置に対する表示制御データを生成することを特徴とする操作検出方法。
  12. 請求項11に記載の操作検出方法であって、
    前記表示制御データには、操作モードの切替、ポインタ表示位置の補正、ポインタ表示方向の補正、接触点位置の補正の少なくとも1つを含むことを特徴とする操作検出方法。
JP2013048306A 2013-03-11 2013-03-11 操作検出装置、操作検出方法及び表示制御データ生成方法 Active JP6037901B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013048306A JP6037901B2 (ja) 2013-03-11 2013-03-11 操作検出装置、操作検出方法及び表示制御データ生成方法
US14/172,030 US10152177B2 (en) 2013-03-11 2014-02-04 Manipulation detection apparatus, manipulation detection method, and projector
CN201410057545.6A CN104052950B (zh) 2013-03-11 2014-02-20 一种投影仪

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013048306A JP6037901B2 (ja) 2013-03-11 2013-03-11 操作検出装置、操作検出方法及び表示制御データ生成方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016213934A Division JP6307576B2 (ja) 2016-11-01 2016-11-01 映像表示装置及びプロジェクタ

Publications (3)

Publication Number Publication Date
JP2014174833A true JP2014174833A (ja) 2014-09-22
JP2014174833A5 JP2014174833A5 (ja) 2015-11-12
JP6037901B2 JP6037901B2 (ja) 2016-12-07

Family

ID=51487289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013048306A Active JP6037901B2 (ja) 2013-03-11 2013-03-11 操作検出装置、操作検出方法及び表示制御データ生成方法

Country Status (3)

Country Link
US (1) US10152177B2 (ja)
JP (1) JP6037901B2 (ja)
CN (1) CN104052950B (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016092617A1 (ja) * 2014-12-08 2016-06-16 日立マクセル株式会社 投射型映像表示装置及び映像表示方法
JP2016170709A (ja) * 2015-03-13 2016-09-23 シャープ株式会社 タッチ検出装置
JP2016186680A (ja) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法
JP2016186674A (ja) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
JP2018025916A (ja) * 2016-08-09 2018-02-15 本田技研工業株式会社 車載用操作装置
WO2018211659A1 (ja) * 2017-05-18 2018-11-22 マクセル株式会社 操作検出装置、及びそれを備えた映像表示装置、映像表示方法
US10459577B2 (en) 2015-10-07 2019-10-29 Maxell, Ltd. Video display device and manipulation detection method used therefor
US10677448B2 (en) 2015-09-28 2020-06-09 Maxell, Ltd. Lighting device

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9921687B2 (en) * 2012-10-02 2018-03-20 Autodesk, Inc. Always-available input through finger instrumentation
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
JP6037900B2 (ja) * 2013-03-11 2016-12-07 日立マクセル株式会社 操作検出装置及び操作検出方法
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
CN106406507B (zh) * 2015-07-30 2020-03-27 株式会社理光 图像处理方法以及电子设备
CN106556963A (zh) * 2015-09-24 2017-04-05 北京京东尚科信息技术有限公司 投影装置以及投影方法
JP6538871B2 (ja) * 2015-11-13 2019-07-03 マクセル株式会社 操作検出装置、操作検出方法、及び映像表示システム
CN106201177B (zh) * 2016-06-24 2019-10-15 维沃移动通信有限公司 一种操作执行方法及移动终端
CN107844250A (zh) * 2016-09-18 2018-03-27 中兴通讯股份有限公司 一种控制方法、装置及终端
US11002855B2 (en) 2016-12-27 2021-05-11 Microvision, Inc. Occlusion-based height estimation
US10761188B2 (en) * 2016-12-27 2020-09-01 Microvision, Inc. Transmitter/receiver disparity for occlusion-based height estimation
KR101965322B1 (ko) 2017-08-31 2019-04-04 주식회사 화승알앤에이 호스의 후가공 방법 및 장치
JP7109193B2 (ja) * 2018-01-05 2022-07-29 ラピスセミコンダクタ株式会社 操作判定装置及び操作判定方法
CN110580426A (zh) * 2018-06-08 2019-12-17 速感科技(北京)有限公司 机器人的人机交互方法及机器人
CN111127537A (zh) * 2018-10-29 2020-05-08 托比股份公司 用于检测头戴式装置中的阴影的方法和装置
US11698457B2 (en) 2019-09-04 2023-07-11 Pixart Imaging Inc. Object detecting system and object detecting method
JP2021056588A (ja) * 2019-09-27 2021-04-08 セイコーエプソン株式会社 位置検出装置、プロジェクター、及び位置検出方法
JP7442940B2 (ja) * 2020-07-07 2024-03-05 アルプスアルパイン株式会社 近接検知装置
CN114596582B (zh) * 2022-02-28 2023-03-17 北京伊园未来科技有限公司 一种带视觉和力反馈的增强现实交互方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080013826A1 (en) * 2006-07-13 2008-01-17 Northrop Grumman Corporation Gesture recognition interface system
JP2009250772A (ja) * 2008-04-04 2009-10-29 Sony Corp 位置検出システム、位置検出方法、プログラム、物体判断システム、および物体判断方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2941395A1 (de) * 1979-10-12 1981-04-23 Philips Patentverwaltung Gmbh, 2000 Hamburg Vorrichtung zur erzeugung von schichtbildern aus vielfachperspektivbildern mit unterschiedlichem ueberlagerungsgrad
KR20040024124A (ko) * 2002-09-13 2004-03-20 삼성전자주식회사 두 액정 판넬 컬러 스위칭 투사 장치
WO2006003590A2 (en) 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. A method and device for preventing staining of a display device
US20060017720A1 (en) * 2004-07-15 2006-01-26 Li You F System and method for 3D measurement and surface reconstruction
JP2008052062A (ja) * 2006-08-24 2008-03-06 Ricoh Co Ltd 表示装置、表示装置の表示方法、プログラム及び記録媒体
JP4733600B2 (ja) 2006-08-31 2011-07-27 日本電信電話株式会社 操作検出装置とそのプログラム
CN101971129A (zh) * 2008-02-11 2011-02-09 奈克斯特控股有限公司 解决光学触摸屏的多点触摸情景的系统和方法
EP2282254A1 (en) * 2008-05-12 2011-02-09 Sharp Kabushiki Kaisha Display device and control method
US8591039B2 (en) * 2008-10-28 2013-11-26 Smart Technologies Ulc Image projection methods and interactive input/projection systems employing the same
US8379101B2 (en) * 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US20120182268A1 (en) * 2009-10-26 2012-07-19 Sharp Kabushiki Kaisha Position detection system, display panel, and display device
JP2011180712A (ja) 2010-02-26 2011-09-15 Sanyo Electric Co Ltd 投写型映像表示装置
AU2011220382A1 (en) * 2010-02-28 2012-10-18 Microsoft Corporation Local advertising content on an interactive head-mounted eyepiece
US20110298722A1 (en) * 2010-06-04 2011-12-08 Smart Technologies Ulc Interactive input system and method
US20120249463A1 (en) * 2010-06-04 2012-10-04 Smart Technologies Ulc Interactive input system and method
JP5434997B2 (ja) * 2010-10-07 2014-03-05 株式会社ニコン 画像表示装置
KR20120071551A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 구조 영상을 이용한 사용자 인터랙션 장치 및 방법
US9250745B2 (en) * 2011-01-18 2016-02-02 Hewlett-Packard Development Company, L.P. Determine the characteristics of an input relative to a projected image
US9070019B2 (en) * 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8638989B2 (en) * 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9285893B2 (en) * 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080013826A1 (en) * 2006-07-13 2008-01-17 Northrop Grumman Corporation Gesture recognition interface system
JP2009250772A (ja) * 2008-04-04 2009-10-29 Sony Corp 位置検出システム、位置検出方法、プログラム、物体判断システム、および物体判断方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016092617A1 (ja) * 2014-12-08 2016-06-16 日立マクセル株式会社 投射型映像表示装置及び映像表示方法
JPWO2016092617A1 (ja) * 2014-12-08 2017-09-21 日立マクセル株式会社 投射型映像表示装置及び映像表示方法
US10452206B2 (en) 2014-12-08 2019-10-22 Maxell, Ltd. Projection video display device and video display method
JP2016170709A (ja) * 2015-03-13 2016-09-23 シャープ株式会社 タッチ検出装置
JP2016186680A (ja) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクターおよびインタラクティブプロジェクターの制御方法
JP2016186674A (ja) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
US10133366B2 (en) 2015-03-27 2018-11-20 Seiko Epson Corporation Interactive projector and interactive projection system
US10677448B2 (en) 2015-09-28 2020-06-09 Maxell, Ltd. Lighting device
US10459577B2 (en) 2015-10-07 2019-10-29 Maxell, Ltd. Video display device and manipulation detection method used therefor
JP2018025916A (ja) * 2016-08-09 2018-02-15 本田技研工業株式会社 車載用操作装置
WO2018211659A1 (ja) * 2017-05-18 2018-11-22 マクセル株式会社 操作検出装置、及びそれを備えた映像表示装置、映像表示方法

Also Published As

Publication number Publication date
US20140253512A1 (en) 2014-09-11
JP6037901B2 (ja) 2016-12-07
US10152177B2 (en) 2018-12-11
CN104052950A (zh) 2014-09-17
CN104052950B (zh) 2018-07-10

Similar Documents

Publication Publication Date Title
JP6037901B2 (ja) 操作検出装置、操作検出方法及び表示制御データ生成方法
JP6037900B2 (ja) 操作検出装置及び操作検出方法
US10191594B2 (en) Projection-type video display device
US10915186B2 (en) Projection video display apparatus and video display method
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
US20130127705A1 (en) Apparatus for touching projection of 3d images on infrared screen using single-infrared camera
WO2016021022A1 (ja) 投写型映像表示装置及びその制御方法
US9690430B2 (en) Touch detection apparatus, touch detection method and recording medium
JP6307576B2 (ja) 映像表示装置及びプロジェクタ
TWI482069B (zh) 光學觸控系統、觸控偵測方法、校正方法及電腦程式產品
JP2016218893A (ja) 入力操作検出装置、画像表示装置、プロジェクタ装置、プロジェクタシステム、及び入力操作検出方法
US11093085B2 (en) Position detection method, position detection device, and interactive projector
JP6199472B2 (ja) プロジェクタ及びヘッドマウント型表示装置
JP2021056588A (ja) 位置検出装置、プロジェクター、及び位置検出方法
CN108351684B (zh) 操作检测装置、操作检测方法以及影像显示系统
US20240069647A1 (en) Detecting method, detecting device, and recording medium
KR20190027081A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
US20240070889A1 (en) Detecting method, detecting device, and recording medium
WO2018211659A1 (ja) 操作検出装置、及びそれを備えた映像表示装置、映像表示方法
JP6361332B2 (ja) ジェスチャ認識装置およびジェスチャ認識プログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140908

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140912

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161101

R150 Certificate of patent or registration of utility model

Ref document number: 6037901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250