JP6307576B2 - 映像表示装置及びプロジェクタ - Google Patents

映像表示装置及びプロジェクタ Download PDF

Info

Publication number
JP6307576B2
JP6307576B2 JP2016213934A JP2016213934A JP6307576B2 JP 6307576 B2 JP6307576 B2 JP 6307576B2 JP 2016213934 A JP2016213934 A JP 2016213934A JP 2016213934 A JP2016213934 A JP 2016213934A JP 6307576 B2 JP6307576 B2 JP 6307576B2
Authority
JP
Japan
Prior art keywords
state
unit
display
user
pointer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016213934A
Other languages
English (en)
Other versions
JP2017062813A (ja
Inventor
沙希子 成川
沙希子 成川
孝志 松原
孝志 松原
森 直樹
直樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2016213934A priority Critical patent/JP6307576B2/ja
Publication of JP2017062813A publication Critical patent/JP2017062813A/ja
Application granted granted Critical
Publication of JP6307576B2 publication Critical patent/JP6307576B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザの指操作を検出可能な映像表示装置及びプロジェクタに関する。
投写型映像表示装置(プロジェクタ)の投写面(スクリーン)上でのユーザ操作入力として、タッチセンサ等の特殊なデバイスを用いることなく、ユーザの操作部(指)を撮像しその影を抽出して指接触操作を検出する技術が提案されている
特許文献1には、照明手段により照らされた状態で操作者を撮像手段に撮像させる手段と、前記撮像手段により得られる操作者の画像データをもとに、前記操作者の特定部位の領域を検出する手段と、前記検出された操作者の特定部位の領域から影の部分を抽出する手段と、前記抽出された影の部分の中から、エッジが直線を成す線分を複数検出し、検出された線分同士が鋭角に交わる点を検出し、この交点を前記操作者の特定部位の領域内における指差し位置として検出する手段と、を具備する操作検出装置が記載されている。
また、特許文献2には、スクリーンに映像を投写する投写部と、少なくとも前記スクリーンに投写された映像を含む領域を撮像するための撮像部と、前記撮像部により撮像された画像から、前記スクリーン上方を移動する所定物体の実像を検出する実像検出部と、前記撮像部により撮像された画像から、前記投写部からの投写光により生じる前記所定物体の影を検出する影検出部と、前記所定物体の実像と影の対応点間の距離が所定のしきい値以下である場合、前記所定物体が前記スクリーンに接触していると判定する接触判定部と、前記接触判定部により接触していると判定されたとき、前記所定物体の座標を前記映像に対するポインティング位置として出力する座標決定部と、を備える投写型映像表示装置が記載されている。
特開2008−59283号公報 特開2011−180712号公報
特許文献1では、撮像手段により得られる操作者の画像データから影の部分を抽出し、影のエッジが鋭角に交わる点を指差し位置として検出している。しかしながら、手を開いて浮かせた状態では、ある指の影の上に他の指が重なって見えることにより、影のエッジが鋭角に交わる点が複数個発生することが予想されるため、指差し位置とは異なる点が誤って検出される恐れがある。従って、手を開いた状態で複数の指の指差し位置を同時に検出する、いわゆるマルチタッチ操作の検出には適していない。
また、特許文献2では、所定物体(指)の実像と影の対応点間の距離が所定のしきい値以下である場合、所定物体がスクリーンに接触していると判定している。しかしながら、手を開いた状態では、ある指の実像によって他の指の影の一部が見えなくなるため、指の実像と影の対応点を検出することが困難になる。さらに、手を開いて浮かせた状態では指の実像と影の距離が離れるため、例えば、ある指の実像の先端部に他の指の影の先端部が接近して、ある指の実像と影の対応点間の距離が閾値以下になったかのように見え、指がスクリーンに接触していると誤って判定される恐れがある。従って、この方式もマルチタッチ操作の検出には適していない。
また、いずれの特許文献においても、操作状態における指と操作面との間隙(接近度)の検出や指さし方向の検出に関しては何ら考慮されていない。
本発明は上記の課題を鑑み、手を開いた状態でも複数の指の接触位置をそれぞれ正しく検出するとともに、指と操作面の接近度や指さし方向を検出する操作検出装置及び操作検出方法を提供することを目的とする。
上記課題を解決するために、特許請求の範囲に記載の構成を採用する。その一例を挙げれば、本発明の操作検出装置は、操作面に異なる位置から照明光を照射する第1、第2の照明と、照明光が照射された操作面をユーザの操作部とともに撮像するカメラと、カメラより得られる撮像画像の輝度を所定の閾値と比較し、第1、第2の照明で生じるユーザの操作部に対する第1、第2の影を抽出する影領域抽出部と、抽出された第1、第2の影の形状から、ユーザの操作部の操作面に対する接近度、接触点、操作部の指し示す方向の少なくとも1つの操作状態を検出する操作状態検出部と、を備える。
好ましくは前記操作状態検出部は、抽出された第1、第2の影の中からそれぞれの特徴点を検出する特徴点検出部と、抽出された第1、第2の影の輪郭線から略直線状の線分をそれぞれの輪郭線として検出する輪郭検出部と、検出した2つの特徴点間の距離からユーザの操作部の操作面への接近度を検出する接近度検出部と、検出した2つの特徴点の位置からユーザの操作部の前記操作面への接触点を検出する接触点検出部と、検出した輪郭線の方向からユーザの操作部の指し示す方向を検出する方向検出部と、を備え、接近度検出部は、検出した2つの特徴点間の距離が所定の閾値以下となったときにユーザの操作部が操作面に接触したと判定する。
本発明によれば、操作面上にタッチセンサなどを設けることなく、操作面に対する複数の指の接触位置を正しく検出し、かつ指と操作面の接近度や指さし方向を検出することが可能となる。これより、操作対象装置への操作性が向上する。
実施例1における操作検出装置を示す構成図。 図1の変形例を示す構成図。 操作検出装置1を用いてユーザが操作を行う状態を示す図。 2つの照明で生じるユーザの指の影の形状を示す図。 ユーザの操作位置による影の形状の影響を示す図。 指と操作面の間隙と影の形状との関係を示す図。 特徴点による接近度の判定を説明する図。 特徴点による接触点の決定を説明する図。 特徴点を他の位置に設定した場合を示す図。 複数の指で操作する場合の影の形状を示す図。 輪郭線による指さし方向の決定を説明する図。 操作検出方法の処理フローを示す図。 指の接近度に応じた制御の一例を示す図。 指さし方向に応じた制御の一例を示す図。 2つ影が重なって生じる場合を示す図(実施例2)。 重なった影の分離方法を説明する図。 操作検出装置を内蔵したプロジェクタを示す構成図(実施例3)。 短投写型プロジェクタ2aの例を示す図。 ヘッドマウント型プロジェクタ2bの例を示す図。
以下、実施例を図面を用いて説明する。
実施例1では、1つのカメラと異なる位置に配置した2つの照明とを用いて、操作面に対するユーザの操作部(指)と操作面との接近度、指と操作面の接触点、指が指し示す方向(指さし方向)を検出する操作検出装置とその方法について説明する。
図1は、実施例1における操作検出装置の構成図を示す。操作検出装置1は、カメラ100、2つの照明101,102、影領域抽出部104、特徴点検出部105、接近度検出部106、接触点検出部107、輪郭検出部108、方向検出部109、制御部120、表示制御部121、出力部130を含む。制御部120は、各検出部で検出した操作面に対する指の接近度、接触点座標、指さし方向などの操作状態の検出結果データ150を生成し、また表示制御部121は、検出結果に基づき操作モード、ポインタ表示位置、ポインタ表示方向などの表示制御データ151を生成し、出力部130から操作対象装置2に出力する。操作対象装置2は例えばプロジェクタ(映像投写表示装置)であり、検出結果データ150と表示制御データ151を受け、ユーザの操作に応答して映像表示を行う。
図1では各要素100〜109、120、121、130を全て操作検出装置1の内部に構成しているが、一部の構成要素を外部に接続して構成しても良い。例えばカメラ100と照明101,102を操作検出装置1の外部に構成し、ネットワークやユニバーサルシリアルバス(USB)を介して接続しても良い。また、表示制御部121は操作検出装置1の内部ではなく、操作対象装置2側に構成しても良い。
図2は、図1の操作検出装置の変形例を示す構成図であり、操作対象装置2の内部に表示制御部205を有する場合である。この場合、操作対象装置2の表示制御部205は、操作検出装置1から出力される検出結果データ150に基づき、操作モードなどの表示制御データ151を生成することで、操作対象装置2は図1の構成と同様の制御を行うことができる。
また各構成要素100〜109、120、121、130は独立しているが、必要に応じて1または複数の構成要素で構成しても良い。例えば、要素104〜109、120、121、130は1または複数の中央処理装置(CPU)でその処理を行うように構成しても良い。
図3は、操作検出装置1を用いてユーザ3が操作を行う状態を示す図である。(a)は操作状態の正面図、(b)は操作状態の側面図である。ユーザ3は操作部である指30を、壁面21の操作面22に接近させ、またある位置に接触させることで所望の操作を行う。ここでは操作対象装置2がプロジェクタの場合を想定しており、操作面22が投写映像を表示するスクリーンとなり、ユーザはスクリーン上を操作することになる。
操作検出装置1は壁面21の上部に取り付け、2つの照明101,102はカメラ100を挟んで、壁面21の横方向の異なる位置にずらして配置する。2つの照明101,102でユーザ3の指30を照射し、カメラ100により指30とその近傍を撮像する。指30が操作面22に接近または接触すると指30の影の形状が変化することから、操作検出装置1はカメラ100の画像を解析し、指の接近度、接触点、指さし方向を検出する。
次に、操作検出装置1の各部の動作を説明する。カメラ100は、イメージセンサ、レンズなどで構成され、ユーザ3の操作部である指30を含む画像を撮像する。2つの照明101,102は、発光ダイオード、回路基板、レンズなどで構成され、操作面22およびユーザ3の指30に照明光を照射して、カメラ100で撮像する画像内に指30の影を投影するものである。なお、照明101,102は赤外光照明とし、カメラ100は赤外光カメラで構成しても良い。これにより、カメラ100で撮像する赤外光画像を、操作対象装置2(プロジェクタ)で投写される可視光映像から分離して取得することができる。
影領域抽出部104は、カメラ100で得られた画像から影領域を抽出し影画像を生成する。例えば、操作検出時の撮像画像から予め撮像した操作面22の背景画像を減算して差分画像を生成し、差分画像の輝度を所定の閾値Lthで二値化して、閾値以下の領域を影領域とすれば良い。さらに、抽出した影に対して互いに連結していない影の領域をそれぞれ別の影として区別する、いわゆるラベリング処理を行う。ラべリング処理により、抽出した複数の影についてどの指に対応するか、すなわち1本の指に対応する対となる2つの影を識別することができる。
特徴点検出部105は、影領域抽出部104で抽出した影画像内の特定の位置(以下、特徴点と呼ぶ)を検出する。例えば特徴点として、影画像内の先端位置(指先位置に対応)を検出する。特徴点検出のためには種々の手法が用いられるが、先端位置の場合はその影画像を構成する画素の座標データから検出可能であり、あるいは特徴点の持つ特有の形状に一致する部分を画像認識などにより検出することでも可能である。特徴点は1つの影から1箇所検出するので、1本の指(2つの影)に対しては2か所検出される。
接近度検出部106は、特徴点検出部105で検出した2つの特徴点間の距離dを測定し、距離dに基づいて指と操作面との間隙s(接近度A)を検出する。これにより、指が操作面に接触しているか、接触していないかを判定する。
接触点検出部107は、接近度検出部106により指が操作面に接触していると判定した場合、その特徴点の位置に基づいて、操作面に対する指の接触点を検出し、その座標を算出する。
輪郭検出部108は、影領域抽出部104で抽出した影画像から影領域の輪郭を抽出する。例えば、影画像内を一定の方向に走査して輪郭追跡の開始画素を決定し、開始画素の近傍画素を反時計回りで追跡することで輪郭が得られる。
方向検出部109は、輪郭検出部108で検出した輪郭線からほぼ直線状の線分を抽出する。そして、抽出した輪郭線の方向に基づいて、操作面上の指の指さし方向を検出する。
なお、上記した各検出部の処理は、上記手法に限らず、他の画像処理のアルゴリズムを用いても良い。また、上記した各検出部は、回路基板によるハードウェアだけでなく、ソフトウェアで構成することもできる。
制御部120は、装置全体の動作を制御し、各検出部で検出した操作面に対する指の接近度、接触点座標、指さし方向などの検出結果データ150を生成する。
表示制御部121は、制御部120で生成した指の接近度、接触点座標、指さし方向などの検出結果データ150に基づいて、操作対象装置2(プロジェクタ)に対する操作モード、ポインタ位置、ポインタ方向などの表示制御データ151を生成する。
出力部130は、生成した検出結果データ150や表示制御データ151を操作対象装置2に出力するインタフェースであり、ネットワーク接続やユニバーサルシリアルバス(USB)接続、超音波ユニット、赤外線通信装置などで構成される。
図4は、2つの照明で生じるユーザの指の影の形状を示す図である。(a)は指30と操作面22が接触していない状態、(b)は接触している状態であり、それぞれ操作面22の上方から見た上面図とカメラ画像を示す。
(a)に示すように指30が操作面22に接触していない状態(間隙s)では、2つの照明101,102からの光は指30で遮断され、それぞれ影402,401(斜線で示す)が形成される。カメラ画像では、2つの影401,402は指30の両側に互いに離れて存在する。
一方(b)に示すように指30の指先が操作面22に接触している状態(間隙s=0)では、2つの影401,402は、指30の指先の位置で接近して存在する。なお、影401,402の一部領域は指30の陰に隠れているが、この隠れた部分は影領域には含めない。本実施例では、指30が操作面22に接近すると影401と影402と間隔(特に特徴点間の距離)が接近する性質を利用して、指30と操作面22との接触を判定するものである。
図5は、ユーザの操作位置による影の形状の影響を示す図である。ここでは、ユーザの操作位置が操作面22の中央から左側にずれた場合(ユーザ位置3)と、右側にずれた場合(ユーザ位置3’)のカメラ画像を比較している。このときカメラ100から見たユーザの操作位置は変化するが、それらのカメラ画像では、指30(30’)に対する影401(401’),402(402’)の位置関係は変わらない。すなわち、ユーザ操作位置に関係なく、常に指30(30’)の両側に影401(401’)と402(402’)が存在する。これは、カメラ100と照明101,102の位置関係により一義的に決定されるからである。従って、ユーザが操作面22に対してどの位置で操作しても2つの影401,402の検出が可能であり、本実施例の操作検出方法が有効に適用できる。
図6は、指と操作面の間隙と影の形状との関係を示す図である。指30の両側に形成される2つの影401,402の間隔は、指30と操作面22との間隙sによって変化する。2つの影401,402の間隔を定義するために、それぞれの影401,402の内部に特徴点601,602(×印で示す)を設定し、特徴点間の距離dを測定する。ここでは影の先端位置(指先位置)に特徴点を設定している。指30と操作面22の間隙sが大きい場合には、2つの影401,402の間隔は大きく、2つの特徴点601,602の距離dも大きい。指30が操作面22に接近するに従い、特徴点601,602の距離dは小さくなり、指30が操作面22に接触すると(間隙s=0)、特徴点601,602の距離dは最小値となる。
図7は、接近度検出部106における接近度の判定を説明する図である。ここでは、特徴点間の距離dに基づき指の接近度Aの判定を行う。指の接近度Aを判定するために、特徴点間の距離dに対する4個の閾値d1,d2,d3,d4(ただし、d1<d2<d3<d4)を定める。これにより接近度Aを5段階(レベル1〜5)に分類し、レベル値が大きいほど、指30と操作面22との間隙sが小さいものとする。まず、指30が操作面22に接触した状態(間隙s=0)を識別するための閾値d1を定め、距離d<d1の場合には、接近度Aは最大レベル5(接触状態)であると判定する。それ以外の非接触状態については、閾値d2〜d4を用いて接近度Aを4段階(レベル4〜1)に分類する。このうちd>d4の場合は、接近度Aは最小レベル1であると判定する。この例では4個の閾値により接近度を5段階に分類したが、接近度の分類数はこれに限らず、制御内容に合わせて適宜設定すれば良い。
図8は、接触点検出部107における接触点の決定を説明する図である。指30が操作面22に接触した状態での影401,402の形状を示し、ここでは特徴点601,602を、それぞれの影401,402の先端位置に設定している。この場合は、2つの特徴点601,602は接触点である指先位置に近いことから、2つの特徴点601,602の中点Pを指30と操作面22との接触点と見なし、その座標を算出することができる。
上記の例では、特徴点601,602を、それぞれの影401,402の先端位置に設定しているが、この方法によれば特徴点の設定が容易であり、また、接触点Pの位置もその近傍に存在するので容易に決定できる。
図9は、特徴点を他の位置に設定した場合を示す図である。図8では特徴点601,602を影401,402の先端位置に設定したのに対し、図9では各影の長手方向中間位置に特徴点601’,602’を設定している。この場合にも、影401,402の間隔の変化に伴い特徴点601’,602’間の距離d’が変化するので、指30と操作面22の接近度Aの判定を行うことができる。なお、この場合の接触点P’は特徴点601’,602’の位置から長手方向にずれることになるので、特徴点601’,602’から予想される接触点P’までの距離(補正量)を予め求めておき、これで補正することで接触点P’を求めることが可能である。同様にして、特徴点を影401,402内のこれ以外の位置に設定することもできる。
図10は、複数の指で操作する場合の影の形状を示す図である。手を開いた状態で複数の指31,32・・・を操作面に接触させた際に、各指に対し、左側の影411,421・・・と、右側の影412,422・・・が形成される。そして、各影に対して特徴点を設定する。ここでは、影411,412に対する特徴点611,612と、影421,422に対する特徴点621,622を示す。対応する特徴点611,612、あるいは特徴点621,622間の距離dを測定することで、それぞれの指31,32の接近度や接触点を求めることができる。これより本実施例によれば、手を開いた状態でも複数の指についての接触を独立して検出できるので、マルチタッチ操作に適用可能となる。
図11は、方向検出部109における指さし方向の決定を説明する図である。指30の方向(指さし方向)を傾けたときの影401,402の形状を示し、指さし方向の変化に伴って影401,402の向きも変化する。指さし方向を検出するために、まず輪郭検出部108にて影401,402に対する輪郭線501,502を検出する。なお、輪郭線の検出では、指先などの曲線部分を除去して、略直線状の線分からなる輪郭線を検出する。その後、方向検出部109は次の方法で指さし方向を決定する。
(a)では、影401,402に対する内側の輪郭線501,502を使用する。そして、内側の輪郭線501,502の傾き方向701,702のいずれかを指さし方向として決定する。
(b)では、影401,402に対する外側の輪郭線501’,502’を使用する。そして、外側の輪郭線501’,502’の傾き方向701’,702’のいずれかを指さし方向として決定する。
(c)では、影401,402に対する内側の輪郭線501,502を使用する。そして、内側の輪郭線501,502の中線の傾き方向703を指さし方向として決定する。この場合には2つの輪郭線501,502の平均方向から求めるので、より精度が高くなる。なお、外側の輪郭線501’,502’の中線方向を指さし方向としても良い。
図12は、実施例1における操作検出方法の処理フローを示す図である。(a)は接近度と接触点の検出、(b)は指さし方向の検出の場合である。
まず、(a)の接近度と接触点の検出方法から説明する。
S1001では、影領域抽出部104は、カメラ100で撮像した画像から背景を減算して差分画像を求め、輝度が閾値Lth以下の部分を影領域として抽出する。その際、抽出した影に対して互いに連結していない影の領域をそれぞれ別の影として区別する、いわゆるラベリング処理を行う。
S1002では、特徴点検出部105は、ラベリング処理した各影に対して特徴点を検出する。例えば図6のように、各影401,402の先端位置を特徴点601,602として検出する。
S1003では、検出した2つの特徴点601,602間の距離dを測定する。
S1004では、接近度検出部106は、距離dに基づいて指30と操作面22の接近度Aを判定する。判定では、例えば図7を用いて距離dを閾値d1〜d4と比較し、接近度Aをレベル1〜5に分類する。そしてd<d1の場合は、接近度A=5(接触状態)と判定する。
S1005では、判定した接近度Aは接触時のレベル(=5)かどうかを判定する。判定結果が接近度A=5であればS1006へ進み、それ以外(非接触状態)の場合は終了する。
S1006では、接触点検出部107は、指30と操作面22の接触点を検出する。例えば図8のように、2つの特徴点601,602の中点Pを接触点とし、その座標を算出する。特徴点の設定方法が上記(先端位置)と異なる場合は、その設定方法に応じて接触点位置を補正すれば良い。
なお、操作状態においては以上の処理フローを繰り返して実行し、操作状態の変化に追従した操作検出を行うものとする。
次に、(b)の指さし方向の検出方法を説明する。
S1011では、影領域抽出部104は、カメラ100で撮像した画像から背景を減算して差分画像を求め、輝度が閾値Lth以下の部分を影領域として抽出する。これは前記S1001と同様である。
S1012では、輪郭検出部108は、ラベリング処理した各影に対して輪郭線(略直線部)を検出する。例えば図11(c)のように、影401,402の内側の輪郭線501,502を検出する。その際、これらの輪郭線のうち指先などの曲線部分を除去して、略直線状の線分を検出する。
S1013では、方向検出部109は、各輪郭線501,502の中線の傾き方向703を指さし方向と判定する。なお、指さし方向の判定は、図11(a)(b)に示す方法でも良い。
なお、操作状態においては以上の処理フローを繰り返して実行し、操作状態の変化に追従した操作検出を行うものとする。
また、図12(a)の接近度と接触点の検出処理と(b)の指さし方向検出処理は、並行して行うことができる。
図13は、表示制御部121における指の接近度に応じた制御の一例を示す図である。指30と操作面22との接近度Aに応じて、操作モードとポインタ表示の切り替えを示している。
操作モードに関しては、接近度Aが最も高いレベル5(接触状態)では接触操作モードとする。それ以外の非接触状態で接近度Aが比較的高いレベル4,3では空中操作モードに、接近度Aが比較的低いレベル2,1では操作オフモードに切り替える。このような制御により、ユーザ3は指30を操作面22に接触させた状態に加え、操作面22から浮かせた状態においても操作対象装置2の操作が可能となる。また、指30が操作面22から一定距離以上離れている場合には、操作オフモードに切り替わり、ユーザの意図しない操作を防ぐことができる。
またポインタ表示に関しては、接近度Aが比較的高いレベル5、4ではポインタを表示し、接近度Aが比較的低い3,2,1ではポインタを表示しないように切り替える。このような制御により、ユーザ3は指30が操作面22に接触する前の段階でポインタを確認することができ、接触時のポインタの位置を合わせ易くなる。以上の制御により、操作対象装置2への操作性が向上する。
図14は、表示制御部121における指さし方向に応じた制御の一例を示す図である。
(a)は、指さし方向700に応じてポインタ800の表示位置を補正する場合である。ポインタ800を表示する際、接触点検出部107において検出した接触点Pと全く同じ位置に表示すると、ポインタ800が指30に隠れてユーザ3から見えにくくなる。そこで、方向検出部109で検出した指さし方向700に沿ってポインタ800を指先前方に所定量だけずらして表示する。これによりポインタ800はユーザ3から見やすくなる。
また、上記に加えて、指30の接近度Aに応じてポインタ800の表示位置のずらし量(補正量)を変更しても良い。例えば接近度Aが低いときには補正量を大きくし、接近度Aが高いときには補正量を小さくする。これにより、ユーザ3の指30が操作面22に近づくに従ってポインタ800の位置が指先に近づき、ユーザ3はポインタ800の表示位置を目安にすることで精度の良い操作ができるようになる。
(b)は、指さし方向700に応じてポインタ800の表示方向を補正する場合である。矢印形状のポインタ800を表示する際、例えば(a)のように指さし方向700と無関係に常に一定の方向に表示すると、ポインタ800の表示方向が指さし方向700と一致せずユーザ3に対し違和感を与えることがある。そこで、方向検出部109において検出した指さし方向700にポインタ800の表示方向を合わせて表示する。これにより指さし方向700との不一致がなくなり、ユーザ3に対する違和感を解消できる。
(c)は、指さし方向700に応じて接触点の位置を補正する場合である。接触点検出部107において検出される接触点Pは特徴点の位置から決定されるので、実際に操作面22と接触する位置からずれることがある。例えば、特徴点を影の先端位置とする場合、実際の接触位置(指の腹の部分となることが多い)よりも指の先端側(爪先)の位置にずれてしまう。そこで、方向検出部109において検出した指さし方向700に沿って、指の付け根側に接触点位置を所定量だけ補正する(P→P”)。これにより、指30と操作面22の接触点をより正確に取得することができる。
上述したように実施例1の操作検出装置では、1つのカメラと2つの照明とを用いて、操作部である指に対する2つの影の形状を解析し、指と操作面の接近度、接触点座標、指さし方向などを検出し、検出結果データとして操作対象装置に出力する。また、検出結果に基づき、操作モード、ポインタ表示位置、ポインタ表示方向などを切り替えるための表示制御データを操作対象装置に出力する。本実施例によれば、操作面上にタッチセンサなどを設けることなく、操作面に対する複数の指の接触位置を正しく検出し、かつ指と操作面の接近度や指さし方向を検出することが可能となる。これにより、操作対象装置への操作性が向上する。なお、ポインタの表示機能は操作対象装置の種類に応じて採用すればよく、例えばタブレット端末では必須ではない。
なお、本実施例では2つの影内にそれぞれ特徴点を定め、特徴点間の距離と特徴点の位置に基づき接近度や接触点を検出した。これに代わる他の方法として、2つの影に輪郭線を定め、輪郭線間の距離に基づき接近度や接触点を検出することも可能である。
前記実施例1では、2つの照明101,102により生じる指に対する2つの影401,402が、指の両側に離れて存在する場合を前提とした。これに対し実施例2では、2つの照明101,102の配置が変更された結果、2つの影の一部が重なって存在する場合において、2つの影を分離する方法を説明する。2つの影を分離することで、実施例1と同様に指と操作面の接近度、接触点座標、指さし方向などを検出することができる。
図15は、実施例2において2つの影が重なって存在する場合の影の形状を示す図である。ここでは、2つの照明101,102がカメラ100に対して同じ側(図では左側)に設置され、その結果2つの影403,404は、指30に対して同じ側(右側)に形成されてその一部が重なっている。
(a)は指30が操作面22に接触していない場合である。上面図において、照明102,101からの光が指30で遮断され、3つの影403,404,405ができる。このうち影405は、両方の照明102,101が遮断された領域である。カメラ画像では、指30の右側に、照明102によって形成される薄い影403と、照明101によって投影される薄い影404と、それらの間に両者が重なった濃い影405が形成される。
(b)は指30が操作面22に接触している場合である。この場合は、指30の右側に、照明101による薄い影404と、それに隣接する濃い影405が指30に接近して存在する。
図16は、重なった影の分離方法を説明する図である。影領域検出部104は、検出された影をその濃度の違いを利用して元の2つの影に分離する。
(a)は検出された影を示し、ここでは図15(a)の場合を取り上げる。上記したように、薄い影403,404と濃い影405が存在するが、濃い影405は薄い影403,404が重なって生じたものである。
(b)は影の分離法を示すもので、照明102によって生じる影は、薄い影403と濃い影405を加算して第1の領域401’として求める。また照明101によって生じる影は、薄い影404と濃い影405を加算して第2の領域402’として求める。このように、影濃度を2段階で識別して濃度毎の領域に区分しておき、薄い影の領域とこれに隣接する濃い影の領域を加算することで照明毎に生じる影401’,402’に分離することができる。
(c)は、分離した影401’,402’に対して特徴点601,602を定め、特徴点間の距離dを求める場合を示す。
(d)は、分離した影401’,402’に対して輪郭線501,502を定め、指さし方向703を求める場合を示す。
このように実施例2では、カメラ100に対する照明101,102の配置が変更された結果、2つの影401’,402’の一部が重なった場合においても、元の2つの影401’,402’に分離することが可能であり、実施例1と同様に接近度、接触点、指さし方法を検出することができる。よって、照明の配置に関し自由度が増す。
なお、本実施例では影の濃度の違いを利用して2つの影401’,402’に分離したが、他の方法として、照明101と照明102とを交互に点灯させ、1フレームごとに影が切り替わる画像を取り込んで影を分離することができる。あるいは、照明101と照明102の光の波長が異なるようにし、それぞれの波長に適応するカメラを用いることで影を分離することができる。
実施例3では、前記した操作検出装置1を内蔵したプロジェクタの構成について説明する。
図17は、実施例3におけるプロジェクタ2a(2b)の構成図を示す。ここにプロジェクタ2a(2b)は、実施例1(図1)で述べた操作検出装置1を内蔵するとともに、プロジェクタ機能として映像投写をするための構成が加えられている。プロジェクタの機能として、中央処理部201、操作解析部202、メモリ203、映像制御部204、映像投写部210などを有する。
中央処理部201は、中央処理装置(CPU)等の半導体チップや、オペレーティングシステム(OS)等のソフトウェアで構成され、操作解析部202で解析されるユーザの操作などに基づいて、メモリ203への情報の入出力や、映像制御部204、映像投写部210等の各部を制御する。また、操作検出装置1の出力部130から得られる表示制御データ151(操作モード)に基づき、操作モードを接触操作モード、空中操作モード、操作オフモードの間で切り替える。
操作解析部202は、回路基板やソフトウェアで構成され、操作検出装置1の出力部130から得られる検出結果データ150(接近度、接触点、指さし方向)に基づき、投写中の映像に対するユーザの操作内容を解析する。
メモリ203は、半導体などで構成され、中央処理部201の演算や制御に必要な情報や、投写映像として表示する映像情報などを記憶する。
映像制御部204は、回路基板などで構成され、中央処理部201の制御に応じて、映像情報の描画に必要な演算処理を行い、映像投写部210の入力に適した形式で、画素の集合からなる描画情報を出力する。また、操作検出装置1の出力部130から得られる表示制御データ151(ポインタ位置、ポインタ方向)に基づき、映像に重畳するポインタの描画条件を変更する。
映像投写部210は、ランプ等の光源や、レンズ、反射ミラー等の光学部品や、液晶パネル等から構成され、光源から出射される光束を変調して、映像制御部204から送られる描画情報に応じた画像光を形成し、スクリーン等の投写面上に画像光を拡大投写する。
なお、図17の各部は独立しているが、必要に応じて1または複数の構成要件で構成しても良い。例えば、201〜204は、1または複数の半導体チップ(System-on-a-chip:SoC等)でその処理を行うように構成しても良い。
図18は、前記プロジェクタとして短投写型プロジェクタ2aの例を示し、(a)は正面図、(b)は側面図である。短投写型プロジェクタ2aは壁面21上部に取り付けられる。映像投写部210からは、GUI等の所定の映像信号に基づき投写光23aを出射することにより、壁面21のスクリーン22’に投写映像23を映し出す。ユーザ3は操作面を兼ねるスクリーン22’上で指操作することで、投写映像23に対して所望の制御を行うことができる。
ユーザ3が投写映像23の任意の箇所に指30を触れる、あるいは指を近づけることにより、操作検出装置1は指の影画像から接近度、接触点、指さし方向などを検出して、検出データ150を中央処理部201を介して操作解析部202に送る。操作解析部202は投写映像23に対する操作内容を解析し、中央処理部201はユーザの操作に応じて映像の変更等の処理を実行する。また、操作検出装置1は、検出データ150に基づき表示制御データ151(操作モード、ポインタ位置、ポインタ方向)を生成し、中央処理部201を介して映像制御部204に送る。このように、プロジェクタ2aに前記操作検出装置1を内蔵することにより、ユーザは投写映像に対して効率良く操作を行うことができる。
図19は、前記プロジェクタの他の構成として、ヘッドマウント型プロジェクタ2bの例を示し、(a)は外観図、(b)は上面図である。ヘッドマウント型プロジェクタ2bでは、眼鏡型の筐体には小型プロジェクタ本体20が取り付けられ、眼鏡のレンズ面に投写光23aを出射することで映像23を映し出し、ユーザは映像を見ることができる。
また、眼鏡型の筐体の両端には照明101及び照明102が取り付けられ、筐体の中央にはカメラ100が取り付けられ、ユーザの視線の先にある操作面22を照射するとともに、操作面22に対するユーザの指操作を撮像しその接近度や接触点などを検出することができる。
これにより、小型プロジェクタ本体20により眼鏡のレンズ面に投写される映像23とユーザが操作する操作面22とが、ユーザの視界において重なり、あたかも操作面22上に映像が表示されているかのように振る舞う。すなわち、小型プロジェクタ本体20が映像を表示した場合、ユーザは操作面22に対し指操作を行うことで、表示される映像に対する操作制御を行うことができる。
上記したように、操作検出装置1を内蔵するプロジェクタ2a,2bにおいては、映像の投写面にセンサなどを設けることなく、マルチタッチ操作を含めユーザは投写映像に対して効率良く操作を行うことができ、プロジェクタの使い勝手が向上する。
なお、上述した本実施形態は本発明の説明のための例示であり、本発明の範囲を実施形態にのみ限定する趣旨ではない。
1:操作検出装置、
100:カメラ、
101,102:照明、
104:影領域抽出部、
105:特徴点検出部、
106:接近度検出部、
107:接触点検出部、
108:輪郭検出部、
109:方向検出部、
120:制御部、
121:表示制御部、
130:出力部、
150:検出結果データ、
151:表示制御データ、
2:操作対象装置(プロジェクタ)、
2a:短投写型プロジェクタ、
2b:ヘッドマウント型プロジェクタ、
20:小型プロジェクタ本体、
21:壁面、
22:操作面、
23:投写映像、
23a:投写光、
201:中央処理部、
202:操作解析部、
203:メモリ、
204:映像制御部、
210:映像投写部、
3:ユーザ、
30,31,32:指、
401,402,403,404,405:影、
501,502:輪郭線、
601,602:特徴点、
700,701,702,703:指さし方向、
800:ポインタ、
P:接触点。

Claims (6)

  1. 映像表示面に対するユーザの操作を検出可能な映像表示装置において、
    前記映像表示面と少なくとも一部が重畳する操作面に異なる位置から照明光を照射する第1の照明および第2の照明と、
    前記照明光が照射された前記操作面を前記ユーザの操作部とともに撮像するカメラと、
    該カメラより得られる撮像画像にもとづいて、前記第1の照明により生じる前記ユーザの操作部の第1の影と、前記第2の照明により生じる前記ユーザの操作部の第2の影とを抽出し、抽出された前記第1の影の形状および前記第2の影の形状から、前記ユーザの操作部の前記操作面に対する接近度を含むユーザ操作状態を検出する操作状態検出部と、
    映像表示部と、
    前記操作状態検出部の検出結果にもとづいて前記映像表示部を制御する制御部と、を備え、
    前記制御部は、前記操作状態検出部が検出した前記接近度に応じて、前記ユーザの操作部による操作が可能であるか不可能であるかについての操作可否制御状態と前記映像表示部によるポインタを表示するか非表示とするかについてのポインタ表示非表示状態とを変更する制御を行うものであり、
    前記操作可否制御状態は、前記ユーザの操作部が前記操作面に対して離れた状態から近づく過程において、前記ユーザの操作部が前記操作面に接触する前に、前記ユーザの操作部による操作が不可能な状態から可能な状態に切り替えるものであり、
    前記ポインタ表示非表示状態は、前記ユーザの操作部が前記操作面に対して離れた状態から近づく過程において、前記ユーザの操作部が前記操作面に接触する前に、前記映像表示部によるポインタ表示を、非表示の状態から表示の状態に切り替えるものであり、
    前記制御部における前記操作可否制御状態と前記ポインタ表示非表示状態の制御において、前記操作可否制御状態を前記ユーザの操作部による操作が不可能な状態から可能な状態に切り替える前記接近度と、前記ポインタ表示非表示状態を、前記映像表示部によるポインタ表示を、非表示の状態から表示の状態に切り替える前記接近度とが、異なる接近度に設定されている
    ことを特徴とする映像表示装置。
  2. 請求項1に記載の映像表示装置であって、
    前記操作状態検出部が検出した前記接近度に応じたポインタの表示の制御状態には、少なくとも、
    前記ユーザの操作部が前記操作面から離れた空中にあって前記操作面と接触していない状態において、前記映像表示部がポインタを非表示とする第1の制御状態と、
    前記ユーザの操作部が前記操作面から離れた空中にあって前記第1の制御状態よりも前記操作面に接近している状態において、前記映像表示部がポインタを表示する第2の制御状態と、
    があることを特徴とする映像表示装置。
  3. 請求項に記載の映像表示装置であって、
    前記映像表示部がポインタを表示しない前記第1の制御状態には、前記接近度に応じて、前記ユーザの操作部による空中操作が可能な空中操作モードと、前記ユーザの操作部による操作を不可能にする操作オフモードがあることを特徴とする映像表示装置。
  4. 映像投射面に対するユーザの操作を検出可能なプロジェクタにおいて、
    表示映像を投射する映像投射部と、
    前記表示映像が投射される前記映像投射面と少なくとも一部が重畳する操作面に異なる位置から照明光を照射する第1の照明および第2の照明と、
    前記照明光が照射された前記操作面を前記ユーザの操作部とともに撮像するカメラと、
    該カメラより得られる撮像画像にもとづいて、前記第1の照明により生じる前記ユーザの操作部の第1の影と、前記第2の照明により生じる前記ユーザの操作部の第2の影とを抽出し、抽出された前記第1の影の形状および前記第2の影の形状から、前記ユーザの操作部の前記操作面に対する接近度を含むユーザ操作状態を検出可能な操作状態検出部と、
    前記操作状態検出部の検出結果にもとづいて前記映像投射部を制御する制御部と、を備え、
    前記制御部は、前記操作状態検出部が検出した前記接近度に応じて、前記ユーザの操作部による操作が可能であるか不可能であるかについての操作可否制御状態と前記表示映像のポインタを表示するか非表示とするかについてのポインタ表示非表示状態とを変更する制御を行うものであり、
    前記操作可否制御状態は、前記ユーザの操作部が前記操作面に対して離れた状態から近づく過程において、前記ユーザの操作部が前記操作面に接触する前に、前記ユーザの操作部による操作が不可能な状態から可能な状態に切り替えるものであり、
    前記ポインタ表示非表示状態は、前記ユーザの操作部が前記操作面に対して離れた状態から近づく過程において、前記ユーザの操作部が前記操作面に接触する前に、前記表示映像のポインタ表示を、非表示の状態から表示の状態に切り替えるものであり、
    前記制御部における前記操作可否制御状態と前記ポインタ表示非表示状態の制御において、前記操作可否制御状態を前記ユーザの操作部による操作が不可能な状態から可能な状態に切り替える前記接近度と、前記ポインタ表示非表示状態を、前記表示映像のポインタ表示を、非表示の状態から表示の状態に切り替える前記接近度とが、異なる接近度に設定されている
    ことを特徴とするプロジェクタ。
  5. 請求項4に記載のプロジェクタであって、
    前記操作状態検出部が検出した前記接近度に応じたポインタの表示の制御状態には、少なくとも、
    前記ユーザの操作部が前記操作面から離れた空中にあって前記操作面と接触していない状態において、前記表示映像にポインタを非表示とする第1の制御状態と、
    前記ユーザの操作部が前記操作面から離れた空中にあって前記第1の制御状態よりも前記操作面に接近している状態において、前記表示映像にポインタを表示する第2の制御状態と、
    があることを特徴とするプロジェクタ。
  6. 請求項に記載のプロジェクタであって、
    前記表示映像にポインタを表示しない前記第1の制御状態には、前記接近度に応じて、前記ユーザの操作部による空中操作が可能な空中操作モードと、前記ユーザの操作部による操作を不可能にする操作オフモードがあることを特徴とするプロジェクタ。
JP2016213934A 2016-11-01 2016-11-01 映像表示装置及びプロジェクタ Active JP6307576B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016213934A JP6307576B2 (ja) 2016-11-01 2016-11-01 映像表示装置及びプロジェクタ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016213934A JP6307576B2 (ja) 2016-11-01 2016-11-01 映像表示装置及びプロジェクタ

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013048306A Division JP6037901B2 (ja) 2013-03-11 2013-03-11 操作検出装置、操作検出方法及び表示制御データ生成方法

Publications (2)

Publication Number Publication Date
JP2017062813A JP2017062813A (ja) 2017-03-30
JP6307576B2 true JP6307576B2 (ja) 2018-04-04

Family

ID=58428877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016213934A Active JP6307576B2 (ja) 2016-11-01 2016-11-01 映像表示装置及びプロジェクタ

Country Status (1)

Country Link
JP (1) JP6307576B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6328304B1 (ja) * 2017-07-25 2018-05-23 株式会社ネットアプリ 入出力システム
JP2021056588A (ja) 2019-09-27 2021-04-08 セイコーエプソン株式会社 位置検出装置、プロジェクター、及び位置検出方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0204652D0 (en) * 2002-02-28 2002-04-10 Koninkl Philips Electronics Nv A method of providing a display gor a gui
US20090128498A1 (en) * 2004-06-29 2009-05-21 Koninklijke Philips Electronics, N.V. Multi-layered display of a graphical user interface
JP2008505381A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 表示装置の汚れを防ぐ方法及び装置
JP2009250772A (ja) * 2008-04-04 2009-10-29 Sony Corp 位置検出システム、位置検出方法、プログラム、物体判断システム、および物体判断方法
JP2010244422A (ja) * 2009-04-08 2010-10-28 Toshiba Tec Corp 情報表示装置
JP5114795B2 (ja) * 2010-01-29 2013-01-09 島根県 画像認識装置および操作判定方法並びにプログラム
JP2012003690A (ja) * 2010-06-21 2012-01-05 Toyota Infotechnology Center Co Ltd ユーザインタフェース装置
JP5167523B2 (ja) * 2010-09-22 2013-03-21 島根県 操作入力装置および操作判定方法並びにプログラム
US20120249422A1 (en) * 2011-03-31 2012-10-04 Smart Technologies Ulc Interactive input system and method
WO2012157272A1 (ja) * 2011-05-16 2012-11-22 パナソニック株式会社 表示装置、表示制御方法及び表示制御プログラム、並びに、入力装置、入力支援方法及びプログラム
US20130055143A1 (en) * 2011-08-31 2013-02-28 Smart Technologies Ulc Method for manipulating a graphical user interface and interactive input system employing the same

Also Published As

Publication number Publication date
JP2017062813A (ja) 2017-03-30

Similar Documents

Publication Publication Date Title
JP6037901B2 (ja) 操作検出装置、操作検出方法及び表示制御データ生成方法
JP6037900B2 (ja) 操作検出装置及び操作検出方法
US10191594B2 (en) Projection-type video display device
US10915186B2 (en) Projection video display apparatus and video display method
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
US6512507B1 (en) Pointing position detection device, presentation system, and method, and computer-readable medium
WO2016021022A1 (ja) 投写型映像表示装置及びその制御方法
US20130127705A1 (en) Apparatus for touching projection of 3d images on infrared screen using single-infrared camera
US9690430B2 (en) Touch detection apparatus, touch detection method and recording medium
JP6307576B2 (ja) 映像表示装置及びプロジェクタ
US20110193969A1 (en) Object-detecting system and method by use of non-coincident fields of light
TWI482069B (zh) 光學觸控系統、觸控偵測方法、校正方法及電腦程式產品
US11093085B2 (en) Position detection method, position detection device, and interactive projector
JP6199472B2 (ja) プロジェクタ及びヘッドマウント型表示装置
JP2021056588A (ja) 位置検出装置、プロジェクター、及び位置検出方法
JP6314177B2 (ja) 投射型映像表示装置
CN108351684B (zh) 操作检测装置、操作检测方法以及影像显示系统
US20240069647A1 (en) Detecting method, detecting device, and recording medium
US20240070889A1 (en) Detecting method, detecting device, and recording medium
KR20190027081A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
WO2018211659A1 (ja) 操作検出装置、及びそれを備えた映像表示装置、映像表示方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170731

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170927

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180312

R150 Certificate of patent or registration of utility model

Ref document number: 6307576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250