JP6068741B2 - 表示システム - Google Patents

表示システム Download PDF

Info

Publication number
JP6068741B2
JP6068741B2 JP2012079185A JP2012079185A JP6068741B2 JP 6068741 B2 JP6068741 B2 JP 6068741B2 JP 2012079185 A JP2012079185 A JP 2012079185A JP 2012079185 A JP2012079185 A JP 2012079185A JP 6068741 B2 JP6068741 B2 JP 6068741B2
Authority
JP
Japan
Prior art keywords
display
hand
unit
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012079185A
Other languages
English (en)
Other versions
JP2013210723A5 (ja
JP2013210723A (ja
Inventor
大輔 村山
大輔 村山
岩内 謙一
謙一 岩内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012079185A priority Critical patent/JP6068741B2/ja
Publication of JP2013210723A publication Critical patent/JP2013210723A/ja
Publication of JP2013210723A5 publication Critical patent/JP2013210723A5/ja
Application granted granted Critical
Publication of JP6068741B2 publication Critical patent/JP6068741B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • User Interface Of Digital Computer (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本発明は、コンピュータ等の情報機器や、テレビ等のディスプレイを有する電子機器の入出力を行うインターフェイスを有する表示システムに関する。
近年、コンピュータ等の情報機器やテレビ等の電子機器を操作するためのインターフェイスとして、ユーザの動きや、手など身体の一部分の形状を利用した手法が盛んに提案されている。
例えば、カメラで撮像した画像中のユーザの動きや手形状をコンピュータにより認識し、その認識情報によって機器操作を行う手法がある。この手法では、ディスプレイ周囲に設置したカメラに向かい、ユーザが手振り等によって指示を与えることで、ディスプレイに表示したカーソル等を操作し、ディスプレイに表示した仮想スイッチ等の選択を行う。これにより、マウスやリモコン等の手で直接操作する入力装置を必要とせずに、簡便な機器操作が可能となる。
また、特許文献1の技術では、カメラで撮像した画像中の、ユーザの顔や手の位置、動き、形状、指本数等をコンピュータにより認識し、それら認識情報の組み合わせを変化させることで、より多くのジェスチャパターンを設定する方法が提案されている。この手法によって、ジェスチャで複数の操作が可能となる。さらには、顔認識によってユーザを特定し、ユーザ毎に、好みのジェスチャを好みの操作内容に割り当てることで、より自由度の高いインターフェイスが実現されるとしている。
特開2005−92419号公報
上記特許文献1の技術では、複数のジェスチャパターンを設定することが可能であるが、この場合、複数のジェスチャパターンとそれに対応する操作内容をユーザが全て記憶する必要があり、ユーザの負担が大きい。また、ディスプレイに操作ガイドを表示する場合には、多数のジェスチャについて表示する必要があることや、ジェスチャ自体が複雑化した場合には、分かり難い表示になってしまうといった問題がある。
本発明は、上記課題を解決するためになされたものであって、ユーザの負担が少ない簡単なジェスチャにより、多数の操作を可能とする表示システムを提供することを目的とする。
上記課題を解決するために、本発明の第1の技術手段は、撮像機能を有する撮像部を備えた撮像装置と、該撮像装置で撮像された画像に基づき、ユーザの状態を判定し、該判定した結果に応じて予め定められたアプリケーションの処理を実行する画像処理装置と、該アプリケーションの処理に応じた表示を行う表示装置とを備えた表示システムであって、 前記画像処理装置は、前記撮像装置が撮像した画像に基づいて、前記撮像した画像の画面内に操作範囲を設定し、該設定した操作範囲におけるユーザの状態を判定し、前記操作範囲のユーザの状態に応じて予め定められたアプリケーションの処理を実行することを特徴としたものである。
第2の技術手段は、第1の技術手段において、前記画像処理装置が、前記撮像部が撮像した画像から前記ユーザの顔を検出する顔検出部と、該顔検出部の顔検出情報に基づき前記撮像した画像の画面内で前記ユーザの手検出を行う手検出部と、前記操作範囲を設定する操作範囲設定部とを有し、該操作範囲設定部は、前記顔検出部が検出した前記ユーザの顔位置と、前記検出した顔に外接する矩形領域と、前記手検出部が検出した手位置と、に基づいて前記操作範囲を設定することを特徴としたものである。
第3の技術手段は、第2の技術手段において、前記画像処理装置が、前記操作範囲を複数に分割して設定し、該複数に分割した操作範囲ごとに、前記ユーザの状態に応じて実行するアプリケーションの処理を予め定め、前記手検出部により検出されたユーザの手位置から、前記ユーザの手が存在する前記分割した操作範囲を判断し、該判断した操作範囲における予め定められたアプリケーションの処理を実行することを特徴としたものである。
第4の技術手段は、第3の技術手段において、前記画像処理装置が、前記操作範囲設定部が設定した複数に分割した操作範囲のそれぞれと、前記表示装置が表示する表示画面の一部の領域とを対応させ、各前記分割した操作範囲に対応させた前記表示画面の各領域に、前記分割した操作範囲におけるユーザの状態に応じたアプリケーションの処理を示す操作ガイドを表示させることを特徴としたものである。
第5の技術手段は、第3の技術手段において、前記画像処理装置が、前記複数に分割した操作範囲のそれぞれに対応させた表示領域に表示させる操作ガイドのうち、前記手検出部により検出されたユーザの手が存在する操作範囲に対応させた表示領域に表示させる操作ガイドを、他の操作ガイドとは区別可能に強調表示させることを特徴としたものである。
第6の技術手段は、第2の技術手段において、前記撮像部から被写体までの距離情報を算出する距離算出手段を有し、前記画像処理装置は、前記撮像した画像の画面内に設定する操作範囲として、前記距離算出部が算出する距離に応じて複数段階の奥行方向の操作範囲を設定し、前記手検出部により検出されたユーザの手位置及び前記距離算出手段が算出した前記距離情報から、前記ユーザの手が存在する前記奥行方向の操作範囲を判断し、該判断した操作範囲における予め定められたアプリケーションの処理を実行することを特徴としたものである。
第7の技術手段は、第6の技術手段において、前記画像処理装置が、前記操作範囲設定部が設定した前記奥行方向の操作範囲のそれぞれにおけるユーザの状態に応じたアプリケーションの処理を示す操作ガイドを、前記表示装置の表示画面に前記奥行方向の操作範囲に対応させて3次元的に配置して見えるように表示させることを特徴としたものである。
第8の技術手段は、第7の技術手段において、前記画像処理装置が、前記複数段階に設定した奥行方向の操作範囲のそれぞれに対応させた前記操作ガイドのうち、前記手検出部により検出されたユーザの手が存在する操作範囲に対応させた操作ガイドを、他の操作ガイドとは区別可能に強調表示させることを特徴としたものである。
第9の技術手段は、第6〜8のいずれか1の技術手段において、前記撮像装置が、2つの前記撮像部を備え、前記距離算出手段として、前記2つの撮像部により撮像された画像の視差に基づいて、前記撮像部から被写体までの距離情報を算出する距離算出部を有することを特徴としたものである。
第10の技術手段は、第6〜8のいずれか1の技術手段において、前記距離算出手段として、赤外線もしくはレーザ光を発光して被写体からの反射光を解析することにより前記撮像部から被写体までの距離情報を算出する測距部を有することを特徴としたものである。
本発明に係る表示システムによれば、ユーザの負担が少ない簡単なジェスチャにより、多数の操作が可能になるという効果が得られる。
実施の形態1における表示システムのハードウェア構成を示すブロック図である。 ユーザ情報解析部の構成ブロック図である。 実施の形態1における表示システムの使用例を説明する図である。 実施の形態1における表示システムのフローチャートである。 実施の形態1における入力画像と操作範囲設定例を説明する図である。 実施の形態1における操作ガイド表示方法の一例を示す図である。 実施の形態2における表示システムのハードウェア構成を示すブロック図である。 実施の形態2における表示システム使用例を説明する図である。 実施の形態2における表示システムのフローチャートである。 実施の形態2における第2の表示システムのハードウェア構成を示すブロック図である。
(実施の形態1)
以下に、本発明の実施の形態1を、図面を用いて説明する。
図1は、本発明の実施の形態1に係る表示システムの構成を示すブロック図である。実施の形態1に係る表示システム1は、操作を行うユーザを撮像する撮像装置10、撮像されたユーザの位置や動きを判別する画像処理装置11、操作ガイドや操作状態情報や操作による処理結果などを表示する表示装置12を備えている。
撮像装置10は撮像部101により構成され、ユーザなどの被写体を撮像し画像を出力するものであり、受光した光を電気信号に変え画像とするCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、被写体からの光を撮像素子に集光するためのレンズなどの光学系を備えている。
画像処理装置11はユーザ情報解析部111と操作判定部112、アプリケーション処理部113、表示制御部114とを備えている。
ユーザ情報解析部111は、撮像装置10の出力画像からユーザの操作状態を解析し、解析情報を操作判定部112に出力する。図2に示すように、ユーザ情報解析部111は顔検出部1111、手検出部1112、操作範囲設定部1113から構成され、ユーザの顔と手の位置、手形状、ユーザの操作範囲情報等を出力する。
操作判定部112は、予め設定し登録したジェスチャとユーザ情報解析部111の出力情報とを比較することで、ユーザの操作状態を判定し、判定結果をアプリケーション処理部113と表示制御部114へ出力する。
アプリケーション処理部113は、操作判定部112の出力に応じたアプリケーションを実行し、その結果を表示制御部114へ出力する。なお、アプリケーション処理部113には、事前に複数の処理やアプリケーションを登録しておくことができる。
表示制御部114は、操作判定部112の出力とアプリケーション処理部113の結果に応じた表示内容を表示装置12に出力する。
操作情報設定部115は、操作ガイドの表示方法やユーザの操作範囲についての設定を行い、その情報を操作判定部112と表示制御部114に出力する。操作情報設定部115の設定値は外部から入力する。
表示装置12は液晶ディスプレイやプラズマディスプレイといったTVディスプレイや、パーソナルコンピュータ向けモニタなど一般的なディスプレイであり、表示制御部114の出力に基づいて表示を行う。
次に、図1で示した表示システム1の使用例と操作判定方法について、図3、図4を用いて説明する。
図3は、本発明に係る表示システムについて、表示装置12として家庭用TVなどの大型ディスプレイを用いた場合の使用例を表す図である。
撮像装置10は、表示装置12の上部中央位置で、表示装置12の正面側にいるユーザ31を撮影するように設置される。撮像装置10を表示装置12の上部中央位置に設置し、ユーザを俯瞰するように撮影することで、撮影される画像内でユーザの顔と手が重なり難くなるという利点が得られる。ただし、撮像装置10の設置位置はこれに限定されるものではなく、ユーザの顔や手を撮影することが可能であればどこに設置してもよい。例えばディスプレイ下部や側部、ユーザの手元付近といった場所に設置してもよい。
撮像装置10で取得した画像は画像処理装置11へ入力され、ユーザの仮想操作範囲32の設定、操作判定を行い、表示装置12に操作に応じた処理結果などを表示する。表示装置12の操作ガイド表示は、操作情報設定部115により例えば表示面全体を4分割するように設定される。図3の使用例では、ユーザは操作ガイド領域33の位置で指本数が1本の処理を選択している。また、図3では図1のブロック図と同じ構成のものは同じ符号を付している。
図4は、本発明に係る表示システムにおける、処理フローチャートを表す図である。以下に処理手順と処理詳細を説明する。
まず撮像装置10により画像を取得し(ステップS1)、取得した画像を画像処理装置11のユーザ情報解析部111へ入力する。ユーザ情報解析部111の顔検出部1111は入力画像から顔を検出する(ステップS2)。
顔検出部1111では、以下で述べる方法を適用することによって入力画像から顔領域を検出し、顔領域の画像情報または入力画像上の2次元座標などの情報を出力する。
例えば、顔検出部1111における顔検出方法には、入力画像から肌色情報を抽出し、肌色であると判断した画像領域を顔とする方法がある。また、平均的な人の顔のモノクロ画像を予め用意しておき、このモノクロ画像と撮像画像と比較したときの画像上の各位置での相関値が、予め設定された閾値以上である画像領域を顔とする方法がある。
さらに、弱識別器として白黒のHaar−Like特徴を用いたAdaboostアルゴリズムによる手法(「Paul Viola and Michael J. Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features”, IEEE CVPR, 2001.」,「Rainer Lienhart and Jochen Maydt, “An Extended Set of Haar-like Features for Rapid Object Detection”, IEEE ICIP 2002, Vol. 1, pp. 900-903, Sep. 2002.」に述べられた手法)を用いることも可能である。
以上のように顔検出は種々の方法があるが、本発明に係る顔検出部における顔検出処理は、上記の方法によるものに限らない。即ち、入力画像から顔を検出する方法であればどのような方法を用いてもよい。
次に、上記ステップS2における顔検出の有無を判定し(ステップS3)、検出された場合は手検出部1112で入力画像から手検出を行う(ステップS4)。検出されない場合は、既に操作範囲設定(ステップS7)が行われているかどうか判定し(ステップ11)、設定されている場合には操作範囲設定の解除を行い(ステップS12)、ステップS1に戻る。
続いて、上記ステップS4における手検出の有無を判定し(ステップS5)、検出された場合は手検出が一回目であるかどうかの判定を行う(ステップS6)。検出されない場合は、上述したステップS3と同様に、既に操作範囲設定(ステップS7)が行われているかどうか判定し(ステップ11)、設定されている場合には操作範囲設定の解除を行い(ステップS12)、ステップS1に戻る。
ステップS5で判定された手検出が一回目であれば、操作範囲設定部1113において、仮想操作範囲32に示すような操作範囲設定を行い(ステップS7)、ステップ1へと戻る。手検出が二度目以降であれば、ステップS2、ステップS4の検出情報と、ステップS7で設定した操作範囲情報に基づいてユーザの操作判定を行う(ステップS8)。最後に操作判定の結果に基づいて、操作に応じた処理を実行し(ステップS9)、処理結果とユーザの操作状態などを表示装置12に表示する(ステップS10)。
(ステップS4の詳細説明)
ステップS4の手検出部1112では、ユーザは表示システムの操作時には手を挙げていることを前提とし、入力画像のユーザ顔位置周辺を探索することで手検出を行う。手検出方法は、肌色検出による方法や、あらかじめ登録した複数の手形状パターンと一致する部分を探索する方法などによって行われる。
また、肌色検出で抽出した手領域の突起部分を探索する方法や、あらかじめ登録した複数の手形状パターンに指本数を変化させたパターンを含ませることで、手形状や指本数を判定する。ただし、手検出は上記の方法に限られず、入力画像から手を検出し、手の形状を判定することが可能であればどのような方法を用いてもよい。
(ステップS7の詳細説明)
上記ステップS7の操作範囲設定の詳細について以下に説明する。図5は、入力画像内で設定された操作範囲の一例を示しており、ユーザ31を撮像装置10で撮影した入力画像51内で、仮想操作範囲32が設定されている。矩形領域52はユーザの顔領域を表している。
操作範囲設定部1113は、顔検出部1111と手検出部1112の出力情報に基づいて仮想操作範囲32を設定する。顔検出部1111で出力される顔矩形領域52の情報から、ユーザ31の顔の大きさがわかり、撮像装置10(表示装置12)からユーザ31までの距離を大まかに知ることができる。個人差はあるが、一般的には矩形サイズが大きければ距離が近く、小さければ距離が遠いと言えるので、矩形サイズをパラメータとし、この値が大きければ仮想操作範囲を大きく、小さければ小さく設定するようにする。
入力画像51内での仮想操作範囲の左右位置は、顔と手の位置関係からユーザの使用する手(利き手)を判断し、顔の中心から利き手側へ水平方向に一定画素ずらした位置とする。また、仮想操作範囲の上下位置は、顔位置から下へ垂直方向に一定画素ずらした位置とする。左右・上下位置の画素ずらし量は、経験的に知ることができる一般的な人の手の動作範囲と、顔矩形領域52の矩形サイズをパラメータとして決める。
仮想操作範囲の設定方法は上記に限られず、顔の位置から固定的に決める方法や、表示システムの使用開始時にユーザ自身で登録する方法など、どのような方法でも構わない。
(ステップS8の詳細説明)
上記ステップS8の操作判定について以下に説明する。図3の破線で示すように、ステップS7で設定した仮想操作範囲32を表示装置12の表示面と対応させる。これにより、ユーザ31の手位置が仮想操作範囲32のどこにあるか判断することで、表示装置12の表示面のどこを選択しているかがわかる。したがって、図3ではユーザ31は操作ガイド領域33を選択していると判断できる。
このとき、操作ガイド領域33を強調表示することで、ユーザ自身に選択位置を知らせることができる。例えば、ユーザは握り拳の状態で自分の選択したい領域に手を移動し、その領域が強調表示されたら指を伸ばすことで、伸ばした指本数を判断してそれに対応した処理を実行することが出来る。このように、手位置と手形状(指本数)を利用することで、ユーザの操作判定を行う。
図3の例では、表示装置12の表示面を4分割するように設定したため、4分割×指本数5=20通りの操作が可能となっている。この表示面の分割方法の設定は、外部から操作情報設定部115に入力して行う。外部からの設定値入力は、キーボードやテキストファイルなどで行われる。表示面の分割方法は上記の例に限られるものではなく、表示面の分割数や分割する位置は自由に設定が可能であり、分割数が多くなればより多くの操作が可能となる。
また、表示面全体を分割するのではなく、図6に示すように、表示装置12の表示面下部領域を左右に分割することで、表示面全体に表示したい内容を視覚的に邪魔せず、操作ガイドを表示させることができる。この場合も、仮想操作範囲61と表示装置12の操作ガイドの表示領域を対応させることで、手位置と指本数のみで10通りの選択が可能となる。
上記したユーザの操作ガイド選択領域の強調表示は、選択領域の縁をハイライト表示する方法や、選択領域を拡大表示する方法などによって行われる。例えば、表示面の分割数を増やした場合には、各分割領域の画面上の表示サイズが小さくなり視認し難くなるため、ユーザの選択領域を拡大表示することでこの問題を解決することができる。
強調表示は上記の方法に限られず、ユーザに選択領域を示すことが可能であれば、どのような表示方法を用いても構わない。例えば、選択領域以外の領域をグレースケール化や透明化もしくは半透明化して目立たない表示とすることで、選択領域を強調する方法も考えられる。また、選択領域の強調表示以外にも、単純に手の位置に合わせて表示装置の表示面上にポインターを表示することで、ユーザに選択位置を示す方法も考えられる。
上記の例では、手形状から指本数を判定してジェスチャとして用いたが、ジェスチャはこれに限られるものではない。ユーザの負担が少なく、操作ガイド表示が単純で分かり易い方法であれば、どのような方法をジェスチャとして用いてもよい。例えば、手の動きや顔の動き、顔と手の相対位置関係、目の動き、視線などを用いる方法や、指示棒などの特別な操作器具を用いる方法など、様々なジェスチャが考えられる。
また、上記の例では手の位置を検出して操作ガイドの選択領域を判定したが、顔などの手以外の部位位置や、指示棒などの特別な操作器具の位置を用いて判定してもよい。
(ステップS9の詳細説明)
上記ステップS9で述べた操作に応じた処理とは、表示装置12に表示した仮想スイッチや仮想ボタン、サムネイル画像を選択する処理や、事前に画像処理装置11に登録されたアプリケーションを実行する処理などが考えられる。この処理はどのようなものであっても構わない。
(実施の形態2)
以下に、本発明の実施の形態2を、図面を用いて説明する。
図7は、本発明の実施の形態2における表示システムのハードウェア構成を表すブロック図である。全体構成は実施の形態1の図1に示したものと同様であるが、撮像装置70と画像処理装置71の構成が変化している。図1と図7で同じ構成の部分は同じ符号を付している。
撮像装置70には撮像部701が追加され、撮像部101、701は操作を行うユーザを撮像するようにステレオ配置されている。ステレオ配置とは、撮像部101、701の二つの撮像部を横並びに光軸が略平行となるよう並べた配置を言う。実施の形態2では、例として二つの撮像部101、701には同一構成のものを用いるが、二つの撮像部101、701で同領域を撮像し、画素間の対応を取ることが可能であれば、解像度や画角など構成の異なる撮像部を用いても構わない。
画像処理装置71は、実施の形態1の画像処理装置11と同様に、撮像されたユーザの位置や動きの判別を行うが、距離算出部711を追加した構成となっている。また、ユーザ情報解析部712は図2に示したユーザ情報解析部111と同じ構成であるが、手検出部1112、操作範囲設定部1113での処理の際に、距離算出部711からの出力情報を利用する。距離情報の算出方法と、距離情報を利用した処理についての詳細は後述する。
次に、図7で示した表示システム7の使用例と操作判定方法について、図8、図9を用いて説明する。
図8は、図7で示した表示システム7の表示装置12に家庭用TVなどの大型ディスプレイを用いた場合の使用例を表す図であり、図8(A)は正面図、図8(B)は側面図となっている。
撮像装置70は実施の形態1と同様、表示装置12の上部中央位置に設置する。実施の形態1と同様、撮像装置70の設置位置はこれに限定されるものではなく、ユーザの顔や手を撮影することが可能であればどこに設置してもよい。
撮像装置70で取得した2枚の画像は画像処理装置71へ入力され、距離算出、ユーザの仮想操作範囲81の設定、操作判定を行い、操作に応じた処理結果などを表示装置12に表示する。図8に示す例では、操作ガイド面2枚を奥行方向に配置して見えるように表示装置12に表示しており、ユーザは手前の操作ガイド面82の位置で指本数が1本の処理を選択している。また、図8では図7のブロック図と同じ構成のものは同じ符号を付している。
図9は実施の形態2における、処理フローチャートを表す図である。以下に処理手順と処理詳細を説明する。
図9に示すフローチャートは、実施の形態1の図4で示したフローチャートにおいて、画像取得(ステップS1)と顔検出(ステップS2)の間に、距離算出(ステップ13)を追加した構成となっている。従って、大まかな処理全体の流れは実施の形態1で説明したものと等しいため、以下では差分についてのみ説明する。
まず、撮像装置70の撮像部101、702で画像を取得し(ステップ1)、2枚の画像は画像処理装置71の距離算出部711へ入力され、距離算出を行う(ステップ13)。
撮像部101の画像(距離算出部711で基準とした撮像部の画像)と、距離算出部711で算出した距離情報は、ユーザ情報解析部712に入力される。ユーザ情報解析部712の顔検出部1111は入力画像から顔を検出する(ステップS2)。顔検出部1111による顔検出方法は実施の形態1と同様の方法を用いる。ステップ3以降の処理の流れは実施の形態1で述べたものと同様である。
(ステップ13の距離算出部711の説明)
ステップ13の距離算出部711は、ステレオ方式により距離算出を行う。ステレオ方式は、略平行に並べた二台の撮像装置で同じ領域を撮像し、得られた二つの画像において対応する画素の視差を求め、視差を基に距離を算出するものである。ステレオ方式において、二つの画像において対応する画素を求めることをステレオマッチングという。例えば、次のような処理を行う。
一方の撮像画像のある画素について、他方の撮像画像上を水平方向に走査することで画素マッチングを行う。画素マッチングは注目画素を中心としたブロック単位で行われ、ブロック内の画素の絶対値差分の総和をとるSAD(Sum of Absolute Difference)を計算し、SADの値が最小となるブロックを決定することで、一方の撮像画像の注目画素に対応する他方の撮像画像上の画素を求める。SADによる計算手法以外に、SSD(Sum of Squared Intensity Difference)やグラフカット、DP(Dynamic Programming)マッチングといった計算手法もある。
対応画素が求まることでその画素の視差値が算出可能となる。一方の撮像画像の全画素について上記の処理を行うことで、全画素の視差値を算出し、二つの撮像装置の位置関係と視差値を用いて三角測量を行うことで、撮像装置から被写体までの距離が算出できる。また、二つの撮像部が左右方向でなく、上下方向に配置されていても視差値は算出可能で、その場合は撮像画像の走査を水平方向に代えて垂直方向にすれば良い。
距離算出部711が出力する距離情報は、撮像部101画像の各画素に対応する距離値を0〜255の値に圧縮し、グレースケール画像化したビットマップ画像、デプスマップを表す。ただし、各画素に対応する視差値をグレースケール画像化したディスパリティマップをデプスマップの代わりに距離情報としても用いても良い。
(ステップ4の変更点の説明)
ただし、ステップ4の手検出では、実施の形態1で述べた検出方法に、距離情報を考慮することで、検出精度の向上を図る。例えば、ユーザ顔位置周辺を探索して肌色検出などを行う際に、画像の2次元方向だけでなく奥行方向にも探索範囲を限定することが可能となり、誤検出の低減が期待できる。
(ステップ7の変更点の説明)
また、実施の形態2におけるステップ7の操作範囲設定では、図8の仮想操作領域81に示すように、ステップ13の距離情報に基づいて3次元空間領域で設定する。2次元方向の仮想操作範囲位置は実施の形態1で述べた方法と同様にして決め、奥行方向の操作範囲は、一般的な人の手の動作範囲を考慮して決定する。例えば、一般的な人の手の長さは50〜100cm程度であるので、50cm幅に設定する
(ステップ8の変更点の説明)
ステップ8の操作判定では、ステップ7で設定した3次元の仮想操作範囲81内で、手の位置を判断する。図8の例では、仮想操作範囲81を奥行方向に2分割しており、手前の範囲(実線部分)にユーザの手がある。図8(A)に示すように、操作ガイド面2枚を奥行方向に配置して見えるように表示設定しているため、ユーザは手前の操作ガイド面82を選択していると判断することができる。反対に、仮想操作範囲81の破線領域に手が入れば、手前側の操作ガイド面82を透明化などしたうえで、後ろ側の操作ガイド面を強調表示させることで、後ろ側の操作ガイド面を選択しているとユーザに示すことが可能である。ユーザは前後に手を動かして、指本数を提示することで操作を行うことができる。
仮想操作範囲81の分割方法は、外部から操作情報設定部115に入力して設定する。また、分割方法は上記に限られず、さらに細かく奥行方向に分割することも可能であるし、2次元方向の分割と奥行方向の分割を組み合わせることも考えられる。
上記のユーザが選択した操作ガイド面をユーザ自信に示す方法は、実施の形態1で述べた強調表示と同様の方法によって行われ、ユーザに選択した操作ガイド面を示すことが可能であればどのような表示方法であっても構わない。
実施の形態1と同様に、実施の形態2でも指本数を用いているが、ジェスチャはこれに限られるものではない。距離情報を利用して、ユーザの手の奥行方向の動作を判定してジェスチャとすることも可能である。
(測距部を用いた場合の説明)
なお、本実施の形態2では2台の撮像部101、701の2つの画像からステレオ方式により距離算出を行ったが、図10に示す表示システム2の構成のように、どちらかの撮像部(図10の構成例では、図7に示されていた撮像部701)を測距部201に置き換えても良い。この場合、図10の画像処理装置21は、図7で示した画像処理装置71から距離算出部711を取り除いた構成となり、ユーザ情報解析部712には、測距部201から出力される距離情報が直接入力される。図7と図10で同じ構成の部分は同じ符号を付している。
図10の構成においても、図9のフローチャートと同様の処理方法で、本発明の実施の形態2の効果を実現することができる。ただし、ステップS1の画像取得とステップS13の距離取得は同時に行われる。
測距部201は、TOF(Time of Flight)方式に代表される赤外線を利用した手法を用いても良いし、距離情報を取得できるものであればどのような手法を用いても構わない。
TOF方式は、LED(Light Emitting Diode)などの光源から赤外線など眼に見えない光を照射し、その光が被写体などに当たり反射して返ってくる飛行時間を計測することで距離を測距するものである。その計測を細かく分割された領域毎に計測することで、一点だけでなく被写体の様々な部分の測距が可能となる。なお、飛行時間の測定の方法としては、レーザ光をパルス照射し、パルスを発射してから反射光が戻ってくるまでの時間を計測する方法や、照射する赤外線を変調し、照射したときの位相と、反射光との位相差から算出する方法などがある。
1…表示システム、7…表示システム、10…撮像装置、11…画像処理装置、12…表示装置、31…ユーザ、32…仮想操作範囲、33…操作ガイド領域、51…入力画像、52…矩形領域、61…仮想操作範囲、70…撮像装置、71…画像処理装置、81…仮想操作範囲、82…操作ガイド面、101…撮像部、111…ユーザ情報解析部、112…操作判定部、113…アプリケーション処理部、114…表示制御部、115…操作情報設定部、201…測距部、701…撮像部、711…距離算出部、712…ユーザ情報解析部、1111…顔検出部、1112…手検出部、1113…操作範囲設定部。

Claims (5)

  1. 撮像機能を有する撮像装置と、前記撮像装置で撮像した画像に基づいて、該画像に写された被写体の操作状態を判定し、該操作状態に応じて、予め定められたアプリケーションの処理を実行する画像処理装置と、前記アプリケーションの処理に応じた表示を行う表示装置とを備えた表示システムであって、
    前記画像処理装置は、
    前記画像から前記被写体の手を検出し、該手の位置と該手が表すジェスチャとの情報を取得する手検出部と、
    前記手の位置に基づいて、各々が前記アプリケーションの処理を示し手の位置と対応する複数の操作ガイドのうちの一つが前記被写体に選択されたと判定し、該選択された操作ガイドと前記ジェスチャの情報とに基づいて、前記操作状態の判定を行う操作判定部と
    を備え、
    前記表示装置は、前記複数の操作ガイドの各々のみを、対応する手の位置の奥行方向の順と同じ順で奥行方向に表示する
    ことを特徴とする表示システム。
  2. 表示システムを制御するための仮想操作範囲を設定し、該仮想操作範囲に複数の操作領域を設定する操作範囲設定部をさらに備え、
    前記操作判定部は、前記手の位置が、前記複数の操作領域のうちのいずれの領域の位置
    であるかを判定することで、前記選択された操作ガイドを決定し、
    前記画像処理装置は、前記表示装置の表示面に、前記複数の操作領域の位置に対応づけられた複数の表示領域を設定し、該複数の表示領域のそれぞれに、前記操作ガイドの各々を表示させるように設定する操作情報設定部をさらに備える
    ことを特徴とする請求項1に記載の表示システム。
  3. 前記撮像装置は、2つの撮像部を備えており、
    前記2つの撮像部により撮像された画像に基づいて、前記撮像部から前記被写体までの距離情報を算出する距離算出部をさらに備え、
    前記操作範囲設定部は、前記距離算出部で算出された前記距離情報に基づいて、前記仮想操作範囲を奥行方向に分割することで、前記複数の操作領域を設定することを特徴とする請求項2に記載の表示システム。
  4. 前記撮像装置は、撮像部を備えており、
    赤外線もしくはレーザ光を発光して被写体からの反射光を解析することにより、前記撮像部から前記被写体までの距離情報を算出する測距部をさらに備え、
    前記操作範囲設定部は、前記測距部で算出された前記距離情報に基づいて、前記仮想操作範囲を奥行方向に分割することで、前記複数の操作領域を設定することを特徴とする請求項2に記載の表示システム。
  5. 前記選択された操作ガイドを、前記複数の表示領域のうち前記選択された操作ガイドに対応する表示領域ではない他の表示領域に表示される前記操作ガイドとは区別可能に強調表示させることを特徴とする請求項2〜4の何れか1項に記載の表示システム。
JP2012079185A 2012-03-30 2012-03-30 表示システム Expired - Fee Related JP6068741B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012079185A JP6068741B2 (ja) 2012-03-30 2012-03-30 表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012079185A JP6068741B2 (ja) 2012-03-30 2012-03-30 表示システム

Publications (3)

Publication Number Publication Date
JP2013210723A JP2013210723A (ja) 2013-10-10
JP2013210723A5 JP2013210723A5 (ja) 2015-03-19
JP6068741B2 true JP6068741B2 (ja) 2017-01-25

Family

ID=49528523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012079185A Expired - Fee Related JP6068741B2 (ja) 2012-03-30 2012-03-30 表示システム

Country Status (1)

Country Link
JP (1) JP6068741B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101533319B1 (ko) 2014-02-22 2015-07-03 주식회사 브이터치 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법
WO2016157501A1 (ja) * 2015-04-02 2016-10-06 三菱電機株式会社 表示装置および表示方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3777650B2 (ja) * 1995-04-28 2006-05-24 松下電器産業株式会社 インターフェイス装置
JP2003308167A (ja) * 2002-04-17 2003-10-31 Nippon Telegr & Teleph Corp <Ntt> 情報入出力装置と方法
JP2004356819A (ja) * 2003-05-28 2004-12-16 Sharp Corp リモート操作装置
JP2005301668A (ja) * 2004-04-12 2005-10-27 Seiko Epson Corp 情報処理装置および情報処理プログラム
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP5262681B2 (ja) * 2008-12-22 2013-08-14 ブラザー工業株式会社 ヘッドマウントディスプレイ及びそのプログラム
JP2011192081A (ja) * 2010-03-15 2011-09-29 Canon Inc 情報処理装置及びその制御方法
JP4991953B2 (ja) * 2011-06-10 2012-08-08 株式会社東芝 映像再生装置及び映像再生方法

Also Published As

Publication number Publication date
JP2013210723A (ja) 2013-10-10

Similar Documents

Publication Publication Date Title
JP5740822B2 (ja) 情報処理装置、情報処理方法およびプログラム
US9569005B2 (en) Method and system implementing user-centric gesture control
CN105229582B (zh) 基于近距离传感器和图像传感器的手势检测
US9507437B2 (en) Algorithms, software and an interaction system that support the operation of an on the fly mouse
US20130266174A1 (en) System and method for enhanced object tracking
WO2015104257A1 (en) Human-to-computer natural three-dimensional hand gesture based navigation method
US9836130B2 (en) Operation input device, operation input method, and program
US9268408B2 (en) Operating area determination method and system
JP2004078977A (ja) インターフェイス装置
JP2013125985A (ja) 表示システム
KR101330531B1 (ko) 3차원 카메라를 이용한 가상 터치 방법 및 장치
KR101103058B1 (ko) 컴퓨터 시스템 및 이의 구동방법
JP2006244272A (ja) 手位置追跡方法、装置、およびプログラム
JP6068741B2 (ja) 表示システム
KR101071864B1 (ko) 터치 및 터치 제스처 인식 시스템
JP2011188023A (ja) 情報処理装置、情報処理方法およびプログラム
KR20140014868A (ko) 시선 추적 장치 및 이의 시선 추적 방법
JP6230666B2 (ja) データ入力装置、データ入力方法、及びデータ入力プログラム
JP6465197B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR101447958B1 (ko) 신체 부분 검출 방법 및 장치
US20160004385A1 (en) Input device
JP6260673B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6032319B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR101386655B1 (ko) 3d 공간 터치 시스템 및 방법
JP5118663B2 (ja) 情報端末装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150129

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150909

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150911

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160310

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161003

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161223

R150 Certificate of patent or registration of utility model

Ref document number: 6068741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees