JP6068741B2 - 表示システム - Google Patents
表示システム Download PDFInfo
- Publication number
- JP6068741B2 JP6068741B2 JP2012079185A JP2012079185A JP6068741B2 JP 6068741 B2 JP6068741 B2 JP 6068741B2 JP 2012079185 A JP2012079185 A JP 2012079185A JP 2012079185 A JP2012079185 A JP 2012079185A JP 6068741 B2 JP6068741 B2 JP 6068741B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- hand
- unit
- user
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- User Interface Of Digital Computer (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Description
例えば、カメラで撮像した画像中のユーザの動きや手形状をコンピュータにより認識し、その認識情報によって機器操作を行う手法がある。この手法では、ディスプレイ周囲に設置したカメラに向かい、ユーザが手振り等によって指示を与えることで、ディスプレイに表示したカーソル等を操作し、ディスプレイに表示した仮想スイッチ等の選択を行う。これにより、マウスやリモコン等の手で直接操作する入力装置を必要とせずに、簡便な機器操作が可能となる。
以下に、本発明の実施の形態1を、図面を用いて説明する。
図1は、本発明の実施の形態1に係る表示システムの構成を示すブロック図である。実施の形態1に係る表示システム1は、操作を行うユーザを撮像する撮像装置10、撮像されたユーザの位置や動きを判別する画像処理装置11、操作ガイドや操作状態情報や操作による処理結果などを表示する表示装置12を備えている。
画像処理装置11はユーザ情報解析部111と操作判定部112、アプリケーション処理部113、表示制御部114とを備えている。
アプリケーション処理部113は、操作判定部112の出力に応じたアプリケーションを実行し、その結果を表示制御部114へ出力する。なお、アプリケーション処理部113には、事前に複数の処理やアプリケーションを登録しておくことができる。
操作情報設定部115は、操作ガイドの表示方法やユーザの操作範囲についての設定を行い、その情報を操作判定部112と表示制御部114に出力する。操作情報設定部115の設定値は外部から入力する。
表示装置12は液晶ディスプレイやプラズマディスプレイといったTVディスプレイや、パーソナルコンピュータ向けモニタなど一般的なディスプレイであり、表示制御部114の出力に基づいて表示を行う。
図3は、本発明に係る表示システムについて、表示装置12として家庭用TVなどの大型ディスプレイを用いた場合の使用例を表す図である。
撮像装置10は、表示装置12の上部中央位置で、表示装置12の正面側にいるユーザ31を撮影するように設置される。撮像装置10を表示装置12の上部中央位置に設置し、ユーザを俯瞰するように撮影することで、撮影される画像内でユーザの顔と手が重なり難くなるという利点が得られる。ただし、撮像装置10の設置位置はこれに限定されるものではなく、ユーザの顔や手を撮影することが可能であればどこに設置してもよい。例えばディスプレイ下部や側部、ユーザの手元付近といった場所に設置してもよい。
まず撮像装置10により画像を取得し(ステップS1)、取得した画像を画像処理装置11のユーザ情報解析部111へ入力する。ユーザ情報解析部111の顔検出部1111は入力画像から顔を検出する(ステップS2)。
例えば、顔検出部1111における顔検出方法には、入力画像から肌色情報を抽出し、肌色であると判断した画像領域を顔とする方法がある。また、平均的な人の顔のモノクロ画像を予め用意しておき、このモノクロ画像と撮像画像と比較したときの画像上の各位置での相関値が、予め設定された閾値以上である画像領域を顔とする方法がある。
ステップS4の手検出部1112では、ユーザは表示システムの操作時には手を挙げていることを前提とし、入力画像のユーザ顔位置周辺を探索することで手検出を行う。手検出方法は、肌色検出による方法や、あらかじめ登録した複数の手形状パターンと一致する部分を探索する方法などによって行われる。
また、肌色検出で抽出した手領域の突起部分を探索する方法や、あらかじめ登録した複数の手形状パターンに指本数を変化させたパターンを含ませることで、手形状や指本数を判定する。ただし、手検出は上記の方法に限られず、入力画像から手を検出し、手の形状を判定することが可能であればどのような方法を用いてもよい。
上記ステップS7の操作範囲設定の詳細について以下に説明する。図5は、入力画像内で設定された操作範囲の一例を示しており、ユーザ31を撮像装置10で撮影した入力画像51内で、仮想操作範囲32が設定されている。矩形領域52はユーザの顔領域を表している。
仮想操作範囲の設定方法は上記に限られず、顔の位置から固定的に決める方法や、表示システムの使用開始時にユーザ自身で登録する方法など、どのような方法でも構わない。
上記ステップS8の操作判定について以下に説明する。図3の破線で示すように、ステップS7で設定した仮想操作範囲32を表示装置12の表示面と対応させる。これにより、ユーザ31の手位置が仮想操作範囲32のどこにあるか判断することで、表示装置12の表示面のどこを選択しているかがわかる。したがって、図3ではユーザ31は操作ガイド領域33を選択していると判断できる。
また、上記の例では手の位置を検出して操作ガイドの選択領域を判定したが、顔などの手以外の部位位置や、指示棒などの特別な操作器具の位置を用いて判定してもよい。
上記ステップS9で述べた操作に応じた処理とは、表示装置12に表示した仮想スイッチや仮想ボタン、サムネイル画像を選択する処理や、事前に画像処理装置11に登録されたアプリケーションを実行する処理などが考えられる。この処理はどのようなものであっても構わない。
以下に、本発明の実施の形態2を、図面を用いて説明する。
図7は、本発明の実施の形態2における表示システムのハードウェア構成を表すブロック図である。全体構成は実施の形態1の図1に示したものと同様であるが、撮像装置70と画像処理装置71の構成が変化している。図1と図7で同じ構成の部分は同じ符号を付している。
図8は、図7で示した表示システム7の表示装置12に家庭用TVなどの大型ディスプレイを用いた場合の使用例を表す図であり、図8(A)は正面図、図8(B)は側面図となっている。
撮像装置70は実施の形態1と同様、表示装置12の上部中央位置に設置する。実施の形態1と同様、撮像装置70の設置位置はこれに限定されるものではなく、ユーザの顔や手を撮影することが可能であればどこに設置してもよい。
図9に示すフローチャートは、実施の形態1の図4で示したフローチャートにおいて、画像取得(ステップS1)と顔検出(ステップS2)の間に、距離算出(ステップ13)を追加した構成となっている。従って、大まかな処理全体の流れは実施の形態1で説明したものと等しいため、以下では差分についてのみ説明する。
撮像部101の画像(距離算出部711で基準とした撮像部の画像)と、距離算出部711で算出した距離情報は、ユーザ情報解析部712に入力される。ユーザ情報解析部712の顔検出部1111は入力画像から顔を検出する(ステップS2)。顔検出部1111による顔検出方法は実施の形態1と同様の方法を用いる。ステップ3以降の処理の流れは実施の形態1で述べたものと同様である。
ステップ13の距離算出部711は、ステレオ方式により距離算出を行う。ステレオ方式は、略平行に並べた二台の撮像装置で同じ領域を撮像し、得られた二つの画像において対応する画素の視差を求め、視差を基に距離を算出するものである。ステレオ方式において、二つの画像において対応する画素を求めることをステレオマッチングという。例えば、次のような処理を行う。
ただし、ステップ4の手検出では、実施の形態1で述べた検出方法に、距離情報を考慮することで、検出精度の向上を図る。例えば、ユーザ顔位置周辺を探索して肌色検出などを行う際に、画像の2次元方向だけでなく奥行方向にも探索範囲を限定することが可能となり、誤検出の低減が期待できる。
また、実施の形態2におけるステップ7の操作範囲設定では、図8の仮想操作領域81に示すように、ステップ13の距離情報に基づいて3次元空間領域で設定する。2次元方向の仮想操作範囲位置は実施の形態1で述べた方法と同様にして決め、奥行方向の操作範囲は、一般的な人の手の動作範囲を考慮して決定する。例えば、一般的な人の手の長さは50〜100cm程度であるので、50cm幅に設定する
ステップ8の操作判定では、ステップ7で設定した3次元の仮想操作範囲81内で、手の位置を判断する。図8の例では、仮想操作範囲81を奥行方向に2分割しており、手前の範囲(実線部分)にユーザの手がある。図8(A)に示すように、操作ガイド面2枚を奥行方向に配置して見えるように表示設定しているため、ユーザは手前の操作ガイド面82を選択していると判断することができる。反対に、仮想操作範囲81の破線領域に手が入れば、手前側の操作ガイド面82を透明化などしたうえで、後ろ側の操作ガイド面を強調表示させることで、後ろ側の操作ガイド面を選択しているとユーザに示すことが可能である。ユーザは前後に手を動かして、指本数を提示することで操作を行うことができる。
実施の形態1と同様に、実施の形態2でも指本数を用いているが、ジェスチャはこれに限られるものではない。距離情報を利用して、ユーザの手の奥行方向の動作を判定してジェスチャとすることも可能である。
なお、本実施の形態2では2台の撮像部101、701の2つの画像からステレオ方式により距離算出を行ったが、図10に示す表示システム2の構成のように、どちらかの撮像部(図10の構成例では、図7に示されていた撮像部701)を測距部201に置き換えても良い。この場合、図10の画像処理装置21は、図7で示した画像処理装置71から距離算出部711を取り除いた構成となり、ユーザ情報解析部712には、測距部201から出力される距離情報が直接入力される。図7と図10で同じ構成の部分は同じ符号を付している。
測距部201は、TOF(Time of Flight)方式に代表される赤外線を利用した手法を用いても良いし、距離情報を取得できるものであればどのような手法を用いても構わない。
Claims (5)
- 撮像機能を有する撮像装置と、前記撮像装置で撮像した画像に基づいて、該画像に写された被写体の操作状態を判定し、該操作状態に応じて、予め定められたアプリケーションの処理を実行する画像処理装置と、前記アプリケーションの処理に応じた表示を行う表示装置とを備えた表示システムであって、
前記画像処理装置は、
前記画像から前記被写体の手を検出し、該手の位置と該手が表すジェスチャとの情報を取得する手検出部と、
前記手の位置に基づいて、各々が前記アプリケーションの処理を示し手の位置と対応する複数の操作ガイドのうちの一つが前記被写体に選択されたと判定し、該選択された操作ガイドと前記ジェスチャの情報とに基づいて、前記操作状態の判定を行う操作判定部と
を備え、
前記表示装置は、前記複数の操作ガイドの各々のみを、対応する手の位置の奥行方向の順と同じ順で奥行方向に表示する
ことを特徴とする表示システム。 - 表示システムを制御するための仮想操作範囲を設定し、該仮想操作範囲に複数の操作領域を設定する操作範囲設定部をさらに備え、
前記操作判定部は、前記手の位置が、前記複数の操作領域のうちのいずれの領域の位置
であるかを判定することで、前記選択された操作ガイドを決定し、
前記画像処理装置は、前記表示装置の表示面に、前記複数の操作領域の位置に対応づけられた複数の表示領域を設定し、該複数の表示領域のそれぞれに、前記操作ガイドの各々を表示させるように設定する操作情報設定部をさらに備える
ことを特徴とする請求項1に記載の表示システム。 - 前記撮像装置は、2つの撮像部を備えており、
前記2つの撮像部により撮像された画像に基づいて、前記撮像部から前記被写体までの距離情報を算出する距離算出部をさらに備え、
前記操作範囲設定部は、前記距離算出部で算出された前記距離情報に基づいて、前記仮想操作範囲を奥行方向に分割することで、前記複数の操作領域を設定することを特徴とする請求項2に記載の表示システム。 - 前記撮像装置は、撮像部を備えており、
赤外線もしくはレーザ光を発光して被写体からの反射光を解析することにより、前記撮像部から前記被写体までの距離情報を算出する測距部をさらに備え、
前記操作範囲設定部は、前記測距部で算出された前記距離情報に基づいて、前記仮想操作範囲を奥行方向に分割することで、前記複数の操作領域を設定することを特徴とする請求項2に記載の表示システム。 - 前記選択された操作ガイドを、前記複数の表示領域のうち前記選択された操作ガイドに対応する表示領域ではない他の表示領域に表示される前記操作ガイドとは区別可能に強調表示させることを特徴とする請求項2〜4の何れか1項に記載の表示システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012079185A JP6068741B2 (ja) | 2012-03-30 | 2012-03-30 | 表示システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012079185A JP6068741B2 (ja) | 2012-03-30 | 2012-03-30 | 表示システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013210723A JP2013210723A (ja) | 2013-10-10 |
JP2013210723A5 JP2013210723A5 (ja) | 2015-03-19 |
JP6068741B2 true JP6068741B2 (ja) | 2017-01-25 |
Family
ID=49528523
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012079185A Expired - Fee Related JP6068741B2 (ja) | 2012-03-30 | 2012-03-30 | 表示システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6068741B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101533319B1 (ko) | 2014-02-22 | 2015-07-03 | 주식회사 브이터치 | 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법 |
WO2016157501A1 (ja) * | 2015-04-02 | 2016-10-06 | 三菱電機株式会社 | 表示装置および表示方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3777650B2 (ja) * | 1995-04-28 | 2006-05-24 | 松下電器産業株式会社 | インターフェイス装置 |
JP2003308167A (ja) * | 2002-04-17 | 2003-10-31 | Nippon Telegr & Teleph Corp <Ntt> | 情報入出力装置と方法 |
JP2004356819A (ja) * | 2003-05-28 | 2004-12-16 | Sharp Corp | リモート操作装置 |
JP2005301668A (ja) * | 2004-04-12 | 2005-10-27 | Seiko Epson Corp | 情報処理装置および情報処理プログラム |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
JP5262681B2 (ja) * | 2008-12-22 | 2013-08-14 | ブラザー工業株式会社 | ヘッドマウントディスプレイ及びそのプログラム |
JP2011192081A (ja) * | 2010-03-15 | 2011-09-29 | Canon Inc | 情報処理装置及びその制御方法 |
JP4991953B2 (ja) * | 2011-06-10 | 2012-08-08 | 株式会社東芝 | 映像再生装置及び映像再生方法 |
-
2012
- 2012-03-30 JP JP2012079185A patent/JP6068741B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013210723A (ja) | 2013-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5740822B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US9569005B2 (en) | Method and system implementing user-centric gesture control | |
CN105229582B (zh) | 基于近距离传感器和图像传感器的手势检测 | |
US9507437B2 (en) | Algorithms, software and an interaction system that support the operation of an on the fly mouse | |
US20130266174A1 (en) | System and method for enhanced object tracking | |
WO2015104257A1 (en) | Human-to-computer natural three-dimensional hand gesture based navigation method | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
US9268408B2 (en) | Operating area determination method and system | |
JP2004078977A (ja) | インターフェイス装置 | |
JP2013125985A (ja) | 表示システム | |
KR101330531B1 (ko) | 3차원 카메라를 이용한 가상 터치 방법 및 장치 | |
KR101103058B1 (ko) | 컴퓨터 시스템 및 이의 구동방법 | |
JP2006244272A (ja) | 手位置追跡方法、装置、およびプログラム | |
JP6068741B2 (ja) | 表示システム | |
KR101071864B1 (ko) | 터치 및 터치 제스처 인식 시스템 | |
JP2011188023A (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR20140014868A (ko) | 시선 추적 장치 및 이의 시선 추적 방법 | |
JP6230666B2 (ja) | データ入力装置、データ入力方法、及びデータ入力プログラム | |
JP6465197B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR101447958B1 (ko) | 신체 부분 검출 방법 및 장치 | |
US20160004385A1 (en) | Input device | |
JP6260673B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6032319B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR101386655B1 (ko) | 3d 공간 터치 시스템 및 방법 | |
JP5118663B2 (ja) | 情報端末装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150129 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20150909 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150911 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160310 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161003 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20161011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6068741 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |