JP2010081466A - 操作制御装置及び操作表示方法 - Google Patents

操作制御装置及び操作表示方法 Download PDF

Info

Publication number
JP2010081466A
JP2010081466A JP2008249516A JP2008249516A JP2010081466A JP 2010081466 A JP2010081466 A JP 2010081466A JP 2008249516 A JP2008249516 A JP 2008249516A JP 2008249516 A JP2008249516 A JP 2008249516A JP 2010081466 A JP2010081466 A JP 2010081466A
Authority
JP
Japan
Prior art keywords
operator
movement
display
display screen
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008249516A
Other languages
English (en)
Other versions
JP5427385B2 (ja
Inventor
Mayumi Nakade
真弓 中出
Tomoya Ozaki
友哉 尾崎
Takashi Matsubara
孝志 松原
Tatsuya Tokunaga
竜也 徳永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008249516A priority Critical patent/JP5427385B2/ja
Publication of JP2010081466A publication Critical patent/JP2010081466A/ja
Application granted granted Critical
Publication of JP5427385B2 publication Critical patent/JP5427385B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】
操作者を撮像した動画像、もしくは操作者が保持するセンサの出力情報から操作者の動作を検出する動作検出手段により、グラフィカル操作者インタフェースの操作を行う入力装置において、操作者に操作に有効な動作をグラフィカル操作者インタフェースが提示すると同時に、グラフィカル操作者インタフェースによるリアルタイムなフィードバックを与える操作制御装置を実現する。
【解決手段】
本発明の操作制御装置は、操作者を撮像した動画像、もしくは操作者が保持するセンサの出力情報から操作者の動作を検出する動作検出手段と、グラフィカル操作者インタフェースを表示する表示手段とを備え、該グラフィカル操作者インタフェースは制御範囲が設定されており、概ある範囲内を動体が移動したときの動体の軌跡を検出して、メニュー表示操作やコンテンツ選択等の制御を行うようにした。
【選択図】 図2

Description

本発明は、テレビジョン受像機等の各種機器の操作システムに関し、特に簡易な操作手段で直観的に分かりやすい操作を行うことのできる操作制御装置及び操作表示方法に関する。
近年のテレビジョン受像機は、離れたところから機能を制御する為のリモートコントロール装置、いわゆるリモコンで操作するのが一般的な構成となっている。リモコンは離れた場所からテレビジョン受信機を操作できる便利な装置ではあるが、手元にない、あるいは電池切れなどリモコンが使えない状態にあると、操作者はストレスを感じることとなる。
この改善策として、操作者の手の形や動きを検出して機器を操作する方式が提案されている。例えば、特開2004−356819のリモート操作装置では、カメラで撮影された操作者のある特定の動きを検出した場合に、表示装置に操作メニューを表示し、その後、操作者が手の形状や、方向を認識させることにより機器操作を行えるようにしている。
また、特開2000−149025では、人物の手足の動きの特徴を示す点の3次元座標を計測し、抽出された特徴点のうち手以外の特徴点を利用して人物の3次元位置/姿勢を推定し、推定された操作者の3次元位置を基準点として操作者姿勢に応じて各座標軸が一意に定まる操作者座標系を構成し、操作者の手足の特徴点を該操作者座標系に変換することで、操作者の位置/姿勢に依存しない特徴量を抽出し、その時系列変化とジェスチャモデルとのマッチングをとり人物の行なったジェスチャを推定するジェスチャ認識装置が開示される。このジェスチャ認識装置によると、操作者が位置/姿勢変化を行なう状況下でも高速にジェスチャを認識することが可能になる。
特開2004−356819号公報 特開2000−149025号公報
しかしながら、上記特許文献で開示された発明では、操作者を撮像した動画像からジェスチャを認識する場合、操作者がジェスチャをした動作と、操作者がジェスチャをした後に元の体制に戻る動作との区別がつきにくい問題がある。例えば、操作者が手で右方向を指し、その後、元の位置に手を戻した場合、その戻した動きが左方向を指す動作として認識されることがある。このように、従来の発明では、操作者がジェスチャを行った際に、操作として意図していない動きが認識されてしまうという課題があった。
本発明は、かかる課題をふまえ、操作者の動きのどの部分を装置への入力として受け付けるかを明確にすべく、操作者が有効な動作を行えるような領域の提示を行うと同時にリアルタイムなフィードバックを与えるようにする。
具体的には、本発明は、撮影により操作者の動きを検出し、該動きに従って、表示画面上の操作を行わせる操作制御装置であって、撮像画面内における操作制御が可能な領域を設定する検出領域設定部と、前記検出領域設定部で設定された操作制御が可能な領域と、前記操作者の動きを表示画面上に表示させるとともに、該操作制御が可能な領域内で動きを検出した場合に、該動きに対応して、表示画面上の操作表示を行わせる制御部とを備えるようにする。
特に、前記制御部は、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示させ、該複数のコンテンツに関連する情報のうちの選択可能な1つの表示領域と、前記操作制御が可能な領域を重ならせて表示させる。
また、前記制御部は、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示させ、該メニューの表示領域と、前記操作制御が可能な領域を重ならせて表示させる。
また、前記制御部は、前記操作制御が可能な領域を複数表示させ、該複数の領域ごとに、前記操作者の動きに対応して、異なる操作表示をさせる。
また、前記制御部は、該操作制御が可能な領域で検出する動きのうち、動きの方向と量に対応して異なる操作表示を行わせる。
さらに、本発明は、操作者の動きに従って、表示画面上の操作表示を行う操作表示方法であって、操作が可能な領域と、前記操作者の動きを表示画面上に表示するステップと、前記操作が可能な領域内での操作者の動きに対応して、表示画面上の操作表示を行うステップとを備えるようにする。
特に、前記表示画面上に表示するステップは、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示し、該複数のコンテンツに関連する情報のうちの選択可能な1つの表示領域と、前記操作が可能な領域を重ならせて表示する。
また、前記表示画面上に表示するステップは、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示し、該メニューの表示領域と、前記操作が可能な領域を重ならせて表示する。
また、前記表示画面上に表示するステップは、前記操作が可能な領域を複数表示させ、
前記表示画面上の操作表示を行うステップは、前記複数の領域ごとに、前記操作者の動きに対応して、異なる操作表示を行う。
また、前記表示画面上の操作表示を行うステップは、該操作が可能な領域内での操作者の動きのうち、動きの方向と量に対応して異なる操作表示を行う。
本発明によれば、操作者が有効な操作領域を認識することにより、簡単な動作での操作制御装置の操作が可能となる。
以下に、本発明の実施形態を、図面を用いて説明する。
図1は本発明の操作制御装置の構成を示すブロック図である。100は操作制御装置であり、102はカメラ等の撮像部、200は撮像部で撮像した操作者などの動画像から手などの動体を検出する動き検出部、201は動き検出部で検出した動体の移動方向および移動量を解析する動き解析部、202は撮像部102の撮影画面内において操作制御装置100の制御に使用する領域を設定する検出領域設定部、203は動き解析部201での解析結果と検出領域設定部202での設定領域に基づき操作制御装置100を制御するシステム制御部、204はシステム制御部203の制御結果から画面表示する映像データを生成する映像処理部、101は映像処理部で生成した映像データを表示する表示部である。表示部101は、例えば、液晶ディスプレイやプラズマディスプレイ等の表示装置で構成され、表示パネルとパネル制御回路とパネル制御ドライバとから構成される。
本発明の操作制御装置の動作例を図2に示す。図1と同じものには同じ番号を付している。106は操作制御装置100の操作者であり、107は操作者106が操作として手を動かした際の手の軌跡を示している。操作者106の動作は撮像部102で撮影されている。
また、110は、検出領域設定部202で設定された操作制御が可能な領域であり、111、112は、動き検出部で検出された操作者の手の動きである。
また、103は、視聴などのために選択すべきコンテンツメニューの例であり、104は、フォーカスされ、選択可能となっているコンテンツAを示している。コンテンツメニュー103では、コンテンツの代表画像あるいはコンテンツに関連した情報が並んで表示されている。105はコンテンツメニュー103のフォーカスが移動する方向を示しており、手を左右に動かすことで、コンテンツメニュー103内のフォーカスされるコンテンツが移動する。
上記の表示画面101内の表示は、システム制御部203で映像処理部204を制御することによって、行われる。
撮像部102の撮影画像例を図3に示す。300は撮像部102で撮影した画面全体、311は検出領域設定部202で設定された動体検出領域、306は操作者、311および312は操作者306の手が検出領域310内にある場合の手の位置と軌跡、313および314は操作者306の手が検出領域310外にある場合の手の位置と軌跡を示している。
110は検出領域設定部202で設定されている動体検出領域を表示画面上に表示したものであり、撮像画像内の動体検出領域310に対応している。動体検出領域110を表示することで、操作者106が手を動かすべき位置を認識できるようにしている。
111は動体である操作者の手の位置をイメージしたものであり、撮像部102で撮像された手の位置311及びその軌跡312が動き検出部200で検出され、映像処理部204でイメージ化され表示部101に表示されている。なお、動体のイメージ111は、操作者が理解しやすい形状であればどのような形でもかまわない。112は、動き解析部201が解析した操作者106が手を動かした際の手の軌跡を示している。図4に動体が動体検出領域外にある場合の、表示画面例を示す。図2と同じものは同じ番号を付しており、説明は省略する。401は操作者の手の位置をイメージしたものであり、図3の操作者の手313に対応しており、動体検出領域311の外にある。イメージ401が動体検出領域110外にある場合は、画面上に動体のイメージは表示するが、操作の軌跡解析を行わず、操作制御装置100の制御はしない。
次に操作制御装置100の処理フローを、図5及び図1を用いて説明する。本操作制御装置を開始すると、ステップ501で、動き検出部200により、撮像部102で撮影した画像データから動体検出を行う。ステップ501で、動体が検出されなければ動体検出処理を繰り返し、動体が検出されれば、ステップ502で、システム制御部203及び映像処理部204により、検出した動体の位置を、例えば図2のイメージ111のように表示する。ステップ503では、システム制御部203により、検出した動体の位置が検出領域設定部202で設定された動体検出領域310の内にあるか外にあるかを判断する。動体の位置が領域外であれば、ステップ501の動体検出に戻る。動体の位置が領域内であれば、ステップ504で、動き解析部201により、動体の軌跡を解析し、動体の移動方向および移動量を検出する。ステップ505では、システム制御部203により、動体の移動量が予め設定されている閾値以上かどうかを判断する。閾値以下であればステップ501の動体検出に戻る。閾値以上であれば、ステップ506で、システム制御部203により、動体の移動量および移動方向に対応した制御コマンドを生成し、制御コマンドに従った画面表示を、映像処理部204を用いて、表示部101に行わせる。例えば、図2のようなコンテンツメニュー103では、動体が左に動くとコンテンツメニューを左に動かす。
図6に表示画面例を示す。図2と同じものは同じ番号を付しており、説明は省略する。図6(a)は動体の初期位置の表示画面例であり、601は動体の位置を示すイメージであり、602および603はコンテンツメニュー103に表示されているコンテンツA、コンテンツBである。図6(a)では、フォーカス位置104にコンテンツA602が位置している。図6(b)は、動体が左方向に移動した場合の表示画面例であり、604は動体の軌跡、605は移動後の動体の位置を示すイメージである。図6(c)は、動体が左に動いたのに対応してコンテンツメニューを左に移動させた表示画面例である。コンテンツメニューを左に移動させた結果、フォーカス位置104にはコンテンツB603が配置され、コンテンツA602はフォーカス位置104の左に移動している。さらに、図6(d)は、動体がさらに左方向に移動して、動体検出領域110外に移動した表示画面例である。606は動体の軌跡、607は移動後の動体の位置を示すイメージである。動体の軌跡606は動体検出領域110外であるので、操作制御をせず、コンテンツメニュー103も図6(c)のままとなる。
以上、コンテンツメニュー103を左に動かす例を示したが、手を右に動かせば、コンテンツメニュー103を右に動かすことになる。
本例によれば、限られた領域を動体検出領域とし、操作者が動体検出領域内を横切るような動作をし、戻り動作のような意図しない動きは動作検出領域外で行うようにすることにより、意図しない動きを認識させることなく、操作者が意図する操作がし易くなる。
図7は、本発明の操作制御装置の実施例1とは別の表示画面例である。図2と同じものには同じ番号を付し、説明は省略する。701はフォーカス位置、705および706はコンテンツメニュー103の移動方向を示す。702は動体検出領域であり、コンテンツのフォーカス位置701に重なった位置に配置されている。703は動体の位置のイメージ、704は動体の軌跡である。システム構成については図1と、処理フロー及び表示画面内の動きについては図5及び図6と同様なため説明は省略する。
本例によれば、動作検出領域702がフォーカス位置701と重なっているため、操作者はより、手の動きでコンテンツを動かしている感覚を得ることができ、より直観的な操作が可能になる。
図8は、本発明の操作制御装置の実施例1及び2とは別の表示画面例である。図2と同じものには同じ番号を付し、説明は省略する。900はコンテンツメニュー、901はフォーカス位置、906および907はコンテンツメニューの移動方向を示す。902は動体検出領域であり、コンテンツメニュー900に重なった位置に配置されている。904は動体の位置のイメージ、905は動体の軌跡である。システム構成については図1と、処理フロー及び表示画面内の動きについては図5及び図6と同様なため説明は省略する。
本例によれば、動作検出領域902がコンテンツメニュー900と重なっているため、操作者はより、手の動きでコンテンツを動かしている感覚を得ることができ、より直観的な操作が可能になる。
図9は、本発明の操作制御装置の実施例1ないし3とは別の表示画面例である。図2および図7と同じものには同じ番号を付し、説明は省略する。801は702を第1動体検出領域とした場合の第2動体検出領域、802は動体の位置のイメージ、803は動体の軌跡である。
次に本例の操作制御装置の処理フローを、図10を用いて説明する。図5と同じものは同じ番号を付し、説明は省略する。ステップ502で、動体の位置を表示した後、ステップ510で、システム制御部203により、動体の位置が検出領域設定部202で設定された第1動体検出領域702及び第2動体検出領域801のいずれの範囲内にあるかを判断する。動体の位置がいずれにもない場合はステップ501の動体検出に戻る。動体の位置がどちらかの範囲内にある場合は、ステップ504で、動体の軌跡を解析する。ステップ505で、動体の移動量が閾値以上であれば、ステップ511で、システム制御部203により、動体の位置が第1動体検出領域702内にあるかどうかを判断する。動体の位置が第1動体検出領域702内であれば、ステップ506で、制御コマンドを生成し、例えばコンテンツメニューを動かす画面表示を行う。動体の位置が、動体検出領域702外であれば、第2動体検出領域内であるので、ステップ512で、ステップ506とは異なる別の制御コマンドの生成を行う。本例では、制御コマンドを、音量変更のために割り当てている。
本例によれば、複数の動体検出領域を設け、各々に制御対象を割り当てることにより、同じ手の操作で複数の制御が可能になる。なお、本例では2つの動作検出領域としたが、操作の必要に応じてさらに動体検出領域を増やしてもよい。
図11に操作者の手の動きの一例を示す。151は操作者がx軸方向に手を左右に動かす動作の軌跡、150はy軸方向に手を上下に動かす動作の軌跡を示している。操作者は、手を上下、左右に動かすことにより操作制御装置の操作を行う。
図12は、図7に対応する本発明の操作制御装置の表示画面例である。図2および図7と同じものには同じ番号を付し、説明は省略する。160は動体の位置のイメージであり、161は動体の軌跡、162は操作できる制御項目を操作方向とともに示した表示である。
次に本例の操作制御装置の処理フローを、図13を用いて説明する。図5と同じものは同じ番号を付し、説明は省略する。ステップ504で動体の軌跡を解析した後、ステップ520で、システム制御部203により、x方向の移動量が閾値以上であるかどうかを判断する。x軸方向の移動量が閾値以上であれば、ステップ506で、x軸方向の移動に対応する制御コマンドを生成し、例えばコンテンツメニューを動かす画面表示を行う。x軸方向の移動量が閾値以下であれば、ステップ521で、システム制御部203により、y軸方向の移動量が閾値以上であるかどうかを判断する。y軸方向の移動量が閾値以上であれば、ステップ522で、y軸方向の移動に対応する制御コマンドを生成し、例えばフォーカス位置701にあるコンテンツを選択/再生する。
本例によれば、動体の動きを、x軸方向およびy軸方向に分け異なる制御に割り当てることにより、より多くの制御が可能になる。また、図9に示したような複数の動体検出領域を用いた制御との組み合わせにより、さらに多くの制御を可能とする。
図14に操作者の手の動きの一例を示す。350は操作者がx軸方向に手を左右に動かす動作の軌跡、351はy軸方向に手を上下に動かす動作の軌跡、352はz軸方向に手を前後に動かす動作の軌跡を示している。操作者は、手を上下、左右、前後に動かすことにより操作制御装置の操作を行う。
図15は、図7に対応する本発明の操作制御装置の表示画面例である。図2および図7と同じものには同じ番号を付し、説明は省略する。本例では、撮像部102として撮像部102と撮像対象物との距離が測定可能な3Dカメラ等を用いている。451は動体の位置のイメージであり、452は操作方法を示した表示例である。例えば操作者が操作方法452に従い、手を前に出すと、操作制御装置100では動体が近づいたと判断し、フォーカス位置701にあるコンテンツの再生等を行う。
次に本例の操作制御装置の処理フローを、図16を用いて説明する。図5および図13と同じものは同じ番号を付し、説明は省略する。ステップ520でx軸方向の移動量が閾値以上であれば、ステップ506で、x軸方向の移動に対応する制御コマンドを生成し、例えばコンテンツメニューを動かす画面表示を行う。ステップ520でx軸方向の移動量が閾値以下であれば、ステップ530で、システム制御部203により、z軸方向の移動量が閾値以上であるかどうかを判断する。z軸方向の移動量が閾値以上であれば、ステップ522で、z軸方向の移動に対応する制御コマンドを生成し、例えばフォーカス位置701にあるコンテンツを選択/再生する。
本例によれば、動体の動きを、x軸方向、y軸方向、さらに、z軸方向にも分け異なる制御に割り当てることにより、より多くの制御が可能になる。また、図9に示したような複数の動体検出領域を用いた制御との組み合わせにより、さらに多くの制御を可能とする。
図17に二人の操作者の手の動きと撮像部102との関係図を示す。図2と同じものには同じ番号を付しており、説明は省略する。撮像部102は撮像部102と撮像対象物との距離が測定可能な3Dカメラ等である。650は第2の操作者であり、操作者106に比べて撮像部102から遠い位置にいる。651は操作者106の手の動作の軌跡であり、652は第2の操作者650の手の動作の軌跡を示している。操作者106と第2の操作者650は同時に手を動かしている。
図18は撮像部102の撮影画像例である。図3と同じものには同じ番号を付しており、説明は省略する。751は操作者106の撮像画像、752は操作者106の手の撮像画像、753は操作者106の手の動作の軌跡を示している。また、754は操作者650の撮像画像、755は操作者650の手の撮像画像、756は操作者650の手の動作の軌跡を示している。
ここでは、撮像部102からの距離データを明示してはいないが、各画像データは距離データも持っている。本例では、撮像画像データから撮像部102に最も近い動体を抽出して表示する。図19にその表示画面例を示す。図2と同じものには同じ番号を付しており、説明は省略する。851は操作者106の手の位置のイメージであり、852は手の動作の軌跡を示している。撮像部102では動体が2個検出されているが、図19の表示画面例では、最も近い動体である操作者106の手の位置を示すイメージ851のみ表示されており、操作制御装置100の操作も操作者106の動きのみが有効になっている。
次に、本例の操作制御装置100の処理フローを、図20を用いて説明する。図5および図16と同じものは同じ番号を付し、説明は省略する。ステップ501で動体を検出すると、ステップ540で、システム制御部203により、動体までの距離が基準値より近いかどうかを判断する。基準値は、操作制御装置100を操作可能な範囲として予め決めておく。こうすることにより、不必要な動体の検出を避けることができる。ステップ540で、基準値より遠ければ、ステップ501の動体検出に戻る。基準値より近ければ、ステップ541で、システム制御部203により、予め設けた動体の大きさの基準値内であるかどうかを判断する。動体の大きさが基準値外であれば、ステップ501の動体検出に戻る。こうすることにより、操作者の前を人が横切る等の動作をした時に、誤動作させないようにできる。動体の大きさが基準値内であれば、ステップ542で、システム制御部203及び映像処理部204により、最短距離にある動体として、その位置を表示する。
本例によれば、複数の操作者がいる場合、複数の移動体がある場合においても、真の操作者の手を特定し、操作可能な動体として認識することができる。
図21に操作者と撮像部との関係図を示す。図2と同じものには同じ番号を付しており、説明は省略する。撮像部102は撮像部102と撮像対象物との距離が測定可能な3Dカメラ等である。251は操作者106の手であり、252は撮像部102で検出される手251の位置、253は撮像部102で検出される手252までの距離、254は撮像部102で検出される操作者106の位置、255は撮像部102で検出される操作者106までの距離、256は操作者106までの距離255と操作者の手251までの距離253との差分を示している。
次に、本例の操作制御装置100の処理フローを、図22を用いて説明する。図5および図16と同じものは同じ番号を付し、説明は省略する。ステップ550で、操作者106を検出する。操作者106の検出は、撮像部102の撮像データで可能であり、例えば、画像を認識する方法や、撮影画像の中である一定距離内にある物体の大きさを検出する方法などを用いればよい。操作者106を検出することで操作者までの距離255がわかる。次に、ステップ501で、動体である手252を検出し、ステップ502で動体の位置表示をした後、ステップ551に移行する。ステップ551では、操作者までの距離255と動体の距離までの距離253の差分を取り、基準値と比較する。ここで、基準値は、操作者106が操作を目的に手を伸ばすおおよその距離を考慮して設定される。差分が、ある一定の基準値以上であれば、操作者106が操作を目的として伸ばした手であるとして、これを正式に動体として特定し、ステップ504に移行する。差分が一定の基準値以下であれば、操作者106が操作を目的とせずに動かした手であるとして、これを正式な動体として特定しないようにする。
本例によれば、操作者の操作を目的とした手などの動きを検出し、操作を意図しない手などの動きで誤動作しないようにすることができる。
実施例1における本発明の操作制御装置の構成を示すブロック図である。 実施例1における本発明の操作制御装置の動作例である。 実施例1における撮像部の撮像画像例である。 実施例1における動体が動体検出領域外にある場合の表示画面例である。 実施例1における本発明の操作制御装置の処理フローである。 実施例1における表示画面例である。 実施例2における実施例1とは別の表示画面例である。 実施例3における実施例1及び2とは別の表示画面例である。 実施例4における実施例1ないし3とは別の表示画面例である。 実施例4における本発明の操作制御装置の処理フローである。 実施例5における操作者の手の動きの一例である。 実施例5における表示画面例である。 実施例5のおける本発明の操作制御装置の処理フローである。 実施例6における操作者の手の動きの一例である。 実施例6における表示画面例である。 実施例6における本発明の操作制御装置の処理フローである。 実施例7における二人の操作者の手の動きと撮像部との関係図である。 実施例7における撮像部の撮像画像例である。 実施例7における表示画面例である。 実施例7における本発明の操作制御装置の処理フローである。 実施例8における操作者と撮像部との関係図である。 実施例8における本発明の操作制御装置の処理フローである。
符号の説明
100・・・操作制御装置、101・・・表示部、102・・・撮像部、103・・・コンテンツ選択メニュー、104・・・フォーカス位置、106・・・操作者、111・・・動体操作領域、200・・・動き検出部、201・・・動き解析部、202・・・システム制御部、203・・・検出範囲設定部、204・・・映像処理部

Claims (10)

  1. 撮影により操作者の動きを検出し、該動きに従って、表示画面上の操作を行わせる操作制御装置であって、
    撮像画面内における操作制御が可能な領域を設定する検出領域設定部と、
    前記検出領域設定部で設定された操作制御が可能な領域と、前記操作者の動きを表示画面上に表示させるとともに、該操作制御が可能な領域内で動きを検出した場合に、該動きに対応して、表示画面上の操作表示を行わせる制御部とを備えることを特徴とする操作制御装置。
  2. 前記制御部は、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示させ、該複数のコンテンツに関連する情報のうちの選択可能な1つの表示領域と、前記操作制御が可能な領域を重ならせて表示させることを特徴とする請求項1に記載の操作制御装置。
  3. 前記制御部は、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示させ、該メニューの表示領域と、前記操作制御が可能な領域を重ならせて表示させることを特徴とする請求項1に記載の操作制御装置。
  4. 前記制御部は、前記操作制御が可能な領域を複数表示させ、該複数の領域ごとに、前記操作者の動きに対応して、異なる操作表示をさせることを特徴とする請求項1に操作制御装置。
  5. 前記制御部は、該操作制御が可能な領域で検出する動きのうち、動きの方向と量に対応して異なる操作表示を行わせることを特徴とする請求項1に記載の操作制御装置。
  6. 操作者の動きに従って、表示画面上の操作表示を行う操作表示方法であって、
    操作が可能な領域と、前記操作者の動きを表示画面上に表示するステップと、
    前記操作が可能な領域内での操作者の動きに対応して、表示画面上の操作表示を行うステップとを備えることを特徴とする操作表示方法。
  7. 前記表示画面上に表示するステップは、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示し、該複数のコンテンツに関連する情報のうちの選択可能な1つの表示領域と、前記操作が可能な領域を重ならせて表示することを特徴とする請求項6に記載の操作表示方法。
  8. 前記表示画面上に表示するステップは、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示し、該メニューの表示領域と、前記操作が可能な領域を重ならせて表示することを特徴とする請求項6に記載の操作表示方法。
  9. 前記表示画面上に表示するステップは、前記操作が可能な領域を複数表示させ、
    前記表示画面上の操作表示を行うステップは、前記複数の領域ごとに、前記操作者の動きに対応して、異なる操作表示を行うことを特徴とする請求項6に記載の操作表示方法。
  10. 前記表示画面上の操作表示を行うステップは、該操作が可能な領域内での操作者の動きのうち、動きの方向と量に対応して異なる操作表示を行うことを特徴とする請求項6に記載の操作表示方法。
JP2008249516A 2008-09-29 2008-09-29 操作制御装置及び操作表示方法 Active JP5427385B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008249516A JP5427385B2 (ja) 2008-09-29 2008-09-29 操作制御装置及び操作表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008249516A JP5427385B2 (ja) 2008-09-29 2008-09-29 操作制御装置及び操作表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013248830A Division JP5770251B2 (ja) 2013-12-02 2013-12-02 操作制御装置

Publications (2)

Publication Number Publication Date
JP2010081466A true JP2010081466A (ja) 2010-04-08
JP5427385B2 JP5427385B2 (ja) 2014-02-26

Family

ID=42211360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008249516A Active JP5427385B2 (ja) 2008-09-29 2008-09-29 操作制御装置及び操作表示方法

Country Status (1)

Country Link
JP (1) JP5427385B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088688A (ja) * 2010-09-22 2012-05-10 Nikon Corp 画像表示装置
JP2012113715A (ja) * 2010-11-22 2012-06-14 Samsung Electronics Co Ltd オブジェクトの動きを用いたアイテム選択装置及び方法
CN102662577A (zh) * 2012-03-29 2012-09-12 华为终端有限公司 一种基于三维显示的光标操作方法及移动终端
JP2012234316A (ja) * 2011-04-28 2012-11-29 Ntt Docomo Inc 表示装置、表示装置の制御方法及びプログラム
JP2013134549A (ja) * 2011-12-26 2013-07-08 Sharp Corp データ入力装置およびデータ入力方法
JP2013171529A (ja) * 2012-02-22 2013-09-02 Shimane Prefecture 操作入力装置、操作判定方法およびプログラム
JP2014501415A (ja) * 2011-01-05 2014-01-20 ソフトキネティック ソフトウェア 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム
JP2014026355A (ja) * 2012-07-25 2014-02-06 Hitachi Consumer Electronics Co Ltd 映像表示装置および映像表示方法
JP2014512060A (ja) * 2011-04-20 2014-05-19 コーニンクレッカ フィリップス エヌ ヴェ ジェスチャーに基づく要素又はアイテムの制御
KR20150033182A (ko) * 2013-09-23 2015-04-01 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 모션 인식방법
CN104679230A (zh) * 2013-12-03 2015-06-03 华为终端有限公司 一种非接触式输入信息的方法及终端
JP2016139340A (ja) * 2015-01-28 2016-08-04 富士ゼロックス株式会社 情報入力システムおよび入力装置
KR101757297B1 (ko) * 2010-06-22 2017-07-13 엘지전자 주식회사 메뉴 리스트 조작 방법 및 그에 따른 영상 표시 장치
US10133470B2 (en) 2012-10-09 2018-11-20 Samsung Electronics Co., Ltd. Interfacing device and method for providing user interface exploiting multi-modality

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001111881A (ja) * 1999-10-07 2001-04-20 Internatl Business Mach Corp <Ibm> 撮像装置及びその遠隔操作方法
JP2001306243A (ja) * 2000-04-21 2001-11-02 Sony Corp 情報処理装置、認識可能動作通知方法及びプログラム格納媒体
JP2005049934A (ja) * 2003-07-29 2005-02-24 Yamaha Corp 画像処理装置
JP2005174356A (ja) * 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
JP2006068315A (ja) * 2004-09-02 2006-03-16 Sega Corp ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2006294066A (ja) * 2006-07-19 2006-10-26 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
WO2007029393A1 (ja) * 2005-09-05 2007-03-15 Sony Computer Entertainment Inc. マルチメディア再生装置、メニュー操作受付方法およびコンピュータプログラム
JP5183398B2 (ja) * 2008-09-29 2013-04-17 株式会社日立製作所 入力装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001111881A (ja) * 1999-10-07 2001-04-20 Internatl Business Mach Corp <Ibm> 撮像装置及びその遠隔操作方法
JP2005174356A (ja) * 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
JP2001306243A (ja) * 2000-04-21 2001-11-02 Sony Corp 情報処理装置、認識可能動作通知方法及びプログラム格納媒体
JP2005049934A (ja) * 2003-07-29 2005-02-24 Yamaha Corp 画像処理装置
JP2006068315A (ja) * 2004-09-02 2006-03-16 Sega Corp ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2007029393A1 (ja) * 2005-09-05 2007-03-15 Sony Computer Entertainment Inc. マルチメディア再生装置、メニュー操作受付方法およびコンピュータプログラム
JP2006294066A (ja) * 2006-07-19 2006-10-26 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP5183398B2 (ja) * 2008-09-29 2013-04-17 株式会社日立製作所 入力装置

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101757297B1 (ko) * 2010-06-22 2017-07-13 엘지전자 주식회사 메뉴 리스트 조작 방법 및 그에 따른 영상 표시 장치
JP2012088688A (ja) * 2010-09-22 2012-05-10 Nikon Corp 画像表示装置
JP2012113715A (ja) * 2010-11-22 2012-06-14 Samsung Electronics Co Ltd オブジェクトの動きを用いたアイテム選択装置及び方法
JP2014225288A (ja) * 2011-01-05 2014-12-04 ソフトキネティック ソフトウェア 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム
JP2014501415A (ja) * 2011-01-05 2014-01-20 ソフトキネティック ソフトウェア 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム
JP2014512060A (ja) * 2011-04-20 2014-05-19 コーニンクレッカ フィリップス エヌ ヴェ ジェスチャーに基づく要素又はアイテムの制御
JP2012234316A (ja) * 2011-04-28 2012-11-29 Ntt Docomo Inc 表示装置、表示装置の制御方法及びプログラム
JP2013134549A (ja) * 2011-12-26 2013-07-08 Sharp Corp データ入力装置およびデータ入力方法
JP2013171529A (ja) * 2012-02-22 2013-09-02 Shimane Prefecture 操作入力装置、操作判定方法およびプログラム
CN102662577A (zh) * 2012-03-29 2012-09-12 华为终端有限公司 一种基于三维显示的光标操作方法及移动终端
JP2014026355A (ja) * 2012-07-25 2014-02-06 Hitachi Consumer Electronics Co Ltd 映像表示装置および映像表示方法
US10133470B2 (en) 2012-10-09 2018-11-20 Samsung Electronics Co., Ltd. Interfacing device and method for providing user interface exploiting multi-modality
KR20150033182A (ko) * 2013-09-23 2015-04-01 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 모션 인식방법
KR101641091B1 (ko) * 2013-09-23 2016-07-20 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 모션 인식방법
US9557808B2 (en) 2013-09-23 2017-01-31 Samsung Electronics Co., Ltd. Display apparatus and method for motion recognition thereof
CN104679230A (zh) * 2013-12-03 2015-06-03 华为终端有限公司 一种非接触式输入信息的方法及终端
CN104679230B (zh) * 2013-12-03 2018-05-18 华为终端(东莞)有限公司 一种非接触式输入信息的方法及终端
JP2016139340A (ja) * 2015-01-28 2016-08-04 富士ゼロックス株式会社 情報入力システムおよび入力装置

Also Published As

Publication number Publication date
JP5427385B2 (ja) 2014-02-26

Similar Documents

Publication Publication Date Title
JP5427385B2 (ja) 操作制御装置及び操作表示方法
JP5261554B2 (ja) 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース
US8693732B2 (en) Computer vision gesture based control of a device
JP5921835B2 (ja) 入力装置
US8643598B2 (en) Image processing apparatus and method, and program therefor
JP5167523B2 (ja) 操作入力装置および操作判定方法並びにプログラム
US9569010B2 (en) Gesture-based human machine interface
US9342925B2 (en) Information processing apparatus, information processing method, and program
JP2010184600A (ja) 車載用ジェスチャースイッチ装置
JP2006209563A (ja) インターフェース装置
CN110395182B (zh) 具有电子后视镜的机动车
US8416189B2 (en) Manual human machine interface operation system and method thereof
JP2011028366A (ja) 操作制御装置および操作制御方法
EP3021206B1 (en) Method and device for refocusing multiple depth intervals, and electronic device
JP5921981B2 (ja) 映像表示装置および映像表示方法
JP2011081506A (ja) 映像表示装置、および、その表示制御方法
KR101438615B1 (ko) 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법
JP5770251B2 (ja) 操作制御装置
JP2012027515A (ja) 入力方法及び入力装置
JP2012238293A (ja) 入力装置
JP2007086995A (ja) ポインティング装置
CN105759955B (zh) 输入装置
KR20120136719A (ko) 손과 눈의 3차원 위치정보를 이용한 원거리 스크린 상의 물체지목 및 제어방법
JP2012179682A (ja) 移動ロボットシステム、移動ロボット制御装置、該制御装置に用いられる移動制御方法及び移動制御プログラム
JP2013109538A (ja) 入力方法及び入力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130515

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131202

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5427385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250