JP5770251B2 - 操作制御装置 - Google Patents

操作制御装置 Download PDF

Info

Publication number
JP5770251B2
JP5770251B2 JP2013248830A JP2013248830A JP5770251B2 JP 5770251 B2 JP5770251 B2 JP 5770251B2 JP 2013248830 A JP2013248830 A JP 2013248830A JP 2013248830 A JP2013248830 A JP 2013248830A JP 5770251 B2 JP5770251 B2 JP 5770251B2
Authority
JP
Japan
Prior art keywords
operator
hand
operation control
moving object
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013248830A
Other languages
English (en)
Other versions
JP2014096804A (ja
Inventor
中出 真弓
真弓 中出
友哉 尾崎
友哉 尾崎
孝志 松原
孝志 松原
竜也 徳永
竜也 徳永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Maxell Energy Ltd
Original Assignee
Hitachi Maxell Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Energy Ltd filed Critical Hitachi Maxell Energy Ltd
Priority to JP2013248830A priority Critical patent/JP5770251B2/ja
Publication of JP2014096804A publication Critical patent/JP2014096804A/ja
Application granted granted Critical
Publication of JP5770251B2 publication Critical patent/JP5770251B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Description

本発明は、テレビジョン受像機等の各種機器の操作システムに関し、特に簡易な操作手段で直観的に分かりやすい操作を行うことのできる操作制御装置及び操作表示方法に関する。
近年のテレビジョン受像機は、離れたところから機能を制御する為のリモートコントロール装置、いわゆるリモコンで操作するのが一般的な構成となっている。リモコンは離れた場所からテレビジョン受信機を操作できる便利な装置ではあるが、手元にない、あるいは電池切れなどリモコンが使えない状態にあると、操作者はストレスを感じることとなる。
この改善策として、操作者の手の形や動きを検出して機器を操作する方式が提案されている。例えば、特開2004−356819のリモート操作装置では、カメラで撮影された操作者のある特定の動きを検出した場合に、表示装置に操作メニューを表示し、その後、操作者が手の形状や、方向を認識させることにより機器操作を行えるようにしている。
また、特開2000−149025では、人物の手足の動きの特徴を示す点の3次元座標を計測し、抽出された特徴点のうち手以外の特徴点を利用して人物の3次元位置/姿勢を推定し、推定された操作者の3次元位置を基準点として操作者姿勢に応じて各座標軸が一意に定まる操作者座標系を構成し、操作者の手足の特徴点を該操作者座標系に変換することで、操作者の位置/姿勢に依存しない特徴量を抽出し、その時系列変化とジェスチャモデルとのマッチングをとり人物の行なったジェスチャを推定するジェスチャ認識装置が開示される。このジェスチャ認識装置によると、操作者が位置/姿勢変化を行なう状況下でも高速にジェスチャを認識することが可能になる。
特開2004−356819号公報 特開2000−149025号公報
しかしながら、上記特許文献で開示された発明では、操作者を撮像した動画像からジェスチャを認識する場合、操作者がジェスチャをした動作と、操作者がジェスチャをした後に元の体制に戻る動作との区別がつきにくい問題がある。例えば、操作者が手で右方向を指し、その後、元の位置に手を戻した場合、その戻した動きが左方向を指す動作として認識されることがある。このように、従来の発明では、操作者がジェスチャを行った際に、操作として意図していない動きが認識されてしまうという課題があった。
本発明は、かかる課題をふまえ、操作者の動きのどの部分を装置への入力として受け付けるかを明確にすべく、操作者が有効な動作を行えるような領域の提示を行うと同時にリアルタイムなフィードバックを与えるようにする。
具体的には、本発明は、撮影により操作者の動きを検出し、該動きに従って、表示画面上の操作を行わせる操作制御装置であって、撮像画面内における操作制御が可能な領域を設定する検出領域設定部と、前記検出領域設定部で設定された操作制御が可能な領域と、前記操作者の動きを表示画面上に表示させるとともに、該操作制御が可能な領域内で動きを検出した場合に、該動きに対応して、表示画面上の操作表示を行わせる制御部とを備えるようにする。
特に、前記制御部は、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示させ、該複数のコンテンツに関連する情報のうちの選択可能な1つの表示領域と、前記操作制御が可能な領域を重ならせて表示させる。
また、前記制御部は、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示させ、該メニューの表示領域と、前記操作制御が可能な領域を重ならせて表示させる。
また、前記制御部は、前記操作制御が可能な領域を複数表示させ、該複数の領域ごとに、前記操作者の動きに対応して、異なる操作表示をさせる。
また、前記制御部は、該操作制御が可能な領域で検出する動きのうち、動きの方向と量に対応して異なる操作表示を行わせる。
さらに、本発明は、操作者の動きに従って、表示画面上の操作表示を行う操作表示方法であって、操作が可能な領域と、前記操作者の動きを表示画面上に表示するステップと、前記操作が可能な領域内での操作者の動きに対応して、表示画面上の操作表示を行うステップとを備えるようにする。
特に、前記表示画面上に表示するステップは、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示し、該複数のコンテンツに関連する情報のうちの選択可能な1つの表示領域と、前記操作が可能な領域を重ならせて表示する。
また、前記表示画面上に表示するステップは、前記表示画面に複数のコンテンツに関連する情報が示されたメニューを表示し、該メニューの表示領域と、前記操作が可能な領域を重ならせて表示する。
また、前記表示画面上に表示するステップは、前記操作が可能な領域を複数表示させ、前記表示画面上の操作表示を行うステップは、前記複数の領域ごとに、前記操作者の動きに対応して、異なる操作表示を行う。
また、前記表示画面上の操作表示を行うステップは、該操作が可能な領域内での操作者の動きのうち、動きの方向と量に対応して異なる操作表示を行う。
本発明によれば、操作者が有効な操作領域を認識することにより、簡単な動作での操作制御装置の操作が可能となる。
実施例1における本発明の操作制御装置の構成を示すブロック図である。 実施例1における本発明の操作制御装置の動作例である。 実施例1における撮像部の撮像画像例である。 実施例1における動体が動体検出領域外にある場合の表示画面例である。 実施例1における本発明の操作制御装置の処理フローである。 実施例1における表示画面例である。 実施例2における実施例1とは別の表示画面例である。 実施例3における実施例1及び2とは別の表示画面例である。 実施例4における実施例1ないし3とは別の表示画面例である。 実施例4における本発明の操作制御装置の処理フローである。 実施例5における操作者の手の動きの一例である。 実施例5における表示画面例である。 実施例5のおける本発明の操作制御装置の処理フローである。 実施例6における操作者の手の動きの一例である。 実施例6における表示画面例である。 実施例6における本発明の操作制御装置の処理フローである。 実施例7における二人の操作者の手の動きと撮像部との関係図である。 実施例7における撮像部の撮像画像例である。 実施例7における表示画面例である。 実施例7における本発明の操作制御装置の処理フローである。 実施例8における操作者と撮像部との関係図である。 実施例8における本発明の操作制御装置の処理フローである。
以下に、本発明の実施形態を、図面を用いて説明する。
図1は本発明の操作制御装置の構成を示すブロック図である。100は操作制御装置であり、102はカメラ等の撮像部、200は撮像部で撮像した操作者などの動画像から手などの動体を検出する動き検出部、201は動き検出部で検出した動体の移動方向および移動量を解析する動き解析部、202は撮像部102の撮影画面内において操作制御装置100の制御に使用する領域を設定する検出領域設定部、203は動き解析部201での解析結果と検出領域設定部202での設定領域に基づき操作制御装置100を制御するシステム制御部、204はシステム制御部203の制御結果から画面表示する映像データを生成する映像処理部、101は映像処理部で生成した映像データを表示する表示部である。表示部101は、例えば、液晶ディスプレイやプラズマディスプレイ等の表示装置で構成され、表示パネルとパネル制御回路とパネル制御ドライバとから構成される。
本発明の操作制御装置の動作例を図2に示す。図1と同じものには同じ番号を付している。106は操作制御装置100の操作者であり、107は操作者106が操作として手を動かした際の手の軌跡を示している。操作者106の動作は撮像部102で撮影されている。
また、110は、検出領域設定部202で設定された操作制御が可能な領域であり、111、112は、動き検出部で検出された操作者の手の動きである。
また、103は、視聴などのために選択すべきコンテンツメニューの例であり、104は、フォーカスされ、選択可能となっているコンテンツAを示している。コンテンツメニュー103では、コンテンツの代表画像あるいはコンテンツに関連した情報が並んで表示されている。105はコンテンツメニュー103のフォーカスが移動する方向を示しており、手を左右に動かすことで、コンテンツメニュー103内のフォーカスされるコンテンツが移動する。
上記の表示画面101内の表示は、システム制御部203で映像処理部204を制御することによって、行われる。
撮像部102の撮影画像例を図3に示す。300は撮像部102で撮影した画面全体、311は検出領域設定部202で設定された動体検出領域、306は操作者、311および312は操作者306の手が検出領域310内にある場合の手の位置と軌跡、313および314は操作者306の手が検出領域310外にある場合の手の位置と軌跡を示している。
110は検出領域設定部202で設定されている動体検出領域を表示画面上に表示したものであり、撮像画像内の動体検出領域310に対応している。動体検出領域110を表示することで、操作者106が手を動かすべき位置を認識できるようにしている。
111は動体である操作者の手の位置をイメージしたものであり、撮像部102で撮像された手の位置311及びその軌跡312が動き検出部200で検出され、映像処理部204でイメージ化され表示部101に表示されている。なお、動体のイメージ111は、操作者が理解しやすい形状であればどのような形でもかまわない。112は、動き解析部201が解析した操作者106が手を動かした際の手の軌跡を示している。図4に動体が動体検出領域外にある場合の、表示画面例を示す。図2と同じものは同じ番号を付しており、説明は省略する。401は操作者の手の位置をイメージしたものであり、図3の操作者の手313に対応しており、動体検出領域311の外にある。イメージ401が動体検出領域110外にある場合は、画面上に動体のイメージは表示するが、操作の軌跡解析を行わず、操作制御装置100の制御はしない。
次に操作制御装置100の処理フローを、図5及び図1を用いて説明する。本操作制御装置を開始すると、ステップ501で、動き検出部200により、撮像部102で撮影した画像データから動体検出を行う。ステップ501で、動体が検出されなければ動体検出処理を繰り返し、動体が検出されれば、ステップ502で、システム制御部203及び映像処理部204により、検出した動体の位置を、例えば図2のイメージ111のように表示する。ステップ503では、システム制御部203により、検出した動体の位置が検出領域設定部202で設定された動体検出領域310の内にあるか外にあるかを判断する。動体の位置が領域外であれば、ステップ501の動体検出に戻る。動体の位置が領域内であれば、ステップ504で、動き解析部201により、動体の軌跡を解析し、動体の移動方向および移動量を検出する。ステップ505では、システム制御部203により、動体の移動量が予め設定されている閾値以上かどうかを判断する。閾値以下であればステップ501の動体検出に戻る。閾値以上であれば、ステップ506で、システム制御部203により、動体の移動量および移動方向に対応した制御コマンドを生成し、制御コマンドに従った画面表示を、映像処理部204を用いて、表示部101に行わせる。例えば、図2のようなコンテンツメニュー103では、動体が左に動くとコンテンツメニューを左に動かす。
図6に表示画面例を示す。図2と同じものは同じ番号を付しており、説明は省略する。図6(a)は動体の初期位置の表示画面例であり、601は動体の位置を示すイメージであり、602および603はコンテンツメニュー103に表示されているコンテンツA、コンテンツBである。図6(a)では、フォーカス位置104にコンテンツA602が位置している。図6(b)は、動体が左方向に移動した場合の表示画面例であり、604は動体の軌跡、605は移動後の動体の位置を示すイメージである。図6(c)は、動体が左に動いたのに対応してコンテンツメニューを左に移動させた表示画面例である。コンテンツメニューを左に移動させた結果、フォーカス位置104にはコンテンツB603が配置され、コンテンツA602はフォーカス位置104の左に移動している。さらに、図6(d)は、動体がさらに左方向に移動して、動体検出領域110外に移動した表示画面例である。606は動体の軌跡、607は移動後の動体の位置を示すイメージである。動体の軌跡606は動体検出領域110外であるので、操作制御をせず、コンテンツメニュー103も図6(c)のままとなる。
以上、コンテンツメニュー103を左に動かす例を示したが、手を右に動かせば、コンテンツメニュー103を右に動かすことになる。
本例によれば、限られた領域を動体検出領域とし、操作者が動体検出領域内を横切るような動作をし、戻り動作のような意図しない動きは動作検出領域外で行うようにすることにより、意図しない動きを認識させることなく、操作者が意図する操作がし易くなる。
図7は、本発明の操作制御装置の実施例1とは別の表示画面例である。図2と同じものには同じ番号を付し、説明は省略する。701はフォーカス位置、705および706はコンテンツメニュー103の移動方向を示す。702は動体検出領域であり、コンテンツのフォーカス位置701に重なった位置に配置されている。703は動体の位置のイメージ、704は動体の軌跡である。システム構成については図1と、処理フロー及び表示画面内の動きについては図5及び図6と同様なため説明は省略する。
本例によれば、動作検出領域702がフォーカス位置701と重なっているため、操作者はより、手の動きでコンテンツを動かしている感覚を得ることができ、より直観的な操作が可能になる。
図8は、本発明の操作制御装置の実施例1及び2とは別の表示画面例である。図2と同じものには同じ番号を付し、説明は省略する。900はコンテンツメニュー、901はフォーカス位置、906および907はコンテンツメニューの移動方向を示す。902は動体検出領域であり、コンテンツメニュー900に重なった位置に配置されている。904は動体の位置のイメージ、905は動体の軌跡である。システム構成については図1と、処理フロー及び表示画面内の動きについては図5及び図6と同様なため説明は省略する。
本例によれば、動作検出領域902がコンテンツメニュー900と重なっているため、操作者はより、手の動きでコンテンツを動かしている感覚を得ることができ、より直観的な操作が可能になる。
図9は、本発明の操作制御装置の実施例1ないし3とは別の表示画面例である。図2および図7と同じものには同じ番号を付し、説明は省略する。801は702を第1動体検出領域とした場合の第2動体検出領域、802は動体の位置のイメージ、803は動体の軌跡である。
次に本例の操作制御装置の処理フローを、図10を用いて説明する。図5と同じものは同じ番号を付し、説明は省略する。ステップ502で、動体の位置を表示した後、ステップ510で、システム制御部203により、動体の位置が検出領域設定部202で設定された第1動体検出領域702及び第2動体検出領域801のいずれの範囲内にあるかを判断する。動体の位置がいずれにもない場合はステップ501の動体検出に戻る。動体の位置がどちらかの範囲内にある場合は、ステップ504で、動体の軌跡を解析する。ステップ505で、動体の移動量が閾値以上であれば、ステップ511で、システム制御部203により、動体の位置が第1動体検出領域702内にあるかどうかを判断する。動体の位置が第1動体検出領域702内であれば、ステップ506で、制御コマンドを生成し、例えばコンテンツメニューを動かす画面表示を行う。動体の位置が、動体検出領域702外であれば、第2動体検出領域内であるので、ステップ512で、ステップ506とは異なる別の制御コマンドの生成を行う。本例では、制御コマンドを、音量変更のために割り当てている。
本例によれば、複数の動体検出領域を設け、各々に制御対象を割り当てることにより、同じ手の操作で複数の制御が可能になる。なお、本例では2つの動作検出領域としたが、操作の必要に応じてさらに動体検出領域を増やしてもよい。
図11に操作者の手の動きの一例を示す。151は操作者がx軸方向に手を左右に動かす動作の軌跡、150はy軸方向に手を上下に動かす動作の軌跡を示している。操作者は、手を上下、左右に動かすことにより操作制御装置の操作を行う。
図12は、図7に対応する本発明の操作制御装置の表示画面例である。図2および図7と同じものには同じ番号を付し、説明は省略する。160は動体の位置のイメージであり、161は動体の軌跡、162は操作できる制御項目を操作方向とともに示した表示である。
次に本例の操作制御装置の処理フローを、図13を用いて説明する。図5と同じものは同じ番号を付し、説明は省略する。ステップ504で動体の軌跡を解析した後、ステップ520で、システム制御部203により、x方向の移動量が閾値以上であるかどうかを判断する。x軸方向の移動量が閾値以上であれば、ステップ506で、x軸方向の移動に対応する制御コマンドを生成し、例えばコンテンツメニューを動かす画面表示を行う。x軸方向の移動量が閾値以下であれば、ステップ521で、システム制御部203により、y軸方向の移動量が閾値以上であるかどうかを判断する。y軸方向の移動量が閾値以上であれば、ステップ522で、y軸方向の移動に対応する制御コマンドを生成し、例えばフォーカス位置701にあるコンテンツを選択/再生する。
本例によれば、動体の動きを、x軸方向およびy軸方向に分け異なる制御に割り当てることにより、より多くの制御が可能になる。また、図9に示したような複数の動体検出領域を用いた制御との組み合わせにより、さらに多くの制御を可能とする。
図14に操作者の手の動きの一例を示す。350は操作者がx軸方向に手を左右に動かす動作の軌跡、351はy軸方向に手を上下に動かす動作の軌跡、352はz軸方向に手を前後に動かす動作の軌跡を示している。操作者は、手を上下、左右、前後に動かすことにより操作制御装置の操作を行う。
図15は、図7に対応する本発明の操作制御装置の表示画面例である。図2および図7と同じものには同じ番号を付し、説明は省略する。本例では、撮像部102として撮像部102と撮像対象物との距離が測定可能な3Dカメラ等を用いている。451は動体の位置のイメージであり、452は操作方法を示した表示例である。例えば操作者が操作方法452に従い、手を前に出すと、操作制御装置100では動体が近づいたと判断し、フォーカス位置701にあるコンテンツの再生等を行う。
次に本例の操作制御装置の処理フローを、図16を用いて説明する。図5および図13と同じものは同じ番号を付し、説明は省略する。ステップ520でx軸方向の移動量が閾値以上であれば、ステップ506で、x軸方向の移動に対応する制御コマンドを生成し、例えばコンテンツメニューを動かす画面表示を行う。ステップ520でx軸方向の移動量が閾値以下であれば、ステップ530で、システム制御部203により、z軸方向の移動量が閾値以上であるかどうかを判断する。z軸方向の移動量が閾値以上であれば、ステップ522で、z軸方向の移動に対応する制御コマンドを生成し、例えばフォーカス位置701にあるコンテンツを選択/再生する。
本例によれば、動体の動きを、x軸方向、y軸方向、さらに、z軸方向にも分け異なる制御に割り当てることにより、より多くの制御が可能になる。また、図9に示したような複数の動体検出領域を用いた制御との組み合わせにより、さらに多くの制御を可能とする。
図17に二人の操作者の手の動きと撮像部102との関係図を示す。図2と同じものには同じ番号を付しており、説明は省略する。撮像部102は撮像部102と撮像対象物との距離が測定可能な3Dカメラ等である。650は第2の操作者であり、操作者106に比べて撮像部102から遠い位置にいる。651は操作者106の手の動作の軌跡であり、652は第2の操作者650の手の動作の軌跡を示している。操作者106と第2の操作者650は同時に手を動かしている。
図18は撮像部102の撮影画像例である。図3と同じものには同じ番号を付しており、説明は省略する。751は操作者106の撮像画像、752は操作者106の手の撮像画像、753は操作者106の手の動作の軌跡を示している。また、754は操作者650の撮像画像、755は操作者650の手の撮像画像、756は操作者650の手の動作の軌跡を示している。
ここでは、撮像部102からの距離データを明示してはいないが、各画像データは距離データも持っている。本例では、撮像画像データから撮像部102に最も近い動体を抽出して表示する。図19にその表示画面例を示す。図2と同じものには同じ番号を付しており、説明は省略する。851は操作者106の手の位置のイメージであり、852は手の動作の軌跡を示している。撮像部102では動体が2個検出されているが、図19の表示画面例では、最も近い動体である操作者106の手の位置を示すイメージ851のみ表示されており、操作制御装置100の操作も操作者106の動きのみが有効になっている。
次に、本例の操作制御装置100の処理フローを、図20を用いて説明する。図5および図16と同じものは同じ番号を付し、説明は省略する。ステップ501で動体を検出すると、ステップ540で、システム制御部203により、動体までの距離が基準値より近いかどうかを判断する。基準値は、操作制御装置100を操作可能な範囲として予め決めておく。こうすることにより、不必要な動体の検出を避けることができる。ステップ540で、基準値より遠ければ、ステップ501の動体検出に戻る。基準値より近ければ、ステップ541で、システム制御部203により、予め設けた動体の大きさの基準値内であるかどうかを判断する。動体の大きさが基準値外であれば、ステップ501の動体検出に戻る。こうすることにより、操作者の前を人が横切る等の動作をした時に、誤動作させないようにできる。動体の大きさが基準値内であれば、ステップ542で、システム制御部203及び映像処理部204により、最短距離にある動体として、その位置を表示する。
本例によれば、複数の操作者がいる場合、複数の移動体がある場合においても、真の操作者の手を特定し、操作可能な動体として認識することができる。
図21に操作者と撮像部との関係図を示す。図2と同じものには同じ番号を付しており、説明は省略する。撮像部102は撮像部102と撮像対象物との距離が測定可能な3Dカメラ等である。251は操作者106の手であり、252は撮像部102で検出される手251の位置、253は撮像部102で検出される手252までの距離、254は撮像部102で検出される操作者106の位置、255は撮像部102で検出される操作者106までの距離、256は操作者106までの距離255と操作者の手251までの距離253との差分を示している。
次に、本例の操作制御装置100の処理フローを、図22を用いて説明する。図5および図16と同じものは同じ番号を付し、説明は省略する。ステップ550で、操作者106を検出する。操作者106の検出は、撮像部102の撮像データで可能であり、例えば、画像を認識する方法や、撮影画像の中である一定距離内にある物体の大きさを検出する方法などを用いればよい。操作者106を検出することで操作者までの距離255がわかる。次に、ステップ501で、動体である手252を検出し、ステップ502で動体の位置表示をした後、ステップ551に移行する。ステップ551では、操作者までの距離255と動体の距離までの距離253の差分を取り、基準値と比較する。ここで、基準値は、操作者106が操作を目的に手を伸ばすおおよその距離を考慮して設定される。差分が、ある一定の基準値以上であれば、操作者106が操作を目的として伸ばした手であるとして、これを正式に動体として特定し、ステップ504に移行する。差分が一定の基準値以下であれば、操作者106が操作を目的とせずに動かした手であるとして、これを正式な動体として特定しないようにする。
本例によれば、操作者の操作を目的とした手などの動きを検出し、操作を意図しない手などの動きで誤動作しないようにすることができる。
100・・・操作制御装置、101・・・表示部、102・・・撮像部、103・・・コンテンツ選択メニュー、104・・・フォーカス位置、106・・・操作者、111・・・動体操作領域、200・・・動き検出部、201・・・動き解析部、202・・・システム制御部、203・・・検出範囲設定部、204・・・映像処理部

Claims (6)

  1. 3Dカメラによる撮影により操作者の手の動きを検出し、前記手の動きに従って、表示画面上の操作をわせる操作制御装置であって、
    撮像画面内における操作制御が可能な領域を設定する検出領域設定部と、
    前記検出領域設定部で設定された操作制御が可能な領域、前記操作者の手、および複数の選択項目が並んだメニューを表示画面上に表示する表示部と、
    前記表示画面上において、前記3Dカメラから最短距離にある前記操作者の手を表示させ、表示された前記操作者の手が、前記操作制御が可能な領域内で動いた場合に、前記操作者の手の動きの移動方向及び移動量に対応して、前記表示画面上の前記メニューを移動して表示させる制御部と、を備えることを特徴とする操作制御装置
  2. 前記制御部は、前記複数の選択項目のうちの選択可能な1つの表示領域と、前記操作制御が可能な領域を重ならせて表示させることを特徴とする請求項1に記載の操作制御装置
  3. 前記制御部は、前記メニューの表示領域と、前記操作制御が可能な領域を重ならせて表示させることを特徴とする請求項1に記載の操作制御装置
  4. 3Dカメラによる撮影により操作者の手の動きと操作者の体を検出し、前記手の動きに従って、表示画面上の操作を行わせる操作制御装置であって、
    撮像画面内における操作制御が可能な領域を設定する検出領域設定部と、
    前記検出領域設定部で設定された操作制御が可能な領域、前記操作者の手、および複数の選択項目が並んだメニューを表示画面上に表示する表示部と、
    前記表示画面上において、前記操作者の体から所定の距離だけ手前に出された前記操作者の手を表示させ、表示された前記操作者の手が、前記操作制御が可能な領域内で動いた場合に、前記操作者の手の動きの移動方向及び移動量に対応して、前記表示画面上の前記メニューを移動して表示させる制御部と、を備えることを特徴とする操制御装置
  5. 前記制御部は、前記複数の選択項目のうちの選択可能な1つの表示領域と、前記操作制御が可能な領域を重ならせて表示させることを特徴とする請求項4に記載の操作制御装置。
  6. 前記制御部は、前記メニューの表示領域と、前記操作制御が可能な領域を重ならせて表示させることを特徴とする請求項4に記載の操作制御装置。
JP2013248830A 2013-12-02 2013-12-02 操作制御装置 Active JP5770251B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013248830A JP5770251B2 (ja) 2013-12-02 2013-12-02 操作制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013248830A JP5770251B2 (ja) 2013-12-02 2013-12-02 操作制御装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008249516A Division JP5427385B2 (ja) 2008-09-29 2008-09-29 操作制御装置及び操作表示方法

Publications (2)

Publication Number Publication Date
JP2014096804A JP2014096804A (ja) 2014-05-22
JP5770251B2 true JP5770251B2 (ja) 2015-08-26

Family

ID=50939507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013248830A Active JP5770251B2 (ja) 2013-12-02 2013-12-02 操作制御装置

Country Status (1)

Country Link
JP (1) JP5770251B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6519074B2 (ja) * 2014-09-08 2019-05-29 任天堂株式会社 電子機器
JP6519075B2 (ja) * 2015-02-10 2019-05-29 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6551941B2 (ja) * 2016-04-19 2019-07-31 株式会社東海理化電機製作所 ジェスチャ判定装置
CN105898566A (zh) * 2016-04-29 2016-08-24 乐视控股(北京)有限公司 一种视频内容呈现的切换方法、装置及其移动播放终端

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981307A (ja) * 1995-09-08 1997-03-28 Clarion Co Ltd 機器制御装置
JP4010708B2 (ja) * 1999-06-21 2007-11-21 日本ビクター株式会社 機器制御装置
JP2002116859A (ja) * 2000-10-11 2002-04-19 Sony Corp 情報処理装置、命令認識処理方法及びプログラム格納媒体
JP2004258837A (ja) * 2003-02-25 2004-09-16 Nippon Hoso Kyokai <Nhk> カーソル操作装置、その方法およびそのプログラム
JP2006209563A (ja) * 2005-01-31 2006-08-10 Victor Co Of Japan Ltd インターフェース装置
JP2007034525A (ja) * 2005-07-25 2007-02-08 Fuji Xerox Co Ltd 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2008040576A (ja) * 2006-08-02 2008-02-21 Sharp Corp 画像処理システム及び該システムを備えた映像表示装置
JP4481280B2 (ja) * 2006-08-30 2010-06-16 富士フイルム株式会社 画像処理装置、及び画像処理方法
US20080098448A1 (en) * 2006-10-19 2008-04-24 Sony Computer Entertainment America Inc. Controller configured to track user's level of anxiety and other mental and physical attributes
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control

Also Published As

Publication number Publication date
JP2014096804A (ja) 2014-05-22

Similar Documents

Publication Publication Date Title
JP5427385B2 (ja) 操作制御装置及び操作表示方法
JP5261554B2 (ja) 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース
JP5167523B2 (ja) 操作入力装置および操作判定方法並びにプログラム
JP5921835B2 (ja) 入力装置
US9001208B2 (en) Imaging sensor based multi-dimensional remote controller with multiple input mode
US9329691B2 (en) Operation input apparatus and method using distinct determination and control areas
JP5515067B2 (ja) 操作入力装置および操作判定方法並びにプログラム
JP2010184600A (ja) 車載用ジェスチャースイッチ装置
CN110395182B (zh) 具有电子后视镜的机动车
EP2908215B1 (en) Method and apparatus for gesture detection and display control
JP2006209563A (ja) インターフェース装置
EP3021206B1 (en) Method and device for refocusing multiple depth intervals, and electronic device
JP5921981B2 (ja) 映像表示装置および映像表示方法
US8416189B2 (en) Manual human machine interface operation system and method thereof
JP2011028366A (ja) 操作制御装置および操作制御方法
KR101438615B1 (ko) 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법
JP5770251B2 (ja) 操作制御装置
JP2012238293A (ja) 入力装置
US11693482B2 (en) Systems and methods for controlling virtual widgets in a gesture-controlled device
JP2007086995A (ja) ポインティング装置
CN105759955B (zh) 输入装置
KR20120136719A (ko) 손과 눈의 3차원 위치정보를 이용한 원거리 스크린 상의 물체지목 및 제어방법
JP2012179682A (ja) 移動ロボットシステム、移動ロボット制御装置、該制御装置に用いられる移動制御方法及び移動制御プログラム
JPWO2018150569A1 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140310

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150624

R150 Certificate of patent or registration of utility model

Ref document number: 5770251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250