JP2013200815A - 操作入力装置、操作入力方法、及び、プログラム - Google Patents

操作入力装置、操作入力方法、及び、プログラム Download PDF

Info

Publication number
JP2013200815A
JP2013200815A JP2012070046A JP2012070046A JP2013200815A JP 2013200815 A JP2013200815 A JP 2013200815A JP 2012070046 A JP2012070046 A JP 2012070046A JP 2012070046 A JP2012070046 A JP 2012070046A JP 2013200815 A JP2013200815 A JP 2013200815A
Authority
JP
Japan
Prior art keywords
plane
user
space
unit
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012070046A
Other languages
English (en)
Other versions
JP5646532B2 (ja
Inventor
Hiroshi Machida
宏司 町田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2012070046A priority Critical patent/JP5646532B2/ja
Publication of JP2013200815A publication Critical patent/JP2013200815A/ja
Application granted granted Critical
Publication of JP5646532B2 publication Critical patent/JP5646532B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】操作を受け付ける仮想の平面と操作対象機器とが重なると、操作対象機器が見え難くなる問題を解決する装置を提供する。
【解決手段】操作入力装置16は、使用者18の身体の3次元空間上の位置を検出する3次元センサ14から入力された前記身体の位置を示す3次元情報、及び、予め格納された表示装置12など操作対象機器の位置情報から、前記使用者が前記操作対象機器を見込む空間である見込空間21の外に平面領域20を特定する平面特定部と、前記3次元センサにより検出される3次元情報から、前記平面特定部により特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定部とを備える。
【選択図】図1

Description

本発明は、操作入力装置、操作入力方法、及び、プログラムに関する。
使用者が、操作対象機器と使用者との間に、操作対象機器と重ねて設定された仮想の平面上で、操作対象機器を操作できる操作入力装置が知られている(例えば、特許文献1、2参照)。
[特許文献1] 特開2011−175617号公報
[特許文献2] 特開2010−244480号公報
しかしながら、上記の装置では、仮想の平面と、操作対象機器とが使用者から見て重なるので、操作する使用者の手等の身体の一部が操作対象機器と重なり、操作対象機器の一部が身体によって遮られて、操作対象機器が見え難いという課題がある。
本発明の第1の態様においては、使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者が前記操作対象機器を見込む空間である見込空間の外に一平面の位置を特定する平面特定部と、前記3次元センサにより検出される3次元情報から、前記平面特定部により特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定部とを備える操作入力装置を提供する。
本発明の第2の態様においては、使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者が前記操作対象機器を見込む空間である見込空間の外に一平面の位置を特定する平面特定ステップと、前記3次元センサにより検出される3次元情報から、前記平面特定ステップにおいて特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定ステップとを備える操作入力方法を提供する。
本発明の第3の態様においては、使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者が前記操作対象機器を見込む空間である見込空間の外に一平面の位置を特定する平面特定手順と、前記3次元センサにより検出される3次元情報から、前記平面特定手順において特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定手順とをコンピュータに実行させるためのプログラムを提供する。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
操作入力装置16を備えるシステム10の全体構成図である。 システム10の制御系を説明するブロック図である。 記憶部48に記憶されている操作テーブル54の一例である。 操作入力装置16による操作入力処理を説明するフローチャートである。 平面特定部42によるステップS10の平面特定処理を説明するフローチャートである。 平面領域20の特定方法を説明する図である。 平面領域20を説明するシステムの全体側面図である。 操作特定部44によるステップS12の操作特定処理を説明するフローチャートである。 表示部36に表示される画像を説明する図である。 選択信号の入力方法を説明する図である。 ブックマークの表示画面の操作方法を説明する図である。 ブックマークの表示画面の操作方法を説明する図である。 メニュー画像60の表示方法を説明する図である。
以下、本発明の実施の形態を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。
図1は、操作入力装置16を備えるシステム10の全体構成図である。図1に示すように、システム10は、操作対象機器の一例である表示装置12と、3次元センサ14と、操作入力装置16とを備える。
表示装置12の一例は、液晶表示装置、有機EL表示装置等である。表示装置12は、テレビ放送及びインターネット等により画像及び音声を取得し、当該画像及び音声を出力する。表示装置12には、使用者18が直接触って操作するボタン等の入力部22が設けられる。
3次元センサ14は、使用者18の身体の3次元空間上の位置を検出する。3次元センサ14の一例は、位相差オートフォーカスによる測距機能を有し、画像を撮像する撮像装置である。3次元センサ14は、表示装置12の画像の表示側に向けられている。これにより、3次元センサ14は、表示装置12に表示された画像を視聴している使用者18の画像を取得する。また、3次元センサ14は、使用者18までの距離を測定する。3次元センサ14は、取得した使用者18の画像、及び、使用者18までの距離を含む3次元情報を操作入力装置16へと出力する。
操作入力装置16は、3次元センサ14から入力された使用者18の画像、及び、使用者18までの距離から、操作用の仮想平面である平面領域20を、見込空間21の外に特定する。見込空間21は、使用者18が表示装置12を見込む空間である。見込空間21の一例は、使用者18の眼と表示装置12の表示部の4隅とを結ぶ線分および表示部自体で囲まれる空間である。操作入力装置16は、特定した平面領域20内での使用者18の身体の位置の変化により操作を特定して、操作に対応する選択信号を表示装置12へと出力する。
図2は、システム10の制御系を説明するブロック図である。図2に示すように、表示装置12は、上記入力部22に加え、制御部32と、画像生成部34と、表示面の一例である表示部36と、通信部38と、副表示部40とを備える。
入力部22は、上記ボタン等が使用者18により押圧された場合に、当該ボタンに対応付けられた電源のオン・オフの切り替え等の入力を受け付け、制御部32に出力する。
制御部32は、表示装置12の制御全般を司る。例えば、制御部32は、操作入力装置16及び入力部22から出力された選択信号を取得して、画像生成部34を制御する。
通信部38は、テレビ放送を受信する。通信部38は、さらにインターネット24等を介してサーバ26との間で画像等の情報を送信する。
画像生成部34は、通信部38が取得した画像及び音声を表示部36に出力する。表示部36は、画像生成部34から入力された画像を表示するとともに、音声を出力する。
副表示部40は、複数の表示灯を有する。副表示部40は、複数の表示灯の点灯および消灯によって表示装置12の種々の状態、例えば、表示装置12の電源のオン・オフ状態等を表示する。
操作入力装置16は、平面特定部42と、操作特定部44と、通知部46と、記憶部48とを有する。操作入力装置16は、コンピュータであってもよく、上記各機能を実行するためのプログラムを外部または記憶部48から読み込んで、当該各機構を実行してもよい。
平面特定部42は、3次元センサ14から入力された身体の位置を示す3次元情報、及び、予め記憶部48に格納された機器座標56から見込空間21を特定する。平面特定部42はさらに、使用者18が空間上の平面を指定する動作を検知した場合に、見込空間21の外に平面領域20の位置を特定する。平面特定部42は、特定した平面領域20の位置を示す領域座標52を記憶部48に記憶する。尚、平面特定部42は、使用者18の指定によって特定した平面領域20の領域座標52が見込空間21内である場合、表示または音声等により警告する。
操作特定部44は、3次元センサ14により検出される3次元情報から、平面特定部42により特定された平面領域20の位置を基準にした使用者18の身体の位置の変化を検知する。操作特定部44はさらに、検知した変化から予め定められた操作を操作テーブル54に基づいて特定し、特定した操作に対応する選択信号を表示装置12へ出力する。
この場合に例えば、操作特定部44は、使用者18の身体が、平面特定部42により特定された平面領域20と共有点を有している間の動作から操作を特定する。操作特定部44は、共有点の有無を、平面領域20の領域座標52と、使用者18の画像から算出した使用者18の身体の座標とから判定する。操作特定部44は、上記共有点が存在すると判断した場合に、その旨を示す存在情報を通知部46に出力する。
通知部46は、上記存在情報が操作特定部44から入力されると、身体が平面領域20内に存在している旨を使用者18に通知する。この場合に、通知部46は、音声等によって、存在している旨を通知してもよいし、表示装置12の表示部36及び副表示部40への表示により通知してもよい。
記憶部48は、平面特定部42が特定した平面領域20の位置を示す座標である領域座標52を記憶する。記憶部48はさらに、操作特定部44が操作を特定するための判定条件を示す操作テーブル54を記憶する。記憶部48はさらに、表示装置12の位置情報の一例として、見込空間21を特定するための表示部36の4隅の座標である機器座標56を記憶する。
図3は、記憶部48に記憶されている操作テーブル54の一例である。図3に示すように、操作テーブル54には操作と使用者18の身体位置の変化の条件とが対応付けられている。さらに、操作と当該操作が特定された場合の出力の信号とが対応付けられている。
図3に示す例では、対象を押す押圧操作には、平面領域20において法線方向の移動量の方が面内の移動量より大きいかまたは等しい、身体の位置の変化が対応付けられるとともに、選択信号が出力の信号として対応付けられている。また、表示をスクロールするスクロール操作には、平面領域20において法線方向の移動量の方が面内の移動量より小さい、身体の位置の変化が対応付けられるとともに、スクロール信号が出力の信号として対応付けられている。
図4は、操作入力装置16による操作入力処理を説明するフローチャートである。操作入力処理は、入力部22の電源オンボタンが押圧されることにより開始される。まず、平面特定部42が平面領域20を特定する平面特定処理を実行する(S10)。次に、操作特定部44が、使用者18の身体の変化に基づいて、操作を特定する操作特定処理を実行する(S12)。
図5は、平面特定部42によるステップS10の平面特定処理を説明するフローチャートである。図6は、平面領域20の特定方法を説明する図である。図7は、平面領域20を説明するシステムの全体側面図である。
3次元センサ14は予め定められたフレームレートで画像を撮像して、測距情報とともに3次元情報として平面特定部42に入力し、平面特定部42は当該3次元情報から使用者18の顔が検出されたか否かを判定する(S20)。これにより、平面特定部42は、使用者18が表示部36の前面にいない、もしくは使用者18が表示画面を向いていない場合に、使用者18の両手を検出する動作を省くことができる。平面特定部42は、顔が検出されたと判定するまで(S20:No)、ステップS20を繰り返す。
平面特定部42は、顔が検出されたと判定した場合に(S20:Yes)、当該画像上の使用者18の身体、特に両手を検出する(S22)。平面特定部42は、検出した両手の動きから平面領域20が指定されたか否かを判定する(S24)。
平面領域20が指定されたか旨は、使用者18の手が予め定められた形または動きになっていることにより判定される。例えば、図6に示すように、使用者18が手28の人差し指及び親指を略直交させて立てるとともに、一方の手28の親指と他方の手28の人差し指とを平行にする形の画像を取得した場合に、平面特定部42は平面領域20が指定されたと判定する(S24:Yes)。平面特定部42は、平面が指定されたと判定するまで(S24:No)、使用者18の身体の検出を継続する。
平面特定部42は平面領域20が指定されたと判定した場合(S24:Yes)、平面特定部42は、使用者18が指定した領域座標52を算出する(S26)。図6に示す例の場合、平面特定部42は、画像から手28の親指と人差し指の付け根の交点の座標を、画像内の位置および測距情報から算出して、当該交点を頂点とする長方形を特定する。平面特定部42はさらに、当該長方形の厚みを設定して平面領域20とする構成であってもよい。厚みの一例は、数cmから数十cmである。換言すれば、平面領域20は、薄い直方体形状となる。平面特定部42は、当該直方体の8個所の頂点の座標を領域座標52として算出する。
平面特定部42は、3次元情報から使用者18の眼を検出する(S28)。平面特定部42は、検出した使用者18の眼の座標、及び、記憶部48に記憶されている機器座標56から見込空間21を特定する(S29)。ここで、使用者18の眼を検出する構成に限らず、使用者18が画面全体を視認するために確保すべき視野空間領域である見込空間21を特定する構成であれば、使用者18の頭の形状(例えば、首から上の形状)を検出して、頭の位置と機器座標56から見込空間21を特定する構成であってもよい。
平面特定部42は、ステップ26で特定した平面領域20が見込空間21の外か否かを判定する(S32)。この場合に平面特定部42は、領域座標52により特定される平面領域20が上記見込空間21と共有点を有しない場合に見込空間21の外と判断し、共有点を有する場合に見込空間21の内と判断する。
平面特定部42は、領域座標52が見込空間21の内にあると判定した場合に(S32:No)、音声または副表示部40を用いた画像による警告を通知する(S34)。この後、ステップS20以降が繰り返される。一方、平面特定部42は、領域座標52が見込空間21の外にある判定した場合に(S32:No)、平面特定部42は、領域座標52として、平面領域20の8個所の頂点の座標を記憶部48に記憶させる(S38)。以上により、図7に示すように、見込空間21の外に、厚みを持った平面領域20が特定される。
図8は、操作特定部44によるステップS12の操作特定処理を説明するフローチャートである。図9は、表示部36に表示される画像を説明する図である。図10は、選択信号の入力方法を説明する図である。図11及び図12は、ブックマークの表示画面の操作方法を説明する図である。
操作特定部44は、メニューの表示信号を制御部32に出力する(S40)。これにより、制御部32は、画像生成部34にメニューの表示信号を出力して、画像生成部34は、図9に示すようにメニュー画像60を表示部36に表示する。メニュー画像60は、使用者18にいずれかのメニューの選択を促す。表示部36のメニュー画像60が表示されている領域以外の領域には、インターネット等から取得した画像が表示される。
次に、操作特定部44は、記憶部48に記憶された領域座標52に基づいて、使用者18の身体位置が平面領域20内か否かを判定する(S42)。この場合に、3次元センサ14は予め定められたフレームレートで画像を撮像して、測距情報とともに3次元情報として操作特定部44に入力する。操作特定部44は、使用者18の身体位置を3次元情報から算出して、領域座標52で特定される平面領域20と共有点を有するか否かを判断する。
操作特定部44は、使用者18の身体位置が平面領域20内でないと判定した場合に(S42:No)、終了時間が経過するまで(S44:No)、ステップS42を繰り返す。操作特定部44は、使用者18の身体位置が平面領域20内になく、ステップS42を繰り返している間に、終了時間が経過したと判定した場合に(S44:Yes)、操作特定処理を終了する。
一方、操作特定部44は、使用者18の身体位置が平面領域20内にあると判定した場合に(S42:Yes)、通知部46がカーソル62の表示信号を制御部32へと出力する(S46)。これにより、画像生成部34は、図10の上図に示すように、カーソル62を表示部36に表示させる。
図10において、上図は表示部36を示し、下図は平面領域20を示す。下図において図示しているメニュー画像60は、実際には平面領域20に表示されないが、説明上図示している。
図10の上図に示すように、操作特定部44が表示部36にメニュー画像60を表示させた状態で、使用者18が、例えば、図10の下図のように、手28の人差し指29を平面領域20内に置いたとする。この画像が、3次元センサ14から操作特定部44に入力されると、上記ステップS42において、操作特定部44が使用者18の身体が平面領域20内に存在すると判定する。
操作特定部44が、使用者18の身体が平面領域20内に存在することを示す存在情報を通知部46へと出力すると、通知部46は、使用者18の身体が平面領域20内に存在している旨を通知するカーソル表示指示を制御部32に出力する。これにより、制御部32は、画像生成部34にカーソル表示を指示する。これにより、図10の上図に示すように、画像生成部34は、平面領域20内の人差し指29の先端部分に対応する表示部36の位置にカーソル62を表示する。
この場合に、画像生成部34は「対応する位置」を例えば、平面領域20と表示部36の大きさの比率に基づいて決める。この場合に、操作特定部44は、平面領域20の厚さ方向を無視した平面として左下端の座標を原点とする。また、操作特定部44は、表示部36の左下端の座標を原点とする。さらに、操作特定部44は、平面領域20に対する表示部36の面積比を算出する。次に、操作特定部44は、人差し指29の平面領域20内の座標に当該面積比の自乗根を掛け算して表示部36内における対応する位置とする。例えば、平面領域20内の人差し指29の座標が(1、1)であって、面積比が4倍の場合、操作特定部44は、表示部36の座標(2、2)の位置にカーソルを表示する。なお、平面領域20が表示部36の相似形状でない場合、操作特定部44は、平面領域20に対する表示部36の対応する辺同士の長さの比を算出し、平面領域20内の座標に当該長さの比を掛け算して表示部36内の対応する位置とする。
次に、操作特定部44は、使用者18の身体位置が平面領域20内で変化したか否かを判定する(S48)。当該変化は、例えば、予め定められた時間内における3次元情報を時系列で比較することにより算出される。操作特定部44は、使用者18の身体位置が平面領域20内で変化していないと判定した場合に(S48:No)、ステップS44を実行する。
一方、操作特定部44は、使用者18の身体位置が平面領域20内で変化していると判定した場合に(S48:Yes)、当該変化が操作テーブル54のいずれかの条件を満足するか否かを判断する(S50)。図3に示す例においては、当該条件は法線移動距離と面内移動距離との比較により択一的にいずれかが満たされるので、当該例において、操作特定部44は、身体位置の法線移動距離と面内移動距離とを算出して比較する(同ステップ)。以下、図5に示された条件の例で説明する。
身体位置の法線移動距離は、身体位置の移動距離のうち、平面領域20の法線方向の成分により算出される。ここで、平面領域20は、厚みを有するので、操作特定部44は、厚み方向の身体位置の移動によって、法線移動距離を算出できる。尚、平面領域20が、厚みを有さない場合、操作特定部44は、例えば、平面領域20を横切る指の直径または円周等の形状の変化によって、法線移動距離を算出する。身体位置の面内移動距離は、身体位置の移動距離のうち、平面領域20の面内成分により算出される。
操作特定部44は、身体位置の法線移動距離が面内移動距離以上である判定すると(S50:Yes)、操作テーブル54を参照して使用者18の操作を押圧操作と判定して、選択信号を制御部32へと出力し(S52)、ステップS42に戻る。この場合に、操作特定部44は、平面領域20における人差し指29の面内位置と、表示部36上のメニュー画像60の各メニューの面内位置との関係に基づいて、いずれのメニューの選択信号かを特定する。
例えば、図10状態から、使用者18が人差し指29を平面領域20の法線方向に移動させたとする。操作特定部44は、3次元センサ14から人差し指29が法線方向に移動する画像を取得すると、メニューのうちのブックマークを押圧した押圧操作と判定して、ブックマークの表示命令の選択信号を制御部32に出力する。なお、操作特定部44が出力する選択信号には、選択されたメニューに対応した命令、例えば電源のオン・オフ命令、ブックマークの表示命令等が含まれる。操作特定部44は、法線方向の移動の向きを問わず押圧操作を特定してもよいし、法線方向の移動の向きを検出して、押圧操作と引込操作とを区別して特定してもよい。
制御部32は、選択信号を取得すると、選択信号に対応する画像を画像生成部34に表示させる。例えば、図10に示すように、ブックマーク66のボタンの押圧操作に関する選択信号が制御部32に入力された場合、画像生成部34は、図11に示すように、ブックマーク66のリストを表示部36に表示させる。
一方、操作特定部44は、身体位置の法線移動距離が面内移動距離未満と判定すると(S50:No)、使用者18の操作をスクロール操作と判定して、スクロール距離を含むスクロール信号を制御部32へと出力し(S54)、ステップ42に戻る。例えば、図11に示すようにブックマーク66が表示されている状態で、上下方向のスクロール信号が制御部32に入力されると、画像生成部34は、ブックマーク66のリストをスクロール距離に対応させて上下方向にスクロールさせる。
図11において、上図は表示部36を示し、下図は平面領域20を示す。図11は操作前の図であって、図12は操作後の図である。上述したように、ブックマークの表示命令の選択信号が制御部32に入力されると、制御部32は、画像生成部34にブックマークの表示命令を出力する。これにより、画像生成部34は、図11の上図に示すように、表示部36にブックマーク64のリストを表示する。
図11の下図に実線で示すように、使用者18が、例えば、人差し指29を平面領域20内に置いたとする。操作特定部44は、人差し指29の先端が平面領域20内に配置されたと判定すると、人差し指29の先端に対応する座標とともに、カーソル表示を指示する。これにより、画像生成部34は、図11の上図に示すように、人差し指29の先端に対応する位置にカーソル62を表示する。
次に、使用者18が平面領域20内における面方向に人差し指29を移動させて、図11の下図に点線で示す位置に人差し指29が移動したとする。操作特定部44は人差し指29の移動距離及び移動方向を特定する。ここでいう移動方向は、平面領域20の両辺に沿った2方向及び両辺と交差する斜め方向をも含む。操作特定部44は、面内の移動距離が平面領域20の法線方向の移動距離よりも長い場合、スクロール操作と判定する。操作特定部44は、移動距離及び移動方向を含むスクロール信号を制御部32に出力する。
ここで、スクロール信号に含まれる移動距離は、人差し指29の移動距離と等しくてもよく、人差し指29の移動距離と異ならせてもよい。スクロール信号に含まれる移動距離と人差し指29の移動距離とを異ならせる場合、例えば、操作特定部44は、平面領域20に対する表示部36の倍率を人差し指29の移動距離に積算した値をスクロール信号に含まれる移動距離とする。制御部32が、スクロール信号を画像生成部34に出力する。
これにより、図12に示すように、画像生成部34は、スクロール信号に含まれる移動距離及び移動方向に対応する方向及び移動距離だけブックマーク64のリストを表示部36内で移動させる。また、画像生成部34は、カーソル62もスクロール信号に含まれる方向及び移動距離に対応させて移動させる。
図13は、メニュー画像60の表示方法の一例を説明する図である。図13において、上図は表示部36を示し、下図は平面領域20を示す。図13に示すように、画像生成部34は、メニュー画像60が不要な場合、メニュー画像60の端部のみを表示部36に表示させてもよい。または、画像生成部34は、メニュー画像60が不要な場合、メニュー画像60を表示部36から消去してもよい。メニュー画像60が不要な場合とは、使用者18がメニュー画像60を不要な旨を指示した場合、使用者18がメニュー画像60を介して一定時間指示を入力しなかった場合等を含む。
図13の上図に示す状態において、使用者18が図13の下図に示すように、平面領域20内で人差し指29を右側から左側に移動させたことを操作特定部44が検出すると、操作特定部44は、スクロール操作と判定する。この後、操作特定部44は、移動距離及び移動方向を含むスクロール信号を制御部32に出力する。この結果、画像生成部34は、図9に示すように、メニュー画像60を表示させる。
以上、本実施形態によれば、操作入力装置16は、見込空間21の外の使用者18が指定した位置に操作用の仮想平面である平面領域20を特定する平面特定部42を備え、これにより、使用者18は、自己の身体によって表示装置12の表示部36を遮ることなく、手もとを視認しなくとも表示内容を視聴しながら表示装置12を操作することができる。
使用者18が指定した平面領域20が見込空間21の内側の場合、平面特定部42が警告する。これにより、使用者18は、確実に見込空間21の外に平面領域20を設定できる。
操作入力装置16では、操作特定部44が、法線移動距離と面内移動距離との大小関係により、使用者18の操作が押圧操作かスクロール操作かを判定している。これにより、使用者18は、タブレット端末等を直接触って操作するのと同様の操作感覚で、表示装置12を操作することができる。
操作入力装置16では、平面特定部42が厚みを有する平面領域20を特定する。これにより、操作特定部44は、平面領域20を横切る使用者の身体の形状から算出するのではなく、使用者の法線方向の身体位置の移動から、使用者の身体位置の法線移動距離を容易に算出できる。
なお、図8から図13に示す例において、使用者18の身体として手28の人差し指29を検出しているが、身体はこれに限られない。手自体でもよいし、腕でもよく、身体の他の部分であってもよい。また、操作テーブル54において、指を検出した場合と身体の他の部分を検出した場合とで、異なる操作が割り当てられていてもよい。
また、上記実施形態では、平面特定部42が、使用者18による空間上の一平面を指定する動作を検知した場合に、使用者18が指定した位置に基づいて、平面領域20の位置を特定する。これに代えて、平面特定部42が、平面領域20を自動で特定してもよい。この場合、平面特定部42は、見込空間21の外であって見込空間21に対して予め定められた相対位置に、平面領域20の位置を特定する。この場合に、平面特定部42は、表示部36に対して非平行な平面領域20を特定することが好ましい。例えば、表示部36の表示面が鉛直に直立している場合に、平面領域20は水平に設定される。
上記実施形態では、平面特定部42は3次元情報から検出された使用者18の眼の位置に基づいて見込空間21を特定した。これに代えて、平面特定部42は3次元情報から使用者18の顔を検出し、当該顔の位置に基づいて見込空間21を特定してもよい。
また、上記実施形態では、3次元センサ14は位相差オートフォーカスによる測距機能を有している。これに代えてまたはこれに加えて、3次元センサ14は画像のコントラスト情報を用いたコントラストオートフォーカスによる測距機能を有していてもよい。
また、上記実施形態では、表示装置12を操作対象機器の一例とした。操作対象機器は表示装置12に限られず、他の装置、例えばエアコンディショナー、照明装置等であってもよい。
以上、本発明の実施の形態を説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 システム、12 表示装置、14 3次元センサ、16 操作入力装置、18 使用者、20 平面領域、21 見込空間、22 入力部、24 インターネット、26 サーバ、28 手、29 指、32 制御部、34 画像生成部、36 表示部、38 通信部、40 副表示部、42 平面特定部、44 操作特定部、46 通知部、48 記憶部、52 領域座標、54 操作テーブル、56 機器座標、60 メニュー画像、62 カーソル、64 ブックマーク、66 ブックマーク

Claims (10)

  1. 使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者が前記操作対象機器を見込む空間である見込空間の外に一平面の位置を特定する平面特定部と、
    前記3次元センサにより検出される3次元情報から、前記平面特定部により特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定部と
    を備える操作入力装置。
  2. 前記平面特定部は、前記使用者による空間上の一平面を指定する動作を検知した場合に、前記使用者により指定された位置に基づいて、前記一平面の位置を特定する請求項1に記載の操作入力装置。
  3. 前記平面特定部は、前記使用者により指定された位置が前記見込空間の内にある場合に、警告する請求項2に記載の操作入力装置。
  4. 前記平面特定部は、前記見込空間の外であって前記見込空間に対して予め定められた相対位置に、前記一平面の位置を特定する請求項1に記載の操作入力装置。
  5. 前記操作対象機器は、画像を表示する表示面を有し、
    前記平面特定部は、前記使用者が前記表示面を見込む前記見込空間を特定する請求項1から請求項4のいずれか1項に記載の操作入力装置。
  6. 前記平面特定部は、前記3次元情報から前記使用者の顔の位置を特定し、前記顔の位置から前記操作対象機器を見込む前記見込空間を特定する請求項1から請求項5のいずれか1項に記載の操作入力装置。
  7. 前記平面特定部は、前記3次元情報から前記使用者の眼の位置を特定し、前記眼の位置から前記操作対象機器を見込む前記見込空間を特定する請求項1から請求項5のいずれか1項に記載の操作入力装置。
  8. 前記使用者の前記身体が前記一平面内にある旨の存在情報が前記操作特定部から入力されると、前記使用者の前記身体が前記一平面内に存在している旨を通知する通知部を更に備える請求項1から請求項7のいずれか1項に記載の操作入力装置。
  9. 使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者が前記操作対象機器を見込む空間である見込空間の外に一平面の位置を特定する平面特定ステップと、
    前記3次元センサにより検出される3次元情報から、前記平面特定ステップにおいて特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定ステップと
    を備える操作入力方法。
  10. 使用者の身体の3次元空間上の位置を検出する3次元センサから入力された前記身体の位置を示す3次元情報、及び、予め格納された操作対象機器の位置情報から、前記使用者が前記操作対象機器を見込む空間である見込空間の外に一平面の位置を特定する平面特定手順と、
    前記3次元センサにより検出される3次元情報から、前記平面特定手順において特定された前記一平面の位置を基準にした前記使用者の身体の位置の変化を検知し、検知した変化から予め定められた操作を特定し、特定した操作に対応する選択信号を前記操作対象機器へ出力する操作特定手順と
    をコンピュータに実行させるためのプログラム。
JP2012070046A 2012-03-26 2012-03-26 操作入力装置、操作入力方法、及び、プログラム Active JP5646532B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012070046A JP5646532B2 (ja) 2012-03-26 2012-03-26 操作入力装置、操作入力方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012070046A JP5646532B2 (ja) 2012-03-26 2012-03-26 操作入力装置、操作入力方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2013200815A true JP2013200815A (ja) 2013-10-03
JP5646532B2 JP5646532B2 (ja) 2014-12-24

Family

ID=49520984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012070046A Active JP5646532B2 (ja) 2012-03-26 2012-03-26 操作入力装置、操作入力方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP5646532B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015114818A (ja) * 2013-12-11 2015-06-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2016018514A (ja) * 2014-07-11 2016-02-01 三菱電機株式会社 入力装置
JP2018518784A (ja) * 2015-05-15 2018-07-12 アシーア インコーポレイテッドAtheer, Inc. 面限定制御用に自由空間入力を適用する方法および装置

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683512A (ja) * 1992-02-07 1994-03-25 Internatl Business Mach Corp <Ibm> コマンド及びデータ入力方法及び入力装置
US20050141752A1 (en) * 2003-12-31 2005-06-30 France Telecom, S.A. Dynamically modifiable keyboard-style interface
JP2008040576A (ja) * 2006-08-02 2008-02-21 Sharp Corp 画像処理システム及び該システムを備えた映像表示装置
JP2010079332A (ja) * 2008-09-24 2010-04-08 Mitsubishi Electric Corp 遠隔操作装置及び遠隔操作方法
JP2010534895A (ja) * 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力
WO2011027397A1 (ja) * 2009-09-03 2011-03-10 株式会社 東芝 ユーザーインターフェース装置
JP2011186892A (ja) * 2010-03-10 2011-09-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2011221787A (ja) * 2010-04-09 2011-11-04 Casio Comput Co Ltd 情報処理装置、及びプログラム
US20120038592A1 (en) * 2010-08-11 2012-02-16 Young Optics Inc. Input/output device and human-machine interaction system and method thereof
JP2012043195A (ja) * 2010-08-19 2012-03-01 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2012029833A1 (ja) * 2010-09-01 2012-03-08 新世代株式会社 操作判定装置、操作判定方法、及び、操作判定プログラム
WO2012032687A1 (ja) * 2010-09-06 2012-03-15 島根県 画像認識装置および操作判定方法並びにプログラム
JP2012068854A (ja) * 2010-09-22 2012-04-05 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683512A (ja) * 1992-02-07 1994-03-25 Internatl Business Mach Corp <Ibm> コマンド及びデータ入力方法及び入力装置
US20050141752A1 (en) * 2003-12-31 2005-06-30 France Telecom, S.A. Dynamically modifiable keyboard-style interface
JP2008040576A (ja) * 2006-08-02 2008-02-21 Sharp Corp 画像処理システム及び該システムを備えた映像表示装置
JP2010534895A (ja) * 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力
JP2010079332A (ja) * 2008-09-24 2010-04-08 Mitsubishi Electric Corp 遠隔操作装置及び遠隔操作方法
WO2011027397A1 (ja) * 2009-09-03 2011-03-10 株式会社 東芝 ユーザーインターフェース装置
JP2011186892A (ja) * 2010-03-10 2011-09-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2011221787A (ja) * 2010-04-09 2011-11-04 Casio Comput Co Ltd 情報処理装置、及びプログラム
US20120038592A1 (en) * 2010-08-11 2012-02-16 Young Optics Inc. Input/output device and human-machine interaction system and method thereof
JP2012043195A (ja) * 2010-08-19 2012-03-01 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2012029833A1 (ja) * 2010-09-01 2012-03-08 新世代株式会社 操作判定装置、操作判定方法、及び、操作判定プログラム
WO2012032687A1 (ja) * 2010-09-06 2012-03-15 島根県 画像認識装置および操作判定方法並びにプログラム
JP2012068854A (ja) * 2010-09-22 2012-04-05 Shimane Prefecture 操作入力装置および操作判定方法並びにプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015114818A (ja) * 2013-12-11 2015-06-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2016018514A (ja) * 2014-07-11 2016-02-01 三菱電機株式会社 入力装置
JP2018518784A (ja) * 2015-05-15 2018-07-12 アシーア インコーポレイテッドAtheer, Inc. 面限定制御用に自由空間入力を適用する方法および装置

Also Published As

Publication number Publication date
JP5646532B2 (ja) 2014-12-24

Similar Documents

Publication Publication Date Title
US10217288B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US10620791B2 (en) Information processing apparatus and operation reception method
JP4318056B1 (ja) 画像認識装置および操作判定方法
US20180342103A1 (en) Using tracking to simulate direct tablet interaction in mixed reality
JP4900741B2 (ja) 画像認識装置および操作判定方法並びにプログラム
US9544556B2 (en) Projection control apparatus and projection control method
US20160313800A1 (en) Information processing device, information processing method, and program
JP2017117008A5 (ja)
JP5114795B2 (ja) 画像認識装置および操作判定方法並びにプログラム
TW201214266A (en) Three dimensional user interface effects on a display by using properties of motion
JP2017111669A5 (ja)
JP7005161B2 (ja) 電子機器及びその制御方法
JP2013029958A (ja) 情報処理装置、情報処理方法、及びプログラム
US20150234567A1 (en) Information processing apparatus, information processing method and computer program
JP6236691B1 (ja) 端末装置、及びプログラム
JP2015091008A (ja) 照明装置
JP2012022632A (ja) 情報処理装置およびその制御方法
JP5646532B2 (ja) 操作入力装置、操作入力方法、及び、プログラム
JP2008226279A (ja) 仮想空間内位置指示装置
JPWO2014061310A1 (ja) 表示物制御システム、表示物制御方法及びプログラム
WO2014181587A1 (ja) 携帯端末装置
JP2013218517A (ja) 入出力装置
JP2018005946A (ja) 端末装置、及びプログラム
JP2011022703A (ja) 表示制御装置および表示制御方法
JP2011221833A (ja) 表示装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20131018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141105

R150 Certificate of patent or registration of utility model

Ref document number: 5646532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350