JP2013109538A - 入力方法及び入力装置 - Google Patents

入力方法及び入力装置 Download PDF

Info

Publication number
JP2013109538A
JP2013109538A JP2011253434A JP2011253434A JP2013109538A JP 2013109538 A JP2013109538 A JP 2013109538A JP 2011253434 A JP2011253434 A JP 2011253434A JP 2011253434 A JP2011253434 A JP 2011253434A JP 2013109538 A JP2013109538 A JP 2013109538A
Authority
JP
Japan
Prior art keywords
distance
hand
user
input device
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011253434A
Other languages
English (en)
Inventor
Takashi Matsubara
孝志 松原
Stiawan Bondan
スティアワン ボンダン
Kazumi Matsumoto
和己 松本
Tatsuya Tokunaga
竜也 徳永
Kazukuni Nakajima
一州 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2011253434A priority Critical patent/JP2013109538A/ja
Publication of JP2013109538A publication Critical patent/JP2013109538A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】非接触で入力操作を実行する入力装置において、ユーザが意図する操作を円滑に入力できる入力装置を提供する。
【解決手段】入力装置は、入力装置からユーザの手までの距離を検出する距離検出手段と、前記距離検出手段の検出結果に基づき、距離の変化を検出する距離変化検出手段と、前記距離変化検出手段の検出結果に基づき、外部の装置に指示を与える指示出力手段と、を備え、前記距離変化検出手段は、所定の第一の距離を、距離の変化の始まりとして、第二の距離に距離が変化したことを検出し、前記指示出力手段は、前記距離変化検出手段の検出結果を、前記ユーザの操作として扱い、外部の装置に指示を与える。
【選択図】図17

Description

本発明は、ユーザの操作する手と操作される画面の間の距離をセンサにより検出して、検出結果に応じた操作指示を与える、入力方法及び入力装置に関する。
従来、TVやレコーダといった映像装置、あるいは、PCなどの情報処理機器に対して、ユーザは、リモコンによりチャンネル操作・表示操作をしたり、キーボードやマウス、あるいはタッチパネルなどの入力デバイスによりコマンド入力やデータ入力をすることが一般的であった。
また近年では、センサ技術の向上により、特に、ゲーム機やポータブル機器の分野において、ユーザの動作をセンサで認識し、その結果によりユーザの意思を判断して、機器を動作させる手法が用いられている。
特許文献1には、手指の形状、動作を認識して、操作を判定する画像認識装置が開示されている。
特許文献1の画像認識装置では、ユーザの体の位置に応じて操作面を作成し、ユーザはその操作面に対する手あるいは指の位置、あるいは動きにより、装置に対する指示を行う。前記操作面は、仮想的な操作面であり、操作者102は、マーカ101から仮想的な操作面701を想定して手601を突き出したり、モニタ111と連動させて画面上の一部と操作面701とをタッチパネルに見立ててタッチするように手601を動かしたりすることにより、入力操作を容易に行うことができる。(段落番号0033)
特許第4318056号公報
しかしながら、上記特許文献1では、画面上と平行な操作面での操作については考慮しているが、画面と垂直方向での操作については考慮していない。
そこで、本発明は、かかる事情を考慮した上で、ユーザが操作を行う際に、表示画面の垂直方向の動きや垂直方向の操作領域も考慮して、ユーザがより直感的な操作を行えるようにすることを目的とする。
上記目的を達成するために、本発明では、一例として特許請求の範囲に記載の構成とする。本構成では、非接触で入力操作を実行する入力装置において、ユーザの手と、操作される表示画面との距離を検出して、該距離とその距離にでの操作範囲における手の位置に応じた入力操作を実行するようにする。
本発明によれば、ユーザは、ユーザの操作する手と操作される表示画面との距離や該距離での操作範囲における手の位置に対応して実行される、操作対象の変更等の操作を直感的に把握でき、ユーザが意図する操作を円滑に入力できる。
実施例1の入力装置を示す概観図である。 実施例1の入力装置の構成を示すブロック図である。 実施例1の入力装置の操作領域とユーザの操作方法を示す概観図である。 実施例1の入力装置のユーザ操作と操作結果の対応を説明する概観図である。 実施例1の入力装置の動作を説明するフローチャートである。 実施例1の入力装置のユーザ操作と操作結果の対応を説明する概観図である。 実施例2の入力装置の操作領域とユーザの操作方法を示す概観図である。 実施例2の入力装置のユーザ操作と操作結果の対応を説明する概観図である。 実施例2の入力装置の動作を説明するフローチャートである。 実施例3の入力装置を示す概観図である。 実施例3の入力装置の構成を示すブロック図である。 実施例3の入力装置の操作領域とユーザの操作方法を示す概観図である。 実施例3の入力装置の動作を説明するフローチャートである。 実施例4の入力装置の操作領域とユーザの操作方法を示す概観図である。 実施例4の入力装置の動作を説明するフローチャートである。 実施例5の入力装置の構成を示すブロック図である。 実施例5の入力装置の操作領域とユーザの操作方法を示す概観図である。 実施例5の入力装置の動作を説明するフローチャートである。 実施例6の入力装置を示す概観図である。 実施例6の入力装置の構成を示すブロック図である。 実施例6の入力装置の操作領域とユーザの操作方法を示す概観図である。 実施例6の入力装置の動作を説明するフローチャートである。 実施例6の入力装置の操作領域とユーザの操作方法を示す概観図である。
以下、本発明に係る各実施例について説明する。
以下、本発明に係る第一の実施例を、図1ないし図5を用いて説明する。本実施例の入力装置100は、ユーザの操作する手と操作される表示画面101の間の距離をセンサにより検出し、該距離に応じて表示画面101に対する操作の指示を与える装置である。
先ず、図1および図2を用いて本発明の第一の実施例の入力装置の構成を説明する。
図1は、表示画面101、センシング部102、ユーザ103により、入力装置100をユーザが使用する際の動作環境の概観を示す。
表示画面101は、表示画面外部から与えられる操作入力信号に基づき、ユーザに映像情報を提示する装置であり、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、液晶プロジェクタ、レーザープロジェクタ、リアプロジェクタなどのディスプレイ装置と、映像コンテンツやGUI(Graphical User Interface)などの表示処理に必要な演算処理装置やメモリを有する装置である。
センシング部102は、ユーザの手とセンサの間の距離を検出する部分であり、例えば、赤外線距離センサ、レーザ距離センサ、超音波距離センサ、距離画像センサ、電界センサ、などのセンサと、データ処理を行うマイコン、及びマイコン上で動作するソフトウェアから構成される。センシング部102に用いるセンサは、特に、限定されず、ユーザの手までの距離を検出するために得られる信号を、距離データに変換する機能を有すればよい。
ユーザ103は、入力装置100に対して操作を行うユーザである。
入力装置100は、図2に示すように、センシング部102、システム制御部200、信号出力部202、を備える。
システム制御部200は、距離検出部202、上下操作検出部203を有する。
距離検出部202は、センシング部102から得られる距離データから、操作として検出される距離を抽出あるいは分類する。上下操作検出部203は、距離検出部202が操作として検出した距離から、ユーザ103が手を上下に動かす操作を検出する。
システム制御部200は、ユーザ103の手の距離を検出し、手を上下に動かす操作を検出するためのデータ処理を行う。システム制御部200は、CPUが、メモリ上に記憶されているソフトウェアモジュールを実行することにより実現してもよいし、専用のハードウェア回路により実現してもよい。
信号出力部201は、システム制御部200から指示とデータを受け取り、表示画面101に操作を指示するため操作入力信号を出力する。
次に、図3および図4を用いて本発明の第一の実施例に係る入力装置100による操作方法について説明する。
図3は、本発明の第一の実施例に係る入力装置100による操作領域とユーザの操作方法について説明する概観図である。図3に示されるように、入力装置100は、センシング部102から得られるユーザの手の距離に基づき、図3(上方向操作領域)、図3(ホームポジション)、図3(下方向操作領域)、の3つの操作領域のどこに手が位置しているかを検出する。前記操作領域は、ユーザ103の操作の検出方法を説明するための概念的な領域であり、ユーザ103が手をかざした位置に応じて、手の付近の空間に存在する
ものとする。
図4は、発明の第一の実施例に係るユーザ操作と操作結果の対応を説明する概観図である。図4では、表示画面101に画像を一覧するための表示がされており、ユーザ103の操作に応じて、一覧する画像のサイズや表示数が変更される様子を示している。
本発明の第一の実施例に係る入力装置100の操作イメージは、図4に示されるように、ユーザ103が表示画面101を見ながら手を使って操作し、該手までの距離を入力装置100が検出し、その検出結果に基づいて表示画面101の表示が変更されるものである。例えば、図4(開始状態)に示されるように、ユーザ103の手が図3(ホームポジション)の位置にあるとする。次に、図4(操作状態A)に示されるように、ユーザ103が手を図3(ホームポジション)の位置から、図3(上方向操作領域)に移動させると、表示画面101に表示される画像の一覧は、個々の画像のサイズが小さくなり、同時に表示される画像の数が多くなる。一方、図4(操作状態B)に示されるように、ユーザ103の手を図3(ホームポジション)の位置から、図3(下方向操作領域)に移動させると、表示画面101に表示される画像の一覧は、個々の画像のサイズが大きくなり、同時に表示される画像の数が少なくなる。すなわち、ユーザ103の手が検出される位置が、図3(ホームポジション)から、図3(上方向操作領域)や図3(下方向操作領域)に移動すると、入力装置100は表示画面101に対して、ユーザ103の手の移動方向に応じた指示を与え、表示画面101の表示が変更される。
次に、図5のフローチャートを用いて本発明の第一の実施例に係る入力装置100による入力操作の検出処理の手順について説明する。
入力操作の検出処理は、図2に示したシステム制御部200が行う。
先ず、システム制御部200は、所定のユーザ操作に応じて、手の位置の検出を開始し(ステップ500)、距離検出部202にてセンシング部102から得られる距離データから、操作として検出される距離を抽出あるいは分類する処理を行い、手の距離を検出する。手の距離が検出された際には(ステップ501)、検出された距離に対応する操作領域を求める(ステップ502)。
手が位置する操作領域がホームポジションである場合は(ステップ503:Yes)、手の距離の検出を継続する。一方、手が位置する操作領域がホームポジションではない場合は(ステップ503:No)、まず前回の検出で手が位置した操作領域がホームポジションであったことを確認し(ステップ504:Yes)、上下操作検出部にて、上方向、もしくは下方向の操作を検出する(ステップ505)。このとき、ステップ504において、前回検出した操作領域がホームポジションではなかった場合は(ステップ504:No)、ステップ505は行わず、ステップ501以降の手の距離の検出を継続する。すなわち、手が位置する操作領域がホームポジションから、他の操作領域に移動した場合にのみ操作が検出される。
上方向もしくは下方向の操作を検出した際には、信号出力部201を介して、検出した操作に対応して、表示画面101に操作を指示するための操作入力信号が出力される(ステップ506)。
ユーザ103が所定の操作にて、操作終了の意思表示をしたときには(ステップ507)、処理を終了し、そうでないときには、ステップ501以降の手の距離の検出を継続する。
このように、入力装置100は、ユーザ103が表示画面100に対して手をかざしている距離の変化に応じて操作を検出し、表示画面101に操作の指示を与える。これにより、ユーザ103は、物理的な装置と手の距離の関係から、手の距離と操作の対応を直感的に把握でき、ユーザ103が意図する操作を円滑に入力できる。
以下、本発明に係る第二の実施例を、図6ないし図9を用いて説明する。
第一の実施形態の入力装置100の表示制御方法は、手が位置する操作領域の変化に応じて操作を実行するインタフェースを提供するものであった。本実施例では、第一の実施例の操作方法に加えて、さらに、手と入力装置100の相対的な距離の変化に応じて操作を実行するインタフェースを提供するものである。
本実施形態の入力装置100でも、図2に示したように、センシング部102、システム制御部200、信号出力部201からなることは、第一の実施例と同様であるが、システム制御部200が上下操作検出部で検出する操作のみが異なる。
先ず、図6及び図7を用いて本発明の第二の実施例の入力装置100の操作方法について説明する。図6は、本発明の第二の実施例に係る入力装置100による操作基準とユーザの操作方法について説明する概観図である。
図6に示されるように、入力装置100は、センシング部102から得られるユーザの手の距離に基づき、操作に反映される大きさや量、長さ等を図るための操作基準600に対して、どこに手が位置しているかを検出する。前記操作基準600は、ユーザ103の操作の検出方法を説明するための概念的な基準であり、ユーザ103が手をかざした位置に応じて、手の付近の空間に存在するものとする。
図7は、発明の第二の実施例に係るユーザ操作と操作結果の対応を説明する概観図である。図7では、表示画面101に地図が表示がされており、ユーザ103の操作に応じて、地図の縮尺が変更される様子を示している。
本発明の第二の実施例に係る入力装置100の操作イメージは、図7に示されるように、ユーザ103が表示画面101を見ながら手を使って操作し、該手までの距離を入力装置100が検出し、その検出結果に基づいて表示画面101の表示が変更されるものである。例えば、図7(操作状態1)に示されるように、ユーザ103の手が操作基準600の上位付近の位置にあるとする。次に、図4(操作状態2)に示されるように、ユーザ103が手を操作基準600の中位付近に移動させると、表示画面101に表示される地図の縮尺は拡大される。さらに、図4(操作状態3)に示されるように、ユーザ103が手を操作基準600の下位付近に移動させると、表示画面101に表示される地図の縮尺はより拡大される。
次に、図8を用いて本発明の第二の実施例に係る入力装置100による入力操作の検出処理の手順について説明する。
入力操作の検出処理は、図2に示したシステム制御部200が行う。
先ず、システム制御部200は、所定のユーザ操作に応じて、手の位置の検出を開始し(ステップ800)、距離検出部202にてセンシング部102から得られる距離データから、操作として検出される距離を抽出あるいは分類する処理を行い、手の距離を検出する。手の距離が検出された際には(ステップ801)、操作基準600に対する手の位置を求める(ステップ802)。
次に、信号出力部201において、操作基準600に対する、検出した手の相対的な位置より、地図の縮尺率を算出し、表示画面101に地図の縮尺率を変更する操作を指示するための操作入力信号が出力される(ステップ803)。 ユーザ103が所定の操作にて、操作終了の意思表示をしたときには(ステップ804)、処理を終了し、そうでないときには、ステップ501以降の手の距離の検出を継続する。
このように、本発明の第二の実施例に係る入力装置100は、ユーザ103が入力装置100に対して手をかざしている距離の変化に応じて、操作基準600に対する手の位置を検出し、操作基準600に対する手の位置で規定される大きさや量、長さ等を、表示画面101に対する操作として指示する。これにより、ユーザ103は、物理的な装置と手の距離の関係から、手の距離と、大きさ、長さ、深さ、縮尺等の量の対応を直感的に把握でき、ユーザ103が意図する操作を円滑に入力できる。
また、上記入力操作は、複数の階層からなるメニューを操作させるのに有効である。図9に示すように、表示画面101に複数の階層からなるメニューが表示される場合、操作基準600に対し、階層を割り当てることにより、操作対象となる階層を手の位置により変更することができる。これにより、ユーザ103は、物理的な装置と手の距離の関係から、手の距離と、操作対象となる階層の対応を直感的に把握でき、ユーザ103が意図する操作を円滑に入力できる。
以下、本発明に係る第三の実施例を、図10ないし図13を用いて説明する。
第一の実施例の入力装置100の表示制御方法は、手と入力装置100の距離に応じて操作を実行するインタフェースを提供するものであった。本実施例では、第一の実施例の操作方法に加えて、さらに、手と入力装置100の距離を検出する際に、手の形状に応じて検出距離の検出基準を決定するものである。
本実施形態の入力装置100でも、図10および図11に示すように、システム制御部200、信号出力部201からなることは、第一の実施例と同様であるが、センシング部102が撮像部1000に置き換わることと、システム制御部200が形状検出部1100を有することが異なる。
撮像部1000は、ユーザの手を撮像するための装置であり、例えば、TOF(Time of flight)センサ機能を有する赤外線カメラ、ステレオカメラ、RGBカメラなどである。撮像部1000に用いるカメラは、特に、限定されず、ユーザに対して画像認識をするために、得た画像をデジタルデータに変換するための撮像画像を得る機能を有すればよい。
形状検出部1100は、撮像部1000から得られる撮像画像から、所定の手の形を検出する部分であり、例えば、パターンマッチング等の画像解析手法が用いられる。形状検出部1100に用いられる画像解析手法は、特に限定されず、得た撮像画像の中に所定の手の形が存在するか否かと、手の距離および位置を検出する機能を有すればよい。
先ず、図12を用いて本発明の第三の実施例の入力装置100の操作の検出方法について説明する。図12は、本発明の第三の実施例に係る入力装置100による検出基準とユーザの操作について説明する概観図である。
図12に示されるように、入力装置100は、撮像部1000から得られる撮像画像の中から、手の形1200を検出し、手の形1200を検出した際の入力装置100とユーザ103の手の距離を、検出基準1201とする。さらに、入力装置100は、前記検出基準1201に応じて、第一の実施例で示した操作領域の位置を変更する。操作領域が変更された後の操作については、第一の実施例と同様となる。
次に、図13を用いて本発明の第三の実施例に係る入力装置100による入力操作の検出処理の手順について説明する。図13は、第一の実施例で説明した図5のフローチャートに、ステップ1300及びステップ1301を加えたフローチャートである。
入力操作の検出処理は、図11に示したシステム制御部200が行う。
先ず、システム制御部200は、所定のユーザ操作に応じて、手の位置の検出を開始し(ステップ500)、距離検出部202にて撮像部1000から得られる撮像画像から手を検出し、操作として検出される距離を抽出あるいは分類する処理を経て、手の距離を検出する。手の距離が検出された際には(ステップ501)、形状検出部1100にて、所定の手の形状1200を検出する処理を行う(ステップ1300)。所定の手の形状1200が検出された際には(ステップ1300:Yes)、手の距離を検出する際の検出基準1201を設定し、ステップ502以降の処理を行う。一方、所定の手の形状1200が検出されない場合は(ステップ1300:No)、検出基準1201は設定されず、ステップ502以降の処理が行われる。ステップ502以降の処理については、第一の実施例で説明した図5のフローチャートと同様となる。
このように、本発明の第三の実施例に係る入力装置100は、ユーザ103が入力装置100に対してかざしている手の形状に応じて、検出基準1201を設定する。これにより、ユーザ103は、手と操作領域の相対的な位置を、意図したタイミングで変更することができ、ユーザ103が任意の位置でより確実に操作を入力できる。
以下、本発明に係る第四の実施例を、図14ないし図15を用いて説明する。
第三の実施例の入力装置100の表示制御方法は、手の形状に応じて検出基準1201を設定することにより、第一の実施例で説明した操作における、手と操作領域の相対的な位置を、意図したタイミングで変更することができるものであった。本実施例では、第三の実施例の操作方法に加えて、さらに、第二の実施例で説明した操作における、手と操作基準600の相対的な位置を、意図したタイミングで変更できるものである。
本実施形態の入力装置100でも、図10および図11に示すように、撮像部1000、システム制御部200、信号出力部201からなることは、第三の実施例と同様であるが、システム制御部200で行われる検出処理の手順のみが異なる。
先ず、図14を用いて本発明の第四の実施例の入力装置100の操作の検出方法について説明する。図14は、本発明の第四の実施例に係る入力装置100による検出基準とユーザの操作について説明する概観図である。
図14に示されるように、入力装置100は、撮像部1000から得られる撮像画像の中から、手の形1200を検出し、手の形1200を検出した際の入力装置100とユーザ103の手の距離を、検出基準1201とする。さらに、入力装置100は、前記検出基準1201に応じて、第二の実施例で示した操作基準600の位置を変更する。また、操作基準600が変更された後の操作は、手の形1200が検出され続けている場合にのみ有効となり、操作が有効な場合の操作方法については第二の実施例と同様となる。
次に、図15を用いて本発明の第四の実施例に係る入力装置100による入力操作の検出処理の手順について説明する。図15は、第二の実施例で説明した図8のフローチャートに、ステップ1500ないしステップ1502を加えたフローチャートである。
入力操作の検出処理は、図11に示したシステム制御部200が行う。
先ず、システム制御部200は、所定のユーザ操作に応じて、手の位置の検出を開始し(ステップ800)、距離検出部202にて撮像部1000から得られる撮像画像から手を検出し、操作として検出される距離を抽出あるいは分類する処理を経て、手の距離を検出する。手の距離が検出された際には(ステップ801)、形状検出部1100にて、所定の手の形状1200を検出する処理を行う(ステップ1500)。この際に、所定の手の形状が検出されない場合は(ステップ1500:No)、以降の処理には進まず、手の検出のみを継続する。すなわち、所定の手の形状1200が検出されている場合にのみ、操作が有効になる。一方、所定の手の形状1200が検出された際には(ステップ1500:Yes)、前回の手の検出時に所定の手の形状であったかを確認し(ステップ1501)、前回の手の検出時に所定の手の形状ではなかった場合は(ステップ1501:No)、手の距離を検出する際の検出基準1201を設定し、ステップ802以降の処理を行う。また、前回の手の検出時に所定の手の形状であった場合は(ステップ1501:Yes)、検出基準1201は設定されず、ステップ802以降の処理が行われる。ステップ802以降の処理については、第二の実施例で説明した図8のフローチャートと同様となる。
このように、本発明の第四の実施例に係る入力装置100は、ユーザ103が入力装置100に対してかざしている手の形状に応じて、検出基準1201を設定する。また、ユーザ103が所定の手の形状で手をかざしている場合にのみ、操作が有効になる。これにより、ユーザ103は、手と操作基準の相対的な位置を、意図したタイミングで変更することができ、尚且つ、手の形により意図したタイミングでのみ操作を行うことができるため、ユーザ103が任意の位置でより確実に操作を入力できる。
以下、本発明に係る第五の実施例を、図16ないし図18を用いて説明する。
第四の実施例の入力装置100の表示制御方法は、手と入力装置100の距離に応じて操作を実行するインタフェースを提供するものであった。本実施例では、第四の実施例の操作方法に加えて、さらに、手と入力装置100の距離を検出した際に、手と入力装置100の距離に応じてユーザが操作を行う操作領域の距離や大きさを決定するものである。 本実施形態の入力装置100でも、図16および図17に示すように、システム制御部200、信号出力部201、距離検出部203、撮像部1000からなることは、第四の実施例と同様であるが、システム制御部200において、上下操作検出部204と形状検出部1000とに変わり、操作領域設定部1600と位置検出部1601を有することが異なる。
操作領域設定部1600は、距離検出部203から得られるユーザの手の距離から、ユーザが映像表示装置101に対して操作を行う際の操作領域の距離と大きさを算出する部分である。前記操作領域の距離と大きさの算出には、例えば、3次元の物体を外観通りに2次元平面に描画するための図法である透視投影の原理が用いられる。すなわち、ユーザの手と映像表示装置101の距離から、所定の値を用いてユーザの視点の位置を仮定し、該ユーザの視点に基づいて、ユーザの手の距離にある映像表示装置101の表示面と平行な2次元平面上に投影される映像表示装置101の表示面の大きさを、前記操作領域の大きさとして算出する。操作領域設定部1600に用いられる操作領域の距離と大きさを算出方法は、特に限定されず、所定の値や数式に基づき、ユーザの手と映像表示装置101の距離から前記操作領域の距離と大きさが決定されればよい。
位置検出部1601は、前記操作領域におけるユーザの手の位置を座標値として算出する。
なお、入力装置100の撮像部1000は、距離検出部203でユーザの手の距離を得られたり、位置検出部1601でユーザの手の位置を得られたりする機能を有すればよく、例えば、撮像素子等を有さないセンシングデバイスでもよい。
先ず、図17を用いて本発明の第五の実施例の入力装置100の操作方法について説明する。
図17は、本発明の第五の実施例に係る入力装置100によるユーザ103の手の位置と操作領域の関係について説明する概観図である。
図17に示されるように、入力装置100は、ユーザ103の手と映像表示装置101の距離1702に応じて、前記操作領域設定部1600において、先に述べた操作領域の距離と大きさの算出方法により、操作領域1700の距離と大きさを決定する。さらに、前記位置検出部1601にて算出される座標値に応じて、映像表示装置101にカーソル1701が表示される。
従って、前記距離1702に応じて前記操作領域1700の距離と大きさは変化するため、図17の操作状態1では、操作状態2よりも前記距離1702が離れており、これに従って前記操作領域1700の距離は映像表示装置101より離れ、大きさが小さくなる。同様に、操作状態3では、操作状態2よりも前記距離1702が近づいているため、前記操作領域1700の距離は映像表示装置101に近づき、大きさは大きくなる。また、先に述べたように前記操作領域1700の大きさの算出に透視投影の原理が用いられている場合は、ユーザの視点からは前記操作領域1700の距離や大きさの変化が見られず、映像表示装置101の表示面と前記操作領域1700とは重なっているように見える。
次に、図18のフローチャートを用いて、本発明の第五の実施例に係る入力装置100による入力操作の検出処理の手順について説明する。同図で示す処理は、図16に示したシステム制御部200がおこなう処理である。
先ず、システム制御部200は、所定のユーザ操作に応じて、手の操作の検出を開始し(ステップ1800)、距離検出部203にて撮像部1000から得られる撮像画像から手を検出し、映像表示装置101とユーザの手の距離の検出(ステップ1801)、および前記距離の変化の検出(ステップ1802)を行う。次に、前記操作領域設定部1600が、前記距離および距離の変化に応じて、操作領域1700の距離と大きさを設定する(ステップ1803)。さらに、位置検出部1601が、前記操作領域1700に対するユーザの手の位置の座標値を求める(ステップ1804)。前記座標値は、信号出力部201を介して映像表示装置101に出力される(ステップ1805)。これにより、映像表示装置101は、前記信号出力部201から得られる座標値に基づき、カーソル1701等の映像表示装置101に表示中のグラフィックスを変更し、ユーザは映像表示装置101の表示に対して操作を行うことができる。
このように、本発明の第五の実施例に係る入力装置100は、ユーザが入力装置100に対してかざしている手と映像表示装置101の距離に応じて、操作領域1700を設定する。これにより、ユーザは、手をかざしている位置と、映像表示装置101に表示される操作位置とが、ユーザの視点から見て重なるように操作することができ、ユーザが任意の手の距離で円滑に操作を行うことができる。
以下、本発明に係る第六の実施例を、図19ないし図23を用いて説明する。
第五の実施例の入力装置100の表示制御方法は、手と入力装置100の距離に応じて操作領域の距離や大きさが変更されるインタフェースを提供するものであった。本実施例では、第五の実施例の操作方法に加えて、さらに、ユーザの頭や体の位置を検出することにより、入力装置100に対する操作領域の上下左右の位置を補正するものである。
本実施形態の入力装置100でも、図19ないし図21に示すように、システム制御部200、信号出力部201、撮像部1000、距離検出部203、操作領域設定部1600、位置検出部1601からなることは、第五の実施例と同様であるが、図19に示すように、入力装置100の映像表示装置101が垂直に立った形状であることと、図20に示すように、システム制御部200において、ユーザ位置検出部2000を有することが異なる。
ユーザ位置検出部2000は、撮像部1000から得られる撮像画像から、ユーザの頭や体の位置を検出する部分である。前記ユーザの頭や体の検出には、パターンマッチング等の画像解析手法による顔検出や、距離画像等を用いた3次元形状検出が用いられる。ユーザ位置検出部2000に用いられるユーザの頭や体の検出方法は、特に限定されず、所定の検出手法や認識アルゴリズムにより、ユーザの頭や顔、体やその輪郭などの検出により、映像表示装置101に対するユーザの位置が特定できればよい。
先ず、図21を用いて本発明の第六の実施例の入力装置100の操作方法について説明する。図21は、本発明の第六の実施例に係る入力装置100によるユーザ103の位置と操作領域の関係について説明する概観図である。
図21に示されるように、入力装置100は、ユーザ103の手と映像表示装置101の距離1702に応じて、操作領域1700の距離と大きさを決定する。さらに、入力装置100は、ユーザ位置検出部2000にて検出されるユーザ103の頭2100の位置に応じて、映像表示装置101に対する操作領域1700の位置を上下左右に補正する。また、前記補正には、先に述べた透視投影の原理が用いられる。例えば、同図では、映像表示装置101は、ユーザ103から見て右方向に位置しており、前記補正により、操作領域1700の位置は、ユーザ103から見て左方向に移動する。さらに、前記位置検出部1601が、前記補正が行われた操作領域1700に対するユーザ103の手の位置を座標値として算出することにより、映像表示装置101に該座標値に応じたカーソル1701が表示される。
従って、前記距離1702に応じて前記操作領域1700の距離と大きさ、および位置は変化するため、同図において、操作状態1では、操作状態2よりも前記距離1702が離れているため、前記操作領域1700の距離は映像表示装置101より離れ、大きさが小さくなり、ユーザ103から見て左方向に移動した位置となる。同様に、操作状態3では、操作状態2よりも前記距離1702が近づいているため、前記操作領域1700の距離は映像表示装置101に近づき、大きさは大きくなり、ユーザ103から見て右方向に移動した位置となる。また、先に述べたように前記操作領域1700の距離や大きさや位置の算出に透視投影の原理が用いられている場合は、ユーザの視点からは前記操作領域1700の距離や大きさや位置の変化が見られず、映像表示装置101の表示面と前記操作領域1700とは重なっているように見える。
次に、図22のフローチャートを用いて、本発明の第五の実施例に係る入力装置100による入力操作の検出処理の手順について説明する。図22は、第五の実施例で説明した図18のフローチャートに、ステップ2200およびステップ2201を加えたフローチャートである。同図に示す処理は、図20に示したシステム制御部200がおこなう処理である。
先ず、システム制御部200は、所定のユーザ操作に応じて、手の操作の検出を開始し(ステップ1800)、距離検出部203にて撮像部1000から得られる撮像画像から手を検出し、映像表示装置101とユーザの手の距離の検出(ステップ1801)、および前記距離の変化の検出(ステップ1802)を行う。次に、前記操作領域設定部1600が、前記距離および距離の変化に応じて、操作領域1700の距離と大きさを設定する(ステップ1803)。次に、ユーザ位置検出部2000にてユーザの頭2100の位置を検出し(ステップ2200)、該位置が検出された際には、操作領域設定部1600が該位置に応じて前記操作領域1700の上下左右の位置を補正する。
さらに、位置検出部1601が、前記操作領域1700に対するユーザの手の位置の座標値を求める(ステップ1804)。前記座標値は、信号出力部201を介して映像表示装置101に出力される(ステップ1805)。これにより、映像表示装置101は、前記信号出力部201から得られる座標値に基づき、カーソル1701等の映像表示装置101に表示中のグラフィックスを変更し、ユーザは映像表示装置101の表示に対して操作を行うことができる。
次に、本実施例で、図21で示したように映像表示装置101とユーザ103の距離が近い場合ではなく、映像表示装置101とユーザ103の距離が離れた場合の入力装置100の動作を説明する。図23は、入力装置100によるユーザ103の位置と操作領域1700の関係について説明する概観図である。先ず、図23の操作状態1において、ユーザ103が距離Z1の範囲内に位置している場合は、入力装置100が設定する操作領域1700の設定等の動作は、第五の実施例や本実施例で先に説明した動作と同様となる。すなわち、操作領域設定部1600が、先に述べた透視投影の原理を用いて操作領域1700を設定するため、ユーザ103の手と映像表示装置101の距離が離れるにつれ、操作領域1700の距離が離れ、大きさが小さくなる。
一方、図23の操作状態2でユーザ103が距離Z2の範囲内に位置している場合は、操作状態1と同様に透視投影の原理を用いて操作領域1700を設定すると、操作領域1700の大きさが小さくなりすぎてしまうため、ユーザが操作することが難しくなる。そこで、操作状態2において、ユーザ103が距離Z2の範囲内に位置している場合は、操作領域設定部1600において操作領域1700を設定する際に用いる、値や数式を変更する。例えば、図23の操作状態1においては、先に述べた透視投影の原理を用いて操作領域1700が設定され、操作状態2においては、常に固定された所定の大きさの操作領域1700が設定される。これにより、ユーザ103は、図23の操作状態2のように、映像表示装置101から離れた位置で操作する場合にも、操作領域1700の大きさが小さくなりすぎることがなく、円滑に操作を行うことができる。
なお、操作状態2において、操作領域設定部1600は、操作状態1と同様に操作領域1700の距離や大きさ、位置を設定し、該設定に用いる値や数式のみが異なってもよい。すなわち、操作領域1700の距離や大きさ、位置は、前記距離Z2の範囲内でのユーザ103の位置や手の距離に応じて変更される。これにより、ユーザ103には、前記距離Z2の範囲内においても、操作状態1を同様の操作性が確保される。さらに、操作状態2では、前記距離Z2の範囲内で設定される操作領域1700の距離や大きさ、位置に適合するように、映像表示装置101に表示されるグラフィックスのサイズやデザインが変更されても良い。これにより、ユーザ103は、前記距離Z1や距離Z2での操作に適した操作を行うことができる。
このように、本発明の第六の実施例に係る入力装置100は、映像表示装置101に対する、ユーザの手の距離や、ユーザの位置に応じて、操作領域1700を設定する。これにより、ユーザは、手をかざしている位置と、映像表示装置101に表示される操作位置とが、ユーザの視点から見て重なるように操作することができ、ユーザが任意の手の距離で円滑に操作を行うことができる。
以上、第一の実施例ないし第六の実施例で説明してきたように、本発明の入力装置の入力方法によれば、特許文献1ないし特許文献4の従来技術とは異なり、体の位置や姿勢に関係なく、手を出したときに、手と入力装置の間の距離や、ユーザの位置に応じて、操作状態を直感的に把握でき、操作性を向上させることができる。
また、本発明の入力装置の入力方法によれば、入力装置に対する手の位置が検出される際の、基準となる位置が、ユーザの手の形状やユーザの位置に応じて動的に変更されるため、キャリブレーションのタイミングを途中で決める必用がなく、操作性を向上させることができる。
100…入力装置、101…映像表示装置、102…センシング部、103…ユーザ、200…システム制御部、201…信号出力部、202…距離検出部、203…上下操作検出部、600…操作基準、1000…撮像部、1100…形状検出部、1200…手の形状、1201…検出基準、1600…操作領域設定部、1601…位置検出部、1700…操作領域、1701…カーソル、1702…距離、2000…ユーザ位置検出部、2100…頭。

Claims (6)

  1. ユーザの手により表示画面内で表示される操作対象を操作する入力方法であって、
    前記表示画面からユーザの手までの距離を検出するステップと、
    前記検出された距離での操作領域を設定するステップと、
    前記設定された操作領域における手の位置を算出するステップと、
    前記操作領域における手の位置に応じて表示画面内に表示される操作対象を変更する表示ステップを有することを特徴とする入力方法。
  2. 前記検出された距離での操作領域は、当該検出された距離が小さくなるにつれて大きくなることを特徴とする請求項1に記載の入力方法。
  3. 前記ユーザの体の一部の位置を検出するステップをさらに有し、
    前記検出された距離での操作領域を設定するステップにおいては、前記検出された体の一部の位置に応じて、前記操作領域の大きさや位置を補正することを特徴とする請求項1に記載の入力方法。
  4. ユーザの手により表示画面内で表示される操作対象を操作する入力装置であって、
    前記表示画面からユーザの手までの距離を検出するセンサと、
    前記センサで検出された距離での操作領域を設定し、設定された操作領域のおける手の位置を算出し、前記操作領域における手の位置に応じて表示画面内に表示される操作対象を変更する制御部を備えることを特徴とする入力装置。
  5. 前記センサで検出された距離での操作領域は、当該検出された距離が小さくなるにつれて大きくなることを特徴とする請求項4に記載の入力装置。
  6. 前記制御部は、さらに、前記ユーザの体の一部の位置を検出し、前記検出された体の一部の位置に応じて、前記操作領域の大きさや位置を補正することを特徴とする請求項4に記載の入力装置。
JP2011253434A 2011-11-21 2011-11-21 入力方法及び入力装置 Pending JP2013109538A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011253434A JP2013109538A (ja) 2011-11-21 2011-11-21 入力方法及び入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011253434A JP2013109538A (ja) 2011-11-21 2011-11-21 入力方法及び入力装置

Publications (1)

Publication Number Publication Date
JP2013109538A true JP2013109538A (ja) 2013-06-06

Family

ID=48706232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011253434A Pending JP2013109538A (ja) 2011-11-21 2011-11-21 入力方法及び入力装置

Country Status (1)

Country Link
JP (1) JP2013109538A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101327963B1 (ko) 2013-08-26 2013-11-13 전자부품연구원 깊이 값을 이용한 회전 인터페이스 기반 문자 입력 장치 및 이를 이용한 문자 입력 방법
JP2015200960A (ja) * 2014-04-04 2015-11-12 株式会社リコー 情報システム、情報処理方法、及びプログラム
US10521050B2 (en) 2014-11-13 2019-12-31 Maxell, Ltd. Projection video display apparatus and video display method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612177A (ja) * 1992-06-29 1994-01-21 Canon Inc 情報入力方法及びその装置
JP2004258714A (ja) * 2003-02-24 2004-09-16 Toshiba Corp 画像表示装置
JP2007219676A (ja) * 2006-02-15 2007-08-30 Tokyo Institute Of Technology データ入力装置、情報機器、およびデータ入力方法
JP2011081506A (ja) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 映像表示装置、および、その表示制御方法
US20110267265A1 (en) * 2010-04-30 2011-11-03 Verizon Patent And Licensing, Inc. Spatial-input-based cursor projection systems and methods

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612177A (ja) * 1992-06-29 1994-01-21 Canon Inc 情報入力方法及びその装置
JP2004258714A (ja) * 2003-02-24 2004-09-16 Toshiba Corp 画像表示装置
JP2007219676A (ja) * 2006-02-15 2007-08-30 Tokyo Institute Of Technology データ入力装置、情報機器、およびデータ入力方法
JP2011081506A (ja) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 映像表示装置、および、その表示制御方法
US20110267265A1 (en) * 2010-04-30 2011-11-03 Verizon Patent And Licensing, Inc. Spatial-input-based cursor projection systems and methods

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101327963B1 (ko) 2013-08-26 2013-11-13 전자부품연구원 깊이 값을 이용한 회전 인터페이스 기반 문자 입력 장치 및 이를 이용한 문자 입력 방법
JP2015200960A (ja) * 2014-04-04 2015-11-12 株式会社リコー 情報システム、情報処理方法、及びプログラム
US10521050B2 (en) 2014-11-13 2019-12-31 Maxell, Ltd. Projection video display apparatus and video display method
US10915186B2 (en) 2014-11-13 2021-02-09 Maxell, Ltd. Projection video display apparatus and video display method

Similar Documents

Publication Publication Date Title
JP5921835B2 (ja) 入力装置
US9400560B2 (en) Image display device and display control method thereof
JP6480434B2 (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
US9477324B2 (en) Gesture processing
US9128526B2 (en) Operation control device, operation control method, and computer-readable recording medium for distinguishing an intended motion for gesture control
JP6371475B2 (ja) 視線入力装置、視線入力方法、および、視線入力プログラム
JP2012027515A (ja) 入力方法及び入力装置
US20130257736A1 (en) Gesture sensing apparatus, electronic system having gesture input function, and gesture determining method
JP5921981B2 (ja) 映像表示装置および映像表示方法
JP2011028366A (ja) 操作制御装置および操作制御方法
US20150301647A1 (en) Touch panel-type input device, method for controlling the same, and storage medium
KR101330531B1 (ko) 3차원 카메라를 이용한 가상 터치 방법 및 장치
KR101575063B1 (ko) 뎁스 카메라를 이용한 다중 사용자 멀티 터치 인터페이스 장치 및 방법
JP2013109538A (ja) 入力方法及び入力装置
JP2012094085A (ja) 入力装置
TWI536259B (zh) 手勢辨識模組及手勢辨識方法
JP6452658B2 (ja) 情報処理装置、およびその制御方法ならびにプログラム
KR101394604B1 (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
TWI444875B (zh) 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法
US10175825B2 (en) Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
US20230251744A1 (en) Systems and methods for using input device in different modes
US20240160294A1 (en) Detection processing device, detection processing method, information processing system
US9116573B2 (en) Virtual control device
WO2017217375A1 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140212

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140311

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140319

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141211

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150421