JP2012094085A - 入力装置 - Google Patents
入力装置 Download PDFInfo
- Publication number
- JP2012094085A JP2012094085A JP2010242968A JP2010242968A JP2012094085A JP 2012094085 A JP2012094085 A JP 2012094085A JP 2010242968 A JP2010242968 A JP 2010242968A JP 2010242968 A JP2010242968 A JP 2010242968A JP 2012094085 A JP2012094085 A JP 2012094085A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- input device
- user
- display
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】非接触で入力操作を実行する入力装置において、ユーザが意図する操作を円滑に入力できる入力装置を提供する。
【解決手段】入力装置からユーザの手までの距離を検出する距離検出手段102と、前記距離検出手段の検出結果に基づき、距離の変化を検出する距離変化検出手段と、映像表示手段101とを備え、前記距離変化検出手段は、所定の範囲における距離の変化を検出し、前記映像表示手段は、前記距離変化検出手段の検出結果に応じて表示の変更を行う。
【選択図】図1
【解決手段】入力装置からユーザの手までの距離を検出する距離検出手段102と、前記距離検出手段の検出結果に基づき、距離の変化を検出する距離変化検出手段と、映像表示手段101とを備え、前記距離変化検出手段は、所定の範囲における距離の変化を検出し、前記映像表示手段は、前記距離変化検出手段の検出結果に応じて表示の変更を行う。
【選択図】図1
Description
本発明は、ユーザの操作する手と操作される画面の間の距離をセンサにより検出して、検出結果に応じた操作指示を与える入力装置に関する。
従来、TVやレコーダといった映像装置、あるいは、PCなどの情報処理機器に対して、ユーザは、リモコンによりチャンネル操作・表示操作をしたり、キーボードやマウス、あるいはタッチパネルなどの入力デバイスによりコマンド入力やデータ入力をすることが一般的であった。
また近年では、センサ技術の向上により、特に、ゲーム機やポータブル機器の分野において、ユーザの動作をセンサで認識し、その結果によりユーザの意思を判断して、機器を動作させる手法が用いられている。
特許文献1には、手指の形状、動作を認識して、操作を判定する画像認識装置が開示されている。
特許文献1の画像認識装置では、ユーザの体の位置に応じて操作面を作成し、ユーザはその操作面に対する手あるいは指の位置、あるいは動きにより、装置に対する指示を行う。前記操作面は、仮想的な操作面であり、操作者102は、マーカ101から仮想的な操作面701を想定して手601を突き出したり、モニタ111と連動させて画面上の一部と操作面701とをタッチパネルに見立ててタッチするように手601を動かしたりすることにより、入力操作を容易に行うことができる。(段落番号0033)
しかしながら、上記特許文献1では、画面上と平行な操作面での操作については考慮しているが、画面と垂直方向での操作については考慮していない。
そこで、本発明は、かかる事情を考慮した上で、ユーザが操作を行う際に、表示画面の垂直方向の動きも考慮して、さらに表示される操作状態を参照にして、ユーザがより直感的な操作を行えるようにすることを目的とする。
上記目的を達成するために、本発明では、一例として特許請求の範囲に記載の構成とする。本構成では、非接触で入力操作を実行する入力装置において、ユーザの手と、操作される表示画面との距離を検出して、該距離に応じた入力操作を実行するようにするとともに、その操作状況を表示する。
本発明によれば、ユーザは、ユーザの操作する手と操作される表示画面の距離に対応して実行される、操作対象の変更等の操作を直感的に把握でき、ユーザが意図する操作を円滑に入力できる。
以下、本発明に係る各実施例について説明する。
以下、本発明に係る第一の実施例を、図1ないし図7を用いて説明する。本実施例の入力装置100は、ユーザの手と入力装置100の間の距離をセンサにより検出し、該距離に応じて映像表示装置101の表示を変更する装置である。
先ず、図1および図2を用いて本発明の第一の実施例の入力装置の構成を説明する。
図1は、映像表示装置101、センシング部102、ユーザ103により、入力装置100をユーザが使用する際の動作環境の概観を示す。
映像表示装置101は、映像表示装置101の外部から与えられる操作入力信号に基づき、ユーザに映像情報を提示する装置であり、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、液晶プロジェクタ、レーザープロジェクタ、リアプロジェクタなどのディスプレイ装置と、映像コンテンツやGUI(Graphical User Interface)などの表示処理に必要な演算処理装置やメモリを有する装置である。
センシング部102は、ユーザの手とセンサの間の距離を検出する部分であり、例えば、赤外線距離センサ、レーザ距離センサ、超音波距離センサ、距離画像センサ、電界センサ、などのセンサと、データ処理を行うマイコン、及びマイコン上で動作するソフトウェアから構成される。センシング部102に用いるセンサは、特に、限定されず、ユーザの手までの距離を検出するために得られる信号を、距離データに変換する機能を有すればよい。
ユーザ103は、入力装置100に対して操作を行うユーザである。
入力装置100は、図2に示すように、センシング部102、システム制御部200、信号出力部202、を備える。
システム制御部200は、距離検出部202、上下操作検出部203、の機能を実現する部分を有する。
距離検出部202は、センシング部102から得られる距離データから、操作として検出される距離を抽出あるいは分類する部分である。上下操作検出部203は、距離検出部202が操作として検出した距離から、ユーザ103が手を上下に動かす操作を検出する部分である。
システム制御部200は、ユーザ103の手の距離を検出し、手を上下に動かす操作を検出するためのデータ処理をおこなう部分である。システム制御部200は、CPUが、メモリ上に記憶されているソフトウェアモジュールを実行することにより実現してもよいし、専用のハードウェア回路により実現してもよい。
信号出力部201は、システム制御部200から指示とデータを受け取り、映像表示装置101で表示を行う映像信号を出力する部分である。
次に、図3ないし図5を用いて本発明の第一の実施例に係る入力装置100による操作方法について説明する。
図3は、本発明の第一の実施例に係る入力装置100による操作領域とユーザの操作方法について説明する概観図である。図3に示されるように、入力装置100は、センシング部102から得られるユーザの手の距離に基づき、図3(上方向操作領域)、図3(ホームポジション)、図3(下方向操作領域)、の3つの操作領域のどこに手が位置しているかを検出する。前記操作領域は、ユーザ103の操作の検出方法を説明するための概念的な領域であり、ユーザ103が手をかざした位置に応じて、手の付近の空間に存在するものとする。
図4は、発明の第一の実施例に係るユーザ操作と操作状態の表示の対応を説明する概観図である。ガイド400は、ユーザが入力装置100に手をかざした際に表示され、ユーザがどのように入力装置100を操作することができるかを説明するガイドである。本実施例のガイド400は、入力装置100に手を近づけたり、入力装置100から手を遠ざけたりすることで操作できることを、矢印の方向により示している。操作位置表示401は、前記ガイド400に対応して、その時点でどこにユーザの手が位置しているかを示す表示である。ユーザの手と入力装置100の距離に応じて、前記ガイド400の矢印型の図形上での操作位置表示401の表示位置がリアルタイムに変更される。
図5は、実施例1の入力装置の操作状態に応じた表示を説明する概観図である。図5では、映像表示装置101に画像を一覧するための表示がされており、ユーザ103の操作に応じて、一覧する画像のサイズや表示数が変更される様子を示している。
本発明の第一の実施例に係る入力装置100の操作イメージは、図5に示されるように、ユーザ103が映像表示装置101を見ながら手を使って操作し、該手までの距離を入力装置100が検出し、その検出結果に基づいて映像表示装置101の表示が変更されるものである。例えば、図5(無操作状態)に示されるように、ユーザ103が手を差し出していない場合には、画像の一覧のみが表示されている。図5(操作方法/状態提示)に示すように、ユーザ103が入力装置100に手を差し出すと、ガイド400及び操作位置表示401が映像表示装置101に表示される。ここで、ユーザ103の手が図3(ホームポジション)の位置にある場合、図4を用いて先に説明した通り、ホームポジション内におけるユーザ103の手の位置に応じて、操作位置表示401の表示位置がリアルタイムに変更される。次に、図5(操作状態A)に示されるように、ユーザ103が手を図5(ホームポジション)の位置から、図5(上方向操作領域)に移動させると、ガイド400における操作位置表示401の表示位置は、ガイド400の矢印の最上部となる。また、映像表示装置101に表示される画像の一覧は、個々の画像のサイズが小さくなり、同時に表示される画像の数が多くなる。一方、図5(操作状態B)に示されるように、ユーザ103の手を図5(ホームポジション)の位置から、図5(下方向操作領域)に移動させると、ガイド400における操作位置表示401の表示位置は、ガイド400の矢印の最下部となる。また、映像表示装置101に表示される画像の一覧は、個々の画像のサイズが大きくなり、同時に表示される画像の数が少なくなる。すなわち、ユーザ103の手が検出される位置が、図5(ホームポジション)から、図5(上方向操作領域)や図5(下方向操作領域)に移動するまでの状態が、ガイド400と操作位置表示401によりユーザ103に示され、ユーザ103は操作状態を確認しながら、手の距離に応じた指示を与え、映像出力装置101の表示を変更することができる。
次に、図6のフローチャートを用いて本発明の第一の実施例に係る入力装置100による入力操作の検出処理の手順について説明する。
入力操作の検出処理は、図2に示したシステム制御部200が行う処理である。
先ず、システム制御部200は、所定のユーザ操作に応じて、手の位置の検出を開始し(ステップ600)、距離検出部202にてセンシング部102から得られる距離データから、操作として検出される距離を抽出あるいは分類する処理を行い、手の距離を検出する。手の距離が検出された際には(ステップ601)、映像表示装置101に操作方法を示すガイド400を表示する(ステップ602)。また、検出された距離に対応する操作領域を求める(ステップ603)。
手が位置する操作領域がホームポジションである場合は(ステップ604:Yes)、ガイド400中の操作位置表示401の表示位置を変更し、現在の操作状態をユーザに提示し、手の距離の検出を継続する。一方、手が位置する操作領域がホームポジションではない場合は(ステップ604:No)、上下操作検出部にて、上方向、もしくは下方向の操作を検出する(ステップ606)。このとき、ガイド400中の操作位置表示401の表示位置は、ガイド400の矢印の最上部もしくは最下部となる。上方向もしくは下方向の操作を検出した際には、検出した操作に応じて映像表示装置101の表示が変更される(ステップ607)。
ユーザ103が所定の操作にて、操作終了の意思表示をしたときには(ステップ608)、処理を終了し、そうでないときには、ステップ601以降の手の距離の検出を継続する。
このように、入力装置100は、ユーザ103が入力装置100に対して手をかざしている距離の変化に応じて、ガイド400と操作位置表示401の表示を変更する。また、予め設定された上下方向の操作領域に手が位置した場合には、映像表示装置101において所定の表示の変更を行う。これにより、ユーザ103は、現在の手の位置と、ガイド400と操作位置表示401の表示状態の関係から、手の距離と操作の対応を直感的に把握でき、ユーザ103が意図する操作を円滑に入力できる。
なお、図7に示すように、上方向操作領域もしくは下方向操作領域に手が位置して、上方向もしくは下方向の操作が行われる際には、操作が実行されることをさらにユーザが理解しやすくするために、操作状態の強調表示700を表示しても良い。また、強調表示700は、図7に示す図形としての表示の他に、表示中の映像のゆがみや引き延ばし等のいわゆるエフェクト効果を用いた映像変化でも良い。
以下、本発明に係る第二の実施例を、図8を用いて説明する。
第一の実施形態の入力装置100の表示制御方法は、手が位置する操作領域の変化に応じて操作を実行するインタフェースを提供するものであった。本実施例では、第一の実施例の操作方法に加えて、さらに、手の横方向の移動に応じて操作できるようにした入力装置100に関するものである。
本実施形態の入力装置100でも、図2に示したように、センシング部102、システム制御部200、信号出力部201からなることは、第一の実施例と同様であるが、映像表示装置101に表示されるガイド及び操作位置表示の構成が異なる。
図8に示すように、本実施例の映像表示装置101には、第一の実施例で説明したガイド及び操作位置表示に加え、横方向ガイド800と横方向操作位置表示801が表示される。横方向ガイド800及び横方向操作位置表示801の表示の変更手順は、第一の実施例で説明した上下方向の操作と同等であり、操作方向のみが追加されている。
このように、本発明の第二の実施例に係る入力装置100は、上下方向の操作に加えて、横方向の操作をする場合にも対応して、横方向ガイド800及び横方向操作位置表示801を表示することにより、ユーザ103は手の位置と操作の対応を直感的に把握でき、ユーザ103が意図する操作を円滑に入力できる。
なお、図8に示すように、左方向もしくは右方向の操作が行われる際には、操作が実行されることをさらにユーザが理解しやすくするために、操作状態の強調表示802を表示しても良い。また、強調表示802は、図8に示す図形としての表示の他に、表示中の映像のゆがみや引き延ばし等のいわゆるエフェクト効果を用いた映像変化でも良い。
以下、本発明に係る第三の実施例を、図9を用いて説明する。
第一の実施形態の入力装置100の表示制御方法は、手が位置する操作領域の変化に応じて操作を実行するインタフェースを提供するものであった。本実施例では、操作方法は第一の実施例と同等であり、ガイド及び操作位置表示の表示方法のみ異なる入力装置100に関するものである。
本実施形態の入力装置100でも、図2に示したように、センシング部102、システム制御部200、信号出力部201からなることは、第一の実施例と同様であるが、映像表示装置101に表示されるガイド及び操作位置表示の構成が異なる。
図9に示すように、本実施例の映像表示装置101には、第一の実施例で説明したガイド及び操作位置表示と異なり、軸形状ガイド900と指示位置901と上下方向操作状態902が表示される。軸形状ガイド900は、上下方向の操作の範囲を示す軸であり、軸形状ガイド900中で現在示されている場所が指示位置901となる。上下方向操作状態902は、ユーザ103の操作状態を示しており、ユーザ103が手を上下する動作に応じて、矢印の表示の角度が変化する。
ユーザ103が図9中のホームポジション内で上方向に手を動かした場合には、図9の状態提示Aのように上下方向操作状態902の矢印の角度が上方向に変化する。さらに、ユーザ103の手の位置が図9中の上方向操作領域に入ると、上下方向操作状態902の矢印の角度は真上の方向を向き、指示位置901の位置が、軸形状ガイド900の上方向に移動する。ユーザ103の手の下方向の動作についても同様である。
このように、本発明の第三の実施例に係る入力装置100は、上下方向操作状態902で示す画像の角度の変化により、ユーザ103は手の位置と操作の対応を直感的に把握でき、ユーザ103が意図する操作を円滑に入力できる。
なお、図9に示すように、上方向もしくは下方向の操作が行われる際には、操作が実行中であることをさらにユーザが理解しやすくするために、操作状態の強調表示903を表示しても良い。また、強調表示903は、図9に示す図形としての表示の他に、表示中の映像のゆがみや引き延ばし等のいわゆるエフェクト効果を用いた映像変化でも良い。
以上、第一の実施例ないし第四の実施例で説明してきたように、本発明の入力装置の入力方法によれば、特許文献1ないし特許文献4の従来技術とは異なり、ユーザが手を出したときに表示され、さらに手と入力装置の間の距離に応じて変化する、画面上の表示を介して、入力装置に対して可能な入力操作と、操作状態を直感的に把握でき、操作性を向上させることができる。
100…入力装置、101…映像表示装置、102…センシング部、103…ユーザ、200…システム制御部、201…信号出力部、202…距離検出部、203…上下操作検出部、400…ガイド、401…操作位置表示、700…強調表示、800…横方向ガイド、801…横方向操作位置表示ガイド、802…強調表示、900…軸形状ガイド、901…指示位置、902…上下方向操作状態、903…強調表示
Claims (5)
- 入力装置からユーザの手までの距離を検出する距離検出手段と、
前記距離検出手段の検出結果に基づき、距離の変化を検出する距離変化検出手段と、
前記距離変化検出手段の検出結果に基づき、所定の画像の表示を変更する表示手段と、を備え、
前記表示手段は、所定の操作の操作方法を示す第一の画像と、該第一の画像に対応して操作状態を示す第二の画像を表示し、
前記距離変化検出手段の検出結果に応じて、該第一の画像に対する該第二の画像の位置を変化させることにより、入力装置とユーザの手までの距離を用いた操作の操作状態を提示すること、を特徴とする入力装置。 - 前記表示手段は、前記距離変化検出手段で検出される距離が、所定の第一の距離と、所定の第二の距離の間で変化している場合にのみ、前記第一の画像に対する前記第二の画像の位置を変化させること、を特徴とする請求項1に記載の入力装置。
- 前記表示手段は、前記距離変化検出手段で検出される距離が、所定の第一の距離と、所定の第二の距離の間ではない場合に、第三の画像を表示することにより、前記第一の距離と第二の距離の間にユーザの手が位置していないことを強調して表示すること、を特徴とする請求項1に記載の入力装置。
- 前記表示手段は、前記距離変化検出手段で検出される距離が変化した場合に、前記第一の画像に対する第二の画像の角度を変化させること、を特徴とする請求項1に記載の入力装置。
- 前記入力装置は、さらに入力装置に対する縦方向もしくは、横方向の位置を検出する位置検出手段を備え、
前記表示手段は、所定の操作の操作方法を示す第三の画像と、該第三の画像に対応して操作状態を示す第四の画像を表示し、該位置検出手段の検出結果に応じて、該第三の画像に対する該第四の画像の位置を変化させることにより、入力装置とユーザの手の位置を用いた操作の操作状態を提示すること、を特徴とする請求項1に記載の入力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010242968A JP2012094085A (ja) | 2010-10-29 | 2010-10-29 | 入力装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010242968A JP2012094085A (ja) | 2010-10-29 | 2010-10-29 | 入力装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012094085A true JP2012094085A (ja) | 2012-05-17 |
Family
ID=46387311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010242968A Pending JP2012094085A (ja) | 2010-10-29 | 2010-10-29 | 入力装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012094085A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016505188A (ja) * | 2013-02-05 | 2016-02-18 | クアルコム,インコーポレイテッド | 3d物体検出によるシステムのエンゲージメントのための方法 |
JP2016026682A (ja) * | 2015-10-14 | 2016-02-18 | 株式会社スクウェア・エニックス | ビデオゲーム装置、及びビデオゲーム処理プログラム |
US9884246B2 (en) | 2013-02-12 | 2018-02-06 | Kabushiki Kaisha Square Enix | Video game processing apparatus and video game processing program |
JP2019022759A (ja) * | 2018-11-13 | 2019-02-14 | 株式会社スクウェア・エニックス | ビデオゲーム装置、及びビデオゲーム処理プログラム |
US10521050B2 (en) | 2014-11-13 | 2019-12-31 | Maxell, Ltd. | Projection video display apparatus and video display method |
-
2010
- 2010-10-29 JP JP2010242968A patent/JP2012094085A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016505188A (ja) * | 2013-02-05 | 2016-02-18 | クアルコム,インコーポレイテッド | 3d物体検出によるシステムのエンゲージメントのための方法 |
US9884246B2 (en) | 2013-02-12 | 2018-02-06 | Kabushiki Kaisha Square Enix | Video game processing apparatus and video game processing program |
US10391386B2 (en) | 2013-02-12 | 2019-08-27 | Kabushiki Kaisha Square Enix | Video game processing apparatus and video game processing program |
US10974131B2 (en) | 2013-02-12 | 2021-04-13 | Kabushiki Kaisha Square Enix | Video game processing apparatus and video game processing program |
US10521050B2 (en) | 2014-11-13 | 2019-12-31 | Maxell, Ltd. | Projection video display apparatus and video display method |
US10915186B2 (en) | 2014-11-13 | 2021-02-09 | Maxell, Ltd. | Projection video display apparatus and video display method |
JP2016026682A (ja) * | 2015-10-14 | 2016-02-18 | 株式会社スクウェア・エニックス | ビデオゲーム装置、及びビデオゲーム処理プログラム |
JP2019022759A (ja) * | 2018-11-13 | 2019-02-14 | 株式会社スクウェア・エニックス | ビデオゲーム装置、及びビデオゲーム処理プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5921835B2 (ja) | 入力装置 | |
US10936011B2 (en) | Information processing apparatus, information processing method, and program | |
US9411424B2 (en) | Input device for operating graphical user interface | |
US9836127B2 (en) | Apparatus and method for inputting command using gesture | |
US9690475B2 (en) | Information processing apparatus, information processing method, and program | |
US20180292907A1 (en) | Gesture control system and method for smart home | |
JP2012027515A (ja) | 入力方法及び入力装置 | |
JP5808712B2 (ja) | 映像表示装置 | |
TWI414961B (zh) | 在觸控面板上使用手勢進行切換多電腦切換埠的方法及裝置 | |
JP2009042796A (ja) | ジェスチャー入力装置および方法 | |
US20120218307A1 (en) | Electronic device with touch control screen and display control method thereof | |
JP2011081469A (ja) | 入力装置 | |
US20120218308A1 (en) | Electronic apparatus with touch screen and display control method thereof | |
JP2012094085A (ja) | 入力装置 | |
JP2014026355A (ja) | 映像表示装置および映像表示方法 | |
TW201423477A (zh) | 輸入裝置以及電子裝置 | |
US9146653B2 (en) | Method and apparatus for editing layout of objects | |
KR20170009302A (ko) | 디스플레이장치 및 그 제어방법 | |
JP2012179682A (ja) | 移動ロボットシステム、移動ロボット制御装置、該制御装置に用いられる移動制御方法及び移動制御プログラム | |
KR101436585B1 (ko) | 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치 | |
US10101905B1 (en) | Proximity-based input device | |
JP2013109538A (ja) | 入力方法及び入力装置 | |
KR20110043021A (ko) | 터치 입력 장치 및 터치 입력 장치에서 실행되는 명령어 실행 방법 | |
JP2010049318A (ja) | 移動制御プログラム | |
EP2296081A1 (en) | Image processing apparatus and method of controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20120521 |