JP2005321870A - 操作入力装置および操作入力方法 - Google Patents

操作入力装置および操作入力方法 Download PDF

Info

Publication number
JP2005321870A
JP2005321870A JP2004137385A JP2004137385A JP2005321870A JP 2005321870 A JP2005321870 A JP 2005321870A JP 2004137385 A JP2004137385 A JP 2004137385A JP 2004137385 A JP2004137385 A JP 2004137385A JP 2005321870 A JP2005321870 A JP 2005321870A
Authority
JP
Japan
Prior art keywords
pointing
space
operation input
operator
development
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004137385A
Other languages
English (en)
Other versions
JP4244202B2 (ja
Inventor
Kenjiro Endo
謙二郎 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2004137385A priority Critical patent/JP4244202B2/ja
Priority to US11/104,872 priority patent/US7893920B2/en
Priority to EP05009784A priority patent/EP1594040A3/en
Publication of JP2005321870A publication Critical patent/JP2005321870A/ja
Application granted granted Critical
Publication of JP4244202B2 publication Critical patent/JP4244202B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】 主たるコンテンツ情報を表示する面積を大きくとりながら、ポインティング領域も小さくならず操作入力が行いやすい「操作入力装置および操作入力方法」を提供する。
【解決手段】 ディスプレイ画面30の外部に一定の大きさの延長面37を想定し、両者を合わせた展開面38を設定して、その展開面38に対して行われるポインティング動作を検出して対応する操作指令を出力することにより、画面外に想定した延長面37に対してもポインティング動作を可能とする。また、延長面37の一部を複数のポインティング領域に分割してコマンド実行を割り当てることにより、画面内部は殆どの領域を主たるコンテンツ情報の表示用に使い、画面外部に想定した延長面37をコマンド実行のポインティング領域として使うことができるようにする。
【選択図】 図3

Description

本発明は操作入力装置および操作入力方法に関し、特に、コンピュータ機器やナビゲーション装置などにオペレータ操作による入力指令を与える操作入力装置に用いて好適なものである。
従来、コンピュータ機器やナビゲーション装置などにオペレータ操作による入力指令を与える操作入力装置としては、キーボードやマウス、トラックボール、ジョイスティック等を備えたリモートコントローラ(リモコン)、タッチパネルなどが多用されている。これらの操作入力装置は何れも、実際に人手が触れることによって操作する接触型の入力デバイスであり、操作が面倒であった。
例えば、コンピュータ機器においてアプリケーションソフトを起動して作業を行う場合、文字入力等を行うためのキーボードと、位置指定等を行うためのマウスやトラックボールとを一々使い分ける必要があり、その使い分けが非常に面倒であった。また、車載のナビゲーション装置を操作する場合、運転者は安全のために車を停車して、ハンドルから手を離して一々リモコンのジョイスティックやタッチパネルを操作する必要があり、簡単に操作することができなかった。
これに対して、空間上の指の動きを検出して操作入力を行うようにした非接触型の技術も提案されている(例えば、特許文献1参照)。この特許文献1に記載の技術では、ディスプレイ画面に対応した所定の空間に赤外線を走査し、その空間内に入れられた指などの指示物に赤外線が照射されたことを赤外線センサにより検知する。そして、その指示物によって指定された空間上の位置をそのときの赤外線照射位置から求め、その空間上の位置に対応するディスプレイ画面上の箇所を位置決めして、その位置指定による所定の操作指令を出力する。
特開平8−202480号公報
しかしながら、上述した接触型および非接触型の操作入力装置の何れも、ディスプレイ画面に表示されているオブジェクトに対して操作入力を行うことができるのみであり、ディスプレイ画面の外側にあると想定されるオブジェクトを直接操作することはできない。
例えば、ナビゲーション装置の場合、ディスプレイ画面に表示されている地図は全体の中のほんの一部であり、その周囲には続きの地図が存在する。この地図情報のように、ディスプレイ画面外に想定される情報がディスプレイ画面内に表示されている情報から容易に想像でき、かつ、位置を推定できる地点が画面外にある場合でも、従来はその地点を直接操作することができなかった。そのため、推定される地点が画面内に入るまで画面のスクロール操作を繰り返す必要があり、非常に面倒であった。
また、コンピュータ機器やナビゲーション装置などにおけるコマンドの入力方法として、ディスプレイ画面に表示されるボタン状のポインティング領域をポイントする方法が広く使われている。例えば、タッチパネルであれば、ディスプレイ画面に表示されるボタン状のポインティング領域を指で触れることによってコマンドを入力する。
しかしながら、ポインティング領域の面積を大きくすると、地図や映画などの主たるコンテンツ情報を表示する面積が小さくなり、主たるコンテンツ情報が見にくくなってしまう。逆に、それを防ぐためにポインティング領域の面積を小さくすると、指などでポイントするための精度が求められ、操作がしにくくなってしまうという問題があった。このような問題は、ナビゲーション装置のようにディスプレイ画面のサイズがそれほど大きくない場合に顕著となる。
本発明は、このような実情に鑑みて成されたものであり、ディスプレイ画面の外側にあると想定される点やオブジェクトに対して操作入力を直接行うことができるようにすることを目的とする。
また、本発明は、主たるコンテンツ情報を表示する面積を大きくとりながら、ポインティング領域も小さくならず操作入力が行いやすくできるようにすることを目的とする。
上記した課題を解決するために、本発明では、ディスプレイ画面の外部に一定の大きさの延長面を想定し、ディスプレイ画面と延長面とを合わせた展開面を設定する。そして、その展開面に対して行われるポインティング動作を検出して、対応する操作指令を出力するようにしている。
上記のように構成した本発明によれば、ディスプレイ画面の内側だけでなく、ディスプレイ画面の外側に想定した延長面に対してもポインティング動作をすることが可能となるので、ディスプレイ画面の外側にあると想定される点やオブジェクトに対して操作入力を直接行うことができるようになる。
また、延長面の一部または全部を1以上の領域に分割してそれぞれをポインティング領域として設定し、それぞれのポインティング領域にコマンド実行等を割り当てておくことにより、ディスプレイ画面の内部はその殆どを主たるコンテンツ情報の表示用に使い、ディスプレイ画面の外部に想定した延長面をコマンド実行のポインティング領域として使用することができる。これにより、主たるコンテンツ情報を表示する面積を大きくとりながら、ポインティング領域も小さくならず操作入力が行いやすくなるようにすることができる。
(第1の実施形態)
以下、本発明の一実施形態を図面に基づいて説明する。図1は、第1の実施形態による操作入力装置の構成例を示す図である。図1に示すように、第1の実施形態の操作入力装置は、位置検出手段としての3次元イメージセンサ1と、CPU2a、ROM2b、RAM2cなどを備えて構成されるマイクロコンピュータ(以下、マイコンと記す)2と、ディスプレイ装置20の表示制御を行う表示制御手段としてのディスプレイコントローラ3とを備えて構成されている。
3次元イメージセンサ1は、空間上における物体の3次元的な位置を検出するものである。例えば、物体にビームを照射し、反射して返ってくるビームを測定することで物体までの距離(物体の相対位置)を検出する。この3次元イメージセンサ1としては、例えば米国特許第6,515,740号明細書に開示されているような公知の技術を適用することが可能である。この米国特許に記載の技術を用いれば、3次元イメージセンサ1が設置された位置に対する物体の3次元的な相対位置を検出するだけでなく、物体の3次元的な形状を検出することが可能である。すなわち、物体に凹凸があって物体の表面上に3次元イメージセンサ1からの距離差が存在する場合には、その距離差に応じた位置情報を出力することによって、物体の3次元的な形状を検出することが可能である。
マイコン2が備えるCPU2aは、操作入力装置の全体を制御する。ROM2bは、操作入力装置の動作に必要な各種プログラムを記憶する。RAM2cは、CPU2aによる各種処理の過程で得られるデータや、各種処理の結果得られるデータを一時的に格納する。すなわち、CPU2aは、ROM2bに記憶された各種プログラムに従って、RAM2cをワークメモリとして使用しながら、操作入力装置の動作を制御する。
図2は、マイコン2が有する機能構成を示すブロック図である。また図3は、本実施形態のポインティング空間を説明するための概念図である。図2に示すように、本実施形態のマイコン2は、その機能構成として、ポインティング空間設定部21、指示物認識部22、座標検出部23、動き検出部24および操作入力内容判定部25を備えている。
ポインティング空間設定部21は、図3に示すように、ディスプレイ装置20の画面(以下、ディスプレイ画面30と記す)の外部に一定の大きさの延長面37を想定し、ディスプレイ画面30と延長面37とを合わせて展開面38とする。そして、この展開面38と、当該展開面38から離れた場所にある所定の基準点31とを結んで成る錐体上の仮想的なポインティング空間32を設定。
ここで、基準点31は、多くの場合に操作者が居ると予想される位置に設定する。例えば、本実施形態の操作入力装置を車載用ナビゲーション装置に適用する場合、運転席のヘッドレスト前の空間で、運転者の目の位置と想定される一点に基準点31を設定するのが好ましい。図3はそのような状態を示している。すなわち、車載用ナビゲーション装置の場合、ディスプレイ画面30はインパネの略中央に設置されるのに対し、運転席は車両の右寄り(または左寄り)に存在するので、ポインティング空間32は図3のように斜めの錐体状となる。
この場合、ディスプレイ画面30の位置と基準点31の位置とがあらかじめ分かっているので(例えば、RAM2cや他の図示しないメモリに情報として記憶しておく)、ポインティング空間32は一意に決まる。
指示物認識部22は、ポインティング空間32の内にある物体を3次元イメージセンサ1により検知して、所定の指示物34であることを認識する。本実施形態において、指示物34は、棒状の突出物であるとする。例えば、操作者の指を1本だけ立てた状態のもの、操作者が持っている筆記具や指示具などが指示物34に該当する。
3次元イメージセンサ1をディスプレイ画面30の近傍に設置した場合、指示物34はディスプレイ画面30の方向、つまり3次元イメージセンサ1の方向に向けて操作されることになる。このとき、上述のように3次元イメージセンサ1は、物体までの距離に応じた位置情報を出力するので、棒状の物体が3次元イメージセンサ1の方向に向けられていると、当該棒状の物体の先端部分についてのみ近い位置情報が出力される。したがって、当該近い位置情報が出力されている部分を指示物34が存在する位置として検出することが可能である。
また、展開面38と基準点31との間のポインティング空間32の側方に3次元イメージセンサ1を設置した場合、指示物34は3次元イメージセンサ1から見て横方向に向けて操作されることになる。上述のように、3次元イメージセンサ1は物体の3次元的な形状に応じて位置情報を出力することができる。したがって、指示物認識部22は、3次元イメージセンサ1から出力される物体形状に応じた位置情報に基づいて、所定の長さ以上で、かつ、所定の太さ以下の物体がポインティング空間32内に存在するか否かを判断し、存在する場合にはそれを指示物34であると認識することが可能である。
座標検出部23は、3次元イメージセンサ1により検出されるポインティング空間32内における指示物34の位置をもとに、写像関係を利用して展開面38における対象点36の座標を検出する。すなわち、座標検出部23は、基準点31の位置と指示物34の位置とを通る線35が展開面38に交差する対象点36を展開面38の座標として、ポインティング空間32内で認識され検出される指示物34の位置から算出する。なお、3次元イメージセンサ1により検出される指示物34の位置は、3次元イメージセンサ1から見た相対位置であるが、3次元イメージセンサ1自身の位置があらかじめ分かっているので、指示物34の絶対位置も検出することが可能である。
座標検出部23は、検出した対象点36の座標情報をディスプレイコントローラ3に出力する。ディスプレイコントローラ3は、座標検出部23より供給される対象点36の座標情報に基づいて、当該座標情報が延長面37上ではなくディスプレイ画面30上のものであるときは、ディスプレイ画面30上における対象点36の座標位置に所定のマーク(例えば、矢印マークなど)を必要に応じて表示するように制御する。
また、当該座標情報が延長面37上にあるときは、ディスプレイ画面30の中央部と当該座標情報で示される対象点36とを結ぶ線と、ディスプレイ画面30の端部とが交わった点に、所定のマーク(例えば、当該対象点36の方に向かう矢印マークなど)を表示するように制御しても良い。
動き検出部24は、ポインティング空間32内における指示物34の3次元的な動きを検出する。上述のように、3次元イメージセンサ1はポインティング空間32内にある物体の3次元的な位置情報を随時出力しており、指示物認識部22によって物体が指示物34か否かが検出されている。したがって、指示物34に関する位置情報の変化を見ることによって、指示物34の3次元的な動きを検出することが可能である。
操作入力内容判定部25は、座標検出部23により検出される展開面38における対象点36の座標と、動き検出部24により検出される指示物34の3次元的な動きとに基づいて、操作者によって行われた指示物34による操作入力内容を判定し、対応する操作指令を出力する。
例えば、図4に示すように、ポインティング空間32内において、指示物34が、展開面38の所定の座標範囲内で所定の速度以上で展開面38に近づく動きをしたとき、操作入力内容判定部25はポインティング開始動作が行われたと判定する。また、ポインティング空間32内において、指示物34が、展開面38の所定の座標範囲内で所定の速度以上で展開面38から遠ざかる動きをしたときは、ポインティング解除動作が行われたと判定する。
さらに、ポインティング空間32内において、指示物34が、上述のポインティング開始動作をした後、所定の時間内にポインティング解除動作をしたときには、クリック動作が行われたと判定する。また、ポインティング空間32内において、指示物34が、上述のポインティング開始動作をした後、ポインティング解除動作をせずに、座標検出部23により検出される展開面38上の対象点36の座標が移動する動きをしたときには、ドラグ動作が行われたと判定し、展開面38での座標上の動き量をドラグ量として検出する。
操作入力内容判定部25は、検出した操作入力内容を示す情報をディスプレイコントローラ3に出力する。例えば、操作入力内容判定部25は、対象点36の座標位置に存在するオブジェクト(例えばGUIによる操作ボタン)に向けてクリック動作が行われたと判断した場合、その操作ボタンに割り当てられている処理を実行するための操作指令を出力する。また、操作入力内容判定部25は、対象点36の座標位置に存在するオブジェクト(例えばアイコン)に対してドラグ動作が行われたと判断した場合、当該オブジェクトをドラグ量だけドラグされた方向に移動させる操作指令をディスプレイコントローラ3に出力する。
地図表示を行うナビゲーション装置に本実施形態の操作入力装置を適用した場合、ポインティング開始動作によって指示された地点がドラグ量だけドラグされた方向に移動するように地図全体をスクロールするための操作指令をディスプレイコントローラ3に出力するようにしても良い。
ディスプレイコントローラ3は、操作入力内容判定部25より供給される情報に基づいて、ディスプレイ画面30上の表示を制御する。例えば、操作入力内容判定部25によりドラグ動作が行われたと判定されたときに、座標検出部23により検出された展開面38上の対象点36の座標位置にあるオブジェクト(延長面37上の座標位置が指示されているときはその延長面37上にあると想定されるオブジェクト)を、ドラグ量だけドラグされた方向に移動させるように表示を制御する。
あるいは、本実施形態の操作入力装置をナビゲーション装置に適用した場合において、操作入力内容判定部25によりドラグ動作が行われたと判定されたときに、座標検出部23により検出された展開面38上の対象点36の座標位置にある地点(延長面37上の座標位置が指示されているときはその延長面37上にあると想定される地点)がドラグ量だけドラグされた方向に移動するように、地図全体をスクロールするような表示を制御する。
図5は、ドラグ操作が行われた場合の動作例を示す図である。なお、この図5は、本実施形態の操作入力装置をナビゲーション装置に適用した場合の動作例を示すものであり、ディスプレイ画面30と延長面37の一部とを図示している。図5に示すように、本実施形態によれば、ディスプレイ画面30の外部に想定される地点を指示物34によりポイントし(図5(a))、ドラグ動作をすることによって(図5(b))、ディスプレイ画面30の外部にある地点がディスプレイ画面30の中に入るように画面をスクロールさせることができる。
なお、図5では画面外部の地点をドラグ動作により画面内部にスクロールする例について説明したが、これに限定されない。例えば、画面外部の地点をクリックすることにより、クリックされた地点が画面内の所定の位置に自動的に移動するように画面をスクロールさせるようにしても良い。画面内の所定の位置としては、例えば画面中央、車両の現在位置(車両位置マークが表示されている位置)、カーソルが表示されている位置などが考えられる。
図6は、クリック操作が行われた場合の動作例を示す図である。図6に示す例では、ポインティング空間設定部21は、延長面37の一部を複数の領域に分割してそれぞれをポインティング領域51として設定している。それぞれのポインティング領域51には、所定の処理を実行するための仮想的操作ボタンが割り当てられている。また、延長面37にポインティング領域51が存在することを操作者に知らせるために、ディスプレイ画面30の外周部に沿って、ポインティング領域51が存在する位置に対応して帯状の操作受付領域52がディスプレイ画面30に表示されている。
この場合、操作者は、ディスプレイ画面30の外部の延長面37上にあるポインティング領域51に対してクリック動作をすることによって、コマンドの実行を指示することができる。この場合に操作入力内容判定部25は、延長面37上のどのポインティング領域51がクリックされたかを判定し、クリックされたポインティング領域51に対応するコマンドの実行指令を出力する。このようにすれば、ディスプレイ画面30上で主たるコンテンツ情報を表示する面積(操作受付領域52以外の領域の面積)を大きくとりながら、ポインティング領域51も小さくならないようにし、操作入力を行いやすくすることができる。
なお、図6では延長面37の一部を複数のポインティング領域51に分割する例を示しているが、延長面37の全部を複数のポインティング領域51に分割するようにしても良い。また、延長面37の一部または全部にポインティング領域51を1つだけ設けるようにしても良い。また、ポインティング領域51に対してポインティング開始動作が行われたときに、対応する操作受付領域52をディスプレイ画面30内にポップアップ表示するようにしても良い。
次に、上記のように構成した本実施形態による操作入力装置の動作について説明する。図7は、本実施形態による操作入力装置の動作を示すフローチャートである。図7において、まず、3次元イメージセンサ1により空間上における物体の3次元的な位置を検出する(ステップS1)。そして、その物体がポインティング空間32の中にあるか否かを指示物認識部22により判定する(ステップS2)。物体がポインティング空間32内にあるとき、指示物認識部22は、その物体が指示物34か否かを更に判定する(ステップS3)。物体がポインティング空間32内にない場合、または、物体がポインティング空間32内にあってもそれが指示物34でない場合は、ステップS1の処理に戻る。
指示物認識部22によりポインティング空間32内の指示物34が認識された場合、ポインティング空間32内における指示物34の3次元的な動きを動き検出部24により検出する(ステップS4)。また、3次元イメージセンサ1により検出されたポインティング空間32内における指示物34の位置をもとに、写像関係を利用して展開面38における対象点36の座標を座標検出部23により算出する(ステップS5)。なお、このステップS4の処理とステップS5の処理は順番が逆でも良い。
最後に、操作入力内容判定部25は、動き検出部24により検出された指示物34の3次元的な動きと、座標検出部23により検出された指示物34の位置に対応する展開面38における対象点36の座標とに基づいて操作入力内容を判定し、対応する操作指令を出力する(ステップS6)。すなわち、所定の動きがあったかどうかでクリック動作やドラグ動作を判定し、その動作に対応する操作指令を出力する。
以上詳しく説明したように、本実施形態によれば、ディスプレイ画面30の内側だけでなく、ディスプレイ画面30の外側に想定した延長面37に対してもポインティング動作をすることが可能となるので、ディスプレイ画面30の外側にあると想定される点やオブジェクトに対してクリック動作やドラグ動作を直接行うことができるようになる。
これにより、図5に示したように、ディスプレイ画面30の外部に想定される地点をポイントしてドラグ動作あるいはクリック動作することにより、画面外の想定地点が画面内に入るまで画面内での操作を何度も繰り返す必要がなく、所望の地点を画面のスクロールによって画面内へと簡単に移動させることもできる。
また、図6に示したように、延長面37の一部または全部を1以上の領域に分割してそれぞれをポインティング領域51として設定し、それぞれのポインティング領域51にコマンド実行等を割り当てておくことにより、ディスプレイ画面30の内部は殆どの領域を主たるコンテンツ情報の表示用に使い、ディスプレイ画面30の外部に想定した延長面37をコマンド実行のポインティング領域51として使用することができる。これにより、主たるコンテンツ情報を表示する面積を大きくとりながら、ポインティング領域51も小さくならず操作入力が行いやすくなるようにすることができる。
また、本実施形態によれば、空間上で指などの指示物34が、従来のように平面状に固定された場所で検知されるのではなく、錐体状のポインティング空間32内において検知され、その位置と動きに応じて操作内容が判定される。これにより、平面状に固定された空間面に指などの指示物34をわざわざ移動させるといった面倒な操作を行う必要がなく、ポインティング空間32内であれば好きな場所で操作入力を行うことが可能となる。
また、本実施形態によれば、展開面38上における対象点36の座標は、指示物34が存在する位置を写像して得られるので、操作者が展開面38に対してどのような位置にいても、操作入力に誤差が生じるという不都合を最小限にできる。
また、本実施形態によれば、ポインティング空間32内で検出される物体のうち、所定の指示物34として認識されたものだけを対象として操作入力内容の判定が行われるので、ポインティング空間32内を指示物34以外の物体が移動したとしても、操作入力があったと判定されることはない。また、操作入力内容に対応する指示物34の動きを限定しているので、指示物34の操作入力に対応する動きとそれ以外の動きとが区別され、ポインティング空間32内を指示物34が偶然に移動したとしても、意図しない動きであれば操作入力があったと判定されることはない。これにより、ユーザの意図に反して操作入力が行われてしまうという不都合を防止することができる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。図8は、第2の実施形態による操作入力装置の構成例を示す図である。なお、この図8において、図1に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。
図8に示すように、第2の実施形態の操作入力装置は、位置検出手段として2つの3次元イメージセンサ1-1,1-2を備えている。一方の3次元イメージセンサ1-1は、第1の実施形態と同様に、ポインティング空間32内にある指示物34の3次元的な位置を検出するために使用する。他方の3次元イメージセンサ1-2は、操作者の目の3次元的な位置を検出するために使用する。
図9は、第2の実施形態のポインティング空間32を説明するための概念図である。図9に示すように、第2の実施形態では、他方の3次元イメージセンサ1-2により検出される操作者の目の位置に所定の基準点31を設定している。すなわち、第2の実施形態によるポインティング空間32は、展開面38と操作者の目の位置31とを結んで成る錐体状の空間である。
図10は、第2の実施形態によるマイコン2の機能構成例を示すブロックである。なお、この図10において、図2に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。図10に示すように、第2の実施形態では、マイコン2の機能構成として、基準点認識部26を備えている。また、図2に示したポインティング空間設定部21とは異なる機能のポインティング空間設定部27を備えている。
基準点認識部26は、他方の3次元イメージセンサ1-2より出力される情報に基づいて、基準点31とすべき操作者の目を認識する。また、ポインティング空間設定部27は、認識された操作者の目の位置を基準点31としたポインティング空間32を設定する。ポインティング空間32を規定するもう1つの要素である展開面38の位置情報は、あらかじめRAM2cなどのメモリに登録しておく。本実施形態において、指示物認識部22は、一方の3次元イメージセンサ1-1より出力されるポインティング空間32の内にある物体の位置情報に基づいて、指示物34を認識する。
以上のように、3次元イメージセンサ1-2により検出される操作者の目の位置をポインティング空間32の基準点31として設定した場合には、操作者が移動すると、移動した目の位置に合わせてポインティング空間32も移動することになる。これにより、操作者が展開面38に対してどのような場所に移動しても、従来のように固定された空間面に指などの指示物34をわざわざ移動させるといった面倒な操作を行う必要がなく、使い勝手を更に向上させることができる。また、操作者が展開面38に対してどのような場所に移動しても、操作者は常に展開面38を見込んで操作することになるので、操作入力に誤差が生じるという不都合を最小限に抑えることもできる。
なお、基準点31として使用する操作者の目の位置は、効き目の位置であることが好ましい。図11(a)のようにディスプレイ画面30を両目で見た場合、ディスプレイ画面30と操作者との間にある指示物34は二重に見える。これは、図11(b)および(c)に示すように、指示物34と共にディスプレイ画面30を右目で見た場合と左目で見た場合とで、指示物34の見える位置が異なるためである。
一般に、視差によって像が二重に見えるとき、効き目で見た像が判断に作用すると言われる。例えば、効き目が右目の場合、両目を開いて、ある目標を指先で指したとき、左目を閉じても指先は目標からずれないが、右目を閉じると指先は目標からずれた位置になる。したがって、ポインティング空間32の錐体を、操作者の効き目から展開面38を見込む錐体とすることにより、指示物34が二重に見えても、指示している対象点36が意図通りの点となるようにすることができる。
操作者の効き目がどちらであるかは、例えばキーボードやマウス、ジョイスティックなどの入力デバイス(図示せず)を使用して事前にマイコン2のRAM2cあるいは図示しない他のメモリなどに登録しておけば良い。この場合、指示物認識部22は、事前に登録された効き目の情報に従って、他方の3次元イメージセンサ1-2より出力される情報に基づいて効き目を認識する。そして、ポインティング空間設定部27は、効き目を基準点31としたポインティング空間32を設定する。
なお、第2の実施形態では操作者の目の位置を基準点31に設定する例について説明したが、鼻の位置、口の位置、顔の中央などに基準点31を設定するようにしても良い。
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。第3の実施形態では、図1に示した第1の実施形態と同様に、位置検出手段としては1つの3次元イメージセンサ1を使用する。また、第3の実施形態によるマイコン2の機能構成は、図12に示すブロック図の通りである。なお、この図12において、図2に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。
図12に示すように、第3の実施形態では、マイコン2の機能構成として、図2に示したポインティング空間設定部21とは異なる機能のポインティング空間設定部28を備えている。ポインティング空間設定部28は、操作者が指示物34を自然に操作しやすいポインティング空間32が設定されるような位置に基準点31を設定する。具体的には、ポインティング空間設定部28は、ディスプレイコントローラ3に指令を出して図13に示すような基準点31のキャリブレーション画面をディスプレイ画面30に表示する。このキャリブレーション画面の四隅には、所定のマーク40が表示されている。
操作者は、四隅のマーク40に対して空間上でポインティング動作(例えば、ポインティング開始動作あるいはクリック動作)を行う。操作者によって四隅のマーク40に対してポインティング動作が行われたら、ポインティング空間設定部28は、四隅のマークごとに、操作者がポインティング動作を開始したときまたは終了したときの指示物34の位置を3次元イメージセンサ1によりそれぞれ検出し、それら4つの位置を結んで成る平面を特定する。さらに、ポインティング空間設定部28は、展開面38と、ディスプレイ画面30の四隅のマーク30をそれぞれポインティング動作したときの指示物34の位置を結んで得られる平面との双方を断面として持つ錐体を想定し、その頂点に当たる位置を基準点31に設定する。こうして得られた基準点31と展開面38とを結んで成る錐体をポインティング空間32として設定する。
上述した第2の実施形態では、展開面38上で操作したい対象点36と操作者の目の位置と想定される基準点31とを結んだ直線35の上に必ず指などの指示物34を置いてポインティング動作する必要がある。これに対して、第3の実施形態によれば、図13のようなキャリブレーション画面を使ってディスプレイ画面30の四隅をポインティング動作するときに、その操作者が一番操作しやすい自然な位置に指示物34を置いてポインティング動作をすると、その四隅で規定される平面が必ず含まれるポインティング空間32が設定される。したがって、個々の操作者に合わせて、操作者が操作入力しやすい位置にポインティング空間32を設定することができ、空間上におけるヒューマンインタフェースの使い勝手を更に向上させることができる。
また、四隅のマーク40のポインティング動作は、一般に、無意識的に効き目を利用して行っているので、第2の実施形態のように入力デバイスを使用して事前に効き目をメモリに登録しなくても良く、四隅のマーク40のポインティング動作時に効き目を自動的に設定することと等価になる。
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。第4の実施形態は、上記第2の実施形態と第3の実施形態とを組み合わせたものである。すなわち第4の実施形態では、一方の3次元イメージセンサ1-1を用いて、第3の実施形態と同様の動作でキャリブレーション時の指示物34の動きを検出し、基準点31を求めてこれを初期値に設定する。また、第2の実施形態と同様の動作で他方の3次元イメージセンサ1-2により操作者の目、鼻、口、顔の中央などの動きを検出し、その動きに応じて基準点31を初期値から移動させるようにする。
このようにすることにより、操作者が移動すると、移動した目などの位置に合わせてポインティング空間32も移動することになる。これにより、操作者が展開面38に対してどのような場所に移動しても、ポインティング空間32の移動が追随する限り、操作者の操作性は変化しないので、使い勝手を向上させることができる。また、操作者が展開面38に対してどのような場所に移動しても、操作者は常に展開面38を見込んで操作することになるので、操作入力に誤差が生じるという不都合を最小限に抑えることもできる。
なお、上記第1〜第4の実施形態では、展開面38と基準点31とを結んで成るポインティング空間32を設定し、当該ポインティング空間32の内部でポインティング動作をする例について説明したが、これに限定されない。例えば、展開面38上でポインティング動作するようにしても良い。
また、上記第1〜第4の実施形態では、位置検出手段として3次元イメージセンサを用いる例について説明したが、この例に限定されない。例えば、ステレオカメラを用いても良い。図14は、位置検出手段としてステレオカメラを用いた場合における物体の位置検出方法を説明するための図である。
図14に示すように、例えばディスプレイ画面30の右側に、指示物34があるポインティング空間32の方向に向けて基準のカメラ41を設置するとともに、例えばディスプレイ画面30の左側に、指示物34があるポインティング空間32の方向に向けて補助のカメラ42を設置する。これら2台のカメラ41,42は等しい光学系を持っており、距離d、角度θを持って光軸が交差するように設置する。
ここで、指示物34が基準カメラ41の撮像面に結像した結像点A1の位置を(x1,y1)、指示物34が補助カメラ42の撮像面に結像した結像点A2の位置を(x2,y2)とする。また、各カメラ41,42が持つレンズ41a,42aの焦点距離をFとすると、ディスプレイ画面30から見た指示物34の3次元的な位置(x,y,z)は、以下の式により求めることができる。
x=d・x1・G(x2)/H(x1,x2)
y=d・y1・G(y2)/H(y1,y2)
z=d・F・G(x1)/H(x1,x2)
ここで、G(x1)=F・sinθ・x1(1−cosθ)
H(x1,x2)=(F+x1・x2)sinθ+F(x1−x2)cosθ
また、上記第1〜第4の実施形態では、ポインティング空間32の基準点31を1箇所に設ける例について説明したが、基準点31を複数箇所に設定して複数のポインティング空間32を設定するようにしても良い。また、操作者の位置に合わせて基準点31の位置を切り替えるようにしても良い。例えば、上記第1の実施形態の操作入力装置を車載ナビゲーション装置に適用する場合、運転席、助手席、後部席の付近に設けた所定の位置の何れかに基準点31を切り替えられるようにする。また、上記第2の実施形態の操作入力装置を車載ナビゲーション装置に適用する場合、運転席、助手席、後部席に座っている操作者の目の位置の何れかに基準点31を切り替えられるようにする。また、上記第3の実施形態の操作入力装置を車載ナビゲーション装置に適用する場合、運転席、助手席、後部席に座っている操作者がキャリブレーションにより設定した位置の何れかに基準点31を切り替えられるようにする。また、第4の実施形態では上述の第2の実施形態と第3の実施形態との組み合わせで基準点31を切り替えられるようにする。
また、上記第2の実施形態および第4の実施形態では、指示物34を検出する一方の3次元イメージセンサ1-1と、基準点31を検出する他方の3次元イメージセンサ1-2との2つを用いているが、指示物34と基準点31とが存在する両方の領域をカバーできる1つの3次元イメージセンサで同様の動作を行うようにしても良い。
また、上記第1〜第4の実施形態において、ポインティング空間設定部21,27,28はポインティング空間32を設定しているが、このポインティング空間32内にポインティング面を更に設定するようにしても良い。図15は、その場合のポインティング空間32とポインティング面33とを説明するための概念図である。
例えば第1の実施形態を例にとって説明すると、ポインティング空間設定部21は、図15に示すように、展開面38と、当該展開面38から離れた場所にある所定の基準点31とを結んで成る錐体状の仮想的なポインティング空間32を設定するとともに、展開面38の座標をポインティング空間32内に写像した空間面をポインティング面33として設定する。
ここで、ポインティング面33は、必ず展開面38と操作者(基準点31よりも前に居る)との間に設定される。このポインティング面33は、操作者が指示物34を使ってポインティング動作(ポインティング開始動作、ポインティング解除動作、クリック動作、ドラグ動作を含む)をしたときの当該指示物34の先端(指先など)が存在する位置を含み、操作者が指示物34を自然に動かしたときに指示物34の軌跡が形作ると想定される平面または曲面である。
上述したように、第1の実施形態では、ディスプレイ画面30の位置と基準点31の位置とがあらかじめ分かっているので、ポインティング空間32は一意に決まる。これに対して、ポインティング面33は、ポインティング空間32内における物体の動きに応じて動的に設定される。すなわち、ポインティング空間設定部21は、ポインティング動作が行われる毎に上述のようなポインティング面33を動的に設定する。
その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
本発明は、コンピュータ機器やナビゲーション装置などにオペレータ操作による入力指令を与える操作入力装置に有用である。
第1の実施形態による操作入力装置の構成例を示す図である。 第1の実施形態によるマイコンが有する機能構成を示すブロック図である。 第1の実施形態によるポインティング空間を説明するための概念図である。 第1〜第4の実施形態によるポインティング動作の内容を説明するための図である。 ドラグ操作が行われた場合の動作例を示す図である。 クリック操作が行われた場合の動作例を示す図である。 第1〜第4の実施形態による操作入力装置の動作を示すフローチャートである。 第2の実施形態による操作入力装置の構成例を示す図である。 第2の実施形態によるポインティング空間を説明するための概念図である。 第2の実施形態によるマイコンが有する機能構成を示すブロック図である。 効き目について説明するための概念図である。 第3の実施形態によるマイコンが有する機能構成を示すブロック図である。 基準点のキャリブレーション画面を示す図である。 ステレオカメラを位置検出手段として用いた場合における物体の位置検出方法を説明するための図である。 第1の実施形態の変形例に係るポインティング空間とポインティング面とを説明するための概念図である。
符号の説明
1 3次元イメージセンサ
2 マイコン
3 ディスプレイコントローラ
21,27,28 ポインティング空間設定部
22 指示物認識部
23 座標検出部
24 動き検出部
25 操作入力内容判定部
26 基準点認識部
30 ディスプレイ画面
31 基準点
32 ポインティング空間
33 ポインティング面
34 指示物
36 対象点
37 延長面
38 展開面

Claims (25)

  1. ディスプレイ画面および当該ディスプレイ画面の外部に想定される延長面を含んで成る展開面と当該展開面から離れた場所にある所定の基準点とを結んで成る錐体状の仮想的なポインティング空間を設定するポインティング空間設定手段と、
    上記ポインティング空間内において行われるポインティング動作を検出し、対応する操作指令を出力するポインティング動作検出手段とを備えたことを特徴とする操作入力装置。
  2. 上記ポインティング動作検出手段によりドラグ動作が行われたことが検出されたときに、上記ポインティング動作により指示された点がドラグ量だけドラグされた方向に移動するように画面をスクロール表示する表示制御手段を備えたことを特徴とする請求項1に記載の操作入力装置。
  3. 上記ポインティング動作検出手段によりクリック動作が行われたことが検出されたときに、上記ポインティング動作により指示された点が上記ディスプレイ画面内の所定の位置に移動するように画面をスクロール表示する表示制御手段を備えたことを特徴とする請求項1に記載の操作入力装置。
  4. 上記ポインティング空間設定手段は、上記延長面の一部または全部を1以上の領域に分割してそれぞれをポインティング領域として設定し、
    上記ポインティング動作検出手段は、上記ポインティング動作により指示されたポインティング領域に対応するコマンドの実行指令を出力することを特徴とする請求項1に記載の操作入力装置。
  5. 上記ポインティング動作検出手段は、上記ポインティング空間内にある物体の3次元的な位置を検出する位置検出手段と、
    上記位置検出手段により検出される上記ポインティング空間内における上記物体の位置をもとに、写像関係を利用して上記展開面における対象点の座標を検出する座標検出手段と、
    上記ポインティング空間内における上記物体の3次元的な動きを検出する動き検出手段と、
    上記座標検出手段により検出される上記展開面における対象点の座標および上記動き検出手段により検出される上記物体の3次元的な動きに基づいて操作入力内容を判定し、対応する操作指令を出力する判定手段とを備えることを特徴とする請求項1に記載の操作入力装置。
  6. 上記位置検出手段により検出される上記ポインティング空間内の物体が所定の指示物であることを認識する指示物認識手段を備え、
    上記座標検出手段は、上記指示物認識手段により上記指示物であると認識された物体について上記位置検出手段により検出される上記ポインティング空間内における位置をもとに、上記展開面における対象点の座標を検出し、
    上記動き検出手段は、上記指示物認識手段により上記指示物であると認識された物体の3次元的な動きを検出することを特徴とする請求項5に記載の操作入力装置。
  7. 上記基準点は、上記位置検出手段により検出される操作者の目の位置であることを特徴とする請求項5に記載の操作入力装置。
  8. 上記基準点は、上記位置検出手段により検出される操作者の効き目の位置であることを特徴とする請求項5に記載の操作入力装置。
  9. 上記基準点は、上記展開面と、上記ディスプレイ画面の四隅をそれぞれ空間上でポインティング動作したときの上記指示物の位置を結んで得られる面との双方を断面として持つ錐体の頂点に当たる位置であることを特徴とする請求項6に記載の操作入力装置。
  10. 上記ポインティング空間設定手段は、上記展開面と、上記ディスプレイ画面の四隅をそれぞれ空間上でポインティング動作したときの上記指示物の位置を結んで得られる面との双方を断面として持つ錐体の頂点に当たる位置を上記基準点の初期値として設定し、上記位置検出手段により検出される操作者の目の位置に基づき上記動き検出手段により検出される上記操作者の目の3次元的な動きに応じて、上記基準点を上記初期値から移動させるようにしたことを特徴とする請求項6に記載の操作入力装置。
  11. ディスプレイ画面および当該ディスプレイ画面の外部に想定される延長面を含んで成る展開面、または、上記展開面を当該展開面から離れた空間上に写像した空間面を、ポインティング面として設定するポインティング面設定手段と、
    上記ポインティング面において行われるポインティング動作を検出し、対応する操作指令を出力するポインティング動作検出手段とを備えたことを特徴とする操作入力装置。
  12. 上記ポインティング面設定手段は、上記展開面と当該展開面から離れた場所にある所定の基準点とを結んで成る錐体上の仮想的なポインティング空間を設定し、上記展開面の座標を上記ポインティング空間内の上記物体が存在する位置に写像した空間面を上記ポインティング面として設定することを特徴とする請求項11に記載の操作入力装置。
  13. 上記ポインティング面は、上記展開面と操作者との間にあり、上記操作者が上記ポインティング動作をしたときの上記指示物の位置を含み、上記操作者が上記指示物を自然に動かしたときに上記指示物の軌跡が形作ると想定される面であり、
    上記ポインティング面設定手段は、上記ポインティング動作が行われる毎に上記ポインティング面を設定することを特徴とする請求項12に記載の操作入力装置。
  14. ディスプレイ画面および当該ディスプレイ画面の外部に想定される延長面を含んで成る展開面と当該展開面から離れた場所にある所定の基準点とを結んで成る錐体状の仮想的なポインティング空間を設定する第1のステップと、
    上記第1のステップで設定された上記ポインティング空間内において行われるポインティング動作を検出し、対応する操作指令を出力する第2のステップとを有することを特徴とする操作入力方法。
  15. 上記第2のステップでドラグ動作が行われたことが検出されたときに出力される上記操作指令に基づいて、上記ポインティング動作により指示された点がドラグ量だけドラグされた方向に移動するように画面をスクロール表示する第3のステップを有することを特徴とする請求項14に記載の操作入力方法。
  16. 上記第2のステップでクリック動作が行われたことが検出されたときに出力される上記操作指令に基づいて、上記ポインティング動作により指示された点が上記ディスプレイ画面内の所定の位置に移動するように画面をスクロール表示する第3のステップを有することを特徴とする請求項14に記載の操作入力方法。
  17. 上記第1のステップでは、上記延長面の一部または全部を1以上の領域に分割してそれぞれをポインティング領域として設定し、
    上記第2のステップでは、上記ポインティング動作により指示されたポインティング領域に対応するコマンドの実行指令を出力することを特徴とする請求項14に記載の操作入力方法。
  18. 上記第2のステップは、
    上記ポインティング空間内にある物体の3次元的な位置を検出する第4のステップと、
    上記ポインティング空間内における上記物体の3次元的な動きを検出するとともに、上記ポインティング空間内における上記物体の位置をもとに写像関係を利用して上記展開面における対象点の座標を算出する第5のステップと、
    上記物体の3次元的な動きおよび上記物体の位置に対応する上記展開面における対象点の座標に基づいて操作入力内容を判定し、対応する操作指令を出力する第6のステップとから成ることを特徴とする請求項14に記載の操作入力方法。
  19. 上記第4のステップで検出される上記ポインティング空間内の物体が所定の指示物であることを認識する第7のステップを有し、
    上記第5のステップでは、上記第7のステップで上記指示物であると認識された物体について、当該物体の3次元的な動きを検出するとともに、上記第4のステップで検出される上記ポインティング空間内における上記物体の位置をもとに上記展開面における対象点の座標を算出することを特徴とする請求項18に記載の操作入力方法。
  20. 上記基準点は操作者の目の位置に設定されることを特徴とする請求項14に記載の操作入力方法。
  21. 上記第1のステップは、上記ディスプレイ画面の四隅に所定のマークを表示して操作者にポインティング動作を促す第8のステップと、
    上記所定のマークをそれぞれ操作者が空間上でポインティング動作したときの上記物体の位置を結んで得られる面と上記展開面との双方を断面として持つ錐体を上記ポインティング空間として設定する第9のステップとから成ることを特徴とする請求項14に記載の操作入力方法。
  22. 上記第1のステップは、上記ディスプレイ画面の四隅に所定のマークを表示して操作者にポインティング動作を促す第8のステップと、
    上記所定のマークをそれぞれ操作者が空間上でポインティング動作したときの上記物体の位置を結んで得られる面と上記展開面との双方を断面として持つ錐体の頂点に当たる位置を上記基準点の初期値に設定して上記ポインティング空間を設定する第9のステップとから成り、
    上記空間上における上記操作者の目の位置を検出して上記操作者の目の3次元的な動きを検出する第10のステップと、
    上記操作者の目の3次元的な動きに応じて、上記基準点を上記初期値から移動させ、当該移動した上記基準点と上記展開面とを結んで成る錐体を上記ポインティング空間として再設定する第11のステップとを有することを特徴とする請求項14に記載の操作入力方法。
  23. ディスプレイ画面および当該ディスプレイ画面の外部に想定される延長面を含んで成る展開面、または、上記展開面を当該展開面から離れた空間上に写像した空間面を、ポインティング面として設定する第1のステップと、
    上記第1のステップで設定された上記ポインティング面において行われるポインティング動作を検出し、対応する操作指令を出力する第2のステップとを有することを特徴とする操作入力方法。
  24. 上記第1のステップでは、上記展開面と当該展開面から離れた場所にある所定の基準点とを結んで成る錐体上の仮想的なポインティング空間を設定し、上記展開面の座標を上記ポインティング空間内の上記物体が存在する位置に写像した空間面を上記ポインティング面として設定することを特徴とする請求項23に記載の操作入力方法。
  25. 上記ポインティング面は、上記展開面と操作者との間にあり、上記操作者が上記ポインティング動作をしたときの上記指示物の位置を含み、上記操作者が上記指示物を自然に動かしたときに上記指示物の軌跡が形作ると想定される面であり、
    上記第1のステップでは、上記ポインティング動作が行われる毎に上記ポインティング面を設定することを特徴とする請求項24に記載の操作入力方法。
JP2004137385A 2004-05-06 2004-05-06 操作入力装置および操作入力方法 Expired - Fee Related JP4244202B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004137385A JP4244202B2 (ja) 2004-05-06 2004-05-06 操作入力装置および操作入力方法
US11/104,872 US7893920B2 (en) 2004-05-06 2005-04-13 Operation input device and method of operation input
EP05009784A EP1594040A3 (en) 2004-05-06 2005-05-04 Operation input device and method of operation input

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004137385A JP4244202B2 (ja) 2004-05-06 2004-05-06 操作入力装置および操作入力方法

Publications (2)

Publication Number Publication Date
JP2005321870A true JP2005321870A (ja) 2005-11-17
JP4244202B2 JP4244202B2 (ja) 2009-03-25

Family

ID=35469133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004137385A Expired - Fee Related JP4244202B2 (ja) 2004-05-06 2004-05-06 操作入力装置および操作入力方法

Country Status (1)

Country Link
JP (1) JP4244202B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009072504A1 (ja) * 2007-12-07 2009-06-11 Sony Corporation 制御装置、入力装置、制御システム、制御方法及びハンドヘルド装置
JP2012198608A (ja) * 2011-03-18 2012-10-18 Nec Personal Computers Ltd 入力装置および入力方法
JP2013168167A (ja) * 2013-04-11 2013-08-29 Sony Corp 情報処理装置、および情報処理方法、並びに情報記録媒体
JP2014142751A (ja) * 2013-01-23 2014-08-07 Seiko Epson Corp 表示装置、頭部装着型表示装置および表示装置の制御方法
WO2014207971A1 (ja) * 2013-06-26 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ユーザインタフェース装置及び表示オブジェクト操作方法
JP2015056179A (ja) * 2013-09-13 2015-03-23 現代自動車株式会社 注文型インターフェースシステムおよびその操作方法
JP2016134022A (ja) * 2015-01-20 2016-07-25 エヌ・ティ・ティ アイティ株式会社 仮想タッチパネルポインティングシステム
JP2019200502A (ja) * 2018-05-15 2019-11-21 Kddi株式会社 ユーザの注視点を推定する注視点推定装置、プログラム及び方法
WO2020262392A1 (ja) * 2019-06-28 2020-12-30 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8531399B2 (en) 2007-12-07 2013-09-10 Sony Corporation Control apparatus, input apparatus, control system, control method, and handheld apparatus
JP5531616B2 (ja) * 2007-12-07 2014-06-25 ソニー株式会社 制御装置、入力装置、制御システム、制御方法及びハンドヘルド装置
WO2009072504A1 (ja) * 2007-12-07 2009-06-11 Sony Corporation 制御装置、入力装置、制御システム、制御方法及びハンドヘルド装置
JP2012198608A (ja) * 2011-03-18 2012-10-18 Nec Personal Computers Ltd 入力装置および入力方法
JP2014142751A (ja) * 2013-01-23 2014-08-07 Seiko Epson Corp 表示装置、頭部装着型表示装置および表示装置の制御方法
JP2013168167A (ja) * 2013-04-11 2013-08-29 Sony Corp 情報処理装置、および情報処理方法、並びに情報記録媒体
US10466880B2 (en) 2013-06-26 2019-11-05 Panasonic Intellectual Property Corporation Of America User interface device and display object operating method
WO2014207971A1 (ja) * 2013-06-26 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ユーザインタフェース装置及び表示オブジェクト操作方法
JPWO2014207971A1 (ja) * 2013-06-26 2017-02-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America ユーザインタフェース装置及び表示オブジェクト操作方法
US9836199B2 (en) 2013-06-26 2017-12-05 Panasonic Intellectual Property Corporation Of America User interface device and display object operating method
JP2015056179A (ja) * 2013-09-13 2015-03-23 現代自動車株式会社 注文型インターフェースシステムおよびその操作方法
JP2016134022A (ja) * 2015-01-20 2016-07-25 エヌ・ティ・ティ アイティ株式会社 仮想タッチパネルポインティングシステム
JP2019200502A (ja) * 2018-05-15 2019-11-21 Kddi株式会社 ユーザの注視点を推定する注視点推定装置、プログラム及び方法
WO2020262392A1 (ja) * 2019-06-28 2020-12-30 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2020262392A1 (ja) * 2019-06-28 2020-12-30
JP7335335B2 (ja) 2019-06-28 2023-08-29 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
US11985294B2 (en) 2019-06-28 2024-05-14 Fujifilm Corporation Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP4244202B2 (ja) 2009-03-25

Similar Documents

Publication Publication Date Title
JP4274997B2 (ja) 操作入力装置および操作入力方法
US7893920B2 (en) Operation input device and method of operation input
KR101453628B1 (ko) 사용자 인터페이스
KR101809636B1 (ko) 컴퓨터 장치의 원격 제어
US8743089B2 (en) Information processing apparatus and control method thereof
US20110157236A1 (en) Head-mounted display
US20100229090A1 (en) Systems and Methods for Interacting With Touch Displays Using Single-Touch and Multi-Touch Gestures
JP2008009759A (ja) タッチパネル装置
NO339941B1 (no) System og fremgangsmåte for et gestbasert styringssystem
JP2006072854A (ja) 入力装置
WO2014106219A1 (en) User centric interface for interaction with visual display that recognizes user intentions
JP5664301B2 (ja) コンピュータ装置、電子ペン入力システム、及びプログラム
JP5561092B2 (ja) 入力装置、入力制御システム、情報処理方法及びプログラム
JP4244202B2 (ja) 操作入力装置および操作入力方法
JPWO2012153536A1 (ja) 座標入力装置及び座標入力方法
KR101564089B1 (ko) 손동작 인식을 이용한 프리젠테이션 실행시스템
JP6555958B2 (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
US8731824B1 (en) Navigation control for a touch screen user interface
JP2003280813A (ja) ポインティングデバイス、ポインタ制御装置、ポインタ制御方法及びその方法を記録した記録媒体
JP2009237746A (ja) 車両用操作装置
JP5678697B2 (ja) コンピュータ装置、入力システム、及びプログラム
JP5005585B2 (ja) 操作装置及びその方法
JP4962466B2 (ja) 入力装置および入力方法
KR20200034348A (ko) 터치스크린 장치 및 그 제어방법 그리고 디스플레이 장치
WO2017183194A1 (ja) 表示制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081225

R150 Certificate of patent or registration of utility model

Ref document number: 4244202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140116

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees