JP4274997B2 - 操作入力装置および操作入力方法 - Google Patents

操作入力装置および操作入力方法 Download PDF

Info

Publication number
JP4274997B2
JP4274997B2 JP2004137384A JP2004137384A JP4274997B2 JP 4274997 B2 JP4274997 B2 JP 4274997B2 JP 2004137384 A JP2004137384 A JP 2004137384A JP 2004137384 A JP2004137384 A JP 2004137384A JP 4274997 B2 JP4274997 B2 JP 4274997B2
Authority
JP
Japan
Prior art keywords
pointing
display screen
space
indicator
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004137384A
Other languages
English (en)
Other versions
JP2005321869A (ja
Inventor
謙二郎 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2004137384A priority Critical patent/JP4274997B2/ja
Priority to US11/104,872 priority patent/US7893920B2/en
Priority to CNB2005100701267A priority patent/CN100363880C/zh
Priority to EP05009784A priority patent/EP1594040A3/en
Publication of JP2005321869A publication Critical patent/JP2005321869A/ja
Application granted granted Critical
Publication of JP4274997B2 publication Critical patent/JP4274997B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は操作入力装置および操作入力方法に関し、特に、コンピュータ機器やナビゲーション装置などにオペレータ操作による入力指令を与える操作入力装置に用いて好適なものである。
従来、コンピュータ機器やナビゲーション装置などにオペレータ操作による入力指令を与える操作入力装置としては、キーボードやマウス、トラックボール、ジョイスティック等を備えたリモートコントローラ(リモコン)、タッチパネルなどが多用されている。これらの操作入力装置は何れも、実際に人手が触れることによって操作する必要があり、操作が面倒であった。
例えば、コンピュータ機器においてアプリケーションソフトを起動して作業を行う場合、文字入力等を行うためのキーボードと、位置指定等を行うためのマウスやトラックボールとを一々使い分ける必要があり、その使い分けが非常に面倒であった。また、車載のナビゲーション装置を操作する場合、運転者は安全のために車を停車して、ハンドルから手を離して一々リモコンのジョイスティックやタッチパネルを操作する必要があり、簡単に操作することができなかった。
これに対して、空間上の指の動きを検出して操作入力を行うようにした技術も提案されている(例えば、特許文献1参照)。この特許文献1に記載の技術では、ディスプレイ画面に対応した所定の空間に赤外線を走査し、その空間内に入れられた指などの指示物に赤外線が照射されたことを赤外線センサにより検知する。そして、その指示物によって指定された空間上の位置をそのときの赤外線照射位置から求め、その空間上の位置に対応するディスプレイ画面上の箇所を位置決めして、その位置指定による所定の操作指令を出力する。
特開平8−202480号公報
しかしながら、上記特許文献1に記載の技術では、操作入力すべき空間上の位置が赤外線の走査面に特定されているため、指などの指示物をその空間面にわざわざ移動させる必要がある。特に、操作者はディスプレイ画面に対して常に同じ位置に居るとは限らないにも関わらず、操作入力可能な空間はディスプレイ画面に対応した所定の空間に常に固定されている。そのため、操作者がどこにいても、決められた位置の空間面に指などの指示物をわざわざ移動させる必要があり、非常に使いにくいという問題があった。
また、操作入力装置を使用する操作者は一人であるとは限らず、体格の異なる操作者が操作を行う可能性もあるが、特許文献1に記載の技術では、上述のように操作入力可能な空間面は所定の位置に固定されている。しかし、操作者の手が届く範囲は体格によって差があり、空間面の位置によっては、小柄な操作者には操作入力が行いづらいという問題があった。また、空間面はディスプレイ画面に対して絶対的な位置関係で規定されているので、操作者の位置が変わると空間面を望む角度がまちまちとなり、操作入力に誤差が生じるという問題もあった。
さらに、上記特許文献1に記載の技術では、指示物の操作入力に対応する動きとそれ以外の動きとの区別がないので、空間面に指示物が入れられると全て操作入力であると判断されてしまい、ユーザの意図に反して操作入力が行われてしまうことがあるという問題もあった。
本発明は、このような問題を解決するために成されたものであり、決められた固定の空間に指などの指示物をわざわざ移動させる必要をなくし、使い勝手を向上させることを目的とする。
また、本発明は、操作者が居る位置に関係なく、どこからでも普通に操作入力ができるようにすることを目的とする。
また、本発明は、操作者が居る位置に関係なく、どこから操作しても誤差が生じにくくなるようにすることを目的とする。
また、本発明は、ユーザの意図に反する操作入力が行われてしまうという不都合を回避できるようにすることを目的とする。
上記した課題を解決するために、本発明では、物体の3次元的な位置を検出し、ディスプレイ画面と所定の基準点とを結んで成る仮想的なポインティング空間内における物体の3次元的な動きを検出するとともに、ポインティング空間内の物体が存在する位置をディスプレイ画面に写像して得られるディスプレイ画面における対象点の座標を算出し、物体の3次元的な動きおよび物体の位置に対応するディスプレイ画面における対象点の座標に基づいて操作入力内容を判定するようにしている。
また、本発明では、ポインティング空間内の物体が所定の指示物であることを認識し、指示物であると認識された物体について検出されるポインティング空間内における位置をもとに、当該指示物の3次元的な動きやディスプレイ画面における対象点の座標を検出するようにしている。
また、所定の基準点は、ディスプレイ画面の四隅をそれぞれ空間上でポインティング動作したときの指示物の位置であって一直線上には並ばない互いに異なる4点の位置と、ディスプレイ画面の四隅とをそれぞれ結んだ4本の直線を側辺とする錐体の頂点に当たる位置を初期値とし、操作者の動きに追随して移動するようにしている。
上記のように構成した本発明によれば、指などの指示物で操作可能なポインティング空間が、ディスプレイ画面と基準点とを結ぶ円錐状に設定されるので、平面状に固定された空間面に指などの指示物をわざわざ移動させるといった操作を行う必要がなくなる。また、指示物の位置がポインティング空間内であれば、指示物はディスプレイ画面と操作者との間の何れの場所にあっても良いので、操作者の手が届く範囲内で普通に操作入力を行うことが可能となる。これにより、空間上におけるヒューマンインタフェースによる操作入力装置の使い勝手を向上させることができる。
また、本発明によれば、ディスプレイ画面上の座標は指示物が存在する位置を写像して得られるので、操作者がディスプレイ画面に対してどのような位置にいても、操作入力に誤差が生じるという不都合を最小限にすることができる。
また、本発明によれば、ポインティング空間内で検出される物体の中から所定の指示物が認識され、この指示物のみを対象として操作入力内容の判定が行われるので、ポインティング空間内を指示物以外の物体が移動したとしても、操作入力があったと判定されることはない。また、指示物が所定の動きをしたときにのみ操作入力があったと判定されるので、指示物の操作入力に対応する動きとそれ以外の動きとが区別され、ポインティング空間内を指示物が偶然に移動したとしても、意図しない動きであれば操作入力があったと判定されることはない。これにより、ユーザの意図に反して操作入力が行われてしまうという不都合を防止することができる。
また、本発明によれば、操作者がディスプレイ画面を見込んでディスプレイ画面内の位置を普通に指示したときの指示物の位置が必ずポインティング空間の中に含まれるようになる。これにより、より自然な態様で操作入力を行うことが可能であり、空間上におけるヒューマンインタフェースの使い勝手を更に向上させることができる。
(第1の実施形態)
以下、本発明の一実施形態を図面に基づいて説明する。図1は、第1の実施形態による操作入力装置の構成例を示す図である。図1に示すように、第1の実施形態の操作入力装置は、位置検出手段としての3次元イメージセンサ1と、CPU2a、ROM2b、RAM2cなどを備えて構成されるマイクロコンピュータ(以下、マイコンと記す)2と、ディスプレイ装置20の表示制御を行う表示制御手段としてのディスプレイコントローラ3とを備えて構成されている。
3次元イメージセンサ1は、空間上における物体の3次元的な位置を検出するものである。例えば、物体にビームを照射し、反射して返ってくるビームを測定することで物体までの距離(物体の相対位置)を検出する。この3次元イメージセンサ1としては、例えば米国特許第6,515,740号明細書に開示されているような公知の技術を適用することが可能である。この米国特許に記載の技術を用いれば、3次元イメージセンサ1が設置された位置に対する物体の3次元的な相対位置を検出するだけでなく、物体の3次元的な形状を検出することが可能である。すなわち、物体に凹凸があって物体の表面上に3次元イメージセンサ1からの距離差が存在する場合には、その距離差に応じた位置情報を出力することによって、物体の3次元的な形状を検出することが可能である。
マイコン2が備えるCPU2aは、操作入力装置の全体を制御する。ROM2bは、操作入力装置の動作に必要な各種プログラムを記憶する。RAM2cは、CPU2aによる各種処理の過程で得られるデータや、各種処理の結果得られるデータを一時的に格納する。すなわち、CPU2aは、ROM2bに記憶された各種プログラムに従って、RAM2cをワークメモリとして使用しながら、操作入力装置の動作を制御する。
図2は、マイコン2が有する機能構成を示すブロック図である。また図3は、本実施形態のポインティング空間を説明するための概念図である。図2に示すように、本実施形態のマイコン2は、その機能構成として、ポインティング空間設定部21、指示物認識部22、座標検出部23、動き検出部24および操作入力内容判定部25を備えている。
ポインティング空間設定部21は、図3に示すように、ディスプレイ装置20の画面(以下、ディスプレイ画面30と記す)と、当該ディスプレイ画面30から離れた場所にある所定の基準点31とを結んで成る錐体状の仮想的なポインティング空間32を設定する。
ここで、基準点31は、多くの場合に操作者が居ると予想される位置に設定する。例えば、本実施形態の操作入力装置を車載用ナビゲーション装置に適用する場合、運転席のヘッドレスト前の空間で、運転者の目の位置と想定される一点に基準点31を設定するのが好ましい。図3はそのような状態を示している。すなわち、車載用ナビゲーション装置の場合、ディスプレイ画面30はインパネの略中央に設置されるのに対し、運転席は車両の右寄り(または左寄り)に存在するので、ポインティング空間32は図3のように斜めの錐体状となる。
この場合、ディスプレイ画面30の位置と基準点31の位置とがあらかじめ分かっているので(例えば、RAM2cや他の図示しないメモリに情報として記憶しておく)、ポインティング空間32は一意に決まる。
指示物認識部22は、ポインティング空間32の内にある物体を3次元イメージセンサ1により検知して、所定の指示物34であることを認識する。本実施形態において、指示物34は、棒状の突出物であるとする。例えば、操作者の指を1本だけ立てた状態のもの、操作者が持っている筆記具や指示具などが指示物34に該当する。
3次元イメージセンサ1をディスプレイ画面30の近傍に設置した場合、指示物34はディスプレイ画面30の方向、つまり3次元イメージセンサ1の方向に向けて操作されることになる。このとき、上述のように3次元イメージセンサ1は、物体までの距離に応じた位置情報を出力するので、棒状の物体が3次元イメージセンサ1の方向に向けられていると、当該棒状の物体の先端部分についてのみ近い位置情報が出力される。したがって、当該近い位置情報が出力されている部分を指示物34が存在する位置として検出することが可能である。
また、ディスプレイ画面30と基準点31との間のポインティング空間32の側方に3次元イメージセンサ1を設置した場合、指示物34は3次元イメージセンサ1から見て横方向に向けて操作されることになる。上述のように、3次元イメージセンサ1は物体の3次元的な形状に応じて位置情報を出力することができる。したがって、指示物認識部22は、3次元イメージセンサ1から出力される物体形状に応じた位置情報に基づいて、所定の長さ以上で、かつ、所定の太さ以下の物体がポインティング空間32内に存在するか否かを判断し、存在する場合にはそれを指示物34であると認識することが可能である。
座標検出部23は、3次元イメージセンサ1により検出されるポインティング空間32内における指示物34の位置をもとに、写像関係を利用してディスプレイ画面30における対象点36の座標を検出する。すなわち、座標検出部23は、基準点31の位置と指示物34の位置とを通る線35がディスプレイ画面30に交差する対象点36をディスプレイ画面30の座標として、ポインティング空間32内で認識され検出される指示物34の位置から算出する。なお、3次元イメージセンサ1により検出される指示物34の位置は、3次元イメージセンサ1から見た相対位置であるが、3次元イメージセンサ1自身の位置があらかじめ分かっているので、指示物34の絶対位置も検出することが可能である。
座標検出部23は、検出した対象点36の座標情報をディスプレイコントローラ3に出力する。ディスプレイコントローラ3は、座標検出部23より供給される対象点36の座標情報に基づいて、ディスプレイ画面30上における対象点36の座標位置に所定のマーク(例えば、矢印マークなど)を必要に応じて表示するように制御する。
動き検出部24は、ポインティング空間32内における指示物34の3次元的な動きを検出する。上述のように、3次元イメージセンサ1はポインティング空間32内にある物体の3次元的な位置情報を随時出力しており、指示物認識部22によって物体が指示物34か否かが検出されている。したがって、指示物34に関する位置情報の変化を見ることによって、指示物34の3次元的な動きを検出することが可能である。
操作入力内容判定部25は、座標検出部23により検出されるディスプレイ画面30における対象点36の座標と、動き検出部24により検出される指示物34の3次元的な動きとに基づいて、操作者によって行われた指示物34による操作入力内容を判定し、対応する操作指令を出力する。
例えば、図4に示すように、ポインティング空間32内において、指示物34が、ディスプレイ画面30の所定の座標範囲内で所定の速度以上でディスプレイ画面30に近づく動きをしたとき、操作入力内容判定部25はポインティング開始動作が行われたと判定する。また、ポインティング空間32内において、指示物34が、ディスプレイ画面30の所定の座標範囲内で所定の速度以上でディスプレイ画面30から遠ざかる動きをしたときは、ポインティング解除動作が行われたと判定する。
さらに、ポインティング空間32内において、指示物34が、上述のポインティング開始動作をした後、所定の時間内にポインティング解除動作をしたときには、クリック動作が行われたと判定する。また、ポインティング空間32内において、指示物34が、上述のポインティング開始動作をした後、ポインティング解除動作をせずに、座標検出部23により検出されるディスプレイ画面30上の対象点36の座標が移動する動きをしたときには、ドラグ動作が行われたと判定し、ディスプレイ画面30での座標上の動き量をドラグ量として検出する。
操作入力内容判定部25は、検出した操作入力内容を示す情報をディスプレイコントローラ3に出力する。ディスプレイコントローラ3は、操作入力内容判定部25より供給される情報に基づいて、ディスプレイ画面30上の表示を制御する。例えば、操作入力内容判定部25によりドラグ動作が行われたと判定されたとき、座標検出部23により検出されたディスプレイ画面30上の対象点36の座標位置(矢印マークがある位置)にあるオブジェクトを、ドラグ量だけドラグされた方向に移動させるように表示を制御する。
次に、上記のように構成した本実施形態による操作入力装置の動作について説明する。図5は、本実施形態による操作入力装置の動作を示すフローチャートである。図5において、まず、3次元イメージセンサ1により空間上における物体の3次元的な位置を検出する(ステップS1)。そして、その物体がポインティング空間32の中にあるか否かを指示物認識部22により判定する(ステップS2)。物体がポインティング空間32内にあるとき、指示物認識部22は、その物体が指示物34か否かを更に判定する(ステップS3)。物体がポインティング空間32内にない場合、または、物体がポインティング空間32内にあってもそれが指示物34でない場合は、ステップS1の処理に戻る。
指示物認識部22によりポインティング空間32内の指示物34が認識された場合、ポインティング空間32内における指示物34の3次元的な動きを動き検出部24により検出する(ステップS4)。また、3次元イメージセンサ1により検出されたポインティング空間32内における指示物34の位置をもとに、写像関係を利用してディスプレイ画面30における対象点36の座標を座標検出部23により算出する(ステップS5)。なお、このステップS4の処理とステップS5の処理は順番が逆でも良い。
最後に、操作入力内容判定部25は、動き検出部24により検出された指示物34の3次元的な動きと、座標検出部23により検出された指示物34の位置に対応するディスプレイ画面30における対象点36の座標とに基づいて操作入力内容を判定し、対応する操作指令を出力する(ステップS6)。すなわち、所定の動きがあったかどうかでクリック動作やドラグ動作を判定し、その動作に対応する操作指令を出力する。
例えば、操作入力内容判定部25は、対象点36の座標位置に存在するオブジェクト(例えばGUIによる操作ボタン)に向けてクリック動作が行われたと判断した場合、その操作ボタンに割り当てられている処理を実行するための操作指令を出力する。また、操作入力内容判定部25は、対象点36の座標位置に存在するオブジェクト(例えばアイコン)に対してドラグ動作が行われたと判断した場合、当該オブジェクトをドラグ量だけドラグされた方向に移動させる操作指令をディスプレイコントローラ3に出力する。地図表示を行うナビゲーション装置に本実施形態の操作入力装置を適用した場合、ポインティング開始動作によって指示された地点がドラグ量だけドラグされた方向に移動するように地図全体をスクロールするための操作指令を出力するようにしても良い。
以上詳しく説明したように、本実施形態によれば、空間上で指などの指示物34が、従来のように平面状に固定された場所で検知されるのではなく、錐体状のポインティング空間32内において検知され、その位置と動きに応じて操作内容が判定される。これにより、平面状に固定された空間面に指などの指示物34をわざわざ移動させるといった面倒な操作を行う必要がなく、ポインティング空間32内であれば好きな場所で操作入力を行うことが可能となる。
また、本実施形態によれば、ディスプレイ画面30上における対象点36の座標は、指示物34が存在する位置を写像して得られるので、操作者がディスプレイ画面30に対してどのような位置にいても、操作入力に誤差が生じるという不都合を最小限にできる。
また、本実施形態によれば、ポインティング空間32内で検出される物体のうち、所定の指示物34として認識されたものだけを対象として操作入力内容の判定が行われるので、ポインティング空間32内を指示物34以外の物体が移動したとしても、操作入力があったと判定されることはない。また、操作入力内容に対応する指示物34の動きを限定しているので、指示物34の操作入力に対応する動きとそれ以外の動きとが区別され、ポインティング空間32内を指示物34が偶然に移動したとしても、意図しない動きであれば操作入力があったと判定されることはない。これにより、ユーザの意図に反して操作入力が行われてしまうという不都合を防止することができる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。図6は、第2の実施形態による操作入力装置の構成例を示す図である。なお、この図6において、図1に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。
図6に示すように、第2の実施形態の操作入力装置は、位置検出手段として2つの3次元イメージセンサ1-1,1-2を備えている。一方の3次元イメージセンサ1-1は、第1の実施形態と同様に、ポインティング空間32内にある指示物34の3次元的な位置を検出するために使用する。他方の3次元イメージセンサ1-2は、操作者の目の3次元的な位置を検出するために使用する。
図7は、第2の実施形態のポインティング空間32を説明するための概念図である。図7に示すように、第2の実施形態では、他方の3次元イメージセンサ1-2により検出される操作者の目の位置に所定の基準点31を設定している。すなわち、第2の実施形態によるポインティング空間32は、ディスプレイ画面30と操作者の目の位置31とを結んで成る錐体状の空間である。
図8は、第2の実施形態によるマイコン2の機能構成例を示すブロックである。なお、この図8において、図2に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。図8に示すように、第2の実施形態では、マイコン2の機能構成として、基準点認識部26を備えている。また、図2に示したポインティング空間設定部21とは異なる機能のポインティング空間設定部27を備えている。
基準点認識部26は、他方の3次元イメージセンサ1-2より出力される情報に基づいて、基準点31とすべき操作者の目を認識する。また、ポインティング空間設定部27は、認識された操作者の目の位置を基準点31としたポインティング空間32を設定する。ポインティング空間32を規定するもう1つの要素であるディスプレイ画面30の位置情報は、あらかじめRAM2cなどのメモリに登録しておく。本実施形態において、指示物認識部22は、一方の3次元イメージセンサ1-1より出力されるポインティング空間32の内にある物体の位置情報に基づいて、指示物34を認識する。
以上のように、3次元イメージセンサ1-2により検出される操作者の目の位置をポインティング空間32の基準点31として設定した場合には、操作者が移動すると、移動した目の位置に合わせてポインティング空間32も移動することになる。これにより、操作者がディスプレイ画面30に対してどのような場所に移動しても、従来のように固定された空間面に指などの指示物34をわざわざ移動させるといった面倒な操作を行う必要がなく、使い勝手を更に向上させることができる。また、操作者がディスプレイ画面30に対してどのような場所に移動しても、操作者は常にディスプレイ画面30を見込んで操作することになるので、操作入力に誤差が生じるという不都合を最小限に抑えることもできる。
なお、基準点31として使用する操作者の目の位置は、効き目の位置であることが好ましい。図9(a)のようにディスプレイ画面30を両目で見た場合、ディスプレイ画面30と操作者との間にある指示物34は二重に見える。これは、図9(b)および(c)に示すように、指示物34と共にディスプレイ画面30を右目で見た場合と左目で見た場合とで、指示物34の見える位置が異なるためである。
一般に、視差によって像が二重に見えるとき、効き目で見た像が判断に作用すると言われる。例えば、効き目が右目の場合、両目を開いて、ある目標を指先で指したとき、左目を閉じても指先は目標からずれないが、右目を閉じると指先は目標からずれた位置になる。したがって、ポインティング空間32の錐体を、操作者の効き目からディスプレイ画面30を見込む錐体とすることにより、指示物34が二重に見えても、指示している対象点36が意図通りの点となるようにすることができる。
操作者の効き目がどちらであるかは、例えばキーボードやマウス、ジョイスティックなどの入力デバイス(図示せず)を使用して事前にマイコン2のRAM2cあるいは図示しない他のメモリなどに登録しておけば良い。この場合、指示物認識部22は、事前に登録された効き目の情報に従って、他方の3次元イメージセンサ1-2より出力される情報に基づいて効き目を認識する。そして、ポインティング空間設定部27は、効き目を基準点31としたポインティング空間32を設定する。
なお、第2の実施形態では操作者の目の位置を基準点31に設定する例について説明したが、鼻の位置、口の位置、顔の中央などに基準点31を設定するようにしても良い。
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。第3の実施形態では、図1に示した第1の実施形態と同様に、位置検出手段としては1つの3次元イメージセンサ1を使用する。また、第3の実施形態によるマイコン2の機能構成は、図10に示すブロック図の通りである。なお、この図10において、図2に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。
図10に示すように、第3の実施形態では、マイコン2の機能構成として、図2に示したポインティング空間設定部21とは異なる機能のポインティング空間設定部28を備えている。ポインティング空間設定部28は、操作者が指示物34を自然に操作しやすいポインティング空間32が設定されるような位置に基準点31を設定する。具体的には、ポインティング空間設定部28は、ディスプレイコントローラ3に指令を出して図11に示すような基準点31のキャリブレーション画面をディスプレイ画面30に表示する。このキャリブレーション画面の四隅には、所定のマーク40が表示されている。
操作者は、四隅のマーク40に対して空間上でポインティング動作(例えば、ポインティング開始動作あるいはクリック動作)を行う。操作者によって四隅のマーク40に対してポインティング動作が行われたら、ポインティング空間設定部28は、四隅のマークごとに、操作者がポインティング動作を開始したときまたは終了したときの指示物34の位置を3次元イメージセンサ1によりそれぞれ検出し、それら4つの位置を結んで成る平面を特定する。さらに、ポインティング空間設定部28は、ディスプレイ画面30(より正確には、ディスプレイ画面30上の四隅のマーク40を結んで成る平面)と、ディスプレイ画面30の四隅のマーク40をそれぞれポインティング動作したときの指示物34の位置を結んで得られる平面との双方を断面として持つ錐体を想定し、その頂点に当たる位置を基準点31に設定する。こうして得られた基準点31とディスプレイ画面30とを結んで成る錐体をポインティング空間32として設定する。
上述した第2の実施形態では、ディスプレイ画面30上で操作したい対象点36と操作者の目の位置と想定される基準点31とを結んだ直線35の上に必ず指などの指示物34を置いてポインティング動作する必要がある。これに対して、第3の実施形態によれば、図11のようなキャリブレーション画面を使ってディスプレイ画面30の四隅をポインティング動作するときに、その操作者が一番操作しやすい自然な位置に指示物34を置いてポインティング動作をすると、その四隅で規定される平面が必ず含まれるポインティング空間32が設定される。したがって、個々の操作者に合わせて、操作者が操作入力しやすい位置にポインティング空間32を設定することができ、空間上におけるヒューマンインタフェースの使い勝手を更に向上させることができる。
また、四隅のマーク40のポインティング動作は、一般に、無意識的に効き目を利用して行っているので、第2の実施形態のように入力デバイスを使用して事前に効き目をメモリに登録しなくても良く、四隅のマーク40のポインティング動作時に効き目を自動的に設定することと等価になる。
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。第4の実施形態は、上記第2の実施形態と第3の実施形態とを組み合わせたものである。すなわち第4の実施形態では、一方の3次元イメージセンサ1-1を用いて、第3の実施形態と同様の動作でキャリブレーション時の指示物34の動きを検出し、基準点31を求めてこれを初期値に設定する。また、第2の実施形態と同様の動作で他方の3次元イメージセンサ1-2により操作者の目、鼻、口、顔の中央などの動きを検出し、その動きに応じて基準点31を初期値から移動させるようにする。
このようにすることにより、操作者が移動すると、移動した目などの位置に合わせてポインティング空間32も移動することになる。これにより、操作者がディスプレイ画面30に対してどのような場所に移動しても、ポインティング空間32の移動が追随する限り、操作者の操作性は変化しないので、使い勝手を向上させることができる。また、操作者がディスプレイ画面30に対してどのような場所に移動しても、操作者は常にディスプレイ画面30を見込んで操作することになるので、操作入力に誤差が生じるという不都合を最小限に抑えることもできる。
なお、上記第1〜第4の実施形態では、位置検出手段として3次元イメージセンサを用いる例について説明したが、この例に限定されない。例えば、ステレオカメラを用いても良い。図12は、位置検出手段としてステレオカメラを用いた場合における物体の位置検出方法を説明するための図である。
図12に示すように、例えばディスプレイ画面30の右側に、指示物34があるポインティング空間32の方向に向けて基準のカメラ41を設置するとともに、例えばディスプレイ画面30の左側に、指示物34があるポインティング空間32の方向に向けて補助のカメラ42を設置する。これら2台のカメラ41,42は等しい光学系を持っており、距離d、角度θを持って光軸が交差するように設置する。
ここで、指示物34が基準カメラ41の撮像面に結像した結像点A1の位置を(x1,y1)、指示物34が補助カメラ42の撮像面に結像した結像点A2の位置を(x2,y2)とする。また、各カメラ41,42が持つレンズ41a,42aの焦点距離をFとすると、ディスプレイ画面30から見た指示物34の3次元的な位置(x,y,z)は、以下の式により求めることができる。
x=d・x1・G(x2)/H(x1,x2)
y=d・y1・G(y2)/H(y1,y2)
z=d・F・G(x1)/H(x1,x2)
ここで、G(x1)=F・sinθ・x1(1−cosθ)
H(x1,x2)=(F+x1・x2)sinθ+F(x1−x2)cosθ
また、上記第1〜第4の実施形態では、ポインティング空間32の基準点31を1箇所に設ける例について説明したが、基準点31を複数箇所に設定して複数のポインティング空間32を設定するようにしても良い。また、操作者の位置に合わせて基準点31の位置を切り替えるようにしても良い。例えば、上記第1の実施形態の操作入力装置を車載ナビゲーション装置に適用する場合、運転席、助手席、後部席の付近に設けた所定の位置の何れかに基準点31を切り替えられるようにする。また、上記第2の実施形態の操作入力装置を車載ナビゲーション装置に適用する場合、運転席、助手席、後部席に座っている操作者の目の位置の何れかに基準点31を切り替えられるようにする。また、上記第3の実施形態の操作入力装置を車載ナビゲーション装置に適用する場合、運転席、助手席、後部席に座っている操作者がキャリブレーションにより設定した位置の何れかに基準点31を切り替えられるようにする。また、第4の実施形態では上述の第2の実施形態と第3の実施形態との組み合わせで基準点31を切り替えられるようにする。
また、上記第2の実施形態および第4の実施形態では、指示物34を検出する一方の3次元イメージセンサ1-1と、基準点31を検出する他方の3次元イメージセンサ1-2との2つを用いているが、指示物34と基準点31とが存在する両方の領域をカバーできる1つの3次元イメージセンサで同様の動作を行うようにしても良い。
また、上記第1〜第4の実施形態において、ポインティング空間設定部21,27,28はポインティング空間32を設定しているが、このポインティング空間32内にポインティング面を更に設定するようにしても良い。図13は、その場合のポインティング空間32とポインティング面33とを説明するための概念図である。
例えば第1の実施形態を例にとって説明すると、ポインティング空間設定部21は、図13に示すように、ディスプレイ画面30と、当該ディスプレイ画面30から離れた場所にある所定の基準点31とを結んで成る錐体状の仮想的なポインティング空間32を設定するとともに、ディスプレイ画面30の座標をポインティング空間32内に写像した空間面をポインティング面33として設定する。
ここで、ポインティング面33は、必ずディスプレイ画面30と操作者(基準点31よりも前に居る)との間に設定される。このポインティング面33は、操作者が指示物34を使ってポインティング動作(ポインティング開始動作、ポインティング解除動作、クリック動作、ドラグ動作を含む)をしたときの当該指示物34の先端(指先など)が存在する位置を含み、操作者が指示物34を自然に動かしたときに指示物34の軌跡が形作ると想定される平面または曲面である。
上述したように、第1の実施形態では、ディスプレイ画面30の位置と基準点31の位置とがあらかじめ分かっているので、ポインティング空間32は一意に決まる。これに対して、ポインティング面33は、ポインティング空間32内における指示物34の動きに応じて動的に設定される。すなわち、ポインティング空間設定部21は、ポインティング動作が行われる毎に上述のようなポインティング面33を動的に設定する。
その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
本発明は、コンピュータ機器やナビゲーション装置などにオペレータ操作による入力指令を与える操作入力装置に有用である。
第1の実施形態による操作入力装置の構成例を示す図である。 第1の実施形態によるマイコンが有する機能構成を示すブロック図である。 第1の実施形態によるポインティング空間を説明するための概念図である。 第1〜第4の実施形態によるポインティング動作の内容を説明するための図である。 第1〜第4の実施形態による操作入力装置の動作を示すフローチャートである。 第2の実施形態による操作入力装置の構成例を示す図である。 第2の実施形態によるポインティング空間を説明するための概念図である。 第2の実施形態によるマイコンが有する機能構成を示すブロック図である。 効き目について説明するための概念図である。 第3の実施形態によるマイコンが有する機能構成を示すブロック図である。 基準点のキャリブレーション画面を示す図である。 ステレオカメラを位置検出手段として用いた場合における物体の位置検出方法を説明するための図である。 第1の実施形態の変形例に係るポインティング空間とポインティング面とを説明するための概念図である。
符号の説明
1 3次元イメージセンサ
2 マイコン
3 ディスプレイコントローラ
21,27,28 ポインティング空間設定部
22 指示物認識部
23 座標検出部
24 動き検出部
25 操作入力内容判定部
26 基準点認識部
30 ディスプレイ画面
31 基準点
32 ポインティング空間
33 ポインティング面
34 指示物
36 対象点

Claims (2)

  1. 空間上における物体の3次元的な位置を検出する位置検出手段と、
    上記位置検出手段により検出される上記ポインティング空間内の物体が所定の指示物であることを認識する指示物認識手段と、
    ディスプレイ画面と当該ディスプレイ画面から離れた場所にある所定の基準点とを結んで成る錐体状の仮想的なポインティング空間を設定するポインティング空間設定手段と、
    上記指示物認識手段により上記指示物であると認識された物体について上記位置検出手段により検出される上記ポインティング空間内における位置を、上記基準点を基準にして上記ディスプレイ画面上に写像することにより、上記物体の位置に対応する上記ディスプレイ画面における対象点の座標を検出する座標検出手段と、
    上記指示物認識手段により上記指示物であると認識された物体の上記ポインティング空間内における3次元的な動きを検出する動き検出手段と、
    上記座標検出手段により検出される上記ディスプレイ画面における対象点の座標および上記動き検出手段により検出される上記物体の3次元的な動きに基づいて操作入力内容を判定し、対応する操作指令を出力する判定手段とを備え、
    上記ポインティング空間設定手段は、上記ディスプレイ画面の四隅をそれぞれ空間上でポインティング動作したときの上記指示物の位置であって一直線上には並ばない互いに異なる4点の位置と、上記ディスプレイ画面の四隅とをそれぞれ結んだ4本の直線を側辺とする錐体の頂点に当たる位置を上記基準点の初期値として設定し、上記位置検出手段により検出される操作者の目の位置に基づき上記動き検出手段により検出される上記操作者の目の3次元的な動きに応じて、上記基準点を上記初期値から移動させるようにしたことを特徴とする操作入力装置。
  2. ディスプレイ画面の四隅に所定のマークを表示して操作者にポインティング動作を促す第1のステップと、
    上記所定のマークをそれぞれ操作者が空間上でポインティング動作したときの指示物の位置であって一直線上には並ばない互いに異なる4点の位置と、上記ディスプレイ画面の四隅とをそれぞれ結んだ4本の直線を側辺とする錐体の頂点に当たる位置を上記ディスプレイ画面から離れた場所にある基準点の初期値に設定して錐体状の仮想的なポインティング空間を設定する第2のステップと、
    上記第2のステップで設定された上記ポインティング空間内にある物体の3次元的な位置を検出する第3のステップと、
    上記第3のステップで検出される上記ポインティング空間内の物体が所定の指示物であることを認識する第4のステップと、
    上記第4のステップで上記指示物であると認識された物体の上記ポインティング空間内における3次元的な動きを検出する第5のステップと、
    上記第4のステップで上記指示物であると認識された物体の位置を、上記基準点を基準にして上記ディスプレイ画面上に写像することにより、上記物体の位置に対応する上記ディスプレイ画面における対象点の座標を算出する第6のステップと、
    上記第5のステップで検出された上記物体の3次元的な動きおよび上記第6のステップで検出された上記物体の位置に対応する上記ディスプレイ画面における対象点の座標に基づいて操作入力内容を判定し、対応する操作指令を出力する第7のステップと、
    上記空間上における上記操作者の目の位置を検出して上記操作者の目の3次元的な動きを検出する第8のステップと、
    上記操作者の目の3次元的な動きに応じて、上記基準点を上記初期値から移動させ、当該移動した上記基準点と上記ディスプレイ画面とを結んで成る錐体を上記ポインティング空間として再設定する第9のステップとを有することを特徴とする操作入力方法。
JP2004137384A 2004-05-06 2004-05-06 操作入力装置および操作入力方法 Expired - Fee Related JP4274997B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004137384A JP4274997B2 (ja) 2004-05-06 2004-05-06 操作入力装置および操作入力方法
US11/104,872 US7893920B2 (en) 2004-05-06 2005-04-13 Operation input device and method of operation input
CNB2005100701267A CN100363880C (zh) 2004-05-06 2005-04-30 操作输入装置及操作输入方法
EP05009784A EP1594040A3 (en) 2004-05-06 2005-05-04 Operation input device and method of operation input

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004137384A JP4274997B2 (ja) 2004-05-06 2004-05-06 操作入力装置および操作入力方法

Publications (2)

Publication Number Publication Date
JP2005321869A JP2005321869A (ja) 2005-11-17
JP4274997B2 true JP4274997B2 (ja) 2009-06-10

Family

ID=35353036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004137384A Expired - Fee Related JP4274997B2 (ja) 2004-05-06 2004-05-06 操作入力装置および操作入力方法

Country Status (2)

Country Link
JP (1) JP4274997B2 (ja)
CN (1) CN100363880C (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7556204B2 (en) * 2006-04-19 2009-07-07 Nokia Corproation Electronic apparatus and method for symbol input
JP5453246B2 (ja) * 2007-05-04 2014-03-26 クアルコム,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力
WO2009072504A1 (ja) * 2007-12-07 2009-06-11 Sony Corporation 制御装置、入力装置、制御システム、制御方法及びハンドヘルド装置
EP2258587A4 (en) * 2008-03-19 2013-08-07 Denso Corp OPERATING DEVICE FOR A VEHICLE
JP5117418B2 (ja) * 2009-01-28 2013-01-16 株式会社東芝 情報処理装置及び情報処理方法
KR101646254B1 (ko) 2009-10-09 2016-08-05 엘지전자 주식회사 이동 통신 단말기에서의 아이콘 삭제 방법 및 이를 적용한 이동 통신 단말기
CN102741781A (zh) * 2009-12-04 2012-10-17 奈克斯特控股公司 用于位置探测的传感器方法和系统
JP2011122867A (ja) * 2009-12-09 2011-06-23 Seiko Epson Corp 光学式位置検出装置および位置検出機能付き表示装置
CN102033644B (zh) * 2010-01-04 2015-07-15 张强 一种三维空间的触控或书写屏
CN101866235B (zh) * 2010-02-10 2014-06-18 张强 一种三维空间的多点触控或多笔书写屏
KR101709497B1 (ko) * 2010-07-29 2017-02-23 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP5494423B2 (ja) * 2010-11-02 2014-05-14 ソニー株式会社 表示装置、位置補正方法およびプログラム
KR101781908B1 (ko) * 2011-03-24 2017-09-26 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN102958756B (zh) * 2011-04-22 2016-07-06 松下知识产权经营株式会社 车辆用输入装置及车辆用输入方法
CN102755742A (zh) * 2011-04-27 2012-10-31 德信互动科技(北京)有限公司 6d体感互动系统和方法
US9710788B2 (en) 2011-07-05 2017-07-18 Saudi Arabian Oil Company Computer mouse system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9844344B2 (en) 2011-07-05 2017-12-19 Saudi Arabian Oil Company Systems and method to monitor health of employee when positioned in association with a workstation
US9492120B2 (en) 2011-07-05 2016-11-15 Saudi Arabian Oil Company Workstation for monitoring and improving health and productivity of employees
JP2014523039A (ja) * 2011-07-05 2014-09-08 サウジ アラビアン オイル カンパニー 従業員のバイオメカニカル健康の監視および改善のためのシステム、コンピュータ媒体、およびコンピュータにより実行される方法
CN103781408B (zh) 2011-07-05 2017-02-08 沙特阿拉伯石油公司 用于监测和改善雇员的健康和生产率的地垫系统以及相关的计算机介质和计算机实现方法
US10307104B2 (en) 2011-07-05 2019-06-04 Saudi Arabian Oil Company Chair pad system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9526455B2 (en) 2011-07-05 2016-12-27 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9615746B2 (en) 2011-07-05 2017-04-11 Saudi Arabian Oil Company Floor mat system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
CN109271029B (zh) * 2011-08-04 2022-08-26 视力移动技术有限公司 无触摸手势识别系统、无触摸手势识别方法和介质
US9507454B1 (en) 2011-09-19 2016-11-29 Parade Technologies, Ltd. Enhanced linearity of gestures on a touch-sensitive surface
KR101533320B1 (ko) * 2012-04-23 2015-07-03 주식회사 브이터치 포인터가 불필요한 3차원 객체 정보 획득 장치
KR101985674B1 (ko) * 2012-09-18 2019-06-04 삼성전자 주식회사 비접촉식 사용자 인터페이스 동작 인식 방법 및 그 장치
CN106951074B (zh) * 2013-01-23 2019-12-06 青岛海信电器股份有限公司 一种实现虚拟触摸校准的方法以及系统
US9722472B2 (en) 2013-12-11 2017-08-01 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for harvesting human energy in the workplace
JP5956481B2 (ja) * 2014-02-10 2016-07-27 レノボ・シンガポール・プライベート・リミテッド 入力装置、入力方法、及びコンピュータが実行可能なプログラム
KR101533319B1 (ko) * 2014-02-22 2015-07-03 주식회사 브이터치 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법
CN103941858B (zh) * 2014-03-11 2017-01-25 何川丰 一种电子设备显示屏操作控制系统及控制方法
KR101453815B1 (ko) * 2014-08-01 2014-10-22 스타십벤딩머신 주식회사 사용자의 시점을 고려하여 동작인식하는 인터페이스 제공방법 및 제공장치
WO2016068015A1 (ja) * 2014-10-28 2016-05-06 シャープ株式会社 座標取得装置および表示装置
EP3239817A4 (en) 2014-12-26 2018-07-25 Nikon Corporation Detection device and program
CN112965636A (zh) 2014-12-26 2021-06-15 株式会社尼康 控制装置
JP6365660B2 (ja) 2014-12-26 2018-08-01 株式会社ニコン 検出装置、電子機器、検出方法およびプログラム
US10475351B2 (en) 2015-12-04 2019-11-12 Saudi Arabian Oil Company Systems, computer medium and methods for management training systems
US10642955B2 (en) 2015-12-04 2020-05-05 Saudi Arabian Oil Company Devices, methods, and computer medium to provide real time 3D visualization bio-feedback
US9889311B2 (en) 2015-12-04 2018-02-13 Saudi Arabian Oil Company Systems, protective casings for smartphones, and associated methods to enhance use of an automated external defibrillator (AED) device
US10628770B2 (en) 2015-12-14 2020-04-21 Saudi Arabian Oil Company Systems and methods for acquiring and employing resiliency data for leadership development
CN107225407A (zh) * 2017-07-07 2017-10-03 汉尼康自动化科技(苏州)有限公司 一种自动化联机装置
US10684625B2 (en) * 2017-08-30 2020-06-16 Robert Bosch Gmbh Automated parking for virtual parking spot
US10824132B2 (en) 2017-12-07 2020-11-03 Saudi Arabian Oil Company Intelligent personal protective equipment
JP7055762B2 (ja) * 2019-03-05 2022-04-18 アルパイン株式会社 顔特徴部検出装置、顔特徴部検出方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000182058A (ja) * 1998-12-18 2000-06-30 Canon Inc 三次元運動入力方法及び三次元運動入力システム
JP2003216319A (ja) * 2002-01-23 2003-07-31 Saeilo Japan Inc 3次元の位置検出により任意の2次元平面での座標入力を行う座標入力装置
CN100377043C (zh) * 2002-09-28 2008-03-26 皇家飞利浦电子股份有限公司 三维手写识别的方法及其系统

Also Published As

Publication number Publication date
CN1694056A (zh) 2005-11-09
CN100363880C (zh) 2008-01-23
JP2005321869A (ja) 2005-11-17

Similar Documents

Publication Publication Date Title
JP4274997B2 (ja) 操作入力装置および操作入力方法
US7893920B2 (en) Operation input device and method of operation input
JP4351599B2 (ja) 入力装置
US8743089B2 (en) Information processing apparatus and control method thereof
US20110157236A1 (en) Head-mounted display
JP2009181423A (ja) 操作入力装置
JP4916994B2 (ja) 中空型スイッチ装置及びこれを備えた電子機器
JP4244202B2 (ja) 操作入力装置および操作入力方法
US9703410B2 (en) Remote sensing touchscreen
US11816271B2 (en) Control system, gesture recognition system, vehicle, and method for controlling gesture recognition system
JP4548614B2 (ja) 入力装置
JP6555958B2 (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
JP6966777B2 (ja) 入力システム
KR101550132B1 (ko) 작동 요소
JP2009237746A (ja) 車両用操作装置
JP5005585B2 (ja) 操作装置及びその方法
JP5838061B2 (ja) 運転支援装置
JP4962466B2 (ja) 入力装置および入力方法
KR20200034348A (ko) 터치스크린 장치 및 그 제어방법 그리고 디스플레이 장치
JP4757132B2 (ja) データ入力装置
JP4941450B2 (ja) 入力装置および入力方法
KR102254091B1 (ko) 터치스크린 장치 및 그 제어방법 그리고 디스플레이 장치
JP2017228216A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP4962467B2 (ja) 入力装置および入力方法
JP2023066255A (ja) 車載ディスプレイ制御システム及び車載ディスプレイ制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090303

R150 Certificate of patent or registration of utility model

Ref document number: 4274997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140313

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees