JP2004303000A - Three-dimensional instruction input device - Google Patents
Three-dimensional instruction input device Download PDFInfo
- Publication number
- JP2004303000A JP2004303000A JP2003096366A JP2003096366A JP2004303000A JP 2004303000 A JP2004303000 A JP 2004303000A JP 2003096366 A JP2003096366 A JP 2003096366A JP 2003096366 A JP2003096366 A JP 2003096366A JP 2004303000 A JP2004303000 A JP 2004303000A
- Authority
- JP
- Japan
- Prior art keywords
- area
- dimensional
- light emitting
- instruction input
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、3次元指示入力装置に関し、特に、発光手段の3次元情報に基づいて指示入力する3次元指示入力装置に関するものである。
【0002】
【従来の技術】
パソコン等に対して指示入力するためのデバイスとして、従来より2次元マウスが広く用いられている。2次元マウスはx−y座標値を相対座標値としてパソコンに指示入力する。近年、この2次元マウスを用いて3つ目の座標値を入力する技術が提案されている。
【0003】
例えば、発光体としてLEDを指に装着し、LEDからの光を受光する受光部をパソコンの画面の上部に取付けることにより、容易に3次元マウスが達成される(例えば、特許文献1参照。)。ここで用いられるセンサは、光源のセンサに対する角度を求め、三角測量の原理により光源の3次元位置を求めるものである。LEDは光源としてのパワーをパソコンから受け取り、またマウスの基本動作であるクリックなどのシグナルは有線を通してパソコンの基本ソフトに送られる。即ち、発光体のそばに指で押すことのできるスイッチが装備されている。
【0004】
また、2次元上の2つのボールを回転させることによって、x、y軸方向の移動量を入力できるのみならず、角度や回転角も入力でき、z軸方向に対する入力も可能となるポインティングデバイス(例えば、特許文献2参照。)や、第一の方向に光変換素子を配列した第1の光センサアレイと、第1の方向とは別の第二の方向に光変換素子を配列した第2の光センサアレイとが移動するときに両者の出力変化に応じた信号を生成し、それにより(カーソルなどの)移動量や移動方向を決定する非接触方式の位置検出装置(例えば、特許文献3参照。)が知られている。
【0005】
さらに、指標をCCDカメラで認識してパソコンなどに対するコマンドとして解釈するリモコン装置(例えば、特許文献4参照。)や、電子ペンのなかに指で回転されるロータリースイッチが設けられ、その回転度合いによってグラフィカルパラメター(線分の太さ、色、陰影、グレイスケール)の変化の度合いを決定する座標入力用電子ペン(例えば、特許文献5参照。)や、ユーザの手首に装着されたRFIDの動きをアンテナにより認識させてから、RFIDの動きのパターンを他のデバイスへの入力コマンドとして解釈する。同様にアンテナが一つの場合、RFIDが認識されたりされなかったりする時系列のパターンをコマンドとして解釈する指示入力システム(例えば、特許文献6参照。)が知られている。
【0006】
また、米国Gyration Inc.社のGyromouseは、オートジャイロを内臓しており、空中操作でレーザーの方向を変えることができるポインティングデバイスであるが、重量が比較的大きく、大きさもジャイロのために比較的大きく、また多少高価である。
【0007】
さらに近年、カメラのシャッタ操作における半押しの概念を応用した、パソコンのキーボードで、カメラのシャッタのように強く押さないと文字が入力されないという特性を生かし、キーボードとノートバッドを重ねたデバイスが試作された。
【0008】
【特許文献1】
特開平10−9812号公報
【特許文献2】
特開平5−150900号公報
【特許文献3】
特開平11−24832号公報
【特許文献4】
特開平11−110125号公報
【特許文献5】
特開2000−47805号公報
【特許文献6】
特開2001−306235号公報
【0009】
【発明が解決しようとする課題】
しかしながら、上述した従来の3次元マウスは、クリックなどのシグナルが有線でパソコンの基本ソフトに送られることから明らかなように、2次元マウスと同様の操作性を有している。また、上述した従来のポインティングデバイスや指示入力システム等の他の指示入力デバイスも2次元マウスと同様の操作性を有している。
【0010】
さらに、米国Gyration Inc.社のGyromouse Presenterも、クリック等の操作は通常の2次元マウス同様、指による機械的操作に依存している。また、キーボードとノートバッドを重ねたデバイスでも、カーソルの操作は2次元情報に拘束されており、3次元情報を利用しているわけではない。
【0011】
すなわち、従来の指示入力デバイスの操作性は2次元上に拘束されている、という問題がある。
【0012】
本発明は、上述した問題を解決するためになされたものであり、クリック、ダブルクリック、ドラッグなどの2次元マウスの機能を、機械的メカニズムを利用せずに3次元情報を用いて実行することができる3次元指示入力装置を提供することを目的とする。
【0013】
【課題を解決するための手段】
上記目的を達成するために、本発明の3次元指示入力装置は、指示入力者に装着可能な発光手段と、前記発光手段から発光された光を受光すると共に、受光した位置に基づいて前記発光手段の3次元位置を計測する計測手段と、所定の情報を表示する画面の前面に、該画面から前記指示入力者方向に向かって分割された複数の空間を想定し、前記計測手段によって計測された3次元位置に基づいて、前記発光手段が前記複数の空間の境界を通過する状態を判断し、判断した状態に応じて前記指示入力者の五感の少なくとも1つに訴えるフィードバック変化させることによって2次元マウスとしての機能を実行する実行手段と、を含んで構成されている。
【0014】
また、本発明の3次元指示入力装置は、指示入力者の手または指に装着可能な発光手段と、前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段と、を含んで構成することもできる。
【0015】
発光手段は、指示入力者に装着可能であり、指や手などに装着されることが好ましい。発光手段は、光を発するものであれば特に限定されず、例えばLEDとすることができる。計測手段は、発光手段からの光を受光すると共に、発光手段の3次元位置を受光した光から計測する。
【0016】
一方、指示入力者が視認する画面には所定の情報が表示される。実行手段は、画面に略一致する平面をx−y平面とし、画面の前面の空間を、該x−y平面に対して垂直なz軸方向に画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉える。更に、実行手段は、計測手段により得られる発光手段の3次元位置のz座標値から3つの領域の各境界に対する発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにする。
【0017】
すなわち、計測手段により指示入力者の指や手の動きに応じて変化する発光手段の3次元位置を計測することによって、実行手段は、発光手段の各境界に対する通過の仕方を判断できる。さらに、実行手段は、指示入力者に発光手段の3次元位置をフィードバックにより認識させことができるため、指示入力者は発光手段の位置を確認しながら、すなわち、画面前面の空間を3つの領域に分割する各境界に対する通過状態を確認しながら、発光手段を装着した指や手を動かすことができる。
【0018】
実行手段は、このようにフィードバックを掛けつつ、発光手段の各境界に対する通過の仕方に応じて、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する。
【0019】
従って、本発明によれば、2次元マウスの機能を、機械的メカニズムを利用せずに3次元情報により実行することができる。
【0020】
本発明の前記実行手段は、前記フィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させると共に、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させることにより前記指示入力者の視覚に訴えることができる。
【0021】
実行手段は、フィードバックとして、画面に発光手段のx−y平面上の位置に小ウィンドウを表示させる。小ウィンドウの形は特に限定されず、矩形であってもよいし、円形であってもよい。実行手段は、小ウィンドウ内に、画面に表示される画像のうち、発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させる。さらに、発光手段のz座標値に応じて小ウィンドウ内に表示する画像の拡大率を変化させて指示入力者の視覚に訴える。
【0022】
このように、発光手段のz座標値に応じて小ウィンドウ内に表示する画像の拡大率を変化させることにより、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0023】
前記実行手段は、前記発光手段が前記第2の領域側から前記第1の領域と前記第2の領域との境界に接近する場合に、該境界に接近するに従って前記拡大率を低減させ、該境界の通過時には前記拡大率が1となるようにして該境界を指示入力者に認知させることができる。
【0024】
これにより、拡大率の変化によって、指示入力者は発光手段が境界に接近しつつある状態を認知できる。また、拡大率が1となったときには、発光手段が境界を通過中であることを認知できる。従って、指示入力者は、明確に発光手段のz軸方向の位置を認識することができ、発光手段を装着した指または手を好適に動かして、2次元マウスの機能を実行させることができる。
【0025】
また、本発明の前記実行手段は、前記小ウィンドウ内に表示される画像の色相、彩度、明度の少なくともいずれか1つを、前記発光手段のz座標値に応じて変化させることができる。
【0026】
これにより、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0027】
さらに、本発明の前記実行手段は、前記発光手段が前記第3の領域から前記第2の領域に向かって移動する場合には、前記発光手段の移動に従って前記小ウィンドウ内の明度を連続的に急激に大きくし、前記発光手段の移動により明度が所定の大きさとなった時点でその値を一定に維持し、前記発光手段が移動して所定のz座標値を越えたときには、前記第2の領域と前記第1の領域との境界に近づくに従って明度を再び小さくし、該境界を含む該境界前後の所定の領域では前記小ウィンドウ内の明度を前記画面の対応する部分画像の明度と同じにして前記画面に表示される画像がそのまま見えるようにし、前記発光手段が前記第2の領域と前記第1の領域の境界を通過して前記第1の領域に移動した後には、前記小ウィンドウ内の色相を前記第2の領域とは異なる色相に変え、前記発光手段が前記第2の領域と前記第1の領域の境界から離れて前記画面に近づくに従って急激に明度を上げ、前記小ウィンドウ内の色相が明らかになるようにして前記指示入力者の視覚に訴えるようにすることができる。
【0028】
これにより、発光手段のz座標値に応じて小ウィンドウの属性(色相、明度、彩度など)は変化するが、画面の画像が小ウィンドウ内に見える状態は維持される。
【0029】
具体的には、発光手段が第3の領域から第2の領域に向かって移動する場合には、発光手段の移動に従って小ウィンドウの明度を連続的に急激に大きくする。これにより、指示入力者は、発光手段が第2の領域に向かいつつあることを認識できる。
【0030】
更に、実行手段は、発光手段の移動により明度が所定の大きさとなった時点で明度の値を一定に維持する。これにより指示入力者は第2の領域を移動中であることを認識できる。
【0031】
更に、実行手段は、発光手段が移動して所定のz座標値を越えたときには、第2の領域と第1の領域との境界に近づくに従って明度を再び小さくしていく。これにより、指示入力者は、発光手段が第1の領域に接近しつつあることを認識できる。
【0032】
更に、実行手段は、発光手段が第2の領域と第1の領域との境界を含む該境界前後の所定の領域にあるときには小ウィンドウ内の明度を画面の対応する部分画像の明度と同じにして画面に表示される画像がそのまま見えるようにする。これにより、指示入力者は発光手段が境界付近に位置することを認識できる。
【0033】
更に、実行手段は、発光手段が第2の領域と第1の領域の境界を通過して第1の領域に移動した後には、小ウィンドウ内の色相を第2の領域とは異なる色相に変える。これにより、指示入力者は、発光手段が第2の領域から第1の領域に移動したことを認識できる。
【0034】
更に、実行手段は、発光手段が第2の領域と第1の領域の境界から離れて画面に近づくに従って急激に明度を上げ、小ウィンドウ内の色相が明らかになるようにする。これにより、指示入力者は、発光手段が、第1の領域を移動中であることを認識できる。
【0035】
本発明の前記実行手段は、前記小ウィンドウ内に表示される画像の凹凸状態を、前記発光手段のz座標値に応じて変化させることができる。また、本発明の前記実行手段は、前記小ウィンドウの大きさまたは/および形状を、前記発光手段のz座標値に応じて変化させることもできる。
【0036】
なお、小ウインドウの大きさは、境界領域をこえる時には少なくともローカルで最小とし、ある同じ属性の領域をLEDなどの発光手段が移動中である場合には変化をさせないようにすれば、より一層距離感が認識しやすくなる。
【0037】
これにより、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0038】
本発明において、前記小ウィンドウの輪郭の色を任意に設定可能とすることもできる。なお、前記実行手段は、前記任意に設定された前記小ウィンドウの輪郭の色と、前記画面に表示される画像における前記小ウィンドウの境界域の色との排他的論理和をとって前記小ウィンドウの輪郭の色を定めることもできる。
【0039】
これにより、設定された小ウィンドウの輪郭の色が、画面に表示される画像における小ウィンドウの境界域の色と同一となった場合であっても、その色と異なる色で輪郭が表示されるため、指示入力者が小ウィンドウを見失うことを防止できる。
【0040】
なお、小ウィンドウによるフィードバックに限らず、本発明の前記実行手段は、前記フィードバックとして、前記発光手段が前記各境界を通過する際に、音を用いて前記指示入力者の聴覚に訴えるようにすることもできる。
【0041】
これにより、小ウィンドウによるフィードバックと同様に、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0042】
本発明の前記実行手段は、前記発光手段が前記第2の領域側から前記第1の領域と前記第2の領域との境界を通過したときに、2次元マウスにおける選択の機能を実行することができる。また、前記実行手段は、前記発光手段が前記第1の領域と前記第2の領域との境界を所定の時間内に1回一方向に通過したときに、2次元マウスにおけるの選択の機能を実行するようにしてもよい。前記実行手段は、前記発光手段が前記第2の領域内に定義されている別の境界を所定の時間内に1回一方向に通過したときに、2次元マウスにおけるの選択の機能を実行するようにしてもよい。
【0043】
本発明の前記実行手段は、前記発光手段が、前記第1の領域と前記第2の領域との境界を所定の時間内に1回一方向に通過した後、逆方向に通過したときに、2次元マウスにおけるクリックの機能を実行することができる。
【0044】
また、本発明の前記実行手段は、前記発光手段が前記第1の領域と前記第2の領域との境界を所定の時間内に2回同方向に通過したときに、2次元マウスにおけるダブルクリックの機能を実行することができる。
【0045】
さらに、本発明において、前記第1の領域は、前記画面に近い領域と前記第2の領域に近い領域とに分割されており、前記実行手段は、前記発光手段が該2つの領域の境界を一方向に通過したときに、2次元マウスにおけるドラッグの機能を実行し、該境界を逆方向に通過したときに、2次元マウスにおけるドロップの機能を実行することができる。
【0046】
このように、発光手段の各境界に対する通過の仕方に応じて、選択、クリック、ダブルクリックや、ドラッグ・アンド・ドロップといった2次元マウスの機能を実行するため、機械的メカニズムを利用せずにすむ。
【0047】
また、本発明の前記実行手段は、前記発光手段が前記第2の領域のうち前記第1の領域に近い所定の領域内を通過しているときは、前記指示入力者により指示入力されるx−y平面上の位置を該所定の領域に入った時点の前記発光手段のx−y平面上の位置に維持することもできる。
【0048】
これにより、第2の領域のうち第1の領域に近い所定の領域内を通過しているときに、指示入力者により指示入力されるx−y平面上の位置が固定されるため、該位置にあるアイコンなどのオブジェクトを選択したり、オブジェクトをクリックしたりするなどの2次元マウスの機能を実行することができる。
【0049】
本発明において、前記所定の時間を変更可能にしてもよい。これにより、指示入力者の使い勝手を向上させることができる。
【0050】
【発明の実施の形態】
以下、図面を参照して、本発明の実施の形態について詳細に説明する。
【0051】
図1は、本発明の実施の形態に係る3次元指示入力装置の構成およびデータの流れを示すブロック図である。図示されるように、3次元指示入力装置は、ユーザの指や手等に装着された発光体(LED)10と、LED10からの光を受光することによりLED10の3次元位置を計測する3D計測装置12と、3D計測装置12で計測された3次元位置を示す座標値のうちz座標値の軌跡からクリック、ダブルクリック、ドラッグ・アンド・ドロップのコマンド(マウス・コマンドと呼称する)を生成してx−y座標値と共にパソコン22に出力する3Dマウス・コマンド生成装置14とを備えている。更に、パソコン22には、3Dマウス・コマンド生成装置14からx−y座標値と共にマウス・コマンドを入力するマウスドライバ16と、画像処理を行うイメージドライバ20と、マウスドライバ16に入力されたコマンドに基づいて、イメージドライバ20を必要に応じて起動させる等して指示入力に関する処理を行うOS18とが格納されている。
【0052】
ここで、x−y座標値は、パソコン22の画面(図2参照)に略一致する平面をx−y平面とした場合の座標値であり、z座標値は、x−y平面に垂直なz軸方向の座標値である。
【0053】
なお、上述した3次元指示入力装置のハードウェアは、特開平10−9812号公報に記載された位置検出の技術を用いて構成されている。もちろん、3次元位置計測ができるものであれば何でも良いが、特開平10−9812号公報に記載の方式によれば比較的安価に実現できる。
【0054】
図2は、パソコン22を横から見た図である。パソコン22の画面はMで示されている。パソコン22の画面Mの前面に広がる3次元空間のうち、最も画面Mに近い層を全押し下層、次に近い層を全押し上層とし、あわせて全押し層(第1の層)と呼ぶ。その両者の境界を境界Bと呼ぶ。さらに手前の層二層を半押し層(第2の層)と呼び、それぞれ画面Mに近い方から半押し下層、半押し上層と呼ぶ。その両者の境界を境界Aと呼ぶ。また、半押し層と全押し層の境界を境界Kと呼ぶ。ユーザに最も近い層、すなわち、画面Mから最も遠い層を自由層(第3の層)と呼ぶ。自由層と半押し層の境界を境界Fと呼ぶ。
【0055】
自由層は、LED10をどのように動かそうとも単にカーソルがその動きに対応して動くだけでなんのアクションもなされない層である。2次元マウスにおいてマウスクリックをせずにマウスを動かしている状態に相当する。
【0056】
半押し層の手前の層(半押し上層)にLED10がある場合は、後に説明する拡張カーソルの属性に変化があり、ユーザがオブジェクトを選択しつつある状態である。また、LED10が半押し層の画面側(半押し下層)に移動したときには、カーソルのx−y座標値は、境界Aを通過した時の値に固定される。
【0057】
半押し層と全押し層との間をLED10が通過する仕方によって、マウス・コマンドが生成される。
【0058】
ここで、拡張カーソルについて説明する。本実施の形態において、拡張カーソルは従来のカーソルとは異なり、パソコン22のデスクトップ上で従来のカーソルが指示している点(以下、カーソル点と呼称する)を含む小領域を円弧などで囲い、改めて小ウインドウとして表示したものである。図3(a)及び図3(b)に示されるように、カーソル点30を中心とする円形の内部が小ウィンドウ(拡張カーソル)32に表示されている。従来のカーソル34は、その拡張カーソル32の内部、特に中心部に重ねて表示されている。
【0059】
なお、図3(a)は、向かって右側の2列のアイコンの中心部分を拡張カーソル32が指示している状態を表しており、幾分デスクトップ状のアイコンが拡大されているのが分かる。
【0060】
また、図3(b)は、LED10が境界Kに近づいたときの画面上の拡張カーソル32の状態を表している。図示されるように、拡張カーソル32の半径は最小になっており、円形内の画像も背景と同じ、即ち拡大率が1となっている。
【0061】
このように拡張カーソル32は、半押し層でLED10が外側から境界Kに近づくにつれて、カメラの焦点を合わせるように画像が拡大された状態から実際の大きさに変化したり、あるいは半径が小さくなることによって絞りが絞られていくことを連想させる焦点メタファーを構成している。
【0062】
この拡張カーソル32は、OSがイメージドライバ20を用いて表示する。また、従来のカーソル34は、OSがマウスドライバ16を用いて拡張カーソル32に重ねて表示する。
【0063】
次に、マウス・コマンドが生成される場合の3次元指示入力装置の処理の流れについて説明する。
【0064】
図1に示されるように、LED10が3D計測装置12の前にあると、その位置が3D計測装置12で測定される。ここでマウス・コマンド生成のために必要なものはLED10のz座標値である。z座標値は3D計測装置12からの距離で測られるが、パソコン22の画面Mと3D計測装置12の位置が一致していれば、この距離は画面Mからの距離となる。図1の矢印で示されるように、手前に伸びる方向がz座標値の正の方向である。
【0065】
ユーザが手を動かすとそれにつれて手に装着されたLED10の位置が変わり、そのz座標値を含む3次元座標値が3D計測装置12を通じて3Dマウス・コマンド生成装置14に送られる。
【0066】
3Dマウス・コマンド生成装置14は、そのz座標値の時系列から画面M手前の各境界領域をある一定時間内にどのような形で通過したかを調べる。なお、この時間は、ユーザにより任意に設定可能である。3Dマウス・コマンド生成装置14では、その仕方によって、クリック、ダブルクリック、ドラッグの3つの重要なコマンドに解釈される。解釈されたコマンドのシグナルはパソコン22のマウスドライバ16に送られる。この時点でマウスドライバ16は2次元マウスであろうと、3次元マウスであろうと同じデータタイプを受け取ることができる。従って、後はパソコン22側の処理になる。本実施の形態では拡張カーソル32を小ウインドウで表現するので、OSは画像を処理しているイメージドライバ20等を必要に応じて起動させ、図3(a)及び図3(b)に示されるようにパソコン22の画面Mに拡張カーソル32を表示させる。また、マウスドライバ16も同時に起動されており、OSはマウスドライバ16により拡張カーソル32の画像に従来のカーソル34を重ねて画面M上に表示する。
【0067】
この拡張カーソル32内部の画像はLED10が自由層にあるときには本来の画像と変わらず、LED10が半押し層に入ると拡大表示(拡張カーソルそのものの大きさと内部表示される画像)される。また、LED10が半押し層から全押し層へ向かうにつれて、即ち境界Kに向かうにつれて、拡大画像の倍率が1になる。特に、境界Kの寸前の所定距離内では多少LED10のz座標値が動いても倍率は1とする。これはカメラのシャッタの半押し状態を再現したもので、特にシャッタが下りる直前はシャッタの硬さが増し、変化がないことも表現されている。
【0068】
以下、図4を用いて、LED10の動きと、生成されるマウス・コマンドとの対応関係について詳細に説明する。
【0069】
図4は、パソコン22を上から見た図である。また、図に示される太実線及び点線はLED10の動きに対応した軌跡を示している。なお、太実線はカーソル点30のx−y座標値が固定されている(ロックされている)ことを示し、点線部分はx−y座標値は固定されていない(ロック解除されている)ことを示している。
【0070】
LED10が半押し上層から境界Aを越して半押し下層に入ると、境界Aを通過する時点の値でカーソル点30のx−y座標値がロックされる。このとき、オブジェクトが指示されていれば、後にLEDがKを通過すれば通過時の通過点のx−y座標値に関わらずそのオブジェクトが選択される。即ち、LED10が移動して境界Kを通過した後、境界Bには到達せずに、再び境界Kを逆方向に通過して半押し上層に戻ると、「クリック」のコマンドがパソコン22のマウスドライバ16に送られる(軌跡40)。
【0071】
また、LED10が、半押し上層から境界Aを越して半押し下層に入った後、半押し層上部に戻らず、もう一度境界Kを越し、しかし、境界Bに到達せず、再び境界Kを逆方向に戻ると、「ダブルクリック」のコマンドがパソコン22に送られる。(軌跡42)。
【0072】
また、LED10が半押し上層から境界A、境界Kを通り過ぎ、次の境界Bを越すと、ドラッグが可能な領域(全押し下層)に入る。この時点でカーソル点30のx−y座標値のロックが解除され、全押し下層でカーソル点30で指示されているオブジェクトがLED10のx−y座標の動きに従ってドラッグされる。即ち、「ドラッグ」のコマンドがパソコン22に送られる。LED10が再び全押し下層からが境界Bを逆方向に通過し、また境界Kをさらに通過して半押し層に戻ると、その時点でx−y座標値がロックされ、オブジェクトがドロップされる。即ち、「ドロップ」のコマンドがパソコン22に送られる(軌跡44)。
【0073】
x−y座標値のロックの状態と各境界との対応関係について詳細に説明する。基本的には、どの場合でもx−y座標値がロックされるのは、LED10が半押し上層から半押し下層へ境界Aを越したときである。また、ロックが解除されるのは、クリックの場合には同じく境界Aを逆方向に通過したときであり、ダブルクリックの場合は境界Kを2回目に逆方向に戻ってきた時点である。また、LED10が境界Bを越えて全押し下層に入るとx−y座標のロックははずされる。これはドラッグ可能な領域に入ったためで、当然である。ドラッグを行ってオブジェクトを移動した後、LED10が再び全押し上層に戻ってきたときには、再びロックされる。これはカーソルからオブジェクトをはずすための便宜である。さらにLED10が境界Kを越して半押し層に戻ると、再びロックははずされる。この時点ではLED10が半押し上層に戻ってきていないので、オブジェクトの選択がなされることはない。
【0074】
なお、図4において、クリックとダブルクリックの際のLED10の軌跡は、xまたはy座標値を動いているように見えるが、これらは誇張して表現したものであり、実際は殆ど同じ位置にある。また、実線部分ではパソコン22のマウスドライバ16に対する値は一定値である。
【0075】
以上説明したように、画面の前面に広がる空間を3つの領域に分割し、ユーザの視覚に訴えるような拡張カーソル(焦点メタファー)によって、ユーザが装着するLED10が各領域の境界を通過したことを認知させつつ、半押し層と全押し層との境界をある一定時間内に一度だけ往復した場合には、2次元マウスのクリックの動作を実行し、一定時間内に二度往復した場合には、2次元マウスのダブルクリックの動作を実行し、半押し層から全押し層に移動しても一定時間半押し層に戻らない場合には、カーソルが指示するアイコン等のオブジェクトをドラッグし、LED10が半押し層に戻ったときに、ドラッグしたオブジェクトをドロップするようにしたため、クリック、ダブルクリック、ドラッグなどのマウスの基本動作を、機械的メカニズムを利用せずに空中でのLED10の動き(3次元座標値)により実行させることができる。
【0076】
なお、上述した実施の形態では、拡張カーソル32を用いてLED10が3次元空間上の境界を通過したことをユーザに認知させる例について説明したが、例えば、各境界を通過する際それに固有な音を発生させて操作の助けとすることも可能である。さらに、各層での最大拡大率や、色相などの色情報、拡張カーソル32の大きさ(半径等)をユーザが自由に自分の好みや使い勝手に応じて変更することが可能である。
【0077】
図5は、LED10のz座標位置に応じた拡張カーソル32の明度及び色相の変化の一例を示した図である。図示されるように、色相が境界Kを境にして緑から赤に変わる。即ち、ユーザが境界K前後にLED10を動かすと色が変わることになり、ユーザに対して境界がどこにあるのかの認知度を高める。また、半押し層(図5において境界Kの左側)や全押し層(図5において境界Kの右側)において明度を変化させる。特に、半押し層では、境界Kに向かって拡張カーソルに取り込まれた画像の拡大率を1に近づけると共に、色を拡張カーソルに取り込んだ画像の色相に近づけることによって、焦点を合わせてはっきり見える焦点メタファーを構成することも可能である。
【0078】
また、上述した実施の形態における境界や層は一例であり、境界を削除して2つの層を合体させることも可能である。この場合には、層に依存する属性を隣接する層についても同じに設定することによって可能となる。また、境界を定めるz座標値もユーザが自由に設定しなおすことも可能である。さらに、各層の意味を別に解釈することによって、例えば、極端な例としては、半押し層と全押し層を逆転させることも可能である。この場合も、マウス・コマンドを起動させるには、LED10がどの境界をどのように通過したかによって決定するようにすればよい。
【0079】
なお、拡張カーソルに表示される画像の色相、彩度、明度の少なくともいずれか1つを、LED10のz座標値に応じて変化させるようにすることもできる。また、拡張カーソルに表示される画像の凹凸状態を、LED10のz座標値に応じて変化させるようにすることもできる。さらに、拡張カーソルの大きさや形状を、LED10のz座標値に応じて変化させるようにしてもよい。
【0080】
また、拡張カーソルの輪郭の色はユーザが任意に設定してもよい。さらに、任意に設定された拡張カーソルの輪郭の色と、画面に表示される画像における拡張カーソルの境界域の色との排他的論理和をとって拡張カーソルの輪郭の色を定めるようにしてもよい。これにより、拡張カーソルに予め設定された輪郭の色と、画面に表示される画像における拡張カーソルの輪郭の境界域に占める色とが同一となった場合に、拡張カーソルの輪郭の色を異ならせて表示するため、拡張カーソルが明瞭に視認される。
【0081】
また、それぞれの操作が完了するまでの最大許容時間もユーザが設定可能であるが、空中操作によるクリック操作の識別に要するクリック間隔時間は2次元マウスの設定値にくらべて時間を長くすることが好ましい。具体的には、ダブルクリックは基本ソフトOSで設定可能な0.5秒を越して、約1.9秒くらいが実験的に現在のところ妥当であった。
【0082】
【発明の効果】
本発明に係る3次元指示入力装置は、五感の少なくとも1つに訴えるようなフィードバック(焦点メタファーや色相等の変化)によって、画面の前面に広がる3次元空間上の分割された複数の領域の各境界に対する発光手段の通過状態をユーザに認知させ、機械的メカニズムを利用せずに、発光手段の各領域の境界に対する通過の仕方に応じて、クリック、ダブルクリック、ドラッグなどの2次元マウスの機能を実行することができる、という効果を奏する。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る3次元指示入力装置の構成およびデータの流れを示すブロック図である。
【図2】パソコンを横から見た場合の空間分割を説明する図である。
【図3】図3(a)は、向かって右側の2列のアイコンの中心部分を拡張カーソルが指示している状態を表した図であり、図3(b)は、LEDが境界Kに近づいたときの画面上の拡張カーソルの状態を表した図である。
【図4】パソコンを上から見た場合の空間分割とLEDの空間上での動きを説明する図である。
【図5】画面に表示される拡張カーソル内の画像の色相及び明度の変化の一例を示した図である。
【符号の説明】
10 LED
12 3D計測装置
14 3Dマウス・コマンド生成装置
16 マウスドライバ
18 OS
20 イメージドライバ
22 パソコン
32 拡張カーソル[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a three-dimensional instruction input device, and more particularly to a three-dimensional instruction input device for inputting an instruction based on three-dimensional information of a light emitting unit.
[0002]
[Prior art]
Conventionally, a two-dimensional mouse has been widely used as a device for inputting instructions to a personal computer or the like. The two-dimensional mouse inputs and inputs xy coordinate values to a personal computer as relative coordinate values. In recent years, a technique for inputting a third coordinate value using this two-dimensional mouse has been proposed.
[0003]
For example, a three-dimensional mouse can be easily achieved by attaching an LED as a light emitter to a finger and attaching a light receiving unit for receiving light from the LED to an upper portion of a screen of a personal computer (for example, see Patent Document 1). . The sensor used here determines the angle of the light source with respect to the sensor, and determines the three-dimensional position of the light source based on the principle of triangulation. The LED receives power as a light source from a personal computer, and signals such as a click, which is a basic operation of a mouse, are sent to the basic software of the personal computer through a wire. That is, a switch that can be pressed by a finger is provided near the light emitting body.
[0004]
In addition, by rotating two balls in two dimensions, not only a movement amount in the x and y axis directions can be input, but also an angle and a rotation angle can be input, and a pointing device that enables input in the z axis direction ( For example, see Patent Document 2), a first optical sensor array in which light converting elements are arranged in a first direction, and a second optical sensor array in which light converting elements are arranged in a second direction different from the first direction. Non-contact type position detection device that generates a signal corresponding to the output change of the optical sensor array when the optical sensor array moves, and thereby determines the amount of movement and the direction of movement (for example, Patent Document 3) Cf.) is known.
[0005]
Further, a remote control device (for example, see Patent Document 4) for recognizing an index with a CCD camera and interpreting the index as a command for a personal computer or the like, and a rotary switch rotated with a finger in an electronic pen are provided. A coordinate input electronic pen (see, for example, Patent Document 5) that determines the degree of change in graphical parameters (line segment thickness, color, shading, gray scale), and movement of an RFID attached to a user's wrist. After being recognized by the antenna, the movement pattern of the RFID is interpreted as an input command to another device. Similarly, when there is one antenna, an instruction input system that interprets a time-series pattern in which an RFID is recognized or not recognized as a command is known (for example, see Patent Document 6).
[0006]
Gyration Inc., USA Gyromouse has a built-in auto gyro and is a pointing device that can change the direction of the laser by air operation, but it is relatively heavy, the size is relatively large for the gyro, and it is somewhat expensive. is there.
[0007]
Furthermore, in recent years, a prototype of a device that combines a keyboard and a notepad with a keyboard of a personal computer that applies the concept of half-pressing in the shutter operation of a camera, taking advantage of the characteristic that characters are not input unless you press it strongly like a camera shutter. Was done.
[0008]
[Patent Document 1]
JP-A-10-9812
[Patent Document 2]
JP-A-5-150900
[Patent Document 3]
JP-A-11-24832
[Patent Document 4]
JP-A-11-110125
[Patent Document 5]
JP 2000-47805 A
[Patent Document 6]
JP 2001-306235 A
[0009]
[Problems to be solved by the invention]
However, the above-described conventional three-dimensional mouse has the same operability as a two-dimensional mouse, as is apparent from the fact that a signal such as a click is transmitted to the basic software of a personal computer via a cable. Other instruction input devices such as the above-described conventional pointing device and instruction input system have the same operability as a two-dimensional mouse.
[0010]
Further, US Gyration Inc. Gymouse Presenter of the company also relies on mechanical operation with a finger for operations such as clicking, like a normal two-dimensional mouse. Further, even in a device in which a keyboard and a notepad are overlapped, the operation of a cursor is restricted by two-dimensional information and does not use three-dimensional information.
[0011]
That is, there is a problem that the operability of the conventional instruction input device is restricted two-dimensionally.
[0012]
The present invention has been made in order to solve the above-described problem, and it is an object of the present invention to execute two-dimensional mouse functions such as click, double-click, and drag using three-dimensional information without using a mechanical mechanism. It is an object of the present invention to provide a three-dimensional instruction input device capable of performing the following.
[0013]
[Means for Solving the Problems]
In order to achieve the above object, a three-dimensional instruction input device according to the present invention includes: a light emitting unit that can be worn by an instruction input person; a light receiving unit that receives light emitted from the light emitting unit; A measuring means for measuring a three-dimensional position of the means, and a plurality of spaces divided from the screen in the direction of the instruction input person on the front of a screen for displaying predetermined information, the measurement being performed by the measuring means. Based on the three-dimensional position, the state in which the light-emitting means passes through the boundaries of the plurality of spaces is determined, and the feedback change appealing to at least one of the five senses of the instruction input person is made in accordance with the determined state. Execution means for executing a function as a three-dimensional mouse.
[0014]
In addition, the three-dimensional instruction input device of the present invention includes a light-emitting unit that can be attached to a hand or a finger of an instruction input person, receives light emitted from the light-emitting unit, and detects the three-dimensional position of the light-emitting unit. Measurement means for measuring from the obtained light, and a plane substantially coinciding with a screen for displaying predetermined information as an xy plane, and a space in front of the screen in a z-axis direction perpendicular to the xy plane. The area is divided into three areas of a first area, a second area, and a third area in order from the closest to the screen, and the three areas are obtained from the z coordinate values of the three-dimensional position of the light emitting means obtained by the measuring means. A way of passing the light emitting means with respect to each boundary dividing the area is determined, and selection and click are performed so that feedback different depending on the way of passing the light and appealing to at least one of the five senses of the instruction input person is applied. , Double chestnut Click, and execution means for executing the function of the two-dimensional mouse comprising a drag-and-drop can also be configured to include.
[0015]
The light emitting means can be mounted on the instruction input person, and is preferably mounted on a finger or a hand. The light emitting means is not particularly limited as long as it emits light, and may be, for example, an LED. The measuring means receives the light from the light emitting means and measures the three-dimensional position of the light emitting means from the received light.
[0016]
On the other hand, predetermined information is displayed on the screen visually recognized by the instruction input person. The execution means sets a plane substantially coincident with the screen as an xy plane, and sets a space in front of the screen in the first area and the second area in order from the screen in the z-axis direction perpendicular to the xy plane. The image is divided into three regions, a region and a third region. Further, the execution means determines a way of the light emitting means passing through each boundary of the three regions from the z-coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means. Provide feedback to appeal to at least one of the five senses of the input person.
[0017]
That is, by measuring the three-dimensional position of the light emitting unit that changes according to the finger or hand movement of the instruction input person by the measuring unit, the execution unit can determine the way of the light emitting unit passing through each boundary. Furthermore, since the execution means can make the instruction input person recognize the three-dimensional position of the light emitting means by feedback, the instruction input person confirms the position of the light emitting means, that is, the space in front of the screen is divided into three areas. The user can move his / her finger or hand on which the light emitting unit is mounted while checking the passing state of each boundary to be divided.
[0018]
The execution means executes the functions of the two-dimensional mouse including selection, click, double-click, drag and drop according to the way the light-emitting means passes through each boundary while giving feedback as described above.
[0019]
Therefore, according to the present invention, the function of the two-dimensional mouse can be executed by using the three-dimensional information without using a mechanical mechanism.
[0020]
The execution means of the present invention displays a small window on the xy plane of the light emitting means on the screen as the feedback, and in the small window, among images displayed on the screen, The image of a predetermined area including the position on the xy plane of the light emitting means is enlarged and displayed, and the magnification of the image displayed in the small window is changed according to the z coordinate value of the light emitting means. Thereby, it is possible to appeal to the vision of the instruction input person.
[0021]
The execution means causes a small window to be displayed at a position on the xy plane of the light emitting means on the screen as feedback. The shape of the small window is not particularly limited, and may be rectangular or circular. The execution means enlarges and displays, within the small window, an image of a predetermined area including the position of the light emitting means on the xy plane among the images displayed on the screen. Further, the magnification of the image displayed in the small window is changed according to the z-coordinate value of the light emitting means to appeal to the instruction input person's vision.
[0022]
As described above, by changing the enlargement ratio of the image displayed in the small window according to the z-coordinate value of the light emitting unit, the instruction input user can recognize the position of the light emitting unit in the z-axis direction.
[0023]
When the light emitting unit approaches a boundary between the first region and the second region from the second region side, the execution unit reduces the enlargement ratio as approaching the boundary. When passing through a boundary, the enlargement ratio is set to 1 so that the instruction input person can recognize the boundary.
[0024]
Thus, the instruction input person can recognize the state in which the light emitting unit is approaching the boundary by the change in the enlargement ratio. When the enlargement ratio becomes 1, it can be recognized that the light emitting means is passing through the boundary. Therefore, the instruction input person can clearly recognize the position of the light emitting unit in the z-axis direction, and can appropriately execute the function of the two-dimensional mouse by appropriately moving the finger or hand wearing the light emitting unit.
[0025]
Further, the execution means of the present invention can change at least one of hue, saturation, and lightness of an image displayed in the small window according to the z-coordinate value of the light emitting means.
[0026]
Thus, the instruction input person can recognize the position of the light emitting unit in the z-axis direction.
[0027]
Further, when the light emitting means moves from the third area toward the second area, the execution means of the present invention continuously changes the brightness in the small window according to the movement of the light emitting means. When the brightness reaches a predetermined value due to the movement of the light emitting means, the value is kept constant. When the light emitting means moves and exceeds a predetermined z coordinate value, the second The brightness is reduced again as approaching the boundary between the region and the first region, and in a predetermined region around the boundary including the boundary, the brightness in the small window is made the same as the brightness of the corresponding partial image of the screen. After the image displayed on the screen is viewed as it is, and the light-emitting means moves to the first area after passing through the boundary between the second area and the first area, the light-emitting means is in the small window. Before hue The color is changed to a different hue from that of the second area, and the light emitting means sharply increases the brightness as the distance from the boundary between the second area and the first area approaches the screen, so that the hue in the small window becomes clear. In such a way as to appeal to the vision of the instruction input person.
[0028]
As a result, the attributes (hue, brightness, saturation, etc.) of the small window change according to the z-coordinate value of the light emitting means, but the state in which the image on the screen is visible in the small window is maintained.
[0029]
Specifically, when the light emitting means moves from the third area toward the second area, the brightness of the small window is continuously and rapidly increased in accordance with the movement of the light emitting means. Thereby, the instruction input person can recognize that the light emitting means is heading to the second area.
[0030]
Further, the execution means keeps the value of the lightness constant when the lightness reaches a predetermined value due to the movement of the light emitting means. Thus, the instruction input person can recognize that the user is moving in the second area.
[0031]
Further, when the light emitting means moves and exceeds the predetermined z-coordinate value, the executing means decreases the brightness again as the light approaches the boundary between the second area and the first area. Thus, the instruction input person can recognize that the light emitting unit is approaching the first area.
[0032]
Further, the execution means sets the brightness in the small window to be the same as the brightness of the corresponding partial image of the screen when the light emitting means is in a predetermined area around the boundary including the second area and the first area. The image displayed on the screen as it is. Thereby, the instruction input person can recognize that the light emitting means is located near the boundary.
[0033]
Further, the execution means changes the hue in the small window to a hue different from that of the second area after the light emitting means moves to the first area after passing through the boundary between the second area and the first area. . Thereby, the instruction input person can recognize that the light emitting means has moved from the second area to the first area.
[0034]
Further, the executing means sharply increases the brightness as the light emitting means moves away from the boundary between the second area and the first area and approaches the screen, so that the hue in the small window becomes clear. Thus, the instruction input person can recognize that the light emitting means is moving in the first area.
[0035]
The executing means of the present invention can change the unevenness state of the image displayed in the small window according to the z-coordinate value of the light emitting means. Further, the execution means of the present invention can change the size and / or shape of the small window according to the z-coordinate value of the light emitting means.
[0036]
If the size of the small window is at least locally minimum when exceeding the boundary area, and the area of the same attribute is not changed when the light emitting means such as the LED is moving, the distance can be further increased. The feeling becomes easier to recognize.
[0037]
Thus, the instruction input person can recognize the position of the light emitting unit in the z-axis direction.
[0038]
In the present invention, the color of the outline of the small window can be arbitrarily set. The execution means calculates an exclusive OR of the color of the arbitrarily set outline of the small window and the color of the border area of the small window in the image displayed on the screen, and The color of the outline can also be determined.
[0039]
Thereby, even when the color of the outline of the set small window is the same as the color of the border area of the small window in the image displayed on the screen, the outline is displayed in a color different from that color. Therefore, it is possible to prevent the instruction input person from losing sight of the small window.
[0040]
In addition, not only the feedback by the small window but also the execution means of the present invention, as the feedback, appeals to the hearing of the instruction input person using sound when the light emitting means passes through each of the boundaries. You can also.
[0041]
Thus, similarly to the feedback by the small window, the instruction input person can recognize the position of the light emitting unit in the z-axis direction.
[0042]
The execution means of the present invention executes a selection function in a two-dimensional mouse when the light emitting means passes a boundary between the first area and the second area from the second area side. Can be. Also, the execution means has a function of selecting with a two-dimensional mouse when the light emitting means has once passed in one direction within a predetermined time once across a boundary between the first area and the second area. It may be executed. The executing means executes a selection function in a two-dimensional mouse when the light emitting means has once passed in one direction within another predetermined time within another boundary defined in the second area. You may do so.
[0043]
The execution means of the present invention, when the light-emitting means passes once in one direction within a predetermined time once the boundary between the first area and the second area, when passing in the opposite direction, A click function on a two-dimensional mouse can be performed.
[0044]
Further, the execution means of the present invention, when the light-emitting means has passed the boundary between the first area and the second area twice in the same direction within a predetermined time, a double-click with a two-dimensional mouse Function can be performed.
[0045]
Further, in the present invention, the first area is divided into an area close to the screen and an area close to the second area, and the execution means sets the boundary between the two areas by the light emitting means. When passing in one direction, the function of dragging in the two-dimensional mouse can be executed, and when passing in the opposite direction, the function of dropping in the two-dimensional mouse can be executed.
[0046]
As described above, the function of the two-dimensional mouse, such as selection, click, double-click, and drag and drop, is executed according to the way the light emitting means passes through each boundary, so that a mechanical mechanism is not used. .
[0047]
Further, the execution means of the present invention is configured such that, when the light-emitting means passes through a predetermined area near the first area in the second area, the instruction input by the instruction input person is x. The position on the -y plane may be maintained at the position on the xy plane of the light emitting means at the time of entering the predetermined area.
[0048]
Thus, when the vehicle passes through a predetermined area of the second area that is close to the first area, the position on the xy plane where the instruction is input by the instruction input person is fixed. 2D mouse functions such as selecting an object such as an icon or clicking on an object.
[0049]
In the present invention, the predetermined time may be changeable. Thereby, the usability of the instruction input person can be improved.
[0050]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0051]
FIG. 1 is a block diagram showing a configuration and a data flow of a three-dimensional instruction input device according to an embodiment of the present invention. As shown in the figure, the three-dimensional instruction input device includes a light-emitting body (LED) 10 mounted on a user's finger or hand, and 3D measurement for measuring a three-dimensional position of the
[0052]
Here, the xy coordinate values are coordinate values when a plane substantially coincident with the screen of the personal computer 22 (see FIG. 2) is an xy plane, and the z coordinate values are perpendicular to the xy plane. These are coordinate values in the z-axis direction.
[0053]
Note that the hardware of the above-described three-dimensional instruction input device is configured using the position detection technology described in Japanese Patent Application Laid-Open No. 10-9812. Of course, any device capable of three-dimensional position measurement can be used.
[0054]
FIG. 2 is a diagram of the
[0055]
The free layer is a layer in which no action is taken simply by moving the cursor in response to the movement of the
[0056]
If the
[0057]
Mouse commands are generated by the way the
[0058]
Here, the extended cursor will be described. In the present embodiment, unlike the conventional cursor, the extended cursor surrounds a small area including a point indicated by the conventional cursor on the desktop of the personal computer 22 (hereinafter, referred to as a cursor point) with an arc or the like. It is displayed again as a small window. As shown in FIGS. 3A and 3B, the inside of a circle centered on the
[0059]
FIG. 3A shows a state in which the
[0060]
FIG. 3B shows the state of the
[0061]
Thus, as the
[0062]
The OS displays the
[0063]
Next, the flow of processing of the three-dimensional instruction input device when a mouse command is generated will be described.
[0064]
As shown in FIG. 1, when the
[0065]
As the user moves the hand, the position of the
[0066]
The 3D mouse /
[0067]
The image inside the
[0068]
Hereinafter, the correspondence between the movement of the
[0069]
FIG. 4 is a diagram of the
[0070]
When the
[0071]
Also, after the
[0072]
When the
[0073]
The correspondence between the lock state of the xy coordinate values and each boundary will be described in detail. Basically, the xy coordinate values are locked in any case when the
[0074]
In FIG. 4, the locus of the
[0075]
As described above, the space extending in front of the screen is divided into three regions, and the extended cursor (focus metaphor) that appeals to the user's vision indicates that the
[0076]
In the above-described embodiment, an example has been described in which the user recognizes that the
[0077]
FIG. 5 is a diagram illustrating an example of a change in brightness and hue of the
[0078]
Also, the boundaries and layers in the above-described embodiment are examples, and the boundaries can be deleted and the two layers can be combined. In this case, it becomes possible by setting the attribute dependent on the layer to the same for the adjacent layer. The user can also freely set the z-coordinate value that defines the boundary. Further, by interpreting the meaning of each layer separately, for example, in an extreme case, it is possible to reverse the half-pushed layer and the fully-pushed layer. In this case as well, the mouse command may be activated by determining which boundary and how the
[0079]
Note that at least one of the hue, saturation, and brightness of the image displayed on the extended cursor may be changed according to the z-coordinate value of the
[0080]
The user may arbitrarily set the color of the outline of the extended cursor. Furthermore, the color of the outline of the extended cursor may be determined by taking the exclusive OR of the color of the outline of the extended cursor arbitrarily set and the color of the boundary area of the extended cursor in the image displayed on the screen. Good. With this, when the color of the contour set in advance for the extended cursor and the color occupying the boundary area of the contour of the extended cursor in the image displayed on the screen are the same, the color of the contour of the extended cursor is made different. , The extended cursor is clearly visible.
[0081]
In addition, the maximum allowable time until each operation is completed can be set by the user, but the click interval time required for identifying the click operation by the air operation may be longer than the set value of the two-dimensional mouse. preferable. Specifically, about 1.9 seconds of the double click, which exceeds 0.5 seconds that can be set in the basic software OS, was experimentally appropriate at present.
[0082]
【The invention's effect】
The three-dimensional instruction input device according to the present invention provides each of a plurality of divided regions in a three-dimensional space spread over the front of the screen by feedback (change in focus metaphor, hue, etc.) appealing to at least one of the five senses. A function of a two-dimensional mouse, such as clicking, double-clicking, and dragging, in which a user perceives a passing state of the light emitting means with respect to the boundary and according to a way of passing the light emitting means with respect to the boundary of each area without using a mechanical mechanism. Can be executed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration and a data flow of a three-dimensional instruction input device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating space division when a personal computer is viewed from the side.
FIG. 3A is a diagram showing a state in which an extended cursor points to the center of two columns of icons on the right side as viewed from the front, and FIG. FIG. 7 is a diagram illustrating a state of an extended cursor on a screen when approaching.
FIG. 4 is a diagram illustrating space division and movement of LEDs in a space when the personal computer is viewed from above.
FIG. 5 is a diagram illustrating an example of changes in hue and brightness of an image in an extended cursor displayed on a screen.
[Explanation of symbols]
10 LED
12 3D measurement device
14 3D mouse command generator
16 Mouse Driver
18 OS
20 Image Driver
22 PC
32 Extended cursor
Claims (19)
前記発光手段から発光された光を受光すると共に、受光した位置に基づいて前記発光手段の3次元位置を計測する計測手段と、
所定の情報を表示する画面の前面に、該画面から前記指示入力者方向に向かって分割された複数の空間を想定し、前記計測手段によって計測された3次元位置に基づいて、前記発光手段が前記複数の空間の境界を通過する状態を判断し、判断した状態に応じて前記指示入力者の五感の少なくとも1つに訴えるフィードバック変化させることによって2次元マウスとしての機能を実行する実行手段と、
を含む3次元指示入力装置。A light emitting means that can be worn by an instruction input person;
Measuring means for receiving the light emitted from the light emitting means and measuring a three-dimensional position of the light emitting means based on the received position;
On the front of a screen displaying predetermined information, assuming a plurality of spaces divided from the screen in the direction of the instructor, based on a three-dimensional position measured by the measuring means, Executing means for executing a function as a two-dimensional mouse by determining a state of passing through the boundary of the plurality of spaces, and performing a feedback change appealing to at least one of the five senses of the instruction input person according to the determined state;
And a three-dimensional instruction input device.
前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、
所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段と、
を含む3次元指示入力装置。Light-emitting means that can be worn on the hand or finger of the instruction input person;
Measuring means for receiving light emitted from the light emitting means and measuring a three-dimensional position of the light emitting means from the received light;
A plane substantially coincident with the screen displaying the predetermined information is defined as an xy plane, and a space in front of the screen is defined as a first area in the z-axis direction perpendicular to the xy plane in the order from the screen closer to the screen. , The second area, and the third area are divided into three areas, and the light emission for each boundary that divides the three areas from the z-coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means. Judging the way of passing through the means, and selecting, clicking, double-clicking, dragging and dropping, depending on the way of passing the means, and giving feedback giving at least one of the five senses of the instruction inputting person. Execution means for executing a function of a two-dimensional mouse including:
And a three-dimensional instruction input device.
前記実行手段は、前記発光手段が該2つの領域の境界を一方向に通過したときに、2次元マウスにおけるドラッグの機能を実行し、該境界を逆方向に通過したときに、2次元マウスにおけるドロップの機能を実行する請求項12乃至請求項14のいずれか1項記載の3次元指示入力装置。The first area is divided into an area near the screen and an area near the second area,
The execution means executes a drag function of the two-dimensional mouse when the light emitting means passes through the boundary between the two regions in one direction, and executes the drag function of the two-dimensional mouse when the light emitting means passes the boundary in the opposite direction. The three-dimensional instruction input device according to any one of claims 12 to 14, which executes a drop function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003096366A JP4172307B2 (en) | 2003-03-31 | 2003-03-31 | 3D instruction input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003096366A JP4172307B2 (en) | 2003-03-31 | 2003-03-31 | 3D instruction input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004303000A true JP2004303000A (en) | 2004-10-28 |
JP4172307B2 JP4172307B2 (en) | 2008-10-29 |
Family
ID=33408459
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003096366A Expired - Fee Related JP4172307B2 (en) | 2003-03-31 | 2003-03-31 | 3D instruction input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4172307B2 (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005070996A (en) * | 2003-08-22 | 2005-03-17 | Fuji Xerox Co Ltd | Instruction input device, instruction input system, instruction input method, and program |
JP2007104523A (en) * | 2005-10-07 | 2007-04-19 | Sony Corp | Remote control system, device and method for remote control, device and method for information processing, and computer program |
JP2008217760A (en) * | 2006-12-04 | 2008-09-18 | Stmicroelectronics Srl | Sensor device with circuit for detecting single or multiple events and generating corresponding interrupt signal |
JP2009116769A (en) * | 2007-11-09 | 2009-05-28 | Sony Corp | Input device, control method for input device and program |
JP2009530726A (en) * | 2006-03-22 | 2009-08-27 | フオルクスワーゲン・アクチエンゲゼルシヤフト | Interactive operating device and method for operating interactive operating device |
US7847787B1 (en) * | 2005-11-12 | 2010-12-07 | Navisense | Method and system for directing a control action |
JP2011521381A (en) * | 2008-05-19 | 2011-07-21 | マイクロソフト コーポレーション | Accessing menus using drag operations |
JP2012512453A (en) * | 2008-12-15 | 2012-05-31 | ソニー エリクソン モバイル コミュニケーションズ, エービー | Electronic device, system, method and computer program for detecting a user input device having an optical marker |
JP2014082605A (en) * | 2012-10-15 | 2014-05-08 | Canon Marketing Japan Inc | Information processing apparatus, and method of controlling and program for the same |
JP2014179111A (en) * | 2014-04-23 | 2014-09-25 | Casio Comput Co Ltd | Information output device and program |
JP2014186581A (en) * | 2013-03-25 | 2014-10-02 | Konica Minolta Inc | Gesture discrimination device, gesture discrimination method and computer program |
WO2014181876A1 (en) * | 2013-05-10 | 2014-11-13 | 株式会社ゲッシュ | Input assistance device, input assistance method, and program |
JP2015158930A (en) * | 2015-04-06 | 2015-09-03 | コニカミノルタ株式会社 | Gesture discrimination device, gesture discrimination method, and computer program |
JP2018505454A (en) * | 2015-11-20 | 2018-02-22 | 小米科技有限責任公司Xiaomi Inc. | Air mouse remote control optimization method, apparatus and air mouse remote control |
JP2018528551A (en) * | 2015-06-10 | 2018-09-27 | ブイタッチ・コーポレーション・リミテッド | Gesture detection method and apparatus on user reference space coordinate system |
US11153472B2 (en) | 2005-10-17 | 2021-10-19 | Cutting Edge Vision, LLC | Automatic upload of pictures from a camera |
WO2021253715A1 (en) * | 2020-06-15 | 2021-12-23 | 歌尔股份有限公司 | Method and device for determining double-click action on earphones, and earphones |
JP7453450B2 (en) | 2019-10-10 | 2024-03-19 | マクセル株式会社 | Method of operation |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101815972B1 (en) | 2010-12-30 | 2018-01-09 | 삼성전자주식회사 | Apparatus and method for sensing high precision signal using infrared light |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62165687A (en) * | 1986-01-17 | 1987-07-22 | 富士通株式会社 | Cursor display system |
JPH05329155A (en) * | 1992-05-29 | 1993-12-14 | Toshiba Corp | Ultrasonic diagnostic system |
JPH0612177A (en) * | 1992-06-29 | 1994-01-21 | Canon Inc | Information inputting method and device therefor |
JPH06301477A (en) * | 1993-04-16 | 1994-10-28 | Kyoto Densoku Kk | Input device for pointed position of three-dimensional space |
JPH0816137A (en) * | 1994-06-29 | 1996-01-19 | Nec Corp | Three-dimensional coordinate input device and cursor display control system |
JPH09251341A (en) * | 1996-03-18 | 1997-09-22 | Fujitsu Ltd | Reaction area enlarging device and method for magnifying area reacting to selection operation on display screen |
JPH1185453A (en) * | 1997-09-08 | 1999-03-30 | Meidensha Corp | Window display processing method |
JP2000056917A (en) * | 1998-08-11 | 2000-02-25 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional coordinate indicating device |
JP2001357408A (en) * | 2000-06-13 | 2001-12-26 | Namco Ltd | Information providing system for game and information storage medium |
-
2003
- 2003-03-31 JP JP2003096366A patent/JP4172307B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62165687A (en) * | 1986-01-17 | 1987-07-22 | 富士通株式会社 | Cursor display system |
JPH05329155A (en) * | 1992-05-29 | 1993-12-14 | Toshiba Corp | Ultrasonic diagnostic system |
JPH0612177A (en) * | 1992-06-29 | 1994-01-21 | Canon Inc | Information inputting method and device therefor |
JPH06301477A (en) * | 1993-04-16 | 1994-10-28 | Kyoto Densoku Kk | Input device for pointed position of three-dimensional space |
JPH0816137A (en) * | 1994-06-29 | 1996-01-19 | Nec Corp | Three-dimensional coordinate input device and cursor display control system |
JPH09251341A (en) * | 1996-03-18 | 1997-09-22 | Fujitsu Ltd | Reaction area enlarging device and method for magnifying area reacting to selection operation on display screen |
JPH1185453A (en) * | 1997-09-08 | 1999-03-30 | Meidensha Corp | Window display processing method |
JP2000056917A (en) * | 1998-08-11 | 2000-02-25 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional coordinate indicating device |
JP2001357408A (en) * | 2000-06-13 | 2001-12-26 | Namco Ltd | Information providing system for game and information storage medium |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005070996A (en) * | 2003-08-22 | 2005-03-17 | Fuji Xerox Co Ltd | Instruction input device, instruction input system, instruction input method, and program |
JP4622792B2 (en) * | 2005-10-07 | 2011-02-02 | ソニー株式会社 | Remote operation system, remote operation device, information processing device, remote operation method, information processing method, and computer program |
JP2007104523A (en) * | 2005-10-07 | 2007-04-19 | Sony Corp | Remote control system, device and method for remote control, device and method for information processing, and computer program |
US11818458B2 (en) | 2005-10-17 | 2023-11-14 | Cutting Edge Vision, LLC | Camera touchpad |
US11153472B2 (en) | 2005-10-17 | 2021-10-19 | Cutting Edge Vision, LLC | Automatic upload of pictures from a camera |
US7847787B1 (en) * | 2005-11-12 | 2010-12-07 | Navisense | Method and system for directing a control action |
US9671867B2 (en) | 2006-03-22 | 2017-06-06 | Volkswagen Ag | Interactive control device and method for operating the interactive control device |
JP2009530726A (en) * | 2006-03-22 | 2009-08-27 | フオルクスワーゲン・アクチエンゲゼルシヤフト | Interactive operating device and method for operating interactive operating device |
JP2008217760A (en) * | 2006-12-04 | 2008-09-18 | Stmicroelectronics Srl | Sensor device with circuit for detecting single or multiple events and generating corresponding interrupt signal |
US8164577B2 (en) | 2007-11-09 | 2012-04-24 | Sony Corporation | Input device, control method of input device, and program |
JP2009116769A (en) * | 2007-11-09 | 2009-05-28 | Sony Corp | Input device, control method for input device and program |
US9563352B2 (en) | 2008-05-19 | 2017-02-07 | Microsoft Technology Licensing, Llc | Accessing a menu utilizing a drag-operation |
JP2011521381A (en) * | 2008-05-19 | 2011-07-21 | マイクロソフト コーポレーション | Accessing menus using drag operations |
JP2012512453A (en) * | 2008-12-15 | 2012-05-31 | ソニー エリクソン モバイル コミュニケーションズ, エービー | Electronic device, system, method and computer program for detecting a user input device having an optical marker |
JP2014082605A (en) * | 2012-10-15 | 2014-05-08 | Canon Marketing Japan Inc | Information processing apparatus, and method of controlling and program for the same |
JP2014186581A (en) * | 2013-03-25 | 2014-10-02 | Konica Minolta Inc | Gesture discrimination device, gesture discrimination method and computer program |
US10275035B2 (en) | 2013-03-25 | 2019-04-30 | Konica Minolta, Inc. | Device and method for determining gesture, and computer-readable storage medium for computer program |
WO2014181876A1 (en) * | 2013-05-10 | 2014-11-13 | 株式会社ゲッシュ | Input assistance device, input assistance method, and program |
CN105190506A (en) * | 2013-05-10 | 2015-12-23 | 捷思株式会社 | Input assistance device, input assistance method, and program |
JP2014219938A (en) * | 2013-05-10 | 2014-11-20 | 株式会社ゲッシュ | Input assistance device, input assistance method, and program |
JP2014179111A (en) * | 2014-04-23 | 2014-09-25 | Casio Comput Co Ltd | Information output device and program |
JP2015158930A (en) * | 2015-04-06 | 2015-09-03 | コニカミノルタ株式会社 | Gesture discrimination device, gesture discrimination method, and computer program |
JP2018528551A (en) * | 2015-06-10 | 2018-09-27 | ブイタッチ・コーポレーション・リミテッド | Gesture detection method and apparatus on user reference space coordinate system |
JP2018505454A (en) * | 2015-11-20 | 2018-02-22 | 小米科技有限責任公司Xiaomi Inc. | Air mouse remote control optimization method, apparatus and air mouse remote control |
JP7453450B2 (en) | 2019-10-10 | 2024-03-19 | マクセル株式会社 | Method of operation |
WO2021253715A1 (en) * | 2020-06-15 | 2021-12-23 | 歌尔股份有限公司 | Method and device for determining double-click action on earphones, and earphones |
Also Published As
Publication number | Publication date |
---|---|
JP4172307B2 (en) | 2008-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4172307B2 (en) | 3D instruction input device | |
US11816296B2 (en) | External user interface for head worn computing | |
US11886638B2 (en) | External user interface for head worn computing | |
US11099653B2 (en) | Machine responsiveness to dynamic user movements and gestures | |
US20220083880A1 (en) | Interactions with virtual objects for machine control | |
KR102478420B1 (en) | The effect of user interface camera | |
US20200356238A1 (en) | Virtual Interactions for Machine Control | |
TW202105133A (en) | Virtual user interface using a peripheral device in artificial reality environments | |
JP2004341892A (en) | Instruction input device, instruction input method, and program | |
US20170336872A1 (en) | External user interface for head worn computing | |
EP2480955B1 (en) | Remote control of computer devices | |
US20170100664A1 (en) | External user interface for head worn computing | |
US20160025974A1 (en) | External user interface for head worn computing | |
US20170017323A1 (en) | External user interface for head worn computing | |
US20160026239A1 (en) | External user interface for head worn computing | |
WO2015195444A1 (en) | External user interface for head worn computing | |
WO2015179877A2 (en) | External user interface for head worn computing | |
WO2017015093A1 (en) | External user interface for head worn computing | |
CN111813214B (en) | Virtual content processing method and device, terminal equipment and storage medium | |
JP2011253398A (en) | Control system, control device, handheld apparatus, control method and program | |
CN105488832A (en) | Optical digital ruler | |
JP2008282367A (en) | Pointing system | |
JP4438351B2 (en) | Instruction input device, instruction input system, instruction input method, and program | |
JP7505113B2 (en) | Wearable terminal device, program, and display method | |
KR20240048522A (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080722 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4172307 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110822 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120822 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120822 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130822 Year of fee payment: 5 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |