JP2004303000A - Three-dimensional instruction input device - Google Patents

Three-dimensional instruction input device Download PDF

Info

Publication number
JP2004303000A
JP2004303000A JP2003096366A JP2003096366A JP2004303000A JP 2004303000 A JP2004303000 A JP 2004303000A JP 2003096366 A JP2003096366 A JP 2003096366A JP 2003096366 A JP2003096366 A JP 2003096366A JP 2004303000 A JP2004303000 A JP 2004303000A
Authority
JP
Japan
Prior art keywords
area
dimensional
light emitting
instruction input
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003096366A
Other languages
Japanese (ja)
Other versions
JP4172307B2 (en
Inventor
Yasunori Oda
保憲 黄田
Hiroyuki Hotta
宏之 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2003096366A priority Critical patent/JP4172307B2/en
Publication of JP2004303000A publication Critical patent/JP2004303000A/en
Application granted granted Critical
Publication of JP4172307B2 publication Critical patent/JP4172307B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To execute a function of a two-dimensional mouse such as click, double click or drag by use of three-dimensional information without using a mechanical mechanism. <P>SOLUTION: A space extending in the front of a screen is divided into three areas. When an LED 10 worn by a user goes and returns through the boundary between a semi-pressing layer and a full-pressing layer once in a certain fixed time while making the LED recognize the passage of the boundary of each area, the click operation of the two-dimensional mouse is executed, and when it goes and returns twice in the fixed time, the double click operation of the two-dimensional mouse is executed. When it is not returned to the semi-pressing layer for a fixed time after moved from the semi-pressing layer to the full-pressing layer, an object such as an icon is dragged, and when the LED 10 is returned to the semi-pressing layer, the operation of dropping the dragged object is executed. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、3次元指示入力装置に関し、特に、発光手段の3次元情報に基づいて指示入力する3次元指示入力装置に関するものである。
【0002】
【従来の技術】
パソコン等に対して指示入力するためのデバイスとして、従来より2次元マウスが広く用いられている。2次元マウスはx−y座標値を相対座標値としてパソコンに指示入力する。近年、この2次元マウスを用いて3つ目の座標値を入力する技術が提案されている。
【0003】
例えば、発光体としてLEDを指に装着し、LEDからの光を受光する受光部をパソコンの画面の上部に取付けることにより、容易に3次元マウスが達成される(例えば、特許文献1参照。)。ここで用いられるセンサは、光源のセンサに対する角度を求め、三角測量の原理により光源の3次元位置を求めるものである。LEDは光源としてのパワーをパソコンから受け取り、またマウスの基本動作であるクリックなどのシグナルは有線を通してパソコンの基本ソフトに送られる。即ち、発光体のそばに指で押すことのできるスイッチが装備されている。
【0004】
また、2次元上の2つのボールを回転させることによって、x、y軸方向の移動量を入力できるのみならず、角度や回転角も入力でき、z軸方向に対する入力も可能となるポインティングデバイス(例えば、特許文献2参照。)や、第一の方向に光変換素子を配列した第1の光センサアレイと、第1の方向とは別の第二の方向に光変換素子を配列した第2の光センサアレイとが移動するときに両者の出力変化に応じた信号を生成し、それにより(カーソルなどの)移動量や移動方向を決定する非接触方式の位置検出装置(例えば、特許文献3参照。)が知られている。
【0005】
さらに、指標をCCDカメラで認識してパソコンなどに対するコマンドとして解釈するリモコン装置(例えば、特許文献4参照。)や、電子ペンのなかに指で回転されるロータリースイッチが設けられ、その回転度合いによってグラフィカルパラメター(線分の太さ、色、陰影、グレイスケール)の変化の度合いを決定する座標入力用電子ペン(例えば、特許文献5参照。)や、ユーザの手首に装着されたRFIDの動きをアンテナにより認識させてから、RFIDの動きのパターンを他のデバイスへの入力コマンドとして解釈する。同様にアンテナが一つの場合、RFIDが認識されたりされなかったりする時系列のパターンをコマンドとして解釈する指示入力システム(例えば、特許文献6参照。)が知られている。
【0006】
また、米国Gyration Inc.社のGyromouseは、オートジャイロを内臓しており、空中操作でレーザーの方向を変えることができるポインティングデバイスであるが、重量が比較的大きく、大きさもジャイロのために比較的大きく、また多少高価である。
【0007】
さらに近年、カメラのシャッタ操作における半押しの概念を応用した、パソコンのキーボードで、カメラのシャッタのように強く押さないと文字が入力されないという特性を生かし、キーボードとノートバッドを重ねたデバイスが試作された。
【0008】
【特許文献1】
特開平10−9812号公報
【特許文献2】
特開平5−150900号公報
【特許文献3】
特開平11−24832号公報
【特許文献4】
特開平11−110125号公報
【特許文献5】
特開2000−47805号公報
【特許文献6】
特開2001−306235号公報
【0009】
【発明が解決しようとする課題】
しかしながら、上述した従来の3次元マウスは、クリックなどのシグナルが有線でパソコンの基本ソフトに送られることから明らかなように、2次元マウスと同様の操作性を有している。また、上述した従来のポインティングデバイスや指示入力システム等の他の指示入力デバイスも2次元マウスと同様の操作性を有している。
【0010】
さらに、米国Gyration Inc.社のGyromouse Presenterも、クリック等の操作は通常の2次元マウス同様、指による機械的操作に依存している。また、キーボードとノートバッドを重ねたデバイスでも、カーソルの操作は2次元情報に拘束されており、3次元情報を利用しているわけではない。
【0011】
すなわち、従来の指示入力デバイスの操作性は2次元上に拘束されている、という問題がある。
【0012】
本発明は、上述した問題を解決するためになされたものであり、クリック、ダブルクリック、ドラッグなどの2次元マウスの機能を、機械的メカニズムを利用せずに3次元情報を用いて実行することができる3次元指示入力装置を提供することを目的とする。
【0013】
【課題を解決するための手段】
上記目的を達成するために、本発明の3次元指示入力装置は、指示入力者に装着可能な発光手段と、前記発光手段から発光された光を受光すると共に、受光した位置に基づいて前記発光手段の3次元位置を計測する計測手段と、所定の情報を表示する画面の前面に、該画面から前記指示入力者方向に向かって分割された複数の空間を想定し、前記計測手段によって計測された3次元位置に基づいて、前記発光手段が前記複数の空間の境界を通過する状態を判断し、判断した状態に応じて前記指示入力者の五感の少なくとも1つに訴えるフィードバック変化させることによって2次元マウスとしての機能を実行する実行手段と、を含んで構成されている。
【0014】
また、本発明の3次元指示入力装置は、指示入力者の手または指に装着可能な発光手段と、前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段と、を含んで構成することもできる。
【0015】
発光手段は、指示入力者に装着可能であり、指や手などに装着されることが好ましい。発光手段は、光を発するものであれば特に限定されず、例えばLEDとすることができる。計測手段は、発光手段からの光を受光すると共に、発光手段の3次元位置を受光した光から計測する。
【0016】
一方、指示入力者が視認する画面には所定の情報が表示される。実行手段は、画面に略一致する平面をx−y平面とし、画面の前面の空間を、該x−y平面に対して垂直なz軸方向に画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉える。更に、実行手段は、計測手段により得られる発光手段の3次元位置のz座標値から3つの領域の各境界に対する発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにする。
【0017】
すなわち、計測手段により指示入力者の指や手の動きに応じて変化する発光手段の3次元位置を計測することによって、実行手段は、発光手段の各境界に対する通過の仕方を判断できる。さらに、実行手段は、指示入力者に発光手段の3次元位置をフィードバックにより認識させことができるため、指示入力者は発光手段の位置を確認しながら、すなわち、画面前面の空間を3つの領域に分割する各境界に対する通過状態を確認しながら、発光手段を装着した指や手を動かすことができる。
【0018】
実行手段は、このようにフィードバックを掛けつつ、発光手段の各境界に対する通過の仕方に応じて、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する。
【0019】
従って、本発明によれば、2次元マウスの機能を、機械的メカニズムを利用せずに3次元情報により実行することができる。
【0020】
本発明の前記実行手段は、前記フィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させると共に、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させることにより前記指示入力者の視覚に訴えることができる。
【0021】
実行手段は、フィードバックとして、画面に発光手段のx−y平面上の位置に小ウィンドウを表示させる。小ウィンドウの形は特に限定されず、矩形であってもよいし、円形であってもよい。実行手段は、小ウィンドウ内に、画面に表示される画像のうち、発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させる。さらに、発光手段のz座標値に応じて小ウィンドウ内に表示する画像の拡大率を変化させて指示入力者の視覚に訴える。
【0022】
このように、発光手段のz座標値に応じて小ウィンドウ内に表示する画像の拡大率を変化させることにより、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0023】
前記実行手段は、前記発光手段が前記第2の領域側から前記第1の領域と前記第2の領域との境界に接近する場合に、該境界に接近するに従って前記拡大率を低減させ、該境界の通過時には前記拡大率が1となるようにして該境界を指示入力者に認知させることができる。
【0024】
これにより、拡大率の変化によって、指示入力者は発光手段が境界に接近しつつある状態を認知できる。また、拡大率が1となったときには、発光手段が境界を通過中であることを認知できる。従って、指示入力者は、明確に発光手段のz軸方向の位置を認識することができ、発光手段を装着した指または手を好適に動かして、2次元マウスの機能を実行させることができる。
【0025】
また、本発明の前記実行手段は、前記小ウィンドウ内に表示される画像の色相、彩度、明度の少なくともいずれか1つを、前記発光手段のz座標値に応じて変化させることができる。
【0026】
これにより、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0027】
さらに、本発明の前記実行手段は、前記発光手段が前記第3の領域から前記第2の領域に向かって移動する場合には、前記発光手段の移動に従って前記小ウィンドウ内の明度を連続的に急激に大きくし、前記発光手段の移動により明度が所定の大きさとなった時点でその値を一定に維持し、前記発光手段が移動して所定のz座標値を越えたときには、前記第2の領域と前記第1の領域との境界に近づくに従って明度を再び小さくし、該境界を含む該境界前後の所定の領域では前記小ウィンドウ内の明度を前記画面の対応する部分画像の明度と同じにして前記画面に表示される画像がそのまま見えるようにし、前記発光手段が前記第2の領域と前記第1の領域の境界を通過して前記第1の領域に移動した後には、前記小ウィンドウ内の色相を前記第2の領域とは異なる色相に変え、前記発光手段が前記第2の領域と前記第1の領域の境界から離れて前記画面に近づくに従って急激に明度を上げ、前記小ウィンドウ内の色相が明らかになるようにして前記指示入力者の視覚に訴えるようにすることができる。
【0028】
これにより、発光手段のz座標値に応じて小ウィンドウの属性(色相、明度、彩度など)は変化するが、画面の画像が小ウィンドウ内に見える状態は維持される。
【0029】
具体的には、発光手段が第3の領域から第2の領域に向かって移動する場合には、発光手段の移動に従って小ウィンドウの明度を連続的に急激に大きくする。これにより、指示入力者は、発光手段が第2の領域に向かいつつあることを認識できる。
【0030】
更に、実行手段は、発光手段の移動により明度が所定の大きさとなった時点で明度の値を一定に維持する。これにより指示入力者は第2の領域を移動中であることを認識できる。
【0031】
更に、実行手段は、発光手段が移動して所定のz座標値を越えたときには、第2の領域と第1の領域との境界に近づくに従って明度を再び小さくしていく。これにより、指示入力者は、発光手段が第1の領域に接近しつつあることを認識できる。
【0032】
更に、実行手段は、発光手段が第2の領域と第1の領域との境界を含む該境界前後の所定の領域にあるときには小ウィンドウ内の明度を画面の対応する部分画像の明度と同じにして画面に表示される画像がそのまま見えるようにする。これにより、指示入力者は発光手段が境界付近に位置することを認識できる。
【0033】
更に、実行手段は、発光手段が第2の領域と第1の領域の境界を通過して第1の領域に移動した後には、小ウィンドウ内の色相を第2の領域とは異なる色相に変える。これにより、指示入力者は、発光手段が第2の領域から第1の領域に移動したことを認識できる。
【0034】
更に、実行手段は、発光手段が第2の領域と第1の領域の境界から離れて画面に近づくに従って急激に明度を上げ、小ウィンドウ内の色相が明らかになるようにする。これにより、指示入力者は、発光手段が、第1の領域を移動中であることを認識できる。
【0035】
本発明の前記実行手段は、前記小ウィンドウ内に表示される画像の凹凸状態を、前記発光手段のz座標値に応じて変化させることができる。また、本発明の前記実行手段は、前記小ウィンドウの大きさまたは/および形状を、前記発光手段のz座標値に応じて変化させることもできる。
【0036】
なお、小ウインドウの大きさは、境界領域をこえる時には少なくともローカルで最小とし、ある同じ属性の領域をLEDなどの発光手段が移動中である場合には変化をさせないようにすれば、より一層距離感が認識しやすくなる。
【0037】
これにより、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0038】
本発明において、前記小ウィンドウの輪郭の色を任意に設定可能とすることもできる。なお、前記実行手段は、前記任意に設定された前記小ウィンドウの輪郭の色と、前記画面に表示される画像における前記小ウィンドウの境界域の色との排他的論理和をとって前記小ウィンドウの輪郭の色を定めることもできる。
【0039】
これにより、設定された小ウィンドウの輪郭の色が、画面に表示される画像における小ウィンドウの境界域の色と同一となった場合であっても、その色と異なる色で輪郭が表示されるため、指示入力者が小ウィンドウを見失うことを防止できる。
【0040】
なお、小ウィンドウによるフィードバックに限らず、本発明の前記実行手段は、前記フィードバックとして、前記発光手段が前記各境界を通過する際に、音を用いて前記指示入力者の聴覚に訴えるようにすることもできる。
【0041】
これにより、小ウィンドウによるフィードバックと同様に、指示入力者は、発光手段のz軸方向の位置を認識することができる。
【0042】
本発明の前記実行手段は、前記発光手段が前記第2の領域側から前記第1の領域と前記第2の領域との境界を通過したときに、2次元マウスにおける選択の機能を実行することができる。また、前記実行手段は、前記発光手段が前記第1の領域と前記第2の領域との境界を所定の時間内に1回一方向に通過したときに、2次元マウスにおけるの選択の機能を実行するようにしてもよい。前記実行手段は、前記発光手段が前記第2の領域内に定義されている別の境界を所定の時間内に1回一方向に通過したときに、2次元マウスにおけるの選択の機能を実行するようにしてもよい。
【0043】
本発明の前記実行手段は、前記発光手段が、前記第1の領域と前記第2の領域との境界を所定の時間内に1回一方向に通過した後、逆方向に通過したときに、2次元マウスにおけるクリックの機能を実行することができる。
【0044】
また、本発明の前記実行手段は、前記発光手段が前記第1の領域と前記第2の領域との境界を所定の時間内に2回同方向に通過したときに、2次元マウスにおけるダブルクリックの機能を実行することができる。
【0045】
さらに、本発明において、前記第1の領域は、前記画面に近い領域と前記第2の領域に近い領域とに分割されており、前記実行手段は、前記発光手段が該2つの領域の境界を一方向に通過したときに、2次元マウスにおけるドラッグの機能を実行し、該境界を逆方向に通過したときに、2次元マウスにおけるドロップの機能を実行することができる。
【0046】
このように、発光手段の各境界に対する通過の仕方に応じて、選択、クリック、ダブルクリックや、ドラッグ・アンド・ドロップといった2次元マウスの機能を実行するため、機械的メカニズムを利用せずにすむ。
【0047】
また、本発明の前記実行手段は、前記発光手段が前記第2の領域のうち前記第1の領域に近い所定の領域内を通過しているときは、前記指示入力者により指示入力されるx−y平面上の位置を該所定の領域に入った時点の前記発光手段のx−y平面上の位置に維持することもできる。
【0048】
これにより、第2の領域のうち第1の領域に近い所定の領域内を通過しているときに、指示入力者により指示入力されるx−y平面上の位置が固定されるため、該位置にあるアイコンなどのオブジェクトを選択したり、オブジェクトをクリックしたりするなどの2次元マウスの機能を実行することができる。
【0049】
本発明において、前記所定の時間を変更可能にしてもよい。これにより、指示入力者の使い勝手を向上させることができる。
【0050】
【発明の実施の形態】
以下、図面を参照して、本発明の実施の形態について詳細に説明する。
【0051】
図1は、本発明の実施の形態に係る3次元指示入力装置の構成およびデータの流れを示すブロック図である。図示されるように、3次元指示入力装置は、ユーザの指や手等に装着された発光体(LED)10と、LED10からの光を受光することによりLED10の3次元位置を計測する3D計測装置12と、3D計測装置12で計測された3次元位置を示す座標値のうちz座標値の軌跡からクリック、ダブルクリック、ドラッグ・アンド・ドロップのコマンド(マウス・コマンドと呼称する)を生成してx−y座標値と共にパソコン22に出力する3Dマウス・コマンド生成装置14とを備えている。更に、パソコン22には、3Dマウス・コマンド生成装置14からx−y座標値と共にマウス・コマンドを入力するマウスドライバ16と、画像処理を行うイメージドライバ20と、マウスドライバ16に入力されたコマンドに基づいて、イメージドライバ20を必要に応じて起動させる等して指示入力に関する処理を行うOS18とが格納されている。
【0052】
ここで、x−y座標値は、パソコン22の画面(図2参照)に略一致する平面をx−y平面とした場合の座標値であり、z座標値は、x−y平面に垂直なz軸方向の座標値である。
【0053】
なお、上述した3次元指示入力装置のハードウェアは、特開平10−9812号公報に記載された位置検出の技術を用いて構成されている。もちろん、3次元位置計測ができるものであれば何でも良いが、特開平10−9812号公報に記載の方式によれば比較的安価に実現できる。
【0054】
図2は、パソコン22を横から見た図である。パソコン22の画面はMで示されている。パソコン22の画面Mの前面に広がる3次元空間のうち、最も画面Mに近い層を全押し下層、次に近い層を全押し上層とし、あわせて全押し層(第1の層)と呼ぶ。その両者の境界を境界Bと呼ぶ。さらに手前の層二層を半押し層(第2の層)と呼び、それぞれ画面Mに近い方から半押し下層、半押し上層と呼ぶ。その両者の境界を境界Aと呼ぶ。また、半押し層と全押し層の境界を境界Kと呼ぶ。ユーザに最も近い層、すなわち、画面Mから最も遠い層を自由層(第3の層)と呼ぶ。自由層と半押し層の境界を境界Fと呼ぶ。
【0055】
自由層は、LED10をどのように動かそうとも単にカーソルがその動きに対応して動くだけでなんのアクションもなされない層である。2次元マウスにおいてマウスクリックをせずにマウスを動かしている状態に相当する。
【0056】
半押し層の手前の層(半押し上層)にLED10がある場合は、後に説明する拡張カーソルの属性に変化があり、ユーザがオブジェクトを選択しつつある状態である。また、LED10が半押し層の画面側(半押し下層)に移動したときには、カーソルのx−y座標値は、境界Aを通過した時の値に固定される。
【0057】
半押し層と全押し層との間をLED10が通過する仕方によって、マウス・コマンドが生成される。
【0058】
ここで、拡張カーソルについて説明する。本実施の形態において、拡張カーソルは従来のカーソルとは異なり、パソコン22のデスクトップ上で従来のカーソルが指示している点(以下、カーソル点と呼称する)を含む小領域を円弧などで囲い、改めて小ウインドウとして表示したものである。図3(a)及び図3(b)に示されるように、カーソル点30を中心とする円形の内部が小ウィンドウ(拡張カーソル)32に表示されている。従来のカーソル34は、その拡張カーソル32の内部、特に中心部に重ねて表示されている。
【0059】
なお、図3(a)は、向かって右側の2列のアイコンの中心部分を拡張カーソル32が指示している状態を表しており、幾分デスクトップ状のアイコンが拡大されているのが分かる。
【0060】
また、図3(b)は、LED10が境界Kに近づいたときの画面上の拡張カーソル32の状態を表している。図示されるように、拡張カーソル32の半径は最小になっており、円形内の画像も背景と同じ、即ち拡大率が1となっている。
【0061】
このように拡張カーソル32は、半押し層でLED10が外側から境界Kに近づくにつれて、カメラの焦点を合わせるように画像が拡大された状態から実際の大きさに変化したり、あるいは半径が小さくなることによって絞りが絞られていくことを連想させる焦点メタファーを構成している。
【0062】
この拡張カーソル32は、OSがイメージドライバ20を用いて表示する。また、従来のカーソル34は、OSがマウスドライバ16を用いて拡張カーソル32に重ねて表示する。
【0063】
次に、マウス・コマンドが生成される場合の3次元指示入力装置の処理の流れについて説明する。
【0064】
図1に示されるように、LED10が3D計測装置12の前にあると、その位置が3D計測装置12で測定される。ここでマウス・コマンド生成のために必要なものはLED10のz座標値である。z座標値は3D計測装置12からの距離で測られるが、パソコン22の画面Mと3D計測装置12の位置が一致していれば、この距離は画面Mからの距離となる。図1の矢印で示されるように、手前に伸びる方向がz座標値の正の方向である。
【0065】
ユーザが手を動かすとそれにつれて手に装着されたLED10の位置が変わり、そのz座標値を含む3次元座標値が3D計測装置12を通じて3Dマウス・コマンド生成装置14に送られる。
【0066】
3Dマウス・コマンド生成装置14は、そのz座標値の時系列から画面M手前の各境界領域をある一定時間内にどのような形で通過したかを調べる。なお、この時間は、ユーザにより任意に設定可能である。3Dマウス・コマンド生成装置14では、その仕方によって、クリック、ダブルクリック、ドラッグの3つの重要なコマンドに解釈される。解釈されたコマンドのシグナルはパソコン22のマウスドライバ16に送られる。この時点でマウスドライバ16は2次元マウスであろうと、3次元マウスであろうと同じデータタイプを受け取ることができる。従って、後はパソコン22側の処理になる。本実施の形態では拡張カーソル32を小ウインドウで表現するので、OSは画像を処理しているイメージドライバ20等を必要に応じて起動させ、図3(a)及び図3(b)に示されるようにパソコン22の画面Mに拡張カーソル32を表示させる。また、マウスドライバ16も同時に起動されており、OSはマウスドライバ16により拡張カーソル32の画像に従来のカーソル34を重ねて画面M上に表示する。
【0067】
この拡張カーソル32内部の画像はLED10が自由層にあるときには本来の画像と変わらず、LED10が半押し層に入ると拡大表示(拡張カーソルそのものの大きさと内部表示される画像)される。また、LED10が半押し層から全押し層へ向かうにつれて、即ち境界Kに向かうにつれて、拡大画像の倍率が1になる。特に、境界Kの寸前の所定距離内では多少LED10のz座標値が動いても倍率は1とする。これはカメラのシャッタの半押し状態を再現したもので、特にシャッタが下りる直前はシャッタの硬さが増し、変化がないことも表現されている。
【0068】
以下、図4を用いて、LED10の動きと、生成されるマウス・コマンドとの対応関係について詳細に説明する。
【0069】
図4は、パソコン22を上から見た図である。また、図に示される太実線及び点線はLED10の動きに対応した軌跡を示している。なお、太実線はカーソル点30のx−y座標値が固定されている(ロックされている)ことを示し、点線部分はx−y座標値は固定されていない(ロック解除されている)ことを示している。
【0070】
LED10が半押し上層から境界Aを越して半押し下層に入ると、境界Aを通過する時点の値でカーソル点30のx−y座標値がロックされる。このとき、オブジェクトが指示されていれば、後にLEDがKを通過すれば通過時の通過点のx−y座標値に関わらずそのオブジェクトが選択される。即ち、LED10が移動して境界Kを通過した後、境界Bには到達せずに、再び境界Kを逆方向に通過して半押し上層に戻ると、「クリック」のコマンドがパソコン22のマウスドライバ16に送られる(軌跡40)。
【0071】
また、LED10が、半押し上層から境界Aを越して半押し下層に入った後、半押し層上部に戻らず、もう一度境界Kを越し、しかし、境界Bに到達せず、再び境界Kを逆方向に戻ると、「ダブルクリック」のコマンドがパソコン22に送られる。(軌跡42)。
【0072】
また、LED10が半押し上層から境界A、境界Kを通り過ぎ、次の境界Bを越すと、ドラッグが可能な領域(全押し下層)に入る。この時点でカーソル点30のx−y座標値のロックが解除され、全押し下層でカーソル点30で指示されているオブジェクトがLED10のx−y座標の動きに従ってドラッグされる。即ち、「ドラッグ」のコマンドがパソコン22に送られる。LED10が再び全押し下層からが境界Bを逆方向に通過し、また境界Kをさらに通過して半押し層に戻ると、その時点でx−y座標値がロックされ、オブジェクトがドロップされる。即ち、「ドロップ」のコマンドがパソコン22に送られる(軌跡44)。
【0073】
x−y座標値のロックの状態と各境界との対応関係について詳細に説明する。基本的には、どの場合でもx−y座標値がロックされるのは、LED10が半押し上層から半押し下層へ境界Aを越したときである。また、ロックが解除されるのは、クリックの場合には同じく境界Aを逆方向に通過したときであり、ダブルクリックの場合は境界Kを2回目に逆方向に戻ってきた時点である。また、LED10が境界Bを越えて全押し下層に入るとx−y座標のロックははずされる。これはドラッグ可能な領域に入ったためで、当然である。ドラッグを行ってオブジェクトを移動した後、LED10が再び全押し上層に戻ってきたときには、再びロックされる。これはカーソルからオブジェクトをはずすための便宜である。さらにLED10が境界Kを越して半押し層に戻ると、再びロックははずされる。この時点ではLED10が半押し上層に戻ってきていないので、オブジェクトの選択がなされることはない。
【0074】
なお、図4において、クリックとダブルクリックの際のLED10の軌跡は、xまたはy座標値を動いているように見えるが、これらは誇張して表現したものであり、実際は殆ど同じ位置にある。また、実線部分ではパソコン22のマウスドライバ16に対する値は一定値である。
【0075】
以上説明したように、画面の前面に広がる空間を3つの領域に分割し、ユーザの視覚に訴えるような拡張カーソル(焦点メタファー)によって、ユーザが装着するLED10が各領域の境界を通過したことを認知させつつ、半押し層と全押し層との境界をある一定時間内に一度だけ往復した場合には、2次元マウスのクリックの動作を実行し、一定時間内に二度往復した場合には、2次元マウスのダブルクリックの動作を実行し、半押し層から全押し層に移動しても一定時間半押し層に戻らない場合には、カーソルが指示するアイコン等のオブジェクトをドラッグし、LED10が半押し層に戻ったときに、ドラッグしたオブジェクトをドロップするようにしたため、クリック、ダブルクリック、ドラッグなどのマウスの基本動作を、機械的メカニズムを利用せずに空中でのLED10の動き(3次元座標値)により実行させることができる。
【0076】
なお、上述した実施の形態では、拡張カーソル32を用いてLED10が3次元空間上の境界を通過したことをユーザに認知させる例について説明したが、例えば、各境界を通過する際それに固有な音を発生させて操作の助けとすることも可能である。さらに、各層での最大拡大率や、色相などの色情報、拡張カーソル32の大きさ(半径等)をユーザが自由に自分の好みや使い勝手に応じて変更することが可能である。
【0077】
図5は、LED10のz座標位置に応じた拡張カーソル32の明度及び色相の変化の一例を示した図である。図示されるように、色相が境界Kを境にして緑から赤に変わる。即ち、ユーザが境界K前後にLED10を動かすと色が変わることになり、ユーザに対して境界がどこにあるのかの認知度を高める。また、半押し層(図5において境界Kの左側)や全押し層(図5において境界Kの右側)において明度を変化させる。特に、半押し層では、境界Kに向かって拡張カーソルに取り込まれた画像の拡大率を1に近づけると共に、色を拡張カーソルに取り込んだ画像の色相に近づけることによって、焦点を合わせてはっきり見える焦点メタファーを構成することも可能である。
【0078】
また、上述した実施の形態における境界や層は一例であり、境界を削除して2つの層を合体させることも可能である。この場合には、層に依存する属性を隣接する層についても同じに設定することによって可能となる。また、境界を定めるz座標値もユーザが自由に設定しなおすことも可能である。さらに、各層の意味を別に解釈することによって、例えば、極端な例としては、半押し層と全押し層を逆転させることも可能である。この場合も、マウス・コマンドを起動させるには、LED10がどの境界をどのように通過したかによって決定するようにすればよい。
【0079】
なお、拡張カーソルに表示される画像の色相、彩度、明度の少なくともいずれか1つを、LED10のz座標値に応じて変化させるようにすることもできる。また、拡張カーソルに表示される画像の凹凸状態を、LED10のz座標値に応じて変化させるようにすることもできる。さらに、拡張カーソルの大きさや形状を、LED10のz座標値に応じて変化させるようにしてもよい。
【0080】
また、拡張カーソルの輪郭の色はユーザが任意に設定してもよい。さらに、任意に設定された拡張カーソルの輪郭の色と、画面に表示される画像における拡張カーソルの境界域の色との排他的論理和をとって拡張カーソルの輪郭の色を定めるようにしてもよい。これにより、拡張カーソルに予め設定された輪郭の色と、画面に表示される画像における拡張カーソルの輪郭の境界域に占める色とが同一となった場合に、拡張カーソルの輪郭の色を異ならせて表示するため、拡張カーソルが明瞭に視認される。
【0081】
また、それぞれの操作が完了するまでの最大許容時間もユーザが設定可能であるが、空中操作によるクリック操作の識別に要するクリック間隔時間は2次元マウスの設定値にくらべて時間を長くすることが好ましい。具体的には、ダブルクリックは基本ソフトOSで設定可能な0.5秒を越して、約1.9秒くらいが実験的に現在のところ妥当であった。
【0082】
【発明の効果】
本発明に係る3次元指示入力装置は、五感の少なくとも1つに訴えるようなフィードバック(焦点メタファーや色相等の変化)によって、画面の前面に広がる3次元空間上の分割された複数の領域の各境界に対する発光手段の通過状態をユーザに認知させ、機械的メカニズムを利用せずに、発光手段の各領域の境界に対する通過の仕方に応じて、クリック、ダブルクリック、ドラッグなどの2次元マウスの機能を実行することができる、という効果を奏する。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る3次元指示入力装置の構成およびデータの流れを示すブロック図である。
【図2】パソコンを横から見た場合の空間分割を説明する図である。
【図3】図3(a)は、向かって右側の2列のアイコンの中心部分を拡張カーソルが指示している状態を表した図であり、図3(b)は、LEDが境界Kに近づいたときの画面上の拡張カーソルの状態を表した図である。
【図4】パソコンを上から見た場合の空間分割とLEDの空間上での動きを説明する図である。
【図5】画面に表示される拡張カーソル内の画像の色相及び明度の変化の一例を示した図である。
【符号の説明】
10 LED
12 3D計測装置
14 3Dマウス・コマンド生成装置
16 マウスドライバ
18 OS
20 イメージドライバ
22 パソコン
32 拡張カーソル
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a three-dimensional instruction input device, and more particularly to a three-dimensional instruction input device for inputting an instruction based on three-dimensional information of a light emitting unit.
[0002]
[Prior art]
Conventionally, a two-dimensional mouse has been widely used as a device for inputting instructions to a personal computer or the like. The two-dimensional mouse inputs and inputs xy coordinate values to a personal computer as relative coordinate values. In recent years, a technique for inputting a third coordinate value using this two-dimensional mouse has been proposed.
[0003]
For example, a three-dimensional mouse can be easily achieved by attaching an LED as a light emitter to a finger and attaching a light receiving unit for receiving light from the LED to an upper portion of a screen of a personal computer (for example, see Patent Document 1). . The sensor used here determines the angle of the light source with respect to the sensor, and determines the three-dimensional position of the light source based on the principle of triangulation. The LED receives power as a light source from a personal computer, and signals such as a click, which is a basic operation of a mouse, are sent to the basic software of the personal computer through a wire. That is, a switch that can be pressed by a finger is provided near the light emitting body.
[0004]
In addition, by rotating two balls in two dimensions, not only a movement amount in the x and y axis directions can be input, but also an angle and a rotation angle can be input, and a pointing device that enables input in the z axis direction ( For example, see Patent Document 2), a first optical sensor array in which light converting elements are arranged in a first direction, and a second optical sensor array in which light converting elements are arranged in a second direction different from the first direction. Non-contact type position detection device that generates a signal corresponding to the output change of the optical sensor array when the optical sensor array moves, and thereby determines the amount of movement and the direction of movement (for example, Patent Document 3) Cf.) is known.
[0005]
Further, a remote control device (for example, see Patent Document 4) for recognizing an index with a CCD camera and interpreting the index as a command for a personal computer or the like, and a rotary switch rotated with a finger in an electronic pen are provided. A coordinate input electronic pen (see, for example, Patent Document 5) that determines the degree of change in graphical parameters (line segment thickness, color, shading, gray scale), and movement of an RFID attached to a user's wrist. After being recognized by the antenna, the movement pattern of the RFID is interpreted as an input command to another device. Similarly, when there is one antenna, an instruction input system that interprets a time-series pattern in which an RFID is recognized or not recognized as a command is known (for example, see Patent Document 6).
[0006]
Gyration Inc., USA Gyromouse has a built-in auto gyro and is a pointing device that can change the direction of the laser by air operation, but it is relatively heavy, the size is relatively large for the gyro, and it is somewhat expensive. is there.
[0007]
Furthermore, in recent years, a prototype of a device that combines a keyboard and a notepad with a keyboard of a personal computer that applies the concept of half-pressing in the shutter operation of a camera, taking advantage of the characteristic that characters are not input unless you press it strongly like a camera shutter. Was done.
[0008]
[Patent Document 1]
JP-A-10-9812
[Patent Document 2]
JP-A-5-150900
[Patent Document 3]
JP-A-11-24832
[Patent Document 4]
JP-A-11-110125
[Patent Document 5]
JP 2000-47805 A
[Patent Document 6]
JP 2001-306235 A
[0009]
[Problems to be solved by the invention]
However, the above-described conventional three-dimensional mouse has the same operability as a two-dimensional mouse, as is apparent from the fact that a signal such as a click is transmitted to the basic software of a personal computer via a cable. Other instruction input devices such as the above-described conventional pointing device and instruction input system have the same operability as a two-dimensional mouse.
[0010]
Further, US Gyration Inc. Gymouse Presenter of the company also relies on mechanical operation with a finger for operations such as clicking, like a normal two-dimensional mouse. Further, even in a device in which a keyboard and a notepad are overlapped, the operation of a cursor is restricted by two-dimensional information and does not use three-dimensional information.
[0011]
That is, there is a problem that the operability of the conventional instruction input device is restricted two-dimensionally.
[0012]
The present invention has been made in order to solve the above-described problem, and it is an object of the present invention to execute two-dimensional mouse functions such as click, double-click, and drag using three-dimensional information without using a mechanical mechanism. It is an object of the present invention to provide a three-dimensional instruction input device capable of performing the following.
[0013]
[Means for Solving the Problems]
In order to achieve the above object, a three-dimensional instruction input device according to the present invention includes: a light emitting unit that can be worn by an instruction input person; a light receiving unit that receives light emitted from the light emitting unit; A measuring means for measuring a three-dimensional position of the means, and a plurality of spaces divided from the screen in the direction of the instruction input person on the front of a screen for displaying predetermined information, the measurement being performed by the measuring means. Based on the three-dimensional position, the state in which the light-emitting means passes through the boundaries of the plurality of spaces is determined, and the feedback change appealing to at least one of the five senses of the instruction input person is made in accordance with the determined state. Execution means for executing a function as a three-dimensional mouse.
[0014]
In addition, the three-dimensional instruction input device of the present invention includes a light-emitting unit that can be attached to a hand or a finger of an instruction input person, receives light emitted from the light-emitting unit, and detects the three-dimensional position of the light-emitting unit. Measurement means for measuring from the obtained light, and a plane substantially coinciding with a screen for displaying predetermined information as an xy plane, and a space in front of the screen in a z-axis direction perpendicular to the xy plane. The area is divided into three areas of a first area, a second area, and a third area in order from the closest to the screen, and the three areas are obtained from the z coordinate values of the three-dimensional position of the light emitting means obtained by the measuring means. A way of passing the light emitting means with respect to each boundary dividing the area is determined, and selection and click are performed so that feedback different depending on the way of passing the light and appealing to at least one of the five senses of the instruction input person is applied. , Double chestnut Click, and execution means for executing the function of the two-dimensional mouse comprising a drag-and-drop can also be configured to include.
[0015]
The light emitting means can be mounted on the instruction input person, and is preferably mounted on a finger or a hand. The light emitting means is not particularly limited as long as it emits light, and may be, for example, an LED. The measuring means receives the light from the light emitting means and measures the three-dimensional position of the light emitting means from the received light.
[0016]
On the other hand, predetermined information is displayed on the screen visually recognized by the instruction input person. The execution means sets a plane substantially coincident with the screen as an xy plane, and sets a space in front of the screen in the first area and the second area in order from the screen in the z-axis direction perpendicular to the xy plane. The image is divided into three regions, a region and a third region. Further, the execution means determines a way of the light emitting means passing through each boundary of the three regions from the z-coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means. Provide feedback to appeal to at least one of the five senses of the input person.
[0017]
That is, by measuring the three-dimensional position of the light emitting unit that changes according to the finger or hand movement of the instruction input person by the measuring unit, the execution unit can determine the way of the light emitting unit passing through each boundary. Furthermore, since the execution means can make the instruction input person recognize the three-dimensional position of the light emitting means by feedback, the instruction input person confirms the position of the light emitting means, that is, the space in front of the screen is divided into three areas. The user can move his / her finger or hand on which the light emitting unit is mounted while checking the passing state of each boundary to be divided.
[0018]
The execution means executes the functions of the two-dimensional mouse including selection, click, double-click, drag and drop according to the way the light-emitting means passes through each boundary while giving feedback as described above.
[0019]
Therefore, according to the present invention, the function of the two-dimensional mouse can be executed by using the three-dimensional information without using a mechanical mechanism.
[0020]
The execution means of the present invention displays a small window on the xy plane of the light emitting means on the screen as the feedback, and in the small window, among images displayed on the screen, The image of a predetermined area including the position on the xy plane of the light emitting means is enlarged and displayed, and the magnification of the image displayed in the small window is changed according to the z coordinate value of the light emitting means. Thereby, it is possible to appeal to the vision of the instruction input person.
[0021]
The execution means causes a small window to be displayed at a position on the xy plane of the light emitting means on the screen as feedback. The shape of the small window is not particularly limited, and may be rectangular or circular. The execution means enlarges and displays, within the small window, an image of a predetermined area including the position of the light emitting means on the xy plane among the images displayed on the screen. Further, the magnification of the image displayed in the small window is changed according to the z-coordinate value of the light emitting means to appeal to the instruction input person's vision.
[0022]
As described above, by changing the enlargement ratio of the image displayed in the small window according to the z-coordinate value of the light emitting unit, the instruction input user can recognize the position of the light emitting unit in the z-axis direction.
[0023]
When the light emitting unit approaches a boundary between the first region and the second region from the second region side, the execution unit reduces the enlargement ratio as approaching the boundary. When passing through a boundary, the enlargement ratio is set to 1 so that the instruction input person can recognize the boundary.
[0024]
Thus, the instruction input person can recognize the state in which the light emitting unit is approaching the boundary by the change in the enlargement ratio. When the enlargement ratio becomes 1, it can be recognized that the light emitting means is passing through the boundary. Therefore, the instruction input person can clearly recognize the position of the light emitting unit in the z-axis direction, and can appropriately execute the function of the two-dimensional mouse by appropriately moving the finger or hand wearing the light emitting unit.
[0025]
Further, the execution means of the present invention can change at least one of hue, saturation, and lightness of an image displayed in the small window according to the z-coordinate value of the light emitting means.
[0026]
Thus, the instruction input person can recognize the position of the light emitting unit in the z-axis direction.
[0027]
Further, when the light emitting means moves from the third area toward the second area, the execution means of the present invention continuously changes the brightness in the small window according to the movement of the light emitting means. When the brightness reaches a predetermined value due to the movement of the light emitting means, the value is kept constant. When the light emitting means moves and exceeds a predetermined z coordinate value, the second The brightness is reduced again as approaching the boundary between the region and the first region, and in a predetermined region around the boundary including the boundary, the brightness in the small window is made the same as the brightness of the corresponding partial image of the screen. After the image displayed on the screen is viewed as it is, and the light-emitting means moves to the first area after passing through the boundary between the second area and the first area, the light-emitting means is in the small window. Before hue The color is changed to a different hue from that of the second area, and the light emitting means sharply increases the brightness as the distance from the boundary between the second area and the first area approaches the screen, so that the hue in the small window becomes clear. In such a way as to appeal to the vision of the instruction input person.
[0028]
As a result, the attributes (hue, brightness, saturation, etc.) of the small window change according to the z-coordinate value of the light emitting means, but the state in which the image on the screen is visible in the small window is maintained.
[0029]
Specifically, when the light emitting means moves from the third area toward the second area, the brightness of the small window is continuously and rapidly increased in accordance with the movement of the light emitting means. Thereby, the instruction input person can recognize that the light emitting means is heading to the second area.
[0030]
Further, the execution means keeps the value of the lightness constant when the lightness reaches a predetermined value due to the movement of the light emitting means. Thus, the instruction input person can recognize that the user is moving in the second area.
[0031]
Further, when the light emitting means moves and exceeds the predetermined z-coordinate value, the executing means decreases the brightness again as the light approaches the boundary between the second area and the first area. Thus, the instruction input person can recognize that the light emitting unit is approaching the first area.
[0032]
Further, the execution means sets the brightness in the small window to be the same as the brightness of the corresponding partial image of the screen when the light emitting means is in a predetermined area around the boundary including the second area and the first area. The image displayed on the screen as it is. Thereby, the instruction input person can recognize that the light emitting means is located near the boundary.
[0033]
Further, the execution means changes the hue in the small window to a hue different from that of the second area after the light emitting means moves to the first area after passing through the boundary between the second area and the first area. . Thereby, the instruction input person can recognize that the light emitting means has moved from the second area to the first area.
[0034]
Further, the executing means sharply increases the brightness as the light emitting means moves away from the boundary between the second area and the first area and approaches the screen, so that the hue in the small window becomes clear. Thus, the instruction input person can recognize that the light emitting means is moving in the first area.
[0035]
The executing means of the present invention can change the unevenness state of the image displayed in the small window according to the z-coordinate value of the light emitting means. Further, the execution means of the present invention can change the size and / or shape of the small window according to the z-coordinate value of the light emitting means.
[0036]
If the size of the small window is at least locally minimum when exceeding the boundary area, and the area of the same attribute is not changed when the light emitting means such as the LED is moving, the distance can be further increased. The feeling becomes easier to recognize.
[0037]
Thus, the instruction input person can recognize the position of the light emitting unit in the z-axis direction.
[0038]
In the present invention, the color of the outline of the small window can be arbitrarily set. The execution means calculates an exclusive OR of the color of the arbitrarily set outline of the small window and the color of the border area of the small window in the image displayed on the screen, and The color of the outline can also be determined.
[0039]
Thereby, even when the color of the outline of the set small window is the same as the color of the border area of the small window in the image displayed on the screen, the outline is displayed in a color different from that color. Therefore, it is possible to prevent the instruction input person from losing sight of the small window.
[0040]
In addition, not only the feedback by the small window but also the execution means of the present invention, as the feedback, appeals to the hearing of the instruction input person using sound when the light emitting means passes through each of the boundaries. You can also.
[0041]
Thus, similarly to the feedback by the small window, the instruction input person can recognize the position of the light emitting unit in the z-axis direction.
[0042]
The execution means of the present invention executes a selection function in a two-dimensional mouse when the light emitting means passes a boundary between the first area and the second area from the second area side. Can be. Also, the execution means has a function of selecting with a two-dimensional mouse when the light emitting means has once passed in one direction within a predetermined time once across a boundary between the first area and the second area. It may be executed. The executing means executes a selection function in a two-dimensional mouse when the light emitting means has once passed in one direction within another predetermined time within another boundary defined in the second area. You may do so.
[0043]
The execution means of the present invention, when the light-emitting means passes once in one direction within a predetermined time once the boundary between the first area and the second area, when passing in the opposite direction, A click function on a two-dimensional mouse can be performed.
[0044]
Further, the execution means of the present invention, when the light-emitting means has passed the boundary between the first area and the second area twice in the same direction within a predetermined time, a double-click with a two-dimensional mouse Function can be performed.
[0045]
Further, in the present invention, the first area is divided into an area close to the screen and an area close to the second area, and the execution means sets the boundary between the two areas by the light emitting means. When passing in one direction, the function of dragging in the two-dimensional mouse can be executed, and when passing in the opposite direction, the function of dropping in the two-dimensional mouse can be executed.
[0046]
As described above, the function of the two-dimensional mouse, such as selection, click, double-click, and drag and drop, is executed according to the way the light emitting means passes through each boundary, so that a mechanical mechanism is not used. .
[0047]
Further, the execution means of the present invention is configured such that, when the light-emitting means passes through a predetermined area near the first area in the second area, the instruction input by the instruction input person is x. The position on the -y plane may be maintained at the position on the xy plane of the light emitting means at the time of entering the predetermined area.
[0048]
Thus, when the vehicle passes through a predetermined area of the second area that is close to the first area, the position on the xy plane where the instruction is input by the instruction input person is fixed. 2D mouse functions such as selecting an object such as an icon or clicking on an object.
[0049]
In the present invention, the predetermined time may be changeable. Thereby, the usability of the instruction input person can be improved.
[0050]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0051]
FIG. 1 is a block diagram showing a configuration and a data flow of a three-dimensional instruction input device according to an embodiment of the present invention. As shown in the figure, the three-dimensional instruction input device includes a light-emitting body (LED) 10 mounted on a user's finger or hand, and 3D measurement for measuring a three-dimensional position of the LED 10 by receiving light from the LED 10. A click, double-click, drag-and-drop command (referred to as a mouse command) is generated from the locus of the z-coordinate value among the coordinate values indicating the three-dimensional position measured by the device 12 and the 3D measuring device 12. And a 3D mouse command generation device 14 for outputting to the personal computer 22 along with the xy coordinate values. Further, the personal computer 22 includes a mouse driver 16 that inputs a mouse command together with xy coordinate values from the 3D mouse command generation device 14, an image driver 20 that performs image processing, and a command input to the mouse driver 16. An OS 18 that performs a process related to an instruction input, for example, by activating the image driver 20 as needed, is stored.
[0052]
Here, the xy coordinate values are coordinate values when a plane substantially coincident with the screen of the personal computer 22 (see FIG. 2) is an xy plane, and the z coordinate values are perpendicular to the xy plane. These are coordinate values in the z-axis direction.
[0053]
Note that the hardware of the above-described three-dimensional instruction input device is configured using the position detection technology described in Japanese Patent Application Laid-Open No. 10-9812. Of course, any device capable of three-dimensional position measurement can be used.
[0054]
FIG. 2 is a diagram of the personal computer 22 as viewed from the side. The screen of the personal computer 22 is indicated by M. In the three-dimensional space extending in front of the screen M of the personal computer 22, the layer closest to the screen M is referred to as a fully-pressed lower layer, and the next closest layer is referred to as a fully-pressed upper layer. The boundary between the two is called boundary B. Further, the two layers on the near side are called a half-pressed layer (second layer), and are called a half-pressed lower layer and a half-pressed upper layer, respectively, from the side closer to the screen M. The boundary between the two is called boundary A. The boundary between the half-pressed layer and the fully-pressed layer is called a boundary K. The layer closest to the user, that is, the layer farthest from the screen M, is called a free layer (third layer). The boundary between the free layer and the half-pressed layer is called a boundary F.
[0055]
The free layer is a layer in which no action is taken simply by moving the cursor in response to the movement of the LED 10. This corresponds to a state where the mouse is moved without clicking the mouse in the two-dimensional mouse.
[0056]
If the LED 10 is on the layer before the half-pressed layer (upper half-pressed layer), the attribute of the extended cursor described later changes, and the user is selecting an object. When the LED 10 moves to the screen side of the half-pressed layer (lower half-pressed layer), the xy coordinate value of the cursor is fixed to the value when passing through the boundary A.
[0057]
Mouse commands are generated by the way the LED 10 passes between the half-pressed layer and the fully-pressed layer.
[0058]
Here, the extended cursor will be described. In the present embodiment, unlike the conventional cursor, the extended cursor surrounds a small area including a point indicated by the conventional cursor on the desktop of the personal computer 22 (hereinafter, referred to as a cursor point) with an arc or the like. It is displayed again as a small window. As shown in FIGS. 3A and 3B, the inside of a circle centered on the cursor point 30 is displayed in a small window (extended cursor) 32. The conventional cursor 34 is displayed inside the extended cursor 32, particularly at the center thereof.
[0059]
FIG. 3A shows a state in which the extended cursor 32 points to the center of the two rows of icons on the right side, and it can be seen that the desktop icons are somewhat enlarged.
[0060]
FIG. 3B shows the state of the extended cursor 32 on the screen when the LED 10 approaches the boundary K. As shown in the figure, the radius of the extended cursor 32 is minimized, and the image in the circle is the same as the background, that is, the magnification is 1.
[0061]
Thus, as the LED 10 approaches the boundary K from the outside in the half-pressed layer, the extended cursor 32 changes from the state where the image is enlarged so as to focus on the camera to the actual size, or the radius decreases. This constitutes a focus metaphor reminiscent of the aperture being stopped down.
[0062]
The OS displays the extended cursor 32 using the image driver 20. The conventional cursor 34 is displayed by the OS over the extended cursor 32 using the mouse driver 16.
[0063]
Next, the flow of processing of the three-dimensional instruction input device when a mouse command is generated will be described.
[0064]
As shown in FIG. 1, when the LED 10 is in front of the 3D measuring device 12, the position is measured by the 3D measuring device 12. Here, what is necessary for generating the mouse command is the z-coordinate value of the LED 10. The z-coordinate value is measured by the distance from the 3D measuring device 12. If the position of the screen M of the personal computer 22 matches the position of the 3D measuring device 12, this distance is the distance from the screen M. As shown by the arrow in FIG. 1, the direction extending forward is the positive direction of the z coordinate value.
[0065]
As the user moves the hand, the position of the LED 10 attached to the hand changes accordingly, and the three-dimensional coordinate value including the z-coordinate value is sent to the 3D mouse command generation device 14 through the 3D measurement device 12.
[0066]
The 3D mouse / command generating device 14 examines, from the time series of the z-coordinate value, how each of the boundary areas in front of the screen M has been passed within a certain period of time. This time can be arbitrarily set by the user. The 3D mouse command generation device 14 interprets the three important commands, click, double-click, and drag, depending on the method. The interpreted command signal is sent to the mouse driver 16 of the personal computer 22. At this point, the mouse driver 16 can receive the same data type, whether a two-dimensional mouse or a three-dimensional mouse. Therefore, the processing is performed on the personal computer 22 side thereafter. In this embodiment, since the extended cursor 32 is represented by a small window, the OS activates the image driver 20 or the like that processes the image as needed, and is shown in FIGS. 3A and 3B. The extension cursor 32 is displayed on the screen M of the personal computer 22 as described above. The mouse driver 16 is also activated at the same time, and the OS displays the conventional cursor 34 on the image of the extended cursor 32 on the screen M by the mouse driver 16.
[0067]
The image inside the extended cursor 32 is not different from the original image when the LED 10 is on the free layer, and is enlarged (the size of the extended cursor itself and the image displayed inside) when the LED 10 enters the half-pressed layer. Further, as the LED 10 moves from the half-pressed layer to the fully-pressed layer, that is, toward the boundary K, the magnification of the enlarged image becomes 1. In particular, the magnification is set to 1 even if the z-coordinate value of the LED 10 slightly moves within a predetermined distance just before the boundary K. This is a reproduction of the half-pressed state of the shutter of the camera, and also expresses that the hardness of the shutter is increased immediately before the shutter is lowered, and that there is no change.
[0068]
Hereinafter, the correspondence between the movement of the LED 10 and the generated mouse command will be described in detail with reference to FIG.
[0069]
FIG. 4 is a diagram of the personal computer 22 as viewed from above. In addition, the bold solid line and the dotted line shown in the figure indicate the locus corresponding to the movement of the LED 10. The bold solid line indicates that the xy coordinate value of the cursor point 30 is fixed (locked), and the dotted line portion indicates that the xy coordinate value is not fixed (unlocked). Is shown.
[0070]
When the LED 10 enters the lower half-pressed state from the upper half-pressed state through the boundary A, the xy coordinate value of the cursor point 30 is locked with the value at the time of passing through the boundary A. At this time, if the object is designated, if the LED passes through K later, the object is selected regardless of the xy coordinate value of the passing point at the time of passing. That is, after the LED 10 moves and passes through the boundary K and does not reach the boundary B but passes through the boundary K again in the reverse direction and returns to the upper half layer, a command of “click” is issued by the mouse of the personal computer 22. It is sent to the driver 16 (trajectory 40).
[0071]
Also, after the LED 10 enters the half-pressed lower layer from the upper half-pressed layer via the boundary A, does not return to the upper part of the half-pressed layer, crosses the boundary K once again, but does not reach the boundary B and reverses the boundary K again. When returning to the direction, a command of “double click” is sent to the personal computer 22. (Track 42).
[0072]
When the LED 10 passes the boundary A and the boundary K from the half-pressed upper layer and passes the next boundary B, the LED 10 enters a draggable area (fully pressed lower layer). At this point, the lock of the xy coordinate value of the cursor point 30 is released, and the object pointed to by the cursor point 30 is dragged according to the movement of the xy coordinate of the LED 10 in the lower layer of the full push. That is, a “drag” command is sent to the personal computer 22. When the LED 10 again passes through the boundary B in the reverse direction from the fully-pressed lower layer, and further passes through the boundary K and returns to the half-pressed layer, the xy coordinate values are locked at that point, and the object is dropped. That is, a "drop" command is sent to the personal computer 22 (locus 44).
[0073]
The correspondence between the lock state of the xy coordinate values and each boundary will be described in detail. Basically, the xy coordinate values are locked in any case when the LED 10 crosses the boundary A from the upper half-pressed layer to the lower half-pressed layer. Also, the lock is released when the vehicle has passed through the boundary A in the opposite direction in the case of a click, and at the time of returning to the boundary K for the second time in the case of the double click. Further, when the LED 10 enters the lower layer of the full push beyond the boundary B, the xy coordinates are unlocked. This is because the user has entered the draggable area. After the object is moved by dragging, when the LED 10 returns to the full-press upper layer again, it is locked again. This is a convenience to remove the object from the cursor. When the LED 10 returns to the half-pressed layer beyond the boundary K, the lock is released again. At this point, the object is not selected because the LED 10 has not returned to the upper half-pressed layer.
[0074]
In FIG. 4, the locus of the LED 10 at the time of clicking and double-clicking appears to move in the x or y coordinate values, but these are exaggeratedly expressed, and are actually at almost the same position. In the solid line, the value of the mouse driver 16 of the personal computer 22 is constant.
[0075]
As described above, the space extending in front of the screen is divided into three regions, and the extended cursor (focus metaphor) that appeals to the user's vision indicates that the LED 10 worn by the user has passed the boundary of each region. While recognizing, if you reciprocate the boundary between the half-pushed layer and the fully-pressed layer only once within a certain time, click the two-dimensional mouse, and if you reciprocate twice within a certain time, When the double-click operation of the two-dimensional mouse is performed, and the layer is not returned to the half-pressed layer for a certain period of time even after moving from the half-pressed layer to the fully-pressed layer, an object such as an icon indicated by the cursor is dragged, and the LED 10 When the mouse returns to the half-pressed layer, the dragged object is dropped. Mechanisms can be performed by LED10 movement in the air without using the (three-dimensional coordinate value).
[0076]
In the above-described embodiment, an example has been described in which the user recognizes that the LED 10 has passed through the boundary in the three-dimensional space using the extended cursor 32. Can be generated to assist the operation. Further, the user can freely change the maximum magnification ratio, color information such as hue, and the size (radius and the like) of the extended cursor 32 in each layer according to his / her preference and usability.
[0077]
FIG. 5 is a diagram illustrating an example of a change in brightness and hue of the extended cursor 32 according to the z-coordinate position of the LED 10. As shown, the hue changes from green to red at the boundary K. That is, when the user moves the LED 10 around the boundary K, the color changes, and the user is more aware of where the boundary is. The brightness is changed in the half-pushed layer (the left side of the boundary K in FIG. 5) and the fully-pushed layer (the right side of the boundary K in FIG. 5). In particular, in the half-pushed layer, the enlargement ratio of the image captured by the extended cursor toward the boundary K approaches 1 and the color approaches the hue of the image captured by the extended cursor, so that the focus is clearly focused. It is also possible to configure a metaphor.
[0078]
Also, the boundaries and layers in the above-described embodiment are examples, and the boundaries can be deleted and the two layers can be combined. In this case, it becomes possible by setting the attribute dependent on the layer to the same for the adjacent layer. The user can also freely set the z-coordinate value that defines the boundary. Further, by interpreting the meaning of each layer separately, for example, in an extreme case, it is possible to reverse the half-pushed layer and the fully-pushed layer. In this case as well, the mouse command may be activated by determining which boundary and how the LED 10 has passed.
[0079]
Note that at least one of the hue, saturation, and brightness of the image displayed on the extended cursor may be changed according to the z-coordinate value of the LED 10. In addition, the unevenness state of the image displayed on the extended cursor can be changed according to the z-coordinate value of the LED 10. Further, the size and shape of the extended cursor may be changed according to the z-coordinate value of the LED 10.
[0080]
The user may arbitrarily set the color of the outline of the extended cursor. Furthermore, the color of the outline of the extended cursor may be determined by taking the exclusive OR of the color of the outline of the extended cursor arbitrarily set and the color of the boundary area of the extended cursor in the image displayed on the screen. Good. With this, when the color of the contour set in advance for the extended cursor and the color occupying the boundary area of the contour of the extended cursor in the image displayed on the screen are the same, the color of the contour of the extended cursor is made different. , The extended cursor is clearly visible.
[0081]
In addition, the maximum allowable time until each operation is completed can be set by the user, but the click interval time required for identifying the click operation by the air operation may be longer than the set value of the two-dimensional mouse. preferable. Specifically, about 1.9 seconds of the double click, which exceeds 0.5 seconds that can be set in the basic software OS, was experimentally appropriate at present.
[0082]
【The invention's effect】
The three-dimensional instruction input device according to the present invention provides each of a plurality of divided regions in a three-dimensional space spread over the front of the screen by feedback (change in focus metaphor, hue, etc.) appealing to at least one of the five senses. A function of a two-dimensional mouse, such as clicking, double-clicking, and dragging, in which a user perceives a passing state of the light emitting means with respect to the boundary and according to a way of passing the light emitting means with respect to the boundary of each area without using a mechanical mechanism. Can be executed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration and a data flow of a three-dimensional instruction input device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating space division when a personal computer is viewed from the side.
FIG. 3A is a diagram showing a state in which an extended cursor points to the center of two columns of icons on the right side as viewed from the front, and FIG. FIG. 7 is a diagram illustrating a state of an extended cursor on a screen when approaching.
FIG. 4 is a diagram illustrating space division and movement of LEDs in a space when the personal computer is viewed from above.
FIG. 5 is a diagram illustrating an example of changes in hue and brightness of an image in an extended cursor displayed on a screen.
[Explanation of symbols]
10 LED
12 3D measurement device
14 3D mouse command generator
16 Mouse Driver
18 OS
20 Image Driver
22 PC
32 Extended cursor

Claims (19)

指示入力者に装着可能な発光手段と、
前記発光手段から発光された光を受光すると共に、受光した位置に基づいて前記発光手段の3次元位置を計測する計測手段と、
所定の情報を表示する画面の前面に、該画面から前記指示入力者方向に向かって分割された複数の空間を想定し、前記計測手段によって計測された3次元位置に基づいて、前記発光手段が前記複数の空間の境界を通過する状態を判断し、判断した状態に応じて前記指示入力者の五感の少なくとも1つに訴えるフィードバック変化させることによって2次元マウスとしての機能を実行する実行手段と、
を含む3次元指示入力装置。
A light emitting means that can be worn by an instruction input person;
Measuring means for receiving the light emitted from the light emitting means and measuring a three-dimensional position of the light emitting means based on the received position;
On the front of a screen displaying predetermined information, assuming a plurality of spaces divided from the screen in the direction of the instructor, based on a three-dimensional position measured by the measuring means, Executing means for executing a function as a two-dimensional mouse by determining a state of passing through the boundary of the plurality of spaces, and performing a feedback change appealing to at least one of the five senses of the instruction input person according to the determined state;
And a three-dimensional instruction input device.
指示入力者の手または指に装着可能な発光手段と、
前記発光手段から発光された光を受光すると共に、前記発光手段の3次元位置を前記受光した光から計測する計測手段と、
所定の情報を表示する画面に略一致する平面をx−y平面とし、前記画面の前面の空間を、該x−y平面に対して垂直なz軸方向に前記画面から近い順に第1の領域、第2の領域、第3の領域の3つの領域に分割して捉え、前記計測手段により得られる前記発光手段の3次元位置のz座標値から前記3つの領域を分割する各境界に対する前記発光手段の通過の仕方を判断し、この通過の仕方に応じて異なり、かつ前記指示入力者の五感の少なくとも1つに訴えるフィードバックが掛かるようにして、選択、クリック、ダブルクリック、ドラッグ・アンド・ドロップを含む2次元マウスの機能を実行する実行手段と、
を含む3次元指示入力装置。
Light-emitting means that can be worn on the hand or finger of the instruction input person;
Measuring means for receiving light emitted from the light emitting means and measuring a three-dimensional position of the light emitting means from the received light;
A plane substantially coincident with the screen displaying the predetermined information is defined as an xy plane, and a space in front of the screen is defined as a first area in the z-axis direction perpendicular to the xy plane in the order from the screen closer to the screen. , The second area, and the third area are divided into three areas, and the light emission for each boundary that divides the three areas from the z-coordinate value of the three-dimensional position of the light emitting means obtained by the measuring means. Judging the way of passing through the means, and selecting, clicking, double-clicking, dragging and dropping, depending on the way of passing the means, and giving feedback giving at least one of the five senses of the instruction inputting person. Execution means for executing a function of a two-dimensional mouse including:
And a three-dimensional instruction input device.
前記実行手段は、前記フィードバックとして、前記画面に前記発光手段のx−y平面上の位置に小ウィンドウを表示させ、該小ウィンドウ内には、前記画面に表示される画像のうち、前記発光手段のx−y平面上の位置を含む所定の領域の画像を拡大して表示させると共に、前記発光手段のz座標値に応じて前記小ウィンドウ内に表示する画像の拡大率を変化させることにより前記指示入力者の視覚に訴える請求項2記載の3次元指示入力装置。The execution means causes the small light window to be displayed at a position on the xy plane of the light emitting means on the screen as the feedback, and within the small window, among the images displayed on the screen, the light emitting means By enlarging and displaying an image of a predetermined area including the position on the xy plane, and changing the magnification of the image displayed in the small window according to the z-coordinate value of the light emitting means, 3. The three-dimensional instruction input device according to claim 2, which appeals to an instruction input person's vision. 前記実行手段は、前記発光手段が前記第2の領域側から前記第1の領域と前記第2の領域との境界に接近する場合に、該境界に接近するに従って前記拡大率を低減させ、該境界の通過時には前記拡大率が1となるようにして該境界を指示入力者に認知させる請求項3記載の3次元指示入力装置。When the light emitting unit approaches a boundary between the first region and the second region from the second region side, the execution unit reduces the enlargement ratio as approaching the boundary. 4. The three-dimensional instruction input device according to claim 3, wherein the enlargement factor is set to 1 when passing through the boundary so that the instruction input person can recognize the boundary. 前記実行手段は、前記小ウィンドウ内に表示される画像の色相、彩度、明度の少なくともいずれか1つを、前記発光手段のz座標値に応じて変化させる請求項3または請求項4記載の3次元指示入力装置。5. The execution unit according to claim 3, wherein at least one of hue, saturation, and brightness of an image displayed in the small window is changed according to az coordinate value of the light emitting unit. Three-dimensional instruction input device. 前記実行手段は、前記発光手段が前記第3の領域から前記第2の領域に向かって移動する場合には、前記発光手段の移動に従って前記小ウィンドウ内の明度を連続的に急激に大きくし、前記発光手段の移動により明度が所定の大きさとなった時点でその値を一定に維持し、前記発光手段が移動して所定のz座標値を越えたときには、前記第2の領域と前記第1の領域との境界に近づくに従って明度を再び小さくし、該境界を含む該境界前後の所定の領域では前記小ウィンドウ内の明度を前記画面の対応する部分画像の明度と同じにして前記画面に表示される画像がそのまま見えるようにし、前記発光手段が前記第2の領域と前記第1の領域の境界を通過して前記第1の領域に移動した後には、前記小ウィンドウ内の色相を前記第2の領域とは異なる色相に変え、前記発光手段が前記第2の領域と前記第1の領域の境界から離れて前記画面に近づくに従って急激に明度を上げ、前記小ウィンドウ内の色相が明らかになるようにして前記指示入力者の視覚に訴える請求項5記載の3次元指示入力装置。The execution means, when the light emitting means moves from the third area toward the second area, continuously and rapidly increases the brightness in the small window according to the movement of the light emitting means; When the brightness reaches a predetermined value due to the movement of the light emitting means, the value is maintained constant, and when the light emitting means moves and exceeds a predetermined z coordinate value, the second area and the first The brightness is reduced again as approaching the border with the area, and in a predetermined area around the border including the border, the brightness in the small window is displayed on the screen in the same manner as the brightness of the corresponding partial image of the screen. After the light emitting means passes through the boundary between the second area and the first area and moves to the first area, the hue in the small window is changed to the second area. What is area 2 Hues, and the light emitting means rapidly increases the brightness as the distance from the boundary between the second area and the first area approaches the screen, so that the hues in the small window become clear. 6. The three-dimensional instruction input device according to claim 5, which appeals to an instruction input person's vision. 前記実行手段は、前記小ウィンドウ内に表示される画像の凹凸状態を、前記発光手段のz座標値に応じて変化させる請求項3乃至請求項6のいずれか1項記載の3次元指示入力装置。7. The three-dimensional instruction input device according to claim 3, wherein the execution unit changes an uneven state of an image displayed in the small window according to a z-coordinate value of the light emitting unit. 8. . 前記実行手段は、前記小ウィンドウの大きさまたは/および形状を、前記発光手段のz座標値に応じて変化させる請求項3乃至請求項7のいずれか1項記載の3次元指示入力装置。The three-dimensional instruction input device according to any one of claims 3 to 7, wherein the execution unit changes a size and / or a shape of the small window according to a z-coordinate value of the light emitting unit. 前記小ウィンドウの輪郭の色を任意に設定可能にした請求項3乃至請求項8のいずれか1項記載の3次元指示入力装置。9. The three-dimensional instruction input device according to claim 3, wherein an outline color of the small window can be arbitrarily set. 前記実行手段は、前記任意に設定された前記小ウィンドウの輪郭の色と、前記画面に表示される画像における前記小ウィンドウの境界域の色との排他的論理和をとって前記小ウィンドウの輪郭の色を定める請求項9記載の3次元指示入力装置。The execution means calculates an exclusive OR of the color of the arbitrarily set outline of the small window and the color of the boundary area of the small window in the image displayed on the screen, and obtains the outline of the small window. The three-dimensional instruction input device according to claim 9, wherein the three-dimensional instruction input device determines a color of the three-dimensional image. 前記実行手段は、前記フィードバックとして、前記発光手段が前記各境界を通過する際に、音を用いて前記指示入力者の聴覚に訴える請求項2乃至請求項10のいずれか1項記載の3次元指示入力装置。The three-dimensional apparatus according to any one of claims 2 to 10, wherein the execution means appeals to the hearing of the instruction input person using sound as the feedback when the light emitting means passes through each of the boundaries. Instruction input device. 前記実行手段は、前記発光手段が前記第2の領域側から前記第1の領域と前記第2の領域との境界を通過したときに、2次元マウスにおける選択の機能を実行する請求項2乃至請求項11のいずれか1項記載の3次元指示入力装置。3. The execution unit executes a selection function in a two-dimensional mouse when the light emitting unit passes a boundary between the first region and the second region from the second region side. 4. The three-dimensional instruction input device according to claim 11. 前記実行手段は、前記発光手段が前記第2の領域内に定義されている別の境界を所定の時間内に1回一方向に通過したときに、2次元マウスにおけるの選択の機能を実行する請求項2乃至請求項11のいずれか1項記載の3次元指示入力装置。The executing means executes a selection function in a two-dimensional mouse when the light emitting means has once passed in one direction within another predetermined time within another boundary defined in the second area. The three-dimensional instruction input device according to any one of claims 2 to 11. 前記実行手段は、前記第2の領域を、前記第1の領域に近い領域と前記第3の領域に近い領域とに分割して捉え、前記発光手段が該2つの領域の境界を所定の時間内に1回一方向に通過したときに、2次元マウスにおけるの選択の機能を実行する請求項2乃至請求項11のいずれか1項記載の3次元指示入力装置。The executing means captures the second area by dividing the second area into an area close to the first area and an area close to the third area, and the light emitting means sets a boundary between the two areas for a predetermined time. The three-dimensional instruction input device according to any one of claims 2 to 11, wherein a function of selecting with a two-dimensional mouse is executed when the user has passed through the mouse once in one direction. 前記実行手段は、前記発光手段が、前記第1の領域と前記第2の領域との境界を所定の時間内に1回一方向に通過した後、逆方向に通過したときに、2次元マウスにおけるクリックの機能を実行する請求項2乃至請求項11のいずれか1項記載の3次元指示入力装置。The execution means may include a two-dimensional mouse when the light emitting means passes through the boundary between the first area and the second area once in one direction within a predetermined time and then in the opposite direction. The three-dimensional instruction input device according to any one of claims 2 to 11, which performs a click function in. 前記実行手段は、前記発光手段が前記第1の領域と前記第2の領域との境界を所定の時間内に2回同方向に通過したときに、2次元マウスにおけるダブルクリックの機能を実行する請求項2乃至請求項11のいずれか1項記載の3次元指示入力装置。The execution means executes a double-click function of a two-dimensional mouse when the light emitting means has passed the boundary between the first area and the second area twice in the same direction within a predetermined time. The three-dimensional instruction input device according to any one of claims 2 to 11. 前記第1の領域は、前記画面に近い領域と前記第2の領域に近い領域とに分割されており、
前記実行手段は、前記発光手段が該2つの領域の境界を一方向に通過したときに、2次元マウスにおけるドラッグの機能を実行し、該境界を逆方向に通過したときに、2次元マウスにおけるドロップの機能を実行する請求項12乃至請求項14のいずれか1項記載の3次元指示入力装置。
The first area is divided into an area near the screen and an area near the second area,
The execution means executes a drag function of the two-dimensional mouse when the light emitting means passes through the boundary between the two regions in one direction, and executes the drag function of the two-dimensional mouse when the light emitting means passes the boundary in the opposite direction. The three-dimensional instruction input device according to any one of claims 12 to 14, which executes a drop function.
前記実行手段は、前記発光手段が前記第2の領域のうち前記第1の領域に近い所定の領域内を通過しているときは、前記指示入力者により指示入力されるx−y平面上の位置を該所定の領域に入った時点の前記発光手段のx−y平面上の位置に維持する請求項2乃至請求項17のいずれか1項記載の3次元指示入力装置。The execution means, when the light-emitting means passes through a predetermined area near the first area of the second area, on the xy plane instructed by the instructor. The three-dimensional instruction input device according to any one of claims 2 to 17, wherein the position is maintained at the position on the xy plane of the light emitting unit at the time of entering the predetermined area. 前記所定の時間を変更可能にした請求項12乃至請求項18のいずれか1項記載の3次元指示入力装置。The three-dimensional instruction input device according to any one of claims 12 to 18, wherein the predetermined time is changeable.
JP2003096366A 2003-03-31 2003-03-31 3D instruction input device Expired - Fee Related JP4172307B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003096366A JP4172307B2 (en) 2003-03-31 2003-03-31 3D instruction input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003096366A JP4172307B2 (en) 2003-03-31 2003-03-31 3D instruction input device

Publications (2)

Publication Number Publication Date
JP2004303000A true JP2004303000A (en) 2004-10-28
JP4172307B2 JP4172307B2 (en) 2008-10-29

Family

ID=33408459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003096366A Expired - Fee Related JP4172307B2 (en) 2003-03-31 2003-03-31 3D instruction input device

Country Status (1)

Country Link
JP (1) JP4172307B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005070996A (en) * 2003-08-22 2005-03-17 Fuji Xerox Co Ltd Instruction input device, instruction input system, instruction input method, and program
JP2007104523A (en) * 2005-10-07 2007-04-19 Sony Corp Remote control system, device and method for remote control, device and method for information processing, and computer program
JP2008217760A (en) * 2006-12-04 2008-09-18 Stmicroelectronics Srl Sensor device with circuit for detecting single or multiple events and generating corresponding interrupt signal
JP2009116769A (en) * 2007-11-09 2009-05-28 Sony Corp Input device, control method for input device and program
JP2009530726A (en) * 2006-03-22 2009-08-27 フオルクスワーゲン・アクチエンゲゼルシヤフト Interactive operating device and method for operating interactive operating device
US7847787B1 (en) * 2005-11-12 2010-12-07 Navisense Method and system for directing a control action
JP2011521381A (en) * 2008-05-19 2011-07-21 マイクロソフト コーポレーション Accessing menus using drag operations
JP2012512453A (en) * 2008-12-15 2012-05-31 ソニー エリクソン モバイル コミュニケーションズ, エービー Electronic device, system, method and computer program for detecting a user input device having an optical marker
JP2014082605A (en) * 2012-10-15 2014-05-08 Canon Marketing Japan Inc Information processing apparatus, and method of controlling and program for the same
JP2014179111A (en) * 2014-04-23 2014-09-25 Casio Comput Co Ltd Information output device and program
JP2014186581A (en) * 2013-03-25 2014-10-02 Konica Minolta Inc Gesture discrimination device, gesture discrimination method and computer program
WO2014181876A1 (en) * 2013-05-10 2014-11-13 株式会社ゲッシュ Input assistance device, input assistance method, and program
JP2015158930A (en) * 2015-04-06 2015-09-03 コニカミノルタ株式会社 Gesture discrimination device, gesture discrimination method, and computer program
JP2018505454A (en) * 2015-11-20 2018-02-22 小米科技有限責任公司Xiaomi Inc. Air mouse remote control optimization method, apparatus and air mouse remote control
JP2018528551A (en) * 2015-06-10 2018-09-27 ブイタッチ・コーポレーション・リミテッド Gesture detection method and apparatus on user reference space coordinate system
US11153472B2 (en) 2005-10-17 2021-10-19 Cutting Edge Vision, LLC Automatic upload of pictures from a camera
WO2021253715A1 (en) * 2020-06-15 2021-12-23 歌尔股份有限公司 Method and device for determining double-click action on earphones, and earphones
JP7453450B2 (en) 2019-10-10 2024-03-19 マクセル株式会社 Method of operation

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101815972B1 (en) 2010-12-30 2018-01-09 삼성전자주식회사 Apparatus and method for sensing high precision signal using infrared light

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62165687A (en) * 1986-01-17 1987-07-22 富士通株式会社 Cursor display system
JPH05329155A (en) * 1992-05-29 1993-12-14 Toshiba Corp Ultrasonic diagnostic system
JPH0612177A (en) * 1992-06-29 1994-01-21 Canon Inc Information inputting method and device therefor
JPH06301477A (en) * 1993-04-16 1994-10-28 Kyoto Densoku Kk Input device for pointed position of three-dimensional space
JPH0816137A (en) * 1994-06-29 1996-01-19 Nec Corp Three-dimensional coordinate input device and cursor display control system
JPH09251341A (en) * 1996-03-18 1997-09-22 Fujitsu Ltd Reaction area enlarging device and method for magnifying area reacting to selection operation on display screen
JPH1185453A (en) * 1997-09-08 1999-03-30 Meidensha Corp Window display processing method
JP2000056917A (en) * 1998-08-11 2000-02-25 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional coordinate indicating device
JP2001357408A (en) * 2000-06-13 2001-12-26 Namco Ltd Information providing system for game and information storage medium

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62165687A (en) * 1986-01-17 1987-07-22 富士通株式会社 Cursor display system
JPH05329155A (en) * 1992-05-29 1993-12-14 Toshiba Corp Ultrasonic diagnostic system
JPH0612177A (en) * 1992-06-29 1994-01-21 Canon Inc Information inputting method and device therefor
JPH06301477A (en) * 1993-04-16 1994-10-28 Kyoto Densoku Kk Input device for pointed position of three-dimensional space
JPH0816137A (en) * 1994-06-29 1996-01-19 Nec Corp Three-dimensional coordinate input device and cursor display control system
JPH09251341A (en) * 1996-03-18 1997-09-22 Fujitsu Ltd Reaction area enlarging device and method for magnifying area reacting to selection operation on display screen
JPH1185453A (en) * 1997-09-08 1999-03-30 Meidensha Corp Window display processing method
JP2000056917A (en) * 1998-08-11 2000-02-25 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional coordinate indicating device
JP2001357408A (en) * 2000-06-13 2001-12-26 Namco Ltd Information providing system for game and information storage medium

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005070996A (en) * 2003-08-22 2005-03-17 Fuji Xerox Co Ltd Instruction input device, instruction input system, instruction input method, and program
JP4622792B2 (en) * 2005-10-07 2011-02-02 ソニー株式会社 Remote operation system, remote operation device, information processing device, remote operation method, information processing method, and computer program
JP2007104523A (en) * 2005-10-07 2007-04-19 Sony Corp Remote control system, device and method for remote control, device and method for information processing, and computer program
US11818458B2 (en) 2005-10-17 2023-11-14 Cutting Edge Vision, LLC Camera touchpad
US11153472B2 (en) 2005-10-17 2021-10-19 Cutting Edge Vision, LLC Automatic upload of pictures from a camera
US7847787B1 (en) * 2005-11-12 2010-12-07 Navisense Method and system for directing a control action
US9671867B2 (en) 2006-03-22 2017-06-06 Volkswagen Ag Interactive control device and method for operating the interactive control device
JP2009530726A (en) * 2006-03-22 2009-08-27 フオルクスワーゲン・アクチエンゲゼルシヤフト Interactive operating device and method for operating interactive operating device
JP2008217760A (en) * 2006-12-04 2008-09-18 Stmicroelectronics Srl Sensor device with circuit for detecting single or multiple events and generating corresponding interrupt signal
US8164577B2 (en) 2007-11-09 2012-04-24 Sony Corporation Input device, control method of input device, and program
JP2009116769A (en) * 2007-11-09 2009-05-28 Sony Corp Input device, control method for input device and program
US9563352B2 (en) 2008-05-19 2017-02-07 Microsoft Technology Licensing, Llc Accessing a menu utilizing a drag-operation
JP2011521381A (en) * 2008-05-19 2011-07-21 マイクロソフト コーポレーション Accessing menus using drag operations
JP2012512453A (en) * 2008-12-15 2012-05-31 ソニー エリクソン モバイル コミュニケーションズ, エービー Electronic device, system, method and computer program for detecting a user input device having an optical marker
JP2014082605A (en) * 2012-10-15 2014-05-08 Canon Marketing Japan Inc Information processing apparatus, and method of controlling and program for the same
JP2014186581A (en) * 2013-03-25 2014-10-02 Konica Minolta Inc Gesture discrimination device, gesture discrimination method and computer program
US10275035B2 (en) 2013-03-25 2019-04-30 Konica Minolta, Inc. Device and method for determining gesture, and computer-readable storage medium for computer program
WO2014181876A1 (en) * 2013-05-10 2014-11-13 株式会社ゲッシュ Input assistance device, input assistance method, and program
CN105190506A (en) * 2013-05-10 2015-12-23 捷思株式会社 Input assistance device, input assistance method, and program
JP2014219938A (en) * 2013-05-10 2014-11-20 株式会社ゲッシュ Input assistance device, input assistance method, and program
JP2014179111A (en) * 2014-04-23 2014-09-25 Casio Comput Co Ltd Information output device and program
JP2015158930A (en) * 2015-04-06 2015-09-03 コニカミノルタ株式会社 Gesture discrimination device, gesture discrimination method, and computer program
JP2018528551A (en) * 2015-06-10 2018-09-27 ブイタッチ・コーポレーション・リミテッド Gesture detection method and apparatus on user reference space coordinate system
JP2018505454A (en) * 2015-11-20 2018-02-22 小米科技有限責任公司Xiaomi Inc. Air mouse remote control optimization method, apparatus and air mouse remote control
JP7453450B2 (en) 2019-10-10 2024-03-19 マクセル株式会社 Method of operation
WO2021253715A1 (en) * 2020-06-15 2021-12-23 歌尔股份有限公司 Method and device for determining double-click action on earphones, and earphones

Also Published As

Publication number Publication date
JP4172307B2 (en) 2008-10-29

Similar Documents

Publication Publication Date Title
JP4172307B2 (en) 3D instruction input device
US11816296B2 (en) External user interface for head worn computing
US11886638B2 (en) External user interface for head worn computing
US11099653B2 (en) Machine responsiveness to dynamic user movements and gestures
US20220083880A1 (en) Interactions with virtual objects for machine control
KR102478420B1 (en) The effect of user interface camera
US20200356238A1 (en) Virtual Interactions for Machine Control
TW202105133A (en) Virtual user interface using a peripheral device in artificial reality environments
JP2004341892A (en) Instruction input device, instruction input method, and program
US20170336872A1 (en) External user interface for head worn computing
EP2480955B1 (en) Remote control of computer devices
US20170100664A1 (en) External user interface for head worn computing
US20160025974A1 (en) External user interface for head worn computing
US20170017323A1 (en) External user interface for head worn computing
US20160026239A1 (en) External user interface for head worn computing
WO2015195444A1 (en) External user interface for head worn computing
WO2015179877A2 (en) External user interface for head worn computing
WO2017015093A1 (en) External user interface for head worn computing
CN111813214B (en) Virtual content processing method and device, terminal equipment and storage medium
JP2011253398A (en) Control system, control device, handheld apparatus, control method and program
CN105488832A (en) Optical digital ruler
JP2008282367A (en) Pointing system
JP4438351B2 (en) Instruction input device, instruction input system, instruction input method, and program
JP7505113B2 (en) Wearable terminal device, program, and display method
KR20240048522A (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080722

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080804

R150 Certificate of patent or registration of utility model

Ref document number: 4172307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130822

Year of fee payment: 5

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees