JP4678428B2 - 仮想空間内位置指示装置 - Google Patents

仮想空間内位置指示装置 Download PDF

Info

Publication number
JP4678428B2
JP4678428B2 JP2008163512A JP2008163512A JP4678428B2 JP 4678428 B2 JP4678428 B2 JP 4678428B2 JP 2008163512 A JP2008163512 A JP 2008163512A JP 2008163512 A JP2008163512 A JP 2008163512A JP 4678428 B2 JP4678428 B2 JP 4678428B2
Authority
JP
Japan
Prior art keywords
pointing device
index
virtual
space
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008163512A
Other languages
English (en)
Other versions
JP2008226279A (ja
Inventor
正徳 柏木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Corp
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Works Ltd filed Critical Panasonic Corp
Priority to JP2008163512A priority Critical patent/JP4678428B2/ja
Publication of JP2008226279A publication Critical patent/JP2008226279A/ja
Application granted granted Critical
Publication of JP4678428B2 publication Critical patent/JP4678428B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンピュータにより規定された仮想三次元空間内に位置および向きを示す指標を生成するとともに、実空間における指示デバイスの操作により仮想三次元空間内における指標の位置や向きを変更する仮想空間内位置指示装置に関するものである。
従来から、仮想三次元空間および仮想三次元空間内に存在する仮想物体をコンピュータにより規定し、仮想物体を含む仮想三次元空間を適宜の表示装置に表示するように構成した仮想空間提示システムが提供されている。この種の仮想空間提示システムは、たとえば、三次元空間でのシミュレーションを行う装置に用いられている。この種の仮想空間提示システムでは、仮想三次元空間内の位置や方向を指示したり仮想物体を選択したりするために、仮想三次元空間内に位置および向きを示すポインタを生成して仮想三次元空間とともに表示装置に表示するとともに、仮想三次元空間内におけるポインタの位置や方向を実空間における指示デバイスの操作によって変化させる機能を要求されることがある。ただし、三次元空間では視点の位置や方向によって視点に対するポインタの位置や方向が変化し、しかもポインタの位置や方向は三次元で変化するから、仮想三次元空間におけるポインタの位置および向きを実空間での指示デバイスの操作に結び付けるだけではなく、表示装置に表示されたポインタの位置および向きと指示デバイスの操作とが直感的に関連付けられるようにすることが必要である。
仮想三次元空間を表示する表示装置にポインタを表示し、指示デバイスによってポインタの位置および向きを変化させる技術としては、CRTディスプレイに表示した仮想三次元空間において、円錐の底面に円筒を接続した立体矢印型の主ポインタを表示するとともに、主ポインタのポイント方向に円錐形などの補助ポインタを表示することが考えられている(たとえば、特許文献1参照)。
特許文献1では、主ポインタの三次元的位置および向きを入力するためのポインタ位置入力装置が設けられ、主ポインタと補助ポインタとの間隔と、補助ポインタの大きさとを調節する補助ポインタ調節装置が設けられる。ポインタ位置入力装置は、指示デバイスとして腕にはめるグローブを備え、実空間でのグローブの位置と方向とを仮想三次元空間における主ポインタの位置および向きに対応付けている。また、補助ポインタは主ポインタに対して補助ポインタ調節装置により設定した距離だけ離れており、補助ポインタを仮想物体に埋没させて補助ポインタの先端が仮想物体の表面から露出する状態とすることで、主ポインタの位置に対応する実空間でのグローブの位置と仮想物体の表面である補助ポインタまでの距離を知ることができるようになっている。
また、二次元ディスプレイに表示した仮想三次元空間において、棒、網、フォーク、ナイフのような仮想的な道具をポインタとして表示し、指示デバイスとしての棒状位置センサ(ペン)の位置および傾きに応じて、棒状位置センサ(ペン)の先端を延長した方向の画面に表示された道具を動かす技術も提案されている(たとえば、特許文献2参照)。
特許第3263140号公報(第0020−0021段落、第0024段落、第0031段落、第0042段落、図1、図4) 特開2003−85590号公報(第0027−0031段落、図1)
ところで、特許文献1、2に記載された技術は、二次元ディスプレイに表示された三次元画像を対象とするものであって、利用者は仮想三次元空間の外側の実空間に存在しており、利用者の存在する実空間と三次元画像が提示されている仮想三次元空間との境界を把握できる場合に利用することができるものである。
一方、近年では立体視が可能な三次元画像を提示する技術が知られており、この種の三次元画像では、利用者はあたかも仮想三次元空間の中に没入しているかのような感覚を持つことになる。この種の三次元画像では、実空間と仮想三次元空間とに境界がないから、上述した特許文献1、2に記載の技術のように指示デバイスとポインタ(指標)とが離れて位置している場合には、指示デバイスの位置とポインタ(指標)の位置との距離を把握することができないものであるから、実空間における指示デバイスと仮想三次元空間におけるポインタ(指標)との位置関係を直感的に把握することが困難になるという問題が生じる。また、立体視を行う三次元画像ではなくとも利用者が没入感を持つような広視野の三次元画像においても同様の問題が生じる可能性がある。このように、実空間における指示デバイスと仮想三次元空間における指標との位置関係を把握するのが困難であると、利用者は三次元画像の中で指標を見失う可能性が生じ、結果的に三次元空間の中で位置や方向を指示したり、三次元空間に表示される仮想物体を選択したりすることが困難になる。
なお、特許文献1には、従来技術として、腕や手指に指示デバイスを装着し、腕や手指と指標とを三次元画像内で重ねて表現する技術が記載されており、この技術を用いると指標を見失う可能性が低減されるが、三次元画像内において腕や手指が届く領域を越えて位置や方向を指示したり、正確な距離を指示したりすることは困難である。
本発明は上記事由に鑑みて為されたものであり、その目的は、没入感を持つような三次元画像内であっても指標を見失うことなく、三次元画像の全領域に指標を移動させることが可能であり、しかも指示デバイスと指標との位置関係を直感的に把握することができるようにした仮想空間内位置指示装置を提供することにある。
請求項1の発明は、コンピュータにより規定された仮想三次元空間に関して仮想空間表示手段に設けたスクリーンに投影された三次元画像に向かって実空間内で所望の向きに向けることができる指示デバイスと、前記指示デバイスの実空間での位置および向きを検出する指示デバイス位置・方向検出部と、前記指示デバイスを向けた向きに長さを有する指標を前記三次元画像の中に表示するための指標データを生成する指標データ生成部と、前記指示デバイス位置・方向検出部により検出された前記指示デバイスの実空間での位置および向きとともに指標の長さを指標データ生成部に与える指示デバイス長さ数値設定部とを備え、前記指示デバイス位置・方向検出部は、前記指示デバイスに設けられ前記スクリーンに所要のパターンを投影する投光素子と、前記指示デバイスに設けられ前記投光素子から前記スクリーンに投影されたパターンを撮像する撮像素子とを備え、前記指標データ生成部は撮像素子により撮像されたパターンの形状を用いて前記指示デバイスの位置および向きを計算することを特徴とする。
この構成によれば、指示デバイスを所望の向きに向けることによって三次元画像における目的位置が指示デバイスを向けた線上に位置することになり、指示デバイスに連動する指標が指示デバイスを向けた向きに長さを有するから、指標の長さを変化させることによって目的位置に指標を触れさせることが可能になる。つまり、三次元画像の任意の位置を指示デバイスの位置および向きと長さとで指定することができるのであって、指示デバイスは仮想三次元空間内の位置を言わば指示デバイスに設定した球座標で指定することになる。つまり、指示デバイスと指標との位置関係を直感的に把握することができる上に三次元画像の全領域に指標を移動させることが可能になる。また、指標が指示デバイスを向けた向きの長さを有しているから、あたかも差し棒で指し示すかのような感覚で三次元画像の目的位置を指定することができ、指示デバイスと指標との関係が認識された後には、急激に視点位置を変更しない限り指標を見失うことがないから、没入感を持つような三次元画像内であっても指標を見失うことがなく、しかも仮想三次元空間における指標や利用者の位置とは別に視点のみを変更して適正な視野を任意に設定することも可能になる。その上、指示デバイスの位置および向きを指示デバイスに設けた投光素子および撮像素子によって検出するから、指示デバイスの位置および向きを精度よく検出することができる。また、投光素子が指示デバイスに設けられていることによってスクリーン上でパターンが形成される部位は狭い範囲に制限されるから、撮像素子はスクリーンの全体を撮像する必要がなく、撮像素子の視野のうちパターンの締める面積を大きくとることができるから、パターンに基づく位置および向きの検出を精度よく行うことができる。
請求項2の発明は、請求項1の発明において、前記指示デバイスと前記指示デバイス位置・方向検出部と前記指示デバイス長さ数値設定部と前記指標データ生成部とが複数個ずつ設けられ、前記仮想空間表示手段は前記三次元画像内に各指示デバイスごとの指標を重ねて表示することを特徴とする。
この構成によれば、複数個の指示デバイスによって1つの三次元画像内に複数の指標を表示することができ、各指標を独立して移動させることが可能になる。つまり、三次元画像内の複数の位置を同時に指定することが可能になる。また、三次元画像内の仮想物体に対して、位置、向き、長さの変更が可能なプログラムを用いることによって、各指示デバイスにより指定した仮想物体の相対的な位置関係や大小関係の変更が容易になる。たとえば、2個の指示デバイスを用いることにより、2個の仮想物体を互いに引き離すような操作が簡単に行えることになる。
請求項3の発明は、請求項1または請求項2の発明において、実空間内における前記指示デバイスの位置および向きの変化の自由度を制限する移動制御手段が付加されることを特徴とする。
この構成によれば、指示デバイスの位置および向きの変化の自由度を制限することによって、指示デバイスの実空間での位置および向きの検出が容易になる。ここに、方位角と仰角・伏角のみが変更可能となるように指示デバイスの移動を規制しても仮想三次元空間の任意の位置を球座標で指定することができる。また、仮想三次元空間のすべての位置を指定する必要がない場合には、指示デバイスの位置を固定して指標の長さのみ変更可能としたり、机上面のような1つの平面内での移動のみを許容するように移動を制限することも可能である。
請求項4の発明は、請求項1ないし請求項3の発明において、前記指示デバイスが、指標により指定した前記三次元画像内の場所に応じた触覚を提示する触覚提示手段を備えることを特徴とする。
この構成によれば、利用者に対して視覚的な情報だけではなく三次元画像内の場所に応じた情報を触覚として提示することが可能になる。ここに、触覚は振動などのほか温度によって皮膚感覚を提示する手段も含む。
請求項5の発明は、請求項1ないし請求項4の発明において、前記三次元画像内の仮想物体と前記指示デバイスに連動する指標との衝突の有無を判定する仮想空間衝突判定部と、前記仮想空間衝突判定部により衝突が検出されたことを通知する衝突通知手段とが付加されていることを特徴とする。
この構成によれば、仮想三次元空間内の仮想物体と指標との衝突の有無を判定し、衝突があれば利用者に通知するから、仮想物体に指標が接触したか否かを容易に知ることができる。なお、仮想物体は不可視であってもよく、仮想三次元空間に不可視ではあるが何らかの意味付けがなされた領域が存在するときに、当該領域に指標が接触したことを知ることが可能になる。たとえば、磁場や有毒ガスの存在する空間を仮想三次元空間で模擬するような場合に、それらの存在領域を指標との衝突によって通知することが可能になる。
本発明の構成によれば、指示デバイスと指標との位置関係を直感的に把握することができる上に三次元画像の全領域に指標を移動させることが可能になり、また、指標が指示デバイスを向けた向きの長さを有しているから、あたかも差し棒で指し示すかのような感覚で三次元画像の目的位置を指定することができ、指示デバイスと指標との関係が認識された後には、急激に視点位置を変更しない限り指標を見失うことがないから、没入感を持つような三次元画像内であっても指標を見失うことがなく、しかも仮想三次元空間における指標や利用者の位置とは別に視点のみを変更して適正な視野を任意に設定することも可能になるという利点がある。
以下に説明する実施形態では、図2に示すように、立体視が可能な仮想空間表示手段としてディスプレイ装置2を用い、ディスプレイ装置2に表示される三次元画像に対してコンピュータ2を用いて三次元の座標系を規定しているものとする。ディスプレイ装置2により表示される三次元画像の少なくとも一部は、コンピュータ2に格納された三次元画像データにより表示される画像であって、三次元画像データは前記座標系を用いて規定された仮想三次元空間を構成する。つまり、三次元画像データは三次元空間における位置情報を含んでいる。
ディスプレイ装置2は、プロジェクタ21とスクリーン22と立体視用眼鏡23とを用いて構成される。すなわち、プロジェクタ21は視差分だけ視点位置の異なる2種類の画像をスクリーン22に投影し、立体視用眼鏡23では利用者Mの左右の目で各一方の画像のみが見えるようにスクリーン22に投影された画像を分離する。この種の技術としては、たとえば偏光を利用して画像を分離する技術が知られている。ここに、プロジェクタ21は2種類の画像をスクリーン22に同時に投影するものと、2種類の画像をスクリーン22に交互に投影するものとのいずれを用いてもよい。2種類の画像をスクリーン22に交互に投影する場合には、画像の切換が人に認識されない程度の短い時間で両画像の切換を行うことが必要である。スクリーン22には利用者Mが向き合う面を凹面としたものを用いるのが望ましく、このようなスクリーン22を用いることによって、利用者Mには実際に仮想三次元空間内に存在するかのような感覚(いわゆる、没入感)を与えることが可能になる。図2には、三次元画像データによる三次元画像によって、利用者Mが認識する仮想物体Ob1,Ob2を示してあり、利用者Mには仮想物体Ob1,Ob2がスクリーン22から飛び出しているかのように認識されることになる。また、図示例では利用者Mが三次元空間として認識する領域を破線で囲んで示している。なお、スクリーン22の形状にはとくに制限はなく、平面型のスクリーン22を用いたり、利用者Mの全周囲を囲むようなスクリーン22を用いることも可能である。
ディスプレイ装置2ではコンピュータ3から出力された画像が表示されるから、ディスプレイ装置2はコンピュータ3の出力装置として用いられることになる。コンピュータ3には出力装置としてスピーカ4も設けられ、また入力装置としてはキーボード5のほか、仮想三次元空間における所望の位置および向きを指示する指示デバイス1と、ディスプレイ装置2に表示する三次元画像の視点位置の変更を指示する視点位置操作部43としての視点入力装置6とが設けられる。視点入力装置6は図示例ではトラックボールを用いており、トラックボールを回転させるとスクリーン22に表示される画像の視点が変更される。つまり、図示例のスクリーン22は利用者Mの前方にのみ画像を表示するものであるから、利用者Mの周囲の他の方向の画像は視点入力装置6の操作によってスクリーン22に表示されることになる。また、視点入力装置6を操作して利用者Mが視点を変更することにより、仮想物体Ob1,Ob2あるいは指標Pを仮想三次元空間内の所望の向きから見ることが可能になる。
指示デバイス1は、二次元画像に対してポインティングデバイスとして用いるマウスやトラックパッドと同様に画像内の位置を指示し、さらに、三次元画像が対象であるから位置だけではなく方向も指示できるように構成される。指示デバイス1は、利用者Mが手で把持することができる棒状の把持部11(図4参照)を有した可搬型のケース10を備える。
指示デバイス1は、把持部11の長手方向を前後方向としており、コンピュータ3では指示デバイス1の前端から把持部11の長手方向に延長した棒状の指標Pを三次元画像内に生成する。指標Pの長さは指示デバイス長さ数値設定部42(図1参照)により設定可能になっている。指標Pは、指示デバイス1の先端に連続した形が望ましく、指標Pの長さは、指示デバイス1において把持部11の近傍に設定した基点から指標Pの前端(先端)までの距離とする。指標Pの長さを数値で入力する指示デバイス長さ数値設定部42は、キーボード5を用いてもよいが、後述するように指示デバイス1に一体に設けるのが望ましい。指示デバイス1は利用者Mが把持するものであるから、コンピュータ3において指標Pを生成するには、指示デバイス1の実空間における位置および向きをコンピュータ3で認識する必要がある。そこで、指示デバイス1の位置および向きを検出する指示デバイス位置・方向検出部41(図1参照)がコンピュータ3への入力装置として設けられる。また、キーボード5は、利用者Mの視点位置と視線方向と視野角とを入力する利用者初期位置設定部44として用いられる。
指示デバイス位置・方向検出部41は、指示デバイス1に一体に設ける場合と、指示デバイス1とは別体に設ける場合とがある。指示デバイス1に一体に設ける指示デバイス位置・方向検出部41としては、地磁気(あるいは、指示デバイス1を用いる環境に生成した磁場)を検出して指示デバイス1の向きを検出する磁気センサ、指示デバイス1に作用する加速度を検出して指示デバイス1の位置および向きを検出する加速度センサ、指示デバイス1を用いる環境において複数の規定位置との距離を光学的に計測する位置センサなどを用いることができる。また、指示デバイス1とは別体に設ける指示デバイス位置・方向検出部41としては、指示デバイス1に設けた磁石の位置を検出する磁気センサ、複数の規定位置から指示デバイス1までの距離を光学的に計測する位置センサなどを用いることができる。指示デバイス位置・方向検出部41の検出値はコンピュータ3に常時入力され、コンピュータ3では指示デバイス位置・方向検出部41の検出値に基づいて指示デバイス1の位置および向きを求める。
コンピュータ3での処理について、図1および図3を用いて説明する。コンピュータ3は、指示デバイス1の実空間での位置および向きに関する情報に基づいて仮想三次元空間に指標Pを生成する機能と、利用者Mが指示した視点によってディスプレイ装置2に表示すべき視野を決定する機能と、指標Pを含む仮想三次元空間のうち視野内の三次元画像を表示する機能とをプログラムを実行することによって実現する。
仮想三次元空間に指標Pを生成するために、コンピュータ3は、仮想三次元空間における指標Pの位置および向きに関する指標データを生成する指標データ生成部31と、指標Pを除く三次元画像の画像データを出力する仮想空間データ生成部32と、指標データ生成部31で生成した指標データを仮想空間データ生成部32から出力される画像データに重ね合わせる画像データ生成部33とを備える。
指標データ生成部31は、指示デバイス1の実空間での位置および向きに関する情報に基づいて指標Pを生成する。つまり、指標データ生成部31には、利用者の初期位置が利用者初期位置設定部13から入力されるとともに、指示デバイス1の位置および向きに関する情報が指示デバイス位置・方向検出部41から入力され、さらに指示デバイス1の長さを指定する数値が指示デバイス長さ数値設定部42から入力される。したがって、指標データ生成部31では、これらの情報に基づいて、指標Pの位置と向きと長さとを含む指標データを生成することができ、指標Pの位置および向きは指示デバイス1の実空間での位置および向きに一対一に対応することになる。
コンピュータ3には、視野を規定するための視野データを生成する視野判定部34が設けられ、視野判定部34からの視野データも画像データ生成部33に与えられる。視野判定部34には、利用者初期位置設定部13から利用者の初期位置が入力され、利用者Mの初期位置が決まると初期位置に対してスクリーン22に表示可能な視野が算出される。また、視野判定部34には視点位置操作部14から視点位置も与えられ、視点位置が変化すると当該視点位置からの視野を算出し、視野データとして画像データ生成部33に与える。視野判定部34から画像データ生成部33に視野データが与えられると、画像データ生成部33では、画像データに指標データを重ねた三次元画像から視野データにより規定される視野内を抽出し、表示用の画像データとして出力する。つまり、画像データ生成部33から出力された表示用の画像データは、画像出力部35により映像信号に変換されプロジェクタ21によりスクリーン22に投影される。なお、スクリーン22に投影され利用者Mの左右の各目で見る画像は、それぞれ1秒間に30フレームとすることによって動きを滑らかにするのが望ましい。
ところで、上述した指標データ生成部31から出力された指標データと、仮想空間データ生成部32から出力された画像データとは、仮想空間衝突判定部36にも入力される。仮想空間衝突判定部36は、仮想三次元空間に存在する仮想物体Ob1,Ob2に指標Pが衝突しているか否かを判定するものであり、指標Pのいずれかの部位が仮想物体Ob1,Ob2に重複していると衝突と判断するようになっている。つまり、仮想三次元空間は仮想空間データ生成部32の画像データにより規定されているから、仮想物体Ob1,Ob2の位置情報は仮想空間データ生成部32から出力される画像データにより知ることができ、また指標データは指標Pの位置と向きと長さとを含むから、仮想物体Ob1,Ob2の占める空間領域と指標Pの占める空間領域とを知ることができ、仮想空間衝突判定部36では、両者の空間領域に重複部分があれば衝突と判断する。仮想空間衝突判定部366において衝突と判定したときには、衝突表示部37により利用者Mに対して衝突を通知する。衝突表示部37としては、衝突を表す図形をスクリーン22に投影するものか、スクリーン22とは別の場所に配置した表示灯を用いる。いずれにしても、衝突を表示することによって指標Pと仮想物体Ob1,Ob2との衝突を知ることが可能になる。ここに、仮想空間衝突判定部36において衝突を判断したときに、スピーカ4から衝突を通知する音を発生させてもよい。なお、仮想物体Ob1,Ob2と指標Pとの衝突を通知する必要がなければ、仮想空間衝突判定部36および衝突表示部37は省略可能である。
なお、指標Pの先端が仮想三次元空間内の特定位置に達したとき(衝突時)に、衝突を利用者に通知する衝突通知手段としては、スピーカ4や衝突表示部37のほかに、指示デバイス1の把持部11に触覚で衝突を通知する触覚提示手段を設けておき、衝突時に指示デバイス1を通して触覚を与えるようにしてもよい。つまり、指示デバイス1の把持部11にバイブレータやヒータを設け、振動あるいは温度変化によって衝突を通知してもよい。このように指示デバイス1ごとに衝突通知手段を設けることにより、後述するように複数の指示デバイス1を同時に用いるときに、各指示デバイス1ごとに衝突を知ることが可能になる。また、触覚提示手段は衝突を通知する目的だけではなく、三次元画像内の場所に応じた情報を提示する目的に用いてもよい。つまり、三次元画像として表示されている仮想物体の温度などを提示する手段として用いてもよい。
コンピュータ3による上述の機能を実現するプログラムの処理手順を図3に示す。図では上述した衝突の判断を行う例を示しているが、衝突の判断が不要であれば衝突判定(S6)を省略することが可能である。指示デバイス1を操作して三次元画像内で指標Pを移動させるにあたっては、まず利用者初期位置設定部13を用いて利用者Mの初期位置が入力される(S1)。したがって、視野判定部34では視野の初期値が得られる。以下の処理は動作中において繰り返される処理であって、まず指標データ生成部31において、指示デバイス1の位置および向きを指示デバイス位置・方向検出部41から読み込み(S2)、さらに指標デバイス長さ数値設定部42から指標Pの長さを指定する数値を読み込む(S3)。この時点で、指標データ生成部31に必要な情報が揃うから、指標データ生成部31では指標データを生成する(S4)。ここに、ステップS2とステップS3とは逆でもよいのはもちろんのことである。
生成された指標データは画像データ生成部33に入力され、さらに画像データ生成部33では仮想空間データ生成部32から仮想三次元空間の画像データを読み込む(S5)。また、仮想空間衝突判定部36においても指標データと画像データとを用いて衝突の有無を判定し、衝突があれば通知する(S6)。一方、視野判定部34では視点位置操作部14の操作を監視しており(S7)、視点位置操作部14が操作されたときには利用者Mの初期位置に対する視点位置の変更を行い視野を決定して視野データを出力する(S8)。ここに、指標データや視野データは変更がなければ読み込みを省略してもよい。また、読み込みを省略したデータは処理も不要になる。
指標データと画像データと視野データとが揃うと、画像データ生成部33では表示用の画像データを生成し(S9)、画像出力部35から出力する画像内容を更新する(S10)。ステップS2〜S10の処理は動作中に繰り返され、1回の繰り返しの時間を1/30秒以下にすることによって、利用者Mに対して滑らかに変化する画像を提供することができる。
上述したように、仮想三次元空間においては、指示デバイス1の前端から棒状の指標Pが延長された形で表示されるから、仮想三次元空間内の仮想物体Ob1,Ob2に指標Pの先端を接触させる際に、あたかも実空間において手に持った棒を対象物に接触させる感覚と同様の感覚で操作することができ、仮想物体Ob1,Ob2を指標Pで指定ないし選択する操作を直感的かつ容易に行うことが可能になる。
ところで、指示デバイス1は、図4のような形状に形成することができる。すなわち、手で握ることができる棒状の把持部11を有したケース10を備え、把持部11の長手方向の一端(前端)には液晶表示器などからなる数値表示部12が設けられる。把持部11と数値表示部12との間には数値を選択するためのダイアル13と、指標Pで触れた仮想三次元空間の所望の部位(たとえば、仮想物体Ob1,Ob2)の選択を決定する際に押操作される押釦スイッチ14とが設けられる。図4(a)の構成と図4(b)の構成とはダイアル13の回転方向が相違するものであって、図4(a)の構成ではダイアル13が把持部11の長手方向に沿った中心線の回りに回転するのに対して、図4(b)の構成ではダイアル13が把持部11の長手方向に直交する1つの軸回りに回転するように構成してある。数値表示部12とダイアル13とを用いることによって指標Pの長さを入力することができ、この構成を採用することにより、図2に示した実施形態のように指標Pの長さをキーボード5から入力する必要がなくなる。また、指示デバイス1において指標Pの長さを調節することが可能であるから、利用者Mが三次元画像内の指標Pの長さを確認しながら、指標Pの長さを適正に調節することが可能になる。押釦スイッチ14はモメンタリ型(押操作中のみオンになる)であって、マウスにおけるクリックボタンと同様に、指標Pが触れた部位を選択する際に押操作される。押釦スイッチ14の押操作の有無は、図示しないインタフェースを介してコンピュータ3に認識される。なお、数値表示部12を省略し、ダイアル13で選択した数値をスクリーン22に投影してもよい。
上述した指示デバイス1では、単純な棒状の指標Pを三次元画像に表示する例を示したが、図5に示すように、棒状の指標Pに付加情報を示す補助指標Qを三次元画像に表示してもよい(図示例ではダイヤル13および押釦スイッチ14を省略している)。図に示す補助指標Qはコンパスの針状の図形であって、視野内の三次元画像の中心が示す方位(つまり、利用者Mが見ている視野の方位)を示したり、指標Pの長手方向が三次元画像の正面に対してなす方向を示したりすることができる。図示例では補助指標Qによって指標Pの長手方向が示す仮想三次元空間内の方位を示しており、指標Pの長手方向が東西方向であることを示している。
補助指標Qはコンパスの針状の図形以外にも所望の図形を用いることが可能であって、分度器状として角度の基準を示したり、定規ないし巻き尺状として尺度を示したりすることができる。また、指標Pあるいは補助指標Qに着色することによって(色相、明度、彩度)の基準値を示すことも可能である。また、補助指標Qの位置は適宜に設定すればよく、図示例では指標Pの先端側に補助指標Qを設けているが、指標Pの基端側に設けてもよい。
ところで、指標Pは通常は指示デバイス1の位置および向きに連動して仮想三次元空間内で移動するが、指示デバイス1から指標Pを切り離して三次元画像に表示することも可能になっている。つまり、三次元画像に表示された指標Pを指示デバイス1から切り離してその位置に留めることが可能になっている。指示デバイス1から指標Pを切り離す分離操作手段は、押釦スイッチ14を続けて2回押す操作などにより対応付けられ、コンピュータ3において実行されるプログラムでは、この種の操作により指標Pを指示デバイス1から切り離す処理が行われる。指標Pの長さは数値によって規定されているから、指示デバイス1から指標Pを切り離すことによって、三次元画像内に尺度を与えることができ、また指標Pの向きによって三次元画像に基準の方向を与えることが可能になる。このようにして複数の指標P,P1〜P4を三次元画像内に配置した例を図6に示す。つまり、指示デバイス1から切り離された指標Pは三次元画像内に留まるが、三次元画像内には指示デバイス1と連動する指標Pが新たに生成されるのであって、図6では指標P1〜P4が三次元画像内に留まった指標を表している。このように三次元画像内に留まっている指標P1〜P4は、三次元画像内の仮想物体として扱うことができ、指示デバイス1に連動する指標Pの先端で触れるとともに押釦スイッチ14を押しながら指標Pを移動させることによって、指標P1〜P4の位置を変更することが可能になっている。この操作はマウスによるドラッグアンドドロップと同様の操作であって、指示デバイス1から切り離された指標P1〜P4は仮想物体として扱うことができるのである。
上述のように、三次元画像内の仮想物体は指標Pで触れることにより移動させることが可能であって、図7に示すように、三次元画像内に複数個(図示例では2個)の仮想物体Ob1,Ob2が存在するときには、複数個(図示例では2個)の指示デバイス1a,1bを用い、各指示デバイス1a,1bに連動する指標Pで所望の仮想物体Ob1,Ob2を指定し(先端を接触させる)、仮想物体Ob1,Ob2をそれぞれ移動させるようにしてもよい。このように複数個の指示デバイス1a,1bを用いる場合には、指示デバイス位置・方向検出部41、指示デバイス長さ数値設定部42、指標データ生成部31を各指示デバイス1a,1bごとに設け、各指標データ生成部31からそれぞれ出力される指標データを画像データ生成部33において合成すればよい。上述のように、各指示デバイス1a,1bに対応する指標Pで異なる仮想物体Ob1,Ob2をそれぞれ移動させることが可能になっているから、たとえば仮想物体Ob1をボルトとし、仮想物体Ob2をナットとして、各指示デバイス1a,1bを左右の手でそれぞれ持つことにより、仮想三次元空間に配置したボルト(仮想物体Ob1)とナット(仮想物体Ob2)との緩め締めが可能になる。なお、図では1人の利用者Mが左右の手で指示デバイス1a,1bを操作する状態を示しているが、複数の利用者Mがそれぞれ指示デバイス1a,1bを操作することも可能である。
上述の例では、指示デバイス1を利用者Mが手で持つことによって、利用者Mの手の動く範囲内では任意の位置および向きに指示デバイス1を移動させることができるようにした例を示したが、図8に示すように、指示デバイス1を移動制限手段としてのスタンド7に取り付けることによって、指示デバイス1の移動範囲を制限することが可能である。図示例では、指示デバイス1の方位角(水平面に平行な面内での回転角)と仰角・伏角(垂直面に平行な面内での回転角)とが変更可能になっている。また、指標Pの長さも可変になっている。このように指標Pの自由度を6自由度から3自由度に制限することによって、操作が簡単になる上にコンピュータ3での指標Pに関する処理が簡単になる。指示デバイス1の動きの自由度のうちのどれを制限するかは目的に応じて適宜に選択することが可能である。
指示デバイス1の位置および向きを検出する指示デバイス位置・方向検出部41の構成例として、磁気センサ、加速度センサ、光学的センサを挙げたが、図9に示す構成によっても指示デバイス1の位置および向きを検出してもよい。図示例は、指示デバイス1に、スクリーン22を撮像することができる撮像素子(図示せず)と、撮像素子の視野VF内に光スポットSPを投影する投光素子(図示せず)とを設け、撮像素子により得られる光スポットSPの画像を用いて指示デバイス1の位置および向きを検出している。すなわち、撮像素子により撮像される光スポットSPの形状や面積は指示デバイス1とスクリーン22との相対位置によって変化するから、スクリーン22の位置および形状と撮像素子の視野VFとを考慮し、光スポットSPの形状などを用いて幾何学的に計算すれば、スクリーン22に対する指示デバイス1の位置および向きを知ることができる。たとえば、投光素子から平面であるスクリーン22に対して円形パターンを投影したときに、スクリーン22に楕円形の光スポットSPが形成されたとすると、楕円の寸法および傾きによってスクリーン22と指示デバイス1との相対位置を知ることができるから、スクリーン22の位置が既知であれば指示デバイス1の位置を知ることができる。すなわち、指示デバイス位置・方向検出部41として撮像素子および投光素子を設け、指標データ生成部31において上述した幾何学的な計算を行うのである。なお、スクリーン22上の画像に形成される光スポットSPが利用者Mに認識されないように、投光素子は赤外線のような不可視光を用いる。また、投光素子からスクリーン22に投影するパターンは円形パターンに限らず、適宜の形状のパターンを用いることができる。
上述したように、複数の指示デバイス1を用いることによって1つのスクリーン22に複数本の独立した指標Pを表示することが可能であるから、異なる複数台のコンピュータ3にそれぞれ指示デバイス1を接続し、コンピュータ3間でデータ通信を行うことによって1つの三次元画像の中に各コンピュータ3に対応する指示デバイス1に対応して生成した指標Pを表示することが可能である。つまり、各コンピュータ3に通信手段(図示せず)を設け、図10(a)のように各コンピュータ3をインターネットやローカルエリアネットワークのようなネットワークNTに接続することによって、ネットワークNTを介してコンピュータ3間でデータ通信が可能になるようにしてあり、いずれか1台のコンピュータ3に設けた仮想空間データ生成部32から与えられる画像データと、各コンピュータ3でそれぞれ生成された指標データとを各コンピュータ3で共用する構成としている。この構成によって、図10(b)のように1つの三次元画像について、複数の利用者M1,M2がそれぞれ指示デバイス1を用いて複数の指標Pを表示することが可能になる。したがって、互いに遠方に存在する利用者M1,M2が、1つの三次元画像について討議を行ったり、三次元画像を用いるゲームで対戦したりするような利用が可能になる。なお、上述した各技術は適宜に組み合わせて用いることができる。
本発明の実施形態を示すブロック図である。 同上の概略構成図である。 同上の処理手順を示す動作説明図である。 (a)(b)はそれぞれ同上に用いる指示デバイスの外観を示す斜視図である。 同上における指標の一例を示す図である。 同上の動作説明図である。 同上の使用例を示す図である。 同上の使用例を示す図である。 同上の動作説明図である。 (a)は同上の使用例を示す概略構成図、(b)は同上の使用例を示す図である。
符号の説明
1 指示デバイス
2 仮想空間表示手段
3 コンピュータ
4 スピーカ
7 スタンド
14 押釦スイッチ
22 スクリーン
31 指標データ生成部
36 仮想空間衝突判定部
37 衝突表示部
41 指示デバイス位置・方向検出部
42 指示デバイス長さ数値設定部
Ob1,Ob2 仮想物体
P 指標

Claims (5)

  1. コンピュータにより規定された仮想三次元空間に関して仮想空間表示手段に設けたスクリーンに投影された三次元画像に向かって実空間内で所望の向きに向けることができる指示デバイスと、前記指示デバイスの実空間での位置および向きを検出する指示デバイス位置・方向検出部と、前記指示デバイスを向けた向きに長さを有する指標を前記三次元画像の中に表示するための指標データを生成する指標データ生成部と、前記指示デバイス位置・方向検出部により検出された前記指示デバイスの実空間での位置および向きとともに指標の長さを指標データ生成部に与える指示デバイス長さ数値設定部とを備え、前記指示デバイス位置・方向検出部は、前記指示デバイスに設けられ前記スクリーンに所要のパターンを投影する投光素子と、前記指示デバイスに設けられ前記投光素子から前記スクリーンに投影されたパターンを撮像する撮像素子とを備え、前記指標データ生成部は撮像素子により撮像されたパターンの形状を用いて前記指示デバイスの位置および向きを計算することを特徴とする仮想空間内位置指示装置。
  2. 前記指示デバイスと前記指示デバイス位置・方向検出部と前記指示デバイス長さ数値設定部と前記指標データ生成部とが複数個ずつ設けられ、前記仮想空間表示手段は前記三次元画像内に各指示デバイスごとの指標を重ねて表示することを特徴とする請求項1記載の仮想空間内位置指示装置。
  3. 実空間内における前記指示デバイスの位置および向きの変化の自由度を制限する移動制御手段が付加されることを特徴とする請求項1または請求項2記載の仮想空間内位置指示装置。
  4. 前記指示デバイスは、指標により指定した前記三次元画像内の場所に応じた触覚を提示する触覚提示手段を備えることを特徴とする請求項1ないし請求項3のいずれか1項に記載の仮想空間内位置指示装置。
  5. 前記三次元画像内の仮想物体と前記指示デバイスに連動する指標との衝突の有無を判定する仮想空間衝突判定部と、前記仮想空間衝突判定部により衝突が検出されたことを通知する衝突通知手段とが付加されていることを特徴とする請求項1ないし請求項4のいずれか1項に記載の仮想空間内位置指示装置。
JP2008163512A 2008-06-23 2008-06-23 仮想空間内位置指示装置 Expired - Fee Related JP4678428B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008163512A JP4678428B2 (ja) 2008-06-23 2008-06-23 仮想空間内位置指示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008163512A JP4678428B2 (ja) 2008-06-23 2008-06-23 仮想空間内位置指示装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003281323A Division JP4186742B2 (ja) 2003-07-28 2003-07-28 仮想空間内位置指示装置

Publications (2)

Publication Number Publication Date
JP2008226279A JP2008226279A (ja) 2008-09-25
JP4678428B2 true JP4678428B2 (ja) 2011-04-27

Family

ID=39844725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008163512A Expired - Fee Related JP4678428B2 (ja) 2008-06-23 2008-06-23 仮想空間内位置指示装置

Country Status (1)

Country Link
JP (1) JP4678428B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011081453A (ja) * 2009-10-02 2011-04-21 Toshiba Corp 映像再生装置及び映像再生方法
JP2012022639A (ja) 2010-07-16 2012-02-02 Ntt Docomo Inc 表示装置、映像表示システムおよび映像表示方法
JP4991953B2 (ja) * 2011-06-10 2012-08-08 株式会社東芝 映像再生装置及び映像再生方法
JP5550670B2 (ja) * 2012-03-28 2014-07-16 株式会社デンソーアイティーラボラトリ 情報処理装置
US11886650B2 (en) * 2019-04-19 2024-01-30 Apple Inc. Stylus-based input system for a head-mounted device
JP7504839B2 (ja) 2021-06-30 2024-06-24 賢一 丹羽 ユーザインターフェースシステム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265637A (ja) * 1992-03-16 1993-10-15 Toshiba Corp 3次元ポインティング装置
JPH06308879A (ja) * 1992-08-19 1994-11-04 Fujitsu Ltd 光学式ポインティングシステム
JPH07143523A (ja) * 1993-11-20 1995-06-02 Ikuo Ishii 三次元画像表示システムにおける観察点位置検出装置並びにスタイラス操作装置
JPH0944298A (ja) * 1995-07-25 1997-02-14 Shimadzu Corp 入力装置
JPH11248415A (ja) * 1998-03-03 1999-09-17 Sharp Corp 3次元位置方向指示装置
JP2000056917A (ja) * 1998-08-11 2000-02-25 Nippon Telegr & Teleph Corp <Ntt> 三次元座標指示装置
JP2001148025A (ja) * 1999-09-07 2001-05-29 Nikon Gijutsu Kobo:Kk 位置検出装置及びその方法、平面姿勢検出装置及びその方法
JP2002032784A (ja) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab 仮想対象物操作装置および仮想対象物操作方法
JP2002259989A (ja) * 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
JP2003085590A (ja) * 2001-09-13 2003-03-20 Nippon Telegr & Teleph Corp <Ntt> 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265637A (ja) * 1992-03-16 1993-10-15 Toshiba Corp 3次元ポインティング装置
JPH06308879A (ja) * 1992-08-19 1994-11-04 Fujitsu Ltd 光学式ポインティングシステム
JPH07143523A (ja) * 1993-11-20 1995-06-02 Ikuo Ishii 三次元画像表示システムにおける観察点位置検出装置並びにスタイラス操作装置
JPH0944298A (ja) * 1995-07-25 1997-02-14 Shimadzu Corp 入力装置
JPH11248415A (ja) * 1998-03-03 1999-09-17 Sharp Corp 3次元位置方向指示装置
JP2000056917A (ja) * 1998-08-11 2000-02-25 Nippon Telegr & Teleph Corp <Ntt> 三次元座標指示装置
JP2001148025A (ja) * 1999-09-07 2001-05-29 Nikon Gijutsu Kobo:Kk 位置検出装置及びその方法、平面姿勢検出装置及びその方法
JP2002032784A (ja) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab 仮想対象物操作装置および仮想対象物操作方法
JP2002259989A (ja) * 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
JP2003085590A (ja) * 2001-09-13 2003-03-20 Nippon Telegr & Teleph Corp <Ntt> 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体

Also Published As

Publication number Publication date
JP2008226279A (ja) 2008-09-25

Similar Documents

Publication Publication Date Title
US10217288B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
JP4701424B2 (ja) 画像認識装置および操作判定方法並びにプログラム
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
JP5604739B2 (ja) 画像認識装置および操作判定方法並びにプログラム
US20190238755A1 (en) Method and apparatus for push interaction
ES2835598T3 (es) Interfaz de gesto
WO2014141504A1 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
WO2012032687A1 (ja) 画像認識装置および操作判定方法並びにプログラム
CN103744518B (zh) 立体交互方法及其显示装置和系统
JP4678428B2 (ja) 仮想空間内位置指示装置
JP6021296B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
JP6534011B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JPH08190640A (ja) 情報表示方法および情報提供システム
WO2017021902A1 (en) System and method for gesture based measurement of virtual reality space
JP6519075B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP2016110177A (ja) 3次元入力装置及び入力システム
JP2017182500A (ja) 入力装置、入力プログラム、及び入力方法
JP5863984B2 (ja) ユーザインタフェース装置及びユーザインタフェース方法
JP4186742B2 (ja) 仮想空間内位置指示装置
US20230343052A1 (en) Information processing apparatus, information processing method, and program
JP2013200815A (ja) 操作入力装置、操作入力方法、及び、プログラム
JP2024041582A (ja) 情報処理装置、システム、制御方法、およびコンピュータプログラム
JPH07146776A (ja) 3次元画像情報端末装置
JP2012190261A (ja) 近接操作支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110118

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees