JPH11211414A - 位置検出システム - Google Patents

位置検出システム

Info

Publication number
JPH11211414A
JPH11211414A JP10018646A JP1864698A JPH11211414A JP H11211414 A JPH11211414 A JP H11211414A JP 10018646 A JP10018646 A JP 10018646A JP 1864698 A JP1864698 A JP 1864698A JP H11211414 A JPH11211414 A JP H11211414A
Authority
JP
Japan
Prior art keywords
light
light emitting
camera
detected
receiving means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10018646A
Other languages
English (en)
Inventor
Hajime Fujii
元 藤井
Shigeru Nonami
成 野波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka Gas Co Ltd
Original Assignee
Osaka Gas Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka Gas Co Ltd filed Critical Osaka Gas Co Ltd
Priority to JP10018646A priority Critical patent/JPH11211414A/ja
Publication of JPH11211414A publication Critical patent/JPH11211414A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)

Abstract

(57)【要約】 【課題】 例えば発光体などの複数のマーカを用いる位
置検出システムにおいて、各マーカを簡単に識別する技
術を提供すること。 【解決手段】 所定位置に設けられた複数の発光手段
と、被検出体に設けられるとともに前記発光手段からの
光を検出する受光手段2と、前記受光手段が検出した光
の検出位置に基づいて前記被検出体の位置を算出する演
算装置6とを備え、前記発光手段は光データ伝送可能な
発光体4を備えており、前記演算装置は前記受光手段が
受け取った光データに基づいて発信元の発光手段を識別
する発光識別部63を備えている位置検出システム。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、複数の発光手段を
所定位置に設けるとともにこの発光手段からの光を検出
する受光手段を被検出体に設けるか、あるいは、複数の
発光手段を被検出体に設けるとともにこの発光手段から
の光を検出する受光手段を所定位置に設け、演算装置が
前記受光手段が検出した光の検出位置に基づいて前記被
検出体の位置を算出する位置検出システムに関する。
【0002】
【従来の技術】近年、マンマシーンインターフェースの
新しい試みとしてバーチャルリアリティシステムが注目
されている。このバーチャルリアリティシステムでは、
バーチャルリアリティの体験者が身につけたヘッドマウ
ントディスプレイ(以後、HMDと略称する)に仮想空
間が提示され、操作者の体の移動や視線の移動に応じて
仮想空間の視界も変化し、あたかも実空間で行動を起こ
しているかのように自由なアクセスが可能となる。この
ために体験者の体の移動をシステム側が認識する必要が
あり、バーチャルリアリティシステムには、操作者、つ
まりHMDの位置を検出する位置検出技術が不可欠であ
る。
【0003】このような3次元位置検出技術として古く
から知られているステレオ画像法では、体験者に装着さ
れた被検出体としてのマーカを所定間隔あけて配置され
た一対のビデオカメラで撮像し、各画像面上でのマーカ
像の2次元座標値から、公知の式を用いてマーカの3次
元座標値を求める。
【0004】
【発明が解決しようとする課題】しかしながら、被検出
体にカメラを設けるとともに周囲の壁面に複数のマーカ
を固定するようなシステムでは、広範囲に移動する被検
出体の動きをカバーするために多くのマーカを用意しな
ければならない。また、被検出体に複数のマーカを設け
るとともに周囲にカメラを固定するようなシステムで
も、被検出体の動きを細かく検出するためには多数のマ
ーカを用意しなければならない。このように、多くのマ
ーカが用意された位置検出システムでは、各マーカを識
別する必要がある。つまり、現在撮像されているマーカ
が複数のうちのどれであるか、あるいはどの位置に設け
られたマーカであるかを特定することが、その検出体の
位置を算出する際に必要である。本発明の目的は、例え
ば発光体などの複数のマーカを用いる位置検出システム
において、各マーカを簡単に識別する技術を提供するこ
とである。
【0005】
【課題を解決するための手段】上記目的を達成するため
に、所定位置に設けられた複数の発光手段と、被検出体
に設けられるとともに前記発光手段からの光を検出する
受光手段と、前記受光手段が検出した光の検出位置に基
づいて前記被検出体の位置を算出する演算装置とを備え
た位置検出システムにおいても、あるいは、被検出体に
設けられた複数の発光手段と、所定位置に設けられると
ともに前記発光手段からの光を検出する受光手段と、前
記受光手段が検出した光の検出位置に基づいて前記被検
出体の位置を算出する演算装置とを備えた位置検出シス
テムにおいても、本発明による位置検出システムでは、
前記発光手段は光データ伝送可能な発光体を備えてお
り、前記演算装置は前記受光手段が受け取った光データ
に基づいて発信元の発光手段を識別する発光識別部を備
えていることを特徴とする。
【0006】この構成によれば、前述したようなマーカ
として機能する発光手段が光データを送り出すことが可
能であり、この光データの形でマーカのIDコードやそ
のマーカの取付位置データを送り出すことにより、受光
手段を通じて演算装置は処理の対象となる発光手段と特
定し、取付位置などの属性データを得ることが可能とな
る。つまり、マーカとしての発光手段が、単に光を放射
するだけではなく、何らかの情報をも送り出すことに、
本発明のユニークさがある。
【0007】さらに本発明の好適な実施形態の1つとし
て、前記発光手段の発光体に赤外線データ通信可能な赤
外線発光素子を用いるならば、データ伝送のための変調
回路や復調回路などの各種ドライバーがIrDA(Infr
ared Data Association )規格に基づく市販製品から流
用できるので、その設計・製造コストを抑制することが
できる。
【0008】さらにその際、例えば、前記受光手段を前
記赤外線発光素子の光を撮像するビデオカメラとし、前
記発光識別部を、前記ビデオカメラに撮像される前記赤
外線発光素子の光を画像処理することにより光データを
解釈して撮像された発光手段を特定するように構成する
ことで、必要な機器の構成を簡単にすることができる。
つまり、マーカとしての赤外線発光素子の光を撮像する
ビデオカメラにから得られる画像シーケンスを処理して
いくことで、例えば赤外線発光素子の点滅周期を得るこ
とで、その赤外線発光素子の特有な情報に変換するので
ある。そして、この情報から発光手段の取付位置等のデ
ータが求められ、検出体の位置算出のために利用され
る。
【0009】もちろん、前記受光手段が前記赤外線発光
素子の光を撮像するビデオカメラと前記赤外線発光素子
からの光データを受信する受光素子とを備え、前記発光
識別部は前記受光素子が受信した光データを解釈して前
記ビデオカメラによって撮像された発光手段を特定する
ような構成を採用することも可能である。この場合、I
rDA規格に基づく発光・受光素子やドライバーをその
まま利用することができ、カメラ画像の画像処理と赤外
線通信による発光手段の特定を行う処理を同時に行うこ
とができ、迅速な位置検出処理が可能となる。本発明の
その他の特徴及び利点は、以下図面を用いた発明の実施
の形態の説明とともに明らかになるだろう。
【0010】
【発明の実施の形態】図1は、本発明による位置検出シ
ステムの一例を採用した居住環境疑似体験システムのブ
ロック図である。壁面1aによって区画された移動空間
1内を自由に移動する仮想現実体験者は、超小型のビデ
オカメラ2(以後、単にカメラと称する)を上部に固定
させたHMD(Head Mounted Display)3を装着してい
る。HMD3は仮想現実映像装置5と接続されており、
HMD3の表示パネルには、仮想現実体験者の移動や首
振りに対応して仮想現実画像が写し出される。
【0011】壁面1aには、複数の発光体4が設けられ
ている。この発光体4は、赤外線通信可能な発光ダイオ
ードで構成されており、この発光体4はカメラ3の座標
(空間位置と方向角)を演算するための参照点として用
いるマーカとして機能するだけではなく、各発光体のI
D情報、例えば壁面1aへの取付位置座標を送り出すデ
ータ発信素子といても機能する。そしてカメラ3がその
発光体4の受光手段として機能する。ここでは、発光体
4はカメラ2の任意の視野内に少なくとも3つが入るよ
うに分布配置されている。前述した2つの機能を果たす
ため、発光体4は、カメラ2の移動空間1内の位置と方
向角を算定する演算装置としてのコントローラ6の中央
制御部60によって制御される発光制御部61につなが
れており、この発光制御部には、単に発光ダイオードを
点灯させるだけではなく、IrDAの方式で駆動する変
調回路等の送信ドライバーユニットが含まれている。中
央制御部60は、予め入力された各発光体4の取付位置
データを発光制御部61に与えることで、各発光体4を
制御駆動する。発光体4をカメラ2による撮像した画像
は画像取り込み部62に送られ、カメラ2つまり仮想現
実体験者の位置検出のため後述するように画像処理され
るが、その際、まず送られてくる画像は画像フレームの
形で発光識別部63に送られ、画像フレーム内に存在す
る発光体4の像をマーカ認識部63aが見つけだし、さ
らに発光体情報解読部63bがその発光体4の経時的な
光の変化を解析することにより、その発光体4が送り出
しているID情報、ここでは位置座標データを読み取
り、カメラ2の位置検出に用いる。
【0012】画像フレーム内で特定された発光体4は三
角測量の基準点となるマーカとして利用されるが、この
位置検出の原理を図2から図5を用いて説明する;図2
は、カメラ2を身につけた仮想現実体験者が移動するこ
とになるx軸とy軸とz軸で示された移動空間座標系を
示しており、座標点C(xc,yc,zc )に位置するカメ
ラ2は座標点R1 (x1,y1,z1 )とR2 (x2,y2,z
2 )とR3(x3,y3,z3 )に固定されている3つのマ
ーカ(発光体4)を捉えている。これらの座標点は、マ
ーカとしての発光体4からの赤外線伝送データを基にし
て発光識別部63により求められている。カメラ2の座
標点Cから各マーカまでの距離r1 、r2 、r3 はカメ
ラ2の撮像画面上におけるマーカの面積から決定するこ
とができ、各マーカの座標値は既知であるので、カメラ
2の座標値はカメラ2の撮像画面から算出することがで
きる。計算式を簡単にするため、図3に示すような、カ
メラ2の座標点Cを原点とする直交座標系である基準カ
メラ座標系を採用する。移動空間座標系から基準カメラ
座標系への変換式は、 Xi =xi −xc Yi =yi −yc Zi =zi −zc (i =1, 2, 3) となり、次の連立3元1次方程式が成立する、 (xc −Xi )^2 −(yc −Yi )^2 −(zc −Z
i )^2 =ri (i =1, 2, 3) ここで、^2 は2乗を示す数式記載法であり、例えばx
^2 はxの2乗を示す。上記連立方程式を解くことで、
カメラ2の座標点C(xc,yc,zc )を算出することが
できる。
【0013】図4は、カメラ2の撮像画面をu軸、v軸
とし、カメラ2の撮影方向をw軸としたカメラ視野座標
系を示している。この視野座標系におけるマーカの中心
位置、つまりマーカの重心座標(u, v)は、画像処理
工学の公知なアルゴリズムより求めることができる。さ
らに、前述した基準カメラ座標系をもとに、カメラ2の
回転を考慮した座標系を考慮するが、その際、ここで
は、カメラ2の回転方向は基準カメラ座標系のY軸方向
とX軸方向の回転のみとする。この回転により変換され
た座標系を回転カメラ座標系と呼び、図5に示す。カメ
ラ2からマーカまでの距離rはカメラ2の撮像画面上に
おけるマーカの面積から決定することができるので、こ
の距離rに対するuとvの関係を予めテーブル化してお
くことで、各マーカの座標値(u, v, w)を簡単に求
めることができる。
【0014】基準カメラ座標系でその座標値が(X,
Y, Z)であったマーカが、回転カメラ座標系での座標
値では(u, v, w)であったとすれば、両者の関係は
以下の式で表すことができる。θx とθy はそれぞれ基
準カメラ座標系のX軸とY軸に対するカメラ2の回転角
とすると、 X=u cos( θy)−w sin( θy)・・・1) Y=u sin( θx) sin( θy)+v cos( θx)+w sin( θx) cos( θy)・・・2) Z=u cos( θx) sin( θy)−v sin( θx)+w cos( θx) cos( θy)・・・3) 1)より、 (X−u cos( θy))^2 =w^2 (1−cos ^2(θ
y)) cos(θy)=(uX±w Sqrt[u^2 −X^2 −w^2])
/(u^2 +w^2 ) ここで、Sqrt[ N] は、Nの2乗根を示す数式記載法で
ある。2)と3)より、 cos(θx)=E1 /E2 但し、E1 =vY±w Sqrt[u sin( θy)+w cos(θ
y)] E2 =v^2 +(u sin( θy)+w cos(θy))^2 上記式を解くことにより、カメラの回転角θx とθy が
算出できる。
【0015】上述した原理に基づいて、この位置検出シ
ステムのコントローラ6においても、カメラ2を通じて
取り込まれた画像フレームから、カメラ位置とカメラ方
向角が演算されるので、発光識別部部63のマーカ認識
部63aで認識されたマーカとしての発光体4の画像か
ら発光体4の像面積を演算するマーカ面積演算部64、
発光体4の像面積からカメラ2と発光体4との距離を算
出する距離演算部65、さらにマーカ認識部63aで認
識された発光体4の画像から画像フレームにおける発光
体4の像の重心位置を求めるマーカ重心演算部66、こ
の重心位置やカメラ2と発光体4との距離そして発光体
4の取付位置からカメラ4の位置座標を算出するカメラ
位置座標演算部67及びカメラ方向角を演算するカメラ
方向角演算部68が備えられている。
【0016】仮想現実映像装置5には、移動空間1内の
任意の位置における任意の方向で見える居住環境画像を
生成することができる仮想現実画像生成部52と、座標
検出システムのコントローラ6によって決定されたカメ
ラ位置座標とカメラ方向角に基づいて、仮想現実画像生
成部52にアクセスして、適切な画像をHMD3の表示
パネルに表示する画像表示部51が備えられている。
【0017】次に、この居住環境疑似体験システムの動
作を図6のフローチャートを用いて説明する;仮想現実
体験者がHMD3を装着して移動空間1に立つと、居住
環境疑似体験システムを起動させる。コントローラ6
は、マーカとして及び赤外線通信素子として機能する各
発光体4に対して発光駆動制御を開始する(#2)。ま
ず、カメラ2からの画像を取り込み(#4)、発光体4
の光を撮像している画像フレームを順次取り込み、取り
込まれた画像フレームからマーカとして利用する1つの
発光体4の像の位置及びその発光体の取付位置を求める
(#6)。さらに処理対象となった発光体4の画面上で
の面積及び重心位置を演算し、その面積に基づいてカメ
ラ2から発光体4までの距離が求められる(#8)。こ
れらの処理を、カメラ2の方向角を演算するに必要なマ
ーカ数だけ繰り返し、次のステップに進む(#10)。
もちろん、カメラ2で撮像された複数の発光体4の処理
を同時に行う場合、この過程を繰り返す必要はない。
【0018】マーカとしての発光体4の位置情報が求め
られると、上述した三角測量の原理に基づいて、移動空
間1内におけるカメラ2の位置座標と方向角が演算され
る(#12)。算定されたカメラ2の位置座標と方向角
がコントローラ6から仮想現実映像装置5に送られる
と、そのカメラ視点に対応する居住空間画像が生成され
(#14)、生成された画像はHMD3に送られ、表示
パネルに表示される(#16)。このステップ4からス
テップ16までのルーチンは停止コマンドが発せられる
まで繰り返され(#18)、これによって、仮想現実体
験者は、自分が動いた位置、顔を向けた方向に対応した
居住空間を見ることができ、あたかもその居住空間内で
実在しているような体験をする。
【0019】なお、ここで、カメラ2の1つの方向角、
例えばヨーイング角の変化だけを許す場合、2つの発光
体4がカメラ2の撮像画面に入りように設定し、この2
つの発光体4の画像情報からカメラ2のヨーイング角の
変化を求めるとよい。カメラ2の2つの方向角、例えば
ヨーイング角とピッチング角の変化だけを許す場合、3
つの発光体4がカメラ2の撮像画面に入りように設定
し、この3つの光源4の画像情報からカメラ2のヨーイ
ング角とピッチング角の変化を求めるとよい。さらに、
カメラ2の3つの方向角、例えばヨーイング角とピッチ
ング角とローリング角の変化を許す場合、4つの発光体
4がカメラ2の撮像画面に入りように設定し、この4つ
の発光体4の画像情報からカメラ2のヨーイング角ピッ
チング角とローリング角の変化を求めるとよい。
【0020】上記第1の実施の形態では、被検出体側に
ビデオカメラ2が設けられるとともに移動空間1にマー
カとしての発光体4が設けられていたが、これの変形例
として、図7に示すように、被検出体側に発光体4が設
けられるとともに移動空間1にビデオカメラ2が設けら
れる構成においても、本発明の位置検出システムを利用
することができる。
【0021】この変形例の場合、マーカとしての発光体
4とカメラ2との間の距離は、前述したように撮像され
た発光体4の像面積から求めることができる。一方、カ
メラ2が移動空間1の空間座標系に対してその位置及び
撮像方向が固定されている場合、このカメラ2で撮像さ
れる発光体4の、カメラ撮像中心に対する位置は前述の
原理から求められるので、これよりマーカとしての一連
の発光体4によって定義されるオブジェクト(ここでは
被検出体としての仮想現実体験者の身体の一部)が存在
する方向を得ることができる。その際、各発光体4から
ID情報が送られてくるので、各発光体4を全て特定す
ることができるので、それらを取り違えて、つまり指先
側の発光体4と付け根側の発光体4とを逆にするような
エラーは避けられる。もちろん、この変形例にあって
は、第1の実施の形態(図1参照)におけるカメラ位置
座標演算部67はマーカ位置座標演算部670に、カメ
ラ方向角演算部68は被検出体姿勢演算部680にな
る。
【0022】次に、図8を用いて、本発明による位置検
出システムの第2実施形態を説明する;この形態では、
発光体4が送り出す光データをカメラ2で撮像した画像
データを処理してデコードするのではなく、受光素子と
してのフォトダイオード69aと復調回路などからなる
受光部69によってデコードされることで第1実施形態
と異なっている。このため、この受光部69は発光識別
部63の発光体情報解読部63bに接続されている。発
光ダイオードである発光体4とフォトダイオード69a
との光通信は公知のIrDA方式を採用しているので、
発光体情報解読部63bも市販のモジュールを流用する
ことができる。このため、カメラ2による画像データの
画像処理によって各発光体4から送られれてくるデータ
を解読する場合より、高速に処理することができる。こ
の実施の形態ではカメラ2と受光部69が発光体4の受
光手段として機能する。なお、複数の発光体4を混同し
ないように、各発光体4の発光制御部61による発光制
御は時分割方式で行われている。つまりある発光体4と
光通信している間は、他の発光体4の発光を停止し、マ
ーカ認識部63aが光通信した発光体4と撮像画面に表
れている発光体4が同定できるように構成している。
【0023】次に、図9に示された、本発明による位置
検出システムの第3実施形態を説明する;この実施形態
では、発光体4と受光部69との間の光通信による各発
光体4の同定は補助的に利用され、通常の各発光体4の
同定は、中央制御部60によって制御されるマーカ点滅
制御部61aによって各発光体4を画像取り込み部62
によるカメラ2からの画像フレームの取り込みタイミン
グに同期して点滅させる、同期点滅方式で行われる。こ
のため、発光制御部61には、マーカ点滅制御部61a
と光通信用発光制御部61bが備えられており、発光体
4もマーカとして機能する発光素子と光通信用として機
能する発光素子の組み合わせで構成されている。
【0024】図10に模式的に示しているように、カメ
ラ2の視野にそれぞれ第1・第2・第3チャンネルを通
じて給電される第1発光体4a、第2発光体4b、第3
発光体4cが入っているとする。第1・第2・第3チャ
ンネルは画像取り込み部62の画像フレーム取り込み周
期に同期して順次つながっている発光体4a、4b、4
cに給電して点灯させるので、図に示すように、1番目
のフレームには点灯した第1発光体4aが写し出されて
いるが、他の第2・第3発光体4b、4cは消灯してい
る。2番目のフレームには点灯した第2光源4bが写し
出されているが、他の第1・第3発光体4a、4cは消
灯している。3番目のフレームには点灯した第3発光体
4cが写し出されているが、他の第1・第2発光体4
a、4bは消灯している。1番目のフレームには、再び
点灯した第1光源4aが写し出されている。このよう
に、3n番目のフレームには第1発光体4aが他と区別
して認識可能に撮像され、3n+1番目のフレームには
第2発光体4bが他と区別して認識可能に撮像され、3
n+2番目のフレームには第3発光体4cが他と区別し
て認識可能に撮像されるのである(ここでn=0, 1,・
・・)。画像フレームは1/60秒毎に取り込まれるの
で、各チャンネルにつながれた光源4は1/20秒毎の
繰り返しで点灯される。
【0025】上述したように、画像取り込み部62によ
って取り込まれた各画像フレームには特定の発光体4だ
けが発光することになるので、画像フレーム内で発光し
ている光源4を容易に特定することができる。発光体4
の特定は、最終的には前述したように発光識別部63の
マーカ認識部63aによって行われ、認識された発光体
4は三角測量の基準点となるマーカとして後の位置検出
処理に利用される。
【0026】同時に、先の実施形態で説明したように発
光体4と受光部69との間の光通信による各発光体4の
同定も行うが、これは、前述した同期点滅方式による発
光体4の同定に基づく検出体の位置検出に矛盾があった
り、不可能となった場合の補助として利用されるだけで
ある。
【0027】なお、本出願では、単一の発光体素子から
なる発光体や複数の発光体素子からなる発光体やマーカ
としての発光体素子と光通信する発光体素子からなる発
光体などの総称として発光手段という語句を用いている
また、マーカとカメラとの間の距離をマーカ画像の面積
から求める構成を説明したが、これに代えて、光ビーム
や音波を用いた距離測定法を用いることも可能である。
【図面の簡単な説明】
【図1】本発明による座標検出システムの第1実施形態
を採用した居住環境疑似体験システムのブロック図
【図2】カメラの位置と方向角を三角測量に基づいて算
定する方法を説明するモデル図
【図3】カメラの位置と方向角を三角測量に基づいて算
定する方法を説明するモデル図
【図4】カメラの位置と方向角を三角測量に基づいて算
定する方法を説明するモデル図
【図5】カメラの位置と方向角を三角測量に基づいて算
定する方法を説明するモデル図
【図6】居住環境疑似体験システムの動作を示すフロー
チャート
【図7】本発明による座標検出システムの第1実施形態
の変形例を採用した居住環境疑似体験システムのブロッ
ク図
【図8】本発明による座標検出システムの第2実施形態
を採用した居住環境疑似体験システムのブロック図
【図9】本発明による座標検出システムの第3実施形態
を採用した居住環境疑似体験システムのブロック図
【図10】取り込んだ画像フレームと点灯発光体の関係
を表す説明図
【符号の説明】
2 ビデオカメラ 4 発光体(マーカ) 5 仮想現実映像装置 6 演算装置 61 発光制御部 63 発光識別部 63a マーカ認識部 63b 発光体情報解読部

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 所定位置に設けられた複数の発光手段
    と、被検出体に設けられるとともに前記発光手段からの
    光を検出する受光手段と、前記受光手段が検出した光の
    検出位置に基づいて前記被検出体の位置を算出する演算
    装置とを備えた位置検出システムにおいて、 前記発光手段は光データ伝送可能な発光体を備えてお
    り、前記演算装置は前記受光手段が受け取った光データ
    に基づいて発信元の発光手段を識別する発光識別部を備
    えていることを特徴とする位置検出システム。
  2. 【請求項2】 被検出体に設けられた複数の発光手段
    と、所定位置に設けられるとともに前記発光手段からの
    光を検出する受光手段と、前記受光手段が検出した光の
    検出位置に基づいて前記被検出体の位置を算出する演算
    装置とを備えた位置検出システムにおいて、 前記発光手段は光データ伝送可能な発光体を備えてお
    り、前記演算装置は前記受光手段が受け取った光データ
    に基づいて発信元の発光手段を識別する発光識別部を備
    えていることを特徴とする位置検出システム。
  3. 【請求項3】 前記発光体は赤外線データ通信可能な赤
    外線発光素子であることを特徴とする請求項1又は2に
    記載の位置検出システム。
  4. 【請求項4】 前記受光手段は前記赤外線発光素子の光
    を撮像するビデオカメラであり、前記発光識別部は前記
    ビデオカメラに撮像される前記赤外線発光素子の光を画
    像処理することにより光データを解釈して撮像された発
    光手段を特定することを特徴とする請求項3に記載の位
    置検出システム。
  5. 【請求項5】 前記受光手段は前記赤外線発光素子の光
    を撮像するビデオカメラと前記赤外線発光素子からの光
    データを受信する受光素子とを備えており、前記発光識
    別部は前記受光素子が受信した光データを解釈して前記
    ビデオカメラによって撮像された発光手段を特定するこ
    とを特徴とする請求項3に記載の位置検出システム。
JP10018646A 1998-01-30 1998-01-30 位置検出システム Pending JPH11211414A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10018646A JPH11211414A (ja) 1998-01-30 1998-01-30 位置検出システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10018646A JPH11211414A (ja) 1998-01-30 1998-01-30 位置検出システム

Publications (1)

Publication Number Publication Date
JPH11211414A true JPH11211414A (ja) 1999-08-06

Family

ID=11977388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10018646A Pending JPH11211414A (ja) 1998-01-30 1998-01-30 位置検出システム

Country Status (1)

Country Link
JP (1) JPH11211414A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006009192A1 (ja) * 2004-07-21 2006-01-26 Japan Science And Technology Agency カメラ校正システム及び三次元計測システム
JP2006119074A (ja) * 2004-10-25 2006-05-11 Pentax Corp 位置検出装置
WO2007013260A1 (ja) * 2005-07-27 2007-02-01 Murata Kikai Kabushiki Kaisha 作業システム及び作業システムでの作業指示方法
JP2008536112A (ja) * 2005-03-30 2008-09-04 ザ・トラスティーズ・オブ・ザ・ユニバーシティ・オブ・ペンシルバニア 撮像デバイスの位置特定を行うシステムおよび方法
JP2008209142A (ja) * 2007-02-23 2008-09-11 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2009036517A (ja) * 2007-07-31 2009-02-19 Shimadzu Corp ヘッドモーショントラッカ装置
JP2010288207A (ja) * 2009-06-15 2010-12-24 Casio Computer Co Ltd 動画記録装置及びプログラム
JP2013250510A (ja) * 2012-06-04 2013-12-12 Toho Gas Co Ltd 疑似ガス漏洩箇所検査システム
JPWO2016002656A1 (ja) * 2014-06-30 2017-05-25 凸版印刷株式会社 視線計測システム、視線計測方法、及びプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006009192A1 (ja) * 2004-07-21 2006-01-26 Japan Science And Technology Agency カメラ校正システム及び三次元計測システム
US7750969B2 (en) 2004-07-21 2010-07-06 Japan Science And Technology Agency Camera calibration system and three-dimensional measuring system
JP2006119074A (ja) * 2004-10-25 2006-05-11 Pentax Corp 位置検出装置
JP4512190B2 (ja) * 2004-10-25 2010-07-28 Hoya株式会社 位置検出装置
JP2008536112A (ja) * 2005-03-30 2008-09-04 ザ・トラスティーズ・オブ・ザ・ユニバーシティ・オブ・ペンシルバニア 撮像デバイスの位置特定を行うシステムおよび方法
WO2007013260A1 (ja) * 2005-07-27 2007-02-01 Murata Kikai Kabushiki Kaisha 作業システム及び作業システムでの作業指示方法
JPWO2007013260A1 (ja) * 2005-07-27 2009-02-05 村田機械株式会社 作業システム及び作業システムでの作業指示方法
JP2008209142A (ja) * 2007-02-23 2008-09-11 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2009036517A (ja) * 2007-07-31 2009-02-19 Shimadzu Corp ヘッドモーショントラッカ装置
JP2010288207A (ja) * 2009-06-15 2010-12-24 Casio Computer Co Ltd 動画記録装置及びプログラム
JP2013250510A (ja) * 2012-06-04 2013-12-12 Toho Gas Co Ltd 疑似ガス漏洩箇所検査システム
JPWO2016002656A1 (ja) * 2014-06-30 2017-05-25 凸版印刷株式会社 視線計測システム、視線計測方法、及びプログラム

Similar Documents

Publication Publication Date Title
EP3469458B1 (en) Six dof mixed reality input by fusing inertial handheld controller with hand tracking
US10818092B2 (en) Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
CN109313500B (zh) 纤细形状因子的无源光学和惯性跟踪
CA2314548C (en) Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
USRE45031E1 (en) Vision-based augmented reality system using invisible marker
WO2015180497A1 (zh) 一种基于立体视觉的动作采集和反馈方法及系统
US20090207135A1 (en) System and method for determining input from spatial position of an object
US20100201808A1 (en) Camera based motion sensing system
US20140078312A1 (en) Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US20090009469A1 (en) Multi-Axis Motion-Based Remote Control
CN108885487B (zh) 一种可穿戴式系统的手势控制方法以及可穿戴式系统
JPH10198506A (ja) 座標検出システム
JP2003035515A (ja) 三次元位置検出方法,装置および三次元位置検出用のマーカ
JPH11211414A (ja) 位置検出システム
CN104516532A (zh) 使用光学感测阵列确定光源姿态的设备和方法
Nakazato et al. Localization of wearable users using invisible retro-reflective markers and an IR camera
EP3943167A1 (en) Device provided with plurality of markers
Zatout et al. A Novel Output Device for visually impaired and blind people’s aid systems
TW201901371A (zh) 三維定位系統與方法
US20230214004A1 (en) Information processing apparatus, information processing method, and information processing program
US11836300B2 (en) Information processing apparatus and information processing method
CN212906218U (zh) 一种分离式手柄、虚拟现实设备及虚拟现实追踪系统
CN108803861A (zh) 一种交互方法、设备及系统
US20180101226A1 (en) Information processing apparatus
CN111752386A (zh) 一种空间定位方法、系统及头戴式设备