JP2000172878A - 情報処理装置および情報処理方法、並びに提供媒体 - Google Patents
情報処理装置および情報処理方法、並びに提供媒体Info
- Publication number
- JP2000172878A JP2000172878A JP10349538A JP34953898A JP2000172878A JP 2000172878 A JP2000172878 A JP 2000172878A JP 10349538 A JP10349538 A JP 10349538A JP 34953898 A JP34953898 A JP 34953898A JP 2000172878 A JP2000172878 A JP 2000172878A
- Authority
- JP
- Japan
- Prior art keywords
- virtual space
- dimensional
- space
- unit
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S345/00—Computer graphics processing and selective visual display systems
- Y10S345/949—Animation processing method
- Y10S345/958—Collision avoidance
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
間と、現実の物体との衝突を検出する。 【解決手段】 仮想空間設定部6において、三次元空間
内に仮想的な空間である仮想空間(図1において点線で
示す直方体)が設定される。一方、三次元情報生成部4
において、侵入者の三次元情報が生成され、その三次元
情報に基づいて、侵入者と仮想空間とが衝突しているか
どうかが判定される。
Description
び情報処理方法、並びに提供媒体に関し、特に、例え
ば、三次元空間における任意の空間と物体との衝突を検
出することにより、各種のアプリケーションを提供する
ことができるようにする情報処理装置および情報処理方
法、並びに提供媒体に関する。
体(物の他、人物なども含む)が侵入してきたかどうか
を検出する方法としては、例えば、赤外線を利用した赤
外線検知システム(システムとは、複数の装置が論理的
に集合した物をいい、各構成の装置が同一筐体中にある
か否かは問わない)等がある。
例の構成を示している。
の領域が、侵入禁止区域を表しており、その長方形の領
域の4つの頂点部分には、赤外線を発光する赤外線発光
部(図中、■印で示す)、または赤外線を受光する赤外
線受光部(図中、●印で示す)が設置されている。赤外
線発光部は、図24において矢印で示すように赤外線を
発光し、その矢印の終点にある赤外線受光部において、
その赤外線が受光される。そして、赤外線受光部におい
て、赤外線発光部からの赤外線を受光することができな
かったとき、侵入者が赤外線を遮り、侵入禁止区域に侵
入したとして、例えば、警報が鳴らされる。
光部に替えて赤外線を反射する赤外線反射部を設け、そ
の赤外線反射部によって反射された赤外線を、赤外線発
光部で受光するように構成されたものもある。
赤外線検知システムを構成するには、赤外線発光部と赤
外線受光部(または赤外線反射部)を設置する場所が必
要であるが、その設置位置は、進入禁止区域の形状等に
より拘束される。従って、多くの人が出入りするような
場所においては、赤外線発光部と赤外線受光部を設置す
るのが困難な場合がある。
受光部に直進するため、進入禁止区域の境界を、曲線
(または曲面)としたい場合には、その曲線に沿って、
多くの赤外線発光部と赤外線受光部のセットを設置する
必要があり、さらに、その境界の形状によっては、対応
することが困難なこともある。
された画像に対して、画像処理を施すことにより、画像
認識を行い、ビデオカメラの視野内の物体を検知する方
法が知られている。この方法では、ビデオカメラから時
系列に出力される画像から、時間的に隣接する画像どう
しを比較することで、動く物体が検出され、あるいは、
あらかじめ撮影された画像と、ビデオカメラから時系列
に出力される画像それぞれとを比較することで、あらか
じめ撮影された画像と異なる部分が検出される。
物体が侵入してきたことは検出することができるが、カ
メラの視野内の、ある空間に物体が侵入したどうかを検
出することは困難である。
たものであり、三次元空間における任意の空間と物体と
の衝突を検出することができるようにするものである。
は、三次元空間内に所定の仮想空間を設定する設定手段
と、物体の三次元情報を生成する生成手段と、物体の三
次元情報に基づいて、物体と仮想空間とが衝突している
かどうかを判定する判定手段とを備えることを特徴とす
る。
所定の仮想空間を設定する設定ステップと、物体の三次
元情報を生成する生成ステップと、物体の三次元情報に
基づいて、物体と仮想空間とが衝突しているかどうかを
判定する判定ステップとを備えることを特徴とする。
の仮想空間を設定する設定ステップと、物体の三次元情
報を生成する生成ステップと、物体の三次元情報に基づ
いて、物体と仮想空間とが衝突しているかどうかを判定
する判定ステップとを備える制御情報を提供することを
特徴とする。
段は、三次元空間内に所定の仮想空間を設定し、生成手
段は、物体の三次元情報を生成し、判定手段は、物体の
三次元情報に基づいて、物体と仮想空間とが衝突してい
るかどうかを判定するようになされている。
空間内に所定の仮想空間を設定し、物体の三次元情報を
生成し、物体の三次元情報に基づいて、物体と仮想空間
とが衝突しているかどうかを判定するようになされてい
る。
内に所定の仮想空間を設定し、物体の三次元情報を生成
し、物体の三次元情報に基づいて、物体と仮想空間とが
衝突しているかどうかを判定する処理を、情報処理装置
に行わせるための制御情報を提供するようになされてい
る。
突判別装置の一実施の形態の構成例を示している。この
空間衝突判別装置は、三次元空間内に設定された仮想的
な空間(仮想空間)と、実際の物体とが衝突しているか
どうかを判定することにより、仮想空間内に、例えば、
侵入者等の物体が侵入したことを検出するようになされ
ている。
メラセット31乃至3N(撮像手段)それぞれは、1台の
基準カメラ1と、1台以上の検出カメラ(参照カメラ)
2とを有しており、仮想空間を含む三次元空間を撮影
し、その結果得られる画像を、三次元情報生成部4に供
給するようになされている。ここで、カメラセット31
乃至3Nは、1セットだけでも良い。但し、カメラセッ
ト31乃至3Nが1セットだけの場合(N=1の場合)に
は、例えば、侵入者があったときに、その侵入者を撮影
することができない部分(1セットのカメラセットから
は、隠れて見えない部分)が生じるので、そのような部
分を生じることが好ましくない用途においては、カメラ
セット31乃至3Nを複数セット設け(Nを2以上と
し)、異なる視点に配置するようにするのが望ましい。
ラセット3n(n=1,2,・・・,N)を構成する基
準カメラ1が出力する画像(基準カメラ画像)と、検出
カメラ2が出力する画像(検出カメラ画像)とを用い
て、いわゆるステレオ処理を行うことにより、三次元空
間内にある物体(例えば、机や椅子、壁、床等の物の
他、人間や、動物なども含む)について、ある基準点か
らの距離を表す三次元情報を生成し、衝突判定部5に供
給するようになされている。また、三次元情報生成部4
は、三次元空間内の物体についての三次元情報を、必要
に応じて、仮想空間設定部6にも供給するようになされ
ている。なお、基準カメラ1および検出カメラ2は、例
えば、CCD(Charge Coupled Device)ビデオカメラ
などで構成されている。
定部6において三次元空間内に設定された仮想空間と、
三次元空間内の物体とが衝突しているかどうかを、三次
元情報生成部4からの物体の三次元情報に基づいて判定
し、その判定結果を、処理決定部7に供給するようにな
されている。即ち、衝突判定部5は、物体と仮想空間と
の衝突を検出すると、その旨を表す衝突検出信号を、処
理決定部7に供給するようになされている。
段)は、ユーザによる操作や、三次元情報生成部4から
の三次元情報に基づいて、三次元空間内に仮想空間を設
定するようになされている。即ち、仮想空間設定部6
は、例えば、三次元空間内に設定する仮想空間を規定す
る三次元情報を生成し、衝突判定部5に供給するように
なされている。
は、その仮想空間の形状、大きさ、および三次元空間に
おける位置を、一意に決定することができるものであれ
ば、特に限定されるものではない。即ち、仮想空間を規
定する三次元情報としては、例えば、その仮想空間がプ
リミティブな図形である直方体や球等であれば、その縦
の長さ、横の長さ、高さ、および幾つかの頂点の三次元
空間における位置や、半径および中心の三次元空間にお
ける位置などを用いることができる。また、仮想空間
を、例えば、ポリゴンや、ベジェ曲面等で近似し、その
ポリゴンやベジェ曲面に関する情報(ポリゴンやベジェ
曲面を規定する頂点など)を、仮想空間の三次元情報と
して用いることも可能である。
ドディスクやメモリを内蔵しており、生成した仮想空間
の三次元情報を、そのハードディスクやメモリに記憶す
るようになされている。
ば、三次元CAD(Computer Aided Design)システム
等の三次元グラフィックスの描画を容易に行うことがで
きるツールを用いることができる。この場合、ユーザ
は、所望する仮想空間を、容易に作成することが可能と
なる。
空間と三次元空間内の物体とが衝突した旨の判定結果を
表す信号である衝突検出信号を受信すると、その後段の
処理部8に行わせる処理を決定し、処理部8を制御する
ようになされている。処理部8(処理手段)は、処理決
定部7の制御にしたがい、所定の処理を行うようになさ
れている。
その動作について説明する。
いて点線で示すような直方体形状の仮想空間が設定さ
れ、その仮想空間の三次元情報が、衝突判定部5に供給
される。
は、仮想空間を含む三次元空間が撮影され、その結果得
られる画像(基準カメラ画像および検出カメラ画像)
が、三次元情報生成部4に供給される。三次元情報生成
部4では、ステップS1において、カメラセット31乃
至3Nそれぞれからの画像が取り込まれ、ステップS2
に進み、それらの画像から、三次元空間内の物体の三次
元情報が生成される。この物体の三次元情報は、衝突判
定部5に供給される。
て、仮想空間と、三次元空間内の物体とが衝突している
かどうかが、三次元情報生成部4からの物体の三次元情
報に基づいて判定される。ステップS3において、仮想
空間と物体とが衝突していないと判定された場合、次の
フレームの画像が、カメラセット31乃至3Nから供給さ
れるのを待って、ステップS1に戻り、以下、ステップ
S1からの処理を繰り返す。
物体とが衝突していると判定された場合、衝突判定部5
は、その旨を表す衝突検出信号を、処理決定部7に出力
し、ステップS4に進む。ステップS4では、処理決定
部7において、行うべき処理が決定され、処理部8が制
御される。これにより、処理部8では、処理決定部7の
制御にしたがった処理が行われる。即ち、処理部8は、
例えば、警報機で構成され、処理決定部7は、衝突検出
信号を受信した場合、警報を鳴らすように、処理部8を
制御する。この場合、処理部8においては、仮想空間に
侵入者があったことを報知するために、警報が鳴らされ
る。あるいは、処理部8は、例えば、VTR(Video Ta
pe Recoder)などの録画装置で構成され、処理決定部7
は、衝突検出信号を受信した場合、録画を開始するよう
に、処理部8を制御する。この場合、処理部8において
は、仮想空間に侵入した侵入者の録画が行われる。な
お、図1においては、図が煩雑になるために図示してい
ないが、処理部8には、カメラセット31乃至3Nのうち
の少なくとも1セットから、そこで撮影された画像が供
給されるようになされており、処理部8では、その画像
が録画される。但し、処理部8での録画専用に用いるビ
デオカメラを設けるようにすることも可能である。
の構成例を示している。
F(Interface)11で受信され、そこで、ディジタル
信号とされた後、画像メモリ12に供給される。画像メ
モリ12は、カメラIF11からの画像データを、例え
ば、フレーム単位で記憶し、CPU13に供給する。C
PU13は、HDD(Hard Disk Drive)14(が内蔵
する図示せぬハードディスク)に記憶されたプログラム
を実行することで、画像メモリ12に記憶された画像を
用いて、ステレオ処理を行い、三次元空間におけるある
基準点からの物体の各点までの距離を求め、その距離を
画素値とした距離画像を、物体の三次元情報として生成
して出力する。
ット31乃至3Nそれぞれからの画像(基準カメラ画像お
よび検出カメラ画像)についてステレオ処理が行われ
る。即ち、これにより、カメラセット31乃至3Nの数N
と、その設置位置が適切であれば、三次元空間内の物体
について、隠れて見えない部分が生じることを防止し、
物体の外形全体の距離を求めることができる。
理について説明する。
視線方向)からカメラで同一対象物を撮影して得られる
複数の画像間の画素同士を対応付けることで、対応する
画素間の視差や、カメラから対象物までの距離、対象物
の形状を求めるものである。
セット31乃至3Nのうちの1のカメラセットに注目し、
そのカメラセットの基準カメラ1および検出カメラ2で
物体を撮影すると、基準カメラ1からは物体の投影像を
含む基準カメラ画像が得られ、検出カメラ2からも物体
の投影像を含む検出カメラ画像が得られる。いま、図4
に示すように、物体上のある点Pが、基準カメラ画像お
よび検出カメラ画像の両方に表示されているとすると、
その点Pが表示されている基準カメラ画像上の位置と、
検出カメラ画像上の位置、つまり対応点とから、基準カ
メラ1と検出カメラ2との間の視差を求めることがで
き、さらに、三角測量の原理を用いて、点Pの3次元空
間における位置(3次元位置)を求めることができる。
を検出することが必要となるが、その検出方法として
は、例えば、エピポーラライン(Epipolar Line)を用
いたエリアベースマッチング法などがある。
おいては、物体上の点Pは、その点Pと基準カメラ1の
光学中心(レンズ中心)O1とを結ぶ直線L上の、基準
カメラ1の撮像面S1との交点naに投影される。
Pは、その点Pと検出カメラ2の光学中心(レンズ中
心)O2とを結ぶ直線上の、検出カメラ2の撮像面S2と
の交点nbに投影される。
O2、並びに点na(または点P)の3点を通る平面と、
検出カメラ画像が形成される撮像面S2との交線L2とし
て、撮像面S2上に投影される。点Pは、直線L上の点
であり、従って、撮像面S2において、点Pを投影した
点nbは、直線Lを投影した直線L2上に存在し、この直
線L2が、エピポーララインと呼ばれる。即ち、点naの
対応点nbが存在する可能性のあるのは、エピポーララ
インL2上であり、従って、対応点nbの探索は、エピポ
ーララインL2上を対象に行えば良い。
像面S1に形成される基準カメラ画像を構成する画素ご
とに考えることができるが、基準カメラ1と検出カメラ
2の位置関係が既知であれば、その画素ごとに存在する
エピポーララインはあらかじめ求めておくことができ
る。
nbの検出は、例えば、次のようなエリアベースマッチ
ングによって行うことができる。
(A)に示すように、基準カメラ画像上の点naを中心
(例えば、対角線の交点)とする、例えば長方形状の小
ブロックである基準ブロックが、基準カメラ画像から抜
き出されるとともに、図5(B)に示すように、検出カ
メラ画像に投影されたエピポーララインL2上の、ある
点を中心とする、基準ブロックと同一の大きさの小ブロ
ックである検出ブロックが、検出カメラ画像から抜き出
される。
は、エピポーララインL2上に、検出ブロックの中心と
する点として、点nb1乃至nb6の6点が設けられてい
る。この6点nb1乃至nb6は、図4に示した3次元空間
における直線Lの点であって、基準点からの距離が、例
えば1m,2m,3m,4m,5m,6mの点それぞれ
を、検出カメラ2の撮像面S2に投影した点で、従っ
て、基準点からの距離が1m,2m,3m,4m,5
m,6mの点にそれぞれ対応している。
画像から、エピポーララインL2上に設けられている点
nb1乃至nb6それぞれを中心とする検出ブロックが抜き
出され、各検出ブロックと、基準ブロックとの相関が、
所定の評価関数を用いて演算される。そして、点naを
中心とする基準ブロックとの相関が最も高い検出ブロッ
クの中心の点nbが、点naの対応点として求められる。
相関性を評価する評価関数としては、例えば、基準ブロ
ックを構成する画素と、それぞれの画素に対応する、検
出ブロックを構成する画素の画素値の差分の絶対値の総
和や、画素値の差分の自乗和、正規化された相互相関(n
ormalized cross correlation)などを用いることができ
る。
対値の総和を用いることとすると、基準カメラ画像上の
所定の点(x,y)(座標(x,y)の画素)について
の、検出カメラ画像上のある点(x’,y’)との間の
相関は、例えば、次式で表される評価値(エラー値)e
(x,y)によって評価される。
画像上の画素(x,y)、と、検出カメラ画像上の画素
(x’,y’)との間の相関を示す評価値(エラー値)
を表す。さらに、YA(x+i,y+j)は、基準カメ
ラ画像上の点(x+i,y+j)における画素の画素値
としての、例えば輝度を表し、YB(x’+i,y’+
j)は、検出カメラ画像上の点(x’+i,y’+j)
における画素の輝度を表す。また、Wは、基準ブロック
および検出ブロックを表し、i,jWは、点(x+i,
y+j)または点(x’+i,y’+j)が、それぞ
れ、基準ブロックまたは検出ブロック内の点(画素)で
あることを表す。
y)は、基準カメラ画像上の画素(x,y)と、検出カ
メラ画像上の画素(x’,y’)との間の相関が大きい
ほど小さくなり、従って、評価値e(x,y)を最も小
さくする検出カメラ画像上の画素(x’,y’)が、基
準カメラ画像上の画素(x,y)の対応点として求めら
れる。
いほど小さな値をとる評価値を用いた場合に、エピポー
ララインL2上の点nb1乃至nb6それぞれについて、例
えば、図6に示すような評価値(評価関数の値)が得ら
れたとする。ここで、図6においては、点nb1乃至nb6
に対応する3次元空間上の点それぞれにあらかじめ付さ
れた、基準点からの距離に対応する距離番号を横軸とし
て、各距離番号(に対応するエピポーララインL2上の
点nb1乃至nb6)に対する評価値を、図示してある。
が得られた場合には、評価値が最も小さい(相関が最も
高い)距離番号3に対応するエピポーララインL2上の
点が、点naの対応点として検出される。なお、図6に
おいて、距離番号1乃至6に対応する点それぞれについ
て求められた評価値(図6において●印で示す)のうち
の最小値付近のものを用いて補間を行い、評価値がより
小さくなる点(図6において×印で示す3.3mに対応
する点)を求めて、その点を、最終的な対応点として検
出することも可能である。
と、その光学中心O1を結ぶ直線L上の点を、検出カメ
ラ2の撮像面S2に投影した点nb1乃至nb6の設定は、
例えば、基準カメラ1および検出カメラ2のキャリブレ
ーション時に行うことができる(キャリブレーションの
方法は、特に限定されるものではない)。そして、この
ような設定を、基準カメラ1の撮像面S1を構成する画
素ごとに存在するエピポーララインごとに行い、エピポ
ーラライン上に設定された点(以下、適宜、設定点とい
う)までの距離(基準点からの距離)に対応する距離番
号と、基準点からの距離とを対応付ける距離番号/距離
テーブルをあらかじめ作成しておけば、対応点となる設
定点を検出し、その設定点に対応する距離番号を、距離
番号/距離テーブルを参照して変換することで、即座
に、基準点からの距離(物体上の点までの距離の推定
値)を求めることができる。即ち、いわば、対応点か
ら、直接、距離を求めることができる。
点として、対応点から直接、距離を求める場合には、3
次元空間における遠方の点に対応するエピポーラライン
上の設定点ほど、隣接する設定点との間隔が狭くなる。
従って、隣接する設定点との間隔が、検出カメラ画像の
画素間の距離より小さい設定点では、求める距離の精度
は劣化する。しかしながら、画素より細かいサブピクセ
ル単位で、設定点の設定や、対応点の検出を行うこと
で、精度の問題は解決することができる。
び検出ブロックといった複数画素でなるブロックを用い
るのは、ノイズの影響を軽減し、基準カメラ画像上の画
素(点)naの周囲の画素のパターンの特徴と、検出カ
メラ画像上の対応点(画素)nbの周囲の画素のパター
ンの特徴との間の相関性を利用することにより、対応点
の検出の確実を期すためである。
ラ1と、1台の検出カメラ2とを用いることとしたが、
カメラセット3nは、図7に示すように、1台の基準カ
メラと、複数台としての、例えば、2台の検出カメラ2
1および22とで構成し、三次元情報生成部4において、
マルチベースラインステレオ(Multi Baseline Stere
o)法による評価値を求めて、その評価値に基づき、距
離を求めるようにすること、即ち、いわゆる多眼ステレ
オ処理により距離画像を求めるようにすることも可能で
ある。
は、1の基準カメラ画像と、複数の検出カメラ画像とを
用い、その複数の検出カメラ画像それぞれについて、基
準カメラ画像との間の相関を表す評価値を求め(図7の
実施の形態の場合には、基準カメラ1が出力する基準カ
メラ画像上のある注目画素と、検出カメラ21が出力す
る検出カメラ画像#1上の画素との相関を表す評価値、
および基準カメラ画像上の注目画素と、検出カメラ22
が出力する検出カメラ画像#2上の画素との相関を表す
評価値)、それぞれの評価値どうしを、同一の距離番号
について加算し、その加算値を、最終的な評価値として
用いることにより高精度に距離を求めるもので、その詳
細については、例えば、奥富正敏、金出武雄、「複数の
基線長を利用したステレオマッチング」、電子情報通信
学会論文誌 D-II Vol.J75-D-II No.8 pp.1317-1327 199
2年8月に記載されている。マルチベースラインステレオ
法は、例えば、基準カメラ画像および検出カメラ画像
が、繰り返しパターンを有する場合に、特に有効であ
る。
ラ2の視野が、基準カメラ1の視野と一致していれば、
基準カメラ1の視野の範囲全体について、距離を求める
ことが可能であるが、図1の空間衝突判別装置では、さ
らに、図8に示すように、仮想空間(図中、濃い影を付
してある部分)が、三次元情報生成部4において距離を
求めることができる範囲(図中、薄い影を付してある部
分と、濃い影を付してある部分)に含まれるように、基
準カメラ1および検出カメラ2を設置するようにする必
要がある。
例を示している。
報生成部4において生成された物体の三次元情報として
の距離画像が供給されるようになされており、検出物体
マップ生成部21(物体マップ作成手段)は、三次元情
報生成部4からの距離画像に基づき、三次元空間におい
て物体が存在する位置を、所定の三次元座標系(以下、
適宜、基準座標系という)によって表す物体マップを作
成し、衝突検出部22に供給するようになされている。
21からの物体マップと、仮想空間マップ生成部23か
ら供給される仮想空間マップとに基づいて、3次元空間
内に実在する物体と仮想空間とが衝突しているかどうか
を判定(検出)し、衝突している場合には、その旨を表
す衝突検出信号を、処理決定部7に出力するようになさ
れている。
設定部6において設定された仮想空間の三次元情報が供
給されるようになされており、仮想空間マップ生成部2
3は、仮想空間設定部6からの仮想空間の三次元情報に
基づき、三次元空間において、その仮想空間が存在する
位置を、上述の基準座標系によって表す仮想空間マップ
を作成し、衝突検出部22に供給するようになされてい
る。
部5において作成される物体マップおよび仮想空間マッ
プ、並びに物体と仮想空間とが衝突しているかどうかを
判定する判定アルゴリズムについて説明する。
ある点(例えば、三次元情報生成部4において距離を求
めるときの基準点)を原点とし、互いに直交するx軸、
y軸、およびz軸で規定されるものとすると、検出物体
マップ生成部21では、物体の三次元情報に基づき、物
体が、基準座標系上に、その基準座標系にあわせたスケ
ールおよび位置で想定される。さらに、検出物体マップ
生成部21は、基準座標系上に、所定の大きさの直方体
(例えば、縦、横、高さが、いずれも1cmの立方体)
(以下、適宜、ボクセル(ボックス型のセルといった意
味)という)を想定し、各ボクセルが、基準座標系上に
想定された物体の内部または外部のうちのいずれに位置
するかを判定する(物体をボクセルで量子化する)。そ
して、検出物体マップ生成部21は、物体の内部または
外部に位置するボクセルに、例えば、それぞれ1または
0を対応付け、それを物体マップとして出力する。
xy平面に平行なある面で切った場合の物体マップを示
している。図10(A)において、影を付してある部分
が、1が対応付けられたボクセルを、影を付していない
部分が、0が対応付けられたボクセルを、それぞれ示し
ている。
出物体マップ生成部21と同様にして、仮想空間マップ
が生成される。即ち、仮想空間マップ生成部23では、
仮想空間の三次元情報に基づき、仮想空間が、基準座標
系上に、その基準座標系にあわせたスケールおよび位置
で想定される。さらに、仮想空間マップ生成部23は、
基準座標系上に、ボクセルを想定し、各ボクセルが、基
準座標系上に想定された仮想空間の内部または外部のう
ちのいずれに位置するかを判定する(物体をボクセルで
量子化する)。そして、仮想空間マップ生成部23は、
仮想空間の内部または外部に位置するボクセルに、例え
ば、それぞれ1または0を対応付け、それを仮想空間マ
ップとして出力する。
xy平面に平行なある面で切った場合の仮想空間マップ
を示している。図10(B)においても、影を付してあ
る部分が、1が対応付けられたボクセルを、影を付して
いない部分が、0が対応付けられたボクセルを、それぞ
れ示している。
座標系にスケールおよび位置をあわせた形で作成される
から、図10(C)に示すように、図10(A)の物体
マップと、図10(B)の仮想空間マップとを、それぞ
れの対応するボクセルが一致するように重ね合わせた場
合に、物体マップにおいて物体の内部を表すボクセル
と、仮想空間マップにおいて仮想空間の内部を表すボク
セルとが重なり合うときには、そこで、物体と仮想空間
との衝突が生じていることになる。従って、物体と仮想
空間とが衝突しているかどうかは、このようなボクセル
の重なり合いがあるかどうかによって判定することがで
きる。ここで、図10(C)においては、濃い影を付し
てある部分が、物体の内部を表すボクセルと仮想空間の
内部を表すボクセルとが重なり合っている部分を示して
いる。
によって、物体と仮想空間との衝突の有無を判定する場
合には、物体の内部を表すボクセルと仮想空間の内部を
表すボクセルとが重なり合っている基準座標系上の位置
や数から、物体と仮想空間とが衝突している三次元空間
内の位置や、衝突の程度(いわば、物体が、どの程度仮
想空間に侵入しているか)を認識することも可能とな
る。
定されるものではないが、例えば、物体と仮想空間とが
衝突している三次元空間内の位置や、衝突の程度を精度
良く求めるには、ボクセルは細かい方が望ましいし、処
理量を少なくする観点からは、ボクセルは大きい方が望
ましいので、そのようなことをバランスさせて決めるの
が望ましい。
て、図9の衝突判定部5の動作について説明する。
想空間マップ生成部23は、仮想空間設定部6から仮想
空間の三次元情報を受信し、ステップS12に進み、そ
の三次元情報に基づいて、仮想空間マップを生成する。
ップS13において、三次元情報生成部4から物体の三
次元情報を受信し、ステップS14に進み、その三次元
情報に基づいて、物体マップを生成する。
マップ生成部23においてそれぞれ生成(作成)された
物体マップまたは仮想空間マップは、いずれも、衝突検
出部22に供給される。
は、同一の数のボクセルで構成されており、その数をI
で表す。また、物体マップまたは仮想空間マップにおい
て、i番目のボクセル(基準座標系において同一の位置
にあるボクセル)に対応付けられている値を、それぞ
れ、変数ViまたはDiで表す(i=1,2,・・・,
I)。なお、物体マップおよび仮想空間マップを構成す
るボクセルを、どのように順序付けるかは、特に限定さ
れるものではないが、物体マップまたは仮想空間マップ
それぞれのi番目のボクセルが基準座標系の同一位置に
あるボクセルとなるように順序付けておく必要がある。
空間マップを受信すると、ステップS15において、ボ
クセルを表すインデックスとしての変数iを1に初期化
し、ステップS16に進む。ステップS16では、衝突
検出部22において、仮想空間マップのボクセル(ボク
セルに対応付けられた値)Viが1であるかどうかが判
定される。ステップS16において、ボクセルViが1
でない(0である)と判定された場合、即ち、ボクセル
Viが、仮想空間の内部のボクセルでない場合、仮想空
間と物体との衝突が生じることはあり得ないから、ステ
ップS17およびS18をスキップして、ステップS1
9に進む。
Viが1であると判定された場合、即ち、ボクセルV
iが、仮想空間の内部のボクセルであり、仮想空間と物
体との衝突が生じることがあり得る場合、ステップS1
7に進み、衝突検出部22において、物体マップのボク
セル(ボクセルに対応付けられた値)Diが1であるか
どうかが判定される。ステップS17において、ボクセ
ルDiが1でない(0である)と判定された場合、即
ち、ボクセルDiが、物体の内部のボクセルでない場
合、仮想空間と物体との衝突は生じていないから、ステ
ップS18をスキップして、ステップS19に進む。
Diが1であると判定された場合、即ち、ボクセルViま
たはDiが、それぞれ、仮想空間または物体の内部のボ
クセルであり、従って、仮想空間と物体との衝突が生じ
ている場合、ステップS18に進み、衝突検出部22
は、衝突検出信号を、処理決定部7に出力し、ステップ
S19に進む。
の総数Iに等しいかどうかが判定され、等しくないと判
定された場合、ステップS20に進み、変数iが1だけ
インクリメントされる。そして、ステップS16に戻
り、以下、同様の処理が繰り返される。
Iに等しいと判定された場合、即ち、仮想空間マップお
よび物体マップを構成するすべてのボクセルについて、
衝突の有無の検査を終了した場合、ステップS21に進
み、さらに、衝突の有無の検出を続けるかどうかが判定
される。ステップS21において、衝突の有無の検出を
続けると判定された場合、ステップS13に戻り、次の
三次元情報(例えば、次のフレームの基準画像および検
出画像から得られる物体の三次元情報)が、三次元情報
生成部4から供給されるのを待って、以下、同様の処理
が繰り返される。
無の検出を続けないと判定された場合、処理を終了す
る。
は、例えば、あらかじめ設定しておくことが可能であ
る。
5において、物体マップおよび仮想空間マップを作成す
るようにしたが、物体マップまたは仮想空間マップは、
それぞれ、三次元情報生成部4または仮想空間設定部6
に作成させ、衝突判定部5に供給させるようにすること
も可能である。
想空間マップのボクセルViを判定し、そのボクセルVi
が仮想空間の内部を構成するものである場合にのみ、物
体マップのボクセルDiを判定するようにしたが、逆
に、物体マップのボクセルDiの判定を先に行い、その
ボクセルDiが物体の内部を構成するものである場合に
のみ、仮想空間マップのボクセルViを判定するように
することも可能である。
仮想空間との衝突が検出された後も、その検出を続行す
るようにしたが、あるボクセルにおいて衝突が検出され
た場合には、その後は、衝突の検出を終了するようにす
ることも可能である。
仮想空間マップのボクセルViに、仮想空間の内部か、
または外部かを表す1または0の2値のうちのいずれか
をセットするようにしたが、仮想空間マップのボクセル
Viには、その他、例えば、仮想空間の境界からの距離
に対応して、3値以上のいずれかの値をセットするよう
にすることなどが可能である。この場合、物体が、仮想
空間に、どの程度深く侵入しているかということを認識
することが可能となる。
び仮想空間マップを用いて、物体と仮想空間との衝突を
検出するようにしたが、物体と仮想空間との衝突の検出
は、その他、例えば、物体および仮想空間をポリゴンで
表現したものを、基準座標系上に想定し、物体を表すポ
リゴンと、仮想空間を表すポリゴンとが交差しているか
どうかを判定することなどによって行うことも可能であ
る。即ち、物体と仮想空間との衝突の検出方法は、上述
した手法に限定されるものではない。
に設定された仮想空間と、実際の物体との衝突を検出す
る空間衝突判別装置(図1)は、処理部8に行わせる処
理を変更することで、様々なアプリケーションに適用す
ることができる。
装置等で構成することにより、図1の空間衝突判別装置
は、セキュリティシステムに適用することができる。
(進入禁止区域)を、仮想空間として設定し、衝突判定
部5から、衝突検出信号が出力された場合には、処理決
定部7および処理部8に、例えば、図12のフローチャ
ートに示すような処理を行わせることで実現することが
できる。
ートに示すように、ステップS31において、処理決定
部7は、警報機をオンにするように、処理部8を制御
し、ステップS32に進む。ステップS32では、処理
部8において、進入禁止区域である仮想空間に、不審者
や不審物等の侵入があったことを報知するために、警報
が鳴らされ、処理を終了する。あるいは、また、図12
(B)のフローチャートに示すように、ステップS36
において、処理決定部7は、録画を開始するように、処
理部8を制御し、ステップS37に進む。ステップS3
7では、処理部8において、進入禁止区域である仮想空
間に侵入した不審者や不審物等の録画が行われ、処理を
終了する。
衝突判定部5から衝突検出信号が出力された場合に、例
えば、次のような処理を行わせるようにすることも可能
である。
に、まず最初に、ステップS41において、処理決定部
7は、三次元情報生成部4が生成した三次元情報と、カ
メラセット31乃至3Nが出力する画像とから、仮想空間
と衝突した物体の三次元画像を生成し、ステップS42
に進む。ステップS42では、処理決定部7は、その内
蔵するメモリ(図示せず)に記憶された人物の三次元画
像を読み出し、仮想空間と衝突した物体の三次元画像と
比較する。即ち、処理決定部7は、内蔵するメモリに、
一人以上の人物の三次元画像をあらかじめ記憶してお
り、ステップS42において、その三次元画像と、仮想
空間と衝突した物体の三次元画像とを比較する。
部7において、仮想空間と衝突した物体の三次元画像の
特徴量が、あらかじめ記憶された人物の三次元画像のい
ずれかの特徴量と一致したかどうかが判定され、一致し
たと判定された場合、ステップS44およびS45をス
キップして、処理を終了する。即ち、この場合、処理決
定部7は、処理部8を特に制御せずに、処理を終了す
る。
と衝突した物体の三次元画像の特徴量が、あらかじめ記
憶された人物の三次元画像のいずれの特徴量とも一致し
ないと判定された場合、ステップS44,S45に順次
進み、図12(A)のステップS31,S32における
場合とそれぞれ同様の処理が行われ、処理を終了する。
即ち、この場合、処理決定部7は、警報機をオンにする
ように、処理部8を制御し、処理部8では、その制御に
したがい、警報が鳴らされる。
どのような物体が、仮想空間内に入っても警報が鳴らさ
れることから、例えば、進入禁止区域を警備する警備員
が、警備等のために仮想空間内に入ったときであって
も、警報が鳴ることになる。しかしながら、このような
場合に、警報が鳴るのは好ましくない。そこで、処理決
定部7が内蔵するメモリに、例えば、警備員の三次元画
像を記憶させておき、処理決定部7および処理部8に、
図13のフローチャートにしたがった処理を行わせるよ
うにすることで、警備員が進入禁止区域(仮想空間)に
入った場合に、警報が鳴ることを防止することができ
る。
クを付しておくとともに、処理決定部7の内蔵するメモ
リにも、それと同一のマークを記憶させておき、そのマ
ークの一致、不一致を判定すること等によっても、警備
員が進入禁止区域に入った場合に、警報が鳴ることを防
止することができる。また、例えば、警備員に、所定の
無線電波を出力する送信機を携帯してもらい、処理決定
部7において、進入禁止区域に入った物体が、その無線
電波を発しているかどうかを検出するようにすること等
によっても、警備員が進入禁止区域に入った場合に、警
報が鳴ることを防止することができる。
衝突判定部5から衝突検出信号が出力された場合に、例
えば、次のような処理を行わせ、仮想空間に侵入した物
体の立体的なモンタージュ写真を作成させることができ
る。
に、まず最初に、ステップS51において、処理決定部
7は、三次元情報生成部4が生成した三次元情報を記憶
し、ステップS52に進み、録画を開始するように、処
理部8を制御する。処理部8は、ステップS53におい
て、処理決定部7の制御にしたがい、仮想空間に侵入し
た物体の録画を行う。
部7は、録画を終了すべきかどうかを判定し、終了すべ
きでないと判定した場合、ステップS53に戻り、以
下、同様の処理が繰り返される。即ち、この場合、処理
部8において、録画が続行される。ここで、ステップS
54における録画を終了すべきか否かの判定は、例え
ば、録画を開始してから、あらかじめ設定された時間が
経過したかどうかや、仮想空間に物体が入り続けている
かどうかなどをに基づいて行うことができる。
了すべきであると判定された場合、処理決定部7は、録
画を終了するように、処理部8を制御し、これにより、
処理部8は、録画を終了する。そして、ステップS55
に進み、処理決定部7は、ステップS51で記憶した物
体の三次元情報と、処理部8で録画された物体の画像
(二次元画像)とから、その物体の三次元画像(三次元
モンタージュ写真)を作成する。この三次元画像は、ス
テップS56において、例えば、図示せぬモニタに表示
され、あるいは図示せぬプリンタで印刷され、処理を終
了する。
なセキュリティシステムの他、例えば、仮想空間を歩道
や車道に設定し、その仮想空間を通過した人や自動車の
数をカウントするシステムや、仮想空間を通過したこと
をトリガとして、その通過した人や自動車の撮影や認識
等を行うシステムなどにも適用することができる。さら
に、例えば、野球の試合において、ホームベース上にス
トライクゾーンと一致する仮想空間を設定し、その仮想
空間を野球のボールが通過したかどうかを検出するよう
にすれば、ストライクおよびボールの判定の自動化や、
野球の審判員に対して、ストライクか、またはボールか
の判定のための補助的な情報を与えること等が可能とな
る。
に、仮想空間設定部6を操作することによっても可能で
あるが、三次元情報生成部4において生成された三次元
情報に基づいて行うようにすることも可能である。即
ち、仮想空間は、いわば手動により設定するのではな
く、自動的に設定するようにすることが可能である。
ように、床に、保護(監視)すべき対象物がおいてある
場合には、その対象物を囲むような中空の半球状の仮想
空間を、対象物の三次元情報に基づいて設定することが
可能である。なお、図15においては(後述する図17
および図20においても同様)、衝突判定部5、処理決
定部7、および処理部8の図示を省略してある。
ように、まず最初に、ステップS61において、カメラ
セット31乃至3Nによって、対象物を撮影し、その結果
得られる画像(基準カメラ画像および検出カメラ画像)
を、三次元情報生成部4に供給する。三次元情報生成部
4は、ステップS62において、カメラセット31乃至
3Nからの画像から、対象物の三次元情報として、その
距離画像を生成し、仮想空間設定部6に供給する。
おいて、三次元情報生成部4からの対象物の三次元情報
に基づいて、その対象物の床面における中心点(対象物
が接している床面部分の形状の、例えば、重心など)O
が求められる。さらに、仮想空間設定部6では、ステッ
プS64において、点Oを中心とする半径Rの半球と、
半径R−Wの半球とが想定され、その2つの半球で囲ま
れる空間(幅Wの空間)が、仮想空間として設定され
る。そして、仮想空間設定部6は、ステップS65にお
いて、その仮想空間の三次元情報を記憶し、処理を終了
する。
最も遠い点までの距離よりも長くする必要がある(そう
しないと、対象物と仮想空間とが衝突し、衝突判定部6
において、常に、衝突検出信号が出力されることとな
る)。
設定する処理は、図1の衝突空間判別装置に、仮想空間
との衝突の検出を開始させる前に一度だけ行うこともで
きるし、仮想空間との衝突の検出を開始させた後も、逐
次行い、仮想空間を更新するようにすることも可能であ
る。このように、仮想空間を更新するようにした場合に
は、例えば、対象物が床上を移動するような場合等に対
処することができる。
を設定した場合には、仮想空間の外側から、仮想空間の
中空部分への侵入を検出する他、逆方向の侵入、即ち、
仮想空間の中空部分から、仮想空間の外側への侵入も検
出することができる。従って、対象物が、例えば、仮想
空間で囲まれた中空部分から移動したことを検出するこ
とができる。また、例えば、上述したように、仮想空間
マップのボクセルに、仮想空間の境界からの距離に対応
した値をセットするようにすれば、仮想空間への侵入と
ともに、いずれの方向の侵入が生じたのかも検出するこ
とが可能となる。
おいては、対象物を囲む、中空の半球状の仮想空間を設
定するようにしたが、この場合、仮想空間に囲まれた中
空部分の範囲内において、対象物が移動しても、仮想空
間とは衝突しないから、そのような範囲内における対象
物の移動は検出することができない。しかしながら、対
象物の僅かな移動であっても、それを検出したい場合が
ある。
においてある対象物を、隙間なく囲むような仮想空間
(図17の実施の形態では、外形が半球状になってい
る)を設定することで行うことが可能である。
(A)に示すように、対象物を囲む半球状の空間を想定
し、その後、図18(B)に示すように、その半球状の
空間から、対象物が占めている空間を除外することで設
定することができる。
に、まず最初に、ステップS71において、カメラセッ
ト31乃至3Nによって、対象物を撮影し、その結果得ら
れる画像(基準カメラ画像および検出カメラ画像)を、
三次元情報生成部4に供給する。三次元情報生成部4
は、ステップS72において、カメラセット31乃至3N
からの画像から、対象物の三次元情報として、その距離
画像を生成し、仮想空間設定部6に供給する。
おいて、図15および図16で説明した場合と同様にし
て、三次元情報生成部4からの対象物の三次元情報に基
づいて、その対象物の床面における中心点Oを中心とす
る半径Rの半球が求められ、これが仮の仮想空間として
設定される。さらに、ステップS73では、その仮の仮
想空間について、上述したような仮想空間マップが作成
され、ステップS74に進む。
おいて、三次元情報生成部4からの対象物の三次元情報
に基づき、その対象物について、上述したような物体マ
ップが作成され、ステップS75に進む。ステップS7
5では、仮想空間設定部6において、仮想空間マップと
物体マップとに基づいて、対象物と衝突している仮の仮
想空間に対応するボクセルが検出され、そのボクセル
が、仮想空間の内部を構成するボクセルから、仮想空間
の外部を構成するボクセルとなるように、仮想空間マッ
プが変更される。さらに、ステップS75では、変更さ
れた仮想空間マップにしたがって、最終的な仮想空間が
設定され、ステップS76に進み、仮想空間設定部6
は、その最終的な仮想空間の三次元情報を記憶し、処理
を終了する。
間の設定方法によれば、対象物を、隙間なく囲むような
仮想空間を設定することができる他、対象物を、ある程
度余裕をもって囲むような仮想空間を設定することもで
き、そのような仮想空間を設定した場合には、図1の空
間衝突判別装置は、例えば、ゴルフのスイングその他の
フォームの矯正システムとして利用することが可能とな
る。
となる人(例えば、プロゴルファなど)にスイングして
もらい、その一連の動作を、カメラセット31乃至3Nで
撮影し、三次元情報生成部4において、その結果得られ
る画像から、そのスイングの一連の動作について三次元
情報を生成する。いま、三次元情報生成部4において、
例えば、図21(A)に示すようなフォームを示す三次
元情報が得られたとすると、そのままでは、一般に、ス
イングのフォームを矯正しようとしているユーザの身長
や、手足の長さ、肉付き等の体格や、衣服の状態に合致
しないため、三次元情報生成部4から得られた三次元情
報を、図21(B)に示すように正規化し、ユーザの体
格等に合致させる。そして、図21(C)に黒く塗って
示すように、その正規化した三次元情報によって規定さ
れる形状を、ある程度余裕を持って囲む所定の厚さ(例
えば、5cmなど)の空間を想定し、これを、仮想空間
とする。なお、ここでは、仮想空間は、スイングの一連
の動作を撮影して得られた画像の各フレームごと(例え
ば、30フレーム/秒ごと)に作成する。これにより、
手本となる人のスイングの一連の動作を、いわば象っ
た、時系列に変化する仮想空間を得ることができる。
て、図20および図21で説明した仮想空間の設定方法
について、さらに説明する。
してもらい、ステップS81において、カメラセット3
1乃至3Nによって、その手本となる人(対象物)を撮影
する。その撮影の結果得られる画像は、三次元情報生成
部4に供給され、三次元情報生成部4では、ステップS
72において、カメラセット31乃至3Nからの画像か
ら、手本となる人の三次元情報として、その距離画像が
生成され、仮想空間設定部6に供給される。仮想空間設
定部6では、三次元情報生成部4からの手本となる人の
三次元情報が記憶され、ステップS84に進み、手本と
なる人の一連の動作が終了したかどうか、即ち、スイン
グが終了したかどうかが判定される。ステップS84に
おいて、スイングが終了していないと判定された場合、
ステップS81に戻り、次のフレームの撮影が行われ
る。
が終了したと判定された場合、ステップS85に進み、
仮想空間設定部6は、各フレームの画像から得られた三
次元情報を、ユーザの体格等にあわせて正規化し、ステ
ップS86に進む。ステップS86では、仮想空間設定
部6において、正規化された三次元情報で規定される形
状を、ある程度余裕を持って囲む所定の厚さの空間が想
定され、これが、仮想空間とされて記憶される。仮想空
間設定部6では、そのような仮想空間が、スイングの一
連の動作を撮影して得られた画像の各フレームごとの三
次元情報それぞれについて設定されて記憶され、処理を
終了する。
は、図23に示すように、その仮想空間で囲まれる領域
に、ユーザが入り、スイングの練習を行う。この場合、
ユーザのスイング動作が、手本となる人のスイング動作
にほぼ一致していれば、仮想空間と、ユーザとの衝突は
生じないが、一致していなければ、衝突が生じ、この衝
突は、衝突判定部5において検出される。従って、処理
部8において、その旨を表示することにより、ユーザ
に、スイングが、手本となる人のものと一致しているか
どうかを提示することができる。また、衝突があった仮
想空間の位置や、スイングのどの過程における仮想空間
において衝突があったのかを提示することにより、ユー
ザに矯正すべき場所やタイミングを教えることが可能と
なる。
イングの矯正を行うようにしたが、その他、例えば、ゴ
ルフクラブのフェースを象った仮想空間を設定し、ゴル
フボールとの衝突を検出、あるいは、逆にゴルフゴール
を象った仮想空間を設定し、ゴルフクラブのフェースと
の衝突を検出するようにすれば、インパクト時のフェー
スの向きや、フェースのどの位置にゴルフボールがあた
っているかなどのチェックを行うことが可能となる。
テムは、ゴルフ以外のスポーツや、ダンスなどにも適用
可能である。
空間が設定される一方、実際(現実)の物体の三次元情
報が生成され、物体の三次元情報に基づいて、物体と仮
想空間とが衝突しているかどうかが判定される。従っ
て、仮想空間を任意に設定し、その仮想空間と、実際の
物体との衝突を検出することが可能となる。即ち、例え
ば、赤外線検知システムでは、図24で説明したよう
に、赤外線発光部および赤外線受光部を、進入禁止領域
の形状や大きさにあわせて設置する必要があり、例え
ば、イベント会場や公共スペースなどの人の出入りが激
しい場所では、その設置が困難な場合もある。これに対
して、図1の空間衝突判別装置では、カメラセット3n
は、その視野内に、仮想空間が含まれるように配置すれ
ば良く、配置場所に関する自由度が高い。即ち、カメラ
セット3nは、仮想空間の形状や大きさにほとんど制限
されずに配置することができる。さらに、仮想空間は、
あくまで仮想的に想定された空間であるから、赤外線発
光部および赤外線受光部の配置位置や赤外線を送受信す
る向きによって規定される領域と異なり、容易に、任意
の形状とすることができる。また、その変更も、仮想空
間を規定する三次元情報(パラメータ)を変更するだけ
で容易に行うことができる。
より、現実の物体の三次元情報を得るようにしたが、物
体の三次元情報を得る手法は、これに限定されるもので
はなく、例えば、レンジファインダによりレーザ光を照
射して三角測量の原理により、物体までの距離を計測す
る方法その他を採用することもできる。
定することができる仮想空間と、現実の物体との衝突を
検出することから、上述したアプリケーションの他に
も、様々なアプリケーションに応用することができる。
スプレイとしてのHMD(Head Mount Display)と、図
1の空間衝突判別装置とを組み合わせることで、各種の
ユーザインターフェイスを提供することが可能となる。
具体的には、例えば、HMDによって、虚像の画面とキ
ーボードとを表示し、そのキーボードを構成する各キー
の虚像が表示された位置それぞれに仮想空間を設定すれ
ば、各キーの虚像の位置に設定された仮想空間と、ユー
ザの指との衝突を検出し、衝突が検出された位置に対応
するキーにしたがった表示を、虚像の画面に行うように
することで、実際に、キーボードがなくてもタイプを行
うことが可能となる。また、同様の手法で、テレビジョ
ン受像機やVTRその他のAV(Audio/Visual)機器の
リモートコマンダを実現すること等も可能である。
ば、コンピュータ(情報処理装置)に、上述した処理を
行わせるためのコンピュータプログラム(制御情報)を
実行させることによっても、また、専用のハードウェア
によっても、実現可能である。なお、コンピュータプロ
グラムによる場合には、そのコンピュータプログラム
は、例えば、光ディスク、光磁気ディスク、磁気ディス
ク、磁気テープ、相変化ディスク、その他の記録媒体に
記録して提供することも可能であるし、例えば、インタ
ーネット、CATV(Cable Television)網、衛星回
線、地上波、その他の伝送媒体を介して伝送することに
より提供することも可能である。
び情報処理方法、並びに提供媒体によれば、三次元空間
内に所定の仮想空間が設定され、物体の三次元情報が生
成される。そして、物体の三次元情報に基づいて、物体
と仮想空間とが衝突しているかどうかが判定される。従
って、三次元空間における任意の空間と物体との衝突を
検出することが可能となる。
形態の構成例を示すブロック図である。
のフローチャートである。
ック図である。
である。
の図である。
想空間との関係を示す図である。
である。
ある。
フローチャートである。
説明するためのフローチャートである。
説明するためのフローチャートである。
説明するためのフローチャートである。
る。
チャートである。
る。
る。
チャートである。
る。
る。
チャートである。
た場合を説明するための図である。
ある。
乃至3N カメラセット(撮像手段), 4 三次元情
報生成部(生成手段) 5 衝突判定部(判定手段),
6 仮想空間設定部(設定手段)(操作手段) 7
処理決定部, 8処理部(処理手段), 11 カメラ
IF, 12 画像メモリ, 13 CPU, 14
HDD, 21 検出物体マップ生成部(物体マップ作
成手段), 22 衝突検出部, 23 仮想空間マッ
プ生成部(仮想空間マップ作成手段)
Claims (14)
- 【請求項1】 三次元空間に存在する物体の三次元情報
を処理する情報処理装置であって、 前記三次元空間内に所定の仮想空間を設定する設定手段
と、 前記物体の三次元情報を生成する生成手段と、 前記物体の三次元情報に基づいて、前記物体と前記仮想
空間とが衝突しているかどうかを判定する判定手段とを
備えることを特徴とする情報処理装置。 - 【請求項2】 前記仮想空間を設定するのに必要な情報
を入力するときに操作される操作手段をさらに備え、 前記設定手段は、前記操作手段による入力に基づいて、
前記仮想空間を設定することを特徴とする請求項1に記
載の情報処理装置。 - 【請求項3】 前記設定手段は、前記三次元空間の所定
の空間を囲む所定の形状の、所定の幅を有する空間を、
前記仮想空間として設定することを特徴とする請求項1
に記載の情報処理装置。 - 【請求項4】 前記設定手段は、前記三次元空間内の所
定の対象物を囲み、その対象物を除く空間を、前記仮想
空間として設定することを特徴とする請求項1に記載の
情報処理装置。 - 【請求項5】 前記設定手段は、時系列に変化する前記
仮想空間を設定することを特徴とする請求項1に記載の
情報処理装置。 - 【請求項6】 前記設定手段は、前記三次元空間を撮影
して得られる複数の画像に基づいて、前記仮想空間を設
定することを特徴とする請求項1に記載の情報処理装
置。 - 【請求項7】 前記生成手段は、前記物体を撮影して得
られる複数の画像から、前記三次元情報を生成すること
を特徴とする請求項1に記載の情報処理装置。 - 【請求項8】 前記物体を撮影する撮像手段をさらに備
えることを特徴とする請求項7に記載の情報処理装置。 - 【請求項9】 前記物体の三次元情報に基づいて、前記
三次元空間において前記物体が存在する位置を、所定の
座標系によって表す物体マップを作成する物体マップ作
成手段と、 前記仮想空間が存在する位置を、前記所定の座標系によ
って表す仮想空間マップを作成する仮想空間マップ作成
手段とをさらに備え、 前記判定手段は、前記物体マップおよび仮想空間マップ
に基づいて、前記物体と前記仮想空間とが衝突している
かどうかを判定することを特徴とする請求項1に記載の
情報処理装置。 - 【請求項10】 前記判定手段の判定結果に基づいて、
所定の処理を行う処理手段をさらに備えることを特徴と
する請求項1に記載の情報処理装置。 - 【請求項11】 前記処理手段は、前記物体と前記仮想
空間とが衝突した場合に、その旨を報知することを特徴
とする請求項10に記載の情報処理装置。 - 【請求項12】 前記処理手段は、前記物体と前記仮想
空間とが衝突した場合に、その物体を録画することを特
徴とする請求項10に記載の情報処理装置。 - 【請求項13】 三次元空間に存在する物体の三次元情
報を処理する情報処理方法であって、 前記三次元空間内に所定の仮想空間を設定する設定ステ
ップと、 前記物体の三次元情報を生成する生成ステップと、 前記物体の三次元情報に基づいて、前記物体と前記仮想
空間とが衝突しているかどうかを判定する判定ステップ
とを備えることを特徴とする情報処理方法。 - 【請求項14】 三次元空間に存在する物体の三次元情
報を、情報処理装置に処理させるための制御情報を提供
する提供媒体であって、 前記三次元空間内に所定の仮想空間を設定する設定ステ
ップと、 前記物体の三次元情報を生成する生成ステップと、 前記物体の三次元情報に基づいて、前記物体と前記仮想
空間とが衝突しているかどうかを判定する判定ステップ
とを備える制御情報を提供することを特徴とする提供媒
体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10349538A JP2000172878A (ja) | 1998-12-09 | 1998-12-09 | 情報処理装置および情報処理方法、並びに提供媒体 |
US09/451,569 US6476812B1 (en) | 1998-12-09 | 1999-11-30 | Information processing system, information processing method, and supplying medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10349538A JP2000172878A (ja) | 1998-12-09 | 1998-12-09 | 情報処理装置および情報処理方法、並びに提供媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000172878A true JP2000172878A (ja) | 2000-06-23 |
Family
ID=18404407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10349538A Pending JP2000172878A (ja) | 1998-12-09 | 1998-12-09 | 情報処理装置および情報処理方法、並びに提供媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6476812B1 (ja) |
JP (1) | JP2000172878A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1260934A2 (en) * | 2001-05-22 | 2002-11-27 | Matsushita Electric Industrial Co., Ltd. | Surveillance recording device and method |
JP2003014421A (ja) * | 2001-07-04 | 2003-01-15 | Minolta Co Ltd | 測定装置及び測定方法 |
JP2003075148A (ja) * | 2001-09-03 | 2003-03-12 | Techno Vanguard:Kk | デジタルスチルカメラを用いた変位計測装置 |
WO2003063087A1 (fr) * | 2002-01-25 | 2003-07-31 | Iwane Laboratories, Ltd. | Systeme de travail automatique |
JP2005233639A (ja) * | 2004-02-17 | 2005-09-02 | Mitsubishi Electric Corp | ステレオカメラシステムおよび該システムのステレオカメラ同士のキャリブレーション方法 |
JP2006133008A (ja) * | 2004-11-04 | 2006-05-25 | Shimadzu Corp | X線透視装置 |
JP2007004318A (ja) * | 2005-06-22 | 2007-01-11 | Sega Corp | 画像処理方法、画像処理を実行するためのプログラム、及び、当該プログラムが記憶された記憶媒体 |
JP2021043496A (ja) * | 2019-09-06 | 2021-03-18 | 東芝テック株式会社 | デジタル撮像機器、デジタル撮像方法、プログラム |
JP2022518402A (ja) * | 2019-01-25 | 2022-03-15 | 北京▲極▼智▲簡▼▲單▼科技有限公司 | 三次元再構成の方法及び装置 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999058927A1 (en) * | 1998-05-08 | 1999-11-18 | Sony Corporation | Image generating device and method |
KR100384406B1 (ko) * | 2000-01-24 | 2003-05-22 | (주) 베스트소프트 | 컴퓨터 프로그램 구동조작장치 |
US6974964B1 (en) * | 2002-06-17 | 2005-12-13 | Bu-Chin Wang | Method and apparatus for three-dimensional surface scanning and measurement of a moving object |
US7187377B1 (en) * | 2002-06-28 | 2007-03-06 | Microsoft Corporation | Three-dimensional virtual tour method and system |
US7084904B2 (en) * | 2002-09-30 | 2006-08-01 | Microsoft Corporation | Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time |
JP2004152015A (ja) * | 2002-10-30 | 2004-05-27 | Digital Fashion Ltd | 画像処理装置、画像処理プログラム、そのプログラムを記録する記録媒体、画像処理方法、シェーディング情報取得装置及びデータ構造 |
US7746379B2 (en) * | 2002-12-31 | 2010-06-29 | Asset Intelligence, Llc | Sensing cargo using an imaging device |
JP2007525068A (ja) * | 2003-06-19 | 2007-08-30 | エル3 コミュニケーションズ コーポレイション | 拡張可能なマルチカメラ分散ビデオ処理および可視化監視システムを提供する方法および装置 |
JP4425589B2 (ja) * | 2003-09-03 | 2010-03-03 | 任天堂株式会社 | 画像生成プログラム、画像生成方法及び画像生成装置 |
US7285047B2 (en) * | 2003-10-17 | 2007-10-23 | Hewlett-Packard Development Company, L.P. | Method and system for real-time rendering within a gaming environment |
US7421112B2 (en) * | 2004-03-12 | 2008-09-02 | General Electric Company | Cargo sensing system |
US20110028212A1 (en) * | 2004-07-01 | 2011-02-03 | David Krien | Computerized Imaging of Sporting Trophies and Method of Providing a Replica |
JP4033859B2 (ja) * | 2004-12-28 | 2008-01-16 | 独立行政法人科学技術振興機構 | 立体画像表示方法 |
WO2007098537A1 (en) * | 2006-03-01 | 2007-09-07 | Brennan Broadcast Group Pty Ltd | Detecting contacts during sporting activities etc |
WO2007146347A2 (en) * | 2006-06-14 | 2007-12-21 | Wms Gaming Inc. | Wagering game with multiple viewpoint display feature |
JP4481280B2 (ja) * | 2006-08-30 | 2010-06-16 | 富士フイルム株式会社 | 画像処理装置、及び画像処理方法 |
US8696450B2 (en) * | 2011-07-27 | 2014-04-15 | The Board Of Trustees Of The Leland Stanford Junior University | Methods for analyzing and providing feedback for improved power generation in a golf swing |
EP2554434B1 (en) * | 2011-08-05 | 2014-05-21 | Harman Becker Automotive Systems GmbH | Vehicle surround view system |
IL216515A (en) * | 2011-11-22 | 2015-02-26 | Israel Aerospace Ind Ltd | A system and method for processing images from a camera set |
MY177646A (en) | 2014-02-28 | 2020-09-23 | Icm Airport Technics Australia Pty Ltd | Luggage processing station and system thereof |
JP6447915B2 (ja) * | 2015-03-13 | 2019-01-09 | パナソニックIpマネジメント株式会社 | 負荷制御装置 |
US10930001B2 (en) | 2018-05-29 | 2021-02-23 | Zebra Technologies Corporation | Data capture system and method for object dimensioning |
US10611372B2 (en) | 2018-09-06 | 2020-04-07 | Zebra Technologies Corporation | Dual-mode data capture system for collision detection and object dimensioning |
USD1027692S1 (en) | 2019-10-25 | 2024-05-21 | Icm Airport Technics Australia Pty Ltd | Baggage scanner station |
USD1002411S1 (en) | 2019-10-25 | 2023-10-24 | Icm Airport Technics Australia Pty Ltd | Baggage scanner array |
AU2019272041A1 (en) | 2019-11-11 | 2021-05-27 | Icm Airport Technics Pty Ltd | Device with biometric system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3544268B2 (ja) * | 1995-10-09 | 2004-07-21 | 任天堂株式会社 | 三次元画像処理装置およびそれを用いた画像処理方法 |
JPH10198816A (ja) * | 1997-01-13 | 1998-07-31 | Mitsubishi Electric Corp | 情報処理システム及びネットワーク型情報処理システム |
US6310627B1 (en) * | 1998-01-20 | 2001-10-30 | Toyo Boseki Kabushiki Kaisha | Method and system for generating a stereoscopic image of a garment |
-
1998
- 1998-12-09 JP JP10349538A patent/JP2000172878A/ja active Pending
-
1999
- 1999-11-30 US US09/451,569 patent/US6476812B1/en not_active Expired - Lifetime
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1260934A2 (en) * | 2001-05-22 | 2002-11-27 | Matsushita Electric Industrial Co., Ltd. | Surveillance recording device and method |
EP1260934A3 (en) * | 2001-05-22 | 2004-04-14 | Matsushita Electric Industrial Co., Ltd. | Surveillance recording device and method |
JP2003014421A (ja) * | 2001-07-04 | 2003-01-15 | Minolta Co Ltd | 測定装置及び測定方法 |
JP2003075148A (ja) * | 2001-09-03 | 2003-03-12 | Techno Vanguard:Kk | デジタルスチルカメラを用いた変位計測装置 |
WO2003063087A1 (fr) * | 2002-01-25 | 2003-07-31 | Iwane Laboratories, Ltd. | Systeme de travail automatique |
JP2005233639A (ja) * | 2004-02-17 | 2005-09-02 | Mitsubishi Electric Corp | ステレオカメラシステムおよび該システムのステレオカメラ同士のキャリブレーション方法 |
JP2006133008A (ja) * | 2004-11-04 | 2006-05-25 | Shimadzu Corp | X線透視装置 |
JP4704735B2 (ja) * | 2004-11-04 | 2011-06-22 | 株式会社島津製作所 | X線透視装置 |
JP2007004318A (ja) * | 2005-06-22 | 2007-01-11 | Sega Corp | 画像処理方法、画像処理を実行するためのプログラム、及び、当該プログラムが記憶された記憶媒体 |
JP2022518402A (ja) * | 2019-01-25 | 2022-03-15 | 北京▲極▼智▲簡▼▲單▼科技有限公司 | 三次元再構成の方法及び装置 |
JP7398819B2 (ja) | 2019-01-25 | 2023-12-15 | 北京▲極▼智▲簡▼▲單▼科技有限公司 | 三次元再構成の方法及び装置 |
US11954832B2 (en) | 2019-01-25 | 2024-04-09 | Beijing Ainfinit Technology Co., Ltd | Three-dimensional reconstruction method and apparatus |
JP2021043496A (ja) * | 2019-09-06 | 2021-03-18 | 東芝テック株式会社 | デジタル撮像機器、デジタル撮像方法、プログラム |
JP7382767B2 (ja) | 2019-09-06 | 2023-11-17 | 東芝テック株式会社 | デジタル撮像機器、デジタル撮像方法、プログラム |
Also Published As
Publication number | Publication date |
---|---|
US6476812B1 (en) | 2002-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2000172878A (ja) | 情報処理装置および情報処理方法、並びに提供媒体 | |
CN107836012B (zh) | 投影图像生成方法及其装置、图像像素与深度值之间的映射方法 | |
CN102681661B (zh) | 在玩游戏中使用三维环境模型 | |
US10977818B2 (en) | Machine learning based model localization system | |
US7003136B1 (en) | Plan-view projections of depth image data for object tracking | |
CN102938844B (zh) | 利用立体成像生成自由视点视频 | |
CN102609942B (zh) | 使用深度图进行移动相机定位 | |
JP7073481B2 (ja) | 画像表示システム | |
CN109564690A (zh) | 使用多向相机评估封闭空间的尺寸 | |
KR102210541B1 (ko) | 실제 장면의 재현에 가상 이미지 및 오디오 데이터를 오버레이하는 방법 및 장치, 그리고 모바일 디바이스 | |
JP6824579B2 (ja) | 画像生成装置および画像生成方法 | |
JPH09139956A (ja) | 電子シーン分析および強調のための装置および方法 | |
JP2010109783A (ja) | 電子カメラ | |
US10799758B2 (en) | Screen golf system, method of realizing image for screen golf, and computing-device-readable recording medium having the same recorded therein | |
JP5525495B2 (ja) | 映像監視装置、映像監視方法およびプログラム | |
Mulder et al. | An affordable optical head tracking system for desktop VR/AR systems | |
Yang et al. | Automatic and continuous projector display surface estimation using everyday imagery | |
Piérard et al. | I-see-3d! an interactive and immersive system that dynamically adapts 2d projections to the location of a user's eyes | |
JPH07302341A (ja) | 姿勢検出装置および方法 | |
Hutson et al. | JanusVF: Accurate navigation using SCAAT and virtual fiducials | |
JP7500333B2 (ja) | 生成装置、生成方法、およびプログラム | |
US20240275935A1 (en) | Image display system and image display method | |
KR102602319B1 (ko) | 인공지능 영상 딥러닝 모델을 이용한 다중 객체 추적기반 교통 정보 수집 시스템 및 방법 | |
JP2021170698A (ja) | 設置支援装置、設置支援方法、及び設置支援プログラム | |
Tanahashi et al. | Live events accessing for multi-users with free viewpoints using stereo omni-directional system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090203 |