JP2005252482A - Image generating apparatus and three-dimensional distance information acquisition apparatus - Google Patents
Image generating apparatus and three-dimensional distance information acquisition apparatus Download PDFInfo
- Publication number
- JP2005252482A JP2005252482A JP2004057980A JP2004057980A JP2005252482A JP 2005252482 A JP2005252482 A JP 2005252482A JP 2004057980 A JP2004057980 A JP 2004057980A JP 2004057980 A JP2004057980 A JP 2004057980A JP 2005252482 A JP2005252482 A JP 2005252482A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- information acquisition
- posture
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001133 acceleration Effects 0.000 claims abstract description 24
- 238000006243 chemical reaction Methods 0.000 claims abstract description 12
- 230000001360 synchronised effect Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 abstract description 27
- 238000000034 method Methods 0.000 description 14
- 238000012937 correction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Abstract
Description
本発明は、画像生成装置及び3次元距離情報取得装置に関するものである。 The present invention relates to an image generation device and a three-dimensional distance information acquisition device.
バーチャルリアリティやロボットナビゲーション、コンピュータビジョン等の分野において、画像処理を用いた様々な研究が盛んに行われている。例えば、遠隔地で行われる会議に仮想的に参加するときには、実際の会議場の画像を利用者の周囲に再現できれば利用者に臨場感を与えることができる。また、人が入り込めない危険地域や特殊地域でロボットによる遠隔操作を行う際に、そのロボットが取得した画像からその地域の3次元環境モデルを再現できれば、利用者は非常にリアリティのある環境の中で遠隔操作を行うことができる。こういった3次元環境モデルの生成においては、カメラ等の撮影装置によって広範囲の環境情報を取得することが重要である。 In the fields of virtual reality, robot navigation, and computer vision, various researches using image processing have been actively conducted. For example, when virtually participating in a conference held at a remote place, it is possible to give the user a sense of realism if the image of the actual conference hall can be reproduced around the user. Also, when performing remote control with a robot in a dangerous area or special area where people cannot enter, if the 3D environment model of the area can be reproduced from the image acquired by the robot, the user will have a very realistic environment. Remote operation can be performed inside. In the generation of such a three-dimensional environment model, it is important to acquire a wide range of environment information by a photographing device such as a camera.
例えば、特許文献1には、このような3次元環境モデルの生成の画像入力側装置として活用できる、3次元距離情報取得装置が開示されている。この装置は、正20面体の面上にマウントされた20個のステレオユニットから構成されている。各ステレオユニットは、T字に配置された3台のCCDカメラから構成され、上下と左右の2種類のステレオ画像が得られるようになっている。ここで、装置自体の姿勢(傾き)が撮影時毎に異なる場合、その撮影時の装置自体の姿勢によって各全方向撮影画像毎に装置座標系が異なっており統一が取れていない。そこで、各全方向画像の装置座標系を、装置が位置するワールド座標系とそれぞれ一致させる必要がある。
For example,
非特許文献1では、こういった装置のワールド座標系に対する傾きを、取得した画像内の垂直エッジを検出することにより推定している。垂直エッジとは、室内環境や市街地等のシーンに多く存在する鉛直方向の直線のことである。通常、室内等の環境の中には垂直エッジが多く含まれており、それらの垂直エッジの方向はワールド座標系の縦軸Zwの方向と同じである。このため、装置座標系における垂直エッジ方向の分布を調べ、最も大きい垂直エッジ方向の分布を検出すれば、装置座標系におけるワールド座標系の縦軸Zwの方向が推定できる。装置座標系におけるワールド座標系の縦軸Zwが分かれば、ワールド座標系における装置座標系のZ軸の方向も分かる。以上の手法により、装置のワールド座標系に対する傾きを推定し、その推定された値に基づいて補正し、各全方向撮影画像の装置座標系をワールド座標系と一致させ、高精度な3次元距離情報を取得することができるとされていた。
しかしながら、上記垂直エッジによる推定処理は、計算における処理時間が多くかかるため、実時間での補正後の2次元画像の生成や3次元環境モデルの生成が困難であるという問題があった。 However, since the estimation process using the vertical edge takes a long processing time in calculation, there is a problem that it is difficult to generate a corrected two-dimensional image or a three-dimensional environment model in real time.
また、室内環境等では通常何らかの垂直エッジが存在するものではあるが、建物が倒壊した災害現場や、人物が入り込めない狭い洞窟等では、十分な垂直エッジが存在しないため、上記の方法で傾きを推定することは困難であった。このように、特殊な場所で使用する場合や、装置の使用環境が定まっていない場合等には、有効に用いることができなかった。 Also, in the indoor environment, there is usually some kind of vertical edge. It was difficult to estimate. As described above, when the device is used in a special place or when the use environment of the apparatus is not fixed, it cannot be used effectively.
そこで、本発明は、種々の使用環境に影響されることなく装置の姿勢を検出し、処理時間が短く実時間で処理することができる画像生成装置及び3次元距離情報取得装置を提供することを目的とする。 Therefore, the present invention provides an image generation apparatus and a three-dimensional distance information acquisition apparatus that can detect the posture of the apparatus without being affected by various usage environments and can perform processing in a short time and in real time. Objective.
上記目的を達成するため、請求項1に係る画像生成装置は、全方向の画像を取得する画像撮影装置と、該画像撮影装置に設けられ、該画像撮影装置の姿勢情報を取得する姿勢情報取得手段と、前記画像撮影装置により撮影された画像情報と前記姿勢情報取得手段により取得された姿勢情報とを時間的に同期させる同期手段と、前記同期手段により姿勢情報と同期された画像情報を、前記姿勢情報に基づいて前記画像撮影装置が位置する環境の3次元ワールド座標系の所定の軸に対して傾きのない2次元画像として生成する2次元画像生成手段とを有することを要旨とする。
In order to achieve the above object, an image generation apparatus according to
請求項2に係る画像生成装置は、請求項1に記載の画像生成装置において、所定の前記軸は、鉛直方向の軸であることを要旨とする。
請求項3に係る3次元距離情報取得装置は、全方向のステレオ画像を取得する画像撮影装置と、該画像撮影装置に設けられ、該画像撮影装置の姿勢情報を取得する姿勢情報取得手段と、前記画像撮影装置により撮影された画像情報と前記姿勢情報取得手段により取得された姿勢情報とを時間的に同期させる同期手段と、前記同期手段により姿勢情報と同期された画像情報から3次元距離情報を取得する3次元距離情報取得手段と、該3次元距離情報を、前記姿勢情報に基づいて前記画像撮影装置が位置する環境の3次元ワールド座標系を基準とした3次元距離情報に変換する変換手段とを有することを要旨とする。
A gist of an image generation apparatus according to a second aspect is the image generation apparatus according to the first aspect, wherein the predetermined axis is a vertical axis.
A three-dimensional distance information acquisition device according to
請求項4に係る3次元距離情報取得装置は、請求項3に記載の3次元距離情報取得装置において、前記姿勢情報取得手段は、ジャイロセンサを有することを要旨とする。
請求項5に係る3次元距離情報取得装置は、請求項3又は請求項4に記載の3次元距離情報取得装置において、前記3次元距離情報取得装置は、前記変換手段により変換された3次元距離情報から3次元環境モデルを生成する3次元環境モデル生成手段をさらに有することを要旨とする。
A three-dimensional distance information acquisition device according to a fourth aspect is the three-dimensional distance information acquisition device according to the third aspect, wherein the posture information acquisition means includes a gyro sensor.
The three-dimensional distance information acquisition device according to claim 5 is the three-dimensional distance information acquisition device according to
請求項6に係る3次元距離情報取得装置は、請求項3乃至請求項5のいずれか1項に記載の3次元距離情報取得装置において、前記3次元距離情報取得装置は、前記画像撮影装置に設けられ該画像撮影装置の位置情報を取得する位置情報取得手段を有し、前記同期手段は、前記画像情報と前記位置情報とを同期させることを要旨とする。 A three-dimensional distance information acquisition device according to a sixth aspect is the three-dimensional distance information acquisition device according to any one of the third to fifth aspects, wherein the three-dimensional distance information acquisition device is connected to the image photographing device. It has a position information acquisition unit that is provided and acquires the position information of the image capturing apparatus, and the synchronization unit synchronizes the image information and the position information.
請求項7に係る3次元距離情報取得装置は、請求項6に記載の3次元距離情報取得装置において、前記位置情報取得手段は、加速度センサを有することを要旨とする。
請求項8に係る3次元距離情報取得装置は、請求項3乃至請求項7のいずれか1項に記載の3次元距離情報取得装置において、前記3次元距離情報取得装置は、前記画像撮影装置により得られた画像のエッジとその方向とに基づいて前記画像撮影装置が位置するワールド座標系に対する該画像撮影装置の傾きを推定する推定手段をさらに有し、前記姿勢情報に基づいて該推定手段により前記画像撮影装置の姿勢を推定することを要旨とする。
The three-dimensional distance information acquisition device according to claim 7 is the three-dimensional distance information acquisition device according to claim 6, wherein the position information acquisition means includes an acceleration sensor.
The three-dimensional distance information acquisition device according to claim 8 is the three-dimensional distance information acquisition device according to any one of
本発明によれば、種々の使用環境に影響されることなく装置の姿勢を検出し、処理時間が短く実時間で処理することができる。 According to the present invention, it is possible to detect the attitude of the apparatus without being affected by various use environments, and to perform processing in real time with a short processing time.
(第1の実施形態)
以下、本発明を具体化した第1の実施形態を図1〜図7にしたがって説明する。
図1は、本実施形態の画像処理装置のシステム構成を示す概略図である。図1に示すように、本実施形態の画像処理装置(画像生成装置)11は、アクティブセンサ(全方向ステレオ撮影装置、画像撮影装置)12とコンピュータ13にて構成されている。なお、本実施形態の説明において、単にセンサというときは、アクティブセンサ12のことを指している。アクティブセンサ12は、複数、本実施形態では20ユニットの3眼ステレオユニット(以下、単に「ステレオユニット」という)18、加速度センサ14、ジャイロセンサ15、メモリユニット16、同期信号発生器17等を備えている。図1においては、1つの平面が同一時刻における20ユニットのステレオユニットによる全方向の画像及び加速度センサ14、ジャイロセンサ15のデータの取得を概念的に示しており、また、これらが所定の時間間隔で連続して取得を行っていることを概念的に示すものである。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is a schematic diagram illustrating a system configuration of an image processing apparatus according to the present embodiment. As shown in FIG. 1, an image processing apparatus (image generation apparatus) 11 according to the present embodiment includes an active sensor (an omnidirectional stereo imaging apparatus, an image imaging apparatus) 12 and a
図2は、アクティブセンサ12の機械的構成の概略図である。アクティブセンサ12は、複数の車輪を有する車体100を備えており、車体100内に設けられた図示しない電動モータにより前記車輪が駆動されて環境K内の任意の位置に向けて自動走行(直線及び曲線に沿った走行を含む)が可能である。なお、図2においては、説明の便宜上、環境Kは、車体100に比較して、小さく図示している。また、メモリユニット16、コンピュータ13、同期信号発生器17等は車体100内に格納されている。
FIG. 2 is a schematic diagram of the mechanical configuration of the
図3は、アクティブセンサ12の全体外観図である。アクティブセンサ12に設けられるステレオユニット18は、3個のビデオカメラからなり、各ステレオユニット18は正20面体(図4参照)の各面上にそれぞれ配置されている。すなわち、本実施形態では、ステレオユニット18は20ユニットある。これらのステレオユニット18の集合体は、スタンド19によって支持されている。
FIG. 3 is an overall external view of the
また、各ステレオユニット18は同特性を備え、各面に配置したステレオユニット18により、全方向のカラー画像と白黒画像(距離画像を求めるためのステレオ画像)を同一時刻にリアルタイムで取得可能となっている。これによって、3次元空間上の全ての方向におけるカラー画像と3次元情報を同一時刻に得ることができる。
In addition, each
さらに、同じ特性を持つステレオユニット18を正20面体の各面上に配置したことにより、3次元空間を均等に分割し、高解像度の情報の取得が可能である。なお、このアクティブセンサ12は、「”実環境センシングのための全方向ステレオシステム(SOS)”、電気学会論文誌C.Vol.121−C,No.5,pp.876−881,2001」に記載されている。
Furthermore, by arranging the
ステレオユニット18は、図1(図3)に示すように、1つの基準ビデオカメラVCsと、一対の参照用ビデオカメラVCとからなる。そして、参照用ビデオカメラVCは基準ビデオカメラVCsの光軸を交線として、互いに直交する一対の平面に含ませるように配置されている。そして、これらのカメラにより、2つのステレオペアを構成するように配置されている。なお、本実施形態では、ステレオユニット18は20ユニットあることから、基準ビデオカメラVCsも20台あることになる。
As shown in FIG. 1 (FIG. 3), the
各ステレオユニット18からは、1枚のカラー画像と2枚の白黒画像とからなるステレオ画像が取得され、全方向の20枚のカラー画像と40枚の白黒画像を1セットとして15セット/秒でメモリユニット16に転送する。メモリユニット16は、転送されてきた全方向の画像データ(以下、全方向画像という)を記憶する。全方向画像には、基準ビデオカメラVCsにて得られた画像データも含まれる。
From each
図4は、アクティブセンサ12に設けられる加速度センサ14及びジャイロセンサ15の取り付け態様を説明する図である。図4に示すように、アクティブセンサ12の内部の略中心部には、加速度センサ14とジャイロセンサ15が設けられている。加速度センサ14はアクティブセンサ12の位置を取得し、ジャイロセンサ15はアクティブセンサ12の姿勢(傾き)を取得する。詳しい取得に係る処理については後に述べる。この加速度センサ14が位置情報取得手段、ジャイロセンサ15が姿勢情報取得手段を構成している。
FIG. 4 is a diagram for explaining how the
また、各ステレオユニット18の各ビデオカメラには、同期信号発生器17から共通の絶対時刻に基づいた外部同期信号が供給され、画像データに時刻情報が付加されている。このことにより、ディジタル化されたフレームにおいて、完全に同期した画像データが得られる。また、同期信号発生器17は、加速度センサ14とジャイロセンサ15からの位置姿勢情報にも時刻情報を付加する。
Also, an external synchronization signal based on a common absolute time is supplied from the
なお、コンピュータ13は、所定の周期毎に、同コンピュータ13内に備えているROM13a(図1参照)に予め格納したプログラムを実行する。また、コンピュータ13は、メモリユニット16にアクセスし、全方向画像及び位置姿勢情報をその時々に取得する。さらに、コンピュータ13は、全方向画像と位置姿勢情報とを時間的に同期させる同期手段、2次元画像を生成する2次元画像生成手段、得られた画像のエッジに基づいてアクティブセンサ12の傾きを推定する推定手段に相当する。なお、各手段の処理については、後に詳しく述べることとする。
The
次に、上記のように構成された画像処理装置11の作用について説明する。まず、以下の説明で使用する用語について説明する。
1. センサ座標系(三次元座標系)
センサ座標系は、センサの中心から撮像したときの視点位置と視点の向きで決まる座標系である。
Next, the operation of the
1. Sensor coordinate system (3D coordinate system)
The sensor coordinate system is a coordinate system determined by the viewpoint position and the orientation of the viewpoint when imaged from the center of the sensor.
2. ワールド座標系(三次元座標系)
センサ自体が位置する環境の座標系である。このワールド座標系により、センサの位置や姿勢が特定される。また、このワールド座標系に基づいて3次元環境モデルが生成される。本実施形態では、センサの移動する始点を原点とし、鉛直方向をZ軸方向とし、所定方向、例えば磁北をX軸方向としてワールド座標系が決定されるが、これに限定されるものではない。
2. World coordinate system (3D coordinate system)
It is the coordinate system of the environment where the sensor itself is located. The position and orientation of the sensor are specified by this world coordinate system. A three-dimensional environment model is generated based on this world coordinate system. In the present embodiment, the world coordinate system is determined with the starting point of the movement of the sensor as the origin, the vertical direction as the Z-axis direction, and a predetermined direction, for example, magnetic north as the X-axis direction, but is not limited thereto.
3. 3次元垂直エッジ
3次元垂直エッジはワールド座標系において、大地、床面等の水平な基準面に対して垂直な方向を持つエッジをいう。前記エッジは、従って、ワールド座標系が基準面に対して垂直なZw軸を有するとすると、同Zw軸に対して平行なエッジ方向を有する。なお、3次元垂直エッジ点は、離散的に見た場合、3次元垂直エッジにある点をいう。
3. Three-dimensional vertical edge A three-dimensional vertical edge is an edge having a direction perpendicular to a horizontal reference plane such as the ground or floor in the world coordinate system. The edge thus has an edge direction parallel to the Zw axis, assuming that the world coordinate system has a Zw axis perpendicular to the reference plane. The three-dimensional vertical edge point means a point on the three-dimensional vertical edge when viewed discretely.
さて、本実施形態の画像処理装置11では、ジャイロセンサ15からアクティブセンサ12の大まかな姿勢を得た後、室内環境や市街地等のシーンに多く存在する鉛直方向の直線(以下、「垂直エッジ」という。)を用いてアクティブセンサ12の正確な姿勢(鉛直方向の傾きと水平回転)を推定する。ジャイロセンサ15の情報と画像情報を併用することで、アクティブセンサ12の姿勢を効率的に精度良く求めることができる。そして、求められた姿勢情報に基づいて画像を補正し、回転のない状態における画像データとするものである。
In the
図5は、画像処理装置11の一連の処理を示すフローチャートである。まず、ジャイロセンサ15からアクティブセンサ12の姿勢情報を取得し(ステップ1、以下「ステップ」を「S」と略す。)、センサ座標系からワールド座標系への変換パラメータを求める(S2)。次に、変換パラメータを利用して、アクティブセンサ12で得られた全方向画像からエッジとその方向に基づいて垂直エッジを検出し、アクティブセンサ12の姿勢を推定する(S3)。そして、姿勢パラメータにより、得られた画像を補整し回転のない2次元画像を生成する(S4)。
FIG. 5 is a flowchart showing a series of processes of the
次に、上記のアクティブセンサの姿勢推定(S3)について、エッジ方向とアクティブセンサ12の姿勢の関係、エッジ方向を用いた傾き推定、アクティブセンサ12の水平回転の推定、カルマンフィルタによる平滑化の順にさらに詳しく述べる。
Next, regarding the posture estimation (S3) of the active sensor, the relationship between the edge direction and the posture of the
まず、傾き推定の原理であるが、アクティブセンサ12の傾きを推定するには,ワールド座標系におけるセンサ座標系の縦軸(以下、Z軸とする)方向を求めればよい。一方、ワールド座標系におけるアクティブセンサ12の傾き推定とセンサ座標系におけるワールド座標系の傾き推定は同一の問題であるため、センサ座標系におけるワールド座標系のZ軸の方向Zwが分かれば、ワールド座標系におけるセンサ座標系のZ軸の方向も分かる。
First, regarding the principle of inclination estimation, in order to estimate the inclination of the
アクティブセンサの姿勢推定(S3)について、まず、エッジ方向とアクティブセンサ12の姿勢の関係について説明する。ワールド座標系における3次元垂直エッジ点Swとそのエッジ方向Ewは、センサ座標系でそれぞれSとEとする。また、センサ座標系(X,Y,Z)におけるワールド座標系のZ軸をZwとする。3次元空間において、垂直エッジS+λEとZwは平行であるため、同一平面上にある。つまり、3次元垂直エッジ点Sとそのエッジ方向Eで構成する斉次平面(つまり、座標系原点を通る平面)(S×E)・X=0はワールド座標系のZ軸Zwを通る。図6に示すように、平面(S×E)・X=0を平面Z=1と交差させれば、その交差線はZwと平面Z=1との交点p=(x,y,1)?を通る。センサ座標系におけるZ=1平面上の2次元空間(x,y)を投票空間とした場合、3次元空間における各エッジ点Sとそのエッジ方向Eは次の式で投票空間(x,y)に投票される。
Regarding the posture estimation (S3) of the active sensor, first, the relationship between the edge direction and the posture of the
次に、全方向画像のエッジ方向を用いた傾き推定について説明する。アクティブセンサ12の各カメラから得られた画像のエッジとその方向を用いて、上述の投票により傾きの推定を行う。アクティブセンサ12の各カメラの画像から得られたエッジsとその方向eで構成される2次元エッジ線分とそのエッジの3次元の点Sと3次元方向Eで構成される3次元エッジ線分は同一同次平面にあるため、アクティブセンサ12の各カメラ座標系はアクティブセンサ12のセンサ座標系と一致する場合、式(1)からsとeは次の式を満たす。
Next, the inclination estimation using the edge direction of the omnidirectional image will be described. The inclination is estimated by the above-described voting using the edge and the direction of the image obtained from each camera of the
アクティブセンサ12のc番目のカメラの画像上のk番目のエッジ点をsck=(xck,yck)とし、そのエッジ方向をeck=(dyck,−dxck)とする。ここで、k=1,…,Nc、Ncは各カメラ画像にあるエッジピクセルの数である。アクティブセンサ12のセンサ座標系におけるZ=1の平面上の投票空間を(x,y)とすれば、式(3)から次の投票式がえられる。
The k-th edge point on the image of the c-th camera of the
このように、アクティブセンサ12の傾きを推定することにより、傾きのない時のアクティブセンサ12の全方向エッジ画像を生成することができる。このように傾きのない全方向エッジ画像を仮想的に生成できるため、これを用いて本出願人がすでに提案した全方位エッジヒストグラムを用いたセンサの位置・姿勢推定法(水平のみ)により、カメラのその他の位置・姿勢パラメータも得ることができる。詳しくは、「”全方位画像のエッジヒストグラムを用いたセンサの位置姿勢推定”、信学論D−II,Vol.J86−D−II,No.10,pp.1400−1410,2003」による。次に、アクティブセンサの水平回転成分の求め方について述べる。なお、ここで姿勢パラメータとは、鉛直方向及び水平方向も含めた全体の姿勢を決定するパラメータを意味する。
In this way, by estimating the inclination of the
アクティブセンサ12が傾いていない場合、アクティブセンサ12の並進や回転は、全方位画像の垂直投影エッジヒストグラムのシフトを引き起こす。アクティブセンサ12の水平回転によって生じたヒストグラムのシフト量はすべての方位角において一定で、全体のシフト量のオフセットになるが、アクティブセンサ12の並進で生じたヒストグラムのシフト量は移動方向とエッジの方位角に関係し、sin曲線の特性を持つ。
When the
初期時刻のアクティブセンサ12の向きを基準とした場合、初期時刻の全方位エッジヒストグラムを参照ヒストグラムとする。現時刻で得られた全方位エッジヒストグラムと参照ヒストグラムをマッチングし、ヒストグラムのシフト量を求める。全方位エッジヒストグラムのシフト量の全体的なオフセットからアクティブセンサ12の回転角度を求める。詳細については、文献”全方位画像のエッジヒストグラムを用いたセンサの位置姿勢推定”、信学論D−II,Vol.J86−D−II,No.10,pp.1400−1410,2003による。
When the orientation of the
上記のようにして得られたアクティブセンサ12の姿勢パラメータにはランダム的な推定誤差がある。一般的に、アクティブセンサ12の姿勢変化は滑らかであるが、そのランダム的な推定誤差によって、復元した姿勢の時間的な変動はパラメータ空間では必ずしも滑らかな軌跡にならない。そのため、推定したアクティブセンサ12の姿勢パラメータを用いて復元した全方向画像には小さな振動が起こる場合がある。
There is a random estimation error in the posture parameter of the
この問題を解決するために、カルマンフィルタ(文献”A New Approach to Linear Filtering and Prediction Problems”Trans.of ASME−Journal of Basic Engineering,Vol.82−D,pp.35−45,1960による。)を用いて、得られたアクティブセンサ12の姿勢パラメータの時間的な変動(軌跡)を平滑化する。ここでは、傾きの2自由度α,βと水平回転の1自由度γの時間的な変動はお互いに独立していると仮定する。また、それらの姿勢パラメータの変化は等速変化であると仮定する。時刻tの姿勢パラメータをPt=(αt,βt,γt)Tとし、パラメータの変化量Δt=Pt-Pt−1とする。その場合、カルマンフィルタによる平滑化は次の式のようになる。
To solve this problem, the Kalman filter (literature “A New Approach to Linear Filtering and Prediction Problems”, Trans. Of ASME-Journal of Basic Engineering, Vol. 82-D, pp. 35-45, 19) is used. Thus, the temporal variation (trajectory) of the obtained posture parameter of the
また、初期値としては、Δ0=0で、P0を姿勢の初期推定値とする。M0を対角要素の値がRである対角行列とする。式(9)の左辺で得られた値を時刻tの姿勢の推定値として用いる。 Further, as initial values, Δ 0 = 0, and P 0 is an initial estimated value of the posture. Let M 0 be a diagonal matrix whose diagonal element value is R. The value obtained on the left side of Equation (9) is used as the estimated value of the posture at time t.
上記のように、本実施形態では、ジャイロセンサ15から得た傾きと垂直エッジから得られた傾きの双方を併用している。ジャイロセンサ15では得られるデータに時間的な誤差の蓄積があるが、垂直エッジから得られた傾きはアクティブセンサ12のワールド座標系に対する絶対的な傾きであるため、それを用いてジャイロセンサ15のドリフト誤差を修正している。
As described above, in this embodiment, both the inclination obtained from the
次に、2次元画像の生成(図5、S4)について詳しく述べる。アクティブセンサ12の姿勢がわかれば、その姿勢パラメータを用いてアクティブセンサの全方向画像から回転のない時の画像を生成することができる。ここでは、アクティブセンサ12の全天周球面展開画像の生成方法について述べる。
Next, generation of a two-dimensional image (FIG. 5, S4) will be described in detail. If the attitude of the
上述したように得られたアクティブセンサ12の姿勢パラメータをX,Y,Z軸のそれぞれに対応した回転角度α,β,γで表すことができる。姿勢が変化したときの全天周球面展開画像を3軸角度座標系(A,B,Г)で表せば、アクティブセンサ12の姿勢変化のないときの全天周球面展開画像は(A−α,B−β,Г−γ)として得られる。この関係から、X,Y,Z軸の回転量は、それぞれの軸を縦軸とした円筒展開画像においては、画像の横シフト量となる。そこで、この特徴を利用して、次のような手順でアクティブセンサ12の各カメラで得られた全方位画像から、アクティブセンサ12の姿勢変化を補正した回転不変な2次元円筒展開画像を高速に生成する。
The attitude parameters of the
まず、アクティブセンサ12のセンサ座標系のX軸を縦軸とした円筒展開画像とアクティブセンサ12の各カメラの画像の対応関係を計算する。アクティブセンサ12の各カメラ座標系とセンサ座標系の関係が既知であるため、それを用いて平面射影モデルに基づき、アクティブセンサの各カメラの画像とX軸を縦軸とした円筒展開画像との対応関係は簡単に求めることができる、その対応関係をcx(θx,φx),ix(θx,φx),jx(θx,φx)で表す。(θx,φx)はX軸を縦軸とした円筒展開画像の座標である。cxはカメラ番号で、ixとjxはカメラcxの画像座標である。
First, the correspondence relationship between the cylindrical developed image with the X axis of the sensor coordinate system of the
次に、アクティブセンサ12のセンサ座標系のY軸を縦軸とした円筒展開画像(θy,φy)とX軸を縦軸とした円筒展開画像(θx,φx)との対応関係を計算し、xθ(θy,φy),xφ(θy,φy)で表す。同様に、Z軸を縦軸とした円筒展開画像(θz,φz)とY軸を縦軸とした円筒展開画像(θy,φy)との対応関係をyθ(θz,φz),yφ(θz,φz)で表す。アクティブセンサ12の姿勢パラメータ(α,β,γ)を用いて姿勢変化のないときの縦方向の円筒展開画像とアクティブセンサ12の各カメラ画像の対応関係cr(θ,φ),ir(θ,φ),jr(θ,φ)は上述の対応関係から多重インデックスで求めることができる。次の式はカメラ番号の対応関係cr(θ,φ)の計算式を示す。
Next, the correspondence relationship between the cylindrical developed image (θ y , φ y ) with the Y axis in the sensor coordinate system of the
上記詳しく述べた各処理を経て、全方向画像からワールド座標系に対応した回転不変な2次元画像を生成することができる。「ワールド座標系に対応した」とは、センサ座標系のZ軸とワールド座標系のZw軸とが平行であり、常にワールド座標系のZ軸に対して傾くことなく一定な状態であることを示す。つまり、アクティブセンサ12のセンサ座標系は、ワールド座標系から見ればアクティブセンサ12の姿勢によってワールド座標系内で種々変化するが、上記の処理を経れば、姿勢が変化したアクティブセンサ12から得られた各画像は常に各画像におけるセンサ座標系の統一がとられた、回転不変な2次元画像として生成することができる。図7は、その画像を円筒画像として復元した結果を示す図であり、(a)は補正なしの画像を示し、(b)は上記処理を経て得られた姿勢パラメータを用いて姿勢補正を行った後の画像を示す。図7(a)に示すように補正なしの円筒画像Paでは画像がsin曲線を描くように歪んでいるが、図7(b)に示すように補正後の円筒画像Pbでは、画像が歪むことなく周辺環境を水平状態で見たような画像が生成されている。このように、得られた姿勢パラメータによって正確な姿勢推定がなされ、精度良く補正されていることがわかる。すなわち、本実施形態によれば、アクティブセンサ12がその環境内で移動し姿勢が変化した場合であっても、常にワールド座標系のZw軸に対して傾きのない2次元画像を生成することができる。また、ジャイロセンサ15からの傾きをまず取得しそのデータを利用しているため、全方向画像から垂直エッジを検出する手法のみによって姿勢を推定するより格段に計算量が少なくてすみ、回転不変2次元画像の生成を実時間で高速に行うことができる。
Through each process described in detail above, a rotation-invariant two-dimensional image corresponding to the world coordinate system can be generated from the omnidirectional image. “It corresponds to the world coordinate system” means that the Z axis of the sensor coordinate system and the Zw axis of the world coordinate system are parallel and always in a constant state without being inclined with respect to the Z axis of the world coordinate system. Show. In other words, the sensor coordinate system of the
上記実施形態によれば、以下のような効果を得ることができる。
(1)姿勢情報を取得するためにジャイロセンサ15を用いることにより、少ない計算量で容易にアクティブセンサ12の姿勢を推定することができる。また、本実施形態ではジャイロセンサ15から得た傾きと垂直エッジから得られた傾きの双方を併用している。このため、ジャイロセンサ15のみでは、得られるデータに時間的な誤差の蓄積があるため正確な推定が難しいが、垂直エッジから得られた傾きはアクティブセンサ12のワールド座標系に対する絶対的な傾きであるため、それを用いてジャイロセンサ15のドリフト誤差を修正することができる。
According to the above embodiment, the following effects can be obtained.
(1) By using the
(2)さらに、得られた姿勢パラメータを用いて、撮影した全方向画像からワールド座標系に対応した2次元画像を生成することができる。つまり、アクティブセンサ12がその環境内で移動し姿勢が変化した場合であっても、常に環境を同じ姿勢で見た場合の画像を安定して得ることができる。例えば、危険地帯や狭い洞窟等、人物が入れない環境の撮影の際に、アクティブセンサ12を用いてその撮影された画像を補整し回転不変の2次元画像としてモニタ等に映し出せば、歪みがない画像として生成されるため大変見やすく状況把握に有効である。
(2) Furthermore, a two-dimensional image corresponding to the world coordinate system can be generated from the captured omnidirectional image using the obtained posture parameter. That is, even when the
(3)さらに、全方向画像から垂直エッジを検出する手法のみであっても姿勢を推定することはできるが、画像上での処理となるため比較的処理速度が遅い。その点、本実施形態では、垂直エッジを検出する手法のみによって姿勢を推定する場合と比較して計算量が少なくてすむため、回転不変2次元画像の生成を効率的に実時間で処理することができる。 (3) Furthermore, although the posture can be estimated only by the method of detecting the vertical edge from the omnidirectional image, the processing speed is relatively slow because the processing is performed on the image. In this respect, in this embodiment, since the amount of calculation is less than that in the case of estimating the posture only by the method of detecting the vertical edge, the generation of the rotation invariant two-dimensional image is efficiently processed in real time. Can do.
(4)また、本実施形態のアクティブセンサ12の撮影領域は、360度×180度(全天周)の全方向をカバーしており死角がないため、アクティブセンサ12自体がどのような姿勢であっても全ての視野を常にカバーすることができる。環境全体を監視したり、状況を把握したりする場合に十分な情報を得ることができる。
(4) In addition, since the imaging region of the
(5)本実施形態では、ジャイロセンサ15から傾きを得るため、画像上に垂直エッジが存在しない場合でも、アクティブセンサ12の姿勢を推定し回転不変の2次元画像を生成することができる。もちろん、ジャイロセンサ15の移動が進みドリフト誤差が累積された場合には高い精度は期待できないが、ある程度の姿勢補正を可能とすることができる。
(5) In the present embodiment, since the inclination is obtained from the
(第2の実施形態)
次に、本発明の第2の実施形態を図8に基づき説明する。なお、第2の実施形態は、第1の実施形態における画像処理装置11の処理を一部変更し、3次元距離情報取得装置として機能するものであり、その他の点では第1の実施形態と同一の構成となっている。従って、以下ではその処理における変更点についてのみ説明する。画像処理装置11の構成は第1の実施形態と共通するため説明は省略するとともに、同一構成部材には同一の符号が付されることとして説明する。なお、本実施形態のコンピュータ13は、第1の実施形態と同様の推定手段に加え、位置情報と画像情報を同期させる同期手段、3次元距離情報取得手段、変換手段、3次元環境モデル生成手段に相当するものである。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to FIG. In the second embodiment, the processing of the
図8は、画像処理装置(3次元距離情報取得装置)11の一連の処理を示すフローチャートである。まず、ジャイロセンサ15及び加速度センサ14から位置姿勢情報を取得する(S11)。詳しくは、後に述べる。次に、同期手段によって位置姿勢情報と同期された画像から3次元距離情報を取得する(S12)。本実施形態では、複数のステレオユニット18を構成する複数のカメラにより、正20面体の各面が向く方向の3次元画像を撮影することで3次元距離情報を取得する。次に、センサ座標系からワールド座標系への変換パラメータを求める(S13)。次に、変換パラメータを利用して、アクティブセンサ12で得られた全方向画像からエッジとその方向に基づいて垂直エッジを検出し、アクティブセンサ12の姿勢を推定する(S14)。そして、3次元距離情報を位置姿勢情報に基づきワールド座標系を基準とした3次元距離情報に変換する(S15)。ここで、位置姿勢情報とは、加速度センサ14とジャイロセンサ15から直接得られたデータから、垂直エッジによる推定を経て得られた位置姿勢情報のことを指し、第1の実施形態における姿勢パラメータに相当する。次に、変換して得られた3次元距離情報に基づいて3次元環境モデルを生成する(S16)。
FIG. 8 is a flowchart showing a series of processes of the image processing apparatus (three-dimensional distance information acquisition apparatus) 11. First, position and orientation information is acquired from the
次に、各処理について第1の実施形態との相違点に着目して説明する。まず、位置姿勢情報の取得(S11)について述べる。本実施形態では、姿勢情報に加え、加速度センサ14によって位置情報を取得する。加速度センサ14はアクティブセンサ12の加速度ベクトルの和を測定する。この加速度ベクトルは、ジャイロセンサ15から得られた変換パラメータを使用してセンサ座標系からワールド座標系に変換することができる。位置情報は、測定された加速度から重力の影響を減算し、既知の初期位置を起点として値を2重積分することにより求められる。
Next, each processing will be described by paying attention to differences from the first embodiment. First, acquisition of position and orientation information (S11) will be described. In the present embodiment, position information is acquired by the
次に、位置姿勢情報に基づきセンサ座標系からワールド座標系を基準とした3次元距離情報への変換(S15)及び3次元環境モデルの生成(S16)について述べる。アクティブセンサ12は移動しながら移動経路上の各地点で3次元距離情報を取得しており、各地点でのアクティブセンサ12の位置姿勢情報を用いて、センサ座標系からワールド座標系に変換する(S15)。ここでは、例えば部屋の中心や、移動のスタート地点を原点とすることができる。スタート地点を原点としたワールド座標系を共通座標系とし、各時刻tで取得した各3次元点を
Next, conversion from the sensor coordinate system to three-dimensional distance information based on the world coordinate system (S15) and generation of a three-dimensional environment model (S16) based on the position and orientation information will be described. The
この処理によれば、各地点で得られた3次元距離情報がスタート地点を原点(基準点)としたワールド座標系で統一されることになる。そして、ワールド座標系を基準としたデータに変換された、それらの各地点における3次元距離情報を統合することによって、通過した経路全体の3次元環境モデルを生成することができる(S16)。 According to this processing, the three-dimensional distance information obtained at each point is unified in the world coordinate system with the start point as the origin (reference point). Then, by integrating the three-dimensional distance information at each point converted to data based on the world coordinate system, a three-dimensional environment model of the entire route that has passed can be generated (S16).
上記実施形態によれば、第1の実施形態における効果(1)、(4)に加え、さらに以下のような効果を得ることができる。
(6)上記実施形態では、姿勢情報に加え、ジャイロセンサ15と加速度センサ14とを用いてアクティブセンサ12の位置情報を算出するため、アクティブセンサ12が移動した際に、その移動後の位置毎の3次元距離情報を得ることができる。
According to the said embodiment, in addition to the effect (1) and (4) in 1st Embodiment, the following effects can be acquired further.
(6) In the above embodiment, since the position information of the
(7)さらに、全方向画像から垂直エッジを検出する手法のみによって姿勢を推定する場合と比較して計算量が少なくてすむため、また上記効果(6)により、アクティブセンサ12を移動させながら実時間で通過経路の3次元環境モデルを構築することができる。
(7) Further, since the calculation amount is smaller than that in the case of estimating the posture only by the method of detecting the vertical edge from the omnidirectional image, and the above effect (6) allows the
(8)さらに、3次元環境モデルを構築すれば、例えば遠隔地の会議に参加する場合には利用者により臨場感を持たせることができる。また、人が入り込めない危険地域等でロボットによる遠隔操作を行う際に、利用者はリアリティ性の高い環境の中で遠隔操作を行うことができる。 (8) Furthermore, if a three-dimensional environment model is constructed, for example, when participating in a remote conference, the user can have a sense of realism. Further, when performing a remote operation by a robot in a dangerous area where a person cannot enter, the user can perform the remote operation in a highly realistic environment.
なお、上記各実施形態は以下のような別の形態(別例)に変更してもよい。
・第1の実施形態では、加速度センサ14はなくてもよい。姿勢情報取得手段としてのジャイロセンサ15のみで、2次元画像を生成することができる。
In addition, you may change each said embodiment into the following other forms (another example).
In the first embodiment, the
・第2の実施形態では、加速度センサ14はなくてもよい。この場合も、ある地点での姿勢情報を得ることができるためその地点での3次元環境モデルを作成することができる。この場合、アクティブセンサ12を移動させつつワールド座標系における原点からのモデルを構築するのではなく、停止した状態でのアクティブセンサ12の一地点における3次元環境モデルを作成することができる。
In the second embodiment, the
・上記各実施形態では、加速度センサ14及びジャイロセンサ15を、アクティブセンサ12の内部略中心部に設けたが、この位置に何ら限定されるものではない。その他、例えばアクティブセンサ12のスタンド19(図3参照)や車体100(図2参照)に取り付けても同様に実施することができる。
In each of the above embodiments, the
・上記各実施形態のアクティブセンサ12は、正20面体の立体の各面上にステレオユニット18が複数配置される構成としたが、その他正4面体、正6面体、正8面体、正12面体等で構成しても良い。これによれば、3次元空間の分割が均等となり、カメラを支持する複数の支持部材やそれに支持される各カメラの特性を揃えることができる。
In the above embodiments, the
・上記第1の実施形態と第2の実施形態を組み合わせた画像処理装置として実施することができる。
・上記各実施形態では、アクティブセンサ12の位置情報を取得する位置情報取得手段として加速度センサ14を用い、姿勢情報を取得する姿勢情報取得手段としてジャイロセンサ15を用いたが、これに代えて、磁気式、超音波式、赤外線式等の各種のセンサとすることができる。要は、位置情報と姿勢情報がそれぞれ検出可能なセンサであれば、適宜変更可能である。
-It can implement as an image processing apparatus which combined the said 1st Embodiment and 2nd Embodiment.
In each of the above embodiments, the
11…画像処理装置(画像生成装置、3次元情報取得装置)、12…アクティブセンサ(画像撮影装置)、13…コンピュータ(同期手段、推定手段、2次元画像生成手段、3次元距離情報取得手段、3次元環境モデル生成手段)、14…加速度センサ(位置情報取得手段)、15…ジャイロセンサ(姿勢情報取得手段)、18…ステレオユニット。
DESCRIPTION OF
Claims (8)
該画像撮影装置に設けられ、該画像撮影装置の姿勢情報を取得する姿勢情報取得手段と、
前記画像撮影装置により撮影された画像情報と前記姿勢情報取得手段により取得された姿勢情報とを時間的に同期させる同期手段と、
前記同期手段により姿勢情報と同期された画像情報を、前記姿勢情報に基づいて前記画像撮影装置が位置する環境の3次元ワールド座標系の所定の軸に対して傾きのない2次元画像として生成する2次元画像生成手段と
を有することを特徴とする画像生成装置。 An image capturing device for acquiring images in all directions;
Posture information acquisition means provided in the image photographing device for obtaining posture information of the image photographing device;
Synchronization means for temporally synchronizing the image information photographed by the image photographing device and the posture information obtained by the posture information obtaining means;
Image information synchronized with posture information by the synchronization means is generated as a two-dimensional image having no inclination with respect to a predetermined axis of a three-dimensional world coordinate system of the environment where the image capturing device is located based on the posture information. An image generation apparatus comprising: a two-dimensional image generation unit.
該画像撮影装置に設けられ、該画像撮影装置の姿勢情報を取得する姿勢情報取得手段と、
前記画像撮影装置により撮影された画像情報と前記姿勢情報取得手段により取得された姿勢情報とを時間的に同期させる同期手段と、
前記同期手段により姿勢情報と同期された画像情報から3次元距離情報を取得する3次元距離情報取得手段と、
該3次元距離情報を、前記姿勢情報に基づいて前記画像撮影装置が位置する環境の3次元ワールド座標系を基準とした3次元距離情報に変換する変換手段と
を有することを特徴とする3次元距離情報取得装置。 An image capturing device that acquires stereo images in all directions;
Posture information acquisition means provided in the image photographing device for obtaining posture information of the image photographing device;
Synchronization means for temporally synchronizing the image information photographed by the image photographing device and the posture information obtained by the posture information obtaining means;
3D distance information acquisition means for acquiring 3D distance information from image information synchronized with posture information by the synchronization means;
Conversion means for converting the three-dimensional distance information into three-dimensional distance information based on the three-dimensional world coordinate system of the environment in which the image capturing device is located based on the posture information. Distance information acquisition device.
をさらに有することを特徴とする請求項3又は請求項4に記載の3次元距離情報取得装置。 The three-dimensional distance information acquisition device further includes three-dimensional environment model generation means for generating a three-dimensional environment model from the three-dimensional distance information converted by the conversion means. The three-dimensional distance information acquisition device described.
前記同期手段は、前記画像情報と前記位置情報とを同期させることを特徴とする請求項3乃至請求項5のいずれか1項に記載の3次元距離情報取得装置。 The three-dimensional distance information acquisition device includes a position information acquisition unit that is provided in the image shooting device and acquires position information of the image shooting device;
The three-dimensional distance information acquisition apparatus according to claim 3, wherein the synchronization unit synchronizes the image information and the position information.
をさらに有し、前記姿勢情報に基づいて該推定手段により前記画像撮影装置の姿勢を推定することを特徴とする請求項3乃至請求項7のいずれか1項に記載の3次元距離情報取得装置。 The three-dimensional distance information acquisition device includes an estimation unit that estimates an inclination of the image photographing device with respect to a world coordinate system where the image photographing device is located based on an edge of the image obtained by the image photographing device and its direction. 8. The three-dimensional distance information acquisition device according to claim 3, further comprising: estimating the posture of the image capturing device by the estimating unit based on the posture information. 9.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004057980A JP2005252482A (en) | 2004-03-02 | 2004-03-02 | Image generating apparatus and three-dimensional distance information acquisition apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004057980A JP2005252482A (en) | 2004-03-02 | 2004-03-02 | Image generating apparatus and three-dimensional distance information acquisition apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005252482A true JP2005252482A (en) | 2005-09-15 |
Family
ID=35032579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004057980A Pending JP2005252482A (en) | 2004-03-02 | 2004-03-02 | Image generating apparatus and three-dimensional distance information acquisition apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005252482A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013007722A (en) * | 2011-06-27 | 2013-01-10 | Toshiba Corp | Three-dimensional measuring device and method for the same |
JP2014092922A (en) * | 2012-11-02 | 2014-05-19 | Tottori Univ | Detector, detection method, and detection program |
JP2016070884A (en) * | 2014-10-01 | 2016-05-09 | 日本電信電話株式会社 | Video data processing method, video data processing device and video data processing program |
JP2017072560A (en) * | 2015-10-09 | 2017-04-13 | ソニー株式会社 | Information processing apparatus, position and/or attitude estimation method, and computer program |
CN108008387A (en) * | 2017-11-23 | 2018-05-08 | 内蒙古工业大学 | Three-D imaging method is regarded under a kind of airborne array antenna |
JP2020036350A (en) * | 2019-10-31 | 2020-03-05 | 株式会社リコー | Image display system, image display device, image display method, and program |
JP2020043575A (en) * | 2019-10-31 | 2020-03-19 | 株式会社リコー | Imaging apparatus, imaging method and program |
JP7445027B2 (en) | 2019-02-07 | 2024-03-06 | マクセル株式会社 | Composite imaging and ranging device |
-
2004
- 2004-03-02 JP JP2004057980A patent/JP2005252482A/en active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013007722A (en) * | 2011-06-27 | 2013-01-10 | Toshiba Corp | Three-dimensional measuring device and method for the same |
JP2014092922A (en) * | 2012-11-02 | 2014-05-19 | Tottori Univ | Detector, detection method, and detection program |
JP2016070884A (en) * | 2014-10-01 | 2016-05-09 | 日本電信電話株式会社 | Video data processing method, video data processing device and video data processing program |
CN108139204A (en) * | 2015-10-09 | 2018-06-08 | 索尼株式会社 | The method of estimation and computer program of information processing unit, position and/or posture |
WO2017061388A1 (en) * | 2015-10-09 | 2017-04-13 | ソニー株式会社 | Information processing device, position and/or orientation estimating method, and computer program |
JP2017072560A (en) * | 2015-10-09 | 2017-04-13 | ソニー株式会社 | Information processing apparatus, position and/or attitude estimation method, and computer program |
US10507381B2 (en) | 2015-10-09 | 2019-12-17 | Sony Corporation | Information processing device, position and/or attitude estimiating method, and computer program |
CN108139204B (en) * | 2015-10-09 | 2020-11-03 | 索尼株式会社 | Information processing apparatus, method for estimating position and/or orientation, and recording medium |
CN108008387A (en) * | 2017-11-23 | 2018-05-08 | 内蒙古工业大学 | Three-D imaging method is regarded under a kind of airborne array antenna |
CN108008387B (en) * | 2017-11-23 | 2021-08-13 | 内蒙古工业大学 | Downward-looking three-dimensional imaging method for airborne array antenna |
JP7445027B2 (en) | 2019-02-07 | 2024-03-06 | マクセル株式会社 | Composite imaging and ranging device |
JP2020036350A (en) * | 2019-10-31 | 2020-03-05 | 株式会社リコー | Image display system, image display device, image display method, and program |
JP2020043575A (en) * | 2019-10-31 | 2020-03-19 | 株式会社リコー | Imaging apparatus, imaging method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6483075B2 (en) | Method of 3D panoramic mosaicing of scenes | |
US20190012804A1 (en) | Methods and apparatuses for panoramic image processing | |
Burschka et al. | V-GPS (SLAM): Vision-based inertial system for mobile robots | |
JP5027747B2 (en) | POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM | |
Clipp et al. | Robust 6dof motion estimation for non-overlapping, multi-camera systems | |
KR20180067908A (en) | Apparatus for restoring 3d-model and method for using the same | |
JP2014529727A (en) | Automatic scene calibration | |
JP5070435B1 (en) | Three-dimensional relative coordinate measuring apparatus and method | |
JP6291519B2 (en) | Method of assigning actual dimensions to 3D point cloud data and position measurement of pipes etc. using it | |
KR101342393B1 (en) | Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera | |
JP2006059202A (en) | Imaging device and image correction method | |
Munkelt et al. | Handheld 3D scanning with automatic multi-view registration based on optical and inertial pose estimation | |
JP2006234703A (en) | Image processing device, three-dimensional measuring device, and program for image processing device | |
Núnez et al. | Data Fusion Calibration for a 3D Laser Range Finder and a Camera using Inertial Data. | |
JP2018155664A (en) | Imaging system, imaging control method, image processing device, and image processing program | |
JP2005252482A (en) | Image generating apparatus and three-dimensional distance information acquisition apparatus | |
JP4227037B2 (en) | Imaging system and calibration method | |
JP2007025863A (en) | Photographing system, photographing method, and image processing program | |
JP2005275789A (en) | Three-dimensional structure extraction method | |
Yagi et al. | Environmental map generation and egomotion estimation in a dynamic environment for an omnidirectional image sensor | |
JP2019032660A (en) | Imaging system and imaging method | |
Castanheiro et al. | Modeling Hyperhemispherical Points and Calibrating a Dual-Fish-Eye System for Close-Range Applications | |
Aliakbarpour et al. | Geometric exploration of virtual planes in a fusion-based 3D data registration framework | |
JP5409451B2 (en) | 3D change detector | |
JP2005063012A (en) | Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded |