JP2005252482A - Image generating apparatus and three-dimensional distance information acquisition apparatus - Google Patents

Image generating apparatus and three-dimensional distance information acquisition apparatus Download PDF

Info

Publication number
JP2005252482A
JP2005252482A JP2004057980A JP2004057980A JP2005252482A JP 2005252482 A JP2005252482 A JP 2005252482A JP 2004057980 A JP2004057980 A JP 2004057980A JP 2004057980 A JP2004057980 A JP 2004057980A JP 2005252482 A JP2005252482 A JP 2005252482A
Authority
JP
Japan
Prior art keywords
image
dimensional
information acquisition
posture
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004057980A
Other languages
Japanese (ja)
Inventor
Saika O
彩華 王
Katsutaka Sato
雄隆 佐藤
Hidekazu Hirayu
秀和 平湯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Softopia Japan Foundation
Original Assignee
Softopia Japan Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Softopia Japan Foundation filed Critical Softopia Japan Foundation
Priority to JP2004057980A priority Critical patent/JP2005252482A/en
Publication of JP2005252482A publication Critical patent/JP2005252482A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image generating apparatus capable of detecting the attitude of a photographing apparatus without being affected by various operating environments and processing generation of an image in a short processing time in real time. <P>SOLUTION: An acceleration sensor and a gyro sensor as a position attitude information acquisition means for acquiring position attitude information are provided at the middle of the inside of an active sensor for acquiring an omnidirectional stereoscopic image. The image generating apparatus is provided with a conversion means for acquiring three-dimensional distance information from image information temporally synchronously with the obtained attitude information and converting furthermore the three-dimensional distance information into world coordinate system corresponding three-dimensional distance information wherein the active sensor is located on the basis of the position attitude information. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像生成装置及び3次元距離情報取得装置に関するものである。   The present invention relates to an image generation device and a three-dimensional distance information acquisition device.

バーチャルリアリティやロボットナビゲーション、コンピュータビジョン等の分野において、画像処理を用いた様々な研究が盛んに行われている。例えば、遠隔地で行われる会議に仮想的に参加するときには、実際の会議場の画像を利用者の周囲に再現できれば利用者に臨場感を与えることができる。また、人が入り込めない危険地域や特殊地域でロボットによる遠隔操作を行う際に、そのロボットが取得した画像からその地域の3次元環境モデルを再現できれば、利用者は非常にリアリティのある環境の中で遠隔操作を行うことができる。こういった3次元環境モデルの生成においては、カメラ等の撮影装置によって広範囲の環境情報を取得することが重要である。   In the fields of virtual reality, robot navigation, and computer vision, various researches using image processing have been actively conducted. For example, when virtually participating in a conference held at a remote place, it is possible to give the user a sense of realism if the image of the actual conference hall can be reproduced around the user. Also, when performing remote control with a robot in a dangerous area or special area where people cannot enter, if the 3D environment model of the area can be reproduced from the image acquired by the robot, the user will have a very realistic environment. Remote operation can be performed inside. In the generation of such a three-dimensional environment model, it is important to acquire a wide range of environment information by a photographing device such as a camera.

例えば、特許文献1には、このような3次元環境モデルの生成の画像入力側装置として活用できる、3次元距離情報取得装置が開示されている。この装置は、正20面体の面上にマウントされた20個のステレオユニットから構成されている。各ステレオユニットは、T字に配置された3台のCCDカメラから構成され、上下と左右の2種類のステレオ画像が得られるようになっている。ここで、装置自体の姿勢(傾き)が撮影時毎に異なる場合、その撮影時の装置自体の姿勢によって各全方向撮影画像毎に装置座標系が異なっており統一が取れていない。そこで、各全方向画像の装置座標系を、装置が位置するワールド座標系とそれぞれ一致させる必要がある。   For example, Patent Document 1 discloses a three-dimensional distance information acquisition device that can be used as an image input-side device for generating such a three-dimensional environment model. This device is composed of 20 stereo units mounted on a regular icosahedron. Each stereo unit is composed of three CCD cameras arranged in a T-shape, so that two types of stereo images, upper and lower and left and right, can be obtained. Here, when the posture (inclination) of the device itself is different for each photographing, the device coordinate system is different for each omnidirectional photographed image depending on the posture of the device itself at the time of photographing, and the unit coordinates are not uniform. Therefore, it is necessary to match the device coordinate system of each omnidirectional image with the world coordinate system where the device is located.

非特許文献1では、こういった装置のワールド座標系に対する傾きを、取得した画像内の垂直エッジを検出することにより推定している。垂直エッジとは、室内環境や市街地等のシーンに多く存在する鉛直方向の直線のことである。通常、室内等の環境の中には垂直エッジが多く含まれており、それらの垂直エッジの方向はワールド座標系の縦軸Zwの方向と同じである。このため、装置座標系における垂直エッジ方向の分布を調べ、最も大きい垂直エッジ方向の分布を検出すれば、装置座標系におけるワールド座標系の縦軸Zwの方向が推定できる。装置座標系におけるワールド座標系の縦軸Zwが分かれば、ワールド座標系における装置座標系のZ軸の方向も分かる。以上の手法により、装置のワールド座標系に対する傾きを推定し、その推定された値に基づいて補正し、各全方向撮影画像の装置座標系をワールド座標系と一致させ、高精度な3次元距離情報を取得することができるとされていた。
特開2001−285692(請求項1、図1) 王、棚橋、佐藤、平湯、丹羽、山本、” 全方位画像のエッジヒストグラムを用いたセンサの位置姿勢推定”、信学論D−II,Vol.J86−D−II,No.10,pp.1400−1410,2003
In Non-Patent Document 1, the inclination of such a device with respect to the world coordinate system is estimated by detecting a vertical edge in the acquired image. The vertical edge is a straight line that exists in a lot of scenes such as indoor environments and urban areas. Usually, an environment such as a room includes many vertical edges, and the direction of these vertical edges is the same as the direction of the vertical axis Zw of the world coordinate system. Therefore, if the distribution in the vertical edge direction in the apparatus coordinate system is examined and the distribution in the largest vertical edge direction is detected, the direction of the vertical axis Zw of the world coordinate system in the apparatus coordinate system can be estimated. If the vertical axis Zw of the world coordinate system in the device coordinate system is known, the direction of the Z axis of the device coordinate system in the world coordinate system can also be known. By the above method, the inclination of the device with respect to the world coordinate system is estimated, corrected based on the estimated value, the device coordinate system of each omnidirectional image is matched with the world coordinate system, and a highly accurate three-dimensional distance is obtained. It was supposed to be able to get information.
JP 2001-285692 A (Claim 1, FIG. 1) Wang, Tanahashi, Sato, Hirayu, Niwa, Yamamoto, “Estimation of sensor position and orientation using edge histograms of omnidirectional images”, IEICE D-II, Vol. J86-D-II, no. 10, pp. 1400-1410, 2003

しかしながら、上記垂直エッジによる推定処理は、計算における処理時間が多くかかるため、実時間での補正後の2次元画像の生成や3次元環境モデルの生成が困難であるという問題があった。   However, since the estimation process using the vertical edge takes a long processing time in calculation, there is a problem that it is difficult to generate a corrected two-dimensional image or a three-dimensional environment model in real time.

また、室内環境等では通常何らかの垂直エッジが存在するものではあるが、建物が倒壊した災害現場や、人物が入り込めない狭い洞窟等では、十分な垂直エッジが存在しないため、上記の方法で傾きを推定することは困難であった。このように、特殊な場所で使用する場合や、装置の使用環境が定まっていない場合等には、有効に用いることができなかった。   Also, in the indoor environment, there is usually some kind of vertical edge. It was difficult to estimate. As described above, when the device is used in a special place or when the use environment of the apparatus is not fixed, it cannot be used effectively.

そこで、本発明は、種々の使用環境に影響されることなく装置の姿勢を検出し、処理時間が短く実時間で処理することができる画像生成装置及び3次元距離情報取得装置を提供することを目的とする。   Therefore, the present invention provides an image generation apparatus and a three-dimensional distance information acquisition apparatus that can detect the posture of the apparatus without being affected by various usage environments and can perform processing in a short time and in real time. Objective.

上記目的を達成するため、請求項1に係る画像生成装置は、全方向の画像を取得する画像撮影装置と、該画像撮影装置に設けられ、該画像撮影装置の姿勢情報を取得する姿勢情報取得手段と、前記画像撮影装置により撮影された画像情報と前記姿勢情報取得手段により取得された姿勢情報とを時間的に同期させる同期手段と、前記同期手段により姿勢情報と同期された画像情報を、前記姿勢情報に基づいて前記画像撮影装置が位置する環境の3次元ワールド座標系の所定の軸に対して傾きのない2次元画像として生成する2次元画像生成手段とを有することを要旨とする。   In order to achieve the above object, an image generation apparatus according to claim 1 is provided with an image photographing apparatus that obtains an image in all directions, and posture information acquisition that is provided in the image photographing apparatus and obtains posture information of the image photographing apparatus. Means, synchronization means for temporally synchronizing the image information photographed by the image photographing device and the posture information obtained by the posture information obtaining means, and image information synchronized with the posture information by the synchronizing means, The gist of the present invention is to have a two-dimensional image generation means for generating a two-dimensional image having no inclination with respect to a predetermined axis of a three-dimensional world coordinate system of the environment where the image capturing device is located based on the posture information.

請求項2に係る画像生成装置は、請求項1に記載の画像生成装置において、所定の前記軸は、鉛直方向の軸であることを要旨とする。
請求項3に係る3次元距離情報取得装置は、全方向のステレオ画像を取得する画像撮影装置と、該画像撮影装置に設けられ、該画像撮影装置の姿勢情報を取得する姿勢情報取得手段と、前記画像撮影装置により撮影された画像情報と前記姿勢情報取得手段により取得された姿勢情報とを時間的に同期させる同期手段と、前記同期手段により姿勢情報と同期された画像情報から3次元距離情報を取得する3次元距離情報取得手段と、該3次元距離情報を、前記姿勢情報に基づいて前記画像撮影装置が位置する環境の3次元ワールド座標系を基準とした3次元距離情報に変換する変換手段とを有することを要旨とする。
A gist of an image generation apparatus according to a second aspect is the image generation apparatus according to the first aspect, wherein the predetermined axis is a vertical axis.
A three-dimensional distance information acquisition device according to claim 3 is an image photographing device that obtains an omnidirectional stereo image, a posture information obtaining unit that is provided in the image photographing device and obtains posture information of the image photographing device, Synchronizing means for temporally synchronizing the image information captured by the image capturing apparatus and the orientation information acquired by the orientation information acquiring means, and the three-dimensional distance information from the image information synchronized with the orientation information by the synchronizing means. A three-dimensional distance information acquisition means for acquiring the three-dimensional distance information, and converting the three-dimensional distance information into three-dimensional distance information based on the three-dimensional world coordinate system of the environment where the image capturing device is located based on the posture information Having a means.

請求項4に係る3次元距離情報取得装置は、請求項3に記載の3次元距離情報取得装置において、前記姿勢情報取得手段は、ジャイロセンサを有することを要旨とする。
請求項5に係る3次元距離情報取得装置は、請求項3又は請求項4に記載の3次元距離情報取得装置において、前記3次元距離情報取得装置は、前記変換手段により変換された3次元距離情報から3次元環境モデルを生成する3次元環境モデル生成手段をさらに有することを要旨とする。
A three-dimensional distance information acquisition device according to a fourth aspect is the three-dimensional distance information acquisition device according to the third aspect, wherein the posture information acquisition means includes a gyro sensor.
The three-dimensional distance information acquisition device according to claim 5 is the three-dimensional distance information acquisition device according to claim 3 or 4, wherein the three-dimensional distance information acquisition device is a three-dimensional distance converted by the conversion means. The gist of the invention is to further include a three-dimensional environment model generating means for generating a three-dimensional environment model from the information.

請求項6に係る3次元距離情報取得装置は、請求項3乃至請求項5のいずれか1項に記載の3次元距離情報取得装置において、前記3次元距離情報取得装置は、前記画像撮影装置に設けられ該画像撮影装置の位置情報を取得する位置情報取得手段を有し、前記同期手段は、前記画像情報と前記位置情報とを同期させることを要旨とする。   A three-dimensional distance information acquisition device according to a sixth aspect is the three-dimensional distance information acquisition device according to any one of the third to fifth aspects, wherein the three-dimensional distance information acquisition device is connected to the image photographing device. It has a position information acquisition unit that is provided and acquires the position information of the image capturing apparatus, and the synchronization unit synchronizes the image information and the position information.

請求項7に係る3次元距離情報取得装置は、請求項6に記載の3次元距離情報取得装置において、前記位置情報取得手段は、加速度センサを有することを要旨とする。
請求項8に係る3次元距離情報取得装置は、請求項3乃至請求項7のいずれか1項に記載の3次元距離情報取得装置において、前記3次元距離情報取得装置は、前記画像撮影装置により得られた画像のエッジとその方向とに基づいて前記画像撮影装置が位置するワールド座標系に対する該画像撮影装置の傾きを推定する推定手段をさらに有し、前記姿勢情報に基づいて該推定手段により前記画像撮影装置の姿勢を推定することを要旨とする。
The three-dimensional distance information acquisition device according to claim 7 is the three-dimensional distance information acquisition device according to claim 6, wherein the position information acquisition means includes an acceleration sensor.
The three-dimensional distance information acquisition device according to claim 8 is the three-dimensional distance information acquisition device according to any one of claims 3 to 7, wherein the three-dimensional distance information acquisition device is the image photographing device. Further comprising estimation means for estimating an inclination of the image photographing device with respect to a world coordinate system where the image photographing device is located based on an edge of the obtained image and its direction, and based on the posture information, The gist is to estimate the posture of the image capturing apparatus.

本発明によれば、種々の使用環境に影響されることなく装置の姿勢を検出し、処理時間が短く実時間で処理することができる。   According to the present invention, it is possible to detect the attitude of the apparatus without being affected by various use environments, and to perform processing in real time with a short processing time.

(第1の実施形態)
以下、本発明を具体化した第1の実施形態を図1〜図7にしたがって説明する。
図1は、本実施形態の画像処理装置のシステム構成を示す概略図である。図1に示すように、本実施形態の画像処理装置(画像生成装置)11は、アクティブセンサ(全方向ステレオ撮影装置、画像撮影装置)12とコンピュータ13にて構成されている。なお、本実施形態の説明において、単にセンサというときは、アクティブセンサ12のことを指している。アクティブセンサ12は、複数、本実施形態では20ユニットの3眼ステレオユニット(以下、単に「ステレオユニット」という)18、加速度センサ14、ジャイロセンサ15、メモリユニット16、同期信号発生器17等を備えている。図1においては、1つの平面が同一時刻における20ユニットのステレオユニットによる全方向の画像及び加速度センサ14、ジャイロセンサ15のデータの取得を概念的に示しており、また、これらが所定の時間間隔で連続して取得を行っていることを概念的に示すものである。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is a schematic diagram illustrating a system configuration of an image processing apparatus according to the present embodiment. As shown in FIG. 1, an image processing apparatus (image generation apparatus) 11 according to the present embodiment includes an active sensor (an omnidirectional stereo imaging apparatus, an image imaging apparatus) 12 and a computer 13. In the description of this embodiment, the simple sensor refers to the active sensor 12. The active sensor 12 includes a plurality of, in this embodiment, 20 units of a three-eye stereo unit (hereinafter simply referred to as “stereo unit”) 18, an acceleration sensor 14, a gyro sensor 15, a memory unit 16, a synchronization signal generator 17, and the like. ing. In FIG. 1, one plane conceptually shows acquisition of omnidirectional images and data of the acceleration sensor 14 and the gyro sensor 15 by 20 stereo units at the same time, and these are given at predetermined time intervals. This conceptually shows that the acquisition is continuously performed.

図2は、アクティブセンサ12の機械的構成の概略図である。アクティブセンサ12は、複数の車輪を有する車体100を備えており、車体100内に設けられた図示しない電動モータにより前記車輪が駆動されて環境K内の任意の位置に向けて自動走行(直線及び曲線に沿った走行を含む)が可能である。なお、図2においては、説明の便宜上、環境Kは、車体100に比較して、小さく図示している。また、メモリユニット16、コンピュータ13、同期信号発生器17等は車体100内に格納されている。   FIG. 2 is a schematic diagram of the mechanical configuration of the active sensor 12. The active sensor 12 includes a vehicle body 100 having a plurality of wheels, and the wheels are driven by an electric motor (not shown) provided in the vehicle body 100 to automatically travel toward an arbitrary position in the environment K (straight line and Including travel along a curve). In FIG. 2, the environment K is shown smaller than the vehicle body 100 for convenience of explanation. The memory unit 16, the computer 13, the synchronization signal generator 17, etc. are stored in the vehicle body 100.

図3は、アクティブセンサ12の全体外観図である。アクティブセンサ12に設けられるステレオユニット18は、3個のビデオカメラからなり、各ステレオユニット18は正20面体(図4参照)の各面上にそれぞれ配置されている。すなわち、本実施形態では、ステレオユニット18は20ユニットある。これらのステレオユニット18の集合体は、スタンド19によって支持されている。   FIG. 3 is an overall external view of the active sensor 12. The stereo unit 18 provided in the active sensor 12 includes three video cameras, and each stereo unit 18 is disposed on each surface of a regular icosahedron (see FIG. 4). That is, in this embodiment, there are 20 stereo units 18. The aggregate of these stereo units 18 is supported by a stand 19.

また、各ステレオユニット18は同特性を備え、各面に配置したステレオユニット18により、全方向のカラー画像と白黒画像(距離画像を求めるためのステレオ画像)を同一時刻にリアルタイムで取得可能となっている。これによって、3次元空間上の全ての方向におけるカラー画像と3次元情報を同一時刻に得ることができる。   In addition, each stereo unit 18 has the same characteristics, and the stereo unit 18 arranged on each surface can acquire an omnidirectional color image and a monochrome image (stereo image for obtaining a distance image) in real time at the same time. ing. As a result, color images and three-dimensional information in all directions in the three-dimensional space can be obtained at the same time.

さらに、同じ特性を持つステレオユニット18を正20面体の各面上に配置したことにより、3次元空間を均等に分割し、高解像度の情報の取得が可能である。なお、このアクティブセンサ12は、「”実環境センシングのための全方向ステレオシステム(SOS)”、電気学会論文誌C.Vol.121−C,No.5,pp.876−881,2001」に記載されている。   Furthermore, by arranging the stereo units 18 having the same characteristics on each surface of the regular icosahedron, it is possible to divide the three-dimensional space equally and acquire high-resolution information. The active sensor 12 is described in ““ Omnidirectional Stereo System (SOS) for Real Environment Sensing ”, IEEJ Transactions C. Vol. 121-C, No. 5, pp. 876-1811, 2001”. Has been described.

ステレオユニット18は、図1(図3)に示すように、1つの基準ビデオカメラVCsと、一対の参照用ビデオカメラVCとからなる。そして、参照用ビデオカメラVCは基準ビデオカメラVCsの光軸を交線として、互いに直交する一対の平面に含ませるように配置されている。そして、これらのカメラにより、2つのステレオペアを構成するように配置されている。なお、本実施形態では、ステレオユニット18は20ユニットあることから、基準ビデオカメラVCsも20台あることになる。   As shown in FIG. 1 (FIG. 3), the stereo unit 18 includes one standard video camera VCs and a pair of reference video cameras VC. The reference video camera VC is arranged so as to be included in a pair of planes orthogonal to each other with the optical axis of the standard video camera VCs as an intersection line. These cameras are arranged so as to form two stereo pairs. In the present embodiment, since there are 20 stereo units 18, there are also 20 reference video cameras VCs.

各ステレオユニット18からは、1枚のカラー画像と2枚の白黒画像とからなるステレオ画像が取得され、全方向の20枚のカラー画像と40枚の白黒画像を1セットとして15セット/秒でメモリユニット16に転送する。メモリユニット16は、転送されてきた全方向の画像データ(以下、全方向画像という)を記憶する。全方向画像には、基準ビデオカメラVCsにて得られた画像データも含まれる。   From each stereo unit 18, a stereo image composed of one color image and two monochrome images is acquired, and 20 color images in all directions and 40 monochrome images are set as one set at 15 sets / second. Transfer to the memory unit 16. The memory unit 16 stores the transferred omnidirectional image data (hereinafter referred to as an omnidirectional image). The omnidirectional image includes image data obtained by the reference video camera VCs.

図4は、アクティブセンサ12に設けられる加速度センサ14及びジャイロセンサ15の取り付け態様を説明する図である。図4に示すように、アクティブセンサ12の内部の略中心部には、加速度センサ14とジャイロセンサ15が設けられている。加速度センサ14はアクティブセンサ12の位置を取得し、ジャイロセンサ15はアクティブセンサ12の姿勢(傾き)を取得する。詳しい取得に係る処理については後に述べる。この加速度センサ14が位置情報取得手段、ジャイロセンサ15が姿勢情報取得手段を構成している。   FIG. 4 is a diagram for explaining how the acceleration sensor 14 and the gyro sensor 15 provided in the active sensor 12 are attached. As shown in FIG. 4, an acceleration sensor 14 and a gyro sensor 15 are provided at a substantially central portion inside the active sensor 12. The acceleration sensor 14 acquires the position of the active sensor 12, and the gyro sensor 15 acquires the attitude (tilt) of the active sensor 12. Processing related to detailed acquisition will be described later. The acceleration sensor 14 constitutes position information acquisition means, and the gyro sensor 15 constitutes posture information acquisition means.

また、各ステレオユニット18の各ビデオカメラには、同期信号発生器17から共通の絶対時刻に基づいた外部同期信号が供給され、画像データに時刻情報が付加されている。このことにより、ディジタル化されたフレームにおいて、完全に同期した画像データが得られる。また、同期信号発生器17は、加速度センサ14とジャイロセンサ15からの位置姿勢情報にも時刻情報を付加する。   Also, an external synchronization signal based on a common absolute time is supplied from the synchronization signal generator 17 to each video camera of each stereo unit 18, and time information is added to the image data. Thus, completely synchronized image data can be obtained in the digitized frame. The synchronization signal generator 17 also adds time information to the position and orientation information from the acceleration sensor 14 and the gyro sensor 15.

なお、コンピュータ13は、所定の周期毎に、同コンピュータ13内に備えているROM13a(図1参照)に予め格納したプログラムを実行する。また、コンピュータ13は、メモリユニット16にアクセスし、全方向画像及び位置姿勢情報をその時々に取得する。さらに、コンピュータ13は、全方向画像と位置姿勢情報とを時間的に同期させる同期手段、2次元画像を生成する2次元画像生成手段、得られた画像のエッジに基づいてアクティブセンサ12の傾きを推定する推定手段に相当する。なお、各手段の処理については、後に詳しく述べることとする。   The computer 13 executes a program stored in advance in a ROM 13a (see FIG. 1) provided in the computer 13 at predetermined intervals. Further, the computer 13 accesses the memory unit 16 and acquires the omnidirectional image and the position / orientation information from time to time. Further, the computer 13 synchronizes the omnidirectional image and the position and orientation information with respect to time, a two-dimensional image generation unit that generates a two-dimensional image, and the inclination of the active sensor 12 based on the edge of the obtained image. This corresponds to estimation means for estimation. The processing of each means will be described in detail later.

次に、上記のように構成された画像処理装置11の作用について説明する。まず、以下の説明で使用する用語について説明する。
1. センサ座標系(三次元座標系)
センサ座標系は、センサの中心から撮像したときの視点位置と視点の向きで決まる座標系である。
Next, the operation of the image processing apparatus 11 configured as described above will be described. First, terms used in the following description will be described.
1. Sensor coordinate system (3D coordinate system)
The sensor coordinate system is a coordinate system determined by the viewpoint position and the orientation of the viewpoint when imaged from the center of the sensor.

2. ワールド座標系(三次元座標系)
センサ自体が位置する環境の座標系である。このワールド座標系により、センサの位置や姿勢が特定される。また、このワールド座標系に基づいて3次元環境モデルが生成される。本実施形態では、センサの移動する始点を原点とし、鉛直方向をZ軸方向とし、所定方向、例えば磁北をX軸方向としてワールド座標系が決定されるが、これに限定されるものではない。
2. World coordinate system (3D coordinate system)
It is the coordinate system of the environment where the sensor itself is located. The position and orientation of the sensor are specified by this world coordinate system. A three-dimensional environment model is generated based on this world coordinate system. In the present embodiment, the world coordinate system is determined with the starting point of the movement of the sensor as the origin, the vertical direction as the Z-axis direction, and a predetermined direction, for example, magnetic north as the X-axis direction, but is not limited thereto.

3. 3次元垂直エッジ
3次元垂直エッジはワールド座標系において、大地、床面等の水平な基準面に対して垂直な方向を持つエッジをいう。前記エッジは、従って、ワールド座標系が基準面に対して垂直なZw軸を有するとすると、同Zw軸に対して平行なエッジ方向を有する。なお、3次元垂直エッジ点は、離散的に見た場合、3次元垂直エッジにある点をいう。
3. Three-dimensional vertical edge A three-dimensional vertical edge is an edge having a direction perpendicular to a horizontal reference plane such as the ground or floor in the world coordinate system. The edge thus has an edge direction parallel to the Zw axis, assuming that the world coordinate system has a Zw axis perpendicular to the reference plane. The three-dimensional vertical edge point means a point on the three-dimensional vertical edge when viewed discretely.

さて、本実施形態の画像処理装置11では、ジャイロセンサ15からアクティブセンサ12の大まかな姿勢を得た後、室内環境や市街地等のシーンに多く存在する鉛直方向の直線(以下、「垂直エッジ」という。)を用いてアクティブセンサ12の正確な姿勢(鉛直方向の傾きと水平回転)を推定する。ジャイロセンサ15の情報と画像情報を併用することで、アクティブセンサ12の姿勢を効率的に精度良く求めることができる。そして、求められた姿勢情報に基づいて画像を補正し、回転のない状態における画像データとするものである。   In the image processing apparatus 11 of the present embodiment, after obtaining a rough posture of the active sensor 12 from the gyro sensor 15, a vertical straight line (hereinafter referred to as "vertical edge") that is frequently present in scenes such as indoor environments and urban areas. Is used to estimate the exact posture (vertical tilt and horizontal rotation) of the active sensor 12. By using the information of the gyro sensor 15 and the image information together, the attitude of the active sensor 12 can be obtained efficiently and accurately. Then, the image is corrected based on the obtained posture information to obtain image data in a state without rotation.

図5は、画像処理装置11の一連の処理を示すフローチャートである。まず、ジャイロセンサ15からアクティブセンサ12の姿勢情報を取得し(ステップ1、以下「ステップ」を「S」と略す。)、センサ座標系からワールド座標系への変換パラメータを求める(S2)。次に、変換パラメータを利用して、アクティブセンサ12で得られた全方向画像からエッジとその方向に基づいて垂直エッジを検出し、アクティブセンサ12の姿勢を推定する(S3)。そして、姿勢パラメータにより、得られた画像を補整し回転のない2次元画像を生成する(S4)。   FIG. 5 is a flowchart showing a series of processes of the image processing apparatus 11. First, attitude information of the active sensor 12 is acquired from the gyro sensor 15 (step 1, hereinafter “step” is abbreviated as “S”), and a conversion parameter from the sensor coordinate system to the world coordinate system is obtained (S2). Next, using the conversion parameter, the edge and the vertical edge are detected from the omnidirectional image obtained by the active sensor 12 based on the direction and the direction thereof, and the attitude of the active sensor 12 is estimated (S3). Then, the obtained image is corrected by the posture parameter to generate a two-dimensional image without rotation (S4).

次に、上記のアクティブセンサの姿勢推定(S3)について、エッジ方向とアクティブセンサ12の姿勢の関係、エッジ方向を用いた傾き推定、アクティブセンサ12の水平回転の推定、カルマンフィルタによる平滑化の順にさらに詳しく述べる。   Next, regarding the posture estimation (S3) of the active sensor, the relationship between the edge direction and the posture of the active sensor 12, the tilt estimation using the edge direction, the estimation of the horizontal rotation of the active sensor 12, and the smoothing by the Kalman filter are further performed in this order. Describe in detail.

まず、傾き推定の原理であるが、アクティブセンサ12の傾きを推定するには,ワールド座標系におけるセンサ座標系の縦軸(以下、Z軸とする)方向を求めればよい。一方、ワールド座標系におけるアクティブセンサ12の傾き推定とセンサ座標系におけるワールド座標系の傾き推定は同一の問題であるため、センサ座標系におけるワールド座標系のZ軸の方向Zwが分かれば、ワールド座標系におけるセンサ座標系のZ軸の方向も分かる。   First, regarding the principle of inclination estimation, in order to estimate the inclination of the active sensor 12, the direction of the vertical axis (hereinafter referred to as the Z axis) of the sensor coordinate system in the world coordinate system may be obtained. On the other hand, since the tilt estimation of the active sensor 12 in the world coordinate system and the tilt estimation of the world coordinate system in the sensor coordinate system are the same problem, if the direction Zw of the world coordinate system in the sensor coordinate system is known, the world coordinate The direction of the Z axis of the sensor coordinate system in the system is also known.

アクティブセンサの姿勢推定(S3)について、まず、エッジ方向とアクティブセンサ12の姿勢の関係について説明する。ワールド座標系における3次元垂直エッジ点Swとそのエッジ方向Ewは、センサ座標系でそれぞれSとEとする。また、センサ座標系(X,Y,Z)におけるワールド座標系のZ軸をZwとする。3次元空間において、垂直エッジS+λEとZwは平行であるため、同一平面上にある。つまり、3次元垂直エッジ点Sとそのエッジ方向Eで構成する斉次平面(つまり、座標系原点を通る平面)(S×E)・X=0はワールド座標系のZ軸Zwを通る。図6に示すように、平面(S×E)・X=0を平面Z=1と交差させれば、その交差線はZwと平面Z=1との交点p=(x,y,1)?を通る。センサ座標系におけるZ=1平面上の2次元空間(x,y)を投票空間とした場合、3次元空間における各エッジ点Sとそのエッジ方向Eは次の式で投票空間(x,y)に投票される。 Regarding the posture estimation (S3) of the active sensor, first, the relationship between the edge direction and the posture of the active sensor 12 will be described. The three-dimensional vertical edge point Sw and its edge direction Ew in the world coordinate system are S and E in the sensor coordinate system, respectively. Further, the Z axis of the world coordinate system in the sensor coordinate system (X, Y, Z) is defined as Zw. In the three-dimensional space, since the vertical edges S + λE and Zw are parallel, they are on the same plane. That is, a homogeneous plane (that is, a plane passing through the origin of the coordinate system) (S × E) · X = 0, which is constituted by the three-dimensional vertical edge point S and the edge direction E, passes through the Z axis Zw of the world coordinate system. As shown in FIG. 6, if the plane (S × E) · X = 0 intersects with the plane Z = 1, the intersection line is the intersection p = (x, y, 1) between Zw and the plane Z = 1. Pass through ? When a two-dimensional space (x, y) on the Z = 1 plane in the sensor coordinate system is a voting space, each edge point S and its edge direction E in the three-dimensional space are expressed by the following formula: voting space (x, y) Voted for.

Figure 2005252482
シーンの中に垂直エッジが多数存在する場合、各エッジから作成された平面(S×E)?X=0を上述のように平面Z=1に投影すれば、その交差線はすべて共通点pを通るため、投票空間(x,y)中のp=(x,y)において大きなピークが形成される。したがって、投票空間(x,y)から最も高いピークpを検出することで、ワールド座標系のZ軸の方向Zwを推定することができ、その値は(x,y,1)?になる。
Figure 2005252482
When there are many vertical edges in the scene, if the plane (S × E) ? X = 0 created from each edge is projected onto the plane Z = 1 as described above, all the intersection lines have a common point p. A large peak is formed at p = (x p , y p ) in the voting space (x, y). Therefore, by detecting the highest peak p from the voting space (x, y), the Z-axis direction Zw of the world coordinate system can be estimated, and its value is (x p , y p , 1) ? Become.

次に、全方向画像のエッジ方向を用いた傾き推定について説明する。アクティブセンサ12の各カメラから得られた画像のエッジとその方向を用いて、上述の投票により傾きの推定を行う。アクティブセンサ12の各カメラの画像から得られたエッジsとその方向eで構成される2次元エッジ線分とそのエッジの3次元の点Sと3次元方向Eで構成される3次元エッジ線分は同一同次平面にあるため、アクティブセンサ12の各カメラ座標系はアクティブセンサ12のセンサ座標系と一致する場合、式(1)からsとeは次の式を満たす。   Next, the inclination estimation using the edge direction of the omnidirectional image will be described. The inclination is estimated by the above-described voting using the edge and the direction of the image obtained from each camera of the active sensor 12. A two-dimensional edge line segment composed of the edge s obtained from the image of each camera of the active sensor 12 and its direction e, and a three-dimensional edge line segment composed of the three-dimensional point S and the three-dimensional direction E of the edge. Are on the same homogeneous plane, and when each camera coordinate system of the active sensor 12 is coincident with the sensor coordinate system of the active sensor 12, s and e satisfy the following expressions.

Figure 2005252482
一般的に、アクティブセンサ12の各カメラの座標系とアクティブセンサの12のセンサ座標系とは一致しないが、垂直エッジの消失点はカメラの並進に対して不変であり、各カメラの回転Rcのみに関係する。この性質から次の関係式が得られる。
Figure 2005252482
Generally, the coordinate system of each camera of the active sensor 12 and the sensor coordinate system of the active sensor 12 do not match, but the vanishing point of the vertical edge is invariant to the translation of the camera, and only the rotation Rc of each camera. Related to. From this property, the following relational expression is obtained.

Figure 2005252482
ここで、sとeはそれぞれカメラの画像におけるエッジとその方向である。
Figure 2005252482
Here, s c and e c are an edge and its direction in the image of the camera, respectively.

アクティブセンサ12のc番目のカメラの画像上のk番目のエッジ点をsck=(xck,yck)とし、そのエッジ方向をeck=(dyck,−dxck)とする。ここで、k=1,…,N、Nは各カメラ画像にあるエッジピクセルの数である。アクティブセンサ12のセンサ座標系におけるZ=1の平面上の投票空間を(x,y)とすれば、式(3)から次の投票式がえられる。 The k-th edge point on the image of the c-th camera of the active sensor 12 is set to s ck = (x ck , y ck ), and the edge direction is set to e ck = (d yck , −d xck ). Here, k = 1,..., N c , N c are the number of edge pixels in each camera image. If the voting space on the plane of Z = 1 in the sensor coordinate system of the active sensor 12 is (x, y), the following voting formula can be obtained from the formula (3).

Figure 2005252482
ただし、
Figure 2005252482
However,

Figure 2005252482
Figure 2005252482

Figure 2005252482
Figure 2005252482

Figure 2005252482
式(4)から明らかなように、アクティブセンサ12の各カメラの画像上の一つのエッジ点は投票空間の1本の直線に対応する。すなわち、エッジ点sckとその方向eckが与えられたとき、投票空間においてはこれに対応する直線上に投票を行えば良い。すべてのエッジ点に対して投票を行った後、投票空間において最も高いピークを検出することによって、垂直エッジに対応する消失点を求めることができる。
Figure 2005252482
As apparent from the equation (4), one edge point on the image of each camera of the active sensor 12 corresponds to one straight line in the voting space. That is, when an edge point s ck and its direction e ck are given, voting may be performed on a corresponding straight line in the voting space. After voting for all edge points, the vanishing point corresponding to the vertical edge can be determined by detecting the highest peak in the voting space.

このように、アクティブセンサ12の傾きを推定することにより、傾きのない時のアクティブセンサ12の全方向エッジ画像を生成することができる。このように傾きのない全方向エッジ画像を仮想的に生成できるため、これを用いて本出願人がすでに提案した全方位エッジヒストグラムを用いたセンサの位置・姿勢推定法(水平のみ)により、カメラのその他の位置・姿勢パラメータも得ることができる。詳しくは、「”全方位画像のエッジヒストグラムを用いたセンサの位置姿勢推定”、信学論D−II,Vol.J86−D−II,No.10,pp.1400−1410,2003」による。次に、アクティブセンサの水平回転成分の求め方について述べる。なお、ここで姿勢パラメータとは、鉛直方向及び水平方向も含めた全体の姿勢を決定するパラメータを意味する。   In this way, by estimating the inclination of the active sensor 12, an omnidirectional edge image of the active sensor 12 when there is no inclination can be generated. Since an omnidirectional edge image with no inclination can be virtually generated in this way, the camera position / posture estimation method (horizontal only) using the omnidirectional edge histogram already proposed by the present applicant is used. Other position / posture parameters can also be obtained. Specifically, it is based on ““ Position and Posture Estimation of Sensor Using Edge Histogram of Omnidirectional Image ”, Science D-II, Vol. J86-D-II, No. 10, pp. 1400-1410, 2003”. Next, how to determine the horizontal rotation component of the active sensor will be described. Here, the attitude parameter means a parameter for determining the entire attitude including the vertical direction and the horizontal direction.

アクティブセンサ12が傾いていない場合、アクティブセンサ12の並進や回転は、全方位画像の垂直投影エッジヒストグラムのシフトを引き起こす。アクティブセンサ12の水平回転によって生じたヒストグラムのシフト量はすべての方位角において一定で、全体のシフト量のオフセットになるが、アクティブセンサ12の並進で生じたヒストグラムのシフト量は移動方向とエッジの方位角に関係し、sin曲線の特性を持つ。   When the active sensor 12 is not tilted, translation or rotation of the active sensor 12 causes a shift of the vertical projection edge histogram of the omnidirectional image. The shift amount of the histogram caused by the horizontal rotation of the active sensor 12 is constant in all azimuth angles and becomes an offset of the entire shift amount. However, the shift amount of the histogram caused by the translation of the active sensor 12 is the movement direction and the edge. It has a sin curve characteristic in relation to the azimuth angle.

初期時刻のアクティブセンサ12の向きを基準とした場合、初期時刻の全方位エッジヒストグラムを参照ヒストグラムとする。現時刻で得られた全方位エッジヒストグラムと参照ヒストグラムをマッチングし、ヒストグラムのシフト量を求める。全方位エッジヒストグラムのシフト量の全体的なオフセットからアクティブセンサ12の回転角度を求める。詳細については、文献”全方位画像のエッジヒストグラムを用いたセンサの位置姿勢推定”、信学論D−II,Vol.J86−D−II,No.10,pp.1400−1410,2003による。   When the orientation of the active sensor 12 at the initial time is used as a reference, the omnidirectional edge histogram at the initial time is set as a reference histogram. The omnidirectional edge histogram obtained at the current time is matched with the reference histogram to determine the shift amount of the histogram. The rotation angle of the active sensor 12 is obtained from the overall offset of the shift amount of the omnidirectional edge histogram. For details, refer to the document “Estimation of position and orientation of sensor using edge histogram of omnidirectional image”, Science theory D-II, Vol. J86-D-II, no. 10, pp. 1400-1410, 2003.

上記のようにして得られたアクティブセンサ12の姿勢パラメータにはランダム的な推定誤差がある。一般的に、アクティブセンサ12の姿勢変化は滑らかであるが、そのランダム的な推定誤差によって、復元した姿勢の時間的な変動はパラメータ空間では必ずしも滑らかな軌跡にならない。そのため、推定したアクティブセンサ12の姿勢パラメータを用いて復元した全方向画像には小さな振動が起こる場合がある。   There is a random estimation error in the posture parameter of the active sensor 12 obtained as described above. In general, the posture change of the active sensor 12 is smooth, but due to the random estimation error, the temporal variation of the restored posture is not necessarily a smooth locus in the parameter space. Therefore, a small vibration may occur in the omnidirectional image restored using the estimated posture parameter of the active sensor 12.

この問題を解決するために、カルマンフィルタ(文献”A New Approach to Linear Filtering and Prediction Problems”Trans.of ASME−Journal of Basic Engineering,Vol.82−D,pp.35−45,1960による。)を用いて、得られたアクティブセンサ12の姿勢パラメータの時間的な変動(軌跡)を平滑化する。ここでは、傾きの2自由度α,βと水平回転の1自由度γの時間的な変動はお互いに独立していると仮定する。また、それらの姿勢パラメータの変化は等速変化であると仮定する。時刻tの姿勢パラメータをPt=(α,β,γとし、パラメータの変化量Δt=P-Pt−1とする。その場合、カルマンフィルタによる平滑化は次の式のようになる。 To solve this problem, the Kalman filter (literature “A New Approach to Linear Filtering and Prediction Problems”, Trans. Of ASME-Journal of Basic Engineering, Vol. 82-D, pp. 35-45, 19) is used. Thus, the temporal variation (trajectory) of the obtained posture parameter of the active sensor 12 is smoothed. Here, it is assumed that the temporal fluctuations of the two degrees of freedom α and β of the inclination and the one degree of freedom γ of the horizontal rotation are independent of each other. Further, it is assumed that the change in the posture parameters is a constant speed change. The posture parameter at time t is Pt = (α t , β t , γ t ) T , and the parameter change amount Δt = P t −P t−1 . In that case, smoothing by the Kalman filter is as follows.

Figure 2005252482
Figure 2005252482

Figure 2005252482
Figure 2005252482

Figure 2005252482
ここで、RとQはそれぞれ対角要素の値がRとQである3×3の対角行列である。Qはパラメータ推定誤差の分散を表し、本実施形態ではQ=2とする。Rは仮定した等速モデルから実際の姿勢変化量の偏差値であり、本実施形態ではR=4とする。
Figure 2005252482
Here, R and Q are 3 × 3 diagonal matrices whose diagonal elements are R and Q, respectively. Q represents the variance of the parameter estimation error. In this embodiment, Q = 2. R is a deviation value of the actual posture change amount from the assumed constant velocity model, and in this embodiment, R = 4.

また、初期値としては、Δ=0で、Pを姿勢の初期推定値とする。Mを対角要素の値がRである対角行列とする。式(9)の左辺で得られた値を時刻tの姿勢の推定値として用いる。 Further, as initial values, Δ 0 = 0, and P 0 is an initial estimated value of the posture. Let M 0 be a diagonal matrix whose diagonal element value is R. The value obtained on the left side of Equation (9) is used as the estimated value of the posture at time t.

上記のように、本実施形態では、ジャイロセンサ15から得た傾きと垂直エッジから得られた傾きの双方を併用している。ジャイロセンサ15では得られるデータに時間的な誤差の蓄積があるが、垂直エッジから得られた傾きはアクティブセンサ12のワールド座標系に対する絶対的な傾きであるため、それを用いてジャイロセンサ15のドリフト誤差を修正している。   As described above, in this embodiment, both the inclination obtained from the gyro sensor 15 and the inclination obtained from the vertical edge are used in combination. In the gyro sensor 15, there is a time error accumulation in the obtained data. However, since the inclination obtained from the vertical edge is an absolute inclination with respect to the world coordinate system of the active sensor 12, the gyro sensor 15 is used by using it. The drift error has been corrected.

次に、2次元画像の生成(図5、S4)について詳しく述べる。アクティブセンサ12の姿勢がわかれば、その姿勢パラメータを用いてアクティブセンサの全方向画像から回転のない時の画像を生成することができる。ここでは、アクティブセンサ12の全天周球面展開画像の生成方法について述べる。   Next, generation of a two-dimensional image (FIG. 5, S4) will be described in detail. If the attitude of the active sensor 12 is known, an image without rotation can be generated from the omnidirectional image of the active sensor using the attitude parameter. Here, a method for generating an all-spherical spherical developed image of the active sensor 12 will be described.

上述したように得られたアクティブセンサ12の姿勢パラメータをX,Y,Z軸のそれぞれに対応した回転角度α,β,γで表すことができる。姿勢が変化したときの全天周球面展開画像を3軸角度座標系(A,B,Г)で表せば、アクティブセンサ12の姿勢変化のないときの全天周球面展開画像は(A−α,B−β,Г−γ)として得られる。この関係から、X,Y,Z軸の回転量は、それぞれの軸を縦軸とした円筒展開画像においては、画像の横シフト量となる。そこで、この特徴を利用して、次のような手順でアクティブセンサ12の各カメラで得られた全方位画像から、アクティブセンサ12の姿勢変化を補正した回転不変な2次元円筒展開画像を高速に生成する。   The attitude parameters of the active sensor 12 obtained as described above can be represented by rotation angles α, β, and γ corresponding to the X, Y, and Z axes, respectively. If the entire spherical surface developed image when the posture is changed is represented by the three-axis angular coordinate system (A, B, Γ), the whole spherical surface developed image when the active sensor 12 is not changed is (A−α). , B-β, Γ-γ). From this relationship, the rotation amount of the X, Y, and Z axes is the horizontal shift amount of the image in the cylindrical developed image with the respective axes as the vertical axes. Therefore, by utilizing this feature, a rotation-invariant two-dimensional cylindrical development image obtained by correcting the posture change of the active sensor 12 from the omnidirectional image obtained by each camera of the active sensor 12 in the following procedure at high speed is obtained. Generate.

まず、アクティブセンサ12のセンサ座標系のX軸を縦軸とした円筒展開画像とアクティブセンサ12の各カメラの画像の対応関係を計算する。アクティブセンサ12の各カメラ座標系とセンサ座標系の関係が既知であるため、それを用いて平面射影モデルに基づき、アクティブセンサの各カメラの画像とX軸を縦軸とした円筒展開画像との対応関係は簡単に求めることができる、その対応関係をc(θ,φ),i(θ,φ),j(θ,φ)で表す。(θ,φ)はX軸を縦軸とした円筒展開画像の座標である。cはカメラ番号で、iとjはカメラcの画像座標である。 First, the correspondence relationship between the cylindrical developed image with the X axis of the sensor coordinate system of the active sensor 12 as the vertical axis and the image of each camera of the active sensor 12 is calculated. Since the relationship between each camera coordinate system of the active sensor 12 and the sensor coordinate system is known, an image of each camera of the active sensor and a cylindrical developed image with the X axis as the vertical axis are used based on the planar projection model using the relationship. The correspondence can be easily obtained, and the correspondence is represented by c xx , φ x ), i xx , φ x ), j xx , φ x ). (Θ x , φ x ) are the coordinates of the cylindrical developed image with the X axis as the vertical axis. c x is a camera number, and i x and j x are image coordinates of the camera c x .

次に、アクティブセンサ12のセンサ座標系のY軸を縦軸とした円筒展開画像(θ,φ)とX軸を縦軸とした円筒展開画像(θ,φ)との対応関係を計算し、xθ(θ,φ),xφ(θ,φ)で表す。同様に、Z軸を縦軸とした円筒展開画像(θ,φ)とY軸を縦軸とした円筒展開画像(θ,φ)との対応関係をyθ(θ,φ),yφ(θ,φ)で表す。アクティブセンサ12の姿勢パラメータ(α,β,γ)を用いて姿勢変化のないときの縦方向の円筒展開画像とアクティブセンサ12の各カメラ画像の対応関係c(θ,φ),i(θ,φ),j(θ,φ)は上述の対応関係から多重インデックスで求めることができる。次の式はカメラ番号の対応関係c(θ,φ)の計算式を示す。 Next, the correspondence relationship between the cylindrical developed image (θ y , φ y ) with the Y axis in the sensor coordinate system of the active sensor 12 as the vertical axis and the cylindrical developed image (θ x , φ x ) with the X axis as the vertical axis. Is expressed by y , φ y ), x φy , φ y ). Similarly, the correspondence relationship between the cylindrical developed image (θ z , φ z ) with the Z axis as the vertical axis and the cylindrical developed image (θ y , φ y ) with the Y axis as the vertical axis is represented by y θz , φ z ), y φz , φ z ). Using the posture parameters (α, β, γ) of the active sensor 12, the corresponding relationship c r (θ, φ), i r ( θ, φ), j r (θ, φ) can be obtained by multiple indexes from the above correspondence. The following formula shows a calculation formula for the correspondence relationship c r (θ, φ) of the camera number.

Figure 2005252482
Figure 2005252482

Figure 2005252482
Figure 2005252482

Figure 2005252482
式(11)〜(13)と同様に、i(θ,φ)とj(θ,φ)についても多重インデックスを構築することができる。
Figure 2005252482
Similar to equations (11) to (13), multiple indexes can be constructed for i r (θ, φ) and j r (θ, φ).

上記詳しく述べた各処理を経て、全方向画像からワールド座標系に対応した回転不変な2次元画像を生成することができる。「ワールド座標系に対応した」とは、センサ座標系のZ軸とワールド座標系のZw軸とが平行であり、常にワールド座標系のZ軸に対して傾くことなく一定な状態であることを示す。つまり、アクティブセンサ12のセンサ座標系は、ワールド座標系から見ればアクティブセンサ12の姿勢によってワールド座標系内で種々変化するが、上記の処理を経れば、姿勢が変化したアクティブセンサ12から得られた各画像は常に各画像におけるセンサ座標系の統一がとられた、回転不変な2次元画像として生成することができる。図7は、その画像を円筒画像として復元した結果を示す図であり、(a)は補正なしの画像を示し、(b)は上記処理を経て得られた姿勢パラメータを用いて姿勢補正を行った後の画像を示す。図7(a)に示すように補正なしの円筒画像Paでは画像がsin曲線を描くように歪んでいるが、図7(b)に示すように補正後の円筒画像Pbでは、画像が歪むことなく周辺環境を水平状態で見たような画像が生成されている。このように、得られた姿勢パラメータによって正確な姿勢推定がなされ、精度良く補正されていることがわかる。すなわち、本実施形態によれば、アクティブセンサ12がその環境内で移動し姿勢が変化した場合であっても、常にワールド座標系のZw軸に対して傾きのない2次元画像を生成することができる。また、ジャイロセンサ15からの傾きをまず取得しそのデータを利用しているため、全方向画像から垂直エッジを検出する手法のみによって姿勢を推定するより格段に計算量が少なくてすみ、回転不変2次元画像の生成を実時間で高速に行うことができる。   Through each process described in detail above, a rotation-invariant two-dimensional image corresponding to the world coordinate system can be generated from the omnidirectional image. “It corresponds to the world coordinate system” means that the Z axis of the sensor coordinate system and the Zw axis of the world coordinate system are parallel and always in a constant state without being inclined with respect to the Z axis of the world coordinate system. Show. In other words, the sensor coordinate system of the active sensor 12 changes variously in the world coordinate system depending on the attitude of the active sensor 12 when viewed from the world coordinate system. Each obtained image can always be generated as a rotation-invariant two-dimensional image in which the sensor coordinate system in each image is unified. FIG. 7 is a diagram showing the result of restoring the image as a cylindrical image. FIG. 7A shows an image without correction, and FIG. 7B shows posture correction using posture parameters obtained through the above processing. The image is shown. As shown in FIG. 7A, in the uncorrected cylindrical image Pa, the image is distorted so as to draw a sin curve, but in the corrected cylindrical image Pb, the image is distorted as shown in FIG. 7B. Instead, an image as if the surrounding environment was viewed in a horizontal state was generated. In this way, it can be seen that accurate posture estimation is performed based on the obtained posture parameters and is corrected with high accuracy. That is, according to the present embodiment, even when the active sensor 12 moves within the environment and changes its posture, it is possible to always generate a two-dimensional image with no inclination with respect to the Zw axis of the world coordinate system. it can. Further, since the inclination from the gyro sensor 15 is first obtained and the data is used, the calculation amount is much smaller than that of estimating the posture only by the method of detecting the vertical edge from the omnidirectional image, and the rotation invariant 2 A three-dimensional image can be generated at high speed in real time.

上記実施形態によれば、以下のような効果を得ることができる。
(1)姿勢情報を取得するためにジャイロセンサ15を用いることにより、少ない計算量で容易にアクティブセンサ12の姿勢を推定することができる。また、本実施形態ではジャイロセンサ15から得た傾きと垂直エッジから得られた傾きの双方を併用している。このため、ジャイロセンサ15のみでは、得られるデータに時間的な誤差の蓄積があるため正確な推定が難しいが、垂直エッジから得られた傾きはアクティブセンサ12のワールド座標系に対する絶対的な傾きであるため、それを用いてジャイロセンサ15のドリフト誤差を修正することができる。
According to the above embodiment, the following effects can be obtained.
(1) By using the gyro sensor 15 to acquire posture information, the posture of the active sensor 12 can be easily estimated with a small amount of calculation. In the present embodiment, both the inclination obtained from the gyro sensor 15 and the inclination obtained from the vertical edge are used in combination. For this reason, accurate estimation is difficult with only the gyro sensor 15 due to the accumulation of time errors in the obtained data, but the inclination obtained from the vertical edge is an absolute inclination with respect to the world coordinate system of the active sensor 12. Therefore, it is possible to correct the drift error of the gyro sensor 15 by using it.

(2)さらに、得られた姿勢パラメータを用いて、撮影した全方向画像からワールド座標系に対応した2次元画像を生成することができる。つまり、アクティブセンサ12がその環境内で移動し姿勢が変化した場合であっても、常に環境を同じ姿勢で見た場合の画像を安定して得ることができる。例えば、危険地帯や狭い洞窟等、人物が入れない環境の撮影の際に、アクティブセンサ12を用いてその撮影された画像を補整し回転不変の2次元画像としてモニタ等に映し出せば、歪みがない画像として生成されるため大変見やすく状況把握に有効である。   (2) Furthermore, a two-dimensional image corresponding to the world coordinate system can be generated from the captured omnidirectional image using the obtained posture parameter. That is, even when the active sensor 12 moves within the environment and changes its posture, it is possible to stably obtain an image when the environment is always viewed in the same posture. For example, when photographing an environment where a person cannot enter, such as a danger zone or a narrow cave, if the captured image is corrected using the active sensor 12 and displayed on a monitor or the like as a rotation-invariant two-dimensional image, distortion is generated. Since it is generated as an image, it is very easy to see and effective in grasping the situation.

(3)さらに、全方向画像から垂直エッジを検出する手法のみであっても姿勢を推定することはできるが、画像上での処理となるため比較的処理速度が遅い。その点、本実施形態では、垂直エッジを検出する手法のみによって姿勢を推定する場合と比較して計算量が少なくてすむため、回転不変2次元画像の生成を効率的に実時間で処理することができる。   (3) Furthermore, although the posture can be estimated only by the method of detecting the vertical edge from the omnidirectional image, the processing speed is relatively slow because the processing is performed on the image. In this respect, in this embodiment, since the amount of calculation is less than that in the case of estimating the posture only by the method of detecting the vertical edge, the generation of the rotation invariant two-dimensional image is efficiently processed in real time. Can do.

(4)また、本実施形態のアクティブセンサ12の撮影領域は、360度×180度(全天周)の全方向をカバーしており死角がないため、アクティブセンサ12自体がどのような姿勢であっても全ての視野を常にカバーすることができる。環境全体を監視したり、状況を把握したりする場合に十分な情報を得ることができる。   (4) In addition, since the imaging region of the active sensor 12 according to the present embodiment covers all directions of 360 ° × 180 ° (entire sky) and has no blind spots, the active sensor 12 itself is in any posture. Even if there is, it can always cover all fields of view. Sufficient information can be obtained when monitoring the entire environment or grasping the situation.

(5)本実施形態では、ジャイロセンサ15から傾きを得るため、画像上に垂直エッジが存在しない場合でも、アクティブセンサ12の姿勢を推定し回転不変の2次元画像を生成することができる。もちろん、ジャイロセンサ15の移動が進みドリフト誤差が累積された場合には高い精度は期待できないが、ある程度の姿勢補正を可能とすることができる。   (5) In the present embodiment, since the inclination is obtained from the gyro sensor 15, even when there is no vertical edge on the image, the posture of the active sensor 12 can be estimated and a rotation-invariant two-dimensional image can be generated. Of course, when the movement of the gyro sensor 15 advances and the drift error is accumulated, high accuracy cannot be expected, but a certain degree of posture correction can be made possible.

(第2の実施形態)
次に、本発明の第2の実施形態を図8に基づき説明する。なお、第2の実施形態は、第1の実施形態における画像処理装置11の処理を一部変更し、3次元距離情報取得装置として機能するものであり、その他の点では第1の実施形態と同一の構成となっている。従って、以下ではその処理における変更点についてのみ説明する。画像処理装置11の構成は第1の実施形態と共通するため説明は省略するとともに、同一構成部材には同一の符号が付されることとして説明する。なお、本実施形態のコンピュータ13は、第1の実施形態と同様の推定手段に加え、位置情報と画像情報を同期させる同期手段、3次元距離情報取得手段、変換手段、3次元環境モデル生成手段に相当するものである。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to FIG. In the second embodiment, the processing of the image processing apparatus 11 in the first embodiment is partly changed to function as a three-dimensional distance information acquisition apparatus. In other respects, the second embodiment differs from the first embodiment. It has the same configuration. Accordingly, only changes in the processing will be described below. Since the configuration of the image processing apparatus 11 is the same as that of the first embodiment, a description thereof will be omitted, and the description will be made assuming that the same components are denoted by the same reference numerals. Note that the computer 13 of the present embodiment includes a synchronization unit that synchronizes position information and image information, a three-dimensional distance information acquisition unit, a conversion unit, and a three-dimensional environment model generation unit in addition to the estimation unit similar to the first embodiment. It is equivalent to.

図8は、画像処理装置(3次元距離情報取得装置)11の一連の処理を示すフローチャートである。まず、ジャイロセンサ15及び加速度センサ14から位置姿勢情報を取得する(S11)。詳しくは、後に述べる。次に、同期手段によって位置姿勢情報と同期された画像から3次元距離情報を取得する(S12)。本実施形態では、複数のステレオユニット18を構成する複数のカメラにより、正20面体の各面が向く方向の3次元画像を撮影することで3次元距離情報を取得する。次に、センサ座標系からワールド座標系への変換パラメータを求める(S13)。次に、変換パラメータを利用して、アクティブセンサ12で得られた全方向画像からエッジとその方向に基づいて垂直エッジを検出し、アクティブセンサ12の姿勢を推定する(S14)。そして、3次元距離情報を位置姿勢情報に基づきワールド座標系を基準とした3次元距離情報に変換する(S15)。ここで、位置姿勢情報とは、加速度センサ14とジャイロセンサ15から直接得られたデータから、垂直エッジによる推定を経て得られた位置姿勢情報のことを指し、第1の実施形態における姿勢パラメータに相当する。次に、変換して得られた3次元距離情報に基づいて3次元環境モデルを生成する(S16)。   FIG. 8 is a flowchart showing a series of processes of the image processing apparatus (three-dimensional distance information acquisition apparatus) 11. First, position and orientation information is acquired from the gyro sensor 15 and the acceleration sensor 14 (S11). Details will be described later. Next, three-dimensional distance information is acquired from the image synchronized with the position and orientation information by the synchronization means (S12). In the present embodiment, the three-dimensional distance information is acquired by photographing a three-dimensional image in the direction in which each surface of the regular icosahedron faces with a plurality of cameras constituting the plurality of stereo units 18. Next, a conversion parameter from the sensor coordinate system to the world coordinate system is obtained (S13). Next, using the conversion parameter, an edge is detected from the omnidirectional image obtained by the active sensor 12 based on the direction and its direction, and the attitude of the active sensor 12 is estimated (S14). Then, the three-dimensional distance information is converted into three-dimensional distance information based on the world coordinate system based on the position and orientation information (S15). Here, the position / orientation information refers to the position / orientation information obtained from the data obtained directly from the acceleration sensor 14 and the gyro sensor 15 through the estimation using the vertical edge, and is used as the attitude parameter in the first embodiment. Equivalent to. Next, a three-dimensional environment model is generated based on the three-dimensional distance information obtained by the conversion (S16).

次に、各処理について第1の実施形態との相違点に着目して説明する。まず、位置姿勢情報の取得(S11)について述べる。本実施形態では、姿勢情報に加え、加速度センサ14によって位置情報を取得する。加速度センサ14はアクティブセンサ12の加速度ベクトルの和を測定する。この加速度ベクトルは、ジャイロセンサ15から得られた変換パラメータを使用してセンサ座標系からワールド座標系に変換することができる。位置情報は、測定された加速度から重力の影響を減算し、既知の初期位置を起点として値を2重積分することにより求められる。   Next, each processing will be described by paying attention to differences from the first embodiment. First, acquisition of position and orientation information (S11) will be described. In the present embodiment, position information is acquired by the acceleration sensor 14 in addition to the posture information. The acceleration sensor 14 measures the sum of acceleration vectors of the active sensor 12. This acceleration vector can be converted from the sensor coordinate system to the world coordinate system using the conversion parameter obtained from the gyro sensor 15. The position information is obtained by subtracting the influence of gravity from the measured acceleration and double-integrating the value starting from a known initial position.

次に、位置姿勢情報に基づきセンサ座標系からワールド座標系を基準とした3次元距離情報への変換(S15)及び3次元環境モデルの生成(S16)について述べる。アクティブセンサ12は移動しながら移動経路上の各地点で3次元距離情報を取得しており、各地点でのアクティブセンサ12の位置姿勢情報を用いて、センサ座標系からワールド座標系に変換する(S15)。ここでは、例えば部屋の中心や、移動のスタート地点を原点とすることができる。スタート地点を原点としたワールド座標系を共通座標系とし、各時刻tで取得した各3次元点を   Next, conversion from the sensor coordinate system to three-dimensional distance information based on the world coordinate system (S15) and generation of a three-dimensional environment model (S16) based on the position and orientation information will be described. The active sensor 12 acquires three-dimensional distance information at each point on the moving route while moving, and converts the sensor coordinate system to the world coordinate system using the position and orientation information of the active sensor 12 at each point ( S15). Here, for example, the center of the room or the start point of movement can be set as the origin. The world coordinate system with the start point as the origin is the common coordinate system, and each 3D point acquired at each time t is

Figure 2005252482
とする。ここで、Nは視点の数である。時刻tで得られた3軸回転角度をα,β,γとし、スタート地点に対する平行移動をT=(T,T,T?とする。すると、次の式のように、時刻tの3次元データを共通座標系に変換することができる。
Figure 2005252482
And Here, N is the number of viewpoints. The triaxial rotation angles obtained at time t are α t , β t , and γ t, and the parallel movement with respect to the start point is T = (T x , T y , T z ) ? Then, the three-dimensional data at time t can be converted into a common coordinate system as in the following equation.

Figure 2005252482
ここで、R(θ),R(θ),R(θ)はそれぞれX,Y,Z軸に対して角度θだけ回転したときの回転マトリクスである。
Figure 2005252482
Here, R x (θ), R y (θ), and R z (θ) are rotation matrices when rotated by an angle θ with respect to the X, Y, and Z axes, respectively.

この処理によれば、各地点で得られた3次元距離情報がスタート地点を原点(基準点)としたワールド座標系で統一されることになる。そして、ワールド座標系を基準としたデータに変換された、それらの各地点における3次元距離情報を統合することによって、通過した経路全体の3次元環境モデルを生成することができる(S16)。   According to this processing, the three-dimensional distance information obtained at each point is unified in the world coordinate system with the start point as the origin (reference point). Then, by integrating the three-dimensional distance information at each point converted to data based on the world coordinate system, a three-dimensional environment model of the entire route that has passed can be generated (S16).

上記実施形態によれば、第1の実施形態における効果(1)、(4)に加え、さらに以下のような効果を得ることができる。
(6)上記実施形態では、姿勢情報に加え、ジャイロセンサ15と加速度センサ14とを用いてアクティブセンサ12の位置情報を算出するため、アクティブセンサ12が移動した際に、その移動後の位置毎の3次元距離情報を得ることができる。
According to the said embodiment, in addition to the effect (1) and (4) in 1st Embodiment, the following effects can be acquired further.
(6) In the above embodiment, since the position information of the active sensor 12 is calculated using the gyro sensor 15 and the acceleration sensor 14 in addition to the posture information, when the active sensor 12 moves, each position after the movement is calculated. 3D distance information can be obtained.

(7)さらに、全方向画像から垂直エッジを検出する手法のみによって姿勢を推定する場合と比較して計算量が少なくてすむため、また上記効果(6)により、アクティブセンサ12を移動させながら実時間で通過経路の3次元環境モデルを構築することができる。   (7) Further, since the calculation amount is smaller than that in the case of estimating the posture only by the method of detecting the vertical edge from the omnidirectional image, and the above effect (6) allows the active sensor 12 to be moved while moving. It is possible to build a three-dimensional environment model of the passage route in time.

(8)さらに、3次元環境モデルを構築すれば、例えば遠隔地の会議に参加する場合には利用者により臨場感を持たせることができる。また、人が入り込めない危険地域等でロボットによる遠隔操作を行う際に、利用者はリアリティ性の高い環境の中で遠隔操作を行うことができる。   (8) Furthermore, if a three-dimensional environment model is constructed, for example, when participating in a remote conference, the user can have a sense of realism. Further, when performing a remote operation by a robot in a dangerous area where a person cannot enter, the user can perform the remote operation in a highly realistic environment.

なお、上記各実施形態は以下のような別の形態(別例)に変更してもよい。
・第1の実施形態では、加速度センサ14はなくてもよい。姿勢情報取得手段としてのジャイロセンサ15のみで、2次元画像を生成することができる。
In addition, you may change each said embodiment into the following other forms (another example).
In the first embodiment, the acceleration sensor 14 may not be provided. A two-dimensional image can be generated only by the gyro sensor 15 as posture information acquisition means.

・第2の実施形態では、加速度センサ14はなくてもよい。この場合も、ある地点での姿勢情報を得ることができるためその地点での3次元環境モデルを作成することができる。この場合、アクティブセンサ12を移動させつつワールド座標系における原点からのモデルを構築するのではなく、停止した状態でのアクティブセンサ12の一地点における3次元環境モデルを作成することができる。   In the second embodiment, the acceleration sensor 14 may not be provided. Also in this case, since posture information at a certain point can be obtained, a three-dimensional environment model at that point can be created. In this case, instead of constructing a model from the origin in the world coordinate system while moving the active sensor 12, it is possible to create a three-dimensional environment model at one point of the active sensor 12 in a stopped state.

・上記各実施形態では、加速度センサ14及びジャイロセンサ15を、アクティブセンサ12の内部略中心部に設けたが、この位置に何ら限定されるものではない。その他、例えばアクティブセンサ12のスタンド19(図3参照)や車体100(図2参照)に取り付けても同様に実施することができる。   In each of the above embodiments, the acceleration sensor 14 and the gyro sensor 15 are provided in the substantially central portion of the active sensor 12, but the position is not limited to this position. In addition, for example, the same can be implemented by attaching the active sensor 12 to the stand 19 (see FIG. 3) or the vehicle body 100 (see FIG. 2).

・上記各実施形態のアクティブセンサ12は、正20面体の立体の各面上にステレオユニット18が複数配置される構成としたが、その他正4面体、正6面体、正8面体、正12面体等で構成しても良い。これによれば、3次元空間の分割が均等となり、カメラを支持する複数の支持部材やそれに支持される各カメラの特性を揃えることができる。   In the above embodiments, the active sensor 12 has a configuration in which a plurality of stereo units 18 are arranged on each surface of a regular icosahedron, but other regular tetrahedrons, regular hexahedrons, regular octahedrons, and regular dodecahedrons. Or the like. According to this, the division of the three-dimensional space becomes uniform, and the characteristics of the plurality of support members that support the camera and the cameras that are supported by the support member can be made uniform.

・上記第1の実施形態と第2の実施形態を組み合わせた画像処理装置として実施することができる。
・上記各実施形態では、アクティブセンサ12の位置情報を取得する位置情報取得手段として加速度センサ14を用い、姿勢情報を取得する姿勢情報取得手段としてジャイロセンサ15を用いたが、これに代えて、磁気式、超音波式、赤外線式等の各種のセンサとすることができる。要は、位置情報と姿勢情報がそれぞれ検出可能なセンサであれば、適宜変更可能である。
-It can implement as an image processing apparatus which combined the said 1st Embodiment and 2nd Embodiment.
In each of the above embodiments, the acceleration sensor 14 is used as the position information acquisition unit that acquires the position information of the active sensor 12, and the gyro sensor 15 is used as the posture information acquisition unit that acquires the posture information. It can be set as various sensors, such as a magnetic type, an ultrasonic type, and an infrared type. In short, any sensor that can detect position information and posture information can be changed as appropriate.

本実施形態の画像処理装置のシステム構成を示す概略図。1 is a schematic diagram illustrating a system configuration of an image processing apparatus according to an embodiment. アクティブセンサの機械的構成の概略図。The schematic of the mechanical structure of an active sensor. アクティブセンサの全体外観図。The whole external view of an active sensor. アクティブセンサに設けられるジャイロセンサ及び加速度センサの取り付け態様を説明する図。The figure explaining the attachment aspect of the gyro sensor and acceleration sensor which are provided in an active sensor. 第1の実施形態に係る処理を示すフローチャート。The flowchart which shows the process which concerns on 1st Embodiment. 垂直エッジとアクティブセンサの傾きの関係を説明する図。The figure explaining the relationship between the vertical edge and the inclination of an active sensor. 2次元画像を円筒画像として復元した結果を示す図であり、(a)は補正なしの画像を示し、(b)は姿勢パラメータを用いて姿勢補正を行った後の画像を示す。It is a figure which shows the result of having decompress | restored the two-dimensional image as a cylindrical image, (a) shows the image without correction | amendment, (b) shows the image after performing attitude | position correction | amendment using an attitude | position parameter. 第2の実施形態に係る処理を示すフローチャート。The flowchart which shows the process which concerns on 2nd Embodiment.

符号の説明Explanation of symbols

11…画像処理装置(画像生成装置、3次元情報取得装置)、12…アクティブセンサ(画像撮影装置)、13…コンピュータ(同期手段、推定手段、2次元画像生成手段、3次元距離情報取得手段、3次元環境モデル生成手段)、14…加速度センサ(位置情報取得手段)、15…ジャイロセンサ(姿勢情報取得手段)、18…ステレオユニット。   DESCRIPTION OF SYMBOLS 11 ... Image processing apparatus (image generation apparatus, three-dimensional information acquisition apparatus), 12 ... Active sensor (image photographing apparatus), 13 ... Computer (synchronization means, estimation means, two-dimensional image generation means, three-dimensional distance information acquisition means, (3D environment model generation means), 14 (acceleration sensor (position information acquisition means)), 15 (gyro sensor (posture information acquisition means)), 18 (stereo unit).

Claims (8)

全方向の画像を取得する画像撮影装置と、
該画像撮影装置に設けられ、該画像撮影装置の姿勢情報を取得する姿勢情報取得手段と、
前記画像撮影装置により撮影された画像情報と前記姿勢情報取得手段により取得された姿勢情報とを時間的に同期させる同期手段と、
前記同期手段により姿勢情報と同期された画像情報を、前記姿勢情報に基づいて前記画像撮影装置が位置する環境の3次元ワールド座標系の所定の軸に対して傾きのない2次元画像として生成する2次元画像生成手段と
を有することを特徴とする画像生成装置。
An image capturing device for acquiring images in all directions;
Posture information acquisition means provided in the image photographing device for obtaining posture information of the image photographing device;
Synchronization means for temporally synchronizing the image information photographed by the image photographing device and the posture information obtained by the posture information obtaining means;
Image information synchronized with posture information by the synchronization means is generated as a two-dimensional image having no inclination with respect to a predetermined axis of a three-dimensional world coordinate system of the environment where the image capturing device is located based on the posture information. An image generation apparatus comprising: a two-dimensional image generation unit.
所定の前記軸は、鉛直方向の軸であることを特徴とする請求項1に記載の画像生成装置。 The image generating apparatus according to claim 1, wherein the predetermined axis is a vertical axis. 全方向のステレオ画像を取得する画像撮影装置と、
該画像撮影装置に設けられ、該画像撮影装置の姿勢情報を取得する姿勢情報取得手段と、
前記画像撮影装置により撮影された画像情報と前記姿勢情報取得手段により取得された姿勢情報とを時間的に同期させる同期手段と、
前記同期手段により姿勢情報と同期された画像情報から3次元距離情報を取得する3次元距離情報取得手段と、
該3次元距離情報を、前記姿勢情報に基づいて前記画像撮影装置が位置する環境の3次元ワールド座標系を基準とした3次元距離情報に変換する変換手段と
を有することを特徴とする3次元距離情報取得装置。
An image capturing device that acquires stereo images in all directions;
Posture information acquisition means provided in the image photographing device for obtaining posture information of the image photographing device;
Synchronization means for temporally synchronizing the image information photographed by the image photographing device and the posture information obtained by the posture information obtaining means;
3D distance information acquisition means for acquiring 3D distance information from image information synchronized with posture information by the synchronization means;
Conversion means for converting the three-dimensional distance information into three-dimensional distance information based on the three-dimensional world coordinate system of the environment in which the image capturing device is located based on the posture information. Distance information acquisition device.
前記姿勢情報取得手段は、ジャイロセンサを有することを特徴とする請求項3に記載の3次元距離情報取得装置。 The three-dimensional distance information acquisition apparatus according to claim 3, wherein the posture information acquisition unit includes a gyro sensor. 前記3次元距離情報取得装置は、前記変換手段により変換された3次元距離情報から3次元環境モデルを生成する3次元環境モデル生成手段
をさらに有することを特徴とする請求項3又は請求項4に記載の3次元距離情報取得装置。
The three-dimensional distance information acquisition device further includes three-dimensional environment model generation means for generating a three-dimensional environment model from the three-dimensional distance information converted by the conversion means. The three-dimensional distance information acquisition device described.
前記3次元距離情報取得装置は、前記画像撮影装置に設けられ該画像撮影装置の位置情報を取得する位置情報取得手段を有し、
前記同期手段は、前記画像情報と前記位置情報とを同期させることを特徴とする請求項3乃至請求項5のいずれか1項に記載の3次元距離情報取得装置。
The three-dimensional distance information acquisition device includes a position information acquisition unit that is provided in the image shooting device and acquires position information of the image shooting device;
The three-dimensional distance information acquisition apparatus according to claim 3, wherein the synchronization unit synchronizes the image information and the position information.
前記位置情報取得手段は、加速度センサを有することを特徴とする請求項6に記載の3次元距離情報取得装置。 The three-dimensional distance information acquisition apparatus according to claim 6, wherein the position information acquisition unit includes an acceleration sensor. 前記3次元距離情報取得装置は、前記画像撮影装置により得られた画像のエッジとその方向とに基づいて前記画像撮影装置が位置するワールド座標系に対する該画像撮影装置の傾きを推定する推定手段
をさらに有し、前記姿勢情報に基づいて該推定手段により前記画像撮影装置の姿勢を推定することを特徴とする請求項3乃至請求項7のいずれか1項に記載の3次元距離情報取得装置。
The three-dimensional distance information acquisition device includes an estimation unit that estimates an inclination of the image photographing device with respect to a world coordinate system where the image photographing device is located based on an edge of the image obtained by the image photographing device and its direction. 8. The three-dimensional distance information acquisition device according to claim 3, further comprising: estimating the posture of the image capturing device by the estimating unit based on the posture information. 9.
JP2004057980A 2004-03-02 2004-03-02 Image generating apparatus and three-dimensional distance information acquisition apparatus Pending JP2005252482A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004057980A JP2005252482A (en) 2004-03-02 2004-03-02 Image generating apparatus and three-dimensional distance information acquisition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004057980A JP2005252482A (en) 2004-03-02 2004-03-02 Image generating apparatus and three-dimensional distance information acquisition apparatus

Publications (1)

Publication Number Publication Date
JP2005252482A true JP2005252482A (en) 2005-09-15

Family

ID=35032579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004057980A Pending JP2005252482A (en) 2004-03-02 2004-03-02 Image generating apparatus and three-dimensional distance information acquisition apparatus

Country Status (1)

Country Link
JP (1) JP2005252482A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013007722A (en) * 2011-06-27 2013-01-10 Toshiba Corp Three-dimensional measuring device and method for the same
JP2014092922A (en) * 2012-11-02 2014-05-19 Tottori Univ Detector, detection method, and detection program
JP2016070884A (en) * 2014-10-01 2016-05-09 日本電信電話株式会社 Video data processing method, video data processing device and video data processing program
JP2017072560A (en) * 2015-10-09 2017-04-13 ソニー株式会社 Information processing apparatus, position and/or attitude estimation method, and computer program
CN108008387A (en) * 2017-11-23 2018-05-08 内蒙古工业大学 Three-D imaging method is regarded under a kind of airborne array antenna
JP2020036350A (en) * 2019-10-31 2020-03-05 株式会社リコー Image display system, image display device, image display method, and program
JP2020043575A (en) * 2019-10-31 2020-03-19 株式会社リコー Imaging apparatus, imaging method and program
JP7445027B2 (en) 2019-02-07 2024-03-06 マクセル株式会社 Composite imaging and ranging device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013007722A (en) * 2011-06-27 2013-01-10 Toshiba Corp Three-dimensional measuring device and method for the same
JP2014092922A (en) * 2012-11-02 2014-05-19 Tottori Univ Detector, detection method, and detection program
JP2016070884A (en) * 2014-10-01 2016-05-09 日本電信電話株式会社 Video data processing method, video data processing device and video data processing program
CN108139204A (en) * 2015-10-09 2018-06-08 索尼株式会社 The method of estimation and computer program of information processing unit, position and/or posture
WO2017061388A1 (en) * 2015-10-09 2017-04-13 ソニー株式会社 Information processing device, position and/or orientation estimating method, and computer program
JP2017072560A (en) * 2015-10-09 2017-04-13 ソニー株式会社 Information processing apparatus, position and/or attitude estimation method, and computer program
US10507381B2 (en) 2015-10-09 2019-12-17 Sony Corporation Information processing device, position and/or attitude estimiating method, and computer program
CN108139204B (en) * 2015-10-09 2020-11-03 索尼株式会社 Information processing apparatus, method for estimating position and/or orientation, and recording medium
CN108008387A (en) * 2017-11-23 2018-05-08 内蒙古工业大学 Three-D imaging method is regarded under a kind of airborne array antenna
CN108008387B (en) * 2017-11-23 2021-08-13 内蒙古工业大学 Downward-looking three-dimensional imaging method for airborne array antenna
JP7445027B2 (en) 2019-02-07 2024-03-06 マクセル株式会社 Composite imaging and ranging device
JP2020036350A (en) * 2019-10-31 2020-03-05 株式会社リコー Image display system, image display device, image display method, and program
JP2020043575A (en) * 2019-10-31 2020-03-19 株式会社リコー Imaging apparatus, imaging method and program

Similar Documents

Publication Publication Date Title
JP6483075B2 (en) Method of 3D panoramic mosaicing of scenes
US20190012804A1 (en) Methods and apparatuses for panoramic image processing
Burschka et al. V-GPS (SLAM): Vision-based inertial system for mobile robots
JP5027747B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
Clipp et al. Robust 6dof motion estimation for non-overlapping, multi-camera systems
KR20180067908A (en) Apparatus for restoring 3d-model and method for using the same
JP2014529727A (en) Automatic scene calibration
JP5070435B1 (en) Three-dimensional relative coordinate measuring apparatus and method
JP6291519B2 (en) Method of assigning actual dimensions to 3D point cloud data and position measurement of pipes etc. using it
KR101342393B1 (en) Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera
JP2006059202A (en) Imaging device and image correction method
Munkelt et al. Handheld 3D scanning with automatic multi-view registration based on optical and inertial pose estimation
JP2006234703A (en) Image processing device, three-dimensional measuring device, and program for image processing device
Núnez et al. Data Fusion Calibration for a 3D Laser Range Finder and a Camera using Inertial Data.
JP2018155664A (en) Imaging system, imaging control method, image processing device, and image processing program
JP2005252482A (en) Image generating apparatus and three-dimensional distance information acquisition apparatus
JP4227037B2 (en) Imaging system and calibration method
JP2007025863A (en) Photographing system, photographing method, and image processing program
JP2005275789A (en) Three-dimensional structure extraction method
Yagi et al. Environmental map generation and egomotion estimation in a dynamic environment for an omnidirectional image sensor
JP2019032660A (en) Imaging system and imaging method
Castanheiro et al. Modeling Hyperhemispherical Points and Calibrating a Dual-Fish-Eye System for Close-Range Applications
Aliakbarpour et al. Geometric exploration of virtual planes in a fusion-based 3D data registration framework
JP5409451B2 (en) 3D change detector
JP2005063012A (en) Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded