JP2005244861A - Imaging apparatus and imaging system parameter correction method - Google Patents
Imaging apparatus and imaging system parameter correction method Download PDFInfo
- Publication number
- JP2005244861A JP2005244861A JP2004055026A JP2004055026A JP2005244861A JP 2005244861 A JP2005244861 A JP 2005244861A JP 2004055026 A JP2004055026 A JP 2004055026A JP 2004055026 A JP2004055026 A JP 2004055026A JP 2005244861 A JP2005244861 A JP 2005244861A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- unit
- vanishing point
- focal length
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 216
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000003287 optical effect Effects 0.000 claims abstract description 44
- 239000011159 matrix material Substances 0.000 claims description 40
- 238000006243 chemical reaction Methods 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 16
- 230000009466 transformation Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 4
- 235000019557 luminance Nutrition 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Studio Circuits (AREA)
- Studio Devices (AREA)
- Image Input (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、全天周球面画像を取得するための撮像装置及びその撮像系パラメータの校正方法に関するものである。 The present invention relates to an imaging apparatus for acquiring an all-round spherical image and a method for calibrating imaging system parameters thereof.
360度の全天周画像を撮像する手法として、例えば、特許文献1に記載の撮像装置を用いた方法がある。特許文献1に記載の撮像装置は、魚眼レンズの光軸を中心とした全視野方向に、その光軸を基準として少なくとも各方向90度の画角を有する魚眼レンズを有する。特許文献1に記載の手法では、空間を1つの球体と考えた際に、その中心に上記撮像装置を配置し、まず、球体のうちの一方向の半球体の画像を取得する。次に、撮像装置を180度回転させて反対方向の半球体の画像を取得する。そして、それぞれの画像を結合して全天周の画像を形成する。
しかしながら、特許文献1に記載の撮像装置を用いた手法では、撮像装置を回転させることによって半球体ごとに異なる時刻に撮影した画像を合成している。そのため、同一時刻における全天周の画像を得ることができない。
However, in the technique using the imaging device described in
そこで、本発明の目的は、同一時刻における全天周の球面画像を得ることができる撮像装置及びその撮像装置における撮像系パラメータの校正方法を提供することである。 SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging apparatus that can obtain a spherical image of the entire sky at the same time and a calibration method for imaging system parameters in the imaging apparatus.
上記課題を解決するために、本発明に係る撮像装置は、外光が入射する面が互いに反対側に位置するように配置されており、画角が180度以上の一対の魚眼レンズと、一対の魚眼レンズの間に配置され、各魚眼レンズを通った外光の光路を変更して、それらの外光を同じ側に伝搬させる光路変更素子と、光路変更素子によって光路が変更された外光に基づいて形成される各被写体像を共に撮像できる撮像手段とを備え、上記一対の魚眼レンズの一方と前記光路変更素子と前記撮像手段とを含んで第1の撮像部が構成されており、上記一対の魚眼レンズの他方と前記光路変更素子と前記撮像手段とを含んで第2の撮像部が構成されていることを特徴とする。 In order to solve the above problems, an imaging apparatus according to the present invention is arranged such that surfaces on which external light is incident are located on opposite sides, a pair of fisheye lenses having an angle of view of 180 degrees or more, and a pair of An optical path changing element that is arranged between the fisheye lenses, changes the optical path of the external light passing through each fisheye lens, and propagates the external light to the same side, and the external light whose optical path is changed by the optical path changing element An imaging unit that can capture each of the formed subject images, and includes a first imaging unit including one of the pair of fisheye lenses, the optical path changing element, and the imaging unit, and the pair of fisheye lenses. The second image pickup unit is configured to include the other, the optical path changing element, and the image pickup means.
上記撮像装置では、第1及び第2の撮像部が有する各魚眼レンズによって撮像装置の周りに位置する被写体からの外光が装置内に取り込まれる。各魚眼レンズを通って撮像装置内に取り込まれた外光は、光路変更素子によって撮像手段側に伝搬するように光路が変更される。そして、それらの外光により形成される各被写体像が共に撮像手段によって撮像される。 In the imaging apparatus, external light from a subject located around the imaging apparatus is taken into the apparatus by each fisheye lens included in the first and second imaging units. The optical path of the external light taken into the imaging device through each fisheye lens is changed by the optical path changing element so as to propagate to the imaging means side. Then, both subject images formed by the external light are imaged by the imaging means.
上記撮像装置は、画角が180度以上の一対の魚眼レンズを用いており、それらが上記のように配置されている。そのため、一方の魚眼レンズによって、撮像装置の周囲360度のうちほぼ半分の領域に位置する被写体からの外光が取り込まれ、他方の魚眼レンズから残りのほぼ半分の領域に位置する被写体からの外光が取り込まれる。したがって、第1及び第2の撮像部で共に撮像される各被写体像は、2つ合わせて撮像装置の周囲360度にわたる画像情報を有している。そのため、それらの被写体像を用いることによって全天周の球面画像を形成することが可能である。上記撮像装置では、魚眼レンズを動かさずに各被写体像を共に上述した撮像手段で撮像しているため、同一時刻における全天周の球面画像を得ることができる。 The imaging apparatus uses a pair of fisheye lenses having an angle of view of 180 degrees or more, and they are arranged as described above. Therefore, one fisheye lens captures external light from a subject located in approximately half of the 360 degrees around the imaging device, and external light from the subject located in the other half of the region from the other fisheye lens. It is captured. Accordingly, each of the subject images captured together by the first and second imaging units has image information covering 360 degrees around the imaging device. Therefore, it is possible to form a spherical image of the whole sky by using those subject images. In the imaging apparatus, since the subject images are captured by the above-described imaging means without moving the fisheye lens, a spherical image of the entire sky at the same time can be obtained.
また、本発明に係る撮像装置における上記撮像手段は、1つの撮像素子から構成されていることが好ましい。この場合、第1及び第2の撮像部が有する魚眼レンズによる被写体像を同時に撮像することができる。 Moreover, it is preferable that the said imaging means in the imaging device which concerns on this invention is comprised from one imaging element. In this case, it is possible to simultaneously capture a subject image using a fisheye lens included in the first and second imaging units.
更に、本発明に係る撮像装置における上記光路変更素子は、各魚眼レンズ側に反射面を有する反射鏡であることが好適である。この場合、反射鏡の各魚眼レンズ側の反射面によって各魚眼レンズからの外光を反射することができる。 Furthermore, the optical path changing element in the imaging apparatus according to the present invention is preferably a reflecting mirror having a reflecting surface on each fisheye lens side. In this case, the external light from each fisheye lens can be reflected by the reflecting surface on the fisheye lens side of the reflector.
更にまた、本発明に係る撮像装置においては、上記撮像手段により撮像された各被写体像から、系外の全天周にわたる画像情報を球体の表面に有する球面画像を形成する画像形成手段を備えることが好適である。この画像形成手段によって、上記球面画像を得ることができる。 Furthermore, the imaging apparatus according to the present invention includes image forming means for forming a spherical image having image information on the entire sphere outside the system from each subject image captured by the imaging means. Is preferred. The spherical image can be obtained by this image forming means.
また、本発明に係る撮像装置における上記画像形成手段は、撮像手段によって撮像された各被写体像を、第1及び第2の撮像部が有する魚眼レンズの像面の画像中心及びその魚眼レンズの焦点距離に基づいて、被写体像の画像情報を半球体の表面に有する半球面画像に変換する画像変換部と、画像変換部において得られた各半球面画像を、第1及び第2の撮像部の相対姿勢情報及び各魚眼レンズの像面の画像中心に基づいて結合することによって上記球面画像を形成する画像形成部とを備えることが好適である。 In the imaging apparatus according to the present invention, the image forming unit converts each subject image captured by the imaging unit into the image center of the image plane of the fisheye lens included in the first and second imaging units and the focal length of the fisheye lens. Based on the image conversion unit that converts the image information of the subject image into a hemispherical image on the surface of the hemisphere, and the respective hemispherical images obtained in the image conversion unit are converted into relative orientations of the first and second imaging units. It is preferable to include an image forming unit that forms the spherical image by combining information and the image center of the image plane of each fisheye lens.
上述したように第1及び第2の撮像部で共に取得された各被写体像の画像情報は、系外(撮像装置外)の全天周のほぼ半分毎の画像情報に相当する。したがって、画像変換部で得られる各半球面画像は、上記全天周におけるほぼ半分毎の画像情報を有している。そのため、画像形成部で半球面画像を結合することによって、上述した球面画像を得ることが可能である。 As described above, the image information of each subject image acquired together by the first and second imaging units corresponds to image information for almost half of the entire sky outside the system (outside the imaging device). Therefore, each hemispherical image obtained by the image conversion unit has image information about every half of the whole sky. Therefore, it is possible to obtain the above-described spherical image by combining the hemispherical images in the image forming unit.
更に、本発明に係る撮像装置における上記画像形成手段は、(1)撮像手段で撮像される各被写体像について、異なる方向に延びる2組の平行線群の、被写体像における2組の消失点対を算出する消失点算出部と、(2)第1及び第2の撮像部が有する魚眼レンズに対して、魚眼レンズの像面の画像中心を、消失点算出部において算出された2組の消失点対に基づいて算出する画像中心算出部と、(3)第1及び第2の撮像部が有する魚眼レンズに対して、その魚眼レンズの焦点距離を、消失点算出部において算出された2組の消失点対の少なくとも一方の消失点対間の距離に基づいて算出する焦点距離算出部と、(4)画像中心算出部及び焦点距離算出部で算出された画像中心及び焦点距離に基づいて被写体像から変換される半球面画像に含まれており物体空間における水平線に略平行な直線群の第1消失点及び前記直線群に略直交する直線群の第2消失点に基づいて、第1及び第2の撮像部の相対姿勢情報を取得する姿勢情報取得部と、(5)相対姿勢情報を取得するための各半球面画像に含まれており各魚眼レンズの視野の重複領域に対応する領域における画像の相関に基づいて、焦点距離算出部で算出された焦点距離及び姿勢情報取得部で取得された相対姿勢情報を校正する校正部とを備え、(6)画像変換部は、第1及び第2の撮像部で撮像された被写体像に対して、画像中心算出部によって算出された画像中心及び校正部によって校正された焦点距離に基づいて被写体像を半球面画像に変換し、(7)画像形成部は、画像変換部で得られた各半球面画像を、画像中心算出部によって算出された画像中心及び校正部で校正された相対姿勢情報に基づいて結合して上記球面画像を形成することが好適である。 Further, the image forming means in the image pickup apparatus according to the present invention includes (1) two sets of vanishing point pairs in a subject image of two sets of parallel lines extending in different directions for each subject image picked up by the image pickup means. And (2) two sets of vanishing point pairs calculated by the vanishing point calculating unit with respect to the image center of the image plane of the fisheye lens with respect to the fisheye lens of the first and second imaging units. And (3) two sets of vanishing point pairs calculated by the vanishing point calculating unit for the focal length of the fisheye lens with respect to the fisheye lens included in the first and second imaging units. A focal length calculation unit that calculates based on the distance between at least one of the vanishing point pairs, and (4) an object image that is converted based on the image center and focal length calculated by the image center calculation unit and the focal length calculation unit. Hemispherical image Relative posture information of the first and second imaging units is obtained based on the first vanishing point of the straight line group that is rare and parallel to the horizontal line in the object space, and the second vanishing point of the straight line group that is substantially orthogonal to the straight line group. And (5) focal length calculation based on the correlation of images in the area corresponding to the overlapping area of the field of view of each fisheye lens included in each hemispherical image for acquiring relative attitude information. A calibration unit that calibrates the relative orientation information acquired by the focal length and orientation information acquisition unit calculated by the unit, and (6) the image conversion unit is a subject image captured by the first and second imaging units. On the other hand, the subject image is converted into a hemispherical image based on the image center calculated by the image center calculation unit and the focal length calibrated by the calibration unit, and (7) the image forming unit is obtained by the image conversion unit. Each hemispherical image It is preferable to form the spherical image combined with on the basis of the calibrated relative orientation information in the image center and the calibration unit calculated by the section.
この場合、物体空間における上記2組の平行線群の、被写体像における2組の消失点対が消失点算出部によって算出され、この2組の消失点対に基づいて、各魚眼レンズの像面の画像中心が画像中心算出部によって求められる。これにより、各魚眼レンズの像面の画像中心が校正される。 In this case, two pairs of vanishing points in the subject image of the two sets of parallel lines in the object space are calculated by the vanishing point calculation unit, and based on the two pairs of vanishing points, the image plane of each fisheye lens is calculated. The image center is obtained by the image center calculation unit. Thereby, the image center of the image plane of each fisheye lens is calibrated.
更に、焦点距離算出部によって、上記2組の消失点対の少なくとも一方の消失点対間の距離に基づいて各魚眼レンズの焦点距離が求められる。また、上述のように算出された画像中心及び焦点距離を用いて被写体像から変換される半球面画像内の上記第1消失点及び第2消失点を利用して、第1及び第2の撮像部の相対姿勢情報が、姿勢情報取得部で取得される。その相対姿勢情報及び焦点距離が更に校正部によって校正される。このため、上記焦点距離及び相対姿勢情報はより正確な値になっている。 Further, the focal length calculation unit determines the focal length of each fisheye lens based on the distance between at least one of the two vanishing point pairs. Further, the first and second imaging are performed using the first vanishing point and the second vanishing point in the hemispherical image converted from the subject image using the image center and the focal length calculated as described above. The relative posture information of the part is acquired by the posture information acquisition unit. The relative attitude information and focal length are further calibrated by the calibration unit. For this reason, the focal length and the relative posture information are more accurate values.
そして、画像変換部において、上記画像中心算出部で算出された画像中心、及び、校正部で構成された焦点距離を用いて、被写体像が半球面画像に変換される。更に、その半球面画像が、校正部で校正された相対姿勢情報及び上記画像中心を利用して球面画像に結合される。上記のように、校正された画像中心及び焦点距離に基づいて得られた2つの半球面画像を、その画像中心及び相対姿勢情報に基づいて結合しているため、その結合領域での画像のずれが低減される。 Then, the image conversion unit converts the subject image into a hemispherical image using the image center calculated by the image center calculation unit and the focal length formed by the calibration unit. Further, the hemispherical image is combined with the spherical image using the relative posture information calibrated by the calibrating unit and the image center. As described above, since the two hemispherical images obtained based on the calibrated image center and focal length are combined based on the image center and relative posture information, the image shift in the combined region Is reduced.
また、本発明に係る撮像系パラメータ校正方法は、(1)上述した一対の魚眼レンズと光路変更素子と撮像手段と、を備える撮像装置が有しており、上記一対の魚眼レンズの一方と前記光路変更素子と前記撮像手段とを含んで構成される第1の撮像部及び上記一対の魚眼レンズの他方と前記光路変更素子と前記撮像手段とを含んで構成される第2の撮像部それぞれによって撮像される被写体像に対して、異なる方向に延びている2組の平行線群の、被写体像における2組の消失点対を、算出する消失点算出工程と、(2)第1及び第2の撮像部が有する魚眼レンズに対して、魚眼レンズの像面の画像中心を、消失点算出工程で算出された2組の消失点対に基づいて算出する画像中心算出工程と、(3)第1及び第2の撮像部が有する魚眼レンズに対して、魚眼レンズの焦点距離を、消失点算出工程で算出された2組の消失点対の少なくとも一方の消失点対間の距離に基づいて算出する焦点距離算出工程と、(4)撮像手段によって撮像された各被写体像を、画像中心算出工程及び焦点距離算出工程で算出された画像中心及び焦点距離に基づいて、被写体像の画像情報を半球体の表面に有する半球面画像に変換する画像変換工程と、(5)画像変換工程において得られた各半球面画像に含まれており物体空間における水平線に略平行な直線群の第1消失点及び前記直線群に略直交する直線群の第2消失点に基づいて、第1及び第2の撮像部の相対姿勢情報を取得する姿勢情報取得工程と、(6)相対姿勢情報を取得するための各半球面画像に含まれており各魚眼レンズの視野の重複領域に対応する領域における画像の相関に基づいて焦点距離算出工程で算出された焦点距離及び姿勢情報取得工程で取得された相対姿勢情報を校正する校正工程とを備えることを特徴とする。 The imaging system parameter calibration method according to the present invention includes (1) an imaging apparatus including the above-described pair of fish-eye lenses, an optical path changing element, and imaging means, and one of the pair of fish-eye lenses and the optical path changing. Images are taken by a first imaging unit including an element and the imaging unit, and a second imaging unit including the other of the pair of fisheye lenses, the optical path changing element, and the imaging unit. A vanishing point calculating step of calculating two vanishing point pairs in the subject image of two sets of parallel lines extending in different directions with respect to the subject image; and (2) first and second imaging units. An image center calculation step of calculating the image center of the image plane of the fisheye lens based on the two pairs of vanishing points calculated in the vanishing point calculation step, and (3) first and second Fisheye lens in the imaging unit On the other hand, a focal length calculation step for calculating a focal length of the fisheye lens based on a distance between at least one vanishing point pair of the two vanishing point pairs calculated in the vanishing point calculation step; An image for converting each subject image captured by the image information into a hemispherical image having the image information of the subject image on the surface of the hemisphere based on the image center and the focal length calculated in the image center calculating step and the focal length calculating step. A conversion step; and (5) a first vanishing point of a straight line group that is included in each hemispherical image obtained in the image conversion step and is substantially parallel to a horizontal line in the object space, and a first straight line group that is substantially orthogonal to the straight line group. (2) a posture information acquisition step for acquiring relative posture information of the first and second imaging units based on two vanishing points; and (6) each fisheye lens included in each hemispherical image for acquiring the relative posture information. Overlapping fields of view Characterized in that it comprises a calibration step of calibrating the relative position information acquired by the focal length and orientation obtaining step calculated by the focal length calculating step based on a correlation of the image in the corresponding region.
この撮像系パラメータ校正方法では、消失点算出工程において算出される2組の消失点対に基づいて各魚眼レンズの像面の画像中心が算出される。また、上記2組の消失点の少なくとも一方を用いて各魚眼レンズの焦点距離が算出される。 In this imaging system parameter calibration method, the image center of the image plane of each fisheye lens is calculated based on the two pairs of vanishing points calculated in the vanishing point calculation step. Further, the focal length of each fisheye lens is calculated using at least one of the two sets of vanishing points.
次に、このようにして算出された各魚眼レンズの像面の画像中心と各魚眼レンズの焦点距離とに基づいて、第1及び第2の撮像部によって共に撮像された被写体像それぞれを半球面画像に変換する。魚眼レンズが画角180度以上を有しているので、半球面画像それぞれには上述した第1消失点及び第2消失点が現れている。上記姿勢情報取得工程では、この第1消失点及び第2消失点を利用して第1の撮像部と第2の撮像部の相対姿勢情報を取得する。 Next, based on the image center of the image plane of each fisheye lens calculated in this way and the focal length of each fisheye lens, each of the subject images imaged together by the first and second imaging units is converted into a hemispherical image. Convert. Since the fisheye lens has an angle of view of 180 degrees or more, the first vanishing point and the second vanishing point described above appear in each hemispherical image. In the posture information acquisition step, relative posture information of the first imaging unit and the second imaging unit is acquired using the first vanishing point and the second vanishing point.
また、魚眼レンズの画角が180度以上であるため、各魚眼レンズの視野に重複領域がある。その重複領域に相当する各半球面画像内の領域の画像特性はほぼ一致するため、その領域における画像の相関を取ることによって、焦点距離算出工程で算出された焦点距離、及び、姿勢情報取得工程で取得された相対姿勢情報を更に校正する。なお、画像の相関は、例えば、輝度情報が一致するようにすれば良い。
Further, since the angle of view of the fisheye lens is 180 degrees or more, there is an overlapping region in the field of view of each fisheye lens. Since the image characteristics of the regions in the respective hemispherical images corresponding to the overlapping regions substantially match, the focal length calculated in the focal length calculation step and the posture information acquisition step are obtained by taking the correlation of the images in that region. The relative posture information acquired in
上記校正方法では、画像中心は、2組の平行線群の、被写体像における2組の消失点対に基づいて算出されることによって校正されている。そして、焦点距離算出工程及び姿勢情報取得工程で得られた焦点距離及び相対姿勢情報は、校正工程で更に校正される。したがって、上記校正方法によって、撮像装置の撮像系パラメータである画像中心、焦点距離及び相対姿勢情報はより正確になる。 In the above calibration method, the image center is calibrated by calculating based on two pairs of vanishing points in the subject image of the two sets of parallel lines. Then, the focal length and the relative posture information obtained in the focal length calculation step and the posture information acquisition step are further calibrated in the calibration step. Therefore, the above-described calibration method makes the image center, focal length, and relative posture information, which are imaging system parameters of the imaging apparatus, more accurate.
そのため、上述のように、全天周球面画像を、第1及び第2の撮像部で撮像された各被写体像の画像情報を有する各半球面画像を結合して形成する場合、その結合部における画像のずれを低減できる。 Therefore, as described above, when the spherical image is formed by combining each hemispherical image having image information of each subject image captured by the first and second imaging units, Image shift can be reduced.
更に、本発明に係る撮像系パラメータ校正方法における姿勢情報取得工程は、基準座標系における第1消失点の位置ベクトル及び第2消失点の位置ベクトルから第1の撮像部の座標系における第1消失点の位置ベクトル及び第2消失点の位置ベクトルに変換する第1の変換行列を算出する第1の行列算出工程と、基準座標系における第1消失点の位置ベクトル及び第2消失点の位置ベクトルから第2の撮像部の座標系における第1消失点の位置ベクトル及び第2消失点の位置ベクトルに変換する第2の変換行列を算出する第2の行列算出工程と、第1及び第2の変換行列に基づいて第1の撮像部の座標系から第2の撮像部の座標系に変換する第3の変換行列を算出する第3の行列算出工程とを備えることが好適である。 Further, the posture information acquisition step in the imaging system parameter calibration method according to the present invention includes the first erasure in the coordinate system of the first imaging unit from the position vector of the first vanishing point and the position vector of the second vanishing point in the reference coordinate system. A first matrix calculation step of calculating a first transformation matrix to be converted into a point position vector and a second vanishing point position vector, and a first vanishing point position vector and a second vanishing point position vector in the reference coordinate system; A second matrix calculating step of calculating a second transformation matrix to be converted into a position vector of the first vanishing point and a position vector of the second vanishing point in the coordinate system of the second imaging unit, and the first and second It is preferable to include a third matrix calculating step of calculating a third conversion matrix for converting from the coordinate system of the first imaging unit to the coordinate system of the second imaging unit based on the conversion matrix.
これにより、各半球面画像の第1消失点及び第2消失点に基づいて、第1の撮像部の座標系から第2の撮像部の座標系に変換する第3の変換行列を算出することができる。この第3の変換行列は、第1の撮像部と第2の撮像部との相対姿勢情報に相当する。 Thereby, based on the first vanishing point and the second vanishing point of each hemispherical image, calculating a third conversion matrix for converting from the coordinate system of the first imaging unit to the coordinate system of the second imaging unit. Can do. This third transformation matrix corresponds to relative posture information between the first imaging unit and the second imaging unit.
本発明によれば、同一時刻における全天周の球面画像を得ることができる撮像装置及びその撮像装置における撮像系パラメータの校正方法を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the imaging device which can obtain the spherical image of the whole sky at the same time, and the calibration method of the imaging system parameter in the imaging device can be provided.
以下、図を参照して本発明の好適な実施形態について説明する。尚、以下の説明においては、同一の要素には同一の符号を用いることとし重複する説明は省略する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following description, the same reference numerals are used for the same elements, and redundant descriptions are omitted.
まず、本実施形態の撮像装置で得るべき球面画像について説明する。本実施形態において球面画像とは、系外の全天周(周囲360度)に位置する各被写体の画像情報が球体の表面に投影されたものである。図1を参照してより具体的に説明する。 First, a spherical image to be obtained with the imaging apparatus of the present embodiment will be described. In the present embodiment, a spherical image is a projection of image information of each subject located on the entire sky outside the system (around 360 degrees) on the surface of a sphere. A more specific description will be given with reference to FIG.
図1は、球面画像を説明する図である。図1に示すように、空間上に単位半径の球体1を考え、その中心Oを原点として互いに直交するX軸、Y軸、Z軸を設定する。空間上の任意の点Pi(iは任意の整数)と球の中心Oとを結ぶ球体の表面2上の点をpiとする。点piと原点Oとを結ぶ直線のZ軸からの仰角をθiとし、X軸からの方位角をφiとすると、点piの位置ベクトルは、次のように表される。
本実施形態の撮像装置は、このような球面画像を一度の撮影によって得ることができることを特徴とする。 The imaging apparatus of the present embodiment is characterized in that such a spherical image can be obtained by one shooting.
図2及び図3を参照して本実施形態の撮像装置3について説明する。図2は、本実施形態の撮像装置3の構成を示す模式図である。撮像装置3は、一対の魚眼レンズ10l,10rと、直角ミラー(光路変更素子)20と、撮像素子(撮像手段)30と、画像形成手段40とを含んで構成される。
The
魚眼レンズ10l,10rは、画角wが185度であって、外光が入射する面11l,11rが互いに反対側に位置するように配置されている。本実施形態において、魚眼レンズ10l,10rとは、必ずしも1つのレンズを意味するものではなく、画角wが180度以上になるように設計され魚眼レンズ特性を有するレンズ系をも含んでいる意味である。図2の魚眼レンズ10l,10rは、全天周のほぼ半分の領域に位置する被写体を像面に投影する。言い換えれば、図1の球体1の半球体の表面上の画像情報を像面に投影する。魚眼レンズ10l,10rの射影方式は、等距離射影方式ある。
The fish-
直角ミラー20は、一対の魚眼レンズ10l,10rの間であって各魚眼レンズ10l,10rの光軸上に配置されている。直角ミラー20は、各魚眼レンズ10l,10r側それぞれに反射面21l,21rを有しており、反射面21l,21rは互いに直交している。直角ミラー20は、各魚眼レンズ10l,10rからほぼ等距離に配置されている。魚眼レンズ10l,10rから入射した被写体からの外光それぞれは、その光路が反射面21l,21rによって略直角に曲げられて撮像素子30側に伝搬するようになっている。すなわち、直角ミラー20は、一対の魚眼レンズ10l,10rの間に配置され、各魚眼レンズ10l,10rを通った外光の光路を変更して、それらの外光を同じ側に伝搬させる反射鏡であって光路変更素子として機能している。
The
撮像素子30は、その撮像素子30が有しており複数の画素からなる受光面31が、各魚眼レンズ10l,10rの直角ミラー20を介した結像面(以下、単に「像面」ともいう)に位置するように配置されている。撮像素子30は、例えば、複数の画素が平面上に配置されたCCD(Charge Coupled Device)である。
The
図2(b)は、撮像素子30の受光面31の平面図である。受光面31は、互いに隣接した第1及び第2の受光領域31l,31rを有している。図2(b)中、二点鎖線は仮想的な線であって、受光面31は1つである(すなわち、撮像素子30は1つである)。第1の受光領域31lに魚眼レンズ10lによる被写体像50lが結像され、第2の受光領域31rに魚眼レンズ10rによる被写体像50rが結像される。撮像素子30は、魚眼レンズ10l,10rに入射した被写体からの外光によって形成される被写体像50l,50rを同時に取得する。
FIG. 2B is a plan view of the
上記構成では、撮像装置3は、魚眼レンズ10lと直角ミラー20と撮像素子30とを含んで構成される第1の撮像部60lを有している。また、撮像装置3は、魚眼レンズ10rと直角ミラー20と撮像素子30とを含んで構成される第2の撮像部60rを有している。
In the above configuration, the
図2(a)を参照すると、撮像素子30上に結像され取得された各被写体像50l,50rは、受光面31を構成する画素ごとに電気信号に変換されて画像形成手段40に入力される。
Referring to FIG. 2A, the
図3は、画像形成手段40のブロック図である。画像形成手段40は、CPUなどを備えたいわゆるコンピュータであり、撮像素子30で取得された一対の被写体像50l,50rから球面画像を形成する。画像形成手段40は、パラメータ格納部41と、画像変換部42と、画像形成部43とを含んでいる。パラメータ格納部41は、撮像装置3の撮像系パラメータである魚眼レンズ10l,10rの像面の画像中心OIl,OIrの位置座標、魚眼レンズ10l,10rの焦点距離fl,fr、及び、第1及び第2の撮像部60l,60rの相対姿勢情報を格納している。
FIG. 3 is a block diagram of the
画像変換部42は、平面画像である被写体像50lを、その被写体像50lが有する画像情報を半球体の表面に有する半球面画像に変換する。また、画像変換部42は、平面画像である被写体像50rを、その被写体像50rが有する画像情報を半球体の表面に有する半球面画像に変換する。
The
図4を参照して、被写体像を半球面画像に変換するための原理について説明する。図4(a)は魚眼レンズの結像特性を説明するための図である。図4(a)は、魚眼レンズが中心Oに位置しており、魚眼レンズの視野内の点Pi(図1のPiに相当)からの外光が魚眼レンズに入射している状態を示している。なお、ここでは、説明を簡便化するため図4に記載の魚眼レンズの画角は180度としている。 The principle for converting a subject image into a hemispherical image will be described with reference to FIG. FIG. 4A is a diagram for explaining the imaging characteristics of the fisheye lens. FIG. 4A shows a state where the fisheye lens is located at the center O, and external light from a point P i (corresponding to P i in FIG. 1) in the field of view of the fisheye lens is incident on the fisheye lens. . Here, in order to simplify the explanation, the angle of view of the fisheye lens shown in FIG. 4 is 180 degrees.
図4(b)は、魚眼レンズの像面50を示す図である。等距離射影方式の魚眼レンズでは、図4(a)に示す点Piは、図4(b)の像面50において、位置座標(ri,φi)で表される点qiに投影される。すなわち、点Piは、方位角φiは変わらず、画像中心OIからの距離riが次の式で表される点qiに投影される。
ここで、魚眼レンズで得られる被写体像は点qiの集まりである。したがって、被写体像を構成している各画素(すなわち、点qi)の位置座標を特定することによって被写体像を半球面画像に変換することができる。 Here, the subject image obtained with the fisheye lens is a collection of points q i . Therefore, the subject image can be converted into a hemispherical image by specifying the position coordinates of each pixel (that is, the point q i ) constituting the subject image.
なお、上述したように撮像素子30で取得された被写体像50l,50rは、画素ごとに電気信号に変換されているため、被写体像を構成している各画素の位置は、撮像素子30の画素の位置に対応させて取得することができる。
Since the
以下の説明では、第1及び第2の撮像部60l,60rで取得された各被写体像から得られる半球面画像それぞれを、第1及び第2の半球面画像と称す。この第1及び第2の半球面画像は、第1及び第2の撮像部60l,60rの極座標系で表される。この際、画像中心OIl,OIrは、魚眼レンズ10l,10rの光学中心に対応する。
In the following description, the hemispherical images obtained from the subject images acquired by the first and second imaging units 60l and 60r are referred to as first and second hemispherical images, respectively. The first and second hemispherical images are represented by polar coordinate systems of the first and second imaging units 60l and 60r. At this time, the image centers O Il and O Ir correspond to the optical centers of the fish-
図3を参照すると、画像形成部43は、画像変換部42において得られる第1及び第2の半球面画像を、第1及び第2の撮像部60l,60rの相対姿勢情報、及び、画像中心OIl,OIrに基づいて合成して球面画像を形成する。より具体的には、第1及び第2の半球面画像の画像中心OIl,OIrを一致させ、第1及び第2の半球面画像が互いに反対向きになるように結合して球面画像を形成する。
Referring to FIG. 3, the
上記のように球面画像は、撮像系パラメータ(画像中心、焦点距離、相対姿勢情報)を利用して形成されている。したがって、撮像系パラメータが撮像装置3において校正される必要がある。
As described above, the spherical image is formed using the imaging system parameters (image center, focal length, and relative posture information). Therefore, the imaging system parameters need to be calibrated in the
再度図3を参照すると、上記画像形成手段40は、撮像系パラメータを校正するための、消失点算出部44と、画像中心算出部45と、焦点距離算出部46と、姿勢情報取得部47と、校正部48とを有している。
Referring to FIG. 3 again, the
消失点算出部44は、撮像素子30で撮像された被写体像50l,50rに基づいて、物体空間において異なる方向に延びる2組の平行線群の、被写体像における2組の消失点対を算出する。2組の平行線群とは、互いに斜交する2本の直線にそれぞれ略平行な直線群を意味している。また、消失点とは、平行線群に含まれる互いに平行な複数の直線が無限遠で交わる点である。魚眼レンズ10l,10rは、画角wが185度であるため、消失点は被写体像50l,50r中に現れる。なお、直線はある1点を基準にするとその両側に延びているので、各被写体像50l,50rには、一対の消失点(すなわち、消失点対)が現れる。
The vanishing
消失点算出部44は、互いに斜交する2組の平行線群の被写体像から上記2組の消失点対の位置座標を算出してもよい。また、消失点算出部44は、1つの平行線群(第1の平行線群)の被写体像から1つの消失点対を算出し、第1の平行線群を構成する直線と異なる方向に延びている直線から構成される平行線群(第2の平行線群)の被写体像から他の消失点対を算出してもよい。
The vanishing
消失点算出の原理について説明する。物体空間における直線は、魚眼レンズの像面では(被写体像中では)円錐曲線になる。そこで、まず、被写体像において、上記平行線群に含まれる直線に対応する曲線を円錐曲線でフィッティングして複数の円錐曲線関数fj(x,y)を算出する。フィッティングする場合には、フィッティングによる誤差を低減するために、最小二乗法を用いる。 The principle of vanishing point calculation will be described. The straight line in the object space becomes a conic curve in the image plane of the fisheye lens (in the subject image). Therefore, first, in a subject image, a plurality of conic curve functions f j (x, y) are calculated by fitting a curve corresponding to a straight line included in the parallel line group with a conic curve. In the case of fitting, a least square method is used to reduce errors due to fitting.
そして、消失点は被写体像中に現れている(平面上に位置する)ため、消失点の位置座標を(xv,yv)としたときにfj(xv,yv)=0が成立する。更に、理論的には消失点において各円錐曲線は互いに交差しているため、再度最小二乗法を適用することによって消失点の位置座標(xv,yv)を算出することができる。 Since the vanishing point appears in the subject image (located on the plane), f j (x v , y v ) = 0 is obtained when the position coordinates of the vanishing point are (x v , y v ). To establish. Further, theoretically, since the conic curves intersect each other at the vanishing point, the position coordinates (x v , y v ) of the vanishing point can be calculated by applying the least square method again.
消失点算出部44は、被写体像50lにおいて2組の消失点対を算出し、被写体像50rにおいて2組の消失点対を算出する。
The vanishing
画像中心算出部45は、消失点算出部44において算出された2組の消失点対の位置座標を消失点算出部44から取得し、各消失点対を結ぶ2本の直線の交点として、魚眼レンズの像面における画像中心OIを算出する。
The image
画像中心算出部45は、第1及び第2の撮像部60l,60rが有する魚眼レンズ10l,10rの像面それぞれに対して画像中心OIl,OIrを算出する。画像中心算出部45は、この画像中心OIl,OIrの位置座標をパラメータ格納部41に格納する。
The image
焦点距離算出部46は、消失点算出部44において算出された2組の消失点対の位置座標を消失点算出部44から取得して、次式から魚眼レンズの焦点距離fを算出する。
焦点距離算出部46は、魚眼レンズ10lについて、対応する2組の消失点対の少なくとも一方を用いてその焦点距離flを算出する。焦点距離算出部46は、魚眼レンズ10rについても、対応する2組の消失点対の少なくとも一方を用いて焦点距離frを算出する。焦点距離算出部46は、これらの焦点距離fl,frをパラメータ格納部41に格納する。
Focal
姿勢情報取得部47は、第1及び第2の撮像部60l,60rの相対姿勢情報を取得する。本実施形態において相対姿勢情報とは、第1の撮像部60lの極座標系から第2の撮像部60rの極座標系への回転行列(第3の変換行列)を意味する。 The posture information acquisition unit 47 acquires the relative posture information of the first and second imaging units 60l and 60r. In the present embodiment, the relative posture information means a rotation matrix (third conversion matrix) from the polar coordinate system of the first imaging unit 60l to the polar coordinate system of the second imaging unit 60r.
第1の撮像部60lの極座標系から第2の撮像部60rの極座標系への回転行列(相対姿勢情報)を取得する原理を説明する。姿勢情報取得部47は、魚眼レンズ10l,10rの画角wが185度であることから第1及び第2の半球面画像に消失点が現れていることを利用して、相対姿勢情報を取得する。以下により具体的に説明する。
The principle of acquiring a rotation matrix (relative attitude information) from the polar coordinate system of the first imaging unit 60l to the polar coordinate system of the second imaging unit 60r will be described. The posture information acquisition unit 47 acquires the relative posture information using the vanishing points appearing in the first and second hemispherical images because the angle of view w of the
第1及び第2の撮像部60l,60rによって得られた被写体像50l,50rから変換された第1及び第2の半球面画像は、第1及び第2の撮像部60l,60rの極座標系を用いてあらわされている。通常、第1及び第2の半球面画像それぞれには、物体空間における水平線に略平行な直線群の像及びその消失点(以下、「第1消失点」という)、並びに、水平線に直交する方向(鉛直方向)に延びる直線に略平行な直線群の像及びその消失点(以下、「第2消失点」という)が現れている。
The first and second hemispherical images converted from the
ここで、第1の撮像部60lの極座標系における第1消失点の位置ベクトルをp1hcとし、第2消失点の位置ベクトルをp1vcとする。そして、3次元座標系である世界座標(基準座標)での上記第1消失点の位置ベクトルをphwとし、第2消失点の位置ベクトルをpvwとする。この場合、世界座標系から第1の撮像部60lの極座標系への回転行列(第1の変換行列)をR1cwとすると以下の式が成り立つ。
ところで、第1及び第2の半球面画像を結合することによって1つの球面画像を形成した場合、第1の半球面画像の第1消失点と第2の半球面画像の第1消失点とは一致し、第1の半球面画像の第2消失点と第2の半球面画像の第2消失点とは一致する。したがって、(式6)及び(式7)におけるphw及びpvwは、第2の半球面画像の第1消失点p2hc及び第2消失点p2vcにも変換可能である。すなわち、世界座標系から第2の撮像部60rの極座標系への変換行列(第2の変換行列)をR2cwとすると、以下の式が成り立つ。
そして、式(6)と式(8)、又は、(式7)と(式9)より、R1cw及びR2cwに基づいて第1の撮像部60lの極座標系から第2の撮像部60rの極座標系への回転行列Rを算出することができる。 Then, from Expression (6) and Expression (8), or (Expression 7) and (Expression 9), based on R1 cw and R2 cw , the polar coordinate system of the first imaging unit 60l is used to change the second imaging unit 60r. A rotation matrix R to the polar coordinate system can be calculated.
姿勢情報取得部47は、上述した(式6)及び(式7)よりR1cwを算出し、(式8)及び(式9)よりR2cwを算出して、更に回転行列Rを算出し、パラメータ格納部41に格納する。
The posture information acquisition unit 47 calculates R1 cw from (Equation 6) and (Equation 7) described above, calculates R2 cw from (Equation 8) and (Equation 9), and further calculates a rotation matrix R, Store in the
上記変換行列Rを取得するために用いる第1及び第2の半球面画像は、画像中心算出部45で算出された画像中心OIl,OIr及び焦点距離算出部46で算出された焦点距離fl,frに基づいて被写体像50l,50rから変換された第1及び第2の半球面画像である。この第1及び第2の半球面画像は、画像変換部42が、姿勢情報取得部47の指示により形成するようにすればよい。また、校正を実施する際には、画像変換部42が第1及び第2の半球面画像を形成した場合、それらの画像データを画像形成部43が取得せずに、姿勢情報取得部47が取得するようにしてもよい。
The first and second hemispherical images used to acquire the transformation matrix R are the image centers O Il and O Ir calculated by the image
なお、第1消失点p1hc,p2hc及び第2消失点p1vc,p2vcを得るための平行線群としては、例えば、被写体像50l,50rに含まれている人工物(建物、道路など)の縁を利用すればよい。
As the parallel line group for obtaining the first vanishing points p1 hc and p2 hc and the second vanishing points p1 vc and p2 vc , for example, artifacts (buildings, roads, etc.) included in the
校正部48は、各魚眼レンズ10l,10rの焦点距離fl,fr、及び相対姿勢情報(回転行列R)を校正する。校正部48が、各魚眼レンズ10l,10rの焦点距離fl,fr、及び相対姿勢情報を校正する原理を説明する。
The
図5は、撮像装置3の撮影可能な領域を示す図である。図5中の斜線部は、魚眼レンズ10l,10rの視野を示している。魚眼レンズ10l,10rは、画角wが185度であるので、それらの視野に重複領域αがある。校正部48は、第1及び第2の半球面画像に含まれる上記重複領域αに対応する領域内の点pl,prを抽出する。言い換えれば、物体空間における重複領域α内の物点に対応する第1の半球面画像内の点plと、その同じ物点に対応する第2の半球面画像内の点prとを抽出する。なお、ここで用いる第1及び第2の半球面画像は、回転行列Rを取得するために用いた画像である。
FIG. 5 is a diagram illustrating a region where the
点pl及び点prは、重複領域αに含まれる物点に対応する像点であって第1及び第2の半球面画像に含まれる点であるので、その画像情報(例えば、輝度)は一致する。したがって、点pl及び点prおける画像の輝度をLl(pl)及びLr(pr)とすると、理論的には以下の式が成り立つ。
次に、上記撮像装置3により全天周球面画像を形成する方法について説明する。全天周球面画像を形成するために、まず、上記撮像装置3の撮像系パラメータの校正方法について説明する。
Next, a method for forming an all-round spherical image by the
図6は、撮像系パラメータの校正方法のフローチャートである。なお、図6に示す消失点算出工程S10の実施前にパラメータ格納部41には、撮像系パラメータは格納されていないものとする。
FIG. 6 is a flowchart of the imaging system parameter calibration method. Note that it is assumed that the imaging system parameters are not stored in the
(消失点算出工程S10)
図7〜図9は一対の消失点の算出工程を示す図である。まず、図7に示す黒領域と白領域とが交互に並んでいる格子パターン70を撮像装置3の第1の撮像部60lで撮像する。格子パターン70において、黒領域と白領域との境界は互いに平行な直線であるため、複数の境界線711〜716が、一定の方向に延びる平行線群(第1の平行線群)71に相当する。図8は、格子パターン70の被写体像72(50l)の模式図である。図8に示すように魚眼レンズ10lで取得された被写体像は、円形(球画像)になっている。
(Vanishing point calculation step S10)
7-9 is a figure which shows the calculation process of a pair of vanishing point. First, the
撮像素子30(図2参照)で被写体像72が取得されると、消失点算出部44(図3参照)は、図8に示す被写体像72の曲線に円錐曲線をフィッティングする。これにより、消失点算出部44は、図9(a)に示す複数の円錐曲線関数fj(x,y)(例えば、f1、f2など)を算出する。続いて、その円錐曲線関数fj(x,y)を利用し、消失点算出部44の説明の際に記載した原理に基づいて消失点対73l,74lを算出する。
When the
次に、同じ格子パターン70を、例えば、略90度回転させて再度第1の撮像部60lで撮像する。消失点算出部44は、消失点対73l,74lを算出した場合と同様にして、図9(b)に示す消失点対75l,76lを算出する。この場合、格子パターン70が回転しているため、第1の平行線群を構成する直線(図7における境界線711〜716)が延びる方向と異なる平行線群(第2の平行線群)に対応する消失点対75l,76lが算出される。以上の工程を、第2の撮像部60rについても同様に実施して、消失点対73l,74lに対応する消失点対73r,74rを算出し、消失点対75l,76lに対応する消失点対75r,76rを算出する。
Next, the
(画像中心算出工程S11)
図10及び図11は、画像中心を算出する工程を示す図である。画像中心算出部45は、消失点算出部44から消失点73l,74l,75l,76lの位置座標を取得する。
(Image Center Calculation Step S11)
10 and 11 are diagrams illustrating a process of calculating the image center. The image
画像中心算出部45は、図10(a),(b)それぞれに示すように、消失点対73l,74lを結ぶ直線77と消失点対75l,76lを結ぶ直線78とを算出する。そして、直線77と直線78との交点を魚眼レンズ10lの像面の画像中心OIlとして特定する。図11は、算出された画像中心OIlを図8の被写体像72に重ねて示した図である。
As shown in FIGS. 10A and 10B, the image
上記では、第1の撮像部60lについて説明しているが、画像中心算出部45は、魚眼レンズ10rの像面に対しても画像中心OIrの位置座標を算出する。画像中心算出部45は、取得した画像中心OIl,OIrの位置座標をパラメータ格納部41に格納する。
Although the first imaging unit 60l has been described above, the image
(焦点距離算出工程S12)
また、焦点距離算出部46は、消失点算出部44から消失点対73l,74l(又は消失点対75l,76l)及び消失点対73r,74r(又は消失点対75r,76r)の位置座標を取得する。焦点距離算出部46は、消失点対73l,74l(又は消失点対75l,76l)間の距離に対して(式5)を適用して魚眼レンズ10lの焦点距離flを算出する。
(Focal distance calculation step S12)
Further, the focal
上記では、第1の撮像部60lについて説明しているが、焦点距離算出部46は、魚眼レンズ10rの焦点距離frも消失点対73r,74r(又は、消失点対75r,76r)間の距離を用いて(式5)から算出する。焦点距離算出部46は、算出した焦点距離fl,frをパラメータ格納部41に格納する。
In the above has described the first imaging unit 60l, a focal
本実施形態では、図6に示すように、画像中心算出工程S11の次に焦点距離算出工程S12を実施するようにしているが、これらの順番は特に限定されず、焦点距離算出工程S12を先に実施しても良い。 In the present embodiment, as shown in FIG. 6, the focal length calculation step S12 is performed after the image center calculation step S11. However, the order is not particularly limited, and the focal length calculation step S12 is performed first. May be implemented.
(画像変換工程S13)
次に、格子パターン70を除いて撮像装置3の周囲の風景(被写体)を撮像する。この場合、画像変換部42は、撮像素子30によって撮像された各被写体像50l,50rを、画像中心算出工程S11及び焦点距離算出工程S12で算出された画像中心OIl,OIr及び焦点距離fl,frに基づいて、第1及び第2の半球面画像に変換する。なお、この画像変換工程S13は、姿勢情報取得部47から画像変換部42への指示に基づいて行うようにしても良い。
(Image conversion step S13)
Next, the scenery (subject) around the
(姿勢情報取得工程S14)
次に、姿勢情報取得部47は、画像変換工程S13において得られた第1の半球面画像から上述した第1消失点p1hc及び第2消失点p1vcを抽出する。また、姿勢情報取得部47は、得られた第2の半球面画像から第1消失点p2hc及び第2消失点p2vcを抽出する。上記第1消失点p1hc,p2hcとは、上述したように、物体空間における水平線に略平行な直線群の、第1及び第2の半球面画像での消失点である。また、第2消失点p1vc,p2vcとは、物体空間における水平線に直交する方向(鉛直方向)に延びる直線に略平行な直線群の、第1及び第2の半球面画像での消失点である。
(Attitude information acquisition process S14)
Next, the posture information acquisition unit 47 extracts the first vanishing point p1 hc and the second vanishing point p1 vc described above from the first hemispherical image obtained in the image conversion step S13. In addition, the posture information acquisition unit 47 extracts the first vanishing point p2 hc and the second vanishing point p2 vc from the obtained second hemispherical image. As described above, the first vanishing points p1 hc and p2 hc are vanishing points in the first and second hemispherical images of a group of straight lines substantially parallel to the horizontal line in the object space. The second vanishing points p1 vc and p2 vc are vanishing points in the first and second hemispherical images of a straight line group substantially parallel to a straight line extending in a direction (vertical direction) perpendicular to the horizontal line in the object space. It is.
次に、姿勢情報取得部47は、(式6)及び(式7)を用いて世界座標系から第1の撮像部60lの極座標系への回転行列R1cwを算出する(第1の行列算出工程)。また、姿勢情報取得部47は、(式8)及び(式9)を用いて世界座標系から第2の撮像部60rの極座標系への回転行列R2cwを算出する(第2の行列算出工程)。更に、姿勢情報取得部47は、回転行列R1cw,R2cwを用いて第1の撮像部60lの極座標系から第2の撮像部60rの極座標系への変換行列Rを算出する(第3の行列算出工程)。姿勢情報取得部47は、その変換行列Rをパラメータ格納部41に格納する。
Next, the posture information acquisition unit 47 calculates the rotation matrix R1 cw from the world coordinate system to the polar coordinate system of the first imaging unit 60l using (Expression 6) and (Expression 7) (first matrix calculation). Process). Further, the posture information acquisition unit 47 calculates the rotation matrix R2 cw from the world coordinate system to the polar coordinate system of the second imaging unit 60r using (Expression 8) and (Expression 9) (second matrix calculation step) ). Further, the posture information acquisition unit 47 calculates a transformation matrix R from the polar coordinate system of the first imaging unit 60l to the polar coordinate system of the second imaging unit 60r using the rotation matrices R1 cw and R2 cw (third Matrix calculation step). The posture information acquisition unit 47 stores the transformation matrix R in the
(校正工程S15)
姿勢情報取得工程S14で、相対姿勢情報が取得されると、校正部48は、画像変換工程S11で変換された第1及び第2の半球面画像において、魚眼レンズ10l,10rの視野の重複領域α(図5参照)に対応する領域内の点pl,prを抽出する。そして、点pl,prにおける画像の相関に基づいて、より具体的には(式11)に基づいて、焦点距離算出工程S12で算出された焦点距離fl,fr及び姿勢情報取得工程S14で取得された相対姿勢情報(すなわち、パラメータ格納部41に格納されている焦点距離fl,fr及び相対姿勢情報)を校正する。
(Calibration step S15)
When the relative posture information is acquired in the posture information acquisition step S14, the
以上の工程により、撮像装置3の撮像系パラメータが校正される。この撮像系パラメータが上記方法によって1度校正されると、それを用いて球面画像を形成することが可能である。
Through the above steps, the imaging system parameters of the
次に、球面画像形成方法について説明する。図12は、球面画像を形成するためのフローチャートである。 Next, a spherical image forming method will be described. FIG. 12 is a flowchart for forming a spherical image.
(撮像工程S20)
まず、撮像装置3を撮影すべき風景を撮影可能な位置に設置し、第1及び第2の撮像部60l,60rで撮像装置3の周囲の風景を撮影する。
(Imaging process S20)
First, the
(画像変換工程S21)
撮像素子30が一対の被写体像50l,50rを取得すると、撮像素子30はそれらを電気信号に変換して画像変換部42に入力する。画像変換部42は、一対の被写体像50l,50rを第1及び第2の半球面画像に変換する。この際、画像変換部42は、上記校正方法により校正されパラメータ格納部41に格納されている画像中心OIl,OIr及び焦点距離fl,frに基づいて第1及び第2の半球面画像を形成する。
(Image conversion step S21)
When the
(画像形成工程S22)
次に、画像形成部43は、画像変換部42で形成された第1及び第2の半球面画像を、パラメータ格納部41に格納されている画像中心OIl,OIr及び相対姿勢情報(すなわち、回転行列R)を用いて結合して、全天周の球面画像を形成する。
(Image forming step S22)
Next, the
上記校正方法の説明では、上述したように、消失点算出工程S10(図6参照)の実施前にはパラメータ格納部41に撮像系パラメータが格納されていないとしたが、例えば、撮像装置3を設計した場合に得られる設計値が格納されていてもよい。この場合は、上記工程ごとに格納されているパラメータが校正される。
In the description of the calibration method, as described above, the imaging system parameters are not stored in the
次に、実施例を参照して上述した本実施形態の撮像系パラメータの校正方法が奏する効果についてより具体的に説明する。図13は、上記校正方法を実際に適用したカメラシステムを示す図である。図13のカメラシステムは図2に示す撮像装置3のモデルである。図13のカメラシステムは、画角wが185度の魚眼レンズを有するカメラを互いに反対向きに配置したものである。魚眼レンズは、FCON−02(オリンパス株式会社製)を用いた。
Next, the effects of the imaging system parameter calibration method of the present embodiment described above with reference to the examples will be described more specifically. FIG. 13 is a diagram showing a camera system to which the calibration method is actually applied. The camera system of FIG. 13 is a model of the
図14は、図13に示すカメラシステムによる撮影方向を示す模式図である。図14に示す円の中心Ocに上記カメラシステムが配置されている。この場合、一対のカメラは、互いに反対方向(図中のA方向及びB方向)を撮影するようになっている。 FIG. 14 is a schematic diagram showing a shooting direction by the camera system shown in FIG. The camera system is arranged at the center O c of the circle shown in FIG. 14. In this case, the pair of cameras captures the opposite directions (A direction and B direction in the drawing).
図15は、上記カメラシステムで撮影した被写体像の図である。図中の一対の画像のうち、例えば、左側の図が図14中のA方向の画像であり、右側の図がB方向の画像である。図15に示されている一対の画像は一度の撮影で得られている。 FIG. 15 is a diagram of a subject image photographed by the camera system. Of the pair of images in the figure, for example, the left figure is an image in the A direction in FIG. 14, and the right figure is an image in the B direction. The pair of images shown in FIG. 15 are obtained by one shooting.
図16は、比較のために撮像系パラメータを構成せずに形成した球面画像の一部の図である。図16(a)は、形成された球面画像のうち、図14のC方向の画像であり、図16(b)は、図14のD方向の画像である。また、図中右側の拡大図は、球面画像を構成している第1及び第2の半球面画像の結合領域を拡大している図である。図16に示すように結合領域で画像にずれが生じていることがわかる。 FIG. 16 is a diagram of a part of a spherical image formed without configuring imaging system parameters for comparison. FIG. 16A is an image in the C direction in FIG. 14 among the formed spherical images, and FIG. 16B is an image in the D direction in FIG. Further, the enlarged view on the right side in the figure is an enlarged view of the combined region of the first and second hemispherical images constituting the spherical image. As shown in FIG. 16, it can be seen that there is a shift in the image in the combined area.
図17は、上述した校正方法を実施した後に形成した球面画像の一部の図である。図17(a),(b)は、図16(a),(b)と同様に、球面画像における図14のC方向及びD方向の画像である。上記校正方法を実施した場合には、図17に示すように結合領域における画像のずれが低減されている。 FIG. 17 is a partial view of a spherical image formed after performing the above-described calibration method. FIGS. 17A and 17B are images in the C direction and D direction of FIG. 14 in the spherical image, similarly to FIGS. 16A and 16B. When the calibration method is performed, the image shift in the combined area is reduced as shown in FIG.
上述した本実施形態に係る撮像装置3では、画角wが185度の魚眼レンズ10l,10rが、互いに反対側の被写体を撮影するように配置されている。したがって、魚眼レンズ10lによって、撮像装置3の周囲360度のうちほぼ半分の領域に位置する被写体からの外光が取り込まれ、魚眼レンズ10rから残りのほぼ半分の領域に位置する被写体からの外光が取り込まれる。そのため、第1及び第2の撮像部60l,60rで共に撮像される被写体像50l,50rは、2つ合わせて撮像装置3の周囲360度にわたる画像情報を有している。したがって、それらの各被写体像50l,50rを半球面画像に変換して結合することにより同一時刻における全天周の球面画像を得ることができる。撮像装置3では、この球面画像の形成を、画像形成手段40によって実施している。
In the
また、被写体像50l,50rから球面画像を形成する工程においては、撮像装置3の撮像系パラメータが用いられるが、上述した本実施形態の撮像系パラメータの校正方法により撮像系パラメータを校正できるため、球面画像を形成したときに、球面画像中で画像のずれが低減されている。
In the process of forming a spherical image from the
特に、本実施形態の校正方法では、画角wが185度の魚眼レンズ10l,10rを用いていることから被写体像50l,50r(第1及び第2の半球面像中)それぞれに現れる消失点を利用して校正している。より具体的には、2組の消失点対を利用して画像中心OIl(又は画像中心OIr)を算出しているため、画像中心OIl,OIrがより正確になっている。また、1組の消失点対を利用して焦点距離fl(又は焦点距離fr)を算出した後に、相対姿勢情報(回転行列R)を算出している。そして、それらの焦点距離fl,fr及び回転行列Rを、魚眼レンズ10l,10rの視野の重複領域αを利用して更に校正している。そのため、撮像系パラメータがより正確な値となっており、図17に示すように結合領域において画像のずれが少ない球面画像を形成することができる。
In particular, in the calibration method of the present embodiment, since the fish-
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されないことは言うまでもない。例えば、撮像装置3は、画像形成手段40を備えていなくてもよい。この場合は、撮像素子からの電気信号を撮像装置3の外部に位置するコンピュータなどに転送して画像形成手段40が実施する処理を実施して球面画像を形成すればよい。
As mentioned above, although preferred embodiment of this invention was described, it cannot be overemphasized that this invention is not limited to the said embodiment. For example, the
また、光路変更素子は、直角ミラーとしているが、魚眼レンズ10l,10rからの光を撮像素子側に反射できればよい。例えば、光路変更素子として、図18に示すような反射鏡90を用いても良い。反射鏡90は、2つの反射面91l,91rのなす角度Qが60度になっているものである。この場合は、撮像素子30の受光面31を小さくすることが可能である。
Further, although the optical path changing element is a right-angle mirror, it is sufficient that the light from the
更に、消失点算出工程S10では、図7に示すような格子パターン70を校正用パターンとして用いているが、例えば、図19に示すような校正用パターン80を用いても良い。校正用パターン80は、互いに平行な複数の直線811〜816と、それらに直交する互いに平行な複数の直線821〜826から構成されている。なお、直線811〜816と直線821〜826は必ずしも直交していなくても斜交していればよい。また、格子パターン70のような校正用パターンを用いずに、第1消失点p1hc(p2hc)及び第2消失点p1vc(p2vc)を構成する平行線群を利用しても良い。
Furthermore, in the vanishing point calculating step S10, the
更にまた、魚眼レンズ10l,10rの画角wは185度としているが、180度以上ならばよい。更に、魚眼レンズ10l,10rの射影方式は等距離射影方式としているが、これに限られない。また、画像形成手段40は、撮像系パラメータ格納部41を備えているが、特に有していなくても良く、いわゆるコンピュータなどが有しているメモリなどを利用すればよい。更に、撮像手段は、1つの撮像素子30としているが、例えば、2つの撮像素子を用いてもよい。この場合には、各魚眼レンズ10l,10rの光路変更素子を介した結像面に各撮像素子の受光面が位置するように配置すればよい。
Furthermore, the angle of view w of the
本発明による撮像装置及び撮像系パラメータの校正方法は、監視用センサーや自走ロボットの視覚センサーなどに用いることができる。 The imaging apparatus and imaging system parameter calibration method according to the present invention can be used for monitoring sensors, visual sensors of self-propelled robots, and the like.
3…撮像装置、10l,10r…魚眼レンズ、11l,11r…魚眼レンズの面、20…直角ミラー(光路変更素子)、30…撮像素子(撮像手段)40…画像形成手段、41…パラメータ格納部、42…画像変換部、43…画像形成部、44…消失点算出部、45…画像中心算出部、46…焦点距離算出部、47…姿勢情報取得部、48…校正部、60l…第1の撮像部、60r…第2の撮像部。
DESCRIPTION OF
Claims (8)
前記一対の魚眼レンズの間に配置され、各魚眼レンズを通った外光の光路を変更して、それらの外光を同じ側に伝搬させる光路変更素子と、
前記光路変更素子によって光路が変更された外光に基づいて形成される各被写体像を共に撮像できる撮像手段と
を備え、
前記一対の魚眼レンズの一方と前記光路変更素子と前記撮像手段とを含んで第1の撮像部が構成されており、前記一対の魚眼レンズの他方と前記光路変更素子と前記撮像手段とを含んで第2の撮像部が構成されていることを特徴とする撮像装置。 A pair of fish-eye lenses that are arranged such that surfaces on which external light is incident are located on opposite sides of each other, and an angle of view of 180 degrees or more;
An optical path changing element that is disposed between the pair of fisheye lenses, changes the optical path of the external light passing through each fisheye lens, and propagates the external light to the same side;
An imaging means capable of capturing both subject images formed based on external light whose optical path has been changed by the optical path changing element;
The first imaging unit is configured to include one of the pair of fisheye lenses, the optical path changing element, and the imaging means, and includes the other of the pair of fisheye lenses, the optical path changing element, and the imaging means. An image pickup apparatus comprising two image pickup units.
前記撮像手段によって撮像された各被写体像を、前記第1及び第2の撮像部が有する魚眼レンズの像面の画像中心及びその魚眼レンズの焦点距離に基づいて、前記被写体像の画像情報を半球体の表面に有する半球面画像に変換する画像変換部と、
前記画像変換部において得られた各半球面画像を、前記第1及び第2の撮像部の相対姿勢情報及び前記各魚眼レンズの像面の画像中心に基づいて結合することによって前記球面画像を形成する画像形成部と
を備えることを特徴とする請求項4に記載の撮像装置。 The image forming unit includes:
Based on the image center of the image plane of the fisheye lens included in the first and second imaging units and the focal length of the fisheye lens, each subject image captured by the imaging unit is converted into hemispherical image information. An image conversion unit for converting to a hemispherical image on the surface;
The spherical images are formed by combining the hemispherical images obtained in the image converting unit based on the relative posture information of the first and second imaging units and the image center of the image plane of each fisheye lens. The imaging apparatus according to claim 4, further comprising an image forming unit.
前記撮像手段で撮像される各被写体像について、異なる方向に延びる2組の平行線群の、被写体像における2組の消失点対を算出する消失点算出部と、
前記第1及び第2の撮像部が有する魚眼レンズに対して、魚眼レンズの像面の画像中心を、前記消失点算出部において算出された2組の消失点対に基づいて算出する画像中心算出部と、
前記第1及び第2の撮像部が有する魚眼レンズに対して、その魚眼レンズの焦点距離を、前記消失点算出部において算出された2組の消失点対の少なくとも一方の消失点対間の距離に基づいて算出する焦点距離算出部と、
前記画像中心算出部及び前記焦点距離算出部で算出された画像中心及び焦点距離に基づいて被写体像から変換される半球面画像に含まれており物体空間における水平線に略平行な直線群の第1消失点及び前記直線群に略直交する直線群の第2消失点に基づいて、前記第1及び第2の撮像部の相対姿勢情報を取得する姿勢情報取得部と、
前記相対姿勢情報を取得するための各半球面画像に含まれており前記各魚眼レンズの視野の重複領域に対応する領域における画像の相関に基づいて、前記焦点距離算出部で算出された焦点距離及び前記姿勢情報取得部で取得された相対姿勢情報を校正する校正部と
を備え、
前記画像変換部は、前記第1及び第2の撮像部で撮像された被写体像に対して、前記画像中心算出部によって算出された画像中心及び前記校正部によって校正された焦点距離に基づいて前記被写体像を半球面画像に変換し、
前記画像形成部は、前記画像変換部で得られた各半球面画像を、前記画像中心算出部によって算出された画像中心及び前記校正部で校正された相対姿勢情報に基づいて結合して前記球面画像を形成することを特徴とする請求項5に記載の撮像装置。 The image forming unit includes:
For each subject image captured by the imaging means, a vanishing point calculation unit that calculates two pairs of vanishing points in the subject image of two sets of parallel lines extending in different directions;
An image center calculation unit that calculates an image center of the image plane of the fisheye lens based on the two pairs of vanishing points calculated by the vanishing point calculation unit with respect to the fisheye lens included in the first and second imaging units; ,
Based on the distance between at least one vanishing point pair of the two vanishing point pairs calculated by the vanishing point calculation unit, the focal length of the fisheye lens with respect to the fisheye lens of the first and second imaging units is determined. A focal length calculation unit for calculating
A first group of straight lines included in the hemispherical image converted from the subject image based on the image center and focal length calculated by the image center calculating unit and the focal length calculating unit and substantially parallel to a horizontal line in the object space. A posture information acquisition unit that acquires relative posture information of the first and second imaging units based on a vanishing point and a second vanishing point of a straight line group that is substantially orthogonal to the straight line group;
The focal length calculated by the focal length calculation unit based on the correlation of the images in the region corresponding to the overlapping region of the visual field of each fisheye lens included in each hemispherical image for acquiring the relative posture information A calibration unit that calibrates the relative posture information acquired by the posture information acquisition unit,
The image conversion unit is configured based on the image center calculated by the image center calculation unit and the focal length calibrated by the calibration unit with respect to the subject image captured by the first and second imaging units. Convert the subject image into a hemispherical image,
The image forming unit combines the hemispherical images obtained by the image conversion unit based on the image center calculated by the image center calculation unit and the relative posture information calibrated by the calibration unit, and The imaging apparatus according to claim 5, wherein an image is formed.
前記第1及び第2の撮像部が有する魚眼レンズに対して、魚眼レンズの像面の画像中心を、前記消失点算出工程で算出された2組の消失点対に基づいて算出する画像中心算出工程と、
前記第1及び第2の撮像部が有する魚眼レンズに対して、魚眼レンズの焦点距離を、前記消失点算出工程で算出された2組の消失点対の少なくとも一方の消失点対間の距離に基づいて算出する焦点距離算出工程と、
前記撮像手段によって撮像された各被写体像を、前記画像中心算出工程及び前記焦点距離算出工程で算出された画像中心及び焦点距離に基づいて、被写体像の画像情報を半球体の表面に有する半球面画像に変換する画像変換工程と、
前記画像変換工程において得られた各半球面画像に含まれており物体空間における水平線に略平行な直線群の第1消失点及び前記直線群に略直交する直線群の第2消失点に基づいて、前記第1及び第2の撮像部の相対姿勢情報を取得する姿勢情報取得工程と、
前記相対姿勢情報を取得するための各半球面画像に含まれており前記各魚眼レンズの視野の重複領域に対応する領域における画像の相関に基づいて前記焦点距離算出工程で算出された焦点距離及び前記姿勢情報取得工程で取得された相対姿勢情報を校正する校正工程と
を備えることを特徴とする撮像系パラメータ校正方法。 The surfaces on which the external light is incident are disposed on opposite sides of each other, and are disposed between a pair of fisheye lenses having an angle of view of 180 degrees or more and the pair of fisheye lenses, and the external light passing through each fisheye lens An optical path changing element that changes the optical path and propagates the external light to the same side, and an imaging unit that can capture both subject images formed based on the external light whose optical path is changed by the optical path changing element A first imaging unit configured to include one of the pair of fisheye lenses, the optical path changing element, and the imaging means, the other of the pair of fisheye lenses, the optical path changing element, and the Two sets of vanishing point pairs in the subject image of two sets of parallel lines extending in different directions with respect to the subject image captured by each of the second imaging units including the imaging means, Calculate And the vanishing point calculation step,
An image center calculation step of calculating an image center of the image plane of the fisheye lens based on the two pairs of vanishing points calculated in the vanishing point calculation step with respect to the fisheye lens included in the first and second imaging units; ,
Based on the distance between at least one vanishing point pair of the two vanishing point pairs calculated in the vanishing point calculation step, the focal length of the fisheye lens with respect to the fisheye lens included in the first and second imaging units is determined. A focal length calculation step to calculate,
A hemispherical surface having image information of the subject image on the surface of the hemisphere based on the image center and focal length calculated in the image center calculating step and the focal length calculating step. An image conversion process for converting to an image;
Based on a first vanishing point of a straight line group that is included in each hemispherical image obtained in the image conversion step and is substantially parallel to a horizontal line in the object space, and a second vanishing point of a straight line group that is substantially orthogonal to the straight line group. A posture information acquisition step of acquiring relative posture information of the first and second imaging units;
The focal length calculated in the focal length calculation step based on the correlation of the images in the area corresponding to the overlapping area of the visual field of each fisheye lens, which is included in each hemispherical image for acquiring the relative posture information, and the An imaging system parameter calibration method comprising: a calibration step of calibrating the relative posture information acquired in the posture information acquisition step.
基準座標系における前記第1消失点の位置ベクトル及び前記第2消失点の位置ベクトルから前記第1の撮像部の座標系における第1消失点の位置ベクトル及び第2消失点の位置ベクトルに変換する第1の変換行列を算出する第1の行列算出工程と、
前記基準座標系における前記第1消失点の位置ベクトル及び前記第2消失点の位置ベクトルから前記第2の撮像部の座標系における前記第1消失点の位置ベクトル及び前記第2消失点の位置ベクトルに変換する第2の変換行列を算出する第2の行列算出工程と、
前記第1及び第2の変換行列に基づいて前記第1の撮像部の座標系から前記第2の撮像部の座標系に変換する第3の変換行列を算出する第3の行列算出工程と
を備えることを特徴とする請求項7に記載の撮像系パラメータ校正方法。
The posture information acquisition step includes
The position vector of the first vanishing point and the position vector of the second vanishing point in the reference coordinate system are converted into the position vector of the first vanishing point and the position vector of the second vanishing point in the coordinate system of the first imaging unit. A first matrix calculating step of calculating a first transformation matrix;
From the position vector of the first vanishing point and the position vector of the second vanishing point in the reference coordinate system, the position vector of the first vanishing point and the position vector of the second vanishing point in the coordinate system of the second imaging unit A second matrix calculating step of calculating a second conversion matrix to be converted into
A third matrix calculating step of calculating a third conversion matrix for converting from the coordinate system of the first imaging unit to the coordinate system of the second imaging unit based on the first and second conversion matrices; The imaging system parameter calibration method according to claim 7, comprising: an imaging system parameter calibration method according to claim 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004055026A JP2005244861A (en) | 2004-02-27 | 2004-02-27 | Imaging apparatus and imaging system parameter correction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004055026A JP2005244861A (en) | 2004-02-27 | 2004-02-27 | Imaging apparatus and imaging system parameter correction method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005244861A true JP2005244861A (en) | 2005-09-08 |
Family
ID=35026063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004055026A Pending JP2005244861A (en) | 2004-02-27 | 2004-02-27 | Imaging apparatus and imaging system parameter correction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005244861A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013066163A (en) * | 2011-08-31 | 2013-04-11 | Ricoh Co Ltd | Imaging optical system, entire celestial sphere type imaging device, and imaging system |
JP2013198070A (en) * | 2012-03-22 | 2013-09-30 | Ricoh Co Ltd | Image processing apparatus, image processing method, and imaging apparatus |
JP2013214947A (en) * | 2012-03-09 | 2013-10-17 | Ricoh Co Ltd | Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program |
KR101395354B1 (en) * | 2012-10-16 | 2014-05-14 | 재단법인 씨윗코리아 | Panorama camera |
CN106570938A (en) * | 2016-10-21 | 2017-04-19 | 哈尔滨工业大学深圳研究生院 | OPENGL based panoramic monitoring method and system |
JP2017175616A (en) * | 2012-09-11 | 2017-09-28 | 株式会社リコー | Imaging apparatus, image processing apparatus, and method |
WO2017200289A1 (en) * | 2016-05-17 | 2017-11-23 | (주)유비크마이크로 | Lens module capable of constructing 360-degree image, method for constructing 360-degree image, computer program for implementing method, and storage medium for storing computer program |
WO2017200290A1 (en) * | 2016-05-17 | 2017-11-23 | (주)유비크마이크로 | Camera capable of constructing 360-degree image |
JP2018067296A (en) * | 2016-10-20 | 2018-04-26 | 株式会社リコー | Image processing method and image processing apparatus |
JP2018205988A (en) * | 2017-06-01 | 2018-12-27 | 株式会社リコー | Image processing device, image processing method and program |
JP2019080094A (en) * | 2017-10-20 | 2019-05-23 | 株式会社カーメイト | Imaging means mount type traveling device |
JP2021097375A (en) * | 2019-12-19 | 2021-06-24 | 株式会社Jvcケンウッド | Image adjustment device, virtual reality image display system, and image adjustment method |
JP7443749B2 (en) | 2019-12-19 | 2024-03-06 | 株式会社Jvcケンウッド | Image adjustment device, virtual reality image display system, and image adjustment method |
JP7443751B2 (en) | 2019-12-19 | 2024-03-06 | 株式会社Jvcケンウッド | Virtual reality image display system and control method for virtual reality image display system |
-
2004
- 2004-02-27 JP JP2004055026A patent/JP2005244861A/en active Pending
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013066163A (en) * | 2011-08-31 | 2013-04-11 | Ricoh Co Ltd | Imaging optical system, entire celestial sphere type imaging device, and imaging system |
JP2013214947A (en) * | 2012-03-09 | 2013-10-17 | Ricoh Co Ltd | Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program |
US11049215B2 (en) | 2012-03-09 | 2021-06-29 | Ricoh Company, Ltd. | Image capturing apparatus, image capture system, image processing method, information processing apparatus, and computer-readable storage medium |
JP2013198070A (en) * | 2012-03-22 | 2013-09-30 | Ricoh Co Ltd | Image processing apparatus, image processing method, and imaging apparatus |
US10666860B2 (en) | 2012-09-11 | 2020-05-26 | Ricoh Company, Ltd. | Image processor, image processing method and program, and imaging system |
JP2019097178A (en) * | 2012-09-11 | 2019-06-20 | 株式会社リコー | Imaging apparatus, image processing apparatus and method |
JP2017175616A (en) * | 2012-09-11 | 2017-09-28 | 株式会社リコー | Imaging apparatus, image processing apparatus, and method |
KR101395354B1 (en) * | 2012-10-16 | 2014-05-14 | 재단법인 씨윗코리아 | Panorama camera |
WO2017200289A1 (en) * | 2016-05-17 | 2017-11-23 | (주)유비크마이크로 | Lens module capable of constructing 360-degree image, method for constructing 360-degree image, computer program for implementing method, and storage medium for storing computer program |
WO2017200290A1 (en) * | 2016-05-17 | 2017-11-23 | (주)유비크마이크로 | Camera capable of constructing 360-degree image |
KR20170129448A (en) * | 2016-05-17 | 2017-11-27 | (주)유비크마이크로 | Lens Module for Forming 360 Degree Image and Application for Forming 360 Degree Image |
KR101882977B1 (en) * | 2016-05-17 | 2018-07-27 | (주)유비크마이크로 | Lens Module for Forming 360 Degree Image and Application for Forming 360 Degree Image |
KR101902999B1 (en) * | 2016-05-17 | 2018-10-01 | (주)유비크마이크로 | Camera for Forming 360 Degree Image |
JP2018067296A (en) * | 2016-10-20 | 2018-04-26 | 株式会社リコー | Image processing method and image processing apparatus |
CN106570938A (en) * | 2016-10-21 | 2017-04-19 | 哈尔滨工业大学深圳研究生院 | OPENGL based panoramic monitoring method and system |
JP2018205988A (en) * | 2017-06-01 | 2018-12-27 | 株式会社リコー | Image processing device, image processing method and program |
JP2019080094A (en) * | 2017-10-20 | 2019-05-23 | 株式会社カーメイト | Imaging means mount type traveling device |
JP2021097375A (en) * | 2019-12-19 | 2021-06-24 | 株式会社Jvcケンウッド | Image adjustment device, virtual reality image display system, and image adjustment method |
JP7322692B2 (en) | 2019-12-19 | 2023-08-08 | 株式会社Jvcケンウッド | Image adjustment device, virtual reality image display system, and image adjustment method |
JP7443749B2 (en) | 2019-12-19 | 2024-03-06 | 株式会社Jvcケンウッド | Image adjustment device, virtual reality image display system, and image adjustment method |
JP7443751B2 (en) | 2019-12-19 | 2024-03-06 | 株式会社Jvcケンウッド | Virtual reality image display system and control method for virtual reality image display system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6859442B2 (en) | Calibration equipment, calibration system, and calibration method | |
US10586352B2 (en) | Camera calibration | |
JP4388530B2 (en) | Single camera omnidirectional binocular image acquisition device | |
JP5842886B2 (en) | Image processing apparatus, image processing method, program, and imaging system | |
TWI393072B (en) | Multi-sensor array module with wide viewing angle; image calibration method, operating method and application for the same | |
WO2016037486A1 (en) | Three-dimensional imaging method and system for human body | |
JP2006059202A (en) | Imaging device and image correction method | |
CN107660337A (en) | For producing the system and method for assembled view from fish eye camera | |
JP2005244861A (en) | Imaging apparatus and imaging system parameter correction method | |
CN106846409A (en) | The scaling method and device of fisheye camera | |
JP7218435B2 (en) | CALIBRATION DEVICE, CALIBRATION CHART AND CALIBRATION METHOD | |
KR20160116075A (en) | Image processing apparatus having a function for automatically correcting image acquired from the camera and method therefor | |
EP3765815B1 (en) | Imaging device, image processing apparatus, and image processing method | |
JP2009139246A (en) | Device, method and program for processing image, position detecting device and moving body equipped with this | |
CN101814181A (en) | Unfolding method for restoration of fisheye image | |
JP2007192832A (en) | Calibrating method of fish eye camera | |
CN103971375A (en) | Panoramic gaze camera space calibration method based on image splicing | |
WO2013005265A1 (en) | Three-dimensional coordinate measuring device and three-dimensional coordinate measuring method | |
CN111311682A (en) | Pose estimation method and device in LED screen correction process and electronic equipment | |
CN105324791A (en) | Coordinate computation device and method, and image processing device and method | |
CN114549666B (en) | AGV-based panoramic image splicing calibration method | |
JP4631048B2 (en) | Imaging apparatus and imaging system parameter calibration method | |
KR20060056050A (en) | Creating method of automated 360 degrees panoramic image | |
JP2005275789A (en) | Three-dimensional structure extraction method | |
CN112258581A (en) | On-site calibration method for multi-fish glasses head panoramic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081104 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090310 |