JP2018125706A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2018125706A
JP2018125706A JP2017016473A JP2017016473A JP2018125706A JP 2018125706 A JP2018125706 A JP 2018125706A JP 2017016473 A JP2017016473 A JP 2017016473A JP 2017016473 A JP2017016473 A JP 2017016473A JP 2018125706 A JP2018125706 A JP 2018125706A
Authority
JP
Japan
Prior art keywords
image
relative
threshold value
moon
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017016473A
Other languages
Japanese (ja)
Inventor
寛 阪本
Hiroshi Sakamoto
寛 阪本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017016473A priority Critical patent/JP2018125706A/en
Publication of JP2018125706A publication Critical patent/JP2018125706A/en
Pending legal-status Critical Current

Links

Landscapes

  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To determine whether or not it is required to correct absolute attitude of multiple imaging parts in an imaging apparatus.SOLUTION: An imaging apparatus (1) includes multiple imaging parts (11a, 11b), detectors (23a, 23b) for detecting a heavenly body from a set of images captured by the multiple imaging parts, respectively, a calculation part (25) for calculating the relative posture angle among multiple captured parts based on the set of images, with the heavenly body detected by the detectors as an infinity point, a first determination part (25) for determining necessity of correction of the multiple imaging parts, by comparing the calculated relative posture angle with a first threshold, and a second determination part (25) for comparing the calculated relative posture angle with a second threshold, when a determination is made that correction of the multiple imaging parts is necessary by the first determination part, and determining whether correction of the multiple imaging parts is possible by changing the parameters related to the multiple imaging parts, and whether physical correction of the multiple imaging parts is necessary.SELECTED DRAWING: Figure 1

Description

本発明は、複数のカメラを有する撮像装置の技術分野に関する。   The present invention relates to a technical field of an imaging apparatus having a plurality of cameras.

この種の装置として、例えば、複数のカメラ各々により撮像された一組の画像のうち1枚から無限遠の物体が投影されている領域を無限遠領域として抽出し、一組の画像から対応する点の組を対応点として検出し、無限遠領域に含まれる対応点を無限遠対応点として検出すると共に無限遠領域に含まれない対応点を一般対応点として検出し、無限遠対応点を用いて複数のカメラ間の相対姿勢を特定すると共に、一般対応点と特定された相対姿勢とを用いて複数のカメラ間の相対位置を特定し、相対姿勢及び相対位置を用いて各カメラ間のセルフキャリブレーションを行う装置が提案されている(特許文献1参照)。   As this type of apparatus, for example, an area where an object at infinity is projected from one set of images taken by each of a plurality of cameras is extracted as an infinity area, and the corresponding set of images is used. A pair of points is detected as a corresponding point, a corresponding point included in the infinity region is detected as a corresponding point at infinity, and a corresponding point not included in the infinity region is detected as a general corresponding point, and an infinite corresponding point is used. Identify the relative posture between the multiple cameras, identify the relative position between the multiple cameras using the general corresponding point and the identified relative posture, and use the relative posture and the relative position to determine the self-position between the cameras. An apparatus for performing calibration has been proposed (see Patent Document 1).

尚、第1及び第2のカメラにより太陽を撮像して得られた二つの画像データからスミアを検出して、該二つの画像データのスミア位置が略一致するように、カメラパラメータを算出するステレオカメラの補正方法が提案されている(特許文献2参照)。また、複数視点の入力画像信号が表す画像から、パターン情報に係る物体である既知物体の位置を検出すると共に、複数視点の入力画像信号が表す各画像から複数視点間で有意な視差を検出できない多眼無限遠にある物体を表す画像内の領域である多眼無限遠領域を検出し、既存物体の位置と、多眼無限遠領域の視点間の対応関係を示す対応関係情報とに基づいて、複数視点の間における位置関係を示す位置パラメータを算出する装置が提案されている(特許文献3参照)。   A stereo that detects smear from two image data obtained by imaging the sun with the first and second cameras, and calculates camera parameters so that the smear positions of the two image data substantially coincide. A camera correction method has been proposed (see Patent Document 2). In addition, the position of a known object that is an object related to pattern information is detected from an image represented by an input image signal of multiple viewpoints, and a significant parallax cannot be detected between the multiple viewpoints from each image represented by the input image signal of multiple viewpoints. Based on the relationship information indicating the position of the existing object and the correspondence between the viewpoints of the multi-lens infinity region. An apparatus for calculating a positional parameter indicating a positional relationship among a plurality of viewpoints has been proposed (see Patent Document 3).

国際公開第2013/145025号International Publication No. 2013/145025 特開2006−279239号公報JP 2006-279239 A 特開2013−257244号公報JP 2013-257244 A

複数のカメラを有する撮像装置が、例えば車両等の移動体に搭載される場合、例えば時間経過、移動体が移動することによる振動や衝撃、等に起因して、複数のカメラ間の相対姿勢が比較的大きく変化する可能性がある。相対姿勢が比較的大きく変化している場合、各カメラの絶対姿勢も比較的大きく変化している可能性がある。この場合、特許文献1に記載されているようなセルフキャリブレーションでは対応することができない。   When an imaging apparatus having a plurality of cameras is mounted on a moving body such as a vehicle, for example, the relative posture between the plurality of cameras is caused by, for example, time lapse, vibration or impact due to movement of the moving body, and the like. There can be relatively large changes. When the relative posture changes relatively large, the absolute posture of each camera may also change relatively large. In this case, self-calibration as described in Patent Document 1 cannot be handled.

本発明は、上記問題点に鑑みてなされたものであり、カメラの絶対姿勢の校正が必要であるか否かを判定することができる撮像装置を提供することを課題とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an imaging apparatus that can determine whether or not calibration of the absolute posture of the camera is necessary.

本発明の撮像装置は、上記課題を解決するために、複数の撮像部と、前記複数の撮像部各々により撮像された一組の画像から天体を検出する検出部と、前記検出部により検出された天体を無限遠点として、前記一組の画像に基づいて、前記複数の撮像部間の相対姿勢角を算出する算出部と、前記算出された相対姿勢角と第1閾値とを比較して、前記複数の撮像部の校正の必要性を判定する第1判定部と、前記第1判定部により前記複数の撮像部の校正が必要と判定された場合、前記算出された相対姿勢角と、前記第1閾値より大きい第2閾値とを比較して、前記複数の撮像部に係るパラメータを変更することによる前記複数の撮像部の校正が可能か、前記複数の撮像部の物理的な校正が必要かを判定する第2判定部と、を備える。   In order to solve the above problems, an imaging apparatus of the present invention is detected by a plurality of imaging units, a detection unit that detects a celestial body from a set of images captured by each of the plurality of imaging units, and the detection unit. A calculation unit that calculates a relative attitude angle between the plurality of imaging units based on the set of images with the celestial body as an infinite point, and compares the calculated relative attitude angle with a first threshold value. A first determination unit that determines the necessity of calibration of the plurality of imaging units; and when the first determination unit determines that calibration of the plurality of imaging units is necessary, the calculated relative attitude angle; It is possible to calibrate the plurality of imaging units by changing a parameter relating to the plurality of imaging units by comparing with a second threshold value that is greater than the first threshold value, or to perform physical calibration of the plurality of imaging units. A second determination unit that determines whether it is necessary.

当該撮像装置では、撮像された一組の画像から天体を検出することにより無限遠点が設定される。例えば太陽や月等の天体は、無限遠が保証されている。このため、例えばビル等の建築物を用いて無限遠点を設定する場合に必要な地図情報が不要となる。加えて、例えば太陽や月等の天体はパターンが比較的強い(即ち、例えば輝度差が比較的大きい)ので、例えば雲を検出して無限遠点が設定される場合に比べて、マッチング精度を向上することができる。特に、太陽や月は、その出現時間、位置、形(例えば満ち欠け、向き、大きさ等)を比較的容易に求めることができる。   In the imaging apparatus, an infinite point is set by detecting a celestial body from a set of captured images. For example, celestial bodies such as the sun and the moon are guaranteed to be infinite. For this reason, for example, map information required when setting an infinite point using buildings, such as a building, becomes unnecessary. In addition, for example, celestial bodies such as the sun and the moon have a relatively strong pattern (that is, for example, a relatively large difference in brightness). Can be improved. In particular, the appearance time, position, and shape (for example, fullness, orientation, size, etc.) of the sun and the moon can be obtained relatively easily.

当該撮像装置では、特に、第2判定部により、相対姿勢角と第2閾値とが比較され、複数の撮像部に係るパラメータを変更することによる複数の撮像部の校正が可能(即ち、セルフキャリブレーションで対応可能)か、複数の撮像部の物理的な校正(即ち、絶対姿勢の校正)が必要か、が判定される。従って、当該撮像装置によれば、撮像部の絶対姿勢の校正が必要であるか否かを判定することができる。   In the imaging apparatus, in particular, the second determination unit compares the relative attitude angle and the second threshold value, and can calibrate a plurality of imaging units by changing parameters related to the plurality of imaging units (that is, self-calibration). Whether or not physical calibration of a plurality of imaging units (that is, calibration of absolute posture) is necessary is determined. Therefore, according to the imaging apparatus, it is possible to determine whether or not calibration of the absolute posture of the imaging unit is necessary.

本発明の作用及び他の利得は次に説明する実施するための形態から明らかにされる。   The effect | action and other gain of this invention are clarified from the form for implementing demonstrated below.

実施形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on embodiment. 実施形態に係る校正実行判定処理を示すフローチャートである。It is a flowchart which shows the calibration execution determination process which concerns on embodiment. 相対位置の格納について説明するための図の一例である。It is an example of the figure for demonstrating storage of a relative position. 相対姿勢の算出方法を説明するための図の一例である。It is an example of the figure for demonstrating the calculation method of a relative attitude | position.

本発明の撮像装置に係る実施形態について、図1乃至図3を参照して説明する。以下の実施形態では、本発明に係る「天体」の一例として「月」を挙げる。   An embodiment according to an imaging apparatus of the present invention will be described with reference to FIGS. 1 to 3. In the following embodiments, “moon” is given as an example of the “celestial body” according to the present invention.

(構成)
実施形態に係る撮像装置の構成について、図1を参照して説明する。図1は、実施形態に係る撮像装置の構成を示すブロック図である。
(Constitution)
The configuration of the imaging apparatus according to the embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus according to the embodiment.

図1において、撮像装置1は、ステレオカメラ10、自動キャリブレーション装置20及び距離推定部30を備えて構成されている。当該撮像装置1は、車両(図示せず)に搭載されている。   In FIG. 1, the imaging device 1 includes a stereo camera 10, an automatic calibration device 20, and a distance estimation unit 30. The imaging device 1 is mounted on a vehicle (not shown).

ステレオカメラ10は、撮像素子11a及び11b、並びに画像生成部12a及び12bを備えて構成されている。画像生成部12aは、撮像素子11aから出力されたアナログの電気信号から画像を生成する。同様に、画像生成部12bは、撮像素子11bから出力されたアナログの電気信号から画像を生成する。   The stereo camera 10 includes image sensors 11a and 11b and image generation units 12a and 12b. The image generation unit 12a generates an image from an analog electric signal output from the image sensor 11a. Similarly, the image generation unit 12b generates an image from an analog electrical signal output from the image sensor 11b.

距離推定部30は、画像生成部11a及び11b各々により生成された画像に基づいて、画像に写っている(即ち、ステレオカメラ10により撮像された)物体までの距離を推定する。尚、距離の推定方法については、既存の技術を適用可能であるので、その詳細についての説明は省略する。   The distance estimation unit 30 estimates the distance to an object shown in the image (that is, captured by the stereo camera 10) based on the images generated by the image generation units 11a and 11b. Since the existing technique can be applied to the distance estimation method, a detailed description thereof will be omitted.

ここで、物体までの距離(言い換えれば、物体の位置)を精度良く推定するためには、ステレオカメラ10に係る内部パラメータ及び外部パラメータを正確に同定する必要がある。内部パラメータ及び外部パラメータを同定することは、「校正」又は「キャリブレーション」と呼ばれている。ここで、内部パラメータには、例えば焦点距離、画像中心位置、レンズ歪み等が含まれる。外部パラメータには、撮像素子11aを有するカメラ(図示せず)と撮像素子11bを有するカメラ(図示せず)との間の相対姿勢が含まれる。   Here, in order to accurately estimate the distance to the object (in other words, the position of the object), it is necessary to accurately identify the internal parameters and the external parameters related to the stereo camera 10. Identifying internal and external parameters is called “calibration” or “calibration”. Here, the internal parameters include, for example, a focal length, an image center position, lens distortion, and the like. The external parameter includes a relative attitude between a camera (not shown) having the image sensor 11a and a camera (not shown) having the image sensor 11b.

撮像装置1を搭載する車両の走行中に、撮像装置1への物理的な衝撃や振動に起因して、ステレオカメラ10に係る外部パラメータが変化することがある。自動キャリブレーション装置20は、車両の走行中にステレオカメラ10により撮像された画像を利用して、ステレオカメラ10に係る外部パラメータを再校正可能に構成されている。自動キャリブレーション装置20は、特に、撮像された画像に写っている月を用いて、ステレオカメラ10に係る外部パラメータを再校正する。   During travel of a vehicle on which the imaging device 1 is mounted, an external parameter related to the stereo camera 10 may change due to a physical impact or vibration on the imaging device 1. The automatic calibration device 20 is configured to be able to recalibrate external parameters related to the stereo camera 10 using an image captured by the stereo camera 10 while the vehicle is traveling. In particular, the automatic calibration device 20 recalibrates the external parameters related to the stereo camera 10 using the moon shown in the captured image.

自動キャリブレーション装置20は、ステレオカメラ10に係る外部パラメータを再校正するために、その内部に論理的に実現される処理ブロックとして又は物理的に実現される処理回路として、車両方位推定部21、天体出現位置推定部22、天体検出部23a及び23b、天体相対位置格納部24並びに相対姿勢算出部25を備えて構成されている。   In order to recalibrate the external parameters related to the stereo camera 10, the automatic calibration device 20 includes a vehicle orientation estimation unit 21 as a processing block that is logically realized therein or as a processing circuit that is physically realized. The celestial body appearance position estimation unit 22, the celestial body detection units 23 a and 23 b, the celestial body relative position storage unit 24, and the relative posture calculation unit 25 are configured.

車両方位推定部21は、例えばジャイロセンサ又は方位センサの出力、及び、例えばGPS(Global Positioning System)衛星からの信号に基づいて、撮像装置1が搭載されている車両の方位を推定する。本実施形態では、車両の方位と、ステレオカメラ10が向いている方位とが同じであるとする。尚、方位の推定方法については、既存の技術を適用可能であるので、その詳細についての説明は省略する。   The vehicle azimuth estimation unit 21 estimates the azimuth of the vehicle on which the imaging device 1 is mounted, based on, for example, an output from a gyro sensor or an azimuth sensor and a signal from, for example, a GPS (Global Positioning System) satellite. In the present embodiment, it is assumed that the direction of the vehicle is the same as the direction in which the stereo camera 10 is facing. In addition, since the existing technique can be applied to the direction estimation method, a detailed description thereof is omitted.

天体出現位置推定部22は、例えばGPS衛星からの信号に基づいて、現在の日時と、撮像装置1が搭載されている車両の現在地とを取得する。天体出現位置推定部22は、取得された現在の日時と車両の現在地とに基づいて、月の出現位置(例えば高度、方向、大きさ、満ち欠け等)を推定する。天体出現位置推定部22は、推定された出現位置に基づいて、月のテンプレート画像を生成する。尚、月の出現位置の推定方法には、既存の技術を適用可能であるので、その詳細についての説明は省略する。   The celestial body appearance position estimation unit 22 acquires the current date and the current location of the vehicle on which the imaging device 1 is mounted, for example, based on a signal from a GPS satellite. The celestial body appearance position estimation unit 22 estimates the appearance position of the moon (for example, altitude, direction, size, fullness, etc.) based on the acquired current date and time and the current location of the vehicle. The celestial body appearance position estimation unit 22 generates a template image of the moon based on the estimated appearance position. In addition, since the existing technique is applicable to the estimation method of the appearance position of a moon, the description about the detail is abbreviate | omitted.

天体検出部23a及び23bは、ステレオカメラ10により撮像された一組の画像(即ち、撮像素子11a及び11bにより同時に撮像された画像)から月を検出する。具体的には、天体検出部23aは、天体出現位置推定部22により生成された月のテンプレート画像を用いたテンプレートマッチングにより、画像生成部12aにより生成された画像から月を検出する。同様に、天体検出部23bは、天体出現位置推定部22により生成された月のテンプレート画像を用いたテンプレートマッチングにより、画像生成部12bにより生成された画像から月を検出する。   The astronomical detectors 23a and 23b detect the moon from a set of images captured by the stereo camera 10 (that is, images simultaneously captured by the image sensors 11a and 11b). Specifically, the celestial body detection unit 23a detects the moon from the image generated by the image generation unit 12a by template matching using the template image of the moon generated by the celestial body appearance position estimation unit 22. Similarly, the celestial body detection unit 23b detects the moon from the image generated by the image generation unit 12b by template matching using the template image of the moon generated by the celestial body appearance position estimation unit 22.

天体相対位置格納部24は、天体検出部23a及び23bにより月が検出された場合に、ステレオカメラ10により撮像された一組の画像のうち一方を参照画像、他方を被参照画像として、参照画像における月の位置と、被参照画像における月の位置との差分を月相対位置として格納する(月相対位置については“校正実行判定処理”において詳述する)。   The astronomical relative position storage unit 24 uses a reference image as a reference image and a reference image as a reference image from a set of images captured by the stereo camera 10 when the moon is detected by the astronomical detectors 23a and 23b. The difference between the position of the moon and the position of the moon in the referenced image is stored as a month relative position (the month relative position will be described in detail in the “calibration execution determination process”).

相対姿勢算出部25は、天体相対位置格納部24により格納された月相対位置に基づいて、ステレオカメラ10に係る外部パラメータとしての相対姿勢を算出する(相対姿勢の算出方法について“校正実行判定処理”において詳述する)。   The relative posture calculation unit 25 calculates a relative posture as an external parameter related to the stereo camera 10 based on the moon relative position stored by the astronomical relative position storage unit 24 (refer to “Calibration execution determination process” for the relative posture calculation method). ”).

(校正実行判定処理)
上述の如く構成された自動キャリブレーション装置20において実施される校正実行判定処理について、図2のフローチャートを参照して説明する。
(Calibration execution judgment process)
The calibration execution determination process performed in the automatic calibration apparatus 20 configured as described above will be described with reference to the flowchart of FIG.

図2において、先ず、車両方位推定部21は、撮像装置1が搭載されている車両の方位を推定する(ステップS101)。続いて、天体出現位置推定部22は、現在の日時と車両の現在地とに基づいて、月の出現位置を推定する(ステップS102)。   In FIG. 2, first, the vehicle orientation estimating unit 21 estimates the orientation of the vehicle on which the imaging device 1 is mounted (step S101). Subsequently, the celestial body appearance position estimation unit 22 estimates the appearance position of the moon based on the current date and time and the current location of the vehicle (step S102).

次に、天体出現位置推定部22は、月の出現位置及び車両の方位に基づいて、ステレオカメラ10により撮像された画像に月が写る条件である月出現条件を満たすか否かを判定する(ステップS103)。ここで、月出現条件には、(i)車両の方位角と、撮像素子11a又は11bを有するカメラの横画角の1/2の値との差分が、月が出現する方位角より大きい、(ii)車両の方位角と、撮像素子11a又は11bを有するカメラの横画角の1/2の値との和が、月が出現する方位角より小さい、(iii)撮像素子11a又は11bを有するカメラの縦画角の1/2の値の符号を反転させた値が、月の出現高度より大きい、及び、(iv)撮像素子11a又は11bを有するカメラの縦画角の1/2の値が、月の出現高度より小さい、という条件が含まれる。   Next, the celestial body appearance position estimation unit 22 determines whether or not a moon appearance condition that is a condition for the moon to appear in the image captured by the stereo camera 10 is satisfied based on the moon appearance position and the vehicle orientation ( Step S103). Here, in the moon appearance condition, (i) the difference between the azimuth angle of the vehicle and a half value of the horizontal angle of view of the camera having the image sensor 11a or 11b is larger than the azimuth angle at which the moon appears. (Ii) The sum of the azimuth angle of the vehicle and the half value of the horizontal angle of view of the camera having the image sensor 11a or 11b is smaller than the azimuth angle at which the moon appears, (iii) the image sensor 11a or 11b The value obtained by inverting the sign of the half of the vertical angle of view of the camera having the larger than the appearance height of the moon, and (iv) 1/2 of the vertical view angle of the camera having the image sensor 11a or 11b The condition that the value is smaller than the appearance height of the month is included.

ステップS103の判定において、月出現条件を満たさないと判定された場合(即ち、上記条件(i)〜(iv)のうち少なくとも一つの条件が満たされてない場合)(ステップS103:No)、ステップS101の処理が行われる。他方、ステップS103の判定において、月出現条件を満たすと判定された場合(即ち、上記条件(i)〜(iv)の全てが満たされた場合)(ステップS103:Yes)、天体出現位置推定部22は、推定された出現位置に基づいて、月のテンプレート画像を生成する。続いて、天体検出部23a及び23bは、月のテンプレート画像を用いて、ステレオカメラ10により撮像された一組の画像から月を検出する(ステップS104)。   If it is determined in step S103 that the moon appearance condition is not satisfied (that is, if at least one of the above conditions (i) to (iv) is not satisfied) (step S103: No), step The process of S101 is performed. On the other hand, when it is determined in step S103 that the moon appearance condition is satisfied (that is, when all of the above conditions (i) to (iv) are satisfied) (step S103: Yes), the astronomical object appearance position estimation unit 22 generates a template image of the moon based on the estimated appearance position. Subsequently, the astronomical detectors 23a and 23b detect the moon from a set of images captured by the stereo camera 10 using the template image of the moon (step S104).

天体検出部23a及び23bは、例えば下記のコスト関数により算出されるコスト値に基づいて月を検出する。ここで、“Costtemplate”及び“Itemplate”は、夫々、「テンプレート画像を用いたコスト値」及び「テンプレート輝度値」である。“i”、“j”、“a”、“b”、“N”及び“M”は、夫々、「画像の横位置」、「画像の縦位置」、「テンプレート画像の横位置」、「テンプレート画像の縦位置」、「テンプレート画像の横幅」及び「テンプレート画像の縦幅」である。 The astronomical detectors 23a and 23b detect the month based on, for example, a cost value calculated by the following cost function. Here, “Cost template ” and “I template ” are “cost value using template image” and “template luminance value”, respectively. “I”, “j”, “a”, “b”, “N” and “M” are “image horizontal position”, “image vertical position”, “template image horizontal position”, “ “Vertical position of template image”, “Horizontal width of template image”, and “Vertical width of template image”.

ステレオカメラ10により撮像された一組の画像のうち一方を参照画像、他方を被参照画像とする。ステップS104の処理において検出された月の参照画像内の位置を(i,j)とする。 One set of images captured by the stereo camera 10 is referred to as a reference image and the other as a referenced image. The position in the reference image of the moon detected in the process of step S104 is (i 0 , j 0 ).

ステップS104の処理の後、天体相対位置格納部24は、天体検出部23a又は23bにより検出された参照画像内の月を含む正方形の画像領域を、新たな月のテンプレート画像とする。天体相対位置格納部24は、新たな月のテンプレート画像を用いて、被参照画像において、新たな月のテンプレート画像とマッチングする位置を走査する。   After the process of step S104, the astronomical relative position storage unit 24 sets a square image region including the moon in the reference image detected by the astronomical detector 23a or 23b as a template image of a new month. The astronomical object relative position storage unit 24 uses the template image of the new moon to scan a position that matches the template image of the new moon in the referenced image.

このとき、天体相対位置格納部24は、下記のコスト関数により算出されるコスト値に基づいて、上記マッチングする位置を走査する。ここで、“Costrelative”、“Ireference”及び“Ireferenced”は、夫々、「参照画像(即ち、新たな月のテンプレート画像)を用いたコスト値」、「参照画像輝度」及び「被参照画像輝度」である。“i”、“j”、“a”、“b”、“N”及び“M”は、夫々、「被参照画像の横位置」、「被参照画像の縦位置」、「新たな月のテンプレート画像の横位置」、「新たな月のテンプレート画像の縦位置」、「新たな月のテンプレート画像の横幅」及び「新たな月のテンプレート画像の縦幅」である。 At this time, the astronomical relative position storage unit 24 scans the matching position based on the cost value calculated by the following cost function. Here, “Cost relative ”, “I reference ”, and “I referenced ” are “cost value using reference image (that is, template image of new month)”, “reference image luminance”, and “referenced”, respectively. "Image brightness". “I”, “j”, “a”, “b”, “N”, and “M” are “horizontal position of the referenced image”, “vertical position of the referenced image”, and “new month”, respectively. “Horizontal position of template image”, “Vertical position of template image of new month”, “Horizontal width of template image of new month”, and “Vertical width of template image of new month”.

コスト値が最小となる位置、即ち、新たな月のテンプレート画像とマッチングする位置を(i,j)とする。次に、天体相対位置格納部24は、新たな月のテンプレート画像を、(i,j)から左右夫々に1ピクセルずらして算出されたコスト値(即ち、(i−1,j)及び(i+1,j)各々のコスト値)を用いて、下記の式(3)からサブピクセル精度での横位置isubを算出する。同様に、天体相対位置格納部24は、新たな月のテンプレート画像を、(i,j)から上下夫々に1ピクセルずらして算出されたコスト値(即ち、(i,j−1)及び(i,j+1)各々のコスト値)を用いて、下記の式(4)からサブピクセル精度での縦位置jsubを算出する。 Let (i 1 , j 1 ) be the position where the cost value is minimized, that is, the position that matches the new month template image. Next, the astronomical object relative position storage unit 24 calculates a cost value (that is, (i 1 -1, j 1 ) calculated by shifting the template image of the new moon by 1 pixel to the left and right from (i 1 , j 1 ). ) And (i 1 + 1, j 1 ) cost values) are used to calculate the lateral position i sub with subpixel accuracy from the following equation (3). Similarly, the astronomical object relative position storage unit 24 calculates a cost value (that is, (i 1 , j 1 −1)) by shifting the template image of the new moon by 1 pixel from the top and bottom of (i 1 , j 1 ). ) And (i 1 , j 1 +1) are used to calculate the vertical position j sub with sub-pixel accuracy from the following equation (4).

次に、天体相対位置格納部24は、(i,j,i+isub,j+jsub)を一組のデータ(即ち、月相対位置)として格納する(ステップS105)。ここで、天体相対位置格納部24は、予め、例えば図3に示すように、画像を4つの領域(i)〜(iv)に分割する。
天体相対位置格納部24は、月相対位置としての(i,j,i+isub,j+jsub)のうち“i”の値に基づいて、月相対位置が、領域(i)〜(iv)のいずれに属するかを関連付けて、該月相対位置を格納する(ステップS105)。
Next, the astronomical relative position storage unit 24 stores (i 0 , j 0 , i 1 + i sub , j 1 + j sub ) as a set of data (that is, a month relative position) (step S105). Here, the astronomical object relative position storage unit 24 divides the image into four regions (i) to (iv) in advance, for example, as shown in FIG.
The astronomical relative position storage unit 24 calculates the relative month position based on the value of “i 0 ” of (i 0 , j 0 , i 1 + i sub , j 1 + j sub ) as the month relative position. ) To (iv), the month relative position is stored in association with each other (step S105).

次に、相対姿勢算出部25は、天体相対位置格納部24により格納された月相対位置の数が、閾値Tnumより大きいか否かを判定する(ステップS106)。相対姿勢算出部25は、領域(i)〜(iv)の各領域に関連付けられた月相対位置の数が閾値Tnumより大きい場合に、「月相対位置の数が閾値Tnumより大きい」と判定する。言い換えれば、相対姿勢算出部25は、領域(i)〜(iv)のうちある領域に関連付けられた月相対位置の数が閾値Tnum以下であれば、他の領域に関連付けられた月相対位置の数が閾値Tnumより大きいとしても、「月相対位置の数が閾値Tnumより大きくない」と判定する。 Next, the relative posture calculation unit 25 determines whether or not the number of month relative positions stored by the astronomical relative position storage unit 24 is greater than a threshold value Tnum (step S106). When the number of month relative positions associated with each of the areas (i) to (iv) is greater than the threshold value T num, the relative posture calculation unit 25 determines that “the number of month relative positions is greater than the threshold value T num ”. judge. In other words, if the number of month relative positions associated with a certain area among the areas (i) to (iv) is equal to or less than the threshold value T num , the relative posture calculating unit 25 is associated with other areas. the number even if greater than the threshold value T num of determines "number of months relative position is not greater than the threshold value T num".

ステップS106の判定において、月相対位置の数が閾値Tnumより大きくないと判定された場合(ステップS106:No)、ステップS101の処理が行われる。他方、ステップS106の判定において、月相対位置の数が閾値Tnumより大きいと判定された場合(ステップS106:Yes)、相対姿勢算出部25は、ステレオカメラ10に係る外部パラメータとしての相対姿勢を算出する(ステップS107)。 If it is determined in step S106 that the number of month relative positions is not greater than the threshold value Tnum (step S106: No), the process of step S101 is performed. On the other hand, if it is determined in step S106 that the number of monthly relative positions is greater than the threshold value Tnum (step S106: Yes), the relative attitude calculation unit 25 calculates the relative attitude as an external parameter related to the stereo camera 10. Calculate (step S107).

具体的には、相対姿勢算出部25は、参照画像の月が写っている領域を、無限遠領域(即ち、無限遠点の集合)として、相対姿勢を算出する。相対姿勢算出部25は、天体相対位置格納部24に格納されている全ての月相対位置各々に基づいて複数の(i,j+jsub−j)を求める。該複数の(i,jsub+j−j)を、横軸を“i”、縦軸を“j+jsub−j”とする座標上にプロットすると、例えば図4のようになる。 Specifically, the relative posture calculation unit 25 calculates a relative posture by setting an area where the moon of the reference image is captured as an infinite region (that is, a set of infinity points). The relative attitude calculation unit 25 obtains a plurality of (i 0 , j 1 + j sub −j 0 ) based on each of all the moon relative positions stored in the astronomical relative position storage unit 24. When the plurality of (i 0 , j sub + j 1 −j 0 ) are plotted on coordinates with the horizontal axis “i o ” and the vertical axis “j 1 + j sub −j 0 ”, for example, as shown in FIG. become.

相対姿勢算出部25は、複数の(i,jsub+j−j)に基づいて、最小二乗法を用いて、近似直線“y=ax+b”を求める。ここで、“a”及び“b”は、下記式により表される。下記式において“N”、“x”及び“y”は、夫々、「計算に用いられたデータ数」、「横軸データ値(即ち、i)」及び「縦軸データ値(即ち、jsub+j−j)」である。 The relative attitude calculation unit 25 obtains an approximate straight line “y = ax + b” using a least square method based on a plurality of (i 0 , j sub + j 1 −j 0 ). Here, “a” and “b” are expressed by the following equations. In the following equation, “N”, “x”, and “y” are respectively “the number of data used in the calculation”, “horizontal axis data value (ie, i 0 )”, and “vertical axis data value (ie, j). sub + j 1 −j 0 ) ”.

相対姿勢算出部25は、上記“a”及び“b”から縦ずれ量Δj及び回転ずれ量Δθを、下記式により求める。 The relative posture calculation unit 25 obtains the vertical deviation amount Δj and the rotational deviation amount Δθ from the above-described formulas “a” and “b”.

相対姿勢算出部25は、更に、回転ずれ量Δθを考慮した横位置変化分の平均を求めることにより、即ち、下記式により、横ずれ量Δiを求める。下記式において“H”は、「参照画像の縦幅」である。 The relative posture calculation unit 25 further obtains the lateral displacement amount Δi by calculating the average of the lateral position change in consideration of the rotational displacement amount Δθ, that is, the following equation. In the following formula, “H” is “vertical width of the reference image”.

次に、相対姿勢算出部25は、下記式により、相対姿勢としてのピッチ角(Pitch)、ロール角(Roll)及びヨー角(Yaw)を求める。下記式において“f”は、焦点距離である。 Next, the relative posture calculation unit 25 obtains a pitch angle (Pitch), a roll angle (Roll), and a yaw angle (Yaw) as a relative posture by the following formula. In the following formula, “f” is a focal length.

次に、相対姿勢算出部25は、算出された相対姿勢が第1条件を満たすか否かを判定する(ステップS108)。ここで、第1条件には、(i)ピッチ角が閾値Tp_small未満である、(ii)ロール角が閾値Tr_small未満である、及び、(iii)ヨー角が閾値Ty_small未満である、という条件が含まれる。尚、「閾値Tp_small」、「閾値Tr_small」及び「閾値Ty_small」は、本発明に係る「第1閾値」の一例である。 Next, the relative posture calculation unit 25 determines whether or not the calculated relative posture satisfies the first condition (step S108). Here, the first condition includes (i) the pitch angle is less than the threshold value T p_small , (ii) the roll angle is less than the threshold value T r_small , and (iii) the yaw angle is less than the threshold value T y_small , This condition is included. Note that “threshold value T p_small ”, “threshold value T r_small ”, and “threshold value T y_small ” are examples of the “first threshold value” according to the present invention.

ステップS108の判定において、相対姿勢が第1条件を満たすと判定された場合(即ち、上記条件(i)〜(iii)の全てが満たされた場合)(ステップS108:Yes)、自動キャリブレーション装置20は、ステレオカメラ10の校正をすることなく(ステップS109)、処理を終了する。   When it is determined in step S108 that the relative posture satisfies the first condition (that is, when all of the above conditions (i) to (iii) are satisfied) (step S108: Yes), the automatic calibration device 20 ends the process without calibrating the stereo camera 10 (step S109).

ステップS108の判定において、相対姿勢が第1条件を満たさないと判定された場合(即ち、上記条件(i)〜(iii)のうち少なくとも一つの条件が満たされない場合)(ステップS108:No)、相対姿勢算出部25は、相対姿勢が第2条件を満たすか否かを判定する(ステップS110)。ここで、第2条件には、(i)ピッチ角が閾値Tp_largeより大きい、(ii)ロール角が閾値Tr_largeより大きい、及び、(iii)ヨー角が閾値Ty_largeより大きい、という条件が含まれる。 In the determination of step S108, when it is determined that the relative posture does not satisfy the first condition (that is, when at least one of the conditions (i) to (iii) is not satisfied) (step S108: No), The relative posture calculation unit 25 determines whether or not the relative posture satisfies the second condition (step S110). Here, the second condition includes a condition that (i) the pitch angle is larger than the threshold value T p_large , (ii) the roll angle is larger than the threshold value T r_large , and (iii) the yaw angle is larger than the threshold value T y_large. included.

ただし、“閾値Tp_large>閾値Tp_small”、“閾値Tr_large>閾値Tr_small”且つ“閾値Tp_large>閾値Ty_small”である。尚、「閾値Tp_large」、「閾値Tr_large」及び「閾値Ty_large」は、本発明に係る「第2閾値」の一例である。 However, “threshold value T p_large > threshold value T p_small ”, “threshold value T r_large > threshold value T r_small ” and “threshold value T p_large > threshold value T y_small ”. The “threshold value T p_large ”, “threshold value T r_large ”, and “threshold value T y_large ” are examples of the “second threshold value” according to the present invention.

ステップS110の判定において、相対姿勢が第2条件を満たすと判定された場合(即ち、上記条件(i)〜(iii)の全てが満たされた場合)(ステップS110:Yes)、相対姿勢算出部25は、ディーラでステレオカメラ10を物理的に校正すべきと判定する(ステップS111)。この場合、自動キャリブレーション装置20は、例えば音声や画像により、或いは、所定のインジケータを点灯又は点滅させることにより、当該撮像装置1が搭載されている車両のユーザに、ステレオカメラ10の物理的な校正が必要であることを報知する。   When it is determined in step S110 that the relative posture satisfies the second condition (that is, when all of the above conditions (i) to (iii) are satisfied) (step S110: Yes), the relative posture calculator In 25, the dealer determines that the stereo camera 10 should be physically calibrated (step S111). In this case, the auto-calibration device 20 can physically send the stereo camera 10 to the user of the vehicle on which the imaging device 1 is mounted, for example, by sound or image, or by turning on or blinking a predetermined indicator. Notify that calibration is required.

他方、ステップS110の判定において、相対姿勢が第2条件を満たさないと判定された場合(即ち、上記条件(i)〜(iii)のうち少なくとも一つの条件が満たされない場合)(ステップS110:No)、自動キャリブレーション装置20は、ステレオカメラ10の校正を行う(ステップS112)。尚、ステレオカメラ10の校正については、既存の技術を適用可能であるので、その詳細についての説明は省略する。   On the other hand, when it is determined in step S110 that the relative posture does not satisfy the second condition (that is, when at least one of the above conditions (i) to (iii) is not satisfied) (step S110: No) ) The automatic calibration device 20 calibrates the stereo camera 10 (step S112). It should be noted that since the existing technology can be applied to the calibration of the stereo camera 10, a detailed description thereof will be omitted.

(技術的効果)
撮像素子11aを有するカメラと撮像素子11bを有するカメラとの間の相対姿勢が比較的大きく変化している場合、該2つのカメラの絶対姿勢も比較的大きく変化している可能性がある。この場合、自動キャリブレーション装置20によるステレオカメラ10の校正だけでは、距離推定部30により推定される距離の精度を十分に向上させることは困難である。
(Technical effect)
When the relative posture between the camera having the image pickup device 11a and the camera having the image pickup device 11b changes relatively large, the absolute postures of the two cameras may also change relatively large. In this case, it is difficult to sufficiently improve the accuracy of the distance estimated by the distance estimation unit 30 only by calibrating the stereo camera 10 by the automatic calibration device 20.

当該撮像装置1では、相対姿勢が第2条件を満たすか否か、即ち、自動キャリブレーション装置20によるステレオカメラ10の校正で対応可能か、ステレオカメラ10のディーラでの物理的な校正が必要か、が判定される。つまり、当該撮像装置1は、ステレオカメラ10の物理的な(即ち、絶対姿勢の)校正が必要であるかを判定することができる。   In the imaging apparatus 1, whether or not the relative posture satisfies the second condition, that is, is it possible to cope with the calibration of the stereo camera 10 by the automatic calibration apparatus 20, or is the physical calibration by the dealer of the stereo camera 10 necessary? , Is determined. That is, the imaging apparatus 1 can determine whether the stereo camera 10 needs physical (that is, absolute posture) calibration.

実施形態に係る「撮像素子11a及び11b」は、本発明に係る「撮像部」の一例である。実施形態に係る「天体検出部23a及び23b」は、本発明に係る「検出部」の一例である。実施形態に係る「相対姿勢算出部25」は、本発明に係る「算出部」、「第1判定部」及び「第2判定部」の一例である。   The “imaging elements 11a and 11b” according to the embodiment are examples of the “imaging unit” according to the invention. The “celestial body detection units 23a and 23b” according to the embodiment is an example of the “detection unit” according to the present invention. The “relative attitude calculation unit 25” according to the embodiment is an example of the “calculation unit”, “first determination unit”, and “second determination unit” according to the present invention.

(変形例)
撮像装置1に衝撃センサを追加すると共に、校正実行判定処理のステップS101の処理の前段において、衝撃センサにより検出された衝撃が所定値より大きいか否かの判定を行い、衝撃が所定値より大きい場合に、ディーラでステレオカメラ10を物理的に校正すべきと判定されてもよい。尚、衝撃が所定値以下である場合は、ステップS101の処理が行われる。
(Modification)
In addition to adding an impact sensor to the imaging apparatus 1, it is determined whether or not the impact detected by the impact sensor is greater than a predetermined value before the process of step S101 of the calibration execution determination process. In some cases, the dealer may determine that the stereo camera 10 should be physically calibrated. If the impact is not more than the predetermined value, the process of step S101 is performed.

また、校正実行判定処理の検出対象は、月に代えて又は加えて、太陽であってもよい。   Further, the detection target of the calibration execution determination process may be the sun instead of or in addition to the moon.

本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う撮像装置もまた本発明の技術的範囲に含まれるものである。   The present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the gist or concept of the invention that can be read from the claims and the entire specification. Moreover, it is included in the technical scope of the present invention.

1…撮像装置、10…ステレオカメラ、11a、11b…撮像素子、12a、12b…画像生成部、20…自動キャリブレーション装置、21…車両方位推定部、22…天体出現位置推定部、23a、23b…天体検出部、24…天体相対位置格納部、25…相対姿勢算出部、30…距離推定部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 10 ... Stereo camera, 11a, 11b ... Imaging device, 12a, 12b ... Image generation part, 20 ... Automatic calibration apparatus, 21 ... Vehicle direction estimation part, 22 ... Astronomical object appearance position estimation part, 23a, 23b ... Astronomy detection unit, 24 ... Astronomy relative position storage unit, 25 ... Relative posture calculation unit, 30 ... Distance estimation unit

Claims (1)

複数の撮像部と、
前記複数の撮像部各々により撮像された一組の画像から天体を検出する検出部と、
前記検出部により検出された天体を無限遠点として、前記一組の画像に基づいて、前記複数の撮像部間の相対姿勢角を算出する算出部と、
前記算出された相対姿勢角と第1閾値とを比較して、前記複数の撮像部の校正の必要性を判定する第1判定部と、
前記第1判定部により前記複数の撮像部の校正が必要と判定された場合、前記算出された相対姿勢角と、前記第1閾値より大きい第2閾値とを比較して、前記複数の撮像部に係るパラメータを変更することによる前記複数の撮像部の校正が可能か、前記複数の撮像部の物理的な校正が必要かを判定する第2判定部と、
を備えることを特徴とする撮像装置。
A plurality of imaging units;
A detection unit for detecting a celestial body from a set of images captured by each of the plurality of imaging units;
A calculation unit that calculates a relative posture angle between the plurality of imaging units based on the set of images, with the celestial body detected by the detection unit as a point at infinity;
A first determination unit that compares the calculated relative attitude angle with a first threshold value to determine the necessity of calibration of the plurality of imaging units;
When the first determination unit determines that calibration of the plurality of imaging units is necessary, the calculated relative attitude angle is compared with a second threshold value that is greater than the first threshold value, and the plurality of imaging units is compared. A second determination unit that determines whether the plurality of imaging units can be calibrated by changing a parameter according to the above, or whether physical calibration of the plurality of imaging units is necessary;
An imaging apparatus comprising:
JP2017016473A 2017-02-01 2017-02-01 Imaging apparatus Pending JP2018125706A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017016473A JP2018125706A (en) 2017-02-01 2017-02-01 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017016473A JP2018125706A (en) 2017-02-01 2017-02-01 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2018125706A true JP2018125706A (en) 2018-08-09

Family

ID=63110486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017016473A Pending JP2018125706A (en) 2017-02-01 2017-02-01 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2018125706A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021184218A1 (en) * 2020-03-17 2021-09-23 华为技术有限公司 Relative pose calibration method and related apparatus
EP4137887A1 (en) * 2021-08-19 2023-02-22 Simmonds Precision Products, Inc. Shutter seeker calibration

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021184218A1 (en) * 2020-03-17 2021-09-23 华为技术有限公司 Relative pose calibration method and related apparatus
EP4137887A1 (en) * 2021-08-19 2023-02-22 Simmonds Precision Products, Inc. Shutter seeker calibration

Similar Documents

Publication Publication Date Title
CN108805934B (en) External parameter calibration method and device for vehicle-mounted camera
EP3367677B1 (en) Calibration apparatus, calibration method, and calibration program
KR101787304B1 (en) Calibration method, calibration device, and computer program product
WO2018142900A1 (en) Information processing device, data management device, data management system, method, and program
US9866818B2 (en) Image processing apparatus and method, image processing system and program
EP3032818B1 (en) Image processing device
US20150279016A1 (en) Image processing method and apparatus for calibrating depth of depth sensor
US20160063704A1 (en) Image processing device, image processing method, and program therefor
JP2012253758A (en) Method of calibrating vehicle vision system and vehicle vision system
JP2013186816A (en) Moving image processor, moving image processing method and program for moving image processing
WO2015045329A1 (en) Vehicle periphery image display device, and camera adjustment method
JP6515650B2 (en) Calibration apparatus, distance measuring apparatus and calibration method
Nienaber et al. A comparison of low-cost monocular vision techniques for pothole distance estimation
JP6433200B2 (en) Arithmetic apparatus, arithmetic method, and program
WO2015029443A1 (en) Turning angle correction method, turning angle correction device, image-capturing device, and turning angle correction system
JP2019510312A (en) Method, computer device, driver assistance system, and motor vehicle for motion estimation between two images of an environmental region of a motor vehicle
CN112489136B (en) Calibration method, position determination device, electronic equipment and storage medium
US20130113897A1 (en) Process and arrangement for determining the position of a measuring point in geometrical space
US10666926B1 (en) Residual error mitigation in multiview calibration
JP2011209269A (en) Image pickup apparatus and range obtaining system
KR20140134331A (en) Camera calibration method, camera calibration program and camera calibration device
JP2014074632A (en) Calibration apparatus of in-vehicle stereo camera and calibration method
CN110488838B (en) Accurate repeated positioning method for indoor autonomous navigation robot
KR100671504B1 (en) Method for correcting of aerial photograph image using multi photograph image
JP2017181476A (en) Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program