JP2015186026A - Camera calibration device - Google Patents

Camera calibration device Download PDF

Info

Publication number
JP2015186026A
JP2015186026A JP2014060581A JP2014060581A JP2015186026A JP 2015186026 A JP2015186026 A JP 2015186026A JP 2014060581 A JP2014060581 A JP 2014060581A JP 2014060581 A JP2014060581 A JP 2014060581A JP 2015186026 A JP2015186026 A JP 2015186026A
Authority
JP
Japan
Prior art keywords
image
targets
unit
target
windshield
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014060581A
Other languages
Japanese (ja)
Other versions
JP6367584B2 (en
Inventor
大昌 新舎
Hiromasa Shinsha
大昌 新舎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2014060581A priority Critical patent/JP6367584B2/en
Publication of JP2015186026A publication Critical patent/JP2015186026A/en
Application granted granted Critical
Publication of JP6367584B2 publication Critical patent/JP6367584B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a camera calibration without the influence of ambient brightness.SOLUTION: An imaging unit 30 having an imaging element 32 comprising near-infrared light receiving elements 34 (34a, 34b, 34c, ...) sensitive to near-infrared light images plural targets 24(24a, 24b, 24c, 24d) transmitting therethrough or reflecting near-infrared light. A target position measurement unit 48 measures the respective positions of the targets 24 from inside an observed image I'. An image correction unit 52 geometrically corrects the image I' so that the targets 24 may be observed at positions where they should be observed originally.

Description

本発明は、空間内の点の3次元位置と、その点がカメラで撮影されて画像化されたときの、画像上の点の2次元位置とを対応付けることによって、焦点距離などのカメラの内部パラメータと、カメラの設置位置や設置方向に関わる外部パラメータとを決定するカメラキャリブレーション装置に関する。   The present invention relates to the internal distance of a camera such as a focal length by associating a three-dimensional position of a point in space with a two-dimensional position of a point on the image when the point is imaged by the camera. The present invention relates to a camera calibration apparatus that determines parameters and external parameters related to the installation position and installation direction of the camera.

近年、車両にカメラを設置し、観測された画像の中から、道路領域や先行車両を検出して、車両と道路環境との関係を分析し、安全な運転を補助するITSシステムが普及しつつある。   In recent years, an ITS system that installs a camera on a vehicle, detects a road area and a preceding vehicle from the observed images, analyzes the relationship between the vehicle and the road environment, and assists safe driving has become widespread. is there.

このようなシステムを実現して、安定した性能を発揮させるためには、一般に、車両に設置したカメラの位置やその取り付け方向といった外部パラメータと、カメラの焦点距離,レンズの歪曲等の内部パラメータを適切にキャリブレーションする必要がある。そのため、様々なキャリブレーション装置が提案されている。   In order to realize such a system and exhibit stable performance, in general, external parameters such as the position of the camera installed in the vehicle and its mounting direction, and internal parameters such as the camera focal length and lens distortion are used. It needs to be properly calibrated. For this reason, various calibration apparatuses have been proposed.

特開2010−107348号公報JP 2010-107348 A

しかしながら、例えば、特許文献1に記載されたキャリブレーション装置は、設置されたターゲット(マーカ)の位置を検出して、その重心位置をマーカの設置位置として算出する構成になっていた。   However, for example, the calibration device described in Patent Document 1 is configured to detect the position of an installed target (marker) and calculate the center of gravity position as the marker installation position.

このような従来のキャリブレーション装置にあっては、カメラで観測される複数のマーカ(視標)の位置を計測するために、画像処理によって画像の中に映ったマーカを検出して、その位置を計測していた。その際、周囲の明るさが変動すると、マーカの検出精度が低下する虞があるため、使用する環境によってはキャリブレーションの精度が悪化してしまうという問題があった。   In such a conventional calibration apparatus, in order to measure the positions of a plurality of markers (targets) observed by the camera, the markers reflected in the image are detected by image processing, and the positions are detected. I was measuring. At this time, if the ambient brightness fluctuates, there is a possibility that the marker detection accuracy may be lowered. Therefore, there is a problem that the accuracy of the calibration is deteriorated depending on the use environment.

本発明は、上記課題に鑑みてなされたもので、キャリブレーションを行う周囲の明るさに影響されずに、安定してマーカ(視標)の位置を計測してキャリブレーションを行うことができるカメラキャリブレーション装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and can perform calibration by stably measuring the position of a marker (target) without being affected by the brightness of surroundings to be calibrated. An object is to provide a calibration device.

本発明に係るカメラキャリブレーション装置は、周囲の明るさの変動によらずに、キャリブレーションに用いる視標の位置を確実に計測するものである。   The camera calibration apparatus according to the present invention reliably measures the position of a target used for calibration, regardless of fluctuations in ambient brightness.

すなわち、本発明に係るカメラキャリブレーション装置は、近赤外光に感度を有する近赤外受光素子を備えた撮像素子と、前記撮像素子によって画像を生成する撮像部と、前記近赤外光を透過または反射する複数の視標と、前記撮像部によって撮像された前記複数の視標を含む画像の中から、前記複数の視標のそれぞれの位置を計測する視標位置計測部と、前記画像の中の前記複数の視標の位置に基づいて、前記複数の視標が本来観測される位置に映るように、前記画像の幾何学的補正を行う画像補正部と、を有することを特徴とする。   That is, the camera calibration apparatus according to the present invention includes an imaging device including a near-infrared light receiving element having sensitivity to near-infrared light, an imaging unit that generates an image using the imaging device, and the near-infrared light. A target position measuring unit that measures each position of the plurality of targets out of an image including a plurality of targets that are transmitted or reflected and the plurality of targets captured by the imaging unit, and the image An image correction unit that performs geometric correction of the image so that the plurality of targets are reflected at positions where they are originally observed based on the positions of the plurality of targets in the image. To do.

このように構成された本発明に係るカメラキャリブレーション装置によれば、撮像部を構成する撮像素子が、近赤外光に感度を有する近赤外受光素子を備えるため、この撮像部で、近赤外光を透過または反射する複数の視標を撮影すると、観測される画像の中には、複数の視標が高いコントラストで観測される。したがって、視標位置計測部によって、複数の視標の位置を確実かつ正確に計測することができる。そして、視標位置計測部によって計測された複数の視標の画像上の位置を画像補正部が補正するため、周囲の明るさが変動する場合であっても、照明装置等を用いることなく、周囲の明るさに影響されずに撮像部のキャリブレーションを確実に行うことができる。   According to the camera calibration device according to the present invention configured as described above, since the imaging element constituting the imaging unit includes a near-infrared light receiving element having sensitivity to near-infrared light, When a plurality of targets that transmit or reflect infrared light are photographed, a plurality of targets are observed with high contrast in the observed image. Therefore, the positions of a plurality of targets can be reliably and accurately measured by the target position measuring unit. And since the image correction unit corrects the position on the image of the plurality of targets measured by the target position measurement unit, even if the ambient brightness fluctuates, without using an illumination device or the like, The imaging unit can be calibrated reliably without being affected by ambient brightness.

本発明に係るカメラキャリブレーション装置によれば、キャリブレーションを行う周囲の明るさに影響されずに、安定してカメラのキャリブレーションを行うことができる。   According to the camera calibration apparatus of the present invention, the camera can be calibrated stably without being affected by the brightness of the surroundings for calibration.

本発明の1実施形態である実施例1に係るカメラキャリブレーション装置を車載した状態を示す外観図である。It is an external view which shows the state which mounted the camera calibration apparatus which concerns on Example 1 which is 1 embodiment of this invention. (a)は実施例1に係るカメラキャリブレーション装置を車両に実装した際に、車両のフロントウインドシールドを正面から見た外観を示す図である。(b)は図5(a)を矢印Eの方向から見た側面図である。(A) is a figure which shows the external appearance which looked at the front windshield of the vehicle from the front, when the camera calibration apparatus which concerns on Example 1 is mounted in the vehicle. (B) is the side view which looked at Fig.5 (a) from the direction of arrow E. FIG. 実施例1に係るカメラキャリブレーション装置の機能構成を示す機能ブロック図である。1 is a functional block diagram illustrating a functional configuration of a camera calibration device according to Embodiment 1. FIG. 実施例1における撮像素子の構造について説明する図であり、(a)は撮像素子の平面図である。(b)は撮像素子を切断線A−Aで切った断面図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure explaining the structure of the image pick-up element in Example 1, (a) is a top view of an image pick-up element. (B) is sectional drawing which cut the image pick-up element by cutting line AA. 実施例1における撮像素子を構成する各受光素子の分光感度の概略パターンを示す図である。FIG. 3 is a diagram illustrating a schematic pattern of spectral sensitivity of each light receiving element that constitutes the imaging element according to the first embodiment. (a)は実施例1において視標があるべき位置に撮影された状態を示す画像の一例である。(b)は実施例1において視標が実際に撮影された状態を示す画像の一例である。(c)は実施例1において使用する視標の具体的な例を示す図である。(A) is an example of the image which shows the state image | photographed in the position which should have a visual target in Example 1. FIG. (B) is an example of an image showing a state in which the visual target is actually photographed in the first embodiment. (C) is a figure which shows the specific example of the optotype used in Example 1. FIG. 図6(a)に示す画像と、図6(b)に示す画像を重ね合わせた様子を示す図である。It is a figure which shows a mode that the image shown to Fig.6 (a) and the image shown to FIG.6 (b) were piled up. (a)は図7の結果に基づいて算出される、視標の観測位置の横方向の位置ずれ量を表す図である。(b)は図7の結果に基づいて算出される、視標の観測位置の縦方向の位置ずれ量を表す図である。(A) is a figure showing the amount of position shift of the horizontal direction of the observation position of a target computed based on the result of Drawing 7. (B) is a figure showing the amount of position shift of the observation position of a target in the vertical direction calculated based on the result of FIG. 実施例1で行われる処理の全体の流れを示すフローチャートである。3 is a flowchart illustrating an overall flow of processing performed in the first embodiment. 図9のフローチャートの中で行われるキャリブレーションの流れを示すフローチャートである。10 is a flowchart showing a flow of calibration performed in the flowchart of FIG. 9.

以下、本発明に係るカメラキャリブレーション装置の具体的な実施形態について、図面を参照して説明する。   Hereinafter, specific embodiments of a camera calibration apparatus according to the present invention will be described with reference to the drawings.

本実施例は、本発明を、車両に設置されたカメラのキャリブレーションを行うカメラキャリブレーション装置に適用したものである。
(カメラキャリブレーション装置の構成の説明)
In this embodiment, the present invention is applied to a camera calibration apparatus that calibrates a camera installed in a vehicle.
(Description of the configuration of the camera calibration device)

まず、図1を用いて、本発明の一実施形態であるカメラキャリブレーション装置の構成を説明する。図1は、本実施例に係るカメラキャリブレーション装置10を車両Vに実装した様子を示す図である   First, the configuration of a camera calibration apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram illustrating a state in which a camera calibration device 10 according to the present embodiment is mounted on a vehicle V.

カメラキャリブレーション装置10は車両Vのルームミラー12の裏側付近に、車両Vの外側に向けて設置された撮像部30と、フロントガラス20(ウインドシールド)の外表面に貼り付けられた、視標24a,24b,24c,24dが印刷または貼り付けられた透明フィルム22を備えている。   The camera calibration device 10 is a visual target attached to an outer surface of a windshield 20 and an imaging unit 30 installed toward the outside of the vehicle V in the vicinity of the rear side of the room mirror 12 of the vehicle V. A transparent film 22 on which 24a, 24b, 24c, and 24d are printed or pasted is provided.

撮像部30は、CCDやCMOS等の撮像素子32(図3)を有している。なお、撮像素子32の具体的な構成は後述する。   The imaging unit 30 has an imaging element 32 (FIG. 3) such as a CCD or CMOS. The specific configuration of the image sensor 32 will be described later.

透明フィルム22は、フロントガラス20(ウインドシールド)と同様の分光透過特性を有しており、その表面に4つの視標24a,24b,24c,24dが描かれている。   The transparent film 22 has the same spectral transmission characteristics as the windshield 20 (windshield), and four visual targets 24a, 24b, 24c, and 24d are drawn on the surface thereof.

4つの視標24a,24b,24c,24dは同じ大きさを有する必要はないが、近赤外光(例えば750〜850nmの光)の透過特性が、フロントガラス20(ウインドシールド)の近赤外光の透過特性とは異なる特性を有している。すなわち、フロントガラス20の近赤外光の透過率が100%であるときには、視標24a,24b,24c,24dは、ともに近赤外光を遮断する(透過しない)分光透過特性を有しているものとする。そして、この4つの視標24a,24b,24c,24dは、全て撮像部30の撮影視野の中に収まっている。以下、この4つの視標24a,24b,24c,24dを総称して、単に視標24と呼ぶ。視標24の具体的な形状については後述する。   Although the four visual targets 24a, 24b, 24c, and 24d do not have to have the same size, the transmission characteristics of near-infrared light (for example, light of 750 to 850 nm) is near-infrared of the windshield 20 (windshield). It has characteristics different from the light transmission characteristics. That is, when the near-infrared light transmittance of the windshield 20 is 100%, the targets 24a, 24b, 24c, and 24d all have spectral transmission characteristics that block (do not transmit) near-infrared light. It shall be. The four visual targets 24 a, 24 b, 24 c and 24 d are all within the photographing field of view of the imaging unit 30. Hereinafter, the four visual targets 24a, 24b, 24c, and 24d are collectively referred to simply as the visual target 24. The specific shape of the visual target 24 will be described later.

撮像部30は、具体的には、車両Vの外部の様子を録画するドライブレコーダの撮像部、あるいは、車両前方のレーンマーカの位置を検出して、車両Vの車線からのはみ出しを警告する車線逸脱警報装置等の各種アプリケーションに用いられる。ただし、本発明の内容は、撮像部30の具体的用途には何ら制限を与えるものではない。   Specifically, the imaging unit 30 detects the position of the lane marker in front of the vehicle V by detecting the position of the imaging unit of the drive recorder that records the state of the outside of the vehicle V or the vehicle V, and deviates from the lane. Used for various applications such as alarm devices. However, the content of the present invention does not limit the specific application of the imaging unit 30.

図2(a),(b)は、撮像部30の詳細な取り付け状態を示す図である。図2(a)は、車両Vを正面から見た図である。フロントガラス20(ウインドシールド)の外表面には、透明フィルム22が貼り付けられている。この透明フィルム22は、撮像部30の撮像視野を包含する位置に貼り付けられている。そして、この透明フィルム22には、視標24(24a,24b,24c,24d)が、印刷または貼り付けられている。なお、透明フィルム22は、前述したようにフロントガラス20と同様の分光透過特性を有しているため、透明フィルム22を貼り付けたことによる、撮像部30で撮像された画像への影響はない。   2A and 2B are diagrams illustrating a detailed mounting state of the imaging unit 30. FIG. FIG. 2A is a view of the vehicle V as viewed from the front. A transparent film 22 is attached to the outer surface of the windshield 20 (windshield). The transparent film 22 is affixed at a position including the imaging field of view of the imaging unit 30. A target 24 (24a, 24b, 24c, 24d) is printed or pasted on the transparent film 22. In addition, since the transparent film 22 has the same spectral transmission characteristics as the windshield 20 as described above, there is no influence on the image picked up by the image pickup unit 30 by attaching the transparent film 22. .

なお、この視標24(24a,24b,24c,24d)は、近赤外光の透過特性のみがフロントガラス20(ウインドシールド)と異なるため、運転者が見る限りはその存在を確認することができない。したがって、フロントガラス20を製造する際に、視標24をガラスの内部に埋め込んで製造してもよい。そして、この場合には、フロントガラス20の近赤外光の透過率をほぼ0として、視標24の近赤外光の透過率をほぼ100%としてもよい。   The target 24 (24a, 24b, 24c, 24d) is different from the windshield 20 (windshield) only in the near-infrared light transmission characteristics, so that its presence can be confirmed as far as the driver sees it. Can not. Therefore, when the windshield 20 is manufactured, the visual target 24 may be embedded in the glass. In this case, the near-infrared light transmittance of the windshield 20 may be substantially 0, and the near-infrared light transmittance of the visual target 24 may be substantially 100%.

撮像部30の撮像視野は、フロントガラス20(ウインドシールド)の表面上で、透明フィルム22の内側に、図2(a)に示す領域R1の範囲になるように設定されている。また、撮像部30を用いるアプリケーションは、領域R1よりも内側の領域R2の範囲の画像情報を活用するように設定されている。   The imaging field of view of the imaging unit 30 is set on the surface of the windshield 20 (windshield) so as to be within a region R1 shown in FIG. The application using the imaging unit 30 is set so as to utilize image information in the range of the region R2 inside the region R1.

そして、全ての視標24(24a,24b,24c,24d)は、領域R1の内部で、なおかつ、領域R2の外周よりも外側の領域に映るような位置に設置されている。   All the visual targets 24 (24a, 24b, 24c, 24d) are installed at positions that are reflected in the region R1 and in the region outside the outer periphery of the region R2.

図2(b)は、図2(a)を矢印Eの方向から見た側面図である。図2(b)に示すように、撮像部30は、車両Vのフロントガラス20(ウインドシールド)の裏面側に、カメラ固定部26を介して設置されている。そして、撮像部30はルームミラー12の裏側付近に位置するように固定されて、車両Vの運転者の視界に入らないように設置される。
(カメラキャリブレーション装置の機能構成の説明)
2B is a side view of FIG. 2A viewed from the direction of arrow E. FIG. As shown in FIG. 2B, the imaging unit 30 is installed on the back side of the windshield 20 (windshield) of the vehicle V via the camera fixing unit 26. The imaging unit 30 is fixed so as to be positioned in the vicinity of the back side of the room mirror 12 and is installed so as not to enter the field of view of the driver of the vehicle V.
(Description of functional configuration of camera calibration device)

図3は、本実施例に係るカメラキャリブレーション装置10の機能構成を示す機能ブロック図である。   FIG. 3 is a functional block diagram illustrating a functional configuration of the camera calibration apparatus 10 according to the present embodiment.

カメラキャリブレーション装置10は、車両Vに搭載されて、図3に示すように、フロントガラス20(ウインドシールド)の内側から車両Vの外部を監視する撮像部30と、画像処理プロセッサ40と、撮像された画像の中で視標24が本来観測される位置とキャリブレーションによって得られた補正データを記憶しておく補正データ記憶部60と、キャリブレーションの開始指示や、撮像部30で撮像された画像を用いた具体的なアプリケーションを実行するマイコン70と、からなる。   The camera calibration device 10 is mounted on a vehicle V and, as shown in FIG. 3, an imaging unit 30 that monitors the outside of the vehicle V from the inside of the windshield 20 (windshield), an image processor 40, and imaging The correction data storage unit 60 for storing the position where the visual target 24 is originally observed in the obtained image and the correction data obtained by the calibration, the calibration start instruction, and the image pickup unit 30 And a microcomputer 70 that executes a specific application using an image.

フロントガラス20(ウインドシールド)には、前述したように、視標24(24a,24b,24c,24d)が埋め込まれており、フロントガラス20は近赤外光をカットする分光透過特性を有し、視標24は近赤外光を透過する分光透過特性を有しているものとする。   As described above, the target 24 (24a, 24b, 24c, 24d) is embedded in the windshield 20 (windshield), and the windshield 20 has a spectral transmission characteristic that cuts near infrared light. It is assumed that the visual target 24 has a spectral transmission characteristic that transmits near-infrared light.

撮像部30は、撮像素子32と複数の近赤外受光素子34a,34b,34c,…を備えている。なお、以後、特に断りのない限り近赤外受光素子34a,34b,34c,…を総称して近赤外受光素子34と呼ぶ。撮像素子32の詳細な構造については後述する。   The imaging unit 30 includes an imaging element 32 and a plurality of near-infrared light receiving elements 34a, 34b, 34c,. Hereinafter, the near-infrared light receiving elements 34a, 34b, 34c,... Are collectively referred to as the near-infrared light receiving element 34 unless otherwise specified. The detailed structure of the image sensor 32 will be described later.

画像処理プロセッサ40は、撮像された画像の中から、全ての視標24(24a,24b,24c,24d)を検出して、その位置を計測する。また、撮像された画像の中で視標24が本来観測される位置からずれて観測されたときには、画像の幾何学的な補正を行って、視標24が所定の位置に観測された画像を生成する。この画像処理プロセッサ40は、具体的には集積回路であるASIC(Application Specific Integrated Circuit)で構成されている。   The image processor 40 detects all the targets 24 (24a, 24b, 24c, 24d) from the captured images and measures their positions. In addition, when the target 24 is observed to deviate from the originally observed position in the captured image, geometric correction of the image is performed, and an image in which the target 24 is observed at a predetermined position is obtained. Generate. Specifically, the image processor 40 is configured by an ASIC (Application Specific Integrated Circuit) that is an integrated circuit.

画像処理プロセッサ40は、画像入力部42と、近赤外画像選択部44と、カラー画像選択部46と、視標位置計測部48と、視標位置比較部50と、画像補正部52と、を有する。   The image processor 40 includes an image input unit 42, a near-infrared image selection unit 44, a color image selection unit 46, a target position measurement unit 48, a target position comparison unit 50, an image correction unit 52, Have

画像入力部42は、撮像部30に対して撮像を行うタイミングを指示するとともに、撮像部30で撮像された出力信号から近赤外信号を分離し、さらに、色信号を生成する。   The image input unit 42 instructs the imaging unit 30 to perform imaging, separates the near-infrared signal from the output signal captured by the imaging unit 30, and further generates a color signal.

近赤外画像選択部44は、画像入力部42で生成された近赤外信号を選択して出力する。   The near infrared image selection unit 44 selects and outputs the near infrared signal generated by the image input unit 42.

カラー画像選択部46は、画像入力部42で生成された色信号を選択して出力する。   The color image selection unit 46 selects and outputs the color signal generated by the image input unit 42.

視標位置計測部48は、近赤外画像選択部44から出力された近赤外信号の中から、全ての視標24(24a,24b,24c,24d)を検出して、その中心位置を計測する。   The target position measurement unit 48 detects all the targets 24 (24a, 24b, 24c, 24d) from the near-infrared signal output from the near-infrared image selection unit 44, and determines the center position thereof. measure.

視標位置比較部50は、視標位置計測部48で計測された全ての視標24の中心位置と、視標24が本来観測される位置とを比較する。なお、視標24が本来観測される位置は、補正データ記憶部60の内部に、予め記憶されている。   The target position comparison unit 50 compares the center positions of all the targets 24 measured by the target position measurement unit 48 with the positions where the target 24 is originally observed. The position where the visual target 24 is originally observed is stored in advance in the correction data storage unit 60.

画像補正部52は、撮像された画像の中に映った視標24の位置が、本来観測される視標24の位置からずれていたときに、補正データ記憶部60に記憶された補正データを用いて、視標24が本来観測される位置に映るように、画像を幾何学的に補正する。詳しい補正方法については後述する。   The image correction unit 52 uses the correction data stored in the correction data storage unit 60 when the position of the target 24 reflected in the captured image is deviated from the position of the target 24 that is originally observed. The image is geometrically corrected so that the visual target 24 is reflected at the position where it is originally observed. A detailed correction method will be described later.

マイコン70は、キャリブレーション開始指示部72と、アプリケーション実行部74と、を有する。   The microcomputer 70 includes a calibration start instruction unit 72 and an application execution unit 74.

キャリブレーション開始指示部72は、操作者、あるいはアプリケーションに組み込まれたプログラムの指示を出力して、画像入力部42に対してキャリブレーションの開始を指示する。   The calibration start instruction unit 72 outputs an instruction of an operator or a program incorporated in the application and instructs the image input unit 42 to start calibration.

アプリケーション実行部74は、撮像部30で撮像された画像を活用する、前述した各種アプリケーションを実行する。なお、アプリケーションの内容によって、複雑な画像処理を行う必要がある時や、特に処理の高速化が必要な時には、画像処理プロセッサ40が利用される。
(撮像素子の構造の説明)
The application execution unit 74 executes the various applications described above that use the image captured by the imaging unit 30. Note that the image processor 40 is used when complex image processing needs to be performed depending on the contents of the application, or particularly when high-speed processing is required.
(Description of the structure of the image sensor)

次に、撮像素子32の具体的な構造について、図4(a),(b)を用いて説明する。図4(a)は、撮像素子32の各画素に対応する受光素子の上部に設置された色フィルタの配列例を示す図である。図4(a)に示すように、撮像素子32を構成する各受光素子の上部には、色フィルタである、赤色フィルタR,緑色フィルタG,青色フィルタBが、所謂ベイヤー配列の規則に則って設けられている。そして、緑色フィルタGの一部が、可視光から近赤外光(例えば850nm)までを透過する近赤外透過フィルタCに置き換えられている。このうち、近赤外透過フィルタCが設けられた画素が、前述した近赤外受光素子34(34a,34b,34c,…)であり、図4(a)にはその一例として、近赤外受光素子34a〜34dを示している。   Next, a specific structure of the image sensor 32 will be described with reference to FIGS. FIG. 4A is a diagram illustrating an example of the arrangement of color filters installed on the top of the light receiving element corresponding to each pixel of the image sensor 32. As shown in FIG. 4 (a), the red filter R, the green filter G, and the blue filter B, which are color filters, are arranged in accordance with the rules of the so-called Bayer arrangement at the upper part of each light receiving element constituting the imaging element 32. Is provided. A part of the green filter G is replaced with a near-infrared transmission filter C that transmits visible light to near-infrared light (for example, 850 nm). Among these, the pixel provided with the near-infrared transmission filter C is the above-described near-infrared light receiving element 34 (34a, 34b, 34c,...), And FIG. The light receiving elements 34a to 34d are shown.

図4(b)は、図4(a)を切断線A−Aで切断した断面図を示す。図4(b)に示すように、撮像素子32は、その底部に設けられた受光素子36の上部に、前述した各フィルタ(R,G,B,C)が設けられて、さらにその上部に、所定波長以上の赤外線(例えば900nm以上)および、可視光領域と近赤外領域の間(例えば650〜830nm)を遮断するIRカットフィルタ38が設けられている。
(フィルタの分光感度特性の説明)
FIG. 4B shows a cross-sectional view of FIG. 4A taken along the cutting line AA. As shown in FIG. 4B, the imaging element 32 is provided with the above-described filters (R, G, B, C) on the upper part of the light receiving element 36 provided on the bottom thereof, and further on the upper part thereof. In addition, an IR cut filter 38 that blocks infrared light having a predetermined wavelength or more (for example, 900 nm or more) and between the visible light region and the near infrared region (for example, 650 to 830 nm) is provided.
(Explanation of spectral sensitivity characteristics of filter)

次に、撮像素子32に設けられる各フィルタの分光感度特性について、図5を用いて説明する。図5は、図4(a)に示した各フィルタの分光感度Sを示したものである。赤色フィルタR,緑色フィルタG,青色フィルタBは、それぞれの色に対応する波長の光のみを透過する特性を有している。   Next, spectral sensitivity characteristics of each filter provided in the image sensor 32 will be described with reference to FIG. FIG. 5 shows the spectral sensitivity S of each filter shown in FIG. The red filter R, the green filter G, and the blue filter B have a characteristic of transmitting only light having a wavelength corresponding to each color.

なお、各色フィルタの感度の最大値は、実際にはそれぞれ異なっているが、説明をわかりやすくするため、図5では、赤色フィルタR,緑色フィルタG,青色フィルタBの感度の最大値が等しくなるように描いている。   The maximum sensitivity values of the color filters are actually different from each other, but in order to make the explanation easy to understand, the maximum sensitivity values of the red filter R, the green filter G, and the blue filter B are equal in FIG. It draws like so.

ここで、近赤外透過フィルタCは、可視光に加えて近赤外光にも感度を有している。したがって、近赤外透過フィルタCを備えた近赤外受光素子34(34a,34b,34c,…)は、赤色フィルタR,緑色フィルタG,青色フィルタBでは検出できない近赤外光に対しても感度を有している。
(キャリブレーション方法の説明)
Here, the near infrared transmission filter C has sensitivity to near infrared light in addition to visible light. Therefore, the near-infrared light receiving element 34 (34a, 34b, 34c,...) Provided with the near-infrared transmission filter C is also capable of detecting near-infrared light that cannot be detected by the red filter R, the green filter G, and the blue filter B. Has sensitivity.
(Explanation of calibration method)

次に、具体的なキャリブレーションの方法について、図6,図7,図8を用いて説明する。図6(a)は、撮像部30によって、視標24(24a,24b,24c,24d)があるべき位置に撮影された状態を示す画像Iの一例である。図6(a)は、視標24aの中心位置が点C1に観測されて、視標24bの中心位置が点C2に観測されて、視標24cの中心位置が点C3に観測されて、視標24dの中心位置が点C4に観測されることを示している。   Next, a specific calibration method will be described with reference to FIGS. FIG. 6A is an example of an image I showing a state where the image capturing unit 30 has photographed the target 24 (24a, 24b, 24c, 24d) at a position where the target should be. In FIG. 6A, the center position of the target 24a is observed at the point C1, the center position of the target 24b is observed at the point C2, and the center position of the target 24c is observed at the point C3. This shows that the center position of the mark 24d is observed at the point C4.

図6(b)は、撮像部30によって、視標24(24a,24b,24c,24d)が実際に撮影された状態を示す画像I’の一例である。前述したように、フロントガラス20(ウインドシールド)(図1)と視標24は近赤外光の透過率が大きく異なるため、視標24は画像I’の中で、周囲と比較して高いコントラストを有して画像化される。なお、このとき、視標24が周囲と比較して明るく観測されるか、暗く観測されるかは、フロントガラス20における近赤外光の分光透過率と、視標24における近赤外光の分光透過率の大小関係による。   FIG. 6B is an example of an image I ′ showing a state in which the visual target 24 (24a, 24b, 24c, 24d) is actually captured by the imaging unit 30. As described above, the windshield 20 (windshield) (FIG. 1) and the visual target 24 are significantly different from each other in the transmittance of near-infrared light. Therefore, the visual target 24 is higher in the image I ′ than the surroundings. It is imaged with contrast. At this time, whether the visual target 24 is observed brighter or darker than the surroundings depends on the spectral transmittance of the near-infrared light in the windshield 20 and the near-infrared light in the visual target 24. It depends on the magnitude relationship of spectral transmittance.

そして、撮像部30の取り付け誤差の発生や、車両Vの走行中の振動による撮像部30の位置ずれの発生、また、撮像部30が備えた光学系を構成するレンズの歪等によって、撮像された画像I’の中に映る視標24の位置は、本来観測される位置からずれを生じる。図6(b)は、視標24aの中心位置が点D1に観測されて、視標24bの中心位置が点D2に観測されて、視標24cの中心位置が点D3に観測されて、視標24dの中心位置が点D4に観測されることを示している。   The image is picked up due to an attachment error of the image pickup unit 30, a position shift of the image pickup unit 30 due to vibration during traveling of the vehicle V, a distortion of a lens constituting an optical system provided in the image pickup unit 30, or the like. The position of the visual target 24 shown in the image I ′ is deviated from the originally observed position. In FIG. 6B, the center position of the target 24a is observed at the point D1, the center position of the target 24b is observed at the point D2, and the center position of the target 24c is observed at the point D3. This shows that the center position of the mark 24d is observed at the point D4.

なお、視標24には、例えば、図6(c)に示す形状のマーカを用いる。すなわち、視標24は、2つの矩形領域が互いを2等分するように直交した十字形状をなしている。各矩形領域は幅aを有しており、2つの矩形領域が直交した状態で、長さbの部分が上下左右に突出している。ここで、矩形領域の幅aは、視標24を撮像部30で撮像して画像化したときに、矩形領域の幅aに対応する部分の長さが、画像上において奇数画素で観測されるように設定するのが望ましい。これは、正確なキャリブレーションを行うためには、画像上に映った視標24の像の中心位置をできるだけ正確に計測する必要があるためである。   For the visual target 24, for example, a marker having a shape shown in FIG. That is, the visual target 24 has an orthogonal cross shape so that the two rectangular regions bisect each other. Each rectangular region has a width a, and a portion of length b projects vertically and horizontally with the two rectangular regions orthogonal to each other. Here, as for the width a of the rectangular area, the length of the portion corresponding to the width a of the rectangular area is observed with an odd number of pixels on the image when the target 24 is imaged by the imaging unit 30. It is desirable to set as follows. This is because the center position of the image of the visual target 24 shown on the image needs to be measured as accurately as possible in order to perform accurate calibration.

そして、視標24の中心位置を計測するため、使用する視標24を全て同じ大きさにする必要はない。すなわち、例えば、撮像部30から遠い位置に配置される視標24(例えば、図2(b)の視標24c)は、撮像部30に近い位置に配置される視標24(例えば、図2(b)の視標24a)に比べて大きいサイズとするのが望ましい。   Since the center position of the visual target 24 is measured, it is not necessary that all the visual targets 24 to be used have the same size. That is, for example, the target 24 (for example, the target 24c in FIG. 2B) arranged at a position far from the imaging unit 30 is the target 24 (for example, FIG. 2) arranged at a position close to the imaging unit 30. It is desirable that the size be larger than the visual target 24a) in (b).

撮像部30で撮像された画像I’の中から、既存の画像処理手法を組み合わせて、視標24(24a,24b,24c,24d)を検出する。具体的には、撮像された画像I’の領域R1と領域R2の差分領域に対してエッジ成分を強調して、強調されたエッジ成分に囲まれた領域を検出する。もしくは、画像I’の領域R1と領域R2の差分領域を所定のしきい値で2値化して、領域を検出する。このようにして検出された領域の中から、テンプレートマッチング等の手法によって、十字形状と類似した形状を有する領域のみを選択する。このようにして選択された領域が、視標24に対応する領域となる。   The target 24 (24a, 24b, 24c, 24d) is detected from the image I ′ picked up by the image pickup unit 30 by combining existing image processing techniques. Specifically, the edge component is emphasized with respect to the difference area between the area R1 and the area R2 of the captured image I ′, and the area surrounded by the emphasized edge component is detected. Alternatively, the difference area between the area R1 and the area R2 of the image I ′ is binarized with a predetermined threshold value to detect the area. Only regions having a shape similar to the cross shape are selected from the regions thus detected by a method such as template matching. The region selected in this way is a region corresponding to the visual target 24.

なお、視標24に対応する領域を検出する方法は、前述した方法に限定されるものではなく、適宜、適切な画像処理方法を組み合わせて適用すればよい。   Note that the method for detecting the region corresponding to the visual target 24 is not limited to the method described above, and an appropriate image processing method may be applied in combination as appropriate.

次に、選択された領域の各々について、それぞれの領域の中心位置を計測する。検出された視標24(24a,24b,24c,24d)に対応する領域の中心位置を計測するには様々な方法が考えられるが、そのいずれを適用してもよい。例えば、選択された領域の各々に対して、その面積重心位置を算出し、領域の中心位置とすることができる。   Next, the center position of each selected area is measured. Various methods are conceivable for measuring the center position of the region corresponding to the detected visual target 24 (24a, 24b, 24c, 24d), any of which may be applied. For example, for each selected region, the area centroid position can be calculated and used as the center position of the region.

図7は、画像Iの中から視標24の中心位置を計測した結果と、画像I’ の中から視標24の中心位置を計測した結果と、を1枚の画像に合成した様子を示す。   FIG. 7 shows a state in which the result of measuring the center position of the target 24 from the image I and the result of measuring the center position of the target 24 from the image I ′ are combined into one image. .

すなわち、図7は、点C1(C1x,C1y)の位置に観測されるべき視標24aが、実際には点D1(D1x,D1y)の位置に観測されて、矢印P1で示す位置ずれが生じることを示している。そして、この位置ずれの大きさと方向は、矢印P1のベクトル成分である(Δx1,Δy1)で表される。ここで、Δx1は横方向の位置ずれ量であり、図7の場合はΔx1=D1x−C1xである。また、Δy1は縦方向の位置ずれ量であり、図7の場合はΔy1=D1y−C1yである。   That is, in FIG. 7, the target 24a to be observed at the position of the point C1 (C1x, C1y) is actually observed at the position of the point D1 (D1x, D1y), and the positional deviation indicated by the arrow P1 occurs. It is shown that. The magnitude and direction of this positional deviation is represented by (Δx1, Δy1) which is a vector component of the arrow P1. Here, Δx1 is the amount of lateral displacement, and in the case of FIG. 7, Δx1 = D1x−C1x. Δy1 is the amount of positional deviation in the vertical direction, and in the case of FIG. 7, Δy1 = D1y−C1y.

同様に、図7は、点C2(C2x,C2y)の位置に観測されるべき視標24bが、実際には点D2(D2x,D2y)の位置に観測されて、矢印P2で示す位置ずれが生じたことを示し、点C3(C3x,C3y)の位置に観測されるべき視標24cが、実際には点D3(D3x,D3y)の位置に観測されて、矢印P3で示す位置ずれが生じたことを示し、点C4(C4x,C4y)の位置に観測されるべき視標24dが、実際には点D4(D4x,D4y)の位置に観測されて、矢印P4で示す位置ずれが生じたことを示している。   Similarly, in FIG. 7, the target 24b to be observed at the position of the point C2 (C2x, C2y) is actually observed at the position of the point D2 (D2x, D2y), and the positional deviation indicated by the arrow P2 is shifted. The target 24c to be observed at the position of the point C3 (C3x, C3y) is actually observed at the position of the point D3 (D3x, D3y), and the positional shift indicated by the arrow P3 occurs. The target 24d to be observed at the position of the point C4 (C4x, C4y) is actually observed at the position of the point D4 (D4x, D4y), and the positional deviation indicated by the arrow P4 has occurred. It is shown that.

そして、点D2の位置ずれの大きさと方向は(Δx2,Δy2)であり、点D3の位置ずれの大きさと方向は(Δx3,Δy3)であり、点D4の位置ずれの大きさと方向は(Δx4,Δy4)である。それぞれ、前述した(Δx1,Δy1)と同様にして算出される。   The magnitude and direction of the positional deviation at the point D2 are (Δx2, Δy2), the magnitude and direction of the positional deviation at the point D3 are (Δx3, Δy3), and the magnitude and direction of the positional deviation at the point D4 are (Δx4). , Δy4). Each is calculated in the same manner as (Δx1, Δy1) described above.

このとき、点D1,D2,D3,D4の位置ずれの大きさが、いずれも所定の値より小さいときには、本来観測されるべき画像が観測されているものと判断してキャリブレーションは実施しなくてもよい。一方、点D1,D2,D3,D4の位置ずれの大きさが、1か所でも所定の値より大きくなっているときには、以下に説明するキャリブレーションを実施する。   At this time, if the magnitudes of the positional deviations of the points D1, D2, D3, and D4 are all smaller than a predetermined value, it is determined that the image that should be observed is observed and calibration is not performed. May be. On the other hand, when the magnitude of the positional deviation of the points D1, D2, D3, and D4 is larger than a predetermined value even at one location, calibration described below is performed.

なお、キャリブレーションを行うか否かを判断する位置ずれの大きさの所定の値は、アプリケーション実行部74で実行するアプリケーションの内容に応じて、適宜設定すればよい。   Note that the predetermined value of the amount of positional deviation for determining whether or not to perform calibration may be set as appropriate according to the contents of the application executed by the application execution unit 74.

図8(a)は、図7の結果に基づいて算出される、視標24の観測位置の横方向の位置ずれ量Δxを表す図である。   FIG. 8A is a diagram illustrating a lateral displacement Δx of the observation position of the visual target 24 calculated based on the result of FIG.

すなわち、図8(a)は、図7の結果得られた、各視標24が観測されるものと想定される点C1,C2,C3,C4(図7)と実際に観測された点D1,D2,D3,D4(図7)の横方向の位置ずれ量Δxを示している。   That is, FIG. 8A shows the points C1, C2, C3, C4 (FIG. 7) and the actually observed points D1 obtained as a result of FIG. , D2, D3, D4 (FIG. 7) are shown as lateral displacements Δx.

具体的には、図8(a)は、観測された点D1,D2,D3,D4の各々に対して、各点の横方向座標xを横軸にとり、横方向の位置ずれ量Δxを縦軸にとってプロットしたものである。   Specifically, in FIG. 8A, for each of the observed points D1, D2, D3, and D4, the horizontal coordinate x of each point is taken on the horizontal axis, and the positional deviation amount Δx in the horizontal direction is set to the vertical direction. Plotted for the axis.

さらに、図8(a)には、プロットされた各点との残差の総和が最小となる回帰直線Lxを記載している。この回帰直線Lxに基づいて、任意の横方向位置Dixにおいて想定される横方向の位置ずれ量Δxiを、図8(a)に記載したように読み取ることができる。   Further, FIG. 8A shows a regression line Lx that minimizes the sum of residuals with each plotted point. Based on the regression line Lx, the amount of lateral displacement Δxi assumed in an arbitrary lateral position Dix can be read as described in FIG.

図8(b)は、図7の結果に基づいて算出される、視標24の観測位置の縦方向の位置ずれ量Δyを表す図である。   FIG. 8B is a diagram illustrating the amount of displacement Δy in the vertical direction of the observation position of the visual target 24 calculated based on the result of FIG.

すなわち、図8(b)は、各視標24が観測されるものと想定される点C1,C2,C3,C4(図7)と実際に観測された点D1,D2,D3,D4(図7)の縦方向の位置ずれ量Δyを示している。   That is, FIG. 8B shows points C1, C2, C3, and C4 (FIG. 7) where each target 24 is assumed to be observed and points D1, D2, D3, and D4 actually observed (FIG. 8). 7) shows the positional deviation amount Δy in the vertical direction.

具体的には、図8(b)は、観測された点D1,D2,D3,D4の各々に対して、各点の縦方向座標yを横軸にとり、縦方向の位置ずれ量Δyを縦軸にとってプロットしたものである。   Specifically, in FIG. 8B, for each of the observed points D1, D2, D3, and D4, the vertical coordinate y of each point is taken on the horizontal axis, and the amount of positional deviation Δy in the vertical direction is expressed in the vertical direction. Plotted for the axis.

さらに、図8(b)には、プロットされた各点との残差の総和が最小となる回帰直線Lyを記載している。この回帰直線Lyに基づいて、任意の縦方向位置Diyにおいて想定される縦方向の位置ずれ量Δyiを、図8(b)に記載したように読み取ることができる。   Further, FIG. 8B shows a regression line Ly that minimizes the sum of residuals with each plotted point. Based on this regression line Ly, the vertical displacement amount Δyi assumed at an arbitrary vertical position Diy can be read as shown in FIG.

なお、図8(a),(b)の説明で、回帰直線Lx,Lyが得られると記載したが、一般には、回帰曲線が算出される。これは、撮像部30はレンズ等の非線形性を有する光学素子を含み、一般にその結像位置は非線形の特性を有するためである。どのような曲線を適合させるかは、利用者が適宜判断して決定すればよい。以上、説明した一連の作業によって、撮像部30のキャリブレーションが行われる。なお、得られた回帰直線Lx,Lyのデータは、補正データとして補正データ記憶部60(図3)に記憶される。
(実施例1の処理の流れの説明)
Although it has been described in the description of FIGS. 8A and 8B that the regression lines Lx and Ly are obtained, a regression curve is generally calculated. This is because the imaging unit 30 includes an optical element having nonlinearity such as a lens, and generally its imaging position has nonlinear characteristics. What kind of curve should be adapted may be determined by the user as appropriate. As described above, the imaging unit 30 is calibrated by the series of operations described above. The obtained data of the regression lines Lx and Ly are stored as correction data in the correction data storage unit 60 (FIG. 3).
(Description of the flow of processing in the first embodiment)

次に、本実施例1で行われる処理全体の流れについて、図9,図10を用いて説明する。図9は、実施例1の処理全体の流れを示すフローチャートであり、図10は、キャリブレーションの流れを示すフローチャートである。まず、図9のフローチャートについて説明する。   Next, the overall flow of processing performed in the first embodiment will be described with reference to FIGS. FIG. 9 is a flowchart showing the overall processing flow of the first embodiment, and FIG. 10 is a flowchart showing the calibration flow. First, the flowchart of FIG. 9 will be described.

(ステップS10)車両Vのイグニッションスイッチ(図3に非図示)がONであるか否かを判断する。イグニッションスイッチがONであるときにはステップS12に進み、それ以外のときはステップS10を繰り返す。これは、車両Vが走行可能な状態にあるか否かを判断するために行う処理である。   (Step S10) It is determined whether or not an ignition switch (not shown in FIG. 3) of the vehicle V is ON. When the ignition switch is ON, the process proceeds to step S12, and otherwise, step S10 is repeated. This is a process performed to determine whether or not the vehicle V is in a travelable state.

(ステップS12)車両Vが走行中であるか否かを判断する。車両Vが走行中であるときにはステップS16に進み、車両Vが停止しているときはステップS14に進む。   (Step S12) It is determined whether or not the vehicle V is traveling. When the vehicle V is traveling, the process proceeds to step S16, and when the vehicle V is stopped, the process proceeds to step S14.

(ステップS14)図10の処理が起動されて、撮像部30(図3)のキャリブレーションが行われる。処理の詳細は後述する。   (Step S14) The processing of FIG. 10 is activated, and the imaging unit 30 (FIG. 3) is calibrated. Details of the processing will be described later.

(ステップS16)アプリケーション実行部74(図3)において、アプリケ―ションを実行する状態になっているか否かを判断する。アプリケ―ションを実行する状態になっているときはステップS18に進み、それ以外のときはステップS14に進む。   (Step S16) In the application execution unit 74 (FIG. 3), it is determined whether or not the application is ready to be executed. When the application is ready to be executed, the process proceeds to step S18. Otherwise, the process proceeds to step S14.

(ステップS18)図10の処理が起動されて、撮像部30(図3)のキャリブレーションが行われる。処理の詳細は後述する。   (Step S18) The processing of FIG. 10 is activated, and the imaging unit 30 (FIG. 3) is calibrated. Details of the processing will be described later.

(ステップS20)アプリケーション実行部74(図3)の指示で、所定のアプリケーションが実行される。なお、ステップS14またはステップS18で実行されたキャリブレーションの結果は、アプリケーションの動作に反映される。   (Step S20) A predetermined application is executed in accordance with an instruction from the application execution unit 74 (FIG. 3). Note that the result of the calibration executed in step S14 or step S18 is reflected in the operation of the application.

(ステップS22)アプリケーションの実行中に、所定のタイミングにおいて図10の処理が起動されて、撮像部30(図3)のキャリブレーションが行われる。処理の詳細は後述する。なお、ステップS22で実行されたキャリブレーションの結果は、逐次、アプリケーションの動作に反映される。   (Step S22) During the execution of the application, the process of FIG. 10 is activated at a predetermined timing, and the imaging unit 30 (FIG. 3) is calibrated. Details of the processing will be described later. Note that the result of the calibration executed in step S22 is sequentially reflected in the operation of the application.

(ステップS24)図3に図示しない、車両VのイグニッションスイッチがONであるか否かを判断する。イグニッションスイッチがONであるときにはステップS26に進み、それ以外のときは、図9の処理を終了する。これは、車両Vが運転を終了したか否かを判断するために行う処理である。   (Step S24) It is determined whether an ignition switch of the vehicle V (not shown in FIG. 3) is ON. When the ignition switch is ON, the process proceeds to step S26, and otherwise, the process of FIG. 9 is terminated. This is a process performed to determine whether or not the vehicle V has finished driving.

(ステップS26)アプリケーション実行部74(図3)からアプリケーションの実行を終了する指示が出させたか否かを判断する。アプリケーションの実行を終了する指示が出されたときは図9の処理を終了し、それ以外のときは、ステップS22に戻る。   (Step S26) It is determined whether an instruction to end the execution of the application is issued from the application execution unit 74 (FIG. 3). When an instruction to end the execution of the application is issued, the process of FIG. 9 is ended. Otherwise, the process returns to step S22.

次に、図10のフローチャートについて説明する。   Next, the flowchart of FIG. 10 will be described.

(ステップS40)キャリブレーション開始指示部72(図3)からキャリブレーション開始指示が出されたか否かを判断する。キャリブレーション開始指示が出されたときにはステップS42に進み、それ以外のときにはステップS40を繰り返す。   (Step S40) It is determined whether or not a calibration start instruction is issued from the calibration start instruction section 72 (FIG. 3). When a calibration start instruction is issued, the process proceeds to step S42, and otherwise, step S40 is repeated.

(ステップS42)撮像部30(図3)で近赤外画像を撮像して、近赤外画像選択部44(図3)を経て視標位置計測部48(図3)に入力する。   (Step S42) A near-infrared image is imaged by the imaging unit 30 (FIG. 3), and is input to the target position measurement unit 48 (FIG. 3) via the near-infrared image selection unit 44 (FIG. 3).

(ステップS44)視標位置計測部48(図3)において、画像に映った全ての視標24(図3)の検出とその中心位置の計測を行う。   (Step S44) The target position measurement unit 48 (FIG. 3) detects all the targets 24 (FIG. 3) shown in the image and measures the center position thereof.

(ステップS46)補正データ記憶部60(図3)に、既に生成された補正データがあるか否かを判断する。補正データがあるときにはステップS48に進み、補正データがないときにはステップS52に進む。   (Step S46) It is determined whether there is correction data already generated in the correction data storage unit 60 (FIG. 3). When there is correction data, the process proceeds to step S48, and when there is no correction data, the process proceeds to step S52.

(ステップS48)補正データ記憶部60(図3)から補正データを読み出す。   (Step S48) The correction data is read from the correction data storage unit 60 (FIG. 3).

(ステップS50)画像補正部52(図3)において、撮像部30(図3)で撮像したカラー画像に対して、ステップS48で読み出した補正データに基づいて画像の補正を行う。   (Step S50) The image correction unit 52 (FIG. 3) corrects the image based on the correction data read out in step S48 on the color image captured by the imaging unit 30 (FIG. 3).

(ステップS52)視標位置比較部50(図3)において、ステップS44で計測した視標位置が、本来観測されるべき位置から所定値以上ずれているか否かを判断する。所定値以上ずれているときは、キャリブレーションが必要と判断してステップS54に進み、それ以外のときは、キャリブレーションを行う必要がないと判断して、メインルーチン(図9)に戻る。   (Step S52) In the target position comparison unit 50 (FIG. 3), it is determined whether or not the target position measured in step S44 is deviated by a predetermined value or more from the position that should be originally observed. If it is deviated by a predetermined value or more, it is determined that calibration is necessary, and the process proceeds to step S54. Otherwise, it is determined that calibration is not necessary, and the process returns to the main routine (FIG. 9).

(ステップS54)視標位置比較部50(図3)において、ステップS44で計測した視標位置と、本来観測されるべき視標位置との位置ずれ量Δx,Δyを算出する。   (Step S54) The target position comparison unit 50 (FIG. 3) calculates the amount of displacement Δx, Δy between the target position measured in step S44 and the target position to be originally observed.

(ステップS56)全ての視標24(24a,24b,24c,24d)(図3)に対して算出された位置ずれ量Δx,Δyをそれぞれ回帰分析する。そして、回帰直線または回帰曲線を求める。   (Step S56) The positional deviation amounts Δx and Δy calculated for all the visual targets 24 (24a, 24b, 24c, 24d) (FIG. 3) are subjected to regression analysis. Then, a regression line or a regression curve is obtained.

(ステップS58)画像補正部52(図3)において、撮像部30(図3)で撮像したカラー画像に対して、ステップS56で行った回帰分析の結果に基づいて画像の補正を行う。   (Step S58) The image correction unit 52 (FIG. 3) corrects the image based on the result of the regression analysis performed in step S56 on the color image captured by the imaging unit 30 (FIG. 3).

(ステップS60)ステップS56で行った回帰分析の結果を、補正データとして補正データ記憶部60(図3)に記憶して、メインルーチン(図9)に戻る。   (Step S60) The result of the regression analysis performed in Step S56 is stored in the correction data storage unit 60 (FIG. 3) as correction data, and the process returns to the main routine (FIG. 9).

以上説明したように、このように構成された本発明に係るカメラキャリブレーション装置10によれば、撮像部30を構成する撮像素子32が、近赤外光に感度を有する近赤外受光素子34(34a,34b,34c,…)を備えるため、この撮像部30で、近赤外光を透過または反射する複数の視標24(24a,24b,24c,24d)を撮影すると、観測される画像I’の中には、複数の視標24が高いコントラストで観測される。したがって、視標位置計測部48によって、複数の視標24の位置を確実かつ正確に計測することができる。そして、画像補正部52が、計測された複数の視標24の位置を幾何学的に補正する。そのため、特別な照明等を用いることなく、周囲の明るさに影響されずに、撮像部30のキャリブレーションを確実に行うことができる。   As described above, according to the camera calibration device 10 according to the present invention configured as described above, the image sensor 32 configuring the image capturing unit 30 has the near-infrared light receiving element 34 having sensitivity to near-infrared light. (34a, 34b, 34c,...), An image that is observed when a plurality of targets 24 (24a, 24b, 24c, 24d) that transmit or reflect near-infrared light are captured by the imaging unit 30. In I ′, a plurality of visual targets 24 are observed with high contrast. Therefore, the positions of the plurality of targets 24 can be reliably and accurately measured by the target position measuring unit 48. Then, the image correction unit 52 geometrically corrects the positions of the measured visual targets 24. Therefore, it is possible to reliably perform the calibration of the imaging unit 30 without using special illumination or the like and without being affected by ambient brightness.

また、このように構成された本発明に係るカメラキャリブレーション装置10によれば、複数の視標24(24a,24b,24c,24d)は、撮像部30で撮影された画像I’の中の、具体的な用途に使用される画像領域である領域R2の外周よりも外側の領域に映るように配置されるため、キャリブレーションを行うために検出する複数の視標24の検出位置を限定することができる。したがって、撮像部30のキャリブレーションをより一層確実に行うことができる。   Further, according to the camera calibration device 10 according to the present invention configured as described above, a plurality of targets 24 (24a, 24b, 24c, 24d) are included in the image I ′ captured by the imaging unit 30. Since it is arranged so as to appear in an area outside the outer periphery of the area R2, which is an image area used for a specific application, the detection positions of a plurality of targets 24 to be detected for calibration are limited. be able to. Therefore, the imaging unit 30 can be calibrated more reliably.

そして、このように構成された本発明に係るカメラキャリブレーション装置10によれば、撮像部30は、車両Vのフロントガラス20(ウインドシールド)越しに車両Vの外部を撮影するように設置されて、複数の視標24(24a,24b,24c,24d)は、車両Vのフロントガラス20の内部、外表面上、または、内表面上に設置されるため、撮像部30のキャリブレーションを行う際に複数の視標24(24a,24b,24c,24d)を設置するための広いスペースを準備する必要がない。   And according to the camera calibration device 10 according to the present invention configured as described above, the imaging unit 30 is installed so as to photograph the outside of the vehicle V through the windshield 20 (windshield) of the vehicle V. Since the plurality of targets 24 (24a, 24b, 24c, 24d) are installed on the inside, on the outside surface, or on the inside surface of the windshield 20 of the vehicle V, the calibration of the imaging unit 30 is performed. It is not necessary to prepare a wide space for installing a plurality of visual targets 24 (24a, 24b, 24c, 24d).

さらに、このように構成された本発明に係るカメラキャリブレーション装置10によれば、撮像部30は、車両Vのフロントガラス20(ウインドシールド)越しに車両Vの外部を撮影するように設置されて、複数の視標24(24a,24b,24c,24d)は、車両Vのフロントガラス20の内部に埋め込まれているため、車両Vが走行している状態であっても、撮像部30のキャリブレーションを行うことができる。   Furthermore, according to the camera calibration device 10 according to the present invention configured as described above, the imaging unit 30 is installed so as to photograph the outside of the vehicle V through the windshield 20 (windshield) of the vehicle V. Since the plurality of targets 24 (24a, 24b, 24c, 24d) are embedded in the windshield 20 of the vehicle V, the calibration of the imaging unit 30 is performed even when the vehicle V is traveling. Can be performed.

また、このように構成された本発明に係るカメラキャリブレーション装置10によれば、画像補正部52で補正した複数の視標24(24a,24b,24c,24d)の位置のうち、いずれかの視標24の位置が、本来観測される位置から所定値以上ずれたときに、画像補正部52において、画像I’の幾何学的補正を行うため、撮像部30の具体的な用途(例えば、走行車線の検出)に一切影響を与えることなく、撮像部30のキャリブレーションを行うことができる。したがって、撮像部30を具体的なアプリケーションに使用しながら、同時に、撮像部30のキャリブレーションを行うことができるため、意図しない撮像部30のずれの発生による、具体的なアプリケーションの性能低下を防止することができる。   Further, according to the camera calibration device 10 according to the present invention configured as described above, any one of the positions of the plurality of targets 24 (24a, 24b, 24c, 24d) corrected by the image correction unit 52 is selected. When the position of the visual target 24 deviates from the originally observed position by a predetermined value or more, the image correction unit 52 performs geometric correction of the image I ′. The imaging unit 30 can be calibrated without any influence on the detection of the travel lane). Therefore, since the imaging unit 30 can be calibrated at the same time while using the imaging unit 30 for a specific application, the performance degradation of the specific application due to the unintended occurrence of the imaging unit 30 is prevented. can do.

以上、実施例1では、4つの視標24a,24b,24c,24dを用いてキャリブレーションを行う例を説明したが、キャリブレーションに使用する視標は4つに限定されるものではない。すなわち、より多くの視標を用いてキャリブレーションを行うことにより、キャリブレーションの精度をより一層高めることができる。   As described above, in the first embodiment, the example in which the calibration is performed using the four targets 24a, 24b, 24c, and 24d has been described. However, the number of targets used for the calibration is not limited to four. That is, the calibration accuracy can be further improved by performing calibration using a larger number of targets.

また、実施例1では、車両Vのフロントガラス20(ウインドシールド)越しに車両Vの外部を撮影するレイアウトを説明したが、これは、フロントガラス20に限定されるものではなく、車両Vのリアガラスやサイドガラス越しに車両Vの外部を撮影するレイアウトであっても、同様に適用することができる。   In the first embodiment, the layout for photographing the outside of the vehicle V through the windshield 20 (windshield) of the vehicle V has been described. However, this is not limited to the windshield 20, and the rear glass of the vehicle V is described. In addition, the layout can be similarly applied to a layout in which the outside of the vehicle V is photographed through the side glass.

以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。   As mentioned above, although the Example of this invention was explained in full detail with drawing, since an Example is only an illustration of this invention, this invention is not limited only to the structure of an Example. Of course, changes in design and the like within a range not departing from the gist are included in the present invention.

10 カメラキャリブレーション装置
20 フロントガラス(ウインドシールド)
22 透明フィルム
24,24a,24b,24c,24d 視標
30 撮像部
32 撮像素子
34,34a,34b,34c 近赤外受光素子
40 画像処理プロセッサ
42 画像入力部
44 近赤外画像選択部
46 カラー画像選択部
48 視標位置計測部
50 視標位置比較部
52 画像補正部
60 補正データ記憶部
70 マイコン
72 キャリブレーション開始指示部
74 アプリケーション実行部
V 車両
10 Camera calibration device 20 Windshield (windshield)
22 Transparent film 24, 24a, 24b, 24c, 24d Target 30 Imaging unit 32 Imaging device 34, 34a, 34b, 34c Near-infrared light receiving element 40 Image processor 42 Image input unit 44 Near-infrared image selection unit 46 Color image Selection unit 48 Target position measurement unit 50 Target position comparison unit 52 Image correction unit 60 Correction data storage unit 70 Microcomputer 72 Calibration start instruction unit 74 Application execution unit V Vehicle

Claims (5)

近赤外光に感度を有する近赤外受光素子を備えた撮像素子と、
前記撮像素子によって画像を生成する撮像部と、
前記近赤外光を透過または反射する複数の視標と、
前記撮像部によって撮像された前記複数の視標を含む画像の中から、前記複数の視標のそれぞれの位置を計測する視標位置計測部と、
前記画像の中の前記複数の視標の位置に基づいて、前記複数の視標が本来観測される位置に映るように、前記画像の幾何学的補正を行う画像補正部と、を有することを特徴とするカメラキャリブレーション装置。
An image sensor including a near-infrared light-receiving element having sensitivity to near-infrared light;
An imaging unit for generating an image by the imaging element;
A plurality of targets that transmit or reflect the near-infrared light; and
A target position measuring unit that measures the position of each of the plurality of targets from among the images including the plurality of targets captured by the imaging unit;
An image correction unit that performs geometric correction of the image based on the positions of the plurality of targets in the image so that the plurality of targets are reflected in positions originally observed. A camera calibration device.
前記複数の視標は、前記撮像部で撮影された画像の中の、具体的な用途に使用される画像領域の外周よりも外側の領域に映るように配置されることを特徴とする請求項1に記載のカメラキャリブレーション装置。   The plurality of targets are arranged so as to appear in an area outside an outer periphery of an image area used for a specific application in an image photographed by the imaging unit. The camera calibration apparatus according to 1. 前記撮像部は、車両のウインドシールド越しに前記車両の外部を撮影するように設置されて、前記複数の視標は、前記ウインドシールドの外表面上または内表面上に設置されることを特徴とする請求項1または請求項2に記載のカメラキャリブレーション装置。   The imaging unit is installed so as to photograph the outside of the vehicle through a windshield of the vehicle, and the plurality of targets are installed on an outer surface or an inner surface of the windshield. The camera calibration device according to claim 1 or 2. 前記撮像部は、車両のウインドシールド越しに前記車両の外部を撮影するように設置されて、前記複数の視標は、前記ウインドシールドの内部に埋め込まれていることを特徴とする請求項1または請求項2に記載のカメラキャリブレーション装置。   The image pickup unit is installed so as to photograph the outside of the vehicle through a windshield of the vehicle, and the plurality of targets are embedded in the windshield. The camera calibration apparatus according to claim 2. 前記画像補正部で補正した前記複数の視標の位置のうち、いずれかの視標の位置が、本来観測される位置から所定値以上ずれたときに、前記画像補正部において、前記画像の幾何学的補正を行うことを特徴とする請求項1から請求項4のいずれか1項に記載のカメラキャリブレーション装置。   When the position of any target among the positions of the plurality of targets corrected by the image correction unit is deviated by a predetermined value or more from the originally observed position, the image correction unit The camera calibration apparatus according to claim 1, wherein a geometric correction is performed.
JP2014060581A 2014-03-24 2014-03-24 Camera calibration device Active JP6367584B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014060581A JP6367584B2 (en) 2014-03-24 2014-03-24 Camera calibration device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014060581A JP6367584B2 (en) 2014-03-24 2014-03-24 Camera calibration device

Publications (2)

Publication Number Publication Date
JP2015186026A true JP2015186026A (en) 2015-10-22
JP6367584B2 JP6367584B2 (en) 2018-08-01

Family

ID=54352132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014060581A Active JP6367584B2 (en) 2014-03-24 2014-03-24 Camera calibration device

Country Status (1)

Country Link
JP (1) JP6367584B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017139654A (en) * 2016-02-04 2017-08-10 パナソニックIpマネジメント株式会社 Calibration device and on-vehicle camera system
WO2023170777A1 (en) * 2022-03-08 2023-09-14 三菱電機株式会社 Vehicle-occupant monitoring device, vehicle-occupant monitoring method, and vehicle-occupant monitoring program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134480A (en) * 1997-10-28 1999-05-21 Nissan Motor Co Ltd Dislocation detector of on-vehicle camera
JP2002280288A (en) * 2001-03-19 2002-09-27 Nikon Corp Reference wafer for calibration, method of calibration, method and device for detecting position, and aligner
JP2004354257A (en) * 2003-05-29 2004-12-16 Olympus Corp Calibration slippage correction device, and stereo camera and stereo camera system equipped with the device
JP2006242714A (en) * 2005-03-02 2006-09-14 Pioneer Electronic Corp Device and method for inspecting transparent substrate
JP2006310820A (en) * 2005-03-29 2006-11-09 Semiconductor Energy Lab Co Ltd Laser irradiation apparatus and method of manufacturing semiconductor device
JP2011239349A (en) * 2010-05-13 2011-11-24 Fujitsu Ltd Image processing apparatus and image processing program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134480A (en) * 1997-10-28 1999-05-21 Nissan Motor Co Ltd Dislocation detector of on-vehicle camera
JP2002280288A (en) * 2001-03-19 2002-09-27 Nikon Corp Reference wafer for calibration, method of calibration, method and device for detecting position, and aligner
JP2004354257A (en) * 2003-05-29 2004-12-16 Olympus Corp Calibration slippage correction device, and stereo camera and stereo camera system equipped with the device
JP2006242714A (en) * 2005-03-02 2006-09-14 Pioneer Electronic Corp Device and method for inspecting transparent substrate
JP2006310820A (en) * 2005-03-29 2006-11-09 Semiconductor Energy Lab Co Ltd Laser irradiation apparatus and method of manufacturing semiconductor device
JP2011239349A (en) * 2010-05-13 2011-11-24 Fujitsu Ltd Image processing apparatus and image processing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017139654A (en) * 2016-02-04 2017-08-10 パナソニックIpマネジメント株式会社 Calibration device and on-vehicle camera system
WO2023170777A1 (en) * 2022-03-08 2023-09-14 三菱電機株式会社 Vehicle-occupant monitoring device, vehicle-occupant monitoring method, and vehicle-occupant monitoring program
JP7505660B2 (en) 2022-03-08 2024-06-25 三菱電機株式会社 Occupant monitoring device, occupant monitoring method, and occupant monitoring program

Also Published As

Publication number Publication date
JP6367584B2 (en) 2018-08-01

Similar Documents

Publication Publication Date Title
JP6427900B2 (en) Calibration method, calibration system, program, and moving object
CN109831660B (en) Depth image acquisition method, depth image acquisition module and electronic equipment
JP6458439B2 (en) On-vehicle camera calibration device, image generation device, on-vehicle camera calibration method, and image generation method
US9414045B2 (en) Stereo camera
US8593536B2 (en) Image pickup apparatus with calibration function
KR101053506B1 (en) Method for adjusting parameters in distortion calibration of image acquired by camera having fish eye lens
US20110304746A1 (en) Image capturing device, operator monitoring device, method for measuring distance to face, and program
CN107407558B (en) Measurement tool, calibration method, calibration device, and program
KR20150101749A (en) Device for estimating three-dimensional shape of object and method thereof
JP6791341B2 (en) Calibration method, calibration equipment, and program
WO2014208178A1 (en) Image pickup device and image pickup method
JP2009080113A (en) Distance estimation method, distance estimation device, imaging device, and computer readable medium
JP2010139275A (en) Device and method for measurement of compound eye distance for vehicle
US20150092091A1 (en) Processing device, image pickup device and processing method
JP2014185917A (en) Imaging device
US20180103185A1 (en) Photographing apparatus and method for controlling photographing apparatus
WO2017042998A1 (en) In-vehicle stereo camera device and method for correcting same
US20180092516A1 (en) Imaging device, endoscope apparatus, and imaging method
US20180098053A1 (en) Imaging device, endoscope apparatus, and imaging method
JP6970568B2 (en) Vehicle peripheral monitoring device and peripheral monitoring method
JP6367584B2 (en) Camera calibration device
JP3666348B2 (en) Distance recognition device
JP7121269B2 (en) ranging camera
JP2016225719A (en) Stereo camera device, vehicle, and calibration method
CN112014858A (en) Distance image generating device for correcting distance measurement abnormality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170227

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180705

R150 Certificate of patent or registration of utility model

Ref document number: 6367584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150