JP2006155428A - Apparatus for monitoring area around vehicle - Google Patents

Apparatus for monitoring area around vehicle Download PDF

Info

Publication number
JP2006155428A
JP2006155428A JP2004347813A JP2004347813A JP2006155428A JP 2006155428 A JP2006155428 A JP 2006155428A JP 2004347813 A JP2004347813 A JP 2004347813A JP 2004347813 A JP2004347813 A JP 2004347813A JP 2006155428 A JP2006155428 A JP 2006155428A
Authority
JP
Japan
Prior art keywords
image
aiming
target
area
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004347813A
Other languages
Japanese (ja)
Other versions
JP4105146B2 (en
Inventor
Masato Watanabe
正人 渡辺
Masakazu Saka
雅和 坂
Shinji Nagaoka
伸治 長岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004347813A priority Critical patent/JP4105146B2/en
Priority to US11/287,555 priority patent/US7599521B2/en
Publication of JP2006155428A publication Critical patent/JP2006155428A/en
Application granted granted Critical
Publication of JP4105146B2 publication Critical patent/JP4105146B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To rapidly and accurately achieve pattern matching when determining the parallax of a target based on a first and a second image. <P>SOLUTION: Images of aiming targets 134a-134c placed in a right position PR are picked up using a right infrared camera 16R to obtain a right gray-scale image 54. Images of aiming targets 134a-134c placed in a left position PL are picked up using a left infrared camera 16L to obtain a left gray-scale image 58. The average value yra of the y-coordinates of the aiming targets 134a-134c in the cut area 162R of a preset right image is determined and the average value yla of the y-coordinates of the aiming targets 134a-134c in the cut area 162L of a left image is determined. The difference Δya between the average value yra and the average value yla is calculated and the cut area 162L is set to move in y-direction by the difference Δya. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、第1撮像手段によって得られた第1画像及び第2撮像手段によって得られた第2画像から周辺の対象物を検出する車両周辺監視装置に関し、特に、得られた第1画像及び第2画像上でパターンマッチングを行うことにより対象物の視差を求めて該対象物の距離を検出する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that detects a peripheral object from a first image obtained by a first imaging means and a second image obtained by a second imaging means, and in particular, the obtained first image and The present invention relates to a vehicle periphery monitoring device that obtains parallax of an object by performing pattern matching on a second image and detects the distance of the object.

例えば、車両に2台の撮像手段を搭載し、これらの撮像手段を用いて同一の対象物を撮像し、撮像された画像間の視差を利用して車両から対象物までの距離を計測し、あるいは、車両に対する対象物の実空間位置を計測し、ドライバに前方の障害物の有無等を報知するようにした車両周辺監視装置が開発されている(特許文献1参照)。   For example, two imaging means are mounted on the vehicle, the same object is imaged using these imaging means, the distance from the vehicle to the object is measured using the parallax between the captured images, Or the vehicle periphery monitoring apparatus which measured the real space position of the target object with respect to a vehicle, and alert | reported the presence or absence of the front obstacle to a driver is developed (refer patent document 1).

これらの撮像手段によって得られた2つの画像上で対象物を検出した後、パターンマッチングを行うことにより対象物の視差が求められ、該視差に基づいて対象物の距離が検出される。   After the object is detected on the two images obtained by these imaging means, the parallax of the object is obtained by performing pattern matching, and the distance of the object is detected based on the parallax.

特開2003−216937号公報JP 2003-216937 A

対象物の位置や距離を正確に計測するためには、撮像手段の取り付け角度が正確に求められていなければならない。特に、対象物が遠方に存在する場合には、撮像手段の取り付け角の僅かな差の影響により位置や距離の計測に大きな誤差が生じる。このため既知位置に配置されたターゲットを撮像手段により撮像し、得られた画像上のターゲット像に基づいて撮像手段の正確な取り付け角度を求めるためのエイミングを行うとよい。   In order to accurately measure the position and distance of the object, the mounting angle of the imaging means must be accurately determined. In particular, when the object is located far away, a large error occurs in the position and distance measurement due to the influence of a slight difference in the mounting angle of the imaging means. For this reason, it is good to image the target arrange | positioned in a known position with an imaging means, and to perform the aiming for calculating | requiring the exact attachment angle of an imaging means based on the target image on the obtained image.

この場合、2つの画像に対してそれぞれ適当な切り出し領域を設定し、これらの切り出し領域の画像から対象物の抽出処理、相関演算を用いたパターンマッチング処理及び視差検出処理を行い、対象物の距離が算出される。2つの画像に設定されるそれぞれの切り出し領域は、撮像手段の高さや対象物の高さ等の既知のパラメータから算出され、それぞれ独立的に設定することができる。   In this case, an appropriate cutout area is set for each of the two images, the object extraction process, the pattern matching process using the correlation calculation, and the parallax detection process are performed from the images of these cutout areas, and the distance between the objects Is calculated. The cutout areas set in the two images are calculated from known parameters such as the height of the imaging means and the height of the object, and can be set independently.

ところで、実際上は車両自体の僅かな歪みや撮像手段の支持部材の製造上の誤差が存在するため2つの撮像手段の高さや指向方向が僅かに異なる場合があり、切り出し領域をそれぞれ独立的に設定すると両者の整合性が確保されない懸念がある。このような場合には、基準画像としての一方の画像で抽出された対象物の像を抜取り、比較画像としての他方の画像上で移動させながら行うパターンマッチングにおいて、マッチングが成立のための検索時間が増大し、又は他の物体にマッチングする懸念がある。   By the way, in practice, there is a slight distortion of the vehicle itself and an error in manufacturing the support member of the image pickup means, so the height and direction of the two image pickup means may be slightly different. If set, there is a concern that consistency between the two cannot be ensured. In such a case, in the pattern matching performed by extracting the image of the target object extracted from one image as the reference image and moving it on the other image as the comparison image, the search time for matching is established. There is a concern of increasing or matching to other objects.

本発明はこのような課題を考慮してなされたものであり、第1画像及び第2画像からそれぞれ適切な切り出し領域を設定して、該切り出し領域から対象物の視差を求める際のパターンマッチングを迅速且つ正確に行うことのできる車両周辺監視装置を提供することを目的とする。   The present invention has been made in consideration of such a problem, and sets an appropriate cutout region from each of the first image and the second image, and performs pattern matching when obtaining the parallax of the object from the cutout region. An object of the present invention is to provide a vehicle periphery monitoring device that can be quickly and accurately performed.

本発明に係る車両周辺監視装置は、車両に搭載された複数の撮像手段の画像から周辺の対象物の位置検出をする車両用周辺監視装置において、前記複数の撮像手段のそれぞれの画像に対して対象物検出に用いる切り出し領域を設定する画像領域設定手段と、前記画像領域設定手段によって設定されたそれぞれの切り出し領域に対して対象物検出処理を行う対象物抽出手段と、前記対象物抽出手段の抽出結果に基づいて前記画像領域設定手段によって設定された切り出し領域の少なくとも1つを修正して修正画像領域を得る修正画像領域設定手段とを有することを特徴とする(請求項1記載の発明)。   A vehicle periphery monitoring device according to the present invention is a vehicle periphery monitoring device that detects the position of a peripheral object from images of a plurality of imaging means mounted on a vehicle, and for each image of the plurality of imaging means. An image area setting means for setting a cutout area to be used for object detection, an object extraction means for performing an object detection process on each cutout area set by the image area setting means, and an object extraction means And a modified image region setting unit that obtains a corrected image region by correcting at least one of the cutout regions set by the image region setting unit based on an extraction result (the invention according to claim 1). .

これにより、実際に抽出された対象物に基づいてそれぞれの切り出し画像を設定するため、両者が関連付けられて整合性が確保される。したがって、いずれかの画像で抽出された対象物の像を抜取り、他の画像上で移動させながら行うパターンマッチングにおいて、マッチングが成立するまでの時間が短縮され、しかも又は他の物体にマッチングする可能性はほとんどなく、迅速且つ正確な処理の実現を図ることができる。   Thereby, since each cut-out image is set based on the object actually extracted, both are associated and the consistency is ensured. Therefore, in pattern matching performed by extracting an image of an object extracted from one of the images and moving it on another image, it is possible to reduce the time until matching is achieved and / or to match another object. Therefore, it is possible to realize a quick and accurate process.

また、本発明に係る車両周辺監視装置は、第1撮像手段によって得られた第1画像及び第2撮像手段によって得られた第2画像から周辺の対象物の位置検出をする車両周辺監視装置において、前記第1撮像手段及び前記第2撮像手段により撮像された前記対象物を前記第1画像及び前記第2画像からそれぞれ抽出する対象物抽出手段と、前記第1撮像手段及び前記第2撮像手段により撮像された前記対象物をパターンマッチングにより検出するための領域として前記第1画像に対して第1切り出し領域を設定するとともに、前記第2画像に対して第2切り出し領域を設定する画像領域設定手段とを有し、前記画像領域設定手段は、前記対象物抽出手段によって抽出された前記対象物の位置に基づいて、前記第1撮像手段及び前記第2撮像手段の光軸を含む仮想面に対する垂直方向の座標が一致するように前記第1切り出し領域及び前記第2切り出し領域を設定することを特徴とする(請求項2記載の発明)。   The vehicle periphery monitoring device according to the present invention is a vehicle periphery monitoring device that detects the position of a peripheral object from the first image obtained by the first imaging means and the second image obtained by the second imaging means. , Object extraction means for extracting the object imaged by the first imaging means and the second imaging means from the first image and the second image, respectively, the first imaging means and the second imaging means. An image area setting for setting a first cutout area for the first image as an area for detecting the object imaged by the pattern matching and setting a second cutout area for the second image And the image region setting means is based on the position of the object extracted by the object extraction means, and the first imaging means and the second imaging means. And sets the first cut-out area and the second cut-out region as the vertical coordinate is coincident to the virtual plane including the optical axis (the second aspect of the invention).

このように、実際に抽出された対象物に基づいて第1切り出し画像及び第2切り出し画像を設定するため、両者が関連付けられて整合性が確保される。したがって、一方の画像で抽出された対象物の像を抜取り、他の画像上で移動させながら行うパターンマッチングにおいて、マッチングが成立するまでの時間が短縮され、しかも又は他の物体にマッチングする可能性はほとんどなく、迅速且つ正確な処理の実現を図ることができる。   In this way, since the first clipped image and the second clipped image are set based on the actually extracted object, both are associated with each other to ensure consistency. Therefore, in the pattern matching performed by extracting the image of the target object extracted from one image and moving it on the other image, the time until matching is achieved and / or the possibility of matching with another object may be reduced. Therefore, it is possible to realize a quick and accurate process.

この場合、撮像手段は3つ以上設けてもよく、例えば、1つの撮像手段を第1撮像手段とし、残りをそれぞれ第2撮像手段として作用させるようにしてもよい。   In this case, three or more imaging units may be provided. For example, one imaging unit may be used as the first imaging unit, and the rest may be used as the second imaging unit.

また、前記第1撮像手段は前記対象物として第1ターゲットを撮像し、前記第2撮像手段は前記対象物として前記第1ターゲットと同じ高さに配置された第2ターゲットを撮像し、前記画像領域設定手段は、前記第1画像及び前記第2画像における前記第1ターゲット及び前記第2ターゲットの前記垂直方向の座標の差分に基づいて、前記第1切り出し領域及び前記第2切り出し領域を設定するとよい(請求項3記載の発明)。このように、同じ高さの第1ターゲット及び第2ターゲットの画像上の垂直方向の差分を用いることにより、迅速且つ簡便に第1切り出し領域及び第2切り出し領域を設定することができる。この場合、第1ターゲットと第2ターゲットは同一物であってもよい。   Further, the first imaging unit images a first target as the object, the second imaging unit images a second target arranged at the same height as the first target as the object, and the image When the region setting means sets the first cutout region and the second cutout region based on a difference between the vertical coordinates of the first target and the second target in the first image and the second image. Good (invention of claim 3). Thus, by using the vertical difference on the images of the first target and the second target having the same height, the first cutout area and the second cutout area can be set quickly and easily. In this case, the first target and the second target may be the same.

本発明に係る車両周辺監視装置は、実際に撮像された対象物に基づいて切り出し画像を設定するため、各画像が関連付けられて整合性が確保される。したがって、基準画像としての画像で抽出された対象物の像を抜取り、比較画像としての他の画像上で移動させながら行うパターンマッチングにおいて、マッチングが成立するまでの時間が短縮され、しかも他の物体にマッチングする可能性はほとんどなく、迅速且つ正確な処理の実現を図ることができる。   Since the vehicle periphery monitoring apparatus according to the present invention sets a cut-out image based on an actually captured object, the images are associated with each other to ensure consistency. Therefore, in the pattern matching performed by extracting the image of the target object extracted from the image as the reference image and moving it on the other image as the comparison image, the time until the matching is established is shortened, and other objects There is almost no possibility of matching, and it is possible to realize a quick and accurate process.

以下、本発明に係る車両周辺監視装置について実施の形態を挙げ、添付の図1〜図21を参照しながら説明する。   Hereinafter, an embodiment of the vehicle periphery monitoring device according to the present invention will be described with reference to FIGS.

図1に示すように、本実施形態に係るナイトビジョンシステム(車両周辺監視装置)10は、車両12に搭載されたシステムであって、主要な制御部であるECU(Electric Control Unit)14と、左右一対の赤外線カメラ(第1撮像手段、第2撮像手段)16L、16Rと、検出結果画像を表示するためのHUD(Head Up Display)18と、警報音等を発するスピーカ20と、走行速度を検出する車速センサ22と、走行時のヨーレートを検出するヨーレートセンサ24と、日射センサ26と、ヘッドライトスイッチ28と、システムを起動又は停止させるメインスイッチ30と、外部コンピュータシステムとの接続部32とを有する。ナイトビジョンシステム10を構成するこれらの機器間の接続には、他のシステムと兼用の車内通信網を用いてもよい。   As shown in FIG. 1, a night vision system (vehicle periphery monitoring device) 10 according to the present embodiment is a system mounted on a vehicle 12, and includes an ECU (Electric Control Unit) 14 that is a main control unit, A pair of left and right infrared cameras (first imaging means, second imaging means) 16L, 16R, a HUD (Head Up Display) 18 for displaying a detection result image, a speaker 20 for generating an alarm sound, etc., and a traveling speed A vehicle speed sensor 22 for detecting, a yaw rate sensor 24 for detecting a yaw rate during traveling, a solar radiation sensor 26, a headlight switch 28, a main switch 30 for starting or stopping the system, and a connection part 32 for connecting to an external computer system Have For the connection between these devices constituting the night vision system 10, an in-vehicle communication network that is also used for other systems may be used.

赤外線カメラ16R及び16Lは、バンパ下部における横長グリル孔の右端部及び左端部に並行配置され、左右対称位置でそれぞれ前方を指向し、カメラ間距離(以下、基線長ともいう。)Bの間隔で設けられている。赤外線カメラ16R及び16Lは遠赤外線を検出することにより高温部ほど高輝度となる赤外線画像を撮像して、それぞれECU14に供給する。   The infrared cameras 16R and 16L are arranged in parallel at the right end and left end of the horizontally long grill hole at the lower part of the bumper, and are directed forward at the left and right symmetrical positions, respectively, and are spaced by an inter-camera distance (hereinafter also referred to as a baseline length) B. Is provided. The infrared cameras 16R and 16L detect far-infrared rays to pick up infrared images that become brighter at higher temperatures and supply them to the ECU 14, respectively.

HUD18はインスツルメントパネル上部のドライバの正面位置において前方視界を妨げないように設けられている。HUD18はシステムオフ状態ではインスツルメントパネル内に格納されており、日射センサ26の情報から夜であると判断し、且つヘッドライトスイッチ28の情報からヘッドライト(又はフォグライト)が点灯していると判断される状態でメインスイッチ30をオンにするとポップアップする。HUD18の映像表示部は凹面ミラーで構成され、インスツルメントパネル内部からの映像を反射・投影する。ナイトビジョンシステム10はメインスイッチ30の操作に拘わらず、オートライト機能に連動して自動起動させてもよい。HUD18の表示輝度は適当なスイッチ操作によって調整可能としてもよい。   The HUD 18 is provided so as not to obstruct the front view at the front position of the driver above the instrument panel. The HUD 18 is stored in the instrument panel in the system-off state, is determined to be night from the information of the solar radiation sensor 26, and the headlight (or fog light) is turned on from the information of the headlight switch 28. Pops up when the main switch 30 is turned on. The video display unit of the HUD 18 is composed of a concave mirror, and reflects and projects an image from the inside of the instrument panel. The night vision system 10 may be automatically activated in conjunction with the auto light function regardless of the operation of the main switch 30. The display brightness of the HUD 18 may be adjustable by an appropriate switch operation.

ECU14は、赤外線カメラ16R、16Lから得られたステレオ赤外線画像に基づいて、両画像の視差から熱源対象物を検出してHUD18上で白いシルエットとして映し出す。さらに、熱源対象物の中から歩行者を特定すると、注意喚起のためにスピーカ20から音を発すると同時に、HUD18上に映し出された歩行者を目立つ色の枠で囲んで強調表示する。この注意喚起機能は、所定の速度域において歩行者の位置に到達するまでの時間を予測し、充分な回避操作が行えるタイミングで注意喚起を行う。   The ECU 14 detects the heat source object from the parallax between the two images based on the stereo infrared images obtained from the infrared cameras 16R and 16L, and displays it as a white silhouette on the HUD 18. Further, when a pedestrian is specified from among the heat source objects, a sound is emitted from the speaker 20 for alerting, and at the same time, the pedestrian projected on the HUD 18 is highlighted and surrounded by a conspicuous color frame. This alerting function predicts the time required to reach the position of the pedestrian in a predetermined speed range, and alerts at a timing at which a sufficient avoidance operation can be performed.

赤外線カメラ16R、16Lは、遠方の熱源対象物の位置、距離及び形状を正確に判定するため、製作所における製造時、あるいは、定期点検時等において、後述する調整処理であるエイミング設定が行われる。   Infrared cameras 16R and 16L are subjected to aiming setting, which is an adjustment process described later, at the time of manufacturing in a manufacturing facility or during periodic inspection in order to accurately determine the position, distance, and shape of a distant heat source object.

図2に示すように、ECU14は、赤外線カメラ16R、16Lにより撮像された赤外線画像をA/D変換してグレースケール画像を生成する画像入力部40と、閾値に基づいてグレースケール画像から二値化画像を生成する二値化処理部42と、グレースケール画像及び二値化画像を記憶する画像記憶部44と、エイミングを行って処理結果をカメラパラメータ記憶部46に記憶するエイミングモード実行部48と、車速センサ22等のセンサ及びカメラパラメータ記憶部46を参照しながら通常の画像処理を行うとともにHUD18及びスピーカ20を制御する通常モード実行部50と、接続部32を介して外部のコンピュータシステムからの指示に基づき、エイミングモードか通常モードのいずれか一方を選択するモード選択部52とを有する。   As shown in FIG. 2, the ECU 14 converts the infrared image captured by the infrared cameras 16R and 16L from A / D to generate a grayscale image, and binarizes the grayscale image based on a threshold value. A binarization processing unit 42 that generates a digitized image, an image storage unit 44 that stores a grayscale image and a binarized image, and an aiming mode execution unit 48 that performs aiming and stores the processing result in the camera parameter storage unit 46. A normal mode execution unit 50 that performs normal image processing while controlling the HUD 18 and the speaker 20 while referring to a sensor such as the vehicle speed sensor 22 and the camera parameter storage unit 46, and an external computer system via the connection unit 32. A mode selection unit 52 for selecting either the aiming mode or the normal mode based on the instruction A.

図3に示すように、画像記憶部44には、右の赤外線カメラ16Rが撮像した赤外線画像に基づく右グレースケール画像54及び右二値化画像56と、左の赤外線カメラ16Lが撮像した赤外線画像に基づく左グレースケール画像58が記憶される。これらの各画像は、車両12の前方を撮像した横長のデジタル画像である。右グレースケール画像54及び左グレースケール画像58は各ピクセルの輝度が所定の階調(例えば、256階調)で表され、右二値化画像56は各ピクセルの輝度が0又は1で表される二値の画像である。実際上、各画像は複数枚を同時に記憶可能である。   As shown in FIG. 3, the image storage unit 44 includes a right grayscale image 54 and a right binarized image 56 based on an infrared image captured by the right infrared camera 16R, and an infrared image captured by the left infrared camera 16L. A left grayscale image 58 based on is stored. Each of these images is a horizontally long digital image obtained by imaging the front of the vehicle 12. In the right grayscale image 54 and the left grayscale image 58, the luminance of each pixel is represented by a predetermined gradation (for example, 256 gradations), and in the right binarized image 56, the luminance of each pixel is represented by 0 or 1. This is a binary image. In practice, multiple images can be stored simultaneously.

図2に戻り、エイミングモード実行部48は、車両12を製造する製作所内において外部コンピュータシステムとしてエイミングターゲット制御装置100(図4参照)を用いてエイミングを行う製作所モード部70と、サービスエイミング設定装置120(図5参照)を用いてサービス工場等でエイミングを行うサービスモード部72を有し、これらの外部コンピュータシステムからの指示に基づいて製作所モード部70又はサービスモード部72のいずれか一方が選択実行される。   Returning to FIG. 2, the aiming mode execution unit 48 includes a manufactory mode unit 70 that performs aiming using an aiming target control device 100 (see FIG. 4) as an external computer system in a manufactory that manufactures the vehicle 12, and a service aiming setting device. 120 (see FIG. 5) has a service mode unit 72 that performs aiming at a service factory or the like, and one of the factory mode unit 70 and the service mode unit 72 is selected based on an instruction from these external computer systems Executed.

また、エイミングモード実行部48は、エイミングの開始時に外部コンピュータシステムから所定のパラメータを入力するパラメータ入力部74と、エイミングに必要な初期設定を行う初期設定部76と、画像記憶部44に記憶された左右のグレースケール画像54、58に対してテンプレートを用いたマッチングを行うテンプレートマッチング部78と、赤外線カメラ16R、16Lにより撮像して得られた画像信号の輝度を調整するための輝度調整LUTを設定する輝度調整LUT設定部80と、赤外線カメラ16R、16Lの焦点距離、画素ピッチ等の固体差に起因して発生する映像歪みを補正する左右カメラ映像歪補正部82と、赤外線カメラ16R、16Lの取付角(パン角、ピッチ角)を算出する左右カメラ取付角算出部84と、画像から演算範囲を切り出すための基準となる切り出し座標を算出する左右カメラ映像切出座標算出部86と、赤外線カメラ16R、16Lの光軸が平行に設定されていないことに起因する対象物画像の視差に含まれる誤差である視差オフセット値を算出する視差オフセット値算出部88とを有する。   The aiming mode execution unit 48 is stored in a parameter input unit 74 that inputs predetermined parameters from an external computer system at the start of aiming, an initial setting unit 76 that performs initial settings necessary for aiming, and an image storage unit 44. A template matching unit 78 for matching the left and right grayscale images 54 and 58 using a template, and a brightness adjustment LUT for adjusting the brightness of the image signals obtained by imaging with the infrared cameras 16R and 16L. Brightness adjustment LUT setting unit 80 to be set, left and right camera image distortion correction unit 82 for correcting image distortion caused by solid differences such as focal lengths and pixel pitches of infrared cameras 16R and 16L, and infrared cameras 16R and 16L Left and right camera mounting angle calculation unit 84 for calculating the mounting angle (pan angle, pitch angle) of The left and right camera image cutout coordinate calculation unit 86 for calculating cutout coordinates serving as a reference for cutting out the calculation range from the image, and the object image resulting from the optical axes of the infrared cameras 16R and 16L being not set in parallel. A parallax offset value calculation unit 88 that calculates a parallax offset value that is an error included in the parallax.

なお、視差オフセット値算出部88は、赤外線カメラ16R、16Lで撮像された対象物の画像上の実視差を算出する実視差算出手段と、赤外線カメラ16R、16Lにより撮像された各画像を各パン角に従って切り出し、測距精度をさらに向上するために視差オフセット値を算出する視差補正値算出手段として機能する。   Note that the parallax offset value calculation unit 88 calculates the actual parallax on the images of the objects captured by the infrared cameras 16R and 16L, and each image captured by the infrared cameras 16R and 16L for each pan. It functions as a parallax correction value calculation unit that cuts out according to a corner and calculates a parallax offset value in order to further improve distance measurement accuracy.

初期設定部76は、対象物までの距離に応じて用意された6つのテンプレートTP1、TP2、TP3、TP4、TP5、TP6(代表的にテンプレートTPとも示す。)から1つを選択するテンプレート設定部94を有する。また、ECU14は、対象物の位置を求めるための透視変換モデルを数式として記憶するモデル記憶部96を有し、エイミングモード実行部48及び通常モード実行部50は該透視変換モデルを用いて対象物の位置を算出する。モデル記憶部96には、対象物が近距離である場合の近距離用モデルと遠距離である場合の遠距離用モデルが記憶されている。   The initial setting unit 76 selects a template from six templates TP1, TP2, TP3, TP4, TP5, and TP6 (typically also shown as templates TP) prepared according to the distance to the object. 94. Further, the ECU 14 has a model storage unit 96 that stores a perspective transformation model for obtaining the position of the object as a mathematical expression, and the aiming mode execution unit 48 and the normal mode execution unit 50 use the perspective transformation model to target the object. The position of is calculated. The model storage unit 96 stores a short distance model when the object is a short distance and a long distance model when the object is a long distance.

ECU14は、主たる制御部としてのCPU(Central Processing Unit)と、記憶部としてのRAM(Random Access Memory)及びROM(Read Only Memory)等を有しており、上記の各機能部は、CPUがプログラムを読み込み、記憶部等と協動しながらソフトウェア処理を実行することにより実現される。   The ECU 14 includes a central processing unit (CPU) as a main control unit, a random access memory (RAM) and a read only memory (ROM) as storage units, and the above-described functional units are programmed by the CPU. This is realized by executing software processing in cooperation with a storage unit or the like.

図4に示すように、エイミングターゲット制御装置100は、車両12の位置決め装置102と、車両12が位置決めされた状態で赤外線カメラ16R、16Lの前方既知の距離Zfに設けられたゲート104と、前記接続部32を介してECU14と通信を行うとともにゲート104を制御する主制御装置106とを有する。ゲート104は、車幅よりやや広い間隔で設けられた2本の支柱108と、左右端を支柱108に支持された横長のターゲット板110とを有し、該ターゲット板110は、主制御装置106の作用下に支柱108に沿って昇降可能である。ターゲット板110には、撮像する対象物としての8つのエイミングターゲット112a、112b、112c、112d、112e、112f、112g及び112h(代表的にエイミングターゲット112とも示す。)が左から順に水平に配列されており、エイミングターゲット112a〜112hは熱源である。   As shown in FIG. 4, the aiming target control device 100 includes a positioning device 102 for the vehicle 12, a gate 104 provided at a known distance Zf in front of the infrared cameras 16R and 16L in a state where the vehicle 12 is positioned, A main control device 106 that communicates with the ECU 14 via the connection unit 32 and controls the gate 104 is provided. The gate 104 includes two support columns 108 provided at intervals slightly wider than the vehicle width, and a horizontally long target plate 110 supported by the support columns 108 at the left and right ends. The target plate 110 is a main controller 106. It is possible to move up and down along the column 108 under the action of. On the target plate 110, eight aiming targets 112a, 112b, 112c, 112d, 112e, 112f, 112g, and 112h (typically also indicated as aiming targets 112) as objects to be imaged are arranged horizontally in order from the left. The aiming targets 112a to 112h are heat sources.

左側のエイミングターゲット112a〜112dは比較的小さい間隔d(d<B)で並んでおり左ターゲット群114を形成する。同様に、右側のエイミングターゲット112e〜112hは間隔dで並んでおり右ターゲット群116を形成する。左ターゲット群114の右端であるエイミングターゲット112dと右ターゲット群116の左端であるエイミングターゲット112eの間隔は基線長Bに等しく、エイミングターゲット112d及び112eは、赤外線カメラ16R及び16Lの正面位置に配置される。   The left aiming targets 112a to 112d are arranged at a relatively small distance d (d <B) to form the left target group 114. Similarly, the right aiming targets 112e to 112h are arranged at a distance d to form the right target group 116. The distance between the aiming target 112d, which is the right end of the left target group 114, and the aiming target 112e, which is the left end of the right target group 116, is equal to the base line length B, and the aiming targets 112d and 112e are arranged in front of the infrared cameras 16R and 16L. The

なお、エイミングターゲット112a〜112hは発熱体のような熱源に限らず、例えば図5に示すように、熱の反射板としての小さい金属板(アルミニウム板等)118a〜118hを用いてもよい。このような金属板をターゲットとして用いることにより車両12が発生、放射する熱(赤外線)が反射され、赤外線カメラ16R及び16Lで撮像することができる。この場合、ターゲットの点灯、消灯の切り換え操作が不要であり、しかも電力消費がなくて好適である。また、ターゲット板110として熱の反射率の低い材料を用いると、撮像された画像上で金属板118a〜118hとターゲット板110のコントラストが明りょうとなり好適である。   The aiming targets 112a to 112h are not limited to a heat source such as a heating element. For example, as shown in FIG. 5, small metal plates (aluminum plates or the like) 118a to 118h as heat reflecting plates may be used. By using such a metal plate as a target, heat (infrared rays) generated and radiated by the vehicle 12 is reflected and can be imaged by the infrared cameras 16R and 16L. In this case, it is not necessary to switch the target on and off, and there is no power consumption. In addition, it is preferable to use a material with low heat reflectance as the target plate 110 because the contrast between the metal plates 118a to 118h and the target plate 110 becomes clear on the captured image.

図6に示すように、サービスエイミング設定装置120は、エイミング設定時における車両12の車輪位置を示す位置マーク122と、該位置マーク122に基づいて車両12が位置決めされた状態で赤外線カメラ16R、16Lの前方所定距離(以下、対象物距離ともいう)Zの位置に設けられたヘッドライトテスタ124と、前記接続部32を介してECU14と通信を行う主制御装置126とを有する。ヘッドライトテスタ124は、レール128に沿って車幅方向と並行に移動可能であるとともに、昇降台130が昇降可能な構成となっている。昇降台130にはターゲット板132が設けられ、該ターゲット板132には間隔d(d<B)で水平に並んだ3つの熱源である撮像対象物としてのエイミングターゲット134a、134b及び134c(代表的にエイミングターゲット134とも示す。)が設けられている。エイミングターゲット134は前記エイミングターゲット112と同じものであり、又は略同じものを用いることができる。   As shown in FIG. 6, the service aiming setting device 120 includes a position mark 122 indicating the wheel position of the vehicle 12 at the time of aiming setting, and the infrared cameras 16R and 16L in a state where the vehicle 12 is positioned based on the position mark 122. A headlight tester 124 provided at a position Z ahead of a predetermined distance (hereinafter also referred to as an object distance), and a main controller 126 that communicates with the ECU 14 via the connection portion 32. The headlight tester 124 is movable along the rail 128 in parallel with the vehicle width direction, and the lifting platform 130 can be moved up and down. The lifting platform 130 is provided with a target plate 132. The target plate 132 has three aiming targets 134a, 134b, and 134c (typical imaging objects) that are three heat sources arranged horizontally at intervals d (d <B). Are also shown as aiming targets 134). The aiming target 134 is the same as or substantially the same as the aiming target 112.

次に、一般的な透視変換モデルM、及びモデル記憶部96に記憶される近距離用モデル及び遠距離用モデルについて説明する。   Next, a general perspective transformation model M and a short distance model and a long distance model stored in the model storage unit 96 will be described.

図7に示すように、一般的な透視変換モデルMは、高さYの対象物Wを焦点距離fのレンズ138で撮像して高さyの像を得る様子を示すモデルである。つまり、対象物Wの一端部である点Paからレンズ中心Oに入光した光は直進し、光軸Cに並行に入光した光はレンズ138の点O’で屈折し、それぞれの光は点Pbで集光する。対象物Wの他端部であり光軸C上の点Pa’からレンズ中心Oに入光した光は、光軸C上をそのまま直進して点Pb’に至る。このようにして対象物Wはレンズ138を通して反対側の結像距離Fの箇所に高さyの像wを結像する。図7から明らかなように、像wは対象物Wに対して倒立している。   As shown in FIG. 7, the general perspective transformation model M is a model that shows a state where an object W having a height Y is imaged by a lens 138 having a focal length f to obtain an image having a height y. That is, the light that has entered the lens center O from the point Pa that is one end of the object W travels straight, and the light that has entered parallel to the optical axis C is refracted at the point O ′ of the lens 138. Light is collected at point Pb. The light that has entered the lens center O from the point Pa ′ on the optical axis C, which is the other end of the object W, travels straight on the optical axis C to the point Pb ′. In this way, the object W forms an image w having a height y through the lens 138 at the position of the imaging distance F on the opposite side. As is clear from FIG. 7, the image w is inverted with respect to the object W.

ところで、三点Pa、Pa’、Oからなる三角形と三点Pb、Pb’、Oからなる三角形の相似関係、及び三点O、O’、Pcからなる三角形と三点Pb、Pb’、Pcからなる三角形の相似関係から以下の(1)式及び(2)が導き出される。ただし、点Pcは、レンズ138からみて像wの方向で、光軸C上における焦点距離fの位置の点である。
y/Y=F/Z …(1)
y/Y=(F−f)/f …(2)
By the way, the similarity between the triangle composed of the three points Pa, Pa ′, O and the triangle composed of the three points Pb, Pb ′, O, and the triangle composed of the three points O, O ′, Pc and the three points Pb, Pb ′, Pc. The following expressions (1) and (2) are derived from the similarity relationship of the triangles consisting of: However, the point Pc is a point at the position of the focal length f on the optical axis C in the direction of the image w when viewed from the lens 138.
y / Y = F / Z (1)
y / Y = (F−f) / f (2)

この(1)式及び(2)式からy及びYを消去すると次の(3)式が求められる。
F=fZ/(Z−f) …(3)
When y and Y are deleted from the equations (1) and (2), the following equation (3) is obtained.
F = fZ / (Z−f) (3)

エイミングモード時には、対象物距離Zが既知距離であることから、後述するステップS8及びS33においてはこの(3)式により結像距離Fが設定される。実際上、(3)式は後述の(7−1)〜(7−4)式に含まれるようにしてもよい。   In the aiming mode, since the object distance Z is a known distance, the imaging distance F is set by the equation (3) in steps S8 and S33 described later. Actually, the expression (3) may be included in the expressions (7-1) to (7-4) described later.

対象物Wがレンズ138から十分遠方にある場合(Z)fである場合)には、(3)式は次の(4)式の近似式で表すことができる。
F≒f(=fZ/Z) …(4)
When the object W is sufficiently far from the lens 138 (when Z is f), the expression (3) can be expressed by the following approximate expression (4).
F≈f (= fZ / Z) (4)

なお、対象物Wの幅Xについても高さYと同様の透視変換モデルMで表すことができ、幅Xに対して像wは幅xで表される。また、実際の像wは対象物Wに対してレンズ138の反対側に結像するが、モデルの単純化のために仮想の結像面Sを対象物Wと同じ側で、且つレンズ138から結像距離Fの位置に設けることができる。これにより、図8に示すように、対象物Wと像wはレンズ中心Oを基準として相似の正立像となり、対象物Wが結像面Sに透視変換される。   Note that the width X of the object W can also be represented by a perspective transformation model M similar to the height Y, and the image w is represented by the width x with respect to the width X. In addition, the actual image w is formed on the opposite side of the lens 138 with respect to the object W, but the virtual imaging plane S is on the same side as the object W and from the lens 138 to simplify the model. It can be provided at the position of the imaging distance F. As a result, as shown in FIG. 8, the object W and the image w become similar upright images with the lens center O as a reference, and the object W is perspective-transformed into the image plane S.

図8から明らかなように、結像面Sにおける像wの幅x及び高さyは次の(5)式及び(6)式で表される。
x=F/Z・X/p …(5)
y=F/Z・Y/p …(6)
As is clear from FIG. 8, the width x and height y of the image w on the imaging plane S are expressed by the following equations (5) and (6).
x = F / Z · X / p (5)
y = F / Z · Y / p (6)

ここで、パラメータpは結像面Sを実際のデジタル画像に適用する際の画素ピッチである。また、対象物Wが比較的近距離であるときは(4)式を適用すると誤差が無視できないため(3)式を(5)式及び(6)式に代入することになり、結局、対象物Wが比較的近距離であるときの透視変換モデルは、次の第1の式群である(7−1)〜(7−4)式で表される。   Here, the parameter p is a pixel pitch when the imaging plane S is applied to an actual digital image. Also, when the object W is relatively close, the error cannot be ignored when the expression (4) is applied, so the expression (3) is substituted into the expressions (5) and (6). The perspective transformation model when the object W is relatively close is represented by the following first formula group (7-1) to (7-4).

Figure 2006155428
Figure 2006155428

この第1の式群は、モデル記憶部96における近距離用モデルに含まれており、前記モード選択部52が後述のステップS3でエイミングモードを選択したときにエイミングモード実行部48により選択され、エイミングターゲット112又は134の位置を算出に供される。つまり、製作所エイミング時には既知の距離Zfとして自動設定される値が対象物距離Zとして用いられ、サービスエイミング時には主制御装置126から入力された対象物距離Zが用いられる。各エイミングターゲット112又は134は、車幅方向の座標値であるX及び高さ方向の座標値であるYが既知であることから、(7−1)式及び(7−2)式から結像面Sにおける像wの理論的な座標Pb(x、y)が求められる。なお、サービスエイミング時には、高さ座標Yは、カメラ高さH(図1参照)に基づいて補正される。   The first formula group is included in the short distance model in the model storage unit 96, and is selected by the aiming mode execution unit 48 when the mode selection unit 52 selects the aiming mode in step S3 described later. The position of the aiming target 112 or 134 is used for calculation. That is, a value automatically set as the known distance Zf is used as the object distance Z at the time of manufacturing plant aiming, and the object distance Z input from the main controller 126 is used at the time of service aiming. Since each aiming target 112 or 134 has a known X value as a coordinate value in the vehicle width direction and Y as a coordinate value in the height direction, the image is formed from the equations (7-1) and (7-2). The theoretical coordinates Pb (x, y) of the image w on the surface S are obtained. During service aiming, the height coordinate Y is corrected based on the camera height H (see FIG. 1).

この後、理論的な座標Pb(x、y)と実際に得られたエイミングターゲット112の実画面上の座標と比較することによって、赤外線カメラ16R及び16Lの取り付け角度が求められる。また、実画面上の座標から(7−3)式及び(7−4)式を用いてエイミングターゲット112の理論的な座標を求め、既知の座標値X、Yと比較して赤外線カメラ16R及び16Lの取り付け角度を求めてもよい。   Thereafter, the mounting angles of the infrared cameras 16R and 16L are obtained by comparing the theoretical coordinates Pb (x, y) with the actually obtained coordinates of the aiming target 112 on the real screen. Further, theoretical coordinates of the aiming target 112 are obtained from the coordinates on the real screen using the equations (7-3) and (7-4), and compared with the known coordinate values X and Y, the infrared camera 16R and A mounting angle of 16L may be obtained.

第1の式群は、結像距離Fを示す(3)式に基づいて設定されていることから、理論的な座標Pb(x、y)が正確に求められ、結果として赤外線カメラ16R及び16Lの取り付け角度を高精度に求めることができる。   Since the first group of equations is set based on the equation (3) indicating the imaging distance F, the theoretical coordinates Pb (x, y) are accurately obtained, and as a result, the infrared cameras 16R and 16L are obtained. Can be obtained with high accuracy.

一方、対象物Wが遠方であるときには近似式として(4)式を用いることができ、(5)式及び(6)式は次の第2の式群である(8−1)〜(8−4)式で表される。   On the other hand, when the object W is far away, the expression (4) can be used as an approximate expression, and the expressions (5) and (6) are the following second expression groups (8-1) to (8). -4) It is expressed by the formula.

Figure 2006155428
Figure 2006155428

この第2の式群は、前記のモデル記憶部96における遠距離用モデルに含まれており、前記モード選択部52が後述のステップS3で通常モードを選択したときに通常モード実行部50により選択され、対象物の位置を算出に供される。つまり、赤外線カメラ16R又は16Lにより得られた2つの画像の視差から対象物までの対象物距離Zを算出した後、画像上の座標から(8−3)式及び(8−4)式を用いて対象物の空間上の座標値X及びYが求められる。一般的に、通常モードにおいては対象物距離Zが焦点距離fより十分に大きいことから前記(4)式の誤差は無視できるレベルであり、対象物の座標値X及びYは(8−3)式及び(8−4)式により十分高精度に求められる。また、(8−3)式及び(8−4)式は、前記(7−3)式及び(7−4)式よりも簡便な式であることから高速計算が可能である。   This second formula group is included in the long-distance model in the model storage unit 96, and is selected by the normal mode execution unit 50 when the mode selection unit 52 selects the normal mode in step S3 described later. Then, the position of the object is used for calculation. That is, after calculating the object distance Z to the object from the parallax between the two images obtained by the infrared camera 16R or 16L, the equations (8-3) and (8-4) are used from the coordinates on the image. Thus, coordinate values X and Y in the space of the object are obtained. In general, since the object distance Z is sufficiently larger than the focal distance f in the normal mode, the error in the equation (4) is negligible, and the coordinate values X and Y of the object are (8-3). It is obtained with sufficiently high accuracy by the equation and the equation (8-4). In addition, since the equations (8-3) and (8-4) are simpler than the equations (7-3) and (7-4), high speed calculation is possible.

なお、通常モードにおいても、求められた対象物距離Zが所定の閾値以下である場合には(7−3)式及び(7−4)式を用いるようにしてもよい。   Even in the normal mode, when the obtained object distance Z is equal to or less than a predetermined threshold, the expressions (7-3) and (7-4) may be used.

次に、このように構成されるエイミングターゲット制御装置100又はサービスエイミング設定装置120を用いてナイトビジョンシステム10のエイミングを行う方法について説明する。   Next, a method for aiming the night vision system 10 using the aiming target control device 100 or the service aiming setting device 120 configured as described above will be described.

エイミングには、製作所内でエイミングターゲット制御装置100を用いる製作所エイミングモードと、サービスエイミング設定装置120を用いるサービスエイミングモードがある。   The aiming includes a manufacturing aiming mode in which the aiming target control device 100 is used in the manufacturing facility and a service aiming mode in which the service aiming setting device 120 is used.

製作所エイミングモードでは、位置決め装置102により車両12の位置決めを行うとともに、主制御装置106を車両12の接続部32に接続しておく。主制御装置106はECU14に対して、エイミングターゲット制御装置100を用いた製作所エイミングを実行するように指示を送出する。また、エイミングターゲット112a〜112hは、車両12の種類に応じて規定の高さとなるように調整しておく。   In the factory aiming mode, the positioning device 102 positions the vehicle 12 and connects the main control device 106 to the connection portion 32 of the vehicle 12. The main control device 106 sends an instruction to the ECU 14 to execute the manufacturing aiming using the aiming target control device 100. The aiming targets 112 a to 112 h are adjusted so as to have a specified height according to the type of the vehicle 12.

サービスエイミングモードでは、位置マーク122に車両12の各車輪を合わせて位置決めを行うとともに、主制御装置126を車両12の接続部32に接続しておく。主制御装置126は、ECU14に対して、サービスエイミング設定装置120を用いたサービスエイミングを実行するように指示を送出する。エイミングターゲット134a〜134cは、規定高さとなるように調整しておく。   In the service aiming mode, positioning is performed by aligning each wheel of the vehicle 12 with the position mark 122, and the main control device 126 is connected to the connection portion 32 of the vehicle 12. Main controller 126 sends an instruction to ECU 14 to execute service aiming using service aiming setting device 120. The aiming targets 134a to 134c are adjusted to have a specified height.

図9及び図11〜図14に示す処理は、ECU14において主にエイミングモード実行部48で実行される処理である。   The process shown in FIGS. 9 and 11 to 14 is a process executed mainly by the aiming mode execution unit 48 in the ECU 14.

先ず、図9のステップS1において、赤外線カメラ16R、16Lからステレオ赤外線画像入力し、画像入力部40においてA/D変換して(ステップS2)グレースケール画像54、58を得る。このグレースケール画像54及び58は、所定のクリア指示又は上書き式があるまで画像記憶部44に保持され、複数枚を記録可能である。また、グレースケール画像54及び58は、それぞれ二値化処理部42で二値化され、右二値化画像56が画像記憶部44に記憶される。   9. First, in step S1 of FIG. 9, stereo infrared images are input from the infrared cameras 16R and 16L, and A / D conversion is performed in the image input unit 40 (step S2) to obtain gray scale images 54 and 58. The gray scale images 54 and 58 are held in the image storage unit 44 until a predetermined clear instruction or overwrite type is given, and a plurality of sheets can be recorded. The gray scale images 54 and 58 are each binarized by the binarization processing unit 42, and the right binarized image 56 is stored in the image storage unit 44.

ステップS3において、モード選択部52は主制御装置106又は126からの指示に従い、エイミングモード又は通常モードのいずれを実行するのかを判断する。通常モードを実行する場合にはステップS5へ移り、エイミングモードを実行する場合にはステップS4へ移る。   In step S3, the mode selection unit 52 determines whether to execute the aiming mode or the normal mode in accordance with an instruction from the main control device 106 or 126. When executing the normal mode, the process proceeds to step S5, and when executing the aiming mode, the process proceeds to step S4.

ステップS5の通常モードでは、通常モード実行部50の作用下に、カメラパラメータ記憶部46に記憶されたカメラパラメータを参照し、後述するようにHUD18及びスピーカ20を制御して対象物の検出及び必要に応じた注意喚起を行う通常のモードを実行する。   In the normal mode in step S5, under the action of the normal mode execution unit 50, the camera parameters stored in the camera parameter storage unit 46 are referred to, and the HUD 18 and the speaker 20 are controlled and detected as described later. The normal mode for alerting according to is executed.

ステップS5においては、モード選択部52がエイミングターゲット制御装置100又はサービスエイミング設定装置120のいずれの装置を用いるのか判断し、エイミングターゲット制御装置100を用いると判断した場合にはステップS6へ移り、製作所モード部70の作用下に製作所エイミングモードを実行する。また、サービスエイミング設定装置120を用いると判断した場合にはステップS30(12参照)へ移り、サービスモード部72の作用下にサービスエイミングモードを実行する。以下、製作所エイミングモード及びサービスエイミングモードを順に説明する。   In step S5, the mode selection unit 52 determines whether to use the aiming target control device 100 or the service aiming setting device 120. If it is determined that the aiming target control device 100 is used, the process proceeds to step S6. The mill aiming mode is executed under the action of the mode unit 70. If it is determined that the service aiming setting device 120 is used, the process proceeds to step S30 (see 12), and the service aiming mode is executed under the action of the service mode unit 72. Hereinafter, the factory aiming mode and the service aiming mode will be described in order.

製作所エイミングモードでは、先ず、ステップS6において、赤外線カメラ16R、16Lからターゲット板110までの距離、つまり対象物距離Zを設定する。この場合、対象物距離Zは既知の距離Zfとして自動的に設定される。   In the factory aiming mode, first, in step S6, the distance from the infrared cameras 16R and 16L to the target plate 110, that is, the object distance Z is set. In this case, the object distance Z is automatically set as a known distance Zf.

ステップS7において、テンプレート設定部94の作用下に基準テンプレートを対象物距離Zに応じて選択する。図10に示すように、テンプレートTP1、TP2、TP3、TP4、TP5、TP6は規定距離に配置された1つの仮ターゲットを撮像した小さい画像データであって、規定距離は赤外線カメラ16R及び16Lから近い順に等間隔(又は等比間隔等)のZ1、Z2、Z3、Z4、Z5及びZ6として設定されている。テンプレートTP1、TP2、TP3、TP4、TP5、TP6はECU14内のテンプレート記憶部95に記憶されている。仮ターゲットとしてはエイミングターゲット112と同じものが用いられる。製作所エイミングモードでは、例えば既知の距離ZfがZf=Z3であれば、テンプレートTP3が基準テンプレートとして選択される。   In step S <b> 7, the reference template is selected according to the object distance Z under the action of the template setting unit 94. As shown in FIG. 10, templates TP1, TP2, TP3, TP4, TP5, and TP6 are small image data obtained by imaging one temporary target arranged at a specified distance, and the specified distance is close to the infrared cameras 16R and 16L. They are set as Z1, Z2, Z3, Z4, Z5, and Z6 at equal intervals (or equal ratio intervals, etc.) in order. Templates TP1, TP2, TP3, TP4, TP5, and TP6 are stored in template storage unit 95 in ECU. As the temporary target, the same target as the aiming target 112 is used. In the factory aiming mode, for example, if the known distance Zf is Zf = Z3, the template TP3 is selected as the reference template.

ステップS8においては、透視変換モデルM(図7参照)に基づいて結像距離Fの設定を行う。   In step S8, the imaging distance F is set based on the perspective transformation model M (see FIG. 7).

なお、ステップS6〜S8の処理は、初期設定部76の作用下に行われ、所定の実行回数パラメータを参照しながら、エイミングが実行された最初の1回のみ実行される。   Note that the processing in steps S6 to S8 is performed under the action of the initial setting unit 76, and is executed only once for the first time when aiming is executed while referring to a predetermined execution frequency parameter.

ステップS9(対象物抽出手段)において、ステップS7で選択した基準テンプレートに基づいてテンプレートマッチング処理を行う。すなわち、赤外線カメラ16R、16Lにより撮像されたエイミングターゲット112のグレースケール画像54、58と、テンプレートTPとの相関演算を行い、相関演算の結果が最小となるグレースケール画像の座標を算出して記憶する。(ステップS10、ターゲット座標算出手段)。相関演算には、例えば、ピクセル毎の絶対値誤差の総和であるSAD値(Sum of Absolute Difference)が用いられる。   In step S9 (object extraction means), template matching processing is performed based on the reference template selected in step S7. That is, the grayscale images 54 and 58 of the aiming target 112 captured by the infrared cameras 16R and 16L are correlated with the template TP, and the coordinates of the grayscale image that minimizes the correlation calculation result are calculated and stored. To do. (Step S10, target coordinate calculation means). For the correlation calculation, for example, an SAD value (Sum of Absolute Difference) that is the sum of absolute value errors for each pixel is used.

ステップS11では、取得したグレースケール画像54及び58の枚数が所定の枚数N枚に達したか否かを確認し、N枚に達した場合には、ステップS12へ移り、N枚未満である場合には、ステップS1へ戻りグレースケール画像54、58の取得を継続してターゲット座標の算出記憶処理を繰り返す。   In step S11, it is checked whether or not the number of acquired grayscale images 54 and 58 has reached a predetermined number N, and if it has reached N, the process proceeds to step S12, where it is less than N. Returning to step S1, the acquisition of the grayscale images 54 and 58 is continued, and the target coordinate calculation storage process is repeated.

ステップS12において、算出されたN組のターゲット座標の平均値Paveを算出する処理を行い、ターゲット座標算出が正常に算出された場合にはステップS14へ移り、算出されなかった場合にはステップS3へ戻るという分岐処理(ステップS13)を行う。   In step S12, a process of calculating an average value Pave of the calculated N sets of target coordinates is performed. If the target coordinate calculation is normally calculated, the process proceeds to step S14. If not, the process proceeds to step S3. A branch process of returning (step S13) is performed.

図11のステップS14において、輝度調整LUT設定処理を行う。この処理では、相関演算によるテンプレートマッチングを確実に実行できるよう、例えば、赤外線カメラ16R及び16Lにより検出されたエイミングターゲット112の輝度信号同士のレベルを比較し、各輝度レベルにおいて、相関演算の基準とする赤外線カメラ16Rからの輝度信号が赤外線カメラ16Lからの輝度信号よりも常に大きくなるように調整する輝度調整LUTを設定する。該輝度調整LUT設定処理が正常に実行された場合にはステップS16へ移る(ステップS15)。   In step S14 of FIG. 11, a luminance adjustment LUT setting process is performed. In this process, for example, the levels of the luminance signals of the aiming targets 112 detected by the infrared cameras 16R and 16L are compared with each other so that the template matching by the correlation calculation can be executed reliably. A brightness adjustment LUT is set to adjust so that the brightness signal from the infrared camera 16R to be always larger than the brightness signal from the infrared camera 16L. When the brightness adjustment LUT setting process is normally executed, the process proceeds to step S16 (step S15).

ステップS16において、赤外線カメラ16R、16Lの焦点距離、画素ピッチ等の固体差に起因して発生する映像歪みを補正する映像歪補正値の算出処理を行う。映像歪補正値が正常に算出された場合にはステップS18へ移る(ステップS17)。   In step S16, image distortion correction value calculation processing for correcting image distortion caused by individual differences such as focal lengths and pixel pitches of the infrared cameras 16R and 16L is performed. If the video distortion correction value is normally calculated, the process proceeds to step S18 (step S17).

ステップS18において、左右カメラ取り付け角であるパン角及びピッチ角(又はチルト角とも呼ばれる。)の算出処理を行い、該左右カメラ取り付け角が正常に算出された場合にはステップS20へ移る(ステップS19)。   In step S18, a pan angle and a pitch angle (also referred to as tilt angle), which are left and right camera mounting angles, are calculated. If the left and right camera mounting angles are normally calculated, the process proceeds to step S20 (step S19). ).

ここで、パン角とは、2つの赤外線カメラ16R及び16Lの光軸は同じ高さ方向を指向していることから、赤外線カメラ16R及び16Lの両光軸を含むカメラ配列仮想面における旋回方向の角度であって視差が発生する方向ということができ、得られた画像上のx方向に相当する(図8参照)。また、ピッチ角とは、カメラ配列仮想面を基準として垂直な俯仰方向の角度ということができ、得られた画像上のy方向に相当する。   Here, the pan angle means that the optical axes of the two infrared cameras 16R and 16L are directed in the same height direction, and therefore the rotation direction in the camera array virtual plane including both optical axes of the infrared cameras 16R and 16L. It can be said to be an angle and a direction in which parallax occurs, and corresponds to the x direction on the obtained image (see FIG. 8). Further, the pitch angle can be referred to as a vertical elevation angle with respect to the camera array virtual plane, and corresponds to the y direction on the obtained image.

ステップS20において、赤外線カメラ16R、16Lにより撮像された各画像から各画像から画像処理に用いられる範囲を切り出す基準の切り出し座標の算出処理を行い、該切り出し座標が正常に算出された場合にはステップS22へ移る(ステップS21)。   In step S20, a standard cutout coordinate calculation process is performed to cut out a range used for image processing from each image captured by the infrared cameras 16R and 16L. If the cutout coordinates are normally calculated, step S20 is performed. The process moves to S22 (step S21).

ステップS22において、赤外線カメラ16R、16Lの光軸が平行に設定されていないことに起因する対象物画像の視差に含まれる誤差である視差オフセット値の算出処理を行う。視差オフセットが算出された場合にはステップS24へ移る(ステップS23)。   In step S22, a process of calculating a parallax offset value that is an error included in the parallax of the object image due to the fact that the optical axes of the infrared cameras 16R and 16L are not set in parallel is performed. When the parallax offset is calculated, the process proceeds to step S24 (step S23).

ステップS24において、ステップS14、S16、S18、S20及びS22の処理で求められた輝度調整LUT、映像歪補正値、パン角及びピッチ角、切り出し座標、視差オフセット値をカメラパラメータ記憶部46に記憶し、正しく記憶された場合には製作所エイミングモード(又はサービスエイミングモード)を終了する。このとき、ECU14は主制御装置106又は126に対してエイミングが終了した旨の信号を送出する。この後に通常モードを実行する場合には所定の再起動処理を行えばよい。なお、ステップS17、S19、S21、S23及びS25における各分岐処理において判定結果が否定的であった場合には、ステップS13の分岐処理における否定的な結果時と同様にステップS3へ戻ることになる。   In step S24, the brightness adjustment LUT, image distortion correction value, pan angle and pitch angle, cut-out coordinates, and parallax offset value obtained in steps S14, S16, S18, S20, and S22 are stored in the camera parameter storage unit 46. If it is correctly stored, the mill aiming mode (or service aiming mode) is terminated. At this time, the ECU 14 sends a signal to the main control device 106 or 126 to the effect that the aiming has been completed. Thereafter, when the normal mode is executed, a predetermined restart process may be performed. If the determination result in each branch process in steps S17, S19, S21, S23, and S25 is negative, the process returns to step S3 as in the case of a negative result in the branch process in step S13. .

次に、サービスエイミングモードの処理について説明する。サービスエイミングモードにおいては、前記の製作所エイミングと同様にステップS1〜S3の処理(図9参照)が実行され、次のステップS4からステップS30への分岐処理が行われ、サービスモード部72の作用下に図12〜図14に示す処理が実行される。   Next, processing in the service aiming mode will be described. In the service aiming mode, the processing of steps S1 to S3 (see FIG. 9) is executed in the same manner as the manufacturing aiming, and the branch processing from the next step S4 to step S30 is performed. 12 to 14 are executed.

図12のステップS30において、赤外線カメラ16R、16Lからターゲット板132までの距離、つまり対象物距離Zを入力設定する。この場合、対象物距離ZはZ1〜Z7(>Z6)mまでの範囲の数値として主制御装置126から入力され、ECU14に供給される。対象物距離Zの入力は、計測しやすい箇所(例えば位置マーク122)を基準として入力し、所定のオフセット量を自動的に差し引いて求めるようにしてもよい。また、レーザ距離検出装置等を対象物距離検出手段として使用し、対象物距離Zを自動検出及び入力してもよい。   In step S30 in FIG. 12, the distance from the infrared cameras 16R and 16L to the target plate 132, that is, the object distance Z is input and set. In this case, the object distance Z is input from the main controller 126 as a numerical value in the range from Z1 to Z7 (> Z6) m and supplied to the ECU 14. The input of the object distance Z may be input based on an easily measurable location (for example, the position mark 122), and a predetermined offset amount may be automatically subtracted. Further, the object distance Z may be automatically detected and input by using a laser distance detecting device or the like as the object distance detecting means.

ステップS31において、赤外線カメラ16R及び16Lの高さを確認し、カメラ高さH(図1参照)を入力する。   In step S31, the heights of the infrared cameras 16R and 16L are confirmed, and the camera height H (see FIG. 1) is input.

ステップS32において、テンプレート設定部94の作用下に、対象物距離Zに応じてテンプレートTP1〜TP6のうち1つを基準テンプレートとして選択する。前記のようにテンプレートTP1〜TP6は、仮ターゲットの撮像時の規定距離がZ1〜Z6mとして設定されている。このステップS32においては、対応する規定距離が対象物距離Z以下であり、且つ対象物距離Zに最も近いテンプレートを選択する。具体的には、対象物距離ZがZ1〜Z2’、Z2〜Z3’、Z3〜Z4’、Z4〜Z5’、Z5〜Z6’、Z6〜Z7である場合に、順にテンプレートTP1〜TP6が対応して選択される。ここで、Z2’、Z3’、Z4’、Z5'及びZ6’は、それぞれZ2、Z3、Z4、Z5、Z6よりも最小入力単位だけ小さい値である。一層具体的には、対象物距離Zが、Z4〜Z5’の間あるときには、テンプレートTP4が選択される。   In step S32, under the action of the template setting unit 94, one of the templates TP1 to TP6 is selected as a reference template according to the object distance Z. As described above, the templates TP1 to TP6 have the specified distances Z1 to Z6m when the temporary target is imaged. In step S32, a template whose corresponding specified distance is equal to or smaller than the object distance Z and closest to the object distance Z is selected. Specifically, when the object distance Z is Z1 to Z2 ′, Z2 to Z3 ′, Z3 to Z4 ′, Z4 to Z5 ′, Z5 to Z6 ′, Z6 to Z7, the templates TP1 to TP6 correspond in order. To be selected. Here, Z2 ', Z3', Z4 ', Z5' and Z6 'are values smaller than Z2, Z3, Z4, Z5 and Z6 by the minimum input unit, respectively. More specifically, when the object distance Z is between Z4 and Z5 ', the template TP4 is selected.

ステップS33において、ステップS8と同様に結像距離Fの設定処理が行われる。なお、ステップS30〜S33の処理は、初期設定部76の作用下に行われ、所定の実行回数パラメータを参照しながら、エイミングが実行された最初の1回のみ実行される。   In step S33, the image forming distance F is set as in step S8. Note that the processing of steps S30 to S33 is performed under the action of the initial setting unit 76, and is executed only once for the first time when aiming is executed while referring to a predetermined execution frequency parameter.

ステップS34において、ターゲット板132の位置確認が行われる。つまり、サービスエイミングモードではターゲット板132を中心位置PC、左位置PL及び右位置PR(図6参照)の順に配置してエイミングを行うため、ステップS34が最初に実行されたときには、主制御装置126に対してターゲット板132を中心位置PCに設定するように確認指示の信号を送出する。この信号を受けた主制御装置126では、モニタ画面上に「ターゲットを中心位置PCに配置して、『Y』キーを押してください。」等のメッセージを表示する。調整員はこのメッセージに応じてヘッドライトテスタ124を手動又は所定の駆動装置によってレール128に沿って移動させ、ターゲット板132を中心位置PCに配置し、『Y』キーを押す。   In step S34, the position of the target plate 132 is confirmed. That is, in the service aiming mode, the target plate 132 is arranged in the order of the center position PC, the left position PL, and the right position PR (see FIG. 6) to perform the aiming. Therefore, when step S34 is first executed, the main controller 126 In response to this, a confirmation instruction signal is sent so as to set the target plate 132 at the center position PC. In response to this signal, the main controller 126 displays a message such as “Place the target at the center position PC and press the“ Y ”key” on the monitor screen. In response to this message, the coordinator moves the headlight tester 124 along the rail 128 manually or by a predetermined driving device, places the target plate 132 at the center position PC, and presses the “Y” key.

また、ステップS34は繰り返し実行され、N回終了毎に、「ターゲットを左位置PLに配置して、『Y』キーを押してください。」、「ターゲットを右位置PRに配置して、『Y』キーを押してください。」等のメッセージを表示し、調整員に対してターゲット板132を左位置PL及び右位置PRに配置するように促すとともに、配置後に「Y」キーを入力させる。ターゲット板132が中心位置Pc、左位置PL及び右位置PRに配置された後の初回時に、「Y」キーが押されたことを確認してステップS35に移り、これ以外の実行回ときには実質的な処理は行わない。   Step S34 is repeatedly executed, and after every N times, “Place the target at the left position PL and press the“ Y ”key.”, “Place the target at the right position PR and“ Y ”. "Please press the key." Is displayed, prompts the adjuster to place the target plate 132 at the left position PL and the right position PR, and causes the "Y" key to be input after the placement. At the first time after the target plate 132 is placed at the center position Pc, the left position PL, and the right position PR, it is confirmed that the “Y” key has been pressed, and the process proceeds to step S35. No special processing is performed.

ステップS35においては、その時点のターゲット板132の位置に応じて分岐処理が行われる。つまり、ターゲット板132が中心位置PCに配置されているとき(初回〜N回目)にはステップS36へ移り、左位置PLに配置されているときにはステップS41へ移り、右位置PRに配置されているときにはステップS46へ移る。   In step S35, a branching process is performed according to the position of the target plate 132 at that time. That is, when the target plate 132 is disposed at the center position PC (first to Nth times), the process proceeds to step S36, and when it is disposed at the left position PL, the process proceeds to step S41 and is disposed at the right position PR. Sometimes, the process proceeds to step S46.

ステップS36においては、ステップS9と同様にテンプレートマッチング処理を行う。   In step S36, template matching processing is performed in the same manner as in step S9.

ステップS37においては、ステップS10と同様に、エイミングターゲット134のターゲット座標を算出して記憶する。   In step S37, as in step S10, the target coordinates of the aiming target 134 are calculated and stored.

ステップS38においては、ステップS11と同様に、取得したグレースケール画像54及び58の枚数を確認し、N枚以上である場合にはステップS39へ移り、N枚未満である場合にはステップS1へ戻る(2回目以降はS3〜S8若しくはS30〜S35はスキップする。)。   In step S38, as in step S11, the number of acquired grayscale images 54 and 58 is confirmed, and if it is N or more, the process proceeds to step S39, and if it is less than N, the process returns to step S1. (S3 to S8 or S30 to S35 are skipped after the second time.)

ステップS39においては、中心位置PCについて、ステップS12と同様に、ターゲット座標の平均値Paveを算出する処理を行い、ターゲット座標が正常に算出された場合にはステップS1へ移り、算出されなかった場合にはステップS3へ戻るという分岐処理(ステップS40)を行う。   In step S39, a process for calculating the average value Pave of the target coordinates is performed for the center position PC as in step S12. If the target coordinates are normally calculated, the process proceeds to step S1. Then, a branching process (step S40) of returning to step S3 is performed.

同様にして、ターゲット板132を左位置PLに配置し、図13に示すステップS41〜S45が実行される。   Similarly, the target plate 132 is arranged at the left position PL, and steps S41 to S45 shown in FIG. 13 are executed.

また、ターゲット板132を右位置PRに配置し、図14に示すステップS46〜S50が実行される。   Further, the target plate 132 is disposed at the right position PR, and steps S46 to S50 shown in FIG. 14 are executed.

最後のステップS50において、ターゲット座標が正常に算出されたと判断されたときには、ステップS14(図11参照)へ移り、それ以降は製作所エイミングモードと同様の処理が行われ、各カメラパラメータがカメラパラメータ記憶部46に記憶される。   If it is determined in the last step S50 that the target coordinates have been normally calculated, the process proceeds to step S14 (see FIG. 11), and thereafter, the same processing as in the factory aiming mode is performed, and each camera parameter is stored in the camera parameter. Stored in the unit 46.

次に、選択された基準テンプレート(以下、テンプレートTPsという。)を用いてテンプレートマッチングを行う処理であるステップS36について図15を参照しながら説明する。   Next, step S36, which is a process of performing template matching using the selected reference template (hereinafter referred to as template TPs), will be described with reference to FIG.

図15に示すように、選択されたテンプレートTPsは、右グレースケール画像54上において所定の順序で微少量ずつ縦方向及び横方向に動かされ、各位置においてパターンマッチングを行い、背景画像とのマッチング成立の正否を調べる。マッチングの成立判断には、前記のSAD値に基づいて判断される。   As shown in FIG. 15, the selected template TPs is moved in the vertical and horizontal directions by a small amount in a predetermined order on the right grayscale image 54, pattern matching is performed at each position, and matching with the background image is performed. Check whether it is true or false. The matching is determined based on the SAD value.

この場合、テンプレートTPsにおける仮ターゲットの像140の大きさは、画像上の各エイミングターゲット134a〜134cの像の大きさ以上である。これは前記のステップS32において、規定距離が対象物距離Z以下であり、且つ対象物距離Zに最も近いテンプレートを選択しているためである。   In this case, the size of the temporary target image 140 in the template TPs is equal to or larger than the size of the images of the aiming targets 134a to 134c on the image. This is because in step S32 described above, the template whose distance is equal to or smaller than the object distance Z and that is closest to the object distance Z is selected.

図15中の二点鎖線TP’で示すように、テンプレートTPsがエイミングターゲット134cの位置に移動したとき、像140とエイミングターゲット134cはほぼ一致して高輝度部及び低輝度部が重なることとなり、SAD値が十分小さい値となる。これによりマッチングが成立したと判断され、その時点のテンプレートTPsの中心点からエイミングターゲット134cのターゲット座標が特定される。つまり、二点鎖線TP’範囲の中心点座標Pb(x、y)(図8参照)を、配列形式でPt[i]として所定の記憶部に記憶する(ステップS10)。ここでパラメータiは処理回数を示すカウンタであり、右グレースケール画像54の枚数に応じてi=1からi=Nまでインクリメントされる。なお、実際上、各エイミングターゲット134a〜134cについてそれぞれターゲット座標を求めるが、説明を簡便にするため代表的に1つのターゲット座標Pt[i]として示す。   As indicated by a two-dot chain line TP ′ in FIG. 15, when the template TPs moves to the position of the aiming target 134c, the image 140 and the aiming target 134c substantially coincide with each other, and the high luminance part and the low luminance part overlap. The SAD value is a sufficiently small value. Thereby, it is determined that matching has been established, and the target coordinates of the aiming target 134c are specified from the center point of the template TPs at that time. That is, the center point coordinate Pb (x, y) (see FIG. 8) in the range of the two-dot chain line TP ′ is stored in the predetermined storage unit as Pt [i] in the array format (step S10). Here, the parameter i is a counter indicating the number of processing times, and is incremented from i = 1 to i = N according to the number of right grayscale images 54. In practice, target coordinates are obtained for each of the aiming targets 134a to 134c, but are typically shown as one target coordinate Pt [i] for ease of explanation.

また、ステップS12における平均値Paveの算出は、次の(9)式により求められる。   The calculation of the average value Pave in step S12 is obtained by the following equation (9).

Figure 2006155428
Figure 2006155428

このような平均化の処理を行うことにより、赤外線カメラ16R、16Lもしくは撮像環境(温度等のゆらぎ)が多少不安定であっても、平均値Paveでは誤差が相殺され、ターゲット座標を正確に求めることができる。   By performing such averaging processing, even if the infrared cameras 16R and 16L or the imaging environment (fluctuations in temperature, etc.) are somewhat unstable, the average value Pave cancels the error, and the target coordinates are obtained accurately. be able to.

ところで、サービスエイミングを行う場所は一般のサービス工場の検査場等が想定され、エイミングターゲット134a〜134c以外の赤外線を放射又は反射する不要な熱源を完全に排除することは困難であって、これらの他の熱源が比較的弱いレベル又は小さい像として撮像されてしまう場合がある。例えば、右グレースケール画像54上でエイミングターゲット134cの周辺に他の熱源(例えば、遠方の照明)142が存在し、該熱源142が画像上でエイミングターゲット134cよりも小さく撮像される場合がある。このような場合であっても、テンプレートTPsの像140の大きさはエイミングターゲット134cの像の大きさ以上であることから、テンプレートTPsが熱源142の位置に移動したときには、SAD値は相当に大きい値となりエイミングターゲット134cとは明確に区別される。   By the way, the place where service aiming is performed is assumed to be an inspection place of a general service factory, and it is difficult to completely eliminate unnecessary heat sources that emit or reflect infrared rays other than the aiming targets 134a to 134c. Other heat sources may be captured as relatively weak levels or small images. For example, another heat source (for example, distant illumination) 142 exists around the aiming target 134c on the right grayscale image 54, and the heat source 142 may be imaged smaller than the aiming target 134c on the image. Even in such a case, since the size of the image 140 of the template TPs is equal to or larger than the size of the image of the aiming target 134c, the SAD value is considerably large when the template TPs moves to the position of the heat source 142. It becomes a value and is clearly distinguished from the aiming target 134c.

なお、エイミングターゲット134a及び134bについても同様の処理によりターゲット座標Pt[i]が特定され、平均値Paveが求められる。エイミングターゲット134a〜134cは、相対的な位置関係により識別可能である。   For the aiming targets 134a and 134b, the target coordinates Pt [i] are specified by the same process, and the average value Pave is obtained. The aiming targets 134a to 134c can be identified by a relative positional relationship.

また、図15ではヘッドライトテスタ124が中心位置PCに配置されているときの右グレースケール画像54の例について示したが、ヘッドライトテスタ124が右位置PR又は左位置PLに配置されている場合や、左グレースケール画像58についての同様の処理が行われる。また、製作所エイミングモードにおけるパターンマッチング処理であるステップS9についても同様の処理が行われる。   FIG. 15 shows an example of the right grayscale image 54 when the headlight tester 124 is arranged at the center position PC. However, when the headlight tester 124 is arranged at the right position PR or the left position PL. Alternatively, the same processing is performed on the left grayscale image 58. A similar process is also performed for step S9 which is a pattern matching process in the factory aiming mode.

次に、赤外線カメラ16R及び16Lの取り付け角度算出処理であるステップS18から左右カメラ映像切り出し座標算出処理であるステップS20までの処理を、赤外線カメラ16Rについての処理を例にして、図16を参照しながら説明する。なお、説明の便宜上、図16においてはステップS18、S19及びS20を区別しないで示す。   Next, the processing from step S18, which is a mounting angle calculation process for the infrared cameras 16R and 16L, to step S20, which is a left and right camera image cutout coordinate calculation process, is described with reference to FIG. While explaining. For convenience of explanation, steps S18, S19, and S20 are not distinguished in FIG.

先ず、図16のステップS101において、ターゲットの空間座標を示す基準座標値P0を所定の記憶部(座標基準値記憶手段)から読み出す。   First, in step S101 in FIG. 16, the reference coordinate value P0 indicating the spatial coordinates of the target is read from a predetermined storage unit (coordinate reference value storage means).

ステップS102において、近距離モデルである(7−1)式及び(7−2)式用いて基準座標値P0を変換して画像上の基準座標P0’(x0、y0)を求める。エイミングモードでは予め近距離モデルが選択されており、比較的近距離のターゲットの座標を画像上に正確に透視変換することができる。   In step S102, the reference coordinate value P0 is converted using equations (7-1) and (7-2), which are short-distance models, to obtain the reference coordinate P0 '(x0, y0) on the image. In the aiming mode, a short-distance model is selected in advance, and the coordinates of a relatively short-distance target can be accurately perspective-transformed on the image.

また、基準座標値P0は実空間上の値として記憶しておくことにより、例えばターゲットの位置を変更するような場合に主制御装置106、126から入力する際に実測した座標をそのまま入力することができ、好適である。入力された実測値は近距離モデルに基づいて正確に変換される。   Further, by storing the reference coordinate value P0 as a value in the real space, for example, when the position of the target is changed, the coordinates actually measured when inputting from the main control devices 106 and 126 are input as they are. This is preferable. The input actual measurement value is accurately converted based on the short distance model.

ステップS103(取付角算出手段)において、画像上の基準座標値P0’とステップS12で求められた平均値Paveとを比較演算して、パン角方向の差Δx及びピッチ角方向の差Δyを求める。   In step S103 (attachment angle calculation means), the reference coordinate value P0 ′ on the image is compared with the average value Pave obtained in step S12 to obtain the pan angle direction difference Δx and the pitch angle direction difference Δy. .

つまり、差Δx及びΔyは、それぞれ基準座標値P0’に応じて赤外線カメラ16Rのパン角及びピッチ角の設計基準値に対する誤差としての取付角を示していることになる。具体的には、設計基準値が0°として規定されていると、差Δxが2°、差Δyが1°に相当する値であると、パン角が2°、ピッチ角が1°として求められる。   That is, the differences Δx and Δy indicate the mounting angle as an error with respect to the design reference value of the pan angle and the pitch angle of the infrared camera 16R according to the reference coordinate value P0 ′, respectively. Specifically, when the design reference value is defined as 0 °, the difference Δx is 2 ° and the difference Δy is 1 °, and the pan angle is 2 ° and the pitch angle is 1 °. It is done.

ステップS104において、図17に示すように、右グレースケール画像54上の基準領域160Rをx方向に差Δx、y方向に差Δyだけ移動させた切り出し領域162Rを求める。基準領域160Rは、基準座標値P0に基づいて設定されており、赤外線カメラ16Rが正確に前方を指向している場合に画像処理に用いられる基準となる領域である。切り出し領域162Rを画像処理に用いることにより、赤外線カメラ16Rの向きが正確に正面に指向するように機械的に調整したことと同じ効果が得られる。   In step S104, as shown in FIG. 17, a cutout area 162R obtained by moving the reference area 160R on the right grayscale image 54 by the difference Δx in the x direction and the difference Δy in the y direction is obtained. The reference area 160R is set based on the reference coordinate value P0, and is a reference area used for image processing when the infrared camera 16R is accurately pointing forward. By using the cutout area 162R for image processing, the same effect as that obtained when the infrared camera 16R is mechanically adjusted so that the direction of the infrared camera 16R is accurately directed to the front can be obtained.

切り出し領域162Rとしては、基準領域160Rの端点Q0を横方向に差Δx、縦方向に差Δyだけ移動させて得られる端点Q1の座標を代表的に記録しておけばよい。なお、詳細な説明を省略するが左の赤外線カメラ16Lから得られる左グレースケール画像58についても同様の処理が行われる。   As the cutout area 162R, the coordinates of the end point Q1 obtained by moving the end point Q0 of the reference area 160R by the difference Δx in the horizontal direction and the difference Δy in the vertical direction may be typically recorded. Although a detailed description is omitted, the same processing is performed on the left grayscale image 58 obtained from the left infrared camera 16L.

次に、左右独立的に設定された切り出し領域162Rと切り出し領域162Lとのピッチアラインメント調整であるステップS105〜S108を行う。ピッチアラインメント調整とは、実際に撮像された対象物に基づいて、切り出し領域162R及び162Lを関連付けて、ピッチ方向の整合性を確保するための処理である。以下の説明では、右グレースケール画像54はターゲット板132が右位置PRに配置されている際の画像であり、左グレースケール画像58はターゲット板132が左位置PLに配置されている際の画像とする。また、前記の通りターゲット板132は右位置PR及び左位置PLのいずれの位置においても一定の高さに設定されている。   Next, steps S105 to S108, which are pitch alignment adjustments between the cutout area 162R and the cutout area 162L set independently on the left and right, are performed. The pitch alignment adjustment is a process for associating the cutout areas 162R and 162L and ensuring the consistency in the pitch direction based on the actually captured object. In the following description, the right grayscale image 54 is an image when the target plate 132 is disposed at the right position PR, and the left grayscale image 58 is an image when the target plate 132 is disposed at the left position PL. And Further, as described above, the target plate 132 is set to a constant height at both the right position PR and the left position PL.

先ず、ステップS105において、図18に示すように、右グレースケール画像54から抽出された切り出し領域162R内におけるエイミングターゲット134a、134b、134cの各y座表値であるyr1、yr2及びyr3を求め、さらにこれらの値の平均値yra(=(yr1+yr2+yr3)/3)を求める。   First, in step S105, as shown in FIG. 18, yr1, yr2, and yr3, which are y coordinate values of the aiming targets 134a, 134b, and 134c in the cutout area 162R extracted from the right grayscale image 54, are obtained. Further, an average value yra (= (yr1 + yr2 + yr3) / 3) of these values is obtained.

ステップS106において、左グレースケール画像58から抽出された切り出し領域162L内におけるエイミングターゲット134a、134b、134cの各y座表値であるyl1、yl2及びyl3を求め、さらにこれらの値の平均値yla(=(yl1+yl2+yl3)/3)を求める。   In step S106, the y coordinate values yl1, yl2, and yl3 of the aiming targets 134a, 134b, and 134c in the cutout area 162L extracted from the left grayscale image 58 are obtained, and the average value yla ( = (Yl1 + yl2 + yl3) / 3) is obtained.

ステップS107において、右の切り出し領域162Rにおける平均値yraに対する左の切り出し領域162Lにおける平均値ylaの差分Δyaを、Δya←yra−ylaとして求める。   In step S107, a difference Δya of the average value yla in the left cutout area 162L with respect to the average value yra in the right cutout area 162R is obtained as Δya ← yra−yla.

ステップS108において、左の切り出し領域162Lをy方向(つまりピッチ方向)に差分Δyaだけ移動させた修正画像領域を設定する。図18に示す例では、yra<ylaであることから差分Δyaはマイナス値となり、切り出し領域162Lとしては画像下方に向かって移動して端点Q2が端点Q2’に移る。移動した切り出し領域162Lは代表的に端点Q2’の座標値が記憶される。   In step S108, a corrected image area is set by moving the left cutout area 162L by the difference Δya in the y direction (that is, the pitch direction). In the example shown in FIG. 18, since yra <yla, the difference Δya becomes a negative value, and the cutout area 162L moves downward in the image and the end point Q2 moves to the end point Q2 ′. The moved cutout area 162L typically stores the coordinate value of the end point Q2 '.

このようなピッチアラインメント調整によれば、実際に撮像されたエイミングターゲット134a〜134cに基づき、右の切り出し領域162Rに対してピッチ角が整合するように左の切り出し領域162Lを移動させるため、車体の歪みやカメラステーの製造誤差等を補償することができる。これにより、図19に示すように、切り出し領域162R及び162Lを横に並べて配置したとき、同一対象物を撮像した場合における該対象物の像が切り出し領域162R及び162L内において相対的なy座標値(図19ではyraの値)が一致することになる。   According to such pitch alignment adjustment, the left cutout area 162L is moved based on the actually imaged aiming targets 134a to 134c so that the pitch angle is aligned with the right cutout area 162R. Distortion and camera stay manufacturing errors can be compensated. Accordingly, as shown in FIG. 19, when the cutout areas 162R and 162L are arranged side by side, the image of the target object when the same target object is imaged is a relative y coordinate value in the cutout areas 162R and 162L. (The value of yra in FIG. 19) matches.

この結果、通常モードにおいて迅速且つ確実なパターンマッチングが可能となる。すなわち、図20に示すように、基準画像としての右の切り出し領域162R内で所定の方法によって抽出された対象物の像170を含む小画像をテンプレートTPrとして切り出し、比較画像としての左の切り出し領域162L内における同位置に配置する。次に、テンプレートTPrを切り出し領域162L内においてプラスのx方向である右方向へ向かって移動させながらSAD等の相関演算によるテンプレートマッチングを行う。この際、切り出し領域162Lにおける像170とそれに対応する同一対象物の像172はy座標が一致していることから、テンプレートTPrは視差に応じた適当な距離だけ移動し、図20の破線位置に達したときに像172にマッチングすることになる。つまり、テンプレートTPrはy方向にはほとんど移動させることなくマッチングが成立するため、検索領域をy方向に過大に広げる必要がなく、簡便且つ迅速な処理が可能となる。この際、SAD値が非常に小さくなり、マッチング成立の判断が確実に行われる。また、y座標が異なり像172に類似する他の像174に対してテンプレートTPrがマッチングすることがなく、確実なマッチングが実現される。   As a result, quick and reliable pattern matching is possible in the normal mode. That is, as shown in FIG. 20, a small image including an object image 170 extracted by a predetermined method in the right cutout area 162R as the reference image is cut out as a template TPr, and the left cutout area as the comparison image It arrange | positions in the same position in 162L. Next, template matching is performed by correlation calculation such as SAD while moving the template TPr in the cutout area 162L toward the right, which is the positive x direction. At this time, since the y-coordinates of the image 170 in the cutout area 162L and the corresponding image 172 of the same object coincide with each other, the template TPr moves by an appropriate distance according to the parallax, and reaches the broken line position in FIG. When it reaches, it will match the image 172. That is, since the template TPr is matched with little movement in the y direction, there is no need to excessively expand the search area in the y direction, and simple and quick processing is possible. At this time, the SAD value becomes very small, and the determination of matching is surely made. In addition, the template TPr does not match another image 174 that has a different y coordinate and is similar to the image 172, so that reliable matching is realized.

なお、図16に示す処理では、ターゲット板132の位置を中心位置PCに配置した状態で得られる画像に基づいて行ってもよい。ピッチアラインメント調整は、切り出し領域162R、162Lのいずれを基準としてもよく、又は所定の基準に基づいて切り出し領域162R、162Lの両方を移動させてもよい。さらに、エイミングターゲット制御装置100のエイミングターゲット112a〜112hは同じ高さに設定されていることから、製作所エイミングモードにおいてもピッチアラインメント調整を行うことができる。この場合、右グレースケール画像54における右ターゲット群116から平均値yraを求め、及び左グレースケール画像58における左ターゲット群114から平均値ylaを求めればよい。   Note that the processing shown in FIG. 16 may be performed based on an image obtained in a state where the position of the target plate 132 is arranged at the center position PC. The pitch alignment adjustment may be based on any of the cutout areas 162R and 162L, or both of the cutout areas 162R and 162L may be moved based on a predetermined reference. Furthermore, since the aiming targets 112a to 112h of the aiming target control apparatus 100 are set to the same height, the pitch alignment adjustment can be performed even in the manufacturing aiming mode. In this case, the average value yra may be obtained from the right target group 116 in the right grayscale image 54 and the average value yla may be obtained from the left target group 114 in the left grayscale image 58.

また、ピッチアラインメント調整は、検査用の撮像対象物であるエイミングターゲット112及び134に限らず、一般の適当な熱源を撮像することによって行ってもよい。この場合、熱源の距離及び高さは未知であっても、赤外線カメラ16R及び16Lにより同一の熱源を撮像することによりピッチアライメント調整を行うことができる。   The pitch alignment adjustment is not limited to the aiming targets 112 and 134 that are imaging objects for inspection, and may be performed by imaging a general appropriate heat source. In this case, even if the distance and height of the heat source are unknown, the pitch alignment adjustment can be performed by imaging the same heat source with the infrared cameras 16R and 16L.

次に、エイミングが終了した後に行われる通常モードで実対象物を検出する処理の手順について説明する。この通常モードは、前記通常モード実行部50の作用下に、微小時間毎に繰り返し実行される。   Next, a procedure of processing for detecting an actual object in the normal mode performed after aiming is described. This normal mode is repeatedly executed every minute time under the action of the normal mode execution unit 50.

先ず、図21のステップS201において、赤外線カメラ16R及び16Lからステレオ赤外線画像を入力し、画像入力部40及び二値化処理部42の作用によって右グレースケール画像54及び右二値化画像56、左グレースケール画像58が画像記憶部44に記憶される。   First, in step S201 in FIG. 21, stereo infrared images are input from the infrared cameras 16R and 16L, and the right grayscale image 54 and the right binarized image 56, left by the action of the image input unit 40 and the binarization processing unit 42. A gray scale image 58 is stored in the image storage unit 44.

この後、右二値化画像56に基づいて対象物の抽出処理を行い(ステップS202)、右グレースケール画像54及び左グレースケール画像58における視差を求め、該視差から各対象物までの距離を算出する(ステップS203、対象物距離検出手段)。パターンマッチングを行う際、右グレースケール画像54における切り出し領域162R及び左グレースケール画像58における切り出し領域162L上でマッチングを行うため迅速な処理が可能であって、しかも確実なマッチングを行うことができる。   Thereafter, an object extraction process is performed based on the right binarized image 56 (step S202), parallaxes in the right grayscale image 54 and the left grayscale image 58 are obtained, and the distance from the parallax to each object is determined. Calculate (step S203, object distance detection means). When performing pattern matching, since matching is performed on the cutout area 162R in the right grayscale image 54 and the cutout area 162L in the left grayscale image 58, rapid processing is possible, and reliable matching can be performed.

次いで、車両12を基準として対象物の相対位置を算出し(ステップS204)、車両12の挙動による所定の補正を行った後に各対象物の移動ベクトルを算出する(ステップS205)。この際、ECU14は、モデル記憶部96に記録された遠距離モデルとしての(8−1)〜(8−4)式に基づいて実対象物の位置を正確且つ迅速に検出することができる。   Next, the relative position of the object is calculated with reference to the vehicle 12 (step S204), and after performing a predetermined correction based on the behavior of the vehicle 12, the movement vector of each object is calculated (step S205). At this time, the ECU 14 can accurately and quickly detect the position of the actual object based on the equations (8-1) to (8-4) as the long-distance model recorded in the model storage unit 96.

さらに、移動ベクトル等を参照しながら道路構造物や他の車両を識別して除外するとともに(ステップS206)、対象物の形状等から歩行者の判定を行う(ステップS207)。   Further, road structures and other vehicles are identified and excluded while referring to the movement vector or the like (step S206), and pedestrians are determined based on the shape of the object (step S207).

この後、右グレースケール画像54をHUD18に表示させ、ステップS207で検出された歩行者が所定範囲内に存在すると判断された場合には、歩行者を示す像の周りに強調枠を表示するとともにスピーカ20から音を発して、注意喚起出力を行う(ステップS209)。   Thereafter, the right grayscale image 54 is displayed on the HUD 18, and when it is determined that the pedestrian detected in step S207 exists within the predetermined range, an emphasis frame is displayed around the image indicating the pedestrian. A sound is emitted from the speaker 20 and an alerting output is performed (step S209).

上述したように、本実施の形態に係るナイトビジョンシステム10では、実際に撮像及び抽出されたエイミングターゲット112(又は134)に基づいて右の切り出し領域162R及び左の切り出し領域162Lを設定するため、両者が関連付けられて整合性が確保される。したがって、基準画像として右の切り出し領域162Rで抽出された対象物の像を抜取り、比較画像として左の切り出し領域162L上で移動させながら行うパターンマッチングにおいて、マッチングが成立するまでの時間が短縮され、しかも他の物体にマッチングする可能性はほとんどなく、迅速且つ正確な処理の実現を図ることができる。   As described above, in the night vision system 10 according to the present embodiment, the right cutout area 162R and the left cutout area 162L are set based on the aiming target 112 (or 134) actually captured and extracted. Both are related to ensure consistency. Therefore, in the pattern matching performed while extracting the image of the object extracted in the right cutout area 162R as the reference image and moving it on the left cutout area 162L as the comparison image, the time until matching is established is shortened, In addition, there is almost no possibility of matching with other objects, and it is possible to realize a quick and accurate process.

なお、撮像手段としての赤外線カメラは2台に限らず3つ以上設けてもよい。この場合、例えば、1つの赤外線カメラを基準画像用とし、残りをそれぞれ比較画像用として作用させるようにしてもよい。   Note that the number of infrared cameras as imaging means is not limited to two, and three or more infrared cameras may be provided. In this case, for example, one infrared camera may be used for the reference image, and the rest may be used for the comparison image.

本発明に係る車両周辺監視装置は、上述の実施の形態に限らず、本発明の要旨を逸脱することなく、種々の構成を採り得ることはもちろんである。   The vehicle periphery monitoring device according to the present invention is not limited to the above-described embodiment, and can of course adopt various configurations without departing from the gist of the present invention.

本実施の形態に係るナイトビジョンシステムの概略構成を車両とともに示したブロック構成図である。It is the block block diagram which showed schematic structure of the night vision system which concerns on this Embodiment with the vehicle. ECUのブロック構成図である。It is a block block diagram of ECU. 画像記憶部の記憶データの構成を示す図である。It is a figure which shows the structure of the memory | storage data of an image memory | storage part. エイミングターゲット制御装置及び車両を示す斜視図である。It is a perspective view which shows an aiming target control apparatus and a vehicle. ターゲット板の変形例に係る斜視図である。It is a perspective view which concerns on the modification of a target board. サービスエイミング設定装置及び車両を示す斜視図である。It is a perspective view which shows a service aiming setting apparatus and a vehicle. 一般的な透視変換モデルのモデル図である。It is a model figure of a general perspective transformation model. 透視変換モデルにより結像面に像が透視される様子を示すモデル図である。It is a model figure which shows a mode that an image is seen through to an image plane by a perspective transformation model. エイミング設定を行う手順を示すフローチャート(その1)である。It is a flowchart (the 1) which shows the procedure which performs aiming setting. テンプレート記憶部の内容を示す図である。It is a figure which shows the content of the template memory | storage part. エイミング設定を行う手順を示すフローチャート(その2)である。It is a flowchart (the 2) which shows the procedure which performs aiming setting. エイミング設定を行う手順を示すフローチャート(その3)である。It is a flowchart (the 3) which shows the procedure which performs aiming setting. エイミング設定を行う手順を示すフローチャート(その4)である。It is a flowchart (the 4) which shows the procedure which performs aiming setting. エイミング設定を行う手順を示すフローチャート(その5)である。It is a flowchart (the 5) which shows the procedure which performs aiming setting. エイミングモードにおけるテンプレートマッチング処理を示す概念図である。It is a conceptual diagram which shows the template matching process in aiming mode. 取り付け角度算出処理及び左右カメラ映像切り出し座標算出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an attachment angle calculation process and a right-and-left camera image cut-out coordinate calculation process. 基準領域から切り出し領域を設定する処理を示す概念図である。It is a conceptual diagram which shows the process which sets a cutting-out area | region from a reference | standard area | region. 左右の切り出し領域に対して行うピッチアラインメント調整処理を示す概念図である。It is a conceptual diagram which shows the pitch alignment adjustment process performed with respect to the cut-out area | region on either side. ピッチアラインメント調整がなされた左右の切り出し領域の位置関係を示す図である。It is a figure which shows the positional relationship of the right and left cut-out area | region where the pitch alignment adjustment was made. 通常モードにおけるテンプレートマッチング処理を示す概念図である。It is a conceptual diagram which shows the template matching process in normal mode. 通常モードの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of normal mode.

符号の説明Explanation of symbols

10…ナイトビジョンシステム 12…車両
14…ECU 16R、16L…赤外線カメラ
18…HUD 20…スピーカ
44…画像記憶部 46…カメラパラメータ記憶部
48…エイミングモード実行部 50…通常モード実行部
52…モード選択部 54…右グレースケール画像
58…左グレースケール画像 70…製作所モード部
72…サービスモード部 78…テンプレートマッチング部
94…テンプレート設定部 96…モデル記憶部
100…エイミングターゲット制御装置
112、112a〜112h、134、134a〜134c…エイミングターゲット
120…サービスエイミング設定装置 124…ヘッドライトテスタ
138…レンズ 160R…基準領域
162R、162L…切り出し領域
B…基線長 C…光軸
F…結像距離 f…焦点距離
M…透視変換モデル P0…基準座標値
PC…中心位置 PL…左位置
PR…右位置 S…結像面
TP、TP1〜TP6、TPr、TPs、TP’…テンプレート
yla、yra…平均値 Z…対象物距離
DESCRIPTION OF SYMBOLS 10 ... Night vision system 12 ... Vehicle 14 ... ECU 16R, 16L ... Infrared camera 18 ... HUD 20 ... Speaker 44 ... Image memory | storage part 46 ... Camera parameter memory | storage part 48 ... Aiming mode execution part 50 ... Normal mode execution part 52 ... Mode selection 54: Right grayscale image 58 ... Left grayscale image 70 ... Manufacturing mode unit 72 ... Service mode unit 78 ... Template matching unit 94 ... Template setting unit 96 ... Model storage unit 100 ... Aiming target control devices 112, 112a to 112h, 134, 134a to 134c ... aiming target 120 ... service aiming setting device 124 ... headlight tester 138 ... lens 160R ... reference area 162R, 162L ... cut-out area B ... baseline length C ... optical axis F ... imaging distance f ... focal length Separation M ... perspective transformation model P0 ... reference coordinate value PC ... center position PL ... left position PR ... right position S ... imaging plane TP, TP1 to TP6, TPr, TPs, TP '... template yla, yr ... average value Z ... Object distance

Claims (3)

車両に搭載された複数の撮像手段の画像から周辺の対象物の位置検出をする車両用周辺監視装置において、
前記複数の撮像手段のそれぞれの画像に対して対象物検出に用いる切り出し領域を設定する画像領域設定手段と、
前記画像領域設定手段によって設定されたそれぞれの切り出し領域に対して対象物検出処理を行う対象物抽出手段と、
前記対象物抽出手段の抽出結果に基づいて前記画像領域設定手段によって設定された切り出し領域の少なくとも1つを修正して修正画像領域を得る修正画像領域設定手段と、
を有することを特徴とする車両周辺監視装置。
In a vehicle periphery monitoring device for detecting the position of a peripheral object from images of a plurality of imaging means mounted on a vehicle,
Image area setting means for setting a cutout area used for object detection for each image of the plurality of imaging means;
An object extraction means for performing an object detection process on each cut-out area set by the image area setting means;
Modified image region setting means for obtaining a corrected image region by correcting at least one of the cutout regions set by the image region setting unit based on the extraction result of the object extracting unit;
A vehicle periphery monitoring device comprising:
第1撮像手段によって得られた第1画像及び第2撮像手段によって得られた第2画像から周辺の対象物の位置検出をする車両周辺監視装置において、
前記第1撮像手段及び前記第2撮像手段により撮像された前記対象物を前記第1画像及び前記第2画像からそれぞれ抽出する対象物抽出手段と、
前記第1撮像手段及び前記第2撮像手段により撮像された前記対象物をパターンマッチングにより検出するための領域として前記第1画像に対して第1切り出し領域を設定するとともに、前記第2画像に対して第2切り出し領域を設定する画像領域設定手段と、
を有し、
前記画像領域設定手段は、前記対象物抽出手段によって抽出された前記対象物の位置に基づいて、前記第1撮像手段及び前記第2撮像手段の光軸を含む仮想面に対する垂直方向の座標が一致するように前記第1切り出し領域及び前記第2切り出し領域を設定することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device for detecting the position of a surrounding object from the first image obtained by the first imaging means and the second image obtained by the second imaging means,
Object extraction means for extracting the object imaged by the first image pickup means and the second image pickup means from the first image and the second image, respectively;
A first cutout area is set for the first image as an area for detecting the object imaged by the first imaging means and the second imaging means by pattern matching, and for the second image Image area setting means for setting the second cutout area,
Have
The image area setting means has a coordinate in a vertical direction with respect to a virtual plane including an optical axis of the first imaging means and the second imaging means based on the position of the object extracted by the object extraction means. The vehicle periphery monitoring device is characterized in that the first cutout area and the second cutout area are set as described above.
請求項2記載の車両周辺監視装置において、
前記第1撮像手段は前記対象物として第1ターゲットを撮像し、前記第2撮像手段は前記対象物として前記第1ターゲットと同じ高さに配置された第2ターゲットを撮像し、前記画像領域設定手段は、前記第1画像及び前記第2画像における前記第1ターゲット及び前記第2ターゲットの前記垂直方向の座標の差分に基づいて、前記第1切り出し領域及び前記第2切り出し領域を設定することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 2,
The first imaging unit images a first target as the object, the second imaging unit images a second target arranged at the same height as the first target as the object, and sets the image area. The means sets the first cut-out area and the second cut-out area based on a difference between the vertical coordinates of the first target and the second target in the first image and the second image. A vehicle periphery monitoring device.
JP2004347813A 2004-11-30 2004-11-30 Aiming equipment Expired - Fee Related JP4105146B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004347813A JP4105146B2 (en) 2004-11-30 2004-11-30 Aiming equipment
US11/287,555 US7599521B2 (en) 2004-11-30 2005-11-23 Vehicle vicinity monitoring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004347813A JP4105146B2 (en) 2004-11-30 2004-11-30 Aiming equipment

Publications (2)

Publication Number Publication Date
JP2006155428A true JP2006155428A (en) 2006-06-15
JP4105146B2 JP4105146B2 (en) 2008-06-25

Family

ID=36633615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004347813A Expired - Fee Related JP4105146B2 (en) 2004-11-30 2004-11-30 Aiming equipment

Country Status (1)

Country Link
JP (1) JP4105146B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269073A (en) * 2007-04-17 2008-11-06 Denso Corp Object detector for vehicle
JP2011500407A (en) * 2007-10-16 2011-01-06 ダイムラー・アクチェンゲゼルシャフト Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit
CN113942458A (en) * 2021-10-29 2022-01-18 禾多科技(北京)有限公司 Control method, device, equipment and medium for vehicle-mounted camera adjusting system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269073A (en) * 2007-04-17 2008-11-06 Denso Corp Object detector for vehicle
JP2011500407A (en) * 2007-10-16 2011-01-06 ダイムラー・アクチェンゲゼルシャフト Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit
US8599258B2 (en) 2007-10-16 2013-12-03 Daimler Ag Method for calibrating an assembly using at least one omnidirectional camera and an optical display unit
CN113942458A (en) * 2021-10-29 2022-01-18 禾多科技(北京)有限公司 Control method, device, equipment and medium for vehicle-mounted camera adjusting system
CN113942458B (en) * 2021-10-29 2022-07-29 禾多科技(北京)有限公司 Control method, device, equipment and medium for vehicle-mounted camera adjusting system

Also Published As

Publication number Publication date
JP4105146B2 (en) 2008-06-25

Similar Documents

Publication Publication Date Title
US7599521B2 (en) Vehicle vicinity monitoring apparatus
JP4461091B2 (en) Position detection apparatus and correction method thereof
US7590263B2 (en) Vehicle vicinity monitoring apparatus
KR102022388B1 (en) Calibration system and method using real-world object information
US7616806B2 (en) Position detecting apparatus and method of correcting data therein
US20200191927A1 (en) Sensor calibration method and sensor calibration apparatus
WO2015125298A1 (en) Local location computation device and local location computation method
JP6237875B2 (en) Self-position calculation device and self-position calculation method
JP2006054504A (en) Image generating method and apparatus
JP6729607B2 (en) Installation position information providing device and installation position information providing method
JP6237874B2 (en) Self-position calculation device and self-position calculation method
US20170011269A1 (en) Self-Location Calculating Device and Self-Location Calculating Method
US7567688B2 (en) Apparatus for and method of extracting image
JP2018139373A (en) Field angle adjustment method
JP3666348B2 (en) Distance recognition device
JP2002036987A (en) Vehicle surrounding monitoring device
JP4032053B2 (en) Vehicle periphery monitoring device
JP4105146B2 (en) Aiming equipment
JP4125280B2 (en) Perimeter monitoring device
JP4867035B2 (en) Image processing apparatus, image processing program, and image processing method
KR20190010133A (en) Apparatus and method for irradiation angle in vehicle head-light
JP6492974B2 (en) Self-position calculation device and self-position calculation method
JP4040620B2 (en) Vehicle periphery monitoring device
WO2011090053A1 (en) Obstacle detection warning device
JP2019176427A (en) Adjustment method of object detection system, information processing device, and information processing program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080326

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees