JP4795930B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4795930B2
JP4795930B2 JP2006351040A JP2006351040A JP4795930B2 JP 4795930 B2 JP4795930 B2 JP 4795930B2 JP 2006351040 A JP2006351040 A JP 2006351040A JP 2006351040 A JP2006351040 A JP 2006351040A JP 4795930 B2 JP4795930 B2 JP 4795930B2
Authority
JP
Japan
Prior art keywords
vehicle
subject
feature data
image processing
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006351040A
Other languages
Japanese (ja)
Other versions
JP2008166902A (en
Inventor
大作 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2006351040A priority Critical patent/JP4795930B2/en
Publication of JP2008166902A publication Critical patent/JP2008166902A/en
Application granted granted Critical
Publication of JP4795930B2 publication Critical patent/JP4795930B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、撮像レンズが予め決められた位置に設定される固定焦点式の車載カメラにより撮像された自車両の撮像画像データを処理する画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for processing captured image data of a host vehicle imaged by a fixed focus type in-vehicle camera in which an imaging lens is set at a predetermined position.

近年、車両の安全な走行を支援するために、自車両に搭載したデジタルカメラ(以下、車載カメラという)で撮像した車両前方の撮像画像を処理して画像内のエッジ(輪郭)を抽出し、そのエッジの形状に基づいて先行車両や障害物、あるいは路面の表示などの被写体を認識して、自車両のスロットルやブレーキを制御する車両走行支援システムが提案されている。かかる車両走行支援システムにあっては、車両前方の至近距離から数十メートル程度の距離までの範囲で精度よく画像認識を行うことが求められる。そして、画像認識の精度は撮像画像から抽出されるエッジの鮮明度、つまり撮像画像の鮮明度に大きく影響される。   In recent years, in order to support safe driving of a vehicle, a captured image in front of the vehicle captured by a digital camera (hereinafter referred to as an in-vehicle camera) mounted on the host vehicle is processed to extract an edge (contour) in the image, A vehicle travel support system that recognizes a subject such as a preceding vehicle, an obstacle, or a road surface display based on the shape of the edge and controls the throttle and brake of the host vehicle has been proposed. Such a vehicle travel support system is required to perform image recognition with high accuracy in a range from a close distance in front of the vehicle to a distance of about several tens of meters. The accuracy of image recognition is greatly affected by the sharpness of the edge extracted from the captured image, that is, the sharpness of the captured image.

被写体を鮮明に撮像するための手段としては、撮像レンズを駆動させて被写体の距離に対し自動的に焦点距離を合わせるオートフォーカス機構などが知られており、特許文献1にはかかる機構を備えたデジタルカメラの例が記載されている。しかし、かかるオートフォーカス機構を備えると車載カメラの構造が複雑化するので、コスト高となる。また、車載カメラの撮像画像はドライバーに表示出力するためではなく、画像処理装置により先行車両や障害物などを画像認識することを目的として撮像される。よって、特定の被写体に焦点を合わせて鮮明に撮像するよりも、可能な限り多くの被写体を画像認識に支障のない程度の鮮明度で撮像する方が望ましい。   As means for capturing a clear image of an object, an autofocus mechanism that automatically adjusts the focal length with respect to the distance of the object by driving an imaging lens is known. Patent Document 1 includes such a mechanism. An example of a digital camera is described. However, the provision of such an autofocus mechanism complicates the structure of the in-vehicle camera, which increases the cost. In addition, a captured image of the in-vehicle camera is captured for the purpose of recognizing a preceding vehicle, an obstacle, or the like by the image processing device, not for display output to the driver. Therefore, it is desirable to capture as many subjects as possible with a sharpness that does not hinder image recognition, rather than capturing a specific subject in focus.

こうしたことから、車両走行支援システムにおいては、被写体像を結像する撮像レンズが予め決められた位置に設定され、一定の距離範囲内の被写体を有る程度の鮮明度で撮像できるように焦点が固定された固定焦点式の車載カメラが用いられる。
特開2003−107333号公報
Therefore, in the vehicle driving support system, the imaging lens that forms the subject image is set at a predetermined position, and the focus is fixed so that the subject within a certain distance range can be imaged with a certain degree of sharpness. A fixed focus type in-vehicle camera is used.
JP 2003-107333 A

上記のような固定焦点式の車載カメラでは、車両の走行にともなう振動や衝撃により、撮像レンズの設定位置が微妙にずれる場合がある。すると、当初設定された焦点がずれ、焦点が近距離あるいは遠距離に偏った状態となり、焦点の合っていない部分の画像が極めて不鮮明になる。すると、そのような不鮮明な画像からは被写体が的確に認識されず、結果として車両の安全な走行の支援に支障を来たす。よって、かかる焦点ずれが生じた場合には、ドライバーは整備工場へ車両を入庫して、車載カメラの点検・整備を受けることが望ましい。   In the above-described fixed focus type in-vehicle camera, there is a case where the setting position of the imaging lens is slightly shifted due to vibration or impact caused by traveling of the vehicle. Then, the initially set focus is deviated and the focus is biased to a short distance or a long distance, and the image of the out-of-focus portion becomes extremely unclear. Then, the subject is not accurately recognized from such a blurred image, and as a result, it interferes with support for safe driving of the vehicle. Therefore, when such defocusing occurs, it is desirable for the driver to move the vehicle to the maintenance shop and to check and maintain the in-vehicle camera.

しかしながら、撮像画像は画像処理装置で処理され通常は表示出力されないので、ドライバーはこれを見る機会が無く、ドライバーが運転中に焦点ずれに起因する撮像画像の悪化に気づくことはない。よって、焦点ずれを判定するためには、検査用の図形パターンが描かれたチャートを利用して、車載カメラから所定の距離に設置された検査用チャートを撮像し、その撮像画像の特徴データと、当初設定された焦点で得られる同じチャートの撮像画像の特徴データとを比較して、撮像状態が悪化したかを判定することが必要となる。かといって、かかるチャートを携行し、正確な位置にこれを設置して車載カメラで撮像するといった煩雑な操作を、定期的かつ自発的に行うことをドライバーに期待することも困難である。   However, since the captured image is processed by the image processing apparatus and is not normally displayed and output, the driver has no opportunity to see it, and the driver does not notice the deterioration of the captured image due to defocusing during driving. Therefore, in order to determine the defocus, a chart on which a graphic pattern for inspection is drawn is used to capture an inspection chart installed at a predetermined distance from the in-vehicle camera, and feature data of the captured image Therefore, it is necessary to determine whether the imaging state has deteriorated by comparing the characteristic data of the captured image of the same chart obtained at the initially set focus. However, it is also difficult to expect the driver to carry out such complicated operations such as carrying such a chart, placing it at an accurate position, and taking an image with an in-vehicle camera.

そこで、本発明の目的は、固定焦点式の車載カメラの焦点ずれを煩雑な操作を必要とせず判定することが可能な画像処理装置及び画像処理方法を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus and an image processing method capable of determining the defocus of a fixed focus type in-vehicle camera without requiring a complicated operation.

上記の目的を達成するために、本発明の第1の側面によれば、撮像レンズが予め決められた位置に設定される固定焦点式の車載カメラによって撮像される自車両の撮像画像データを処理する画像処理装置において、前記撮像レンズが前記設定位置のときに前記車載カメラにより撮像される自車両の一部の撮像画像の第1の特徴データが記憶される記憶部と、前記第1の特徴データが記憶された後に前記車載カメラにより撮像される前記自車両の一部の撮像画像の第2の特徴データを抽出する画像処理部とを有する。そして、前記画像処理部は、前記第1、第2の特徴データを比較し、当該比較結果に基づき前記車載カメラの焦点ずれを判定することを特徴とする。   In order to achieve the above object, according to the first aspect of the present invention, the captured image data of the own vehicle imaged by a fixed focus type in-vehicle camera in which the imaging lens is set at a predetermined position is processed. In the image processing apparatus, a storage unit that stores first feature data of a part of a captured image of the host vehicle captured by the in-vehicle camera when the imaging lens is at the set position, and the first feature An image processing unit that extracts second feature data of a part of the captured image of the host vehicle that is captured by the in-vehicle camera after the data is stored. The image processing unit compares the first and second feature data, and determines a defocus of the in-vehicle camera based on the comparison result.

また、本発明の第2の側面によれば、撮像レンズが予め決められた位置に設定される固定焦点式の車載カメラによって撮像される自車両周囲の撮像画像データを処理する画像処理装置において、前記撮像レンズが前記設定位置のときに前記車載カメラにより撮像される自車両以外の被写体の撮像画像の第1の特徴データが、自車両と当該被写体との複数の距離ごとに記憶される記憶部と、前記第1の特徴データが記憶された後に前記車載カメラにより撮像される前記被写体の撮像画像の第2の特徴データを抽出する画像処理部とを有する。そして、前記画像処理部は、被写体距離検知部にて検知された自車両と前記被写体との距離データに対応する前記第1の特徴データと、前記第2の特徴データとを比較し、当該比較結果に基づき前記車載カメラの焦点ずれを判定することを特徴とする。   Further, according to the second aspect of the present invention, in the image processing apparatus for processing captured image data around the own vehicle imaged by a fixed focus type in-vehicle camera in which the imaging lens is set at a predetermined position, A storage unit that stores first feature data of a captured image of a subject other than the subject vehicle captured by the in-vehicle camera when the imaging lens is at the set position for each of a plurality of distances between the subject vehicle and the subject. And an image processing unit that extracts second feature data of a captured image of the subject imaged by the in-vehicle camera after the first feature data is stored. The image processing unit compares the first feature data corresponding to the distance data between the subject vehicle detected by the subject distance detection unit and the subject, and the second feature data, and compares the comparison data. Based on the result, the defocus of the in-vehicle camera is determined.

また、本発明の第3の側面によれば、撮像レンズが予め決められた位置に設定される固定焦点式の車載カメラによって撮像された自車両周囲の撮像画像データを処理する画像処理装置において、前記撮像レンズが前記設定位置のときに所定の撮像地点から前記車載カメラにより撮像される自車両以外の被写体の撮像画像の第1の特徴データが記憶される記憶部と、前記第1の特徴データが記憶された後に自車両位置検知部にて自車両が前記撮像地点に位置することが検知されたときに、前記車載カメラにより撮像される前記被写体の撮像画像の第2の特徴データを抽出する画像処理部とを有する。そして、前記画像処理部は、前記第1、第2の特徴データを比較し、当該比較結果に基づき前記車載カメラの焦点ずれを判定することを特徴とする。   Further, according to the third aspect of the present invention, in the image processing apparatus for processing captured image data around the own vehicle imaged by a fixed focus type in-vehicle camera in which the imaging lens is set at a predetermined position, A storage unit that stores first feature data of a captured image of a subject other than the vehicle that is captured by the in-vehicle camera from a predetermined imaging point when the imaging lens is at the set position; and the first feature data When the host vehicle position detection unit detects that the host vehicle is located at the imaging point after the information is stored, second feature data of the captured image of the subject captured by the in-vehicle camera is extracted. And an image processing unit. The image processing unit compares the first and second feature data, and determines a defocus of the in-vehicle camera based on the comparison result.

上記第1の側面によれば、車載カメラの撮像レンズが当初の設定位置のときに、車載カメラとの距離が固定されたボンネット上のエンブレムなどの自車両の一部を検査用チャートの代わりに撮像し、前記被写体画像の特徴データを基準データとして記憶しておく。その後撮像される撮像画像データから、前記自車両の一部の撮像画像の特徴データを抽出して基準データと比較する。よって、検査用チャートを所定位置に設置して撮像するという操作をドライバーが行うことなく、車載カメラの焦点ずれを判定することができる。   According to the first aspect, when the imaging lens of the in-vehicle camera is at the initial set position, a part of the own vehicle such as an emblem on the hood with a fixed distance from the in-vehicle camera is used instead of the inspection chart. An image is taken and the feature data of the subject image is stored as reference data. After that, feature data of a part of the captured image of the host vehicle is extracted from the captured image data and compared with reference data. Therefore, it is possible to determine the defocus of the in-vehicle camera without the driver performing an operation of setting the inspection chart at a predetermined position and taking an image.

上記第2の側面によれば、前記撮像レンズが当初の設定位置のときに、自車両以外の先行車両などを検査用チャートの代わりに被写体として撮像し、自車両と被写体との複数の距離ごとに被写体画像の特徴データを抽出して、その特徴データを基準データとして記憶しておく。その後撮像される撮像画像データから、当該被写体画像の特徴データを抽出して、自車両と被写体との距離に対応する基準データと比較する。よって、自車両の形状や車載カメラの取り付け位置によって自車両の一部を被写体とすることが困難な場合であっても、検査用チャートの設置や撮像といった操作をドライバーが行うことなく、車載カメラの焦点ずれを判定することが可能となる。   According to the second aspect, when the imaging lens is at the initial set position, a preceding vehicle other than the own vehicle is imaged as a subject instead of the inspection chart, and a plurality of distances between the own vehicle and the subject are captured. The feature data of the subject image is extracted, and the feature data is stored as reference data. Then, feature data of the subject image is extracted from the captured image data captured and compared with reference data corresponding to the distance between the host vehicle and the subject. Therefore, even if it is difficult to set a part of the host vehicle as a subject due to the shape of the host vehicle or the mounting position of the in-vehicle camera, the driver does not perform operations such as installation of an inspection chart or imaging. It is possible to determine the defocusing of the lens.

上記第3の側面によれば、前記撮像レンズが当初の設定位置のときに、所定の撮像地点から既知の検査用チャートなどの被写体を撮像し、その被写体画像の特徴データを抽出して、その特徴データを基準データとして記憶しておく。その後、自車両が所定の撮像地点に位置するときにその地点から被写体を撮像し、被写体画像の特徴データを抽出して基準データと比較する。よって、所定の撮像地点に車両を移動させることで、検査用チャートを所定位置に設置して撮像するという操作をドライバーが行うことなく、車載カメラの焦点ずれを判定することができる。   According to the third aspect, when the imaging lens is at the initial set position, a subject such as a known inspection chart is imaged from a predetermined imaging point, and feature data of the subject image is extracted, Feature data is stored as reference data. Thereafter, when the host vehicle is located at a predetermined imaging point, the subject is imaged from that point, and feature data of the subject image is extracted and compared with the reference data. Therefore, by moving the vehicle to a predetermined imaging point, it is possible to determine the defocus of the in-vehicle camera without the driver performing an operation of setting the inspection chart at a predetermined position and imaging.

以下、図面にしたがって本発明の実施の形態について説明する。但し、本発明の技術的範囲はこれらの実施の形態に限定されず、特許請求の範囲に記載された事項とその均等物まで及ぶものである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the technical scope of the present invention is not limited to these embodiments, but extends to the matters described in the claims and equivalents thereof.

図1は、本実施形態における車載カメラ2と画像処理装置3が車両に搭載される例を説明する図である。図2は、本実施形態における車載カメラ2、画像処理装置3の構成を説明する図である。車載カメラ2と、画像処理装置3は一体となって画像センサ4を構成し、図1に示すように、画像センサ4は、車両1の車室内のフロントガラス上部に設置される。かかる位置から、車載カメラ2はフロントガラス越しに車両前方の撮像範囲2aにおいて先行車両、各種障害物、路面の車線表示等を撮像する。そして、車載カメラ2による撮像画像データに基づいて、画像処理装置3が後述するエッジ抽出処理及び画像認識処理を行う。   FIG. 1 is a diagram illustrating an example in which the in-vehicle camera 2 and the image processing device 3 according to this embodiment are mounted on a vehicle. FIG. 2 is a diagram illustrating the configuration of the in-vehicle camera 2 and the image processing device 3 in the present embodiment. The in-vehicle camera 2 and the image processing device 3 integrally form an image sensor 4, and the image sensor 4 is installed on the upper part of the windshield of the vehicle 1 as shown in FIG. 1. From this position, the in-vehicle camera 2 images the preceding vehicle, various obstacles, road surface lane display, and the like in the imaging range 2a in front of the vehicle through the windshield. And based on the imaged image data by the vehicle-mounted camera 2, the image processing apparatus 3 performs the edge extraction process and image recognition process which are mentioned later.

車載カメラ2は、被写体像を結像する撮像レンズ21と、CMOSイメージセンサなどで構成され撮像レンズ21から入力される被写体像を撮像して撮像画像データを出力する撮像部22とを備える。撮像レンズ21は予め決められた位置に設定されており、そのため撮像レンズ21と撮像部22の距離により規定される車載カメラ2の焦点は撮像範囲2a内で所定の距離と位置に固定して初期設定される。すなわち、車載カメラ2は固定焦点式のカメラとして構成される。   The in-vehicle camera 2 includes an imaging lens 21 that forms a subject image, and an imaging unit 22 that is configured by a CMOS image sensor or the like and that captures a subject image input from the imaging lens 21 and outputs captured image data. The imaging lens 21 is set at a predetermined position. Therefore, the focal point of the in-vehicle camera 2 defined by the distance between the imaging lens 21 and the imaging unit 22 is fixed at a predetermined distance and position within the imaging range 2a. Is set. That is, the in-vehicle camera 2 is configured as a fixed focus type camera.

画像処理装置3の画像処理部32は、撮像部22が出力する撮像画像の画像データを処理して撮像画像からエッジを抽出する。ここで、「エッジ」とは撮像画像の明暗の境界線をいい、被写体の輪郭線、または輪郭と輪郭内部の領域の形状や模様を構成する線がエッジに対応する。よって、画像処理部32は各画素の隣接画素との濃度階調の差を求めることにより画像の明暗の変化点を求め、一定以上の明暗差の変化点をエッジとして抽出する。そして、画像処理部32は、抽出されたエッジの形状を記憶部33に記憶されるエッジ形状のパターンデータと照合して被写体の画像認識を行う。なお、画像処理部32は、内蔵のROMに格納される画像処理プログラムで動作するマイクロコンピュータで構成される。あるいは、画像処理部32は、エッジ抽出処理を行うエッジ抽出処理用のLSIと画像認識を行うマイクロコンピュータとで構成される。また、記憶部33は、書換え可能な不揮発性の記憶装置により構成される。   The image processing unit 32 of the image processing device 3 processes the image data of the captured image output from the imaging unit 22 and extracts an edge from the captured image. Here, “edge” refers to a light / dark boundary line of a captured image, and a contour line of a subject or a line that forms a shape or a pattern of a region inside the contour and the contour corresponds to the edge. Therefore, the image processing unit 32 obtains a change point of light and darkness of the image by obtaining a difference in density gradation from the adjacent pixel of each pixel, and extracts a change point of light and dark difference of a certain level or more as an edge. Then, the image processing unit 32 performs image recognition of the subject by collating the extracted edge shape with the edge shape pattern data stored in the storage unit 33. The image processing unit 32 is configured by a microcomputer that operates with an image processing program stored in a built-in ROM. Alternatively, the image processing unit 32 includes an LSI for edge extraction processing that performs edge extraction processing and a microcomputer that performs image recognition. The storage unit 33 includes a rewritable nonvolatile storage device.

画像処理部32による画像認識結果データは車両1の制御ECU(Electronic Control Unit)6へ入力される。制御ECU 6はマイクロコンピュータで構成され、画像センサ4の画像処理部32から入力される画像認識結果データ、後述する車載レーダ5から入力される自車両の物体の状態データ、または不図示の各種センサにより検知される車両1の走行状態データに基づき、車両1のスロットルやブレーキ等を制御するECUに制御信号を出力する。その結果、車両1走行が制御され、車両1の先行車両への追従や障害物の回避が行われる。   Image recognition result data by the image processing unit 32 is input to a control ECU (Electronic Control Unit) 6 of the vehicle 1. The control ECU 6 is composed of a microcomputer, and the image recognition result data input from the image processing unit 32 of the image sensor 4, the state data of the object of the host vehicle input from the vehicle-mounted radar 5 described later, or various sensors not shown. A control signal is output to the ECU that controls the throttle, brake, etc. of the vehicle 1 based on the running state data of the vehicle 1 detected by the above. As a result, traveling of the vehicle 1 is controlled, and the vehicle 1 follows the preceding vehicle and avoids obstacles.

本実施形態では、上述のように撮像レンズ21は予め決められた位置に設定される。しかしながら、車両の走行にともなう振動や衝撃により撮像レンズ21の設定位置がずれる場合がある。すると、初期設定された焦点がずれ、焦点が近距離あるいは遠距離に偏った状態となる。すると、焦点が近距離に偏った場合は遠距離の被写体の画像、焦点が遠距離に偏った場合は近距離の被写体の画像の鮮明度が低下する。すると、不鮮明な画像から抽出されるエッジも不鮮明となる。   In the present embodiment, as described above, the imaging lens 21 is set at a predetermined position. However, there is a case where the setting position of the imaging lens 21 is shifted due to vibration or impact caused by traveling of the vehicle. Then, the initial focus is shifted, and the focus is shifted to a short distance or a long distance. Then, when the focal point is biased to a short distance, the sharpness of a long-distance subject image is lowered, and when the focal point is biased to a long distance, the sharpness of a short-distance subject image is lowered. Then, the edge extracted from the unclear image also becomes unclear.

ここで、図3を用いて撮像画像から抽出されるエッジの状態について説明する。図3(A)は、車載カメラ2で撮像した車両前方の撮像画像を模式的に示している。図3(A)において、被写体である先行車両100の輪郭は、被写体画像の色と被写体以外の画像との明暗差で表現される。また、路面110の輪郭も、路面110とそれ以外の画像との明暗差で表現される。よって、画像処理部32で図3(A)の撮像画像からエッジ抽出を行うと、車載カメラ2の焦点が初期設定の状態では、図3(B)に示すように一定以上の明暗差の変化点が鮮明なエッジとして抽出される。   Here, the state of the edge extracted from the captured image will be described with reference to FIG. FIG. 3A schematically illustrates a captured image in front of the vehicle captured by the in-vehicle camera 2. In FIG. 3A, the contour of the preceding vehicle 100 that is the subject is expressed by a light / dark difference between the color of the subject image and an image other than the subject. Further, the contour of the road surface 110 is also expressed by a light / dark difference between the road surface 110 and other images. Therefore, when edge extraction is performed from the captured image of FIG. 3A by the image processing unit 32, when the focus of the in-vehicle camera 2 is in an initial setting, a change in brightness difference more than a certain level as shown in FIG. Points are extracted as sharp edges.

これに対し、車載カメラ2の焦点がずれると、撮像画像の明暗差がぼやけるため、図3(C)に示すように、エッジが太く不鮮明となる。すなわち、エッジの抽出量が増加する。このように車載カメラ2の焦点ずれは、エッジ抽出量の増大として把握される。よって、通常、焦点ずれを判定するためには、検査用の図形パターンが描かれたチャートを利用して、車載カメラ2から所定の距離に設置されたチャートを被写体とし、撮像された被写体画像から抽出されるエッジ抽出量を、初期設定された焦点で撮像した被写体画像のエッジ抽出量と比較することが必要となる。そして、初期設定のときのエッジ抽出量を上回る量のエッジが抽出された場合は、焦点ずれと判定する。   In contrast, when the in-vehicle camera 2 is out of focus, the difference in brightness of the captured image is blurred, so that the edges are thick and unclear as shown in FIG. That is, the amount of edge extraction increases. Thus, the defocus of the in-vehicle camera 2 is recognized as an increase in the amount of edge extraction. Therefore, in general, in order to determine the defocus, a chart placed at a predetermined distance from the in-vehicle camera 2 is used as a subject using a chart on which an inspection graphic pattern is drawn. It is necessary to compare the extracted edge extraction amount with the edge extraction amount of the subject image captured at the initially set focus. Then, when an edge having an amount exceeding the edge extraction amount at the initial setting is extracted, it is determined that the focus is shifted.

しかしながら、かかる検査用チャートを携行し、正確な位置にこれを設置して車載カメラ2で撮像するといった煩雑な操作を定期的かつ自発的に行うことをドライバーに期待することは困難である。そこで、本実施形態では、以下のようにして車載カメラ2の焦点ずれを判定する。   However, it is difficult to expect the driver to carry out such a complicated operation regularly and spontaneously, such as carrying the inspection chart, placing it at an accurate position, and taking an image with the in-vehicle camera 2. Therefore, in the present embodiment, the defocus of the in-vehicle camera 2 is determined as follows.

図4は、本実施形態における第1の実施例について説明する図である。図5は、第1の実施例での画像処理装置3等の動作手順を説明する図である。第1の実施例では、図4(A)に示すように、車両1のボンネットに取り付けられたエンブレムE1が画像の一部として撮像されるように、車載カメラ2が設置される。ここで、エンブレムE1と車載カメラ2はいずれも車両1に固定されており、互いの距離は常に一定である。よって、先行車両100の画像や背景画像は時々刻々変化するが、車載カメラ2の初期設定された焦点がずれていない限りはエンブレムE1の画像は常に一定である。すなわち、エンブレムE1の撮像画像からは図4(B)に示すように鮮明なエッジが抽出される。しかし、車載カメラ2の焦点がずれると、エンブレムE1の撮影画像からは図4(C)に示すように不鮮明な太いエッジが抽出される。   FIG. 4 is a diagram illustrating a first example of the present embodiment. FIG. 5 is a diagram for explaining the operation procedure of the image processing apparatus 3 and the like in the first embodiment. In the first embodiment, as shown in FIG. 4A, the in-vehicle camera 2 is installed so that the emblem E1 attached to the hood of the vehicle 1 is captured as a part of the image. Here, both the emblem E1 and the in-vehicle camera 2 are fixed to the vehicle 1, and the distance between them is always constant. Therefore, although the image and background image of the preceding vehicle 100 change from moment to moment, the image of the emblem E1 is always constant as long as the initial focus of the in-vehicle camera 2 is not deviated. That is, a sharp edge is extracted from the captured image of the emblem E1 as shown in FIG. However, if the in-vehicle camera 2 is out of focus, an unclear thick edge is extracted from the photographed image of the emblem E1 as shown in FIG.

そこで、被写体画像のエッジ抽出量を「特徴データ」とし、初期設定された焦点のときに撮像したエンブレムE1の撮像画像からエッジを抽出し、そのエッジ抽出量を基準値として記憶部33に記憶しておく(図5のS51)。その後、車両の走行中などに車載カメラ2により定期的にエンブレムE1を撮像する(図5のS52)。そして、画像処理部32は、撮像画像からエッジを抽出し(図5のS53)、エンブレムE1の撮像画像から抽出されるエッジ抽出量と、記憶部33に記憶されたエッジ抽出量とを比較する(図5のS54)。そして、抽出されたエッジ量の方が大きければ(図5のS55のYES)、画像処理部32は車載カメラ2の焦点ずれを判定する。そして、画像処理部32は、ナビゲーション装置7を介して表示部71によりドライバーへの警告表示を出力して(図5のS56)、ドライバーに車載カメラ2の点検を促すことができる。   Therefore, the edge extraction amount of the subject image is set as “feature data”, an edge is extracted from the captured image of the emblem E1 captured at the initial focus, and the edge extraction amount is stored in the storage unit 33 as a reference value. (S51 in FIG. 5). Thereafter, the emblem E1 is periodically imaged by the in-vehicle camera 2 during traveling of the vehicle (S52 in FIG. 5). Then, the image processing unit 32 extracts an edge from the captured image (S53 in FIG. 5), and compares the edge extraction amount extracted from the captured image of the emblem E1 with the edge extraction amount stored in the storage unit 33. (S54 in FIG. 5). If the extracted edge amount is larger (YES in S55 of FIG. 5), the image processing unit 32 determines the defocus of the in-vehicle camera 2. Then, the image processing unit 32 can output a warning display to the driver by the display unit 71 via the navigation device 7 (S56 in FIG. 5), and can prompt the driver to check the in-vehicle camera 2.

このように、ドライバーは、検査用チャートを携行し、正確な位置にこれを設置して撮像を行うといった煩雑な操作を行うことなく、車載カメラ2の焦点ずれを適時に知ることができる。   In this way, the driver can know the defocus of the in-vehicle camera 2 in a timely manner without carrying out complicated operations such as carrying the inspection chart, placing it at an accurate position, and performing imaging.

図6は、本実施形態における第2の実施例について説明する図である。第2の実施例では、車両1の車室内のインスツルメントパネル71aに設置されるナビゲーション装置7の表示部71が常に撮像されるように車載カメラ2を設置する。そして、画像処理部32はナビゲーション装置7を介して表示部71に検査用の図形パターンを表示させる。かかる図形パターンデータは記憶部33に予め格納される。そして、車載カメラ2が図形パターンを表示する表示部71を撮像する。すなわち、図形パターンを表示する表示部71が被写体となる自車両の一部に対応する。   FIG. 6 is a diagram for explaining a second example of the present embodiment. In the second embodiment, the in-vehicle camera 2 is installed so that the display unit 71 of the navigation device 7 installed on the instrument panel 71a in the passenger compartment of the vehicle 1 is always imaged. Then, the image processing unit 32 causes the display unit 71 to display a graphic pattern for inspection via the navigation device 7. Such graphic pattern data is stored in the storage unit 33 in advance. And the vehicle-mounted camera 2 images the display part 71 which displays a figure pattern. That is, the display unit 71 that displays the graphic pattern corresponds to a part of the host vehicle that is the subject.

ここでも、表示部71と車載カメラ2はいずれも車両1に固定されており、相対距離は常に一定である。よって、先行車両100の画像や背景画像は時々刻々変化するが、車載カメラ2の初期設定された焦点がずれていない限りは図形パターンを表示した表示部71の撮像画像は常に一定である。   Again, both the display unit 71 and the in-vehicle camera 2 are fixed to the vehicle 1, and the relative distance is always constant. Therefore, although the image and background image of the preceding vehicle 100 change every moment, the captured image of the display unit 71 displaying the graphic pattern is always constant as long as the initial focus of the in-vehicle camera 2 is not deviated.

これを利用して、車載カメラ2が予め初期設定された焦点のときに表示部71に表示される図形パターンの画像を撮像し、画像処理部32は図形パターンのエッジを抽出する。そして、そのエッジ抽出量を記憶部33に記憶する。そして、画像処理部32は、その後の撮像画像から表示部71に表示される図形パターンの画像のエッジを抽出し、そのエッジ抽出量を、記憶部33に記憶されたエッジ抽出量と比較する。そしてその比較結果に基づいて、車載カメラ2の焦点ずれを判定することができる。   By utilizing this, an image of a graphic pattern displayed on the display unit 71 is picked up when the in-vehicle camera 2 has a focus set in advance, and the image processing unit 32 extracts the edge of the graphic pattern. Then, the edge extraction amount is stored in the storage unit 33. Then, the image processing unit 32 extracts the edge of the graphic pattern image displayed on the display unit 71 from the subsequent captured image, and compares the edge extraction amount with the edge extraction amount stored in the storage unit 33. And based on the comparison result, the focus shift of the vehicle-mounted camera 2 can be determined.

あるいは、画像処理部32は、図形パターンの画像のエッジを抽出したら、その抽出結果から車載カメラ2の解像度を計算するように構成することもできる。すなわち、解像度が特徴データに対応する。この場合は、既知の図形パターンを用いるので、初期設定の焦点で車載カメラ2が表示部71の図形パターンを撮像したときの解像度を示す基準データを予め記憶部33に記憶しておき、エッジ抽出の結果から求められる解像度をこれと比較する。そうすることにより、算出された解像度が基準データにより示される解像度より低い場合は、焦点ずれを判定する。このようにして、ドライバーによる煩雑な操作を必要とせずに、車載カメラ2の焦点ずれを判定することができる。   Alternatively, the image processing unit 32 may be configured to calculate the resolution of the in-vehicle camera 2 from the extraction result after extracting the edge of the graphic pattern image. That is, the resolution corresponds to the feature data. In this case, since a known graphic pattern is used, reference data indicating the resolution when the in-vehicle camera 2 captures the graphic pattern of the display unit 71 with the initial focus is stored in the storage unit 33 in advance, and edge extraction is performed. The resolution obtained from the result of is compared with this. By doing so, defocus is determined when the calculated resolution is lower than the resolution indicated by the reference data. In this way, it is possible to determine the defocus of the in-vehicle camera 2 without requiring a complicated operation by the driver.

図7は、本実施形態における第3の実施例について説明する図である。図8は、第3の実施例での画像処理装置3等の動作手順を説明する図である。第3の実施例では、図7(A)に示すように、車載カメラ2が先行車両100などを被写体として撮像する。   FIG. 7 is a diagram for explaining a third example of the present embodiment. FIG. 8 is a diagram for explaining the operation procedure of the image processing apparatus 3 and the like in the third embodiment. In the third embodiment, as shown in FIG. 7A, the in-vehicle camera 2 images the preceding vehicle 100 or the like as a subject.

まず、予め車載カメラ2が初期設定された焦点のときに先行車両を撮像し、自車両と先行車両との距離ごとに、撮像画像から抽出される先行車両のエッジ抽出量の大まかな基準値を基準値テーブル35として記憶部33に格納しておく(図8のS81)。さらに、この基準値テーブル35は、撮像画像の明るさをパラメータとし、明るさと距離との組合せに応じた基準値が得られるように構成してもよい。   First, a preceding vehicle is imaged when the in-vehicle camera 2 is initially set in focus, and a rough reference value of the amount of edge extraction of the preceding vehicle extracted from the captured image is determined for each distance between the host vehicle and the preceding vehicle. The reference value table 35 is stored in the storage unit 33 (S81 in FIG. 8). Further, the reference value table 35 may be configured such that the brightness of the captured image is used as a parameter and a reference value corresponding to a combination of brightness and distance can be obtained.

基準値テーブル35が記憶された後、車両の走行中に、車載カメラ2は先行車両100を撮像する(図8のS82)。そして、画像処理部32はその被写体画像のエッジ抽出量を特徴データとして抽出する(図8のS83)。   After the reference value table 35 is stored, the vehicle-mounted camera 2 images the preceding vehicle 100 while the vehicle is traveling (S82 in FIG. 8). Then, the image processing unit 32 extracts the edge extraction amount of the subject image as feature data (S83 in FIG. 8).

ここで、自車両1と先行車両100との距離を検知する「被写体距離検知部」により自車両1と先行車両100との距離を検知する(図8のS84)。被写体距離検知部は、図1、2、及び図7(B)に示すように、車両1の前面のフロントグリル近傍に搭載され、車両1前方の一定の角度方向5aにレーダビームを射出し、反射ビームを受信することにより車両1前方の車両100の相対距離D1や、角度方向を検知する車載レーダ5により構成される。この車載レーダ5からは、検知された先行車両100までの距離D1の距離データが画像処理部32に入力される。   Here, the “subject distance detection unit” that detects the distance between the host vehicle 1 and the preceding vehicle 100 detects the distance between the host vehicle 1 and the preceding vehicle 100 (S84 in FIG. 8). 1, 2 and 7B, the subject distance detection unit is mounted in the vicinity of the front grille on the front surface of the vehicle 1, emits a radar beam in a certain angular direction 5a in front of the vehicle 1, The vehicle-mounted radar 5 detects the relative distance D1 of the vehicle 100 in front of the vehicle 1 and the angular direction by receiving the reflected beam. From the in-vehicle radar 5, the detected distance data of the distance D1 to the preceding vehicle 100 is input to the image processing unit 32.

画像処理部32は、車載レーダ5から入力される先行車両100の距離データに基づき、その距離をパラメータとして基準値テーブル35を参照して、距離に対応する基準値を抽出する(図8のS85)。そして画像処理部32は、撮像画像から抽出した被写体のエッジの抽出量と基準値テーブルから抽出した基準値とを比較する(図8のS86)。そして、抽出されたエッジ抽出量が基準値を上回る場合には(図8のS87のYES)、車載カメラ2の焦点ずれと判定し、判定結果を出力する(図8のS88)。   Based on the distance data of the preceding vehicle 100 input from the in-vehicle radar 5, the image processing unit 32 refers to the reference value table 35 using the distance as a parameter and extracts a reference value corresponding to the distance (S85 in FIG. 8). ). Then, the image processing unit 32 compares the extraction amount of the edge of the subject extracted from the captured image with the reference value extracted from the reference value table (S86 in FIG. 8). If the extracted edge extraction amount exceeds the reference value (YES in S87 in FIG. 8), it is determined that the in-vehicle camera 2 is out of focus, and the determination result is output (S88 in FIG. 8).

なお、その際、被写体が移動しているため一回の撮像により得られた撮像画像のみでは正確な判定が困難な場合がある。よって、一定時間継続して撮像された画像からエッジ抽出を行い、所定時間内に基準値を上回るエッジ量が抽出される場合に焦点ずれと判断する。そうすることにより、より正確な判定を行うことができる。   At this time, since the subject is moving, accurate determination may be difficult only with a captured image obtained by one imaging. Therefore, edge extraction is performed from an image captured continuously for a predetermined time, and it is determined that the focus is shifted when an edge amount exceeding the reference value is extracted within a predetermined time. By doing so, a more accurate determination can be made.

また、焦点ずれが大きいと、撮像画像全体が不鮮明となり、画像全体としてのエッジ抽出量が低下する場合がある。例えば、図9(A)に示す初期設定された焦点での車両100のエッジ抽出量に対し、焦点ずれが大きいと図9(B)に示すように極端に少ないエッジ抽出量となる場合がある。しかし、基準値を上回るエッジ抽出量のときにのみ焦点ずれと判定すると、エッジ抽出量が少ない場合は焦点ずれと判定されない。よって、車載レーダ5で一定時間継続して被写体の角度方向を観測し、検知された角度方向に対応する撮像画像内の位置に一定量のエッジ抽出量が抽出されない場合には、焦点ずれと判定する。そうすることにより、焦点ずれが大きいことによりエッジ抽出量が少ない場合でも、焦点ずれを判定することができる。   In addition, if the defocus is large, the entire captured image becomes unclear, and the edge extraction amount as the entire image may be reduced. For example, when the focus deviation is large with respect to the edge extraction amount of the vehicle 100 at the initially set focus shown in FIG. 9A, the edge extraction amount may be extremely small as shown in FIG. 9B. . However, if it is determined that the focus shift is performed only when the edge extraction amount exceeds the reference value, the focus shift is not determined when the edge extraction amount is small. Therefore, the in-vehicle radar 5 continuously observes the angle direction of the subject, and if a certain amount of edge extraction amount is not extracted at a position in the captured image corresponding to the detected angle direction, it is determined as defocusing. To do. By doing so, defocus can be determined even when the amount of edge extraction is small due to large defocus.

このように、第3の実施例によれば、車両の形状と車載カメラ2の設置位置によって自車両の一部を被写体として撮像することが困難な場合であっても、自車両以外の物体を被写体として車載カメラ2の焦点ずれを判定することができる。   As described above, according to the third embodiment, even if it is difficult to image a part of the host vehicle as a subject depending on the shape of the vehicle and the installation position of the in-vehicle camera 2, an object other than the host vehicle is detected. The focus shift of the in-vehicle camera 2 can be determined as a subject.

図10は、本実施形態における第4の実施例について説明する図である。図11は、第4の実施例での画像処理装置3等の動作手順を説明する図である。第4の実施例では、図10に示すように、車載カメラ2が自車両以外の物体として整備工場などに設置される検査用チャート120を被写体として撮像する。自車両1が整備工場に入庫されると、所定の撮像地点からチャート120を撮像するので、車載カメラ2の初期設定された焦点がずれていない限りは、図形パターンの撮像画像は常に一定である。   FIG. 10 is a diagram for explaining a fourth example of the present embodiment. FIG. 11 is a diagram for explaining the operation procedure of the image processing apparatus 3 and the like in the fourth embodiment. In the fourth embodiment, as shown in FIG. 10, the in-vehicle camera 2 images an inspection chart 120 installed in a maintenance shop or the like as an object other than the own vehicle as a subject. When the host vehicle 1 enters the maintenance shop, the chart 120 is picked up from a predetermined pick-up point. Therefore, the picked-up image of the graphic pattern is always constant as long as the initial focus of the in-vehicle camera 2 is not deviated. .

よって、まず予め車載カメラ2が初期設定された焦点のときに所定の撮像地点からチャート120を撮像し、画像処理部32は図形パターンの撮像画像からエッジ抽出を行い、そのエッジ抽出量を記憶部33に記憶しておく(図11のS111)。   Therefore, first, the chart 120 is imaged from a predetermined imaging point when the in-vehicle camera 2 is initially set in advance, and the image processing unit 32 performs edge extraction from the captured image of the graphic pattern, and the amount of edge extraction is stored in the storage unit 33 (S111 in FIG. 11).

その後、「自車両位置検知部」により自車両1の位置を検知する(図11のS112)。自車両位置検知部は、図2に示すように車両1に搭載されるナビゲーション装置7により構成される。ナビゲーション装置7は、通信手部72によりGPS信号を受信し、GPS信号と内蔵のハードディスクに格納される地図情報とから自車両が位置する地点を検出する。さらに、ナビゲーション装置7には、検査用チャートが設置された所定の整備工場の地点を予め記憶させてある。よってナビゲーション装置7は、かかる整備工場に自車両が位置することを検知して、画像処理装置3の画像処理部32へ通知する。   Then, the position of the own vehicle 1 is detected by the “own vehicle position detection unit” (S112 in FIG. 11). As shown in FIG. 2, the host vehicle position detection unit includes a navigation device 7 mounted on the vehicle 1. The navigation device 7 receives the GPS signal by the communication hand unit 72, and detects the point where the host vehicle is located from the GPS signal and the map information stored in the built-in hard disk. Further, the navigation device 7 stores in advance the location of a predetermined maintenance shop where the inspection chart is installed. Therefore, the navigation device 7 detects that the host vehicle is located in the maintenance shop and notifies the image processing unit 32 of the image processing device 3.

そうすることで、画像処理部32は自車両が所定の撮像地点に位置しており、車載カメラ2とチャート120とが所定の相対位置に固定された状態にあることを検知できる(図11のS118のYES)。そして、車載カメラ2により検査用チャート120を撮像する(図11のS113)。そして、画像処理部32は、チャート120の撮像画像から図形パターンの画像のエッジを抽出し(図11のS114)、そのエッジ抽出量を記憶部33に記憶される基準値と比較して(図11のS115)、車載カメラ2の焦点ずれを判定し(図11のS116)、焦点ずれ判定結果を出力する(図11のS117)。   By doing so, the image processing unit 32 can detect that the host vehicle is located at a predetermined imaging point and the in-vehicle camera 2 and the chart 120 are fixed at a predetermined relative position (FIG. 11). S118 YES). And the chart 120 for a test | inspection is imaged with the vehicle-mounted camera 2 (S113 of FIG. 11). Then, the image processing unit 32 extracts the edge of the graphic pattern image from the captured image of the chart 120 (S114 in FIG. 11), and compares the edge extraction amount with the reference value stored in the storage unit 33 (FIG. 11 S115), the focus shift of the in-vehicle camera 2 is determined (S116 in FIG. 11), and the focus shift determination result is output (S117 in FIG. 11).

なお、この場合も第2の実施例同様、既知の図形パターンを用いるので、初期設定された焦点での車載カメラ2の解像度を予め記憶部33に記憶しておき、エッジ抽出の結果から求められる解像度をこれと比較するように構成することもできる。   In this case as well, as in the second embodiment, since a known figure pattern is used, the resolution of the in-vehicle camera 2 at the initially set focus is stored in advance in the storage unit 33 and obtained from the result of edge extraction. It can also be configured to compare the resolution with this.

このように、自車両が整備工場へ入庫され、所定の撮像地点に位置しているときは、車載カメラ2と整備工場のチャート120とは所定の相対位置に固定された状態である。よって、ドライバー自ら検査用チャートを設置するなど煩雑な操作をする必要がない。そして、画像処理部32によりチャート120の撮像画像に基づいて車載カメラ2の撮像画像が悪化したことを判定でき、焦点ずれを判定することができる。   In this way, when the host vehicle has entered the maintenance shop and is located at a predetermined imaging point, the in-vehicle camera 2 and the maintenance shop chart 120 are fixed at a predetermined relative position. Therefore, there is no need to perform complicated operations such as installing an inspection chart by the driver himself. Then, the image processing unit 32 can determine that the captured image of the in-vehicle camera 2 has deteriorated based on the captured image of the chart 120, and can determine the defocus.

図12は本実施形態における第5の実施例を説明する図である。図12では、図2の車載カメラ2に、撮像レンズ21と撮像部22との距離を測定するレーザ距離センサにより構成される監視センサ23が追加された構成が示される。この監視センサ23が、「レンズ距離測定部」に対応する。そして、監視センサ23からの測定された距離データは画像処理部32に入力される。すると、画像処理部32は、この測定された距離と、記憶部33に予め記憶された撮像レンズ21が初期設定された位置のときの距離データとを比較して、撮像レンズ21と撮像部22との距離が変化したこと、すなわち焦点がずれたことを検知できる。   FIG. 12 is a diagram for explaining a fifth example of the present embodiment. FIG. 12 shows a configuration in which a monitoring sensor 23 configured by a laser distance sensor that measures the distance between the imaging lens 21 and the imaging unit 22 is added to the in-vehicle camera 2 of FIG. This monitoring sensor 23 corresponds to a “lens distance measuring unit”. Then, the measured distance data from the monitoring sensor 23 is input to the image processing unit 32. Then, the image processing unit 32 compares the measured distance with the distance data when the imaging lens 21 stored in advance in the storage unit 33 is at the initial position, and the imaging lens 21 and the imaging unit 22 are compared. It is possible to detect that the distance between the two has changed, that is, the focus has shifted.

このように、画像処理部32は焦点ずれを直接的に検知することができ、ナビゲーション装置7の表示部71により、ドライバーに焦点ずれを通知することができる。   As described above, the image processing unit 32 can directly detect the defocus, and the display unit 71 of the navigation device 7 can notify the driver of the defocus.

なお、第5の実施例の変形例としては、図12に示すように撮像レンズ21を焦点方向に駆動する駆動機構24をさらに設け、焦点ずれが抽出された場合に、駆動機構24は画像処理部32からの制御信号に従って当初の設定位置まで撮像レンズ21を駆動するようにしてもよい。   As a modification of the fifth embodiment, as shown in FIG. 12, a drive mechanism 24 for driving the imaging lens 21 in the focal direction is further provided, and when the defocus is extracted, the drive mechanism 24 performs image processing. The imaging lens 21 may be driven to the initial set position in accordance with a control signal from the unit 32.

本実施形態における第6の実施例として、図2に示すように画像処理装置3はナビゲーション装置7の通信部72を介して、撮像画像データを遠隔の制御センタ8へ通信する。そうすることにより、制御センタ8ではオペレータが撮像画像を肉眼で確認することができ、画像の鮮明さを判断することができる。そして、その判断結果を制御センタ8から受信することにより、画像処理装置3は焦点ずれの通知を出力することができる。このように、オペレータの視覚に基づく判断を用いることで、より直接的に焦点ずれに起因する撮像画像の撮像状態の悪化を検知でき、かつ画像処理部32の処理負荷を軽減できる。   As a sixth example of this embodiment, as shown in FIG. 2, the image processing device 3 communicates captured image data to a remote control center 8 via a communication unit 72 of the navigation device 7. By doing so, the operator can confirm the captured image with the naked eye in the control center 8, and can determine the sharpness of the image. Then, by receiving the determination result from the control center 8, the image processing apparatus 3 can output a notice of defocus. As described above, by using the judgment based on the visual sense of the operator, it is possible to detect the deterioration of the imaging state of the captured image caused by the defocus more directly and reduce the processing load of the image processing unit 32.

なお、上述の説明においては、エッジ抽出量を撮像状態として説明したが、一定時間におけるエッジ位置の変化量を特徴データとしてもよい。その際は変化量の基準値を基準データとして記憶部33に格納しておき、エッジ位置の変化量が基準値より大きければ、撮像画像が悪化していると判断でき、その場合は焦点ずれと判定することができる。   In the above description, the edge extraction amount is described as the imaging state, but the change amount of the edge position in a certain time may be used as the feature data. In that case, the reference value of the change amount is stored as reference data in the storage unit 33, and if the change amount of the edge position is larger than the reference value, it can be determined that the captured image has deteriorated. Can be determined.

また、上述の各実施例において基準データは記憶部33に記憶される場合を説明した。しかし、第3の実施例での大まかな基準値を格納したテーブルや、第2、第4の実施例での既知の図形パターンのエッジ量の基準値などは、予め画像処理部32の内蔵ROMに書き込まれる構成としてもよい。
以上説明したとおり、本発明によれば、固定焦点式の車載カメラの焦点ずれを煩雑な操作を必要とせず判定することが可能となる。
In each of the above-described embodiments, the case where the reference data is stored in the storage unit 33 has been described. However, the table storing the rough reference values in the third embodiment, the reference values of the edge amounts of known graphic patterns in the second and fourth embodiments, etc. are stored in advance in the built-in ROM of the image processing unit 32. It is good also as a structure written in.
As described above, according to the present invention, it is possible to determine the defocus of a fixed focus type in-vehicle camera without requiring a complicated operation.

本実施形態における車載カメラ2と画像処理装置3が車両に搭載される例を説明する図である。It is a figure explaining the example in which the vehicle-mounted camera 2 and the image processing apparatus 3 in this embodiment are mounted in a vehicle. 本実施形態における車載カメラ2、画像処理装置3の構成を説明する図である。It is a figure explaining the structure of the vehicle-mounted camera 2 and the image processing apparatus 3 in this embodiment. 撮像画像のエッジ状態について説明する図である。It is a figure explaining the edge state of a captured image. 本実施形態における第1の実施例について説明する図である。It is a figure explaining the 1st Example in this embodiment. 第1の実施例での画像処理装置3等の動作手順を説明する図である。It is a figure explaining the operation | movement procedure of the image processing apparatus 3 grade | etc., In a 1st Example. 本実施形態における第2の実施例について説明する図である。It is a figure explaining the 2nd Example in this embodiment. 本実施形態における第3の実施例について説明する図である。It is a figure explaining the 3rd Example in this embodiment. 第3の実施例での画像処理装置3等の動作手順を説明する図である。It is a figure explaining the operation | movement procedure of the image processing apparatus 3 grade | etc., In a 3rd Example. 焦点ずれが大きい場合のエッジ抽出量について説明する図である。It is a figure explaining the amount of edge extraction when a focus shift is large. 本実施形態における第4の実施例について説明する図である。It is a figure explaining the 4th example in this embodiment. 第4の実施例での画像処理装置3等の動作手順を説明する図である。It is a figure explaining the operation | movement procedure of the image processing apparatus 3 grade | etc., In a 4th Example. 本実施形態における第5の実施例を説明する図である。It is a figure explaining the 5th Example in this embodiment.

符号の説明Explanation of symbols

2:車載カメラ、3画像処理装置、5:車載レーダ、7:ナビゲーション装置、
8:制御センタ、32:画像処理部、33:記憶部、35:基準値テーブル、
71:表示部、72:通信部
2: vehicle-mounted camera, 3 image processing device, 5: vehicle-mounted radar, 7: navigation device,
8: Control center, 32: Image processing unit, 33: Storage unit, 35: Reference value table,
71: Display unit, 72: Communication unit

Claims (7)

撮像レンズが予め決められた位置に設定される固定焦点式の車載カメラによって撮像される自車両の撮像画像データを処理する画像処理装置において、
前記撮像レンズが前記設定位置のときに前記車載カメラにより撮像される自車両の一部の撮像画像の第1の特徴データが記憶される記憶部と、
前記第1の特徴データが記憶された後に前記車載カメラにより撮像される前記自車両の一部の撮像画像の第2の特徴データを抽出する画像処理部とを有し、
前記画像処理部は、前記第1、第2の特徴データを比較し、当該比較結果に基づき前記車載カメラの焦点ずれを判定することを特徴とする画像処理装置。
In an image processing apparatus that processes captured image data of a host vehicle that is imaged by a fixed-focus vehicle-mounted camera in which an imaging lens is set at a predetermined position
A storage unit that stores first characteristic data of a part of a captured image of the host vehicle captured by the in-vehicle camera when the imaging lens is at the set position;
An image processing unit that extracts second feature data of a part of the captured image of the host vehicle that is captured by the in-vehicle camera after the first feature data is stored;
The image processing unit compares the first and second feature data and determines a defocus of the in-vehicle camera based on the comparison result.
撮像レンズが予め決められた位置に設定される固定焦点式の車載カメラによって撮像される自車両周囲の撮像画像データを処理する画像処理装置において、
前記撮像レンズが前記設定位置のときに前記車載カメラにより撮像される自車両以外の被写体の撮像画像の第1の特徴データが、自車両と当該被写体との複数の距離ごとに記憶される記憶部と、
前記第1の特徴データが記憶された後に前記車載カメラにより撮像される前記被写体の撮像画像の第2の特徴データを抽出する画像処理部とを有し、
前記画像処理部は、被写体距離検知部にて検知された自車両と前記被写体との距離データに対応する前記第1の特徴データと、前記第2の特徴データとを比較し、当該比較結果に基づき前記車載カメラの焦点ずれを判定することを特徴とする画像処理装置。
In an image processing apparatus that processes captured image data around a host vehicle that is imaged by a fixed-focus-type in-vehicle camera in which an imaging lens is set at a predetermined position.
A storage unit that stores first feature data of a captured image of a subject other than the subject vehicle captured by the in-vehicle camera when the imaging lens is at the set position for each of a plurality of distances between the subject vehicle and the subject. When,
An image processing unit for extracting second feature data of a captured image of the subject imaged by the in-vehicle camera after the first feature data is stored;
The image processing unit compares the first feature data corresponding to the distance data between the subject vehicle detected by the subject distance detection unit and the subject and the second feature data, and determines the comparison result. An image processing apparatus for determining a defocus of the in-vehicle camera based on the image processing apparatus.
撮像レンズが予め決められた位置に設定される固定焦点式の車載カメラによって撮像された自車両周囲の撮像画像データを処理する画像処理装置において、
前記撮像レンズが前記設定位置のときに所定の撮像地点から前記車載カメラにより撮像される自車両以外の被写体の撮像画像の第1の特徴データが記憶される記憶部と、
前記第1の特徴データが記憶された後に自車両位置検知部にて自車両が前記撮像地点に位置することが検知されたときに、前記車載カメラにより撮像される前記被写体の撮像画像の第2の特徴データを抽出する画像処理部とを有し、
前記画像処理部は、前記第1、第2の特徴データを比較し、当該比較結果に基づき前記車載カメラの焦点ずれを判定することを特徴とする画像処理装置。
In an image processing apparatus that processes captured image data around a host vehicle imaged by a fixed-focus vehicle-mounted camera in which an imaging lens is set at a predetermined position,
A storage unit that stores first feature data of a captured image of a subject other than the subject vehicle captured by the in-vehicle camera from a predetermined imaging point when the imaging lens is at the set position;
A second captured image of the subject captured by the in-vehicle camera when the host vehicle position detection unit detects that the host vehicle is located at the imaging point after the first feature data is stored. An image processing unit for extracting feature data of
The image processing unit compares the first and second feature data and determines a defocus of the in-vehicle camera based on the comparison result.
撮像レンズが予め決められた位置に設定される固定焦点式の車載カメラによって撮像された自車両周囲の撮像画像データを処理する画像処理方法において、
前記撮像レンズが前記設定位置のときに前記車載カメラにより撮像される自車両の一部の撮像画像の第1の特徴データを記憶する工程と、
前記第1の特徴データが記憶された後に前記車載カメラにより撮像される前記自車両の一部の撮像画像の第2の特徴データを抽出する工程と、
前記第1、第2の特徴データを比較して、当該比較結果に基づき前記車載カメラの焦点ずれを判定する工程とを有することを特徴とする画像処理方法。
In an image processing method for processing captured image data around a host vehicle imaged by a fixed-focus vehicle-mounted camera in which an imaging lens is set at a predetermined position,
Storing first feature data of a captured image of a part of the host vehicle captured by the in-vehicle camera when the imaging lens is at the set position;
Extracting second feature data of a captured image of a part of the host vehicle captured by the in-vehicle camera after the first feature data is stored;
And a step of comparing the first and second feature data and determining a defocus of the in-vehicle camera based on the comparison result.
撮像レンズが予め決められた位置に設定される固定焦点式の車載カメラによって撮像された自車両周囲の撮像画像データを処理する画像処理方法において、
前記撮像レンズが前記設定位置のときに前記車載カメラにより撮像される自車両以外の被写体の撮像画像の第1の特徴データを、自車両と当該被写体との複数の距離ごとに記憶する工程と、
前記第1の特徴データが記憶された後に前記車載カメラにより撮像される前記被写体の撮像画像の第2の特徴データを抽出する工程と、
自車両と前記被写体との距離を検知する工程と、
前記自車両と前記被写体との距離データに対応する前記第1の特徴データと、前記第2の特徴データとを比較して、当該比較結果に基づき前記車載カメラの焦点ずれを判定する工程とを有することを特徴とする画像処理方法。
In an image processing method for processing captured image data around a host vehicle imaged by a fixed-focus vehicle-mounted camera in which an imaging lens is set at a predetermined position,
Storing first feature data of a captured image of a subject other than the subject vehicle captured by the in-vehicle camera when the imaging lens is at the set position for each of a plurality of distances between the subject vehicle and the subject;
Extracting second feature data of a captured image of the subject imaged by the in-vehicle camera after the first feature data is stored;
Detecting the distance between the vehicle and the subject;
Comparing the first feature data corresponding to the distance data between the host vehicle and the subject and the second feature data, and determining a defocus of the in-vehicle camera based on the comparison result. An image processing method comprising:
撮像レンズが予め決められた位置に設定される固定焦点式の車載カメラによって撮像された自車両の撮像画像データを処理する画像処理方法において、
前記撮像レンズが前記設定位置のときに所定の撮像地点から前記車載カメラにより撮像される自車両以外の被写体の撮像画像の第1の特徴データを記憶する工程と、
前記第1の特徴データが記憶された後に自車両が前記撮像地点に位置することを検知する工程と、
自車両が前記撮像地点に位置するときに前記車載カメラにより撮像される撮像画像データから前記被写体の撮像画像の第2の特徴データを抽出する工程と、
前記第1、第2の特徴データを比較して、当該比較結果に基づき前記車載カメラの焦点ずれを判定する工程とを有することを特徴とする画像処理方法。
In an image processing method for processing captured image data of a host vehicle imaged by a fixed focus type in-vehicle camera in which an imaging lens is set at a predetermined position,
Storing first feature data of a captured image of a subject other than the subject vehicle captured by the in-vehicle camera from a predetermined imaging point when the imaging lens is at the set position;
Detecting that the host vehicle is located at the imaging point after the first feature data is stored;
Extracting second feature data of a captured image of the subject from captured image data captured by the in-vehicle camera when the host vehicle is located at the imaging point;
And a step of comparing the first and second feature data and determining a defocus of the in-vehicle camera based on the comparison result.
撮像レンズが予め決められた位置に設定される固定焦点式の車載カメラによって撮像された自車両の撮像画像データを処理する画像処理方法において、
前記撮像画像データを遠隔の制御センタへ送信する工程と、
当該制御センタにてオペレータが判断する当該撮像画像の鮮明度を示す判断結果データを送信する工程と、
前記判断結果データに基づいて前記車載カメラの焦点ずれを判定する工程とを有することを特徴とする画像処理方法。
In an image processing method for processing captured image data of a host vehicle imaged by a fixed focus type in-vehicle camera in which an imaging lens is set at a predetermined position,
Transmitting the captured image data to a remote control center;
Transmitting determination result data indicating the sharpness of the captured image determined by the operator at the control center;
And a step of determining a defocus of the in-vehicle camera based on the determination result data.
JP2006351040A 2006-12-27 2006-12-27 Image processing apparatus and image processing method Expired - Fee Related JP4795930B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006351040A JP4795930B2 (en) 2006-12-27 2006-12-27 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006351040A JP4795930B2 (en) 2006-12-27 2006-12-27 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2008166902A JP2008166902A (en) 2008-07-17
JP4795930B2 true JP4795930B2 (en) 2011-10-19

Family

ID=39695799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006351040A Expired - Fee Related JP4795930B2 (en) 2006-12-27 2006-12-27 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4795930B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3668080B1 (en) * 2018-12-12 2021-08-18 Axis AB A method for assisting camera tilt angle adjustment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3287117B2 (en) * 1994-07-05 2002-05-27 株式会社日立製作所 Environment recognition device for vehicles using imaging device
JP2000018920A (en) * 1998-07-06 2000-01-21 Tani Denki Kogyo Kk Measuring method, measuring apparatus using image recognition, and recording medium
JP2002074340A (en) * 2000-08-29 2002-03-15 Toshiba Corp Picture processor for monitoring road traffic and method for automatically setting picture processing parameter for the processor
JP4031301B2 (en) * 2002-07-02 2008-01-09 富士重工業株式会社 Outside monitoring device
JP2004262320A (en) * 2003-02-28 2004-09-24 Honda Motor Co Ltd Kinetic detecting camera device

Also Published As

Publication number Publication date
JP2008166902A (en) 2008-07-17

Similar Documents

Publication Publication Date Title
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
US7233233B2 (en) Vehicle surroundings monitoring apparatus
KR101680023B1 (en) Method for combining a road sign recognition system and lane detection system of a motor vehicle
US7580548B2 (en) Abnormality detecting apparatus for imaging apparatus
JP6019646B2 (en) Misalignment detection apparatus, vehicle, and misalignment detection method
JP6971020B2 (en) Anomaly detection device and anomaly detection method
US20120033074A1 (en) Method and device for determining a valid lane marking
JP6707887B2 (en) Vehicle equipment
JP2012058983A (en) Lane estimating device
US9635271B2 (en) Vision-based scene detection
JP2008222153A (en) Merging support device
JP6139088B2 (en) Vehicle detection device
US20110205362A1 (en) Lane-marker recognition system with improved recognition-performance
KR20160145937A (en) Apparatus and method for providing road surface information, and data saving device thereof
EP3087532B1 (en) Method for determining a width of a target vehicle by means of a camera system of a motor vehicle, camera system and motor vehicle
JP2003329439A (en) Distance detecting device
JP2635246B2 (en) Inter-vehicle distance detection device for tracking the preceding vehicle
JP2011103058A (en) Erroneous recognition prevention device
JP2008056163A (en) Obstacle detecting device for vehicle
JPH06325298A (en) Device for monitoring vehicle periphery
JP4795930B2 (en) Image processing apparatus and image processing method
KR20160142968A (en) Apparatus and method for providing road surface information, and data saving device thereof
US11100340B2 (en) Line detector for vehicle and method for detecting line for vehicle
JPH07244717A (en) Travel environment recognition device for vehicle
EP1906208A1 (en) Park assist system visually marking up dangerous objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110726

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110728

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees