JP2012190380A - Vehicle detection device and vehicle detection method, and vehicle detection program - Google Patents

Vehicle detection device and vehicle detection method, and vehicle detection program Download PDF

Info

Publication number
JP2012190380A
JP2012190380A JP2011055047A JP2011055047A JP2012190380A JP 2012190380 A JP2012190380 A JP 2012190380A JP 2011055047 A JP2011055047 A JP 2011055047A JP 2011055047 A JP2011055047 A JP 2011055047A JP 2012190380 A JP2012190380 A JP 2012190380A
Authority
JP
Japan
Prior art keywords
vehicle
image
center
unit
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011055047A
Other languages
Japanese (ja)
Other versions
JP5703864B2 (en
Inventor
Ritsuko Tanaka
律子 田中
Hideo Iwaki
英雄 岩城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011055047A priority Critical patent/JP5703864B2/en
Publication of JP2012190380A publication Critical patent/JP2012190380A/en
Application granted granted Critical
Publication of JP5703864B2 publication Critical patent/JP5703864B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To determine whether or not a vehicle of a subject has an asymmetrical portion on the basis of an image of the vehicle captured from an oblique direction.SOLUTION: A vehicle detection device extracts from an image of a vehicle feature portions including portions indicating central positions of a front face of the vehicle and a plurality of line segments each indicating a linear portion extending in a horizontal direction in the front face of the vehicle; obtains centers of the line segments on the basis of relative positions of the portions indicating the center positions and the line segments adjacent to the portions indicating the center positions to calculate ratios of distances from the centers of the line segments to one ends of the line segments to distances from the centers of the line segments to the other ends of the line segments; obtains internal division points dividing the plurality of line segments on the basis of the ratios to generate a center line connecting the internal division points of the respective line segments with each other; and in the image of a portion indicating the vehicle included in the image of the vehicle, detects a region of the image having an asymmetrical feature with respect to the center line by dividing the front face of the vehicle into a left side portion and a right side portion using as a boundary the center line to compare the left side portion with the right side portion.

Description

本件開示は、固定されたカメラによって撮影された画像に含まれる車両を表す部分から、車両の特徴を抽出する技術に関する。   The present disclosure relates to a technique for extracting features of a vehicle from a portion representing the vehicle included in an image photographed by a fixed camera.

路上に設置されたカメラによって道路を走行する車両を撮影して得られた画像に基づいて特定の車両を検出するために、画像に含まれるナンバープレート部分を認識する技術が提案されている。   In order to detect a specific vehicle based on an image obtained by photographing a vehicle traveling on a road with a camera installed on the road, a technique for recognizing a license plate portion included in the image has been proposed.

また、車両を撮影して得られた画像を解析し、傾き補正後の車体部分の画像が左右対称であることを条件の一つとして、蓄積する画像のデータ量を低減する処理を適用する技術が提案されている(例えば、特許文献2参照)。   In addition, a technique for analyzing an image obtained by photographing a vehicle and applying a process for reducing the amount of data of the image to be stored on the condition that the image of the vehicle body part after the tilt correction is symmetrical Has been proposed (see, for example, Patent Document 2).

国際公開WO2006/082644International Publication WO2006 / 082644

ところで、路上や車両検査場などの施設にカメラを設置する際に、車両を斜め方向から撮影する位置にカメラの設置場所が限られる場合がある。車両を斜め方向から撮影して得られる画像に対して単純な傾き補正を適用すると、車両の外形が大きくゆがんでしまう場合がある。そして、このようにゆがんだ画像に基づいて、被写体となった車両に非対称な部分があるか否かを判断することは困難である。   By the way, when a camera is installed on a facility such as a road or a vehicle inspection site, the installation location of the camera may be limited to a position where the vehicle is photographed from an oblique direction. When simple inclination correction is applied to an image obtained by photographing a vehicle from an oblique direction, the outer shape of the vehicle may be greatly distorted. It is difficult to determine whether or not there is an asymmetric part in the vehicle that is the subject based on the image that is distorted in this way.

本件開示は、斜め方向から車両を撮影した画像に基づいて、被写体の車両に非対称な部分があるか否かを判断可能な車両検出装置および車両検出方法並びに車両検出プログラムを提供することを目的とする。   It is an object of the present disclosure to provide a vehicle detection device, a vehicle detection method, and a vehicle detection program that can determine whether or not there is an asymmetric part in a subject vehicle based on an image obtained by photographing the vehicle from an oblique direction. To do.

本件開示の車両検出装置および車両検出方法並びに車両検出プログラムは、車両を撮影した画像から、前記車両の正面の中央位置を示す部分と、前記車両の正面において水平方向に伸びる直線部分を示す複数の線分とを含む特徴部位を抽出し、前記中央位置を示す部分と前記中央位置を示す部分に近接する前記線分の相対位置に基づいて、前記線分の中心を求め、前記線分の中心から前記線分の一端までの距離と、前記線分の中心から前記線分の他端までの距離との比を算出し、前記複数の線分を前記比に基づいて内分する内分点を求め、前記各線分の内分点を結ぶ中心線を生成し、前記車両を撮影した画像に含まれる前記車両を表す部分の画像において、前記中心線を境界として前記車両の正面の左側部分と右側部分とを比較することにより、前記中心線を基準として非対称な特徴を持つ画像の領域を検出する。   A vehicle detection device, a vehicle detection method, and a vehicle detection program according to the present disclosure include a plurality of portions indicating a center position of a front surface of the vehicle and straight portions extending in a horizontal direction on the front surface of the vehicle from an image obtained by photographing the vehicle. A feature portion including a line segment is extracted, a center of the line segment is obtained based on a relative position of the line segment adjacent to the portion indicating the central position and the portion indicating the central position, and the center of the line segment An internal dividing point for calculating a ratio between a distance from the line segment to one end of the line segment and a distance from the center of the line segment to the other end of the line segment, and dividing the plurality of line segments based on the ratio And generating a center line connecting the internal dividing points of each line segment, and in an image of a part representing the vehicle included in an image obtained by photographing the vehicle, a left side portion in front of the vehicle with the center line as a boundary By comparing with the right part , Detects an area of an image having an asymmetrical wherein the center line as a reference.

本件開示の車両検出装置および車両検出方法並びに車両検出プログラムによれば、斜め方向から車両を撮影した画像に基づいて、被写体の車両に非対称な部分があるか否かを判断可能である。   According to the vehicle detection device, the vehicle detection method, and the vehicle detection program of the present disclosure, it is possible to determine whether or not the subject vehicle has an asymmetric part based on an image obtained by photographing the vehicle from an oblique direction.

車両検出装置の一実施形態を示す図である。It is a figure which shows one Embodiment of a vehicle detection apparatus. 画像から抽出される特徴部位を説明する図である。It is a figure explaining the characteristic part extracted from an image. 特徴部位の相対位置を説明する図である。It is a figure explaining the relative position of a characteristic part. 検出部の処理例を説明する図である。It is a figure explaining the process example of a detection part. コンピュータの機能ブロック図である。It is a functional block diagram of a computer. 非対称車両を検出する処理を表す流れ図である。It is a flowchart showing the process which detects an asymmetric vehicle. 車両検出装置の別実施形態を示す図である。It is a figure which shows another embodiment of a vehicle detection apparatus. 特徴部位を抽出する処理の一例を表す流れ図である。It is a flowchart showing an example of the process which extracts a characteristic part. 算出部の処理の一例を表す流れ図である。It is a flowchart showing an example of a process of a calculation part. 非対称な領域を検出する処理の一例を表す流れ図である。It is a flowchart showing an example of the process which detects an asymmetric area | region. 車両認識データベースの例を示す図である。It is a figure which shows the example of a vehicle recognition database. 非対称な特徴を持つ車両を検出した結果の表示例を示す図である。It is a figure which shows the example of a display of the result of having detected the vehicle which has an asymmetric characteristic. 車両検出装置の別実施形態を示す図である。It is a figure which shows another embodiment of a vehicle detection apparatus. 非対称な特徴を検出する処理の別例を表す流れ図である。It is a flowchart showing another example of processing which detects an asymmetric feature.

以下、図面に基づいて、本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1に、車両検出装置の一実施形態を示す。図1は、本件開示の車両検出装置10と、車両1、カメラ2および画像入力部3との概略の関係を示す。   FIG. 1 shows an embodiment of a vehicle detection device. FIG. 1 shows a schematic relationship between the vehicle detection device 10 of the present disclosure and the vehicle 1, the camera 2, and the image input unit 3.

図1に示すカメラ2は、例えば、車両1の斜め前方からこの車両1を撮影する。カメラ2は、道路わきの街灯の支柱などに、道路上を走行する車両1を視野内に捉えることが可能な角度で設置してもよい。   The camera 2 shown in FIG. 1 images the vehicle 1 from, for example, an oblique front of the vehicle 1. The camera 2 may be installed at an angle at which the vehicle 1 traveling on the road can be caught in the field of view, such as on a street lamp post.

画像入力部3は、このカメラ2によって撮影される映像に含まれる画像を取得し、取得した画像を車両検出装置10に入力する。画像入力部3は、カメラ2からの映像に含まれる各フレームの画像を車両検出装置10に渡してもよいし、数フレームごとに画像を渡してもよい。   The image input unit 3 acquires an image included in video captured by the camera 2 and inputs the acquired image to the vehicle detection device 10. The image input unit 3 may pass the image of each frame included in the video from the camera 2 to the vehicle detection device 10 or may pass the image every few frames.

図1に示した車両検出装置10は、抽出部11と、算出部12と、生成部13と、検出部14とを有する。   The vehicle detection device 10 illustrated in FIG. 1 includes an extraction unit 11, a calculation unit 12, a generation unit 13, and a detection unit 14.

抽出部11は、入力された画像に含まれる車両1を表す部分である車両画像から、車両1の正面に位置する水平な直線成分を表す線分と、この車両1の正面における中央位置を示す部分とを含む特徴部位を抽出する。   The extraction unit 11 indicates a line segment representing a horizontal linear component located in front of the vehicle 1 and a center position in front of the vehicle 1 from a vehicle image that is a part representing the vehicle 1 included in the input image. A feature portion including a portion is extracted.

図2に、画像から抽出される特徴部位を説明する図を示す。図2に示す符号1gは、画像に含まれる車両1を表す部分である車両画像である。図2に示す符号E1〜E6および符号M1,M2は、車両画像1gから抽出される特徴部位の例である。   FIG. 2 is a diagram for explaining the characteristic part extracted from the image. Reference numeral 1g shown in FIG. 2 is a vehicle image that is a portion representing the vehicle 1 included in the image. Reference signs E1 to E6 and reference signs M1 and M2 shown in FIG. 2 are examples of characteristic parts extracted from the vehicle image 1g.

符号E1〜E6で示す破線は、車両1の正面に位置する水平な直線成分に対応する線分の例である。図2の例では、符号E1は、車両1のフロントガラスの上側とルーフの境界線に対応する。また、符号E2は、車両1のフロントガラスの下側とボンネットとの境界線に対応する。また、符号E3は、車両1のフロントグリルの下側とバンパーとの境界線に対応する。また、符号E4は、車両1のナンバープレートの輪郭の上側に対応する。また、符号E5は、車両1のバンパーに形成された溝状の構造に対応する。そして、符号E6は、車両1のバンパーの輪郭の下側に対応する。   Broken lines indicated by reference numerals E1 to E6 are examples of line segments corresponding to horizontal straight line components located in front of the vehicle 1. In the example of FIG. 2, the symbol E <b> 1 corresponds to the boundary line between the upper side of the windshield of the vehicle 1 and the roof. Moreover, the code | symbol E2 respond | corresponds to the boundary line of the lower side of the windshield of the vehicle 1, and a bonnet. The symbol E3 corresponds to the boundary line between the lower side of the front grill of the vehicle 1 and the bumper. Reference numeral E4 corresponds to the upper side of the contour of the license plate of the vehicle 1. Reference numeral E5 corresponds to a groove-like structure formed in the bumper of the vehicle 1. The symbol E6 corresponds to the lower side of the bumper contour of the vehicle 1.

図2に示した符号M1,M2は、車両1の正面の中央位置を示す部分の抽出例である。図2の例では、符号M1は、ナンバープレートを示す。また、符号M2は、車両1にメーカーやブランドを示すエンブレムの例を示す。なお、抽出部11は、車両1の中央位置を示す部分として、上述したナンバープレートおよびエンブレムに加えて、フロントガラスの内側に貼付された車両検査証のシールなどを表す画像を抽出してもよい。また、抽出部11は、室内のバックミラーなどを表す画像を、車両1の正面の中央位置を示す部分として抽出してもよい。   Reference numerals M <b> 1 and M <b> 2 illustrated in FIG. 2 are extraction examples of portions indicating the center position of the front surface of the vehicle 1. In the example of FIG. 2, the code | symbol M1 shows a license plate. Reference numeral M <b> 2 indicates an example of an emblem indicating a manufacturer or a brand on the vehicle 1. In addition to the number plate and emblem described above, the extraction unit 11 may extract an image representing a seal of a vehicle inspection certificate affixed to the inside of the windshield as a portion indicating the center position of the vehicle 1. . In addition, the extraction unit 11 may extract an image representing an indoor rearview mirror or the like as a portion indicating the center position of the front of the vehicle 1.

図1に示した算出部12は、中央位置を示す部分とこの中央位置を示す部分に近接する線分の相対位置に基づいて、当該線分において、対応する直線部分の中央を示す線分の中心を求める。また、算出部12は、この線分の中心から当該線分の一端までの距離と、この線分の中心から当該線分の他端までの距離との比を算出する。   The calculation unit 12 illustrated in FIG. 1 has a line segment indicating the center of a corresponding straight line portion in the line segment based on the relative position of the line segment adjacent to the portion indicating the center position and the portion indicating the center position. Find the center. Further, the calculation unit 12 calculates a ratio between the distance from the center of the line segment to one end of the line segment and the distance from the center of the line segment to the other end of the line segment.

図3に、特徴部位の相対位置を説明する図を示す。図3は、図2に示した線分E3,E5と、符号M1で示した画像中のナンバープレートとの相対位置の例である。   FIG. 3 is a diagram for explaining the relative positions of the characteristic portions. FIG. 3 is an example of the relative positions of the line segments E3 and E5 shown in FIG. 2 and the license plate in the image indicated by reference numeral M1.

図3に示した例では、符号M1で示した画像中のナンバープレートにおいて、実際の車両1のナンバープレートの水平方向の中央位置に対応する位置は、線分E5上の点C5の位置である。図3の例では、符号C5で示した三角形により、この点C5の位置を示した。この点C5は、線分E5に対応する車両1の直線部分の中央に対応する、線分E5の中心である。   In the example shown in FIG. 3, in the license plate in the image indicated by reference numeral M1, the position corresponding to the center position in the horizontal direction of the actual license plate of the vehicle 1 is the position of the point C5 on the line segment E5. . In the example of FIG. 3, the position of this point C5 is indicated by a triangle indicated by reference numeral C5. This point C5 is the center of the line segment E5 corresponding to the center of the straight line portion of the vehicle 1 corresponding to the line segment E5.

算出部12は、この点C5から線分E5の一方の端点までの距離aと、点C5から線分E5の他端までの距離bとの比a:bを算出する。この比a:bは、図1に示したカメラ2の撮影方向と車両1の正面方向との間の傾き角を反映している。したがって、上述した線分E5とともに車両画像1gから抽出された線分E3を上述した比a:bで内分する点C3は、この線分E3において、対応する車両1の直線部分の中央に対応する点であり、この線分E3の中心である。なお、図3の例では、符号C3で示した三角形により、この線分E3を比a:bで内分する点、すなわち、線分E3の中心の位置を示した。同様に、図2に示した線分E1,E2,E4,E6をそれぞれ比a:bで内分する内分点は、各線分に対応する車両1の直線部分の中央に対応する、各線分の中心である。図2に符号C1〜C6で示した三角形は、各線分E1〜E6の中心を示す。   The calculation unit 12 calculates a ratio a: b between the distance a from the point C5 to one end point of the line segment E5 and the distance b from the point C5 to the other end of the line segment E5. The ratio a: b reflects an inclination angle between the shooting direction of the camera 2 shown in FIG. 1 and the front direction of the vehicle 1. Therefore, the point C3 that internally divides the line segment E3 extracted from the vehicle image 1g together with the above-described line segment E5 with the above-described ratio a: b corresponds to the center of the straight line portion of the corresponding vehicle 1 in the line segment E3. And is the center of this line segment E3. In the example of FIG. 3, the triangle indicated by the symbol C3 indicates the point at which the line segment E3 is internally divided by the ratio a: b, that is, the center position of the line segment E3. Similarly, an internal dividing point that internally divides the line segments E1, E2, E4, and E6 shown in FIG. 2 at a ratio a: b corresponds to each line segment corresponding to the center of the straight line portion of the vehicle 1 corresponding to each line segment. Is the center of The triangles denoted by reference numerals C1 to C6 in FIG. 2 indicate the centers of the line segments E1 to E6.

図1に示した生成部13は、算出部12で算出された比a:bに基づいて、抽出部11で抽出された各線分を内分する内分点を求める。また、生成部13は、各線分について求めた内分点を互いに結ぶことにより、中心線を生成する。   The generation unit 13 illustrated in FIG. 1 obtains an internal dividing point that internally divides each line segment extracted by the extraction unit 11 based on the ratio a: b calculated by the calculation unit 12. Moreover, the production | generation part 13 produces | generates a centerline by connecting the internal dividing points calculated | required about each line segment mutually.

上述したように、抽出部11によって抽出された各線分を上述した比a:bで内分する内分点は、各線分に対応する車両1の直線部分の中央に対応する、各線分の中心である。したがって、これらを結んで生成される車両画像1gにおける中心線は、実際の車両1の正面の中心線に対応する。   As described above, the internal dividing point that internally divides each line segment extracted by the extraction unit 11 with the above-described ratio a: b is the center of each line segment corresponding to the center of the straight line portion of the vehicle 1 corresponding to each line segment. It is. Therefore, the center line in the vehicle image 1 g generated by connecting these corresponds to the center line of the front of the actual vehicle 1.

図2に、各線分E1〜E6について求めた内分点C1〜C6を順に接続して得られる中心線CLの例を示した。   FIG. 2 shows an example of the center line CL obtained by sequentially connecting the internal dividing points C1 to C6 obtained for the line segments E1 to E6.

図1に示した検出部14は、車両画像1gのうち、上述したようにして生成された中心線を境界として、車両1を正面から見たときの左側に対応する部分と右側に対応する部分とを互いに比較する。そして、検出部14は、比較結果に基づいて、中心線を基準として非対称な特徴を持つ部分を車両画像1gから検出する。   The detection unit 14 illustrated in FIG. 1 includes, in the vehicle image 1g, a portion corresponding to the left side and a portion corresponding to the right side when the vehicle 1 is viewed from the front, with the center line generated as described above as a boundary. Are compared with each other. And the detection part 14 detects the part which has an asymmetric characteristic on the basis of a centerline from the vehicle image 1g based on a comparison result.

検出部14は、例えば、フロントガラスやボンネットなどのように、正常な状態では左右対称である部品の左側部分の輪郭と右側部分の輪郭とを、次のようにして比較して、非対称な部分を検出してもよい。   The detection unit 14 compares the outline of the left part and the right part of a part that is symmetrical in a normal state, such as a windshield and a bonnet, in the following manner, to compare the asymmetric part May be detected.

図4に、検出部の処理例を説明する図を示す。図4は、車両画像1gに含まれるフロントガラスの輪郭を示すエッジを中心線を挟んで左側部分と右側部分とで比較する例である。   FIG. 4 is a diagram illustrating a processing example of the detection unit. FIG. 4 is an example in which the edge indicating the contour of the windshield included in the vehicle image 1g is compared between the left part and the right part across the center line.

例えば、検出部14は、フロントガラスの輪郭の下側に対応する線分E2に平行な直線Qを用いて、フロントガラス部分の対称性を調べてもよい。   For example, the detection unit 14 may check the symmetry of the windshield portion using the straight line Q parallel to the line segment E2 corresponding to the lower side of the windshield contour.

図4に示した符号Qは、フロントガラスの輪郭の下側に対応する線分E2に平行な直線である。また、符号QL,QRは、フロントガラスの輪郭に対応して車両画像1gに含まれるエッジの左側部分および右側部分と上述した直線Qとの交点である。また、符号QCは、中心線CLと直線Qとの交点である。   The symbol Q shown in FIG. 4 is a straight line parallel to the line segment E2 corresponding to the lower side of the contour of the windshield. Reference numerals QL and QR are intersections of the left and right edges of the edge included in the vehicle image 1g corresponding to the contour of the windshield and the straight line Q described above. Reference QC is the intersection of the center line CL and the straight line Q.

検出部14は、図4に示した交点QL,QRと、交点QCとの距離XL、XRをそれぞれ算出する。次いで、検出部14は、距離の比XL:XRを算出し、この距離の比XL:XRと、算出部12で算出した比a:bとを比較する。この比較結果に基づいて、検出部14は、距離の比XL:XRが、比a:bから所定の閾値以上にずれている箇所を、中心線に対して非対称な部分として検出する。同様にして、検出部14は、車両1のボンネットの凹みなどに伴って車両画像1gのエッジに現れる非対称な部分を検出することができる。   The detection unit 14 calculates distances XL and XR between the intersection points QL and QR shown in FIG. 4 and the intersection point QC, respectively. Next, the detection unit 14 calculates a distance ratio XL: XR, and compares the distance ratio XL: XR with the ratio a: b calculated by the calculation unit 12. Based on the comparison result, the detection unit 14 detects a portion where the distance ratio XL: XR deviates from the ratio a: b by a predetermined threshold or more as an asymmetric portion with respect to the center line. Similarly, the detection unit 14 can detect an asymmetric part that appears at the edge of the vehicle image 1g due to the dent of the hood of the vehicle 1 or the like.

また、検出部14は、中心線からの距離の比が算出部12で得られた比a:bとなる画素を中心とする所定の領域ごとに、輝度値の平均や色を比較することにより、非対称な領域を検出してもよい。   In addition, the detection unit 14 compares the average luminance value and the color for each predetermined region centering on a pixel whose ratio a: b is the ratio of the distance from the center line obtained by the calculation unit 12. An asymmetric region may be detected.

このようにして検出された領域は、被写体となっている車両1において、正面から見て左側と右側とで非対称な特徴を示す部分に相当する。つまり、検出部14の処理により、車両1を斜め方向から撮影するカメラ2によって取得された車両画像1gに基づいて、車両1が持っている非対称な特徴を検出することができる。   The area detected in this way corresponds to a portion of the vehicle 1 that is the subject that exhibits asymmetric characteristics between the left side and the right side when viewed from the front. That is, the processing of the detection unit 14 can detect an asymmetric feature of the vehicle 1 based on the vehicle image 1g acquired by the camera 2 that captures the vehicle 1 from an oblique direction.

このように、本件開示の車両検出装置によれば、斜め方向から撮影された画像に基づいて、車両1に非対称な部分があるか否かを判断することができる。つまり、本件開示の車両検出装置によれば、道路を走行する車両を正面以外の方向から撮影するカメラによって得られる画像から、非対称な特徴を持つ車両を検出することが可能となる。これにより、車両の認識に利用する画像を取得するためのカメラを高い自由度で設置することができる。このような特徴は、例えば、道路を走行する車両の中から特定の特徴を持つ車両を検出するシステムなどに有用である。また、本件開示の車両検出装置は、車両検査場などでの簡易検査などにも適用が可能である。   As described above, according to the vehicle detection device of the present disclosure, it is possible to determine whether or not the vehicle 1 has an asymmetric portion based on an image captured from an oblique direction. That is, according to the vehicle detection device of the present disclosure, it is possible to detect a vehicle having an asymmetric feature from an image obtained by a camera that captures a vehicle traveling on a road from a direction other than the front. Thereby, the camera for acquiring the image used for vehicle recognition can be installed with a high degree of freedom. Such a feature is useful, for example, in a system that detects a vehicle having a specific feature from vehicles traveling on a road. In addition, the vehicle detection device disclosed herein can be applied to simple inspections at vehicle inspection sites and the like.

なお、検出部14の処理は、以上で説明した手法のほかにも、後述するように、様々な手法で実現することができる。また、本件開示の車両検出装置は、コンピュータ装置を用いて実現することができる。   In addition to the method described above, the processing of the detection unit 14 can be realized by various methods as described later. Further, the vehicle detection device disclosed herein can be realized using a computer device.

図5に、コンピュータ装置の機能ブロック図を示す。図5に示したコンピュータ装置は、プロセッサ21と、メモリ22と、ハードディスク装置(HDD:Hard Disk Drive)23と、表示制御部24と、表示装置25と、入力装置26とを含む。更に、コンピュータ装置は、光学ドライブ装置28と、通信制御部29を含む。   FIG. 5 shows a functional block diagram of the computer apparatus. The computer apparatus shown in FIG. 5 includes a processor 21, a memory 22, a hard disk device (HDD: Hard Disk Drive) 23, a display control unit 24, a display device 25, and an input device 26. Further, the computer device includes an optical drive device 28 and a communication control unit 29.

プロセッサ21と、メモリ22と、HDD23と、表示制御部24と、入力装置26と、光学ドライブ装置28と、通信制御部29とは、バスを介して接続される。また、通信制御部29は、ネットワーク30に接続される。また、コンピュータ装置は、例えば、画像入力インタフェース部27を介して、図1に示したカメラ2からの映像信号を受け取ってもよい。また、コンピュータ装置は、通信制御部29およびネットワークを介して、カメラ2からの映像信号を受け取ってもよい。   The processor 21, the memory 22, the HDD 23, the display control unit 24, the input device 26, the optical drive device 28, and the communication control unit 29 are connected via a bus. The communication control unit 29 is connected to the network 30. Further, the computer device may receive a video signal from the camera 2 shown in FIG. 1 via, for example, the image input interface unit 27. Further, the computer device may receive a video signal from the camera 2 via the communication control unit 29 and the network.

HDD23には、オペレーティングシステムおよび車両画像に基づいて非対称な特徴を持つ車両を検出する処理を実行するためのアプリケーションプログラムが格納されている。アプリケーションプログラムは、本件開示の車両検出方法に含まれる各処理を実行するためのプログラムを含む。なお、車両検出処理を実行するためのアプリケーションプログラムは、例えば、コンピュータ読取可能なリムーバブルディスク31に記録して頒布することができる。そして、このリムーバブルディスク31を光学ドライブ装置28に装着して読み込み処理を行うことにより、車両検出処理を実行するためのアプリケーションプログラムは、HDD23にインストールされる。また、インターネットなどのネットワーク30と通信制御部29を介して、車両検出処理を実行するためのアプリケーションプログラムをHDD23にインストールすることもできる。   The HDD 23 stores an application program for executing processing for detecting a vehicle having an asymmetric feature based on the operating system and the vehicle image. The application program includes a program for executing each process included in the vehicle detection method disclosed herein. The application program for executing the vehicle detection process can be recorded and distributed on the computer-readable removable disk 31, for example. The application program for executing the vehicle detection process is installed in the HDD 23 by mounting the removable disk 31 in the optical drive device 28 and performing the reading process. In addition, an application program for executing vehicle detection processing can be installed in the HDD 23 via the network 30 such as the Internet and the communication control unit 29.

図5に例示したコンピュータ装置は、プロセッサ21、メモリ22などのハードウェアと、オペレーティングシステムおよびアプリケーションプログラムなどのプログラムとが有機的に協働することにより、上述した各種機能を実現する。   The computer apparatus illustrated in FIG. 5 realizes the above-described various functions by organically cooperating hardware such as the processor 21 and the memory 22 and programs such as an operating system and application programs.

また、図1に示した抽出部11、算出部12、生成部13および検出部14は、それぞれ、プロセッサ21が対応するプログラムを実行することによって実現してもよい。同様に、図1に示した画像入力部3は、プロセッサ21と画像入力インタフェース27と映像信号から画像を取得するためのプログラムとの組み合わせによって実現してもよいし、プロセッサ21と通信制御部29との組み合わせによって実現してもよい。また、図1に示した各部の処理過程で生成される情報は、メモリ22あるいはHDD23などに格納される。   Moreover, you may implement | achieve the extraction part 11, the calculation part 12, the production | generation part 13, and the detection part 14 which were shown in FIG. 1 respectively, when the processor 21 runs the corresponding program. Similarly, the image input unit 3 shown in FIG. 1 may be realized by a combination of the processor 21, the image input interface 27, and a program for acquiring an image from a video signal, or the processor 21 and the communication control unit 29. You may implement | achieve by the combination. Further, information generated in the process of each unit shown in FIG. 1 is stored in the memory 22 or the HDD 23.

図6に、非対称車両を検出する処理を表す流れ図を示す。図6に示した各ステップの処理は、プロセッサ21により、車両検出処理を実行するためのアプリケーションプログラムに従って実行される。   FIG. 6 is a flowchart showing processing for detecting an asymmetric vehicle. The processing of each step shown in FIG. 6 is executed by the processor 21 in accordance with an application program for executing vehicle detection processing.

車両検出処理に先立って、プロセッサ21は、例えば、画像入力インタフェース27および画像取得処理のためのプログラムと協働することにより、カメラ2によって撮影される映像から画像を取得する(ステップ301)。プロセッサ21は、映像から取得した画像を、以降に述べる非対称車両を検出する処理に利用する。なお、プロセッサ21は、カメラ2によって撮影される映像に含まれる各フレームに対応する画像あるいは所定数のフレームごとに抽出したフレームに対応する画像を取得する。   Prior to the vehicle detection process, the processor 21 acquires an image from the video imaged by the camera 2 by cooperating with, for example, the image input interface 27 and a program for the image acquisition process (step 301). The processor 21 uses the image acquired from the video for processing for detecting an asymmetric vehicle described below. The processor 21 acquires an image corresponding to each frame included in the video imaged by the camera 2 or an image corresponding to a frame extracted every predetermined number of frames.

プロセッサ21は、上述したアプリケーションプログラムに含まれる抽出部11を実現するためのプログラムと協働することにより、例えば、画像入力インタフェース27を介して入力される画像から特徴部位を抽出する処理を行う(ステップ302)。プロセッサ21は、例えば、入力された画像に対応するエッジ画像から、所定の閾値以上の長さを持つ線分を抽出することにより、車両1の正面の水平な直線成分に対応する線分を抽出する。また、プロセッサ21は、例えば、パターンマッチング技術を利用して、入力された画像からナンバープレートあるいはエンブレムなど車両1の中央に配置される部材に対応する特徴部位を抽出する。   The processor 21 cooperates with a program for realizing the extraction unit 11 included in the application program described above, thereby performing, for example, processing for extracting a feature part from an image input via the image input interface 27 ( Step 302). For example, the processor 21 extracts a line segment corresponding to a horizontal straight line component in front of the vehicle 1 by extracting a line segment having a length equal to or greater than a predetermined threshold from an edge image corresponding to the input image. To do. Further, the processor 21 extracts, for example, a characteristic part corresponding to a member arranged at the center of the vehicle 1 such as a license plate or an emblem from the input image using a pattern matching technique.

次いで、プロセッサ21は、上述したアプリケーションプログラムに含まれる算出部12を実現するためのプログラムと協働することにより、車両1の正面の水平方向の中心に対応する線分の中心から両端までの距離の比を算出する処理を行う(ステップ303)。プロセッサ21は、例えば、図2および図3を用いて説明したようにして、車両1の中央を示す部分の位置に基づいて、この中央を示す部分に近接する線分の中心を特定し、この線分の中心がこの線分を内分する比を算出する。   Next, the processor 21 cooperates with the program for realizing the calculation unit 12 included in the above-described application program, whereby the distance from the center of the line segment corresponding to the center in the horizontal direction of the front of the vehicle 1 to both ends. A process for calculating the ratio is performed (step 303). For example, as described with reference to FIGS. 2 and 3, the processor 21 specifies the center of the line segment that is close to the portion indicating the center based on the position of the portion indicating the center of the vehicle 1. The ratio at which the center of the line segment internally divides this line segment is calculated.

次に、プロセッサ21は、上述したアプリケーションプログラムに含まれる生成部13を実現するためのプログラムと協働することにより、中心線を生成する処理を行う(ステップ304)。例えば、プロセッサ21は、ステップ303で算出した比に基づいて、各線分を内分する内分点を順次に接続することにより、中心線を生成する。   Next, the processor 21 performs a process of generating a center line by cooperating with a program for realizing the generating unit 13 included in the application program described above (step 304). For example, the processor 21 generates a center line by sequentially connecting internal dividing points that internally divide each line segment based on the ratio calculated in step 303.

そして、プロセッサ21は、上述したアプリケーションプログラムに含まれる検出部14を実現するためのプログラムと協働して、この中心線を挟んで、車両1の左側部分に対応する画像と右側部分に対応する画像とを比較する。そして、この比較結果に基づいて、プロセッサ21は、中心線を基準として非対称な特徴を持つ画像の領域を検出する(ステップ305)。このステップ304の処理で検出された領域は、被写体となっている車両1において、中心線の左側と右側とで非対称な特徴を示す部分に相当する。   The processor 21 cooperates with the program for realizing the detection unit 14 included in the application program described above, and corresponds to the image corresponding to the left portion of the vehicle 1 and the right portion across the center line. Compare the image. Based on the comparison result, the processor 21 detects an image region having an asymmetric feature with respect to the center line (step 305). The region detected by the process of step 304 corresponds to a portion that shows asymmetric characteristics between the left side and the right side of the center line in the vehicle 1 that is the subject.

したがって、プロセッサ21は、ステップ305の処理で非対称な特徴を持つ画像の領域を検出したか否かに基づいて、車両1が非対称な特徴を持っているか否かを判断することができる。そして、プロセッサ21は、この判断結果に基づいて、検出した非対称な領域を示す情報あるいは非対称な特徴がない旨の情報を、例えば、車両1を識別する情報に対応して、メモリ22あるいはHDD23に格納してもよい。   Therefore, the processor 21 can determine whether or not the vehicle 1 has an asymmetric feature based on whether or not an image region having an asymmetric feature has been detected in the process of step 305. Then, based on the determination result, the processor 21 stores information indicating the detected asymmetric area or information indicating that there is no asymmetric feature, for example, in the memory 22 or the HDD 23 corresponding to the information for identifying the vehicle 1. It may be stored.

なお、プロセッサ21は、上述した処理で得られた検出結果を、表示制御部24を介して表示装置25に表示させてもよい。また、プロセッサ21は、上述した処理で得られた検出結果を、通信制御部29およびネットワーク30を介して、別のコンピュータ装置に通知してもよい。   Note that the processor 21 may cause the display device 25 to display the detection result obtained by the above-described processing via the display control unit 24. Further, the processor 21 may notify the detection result obtained by the above-described process to another computer device via the communication control unit 29 and the network 30.

以下、本件開示の車両検出装置の別実施形態について説明する。   Hereinafter, another embodiment of the vehicle detection device disclosed herein will be described.

図7に、車両検出装置の別実施形態を示す。なお、図7に示した構成要素のうち、図1に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 7 shows another embodiment of the vehicle detection device. 7 that are the same as those shown in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.

図7に示した画像入力3は、図1に示したカメラ2によって撮影された映像から抽出した画像を、車両検出部10と既存のナンバープレート認識装置4とに入力する。   The image input 3 shown in FIG. 7 inputs the image extracted from the image | video image | photographed with the camera 2 shown in FIG. 1 to the vehicle detection part 10 and the existing license plate recognition apparatus 4. FIG.

ナンバープレート認識装置4は、ナンバープレート抽出部4−aと、ナンバー認識処理部4−bとを有する。ナンバープレート抽出部4−aは、画像入力部3から受け取った画像に対してパターンマッチング処理などの画像処理を行うことにより、画像に含まれるナンバープレート部分を抽出する。ナンバー認識処理部4−bは、抽出されたナンバープレート部分の画像を解析することにより、カメラ2によって撮影された車両1の登録ナンバーを認識する。ナンバープレート抽出部4−aは、画像から抽出したナンバープレート部分について、画像における位置を示す情報を出力してもよい。例えば、ナンバープレート抽出部4−aは、画像に含まれるナンバープレート部分の範囲の境界を示す画素のアドレスなどを、ナンバープレート部分の画像における位置を示す情報として出力してもよい。   The license plate recognition device 4 includes a license plate extraction unit 4-a and a number recognition processing unit 4-b. The license plate extraction unit 4-a performs image processing such as pattern matching processing on the image received from the image input unit 3, thereby extracting a license plate portion included in the image. The number recognition processing unit 4-b recognizes the registered number of the vehicle 1 photographed by the camera 2 by analyzing the extracted image of the license plate portion. The license plate extraction unit 4-a may output information indicating the position of the license plate portion extracted from the image. For example, the license plate extraction unit 4-a may output a pixel address indicating the boundary of the range of the license plate portion included in the image as information indicating the position of the license plate portion in the image.

図7に例示した抽出部11は、画像処理部212と線分抽出部213とエンブレム抽出部214とを有する。画像処理部212は、画像入力部3によって入力される画像から、車両1を表す車両画像を抽出する。エンブレム抽出部214は、抽出された車両画像からエンブレムを表す部分を抽出する。エンブレム抽出部214は、エンブレムを表す部分として抽出した画像の領域の位置を示す情報を、車両1の中央を示す特徴部位の位置を示す情報の一つとして出力する。また、画像処理部212は、抽出した車両画像からエッジ成分を抽出して、エッジ画像を生成する。線分抽出部213は、生成されたエッジ画像から、車両1の正面において水平方向に伸びる直線部分に対応する線分を抽出する。線分抽出部213は、例えば、エッジ画像に含まれる所定値以上の長さを持つ直線部分の中から、後述する所定の条件に従って、水平方向に伸びる直線成分に対応する線分を抽出する。この線分抽出部213は、例えば、抽出した直線部分それぞれの両端の位置を示す情報を、抽出処理結果として出力してもよい。   The extraction unit 11 illustrated in FIG. 7 includes an image processing unit 212, a line segment extraction unit 213, and an emblem extraction unit 214. The image processing unit 212 extracts a vehicle image representing the vehicle 1 from the image input by the image input unit 3. The emblem extraction unit 214 extracts a portion representing the emblem from the extracted vehicle image. The emblem extraction unit 214 outputs information indicating the position of the region of the image extracted as a part representing the emblem as one of information indicating the position of the characteristic part indicating the center of the vehicle 1. Further, the image processing unit 212 extracts edge components from the extracted vehicle image to generate an edge image. The line segment extraction unit 213 extracts a line segment corresponding to a straight line portion extending in the horizontal direction in front of the vehicle 1 from the generated edge image. For example, the line segment extraction unit 213 extracts a line segment corresponding to a linear component extending in the horizontal direction from a straight line portion having a length equal to or greater than a predetermined value included in the edge image according to a predetermined condition described later. For example, the line segment extraction unit 213 may output information indicating the positions of both ends of each extracted straight line portion as an extraction processing result.

なお、エンブレム抽出部214は、車両特徴データベース5に蓄積された情報を利用して、車両1を表す部分として抽出された画像に含まれるエンブレム部分を抽出する処理を行ってもよい。   Note that the emblem extraction unit 214 may perform processing of extracting an emblem portion included in an image extracted as a portion representing the vehicle 1 using information stored in the vehicle feature database 5.

図7に示した車両特徴データベース5は、例えば、代表的な車種の車両について、車両に含まれる主要な部品の位置や形状を示す特徴情報を蓄積している。車両特徴データベース4に蓄積される特徴情報は、例えば、セダンタイプやワゴンタイプあるいは軽自動車などの各車種について、フロントガラスやボンネットの概略の形状や平均的なサイズなどを示す情報を含む。また、車両特徴データベース4に蓄積される特徴情報は、更に、代表的な自動車メーカー各社のエンブレムやマークの形状の特徴を示す情報を含んでもよい。   The vehicle feature database 5 illustrated in FIG. 7 stores, for example, feature information indicating the positions and shapes of main components included in a vehicle for a typical vehicle type. The feature information stored in the vehicle feature database 4 includes, for example, information indicating the approximate shape and average size of the windshield and bonnet for each vehicle type such as a sedan type, a wagon type, or a light vehicle. The feature information stored in the vehicle feature database 4 may further include information indicating the features of the emblems and mark shapes of representative automobile manufacturers.

また、図7に示した算出部12は、後述するようにして、車両1の中央を示す特徴部位の位置に基づいて、この特徴部位に近接する線分の中心を特定し、特定した線分の中心から当該線分の両端までの距離の比を算出する。算出部12は、算出した距離の比を、生成部13に渡す。   Further, as will be described later, the calculation unit 12 illustrated in FIG. 7 specifies the center of the line segment that is close to the feature part based on the position of the feature part that indicates the center of the vehicle 1, and specifies the specified line segment. The ratio of the distance from the center of the line to both ends of the line segment is calculated. The calculation unit 12 passes the calculated distance ratio to the generation unit 13.

図7に例示した生成部13は、座標計算部216と方程式生成部217とを有する。座標算出部216は、算出部12で算出された比を受け取り、この比に従って、線分抽出部213によって抽出された各線分をそれぞれ内分する点の座標を算出する。方程式生成部217は、座標算出部216で算出された座標に基づいて、これらの座標を順次に接続する複数の直線の方程式を生成する。これらの方程式によって表される折れ線は、車両画像1gにおいて、実際の車両1の正面の中心線に対応する。このようにして生成された中心線を示す情報は、検出部14に渡される。   The generation unit 13 illustrated in FIG. 7 includes a coordinate calculation unit 216 and an equation generation unit 217. The coordinate calculation unit 216 receives the ratio calculated by the calculation unit 12, and calculates the coordinates of the points that internally divide each line segment extracted by the line segment extraction unit 213 according to this ratio. The equation generation unit 217 generates a plurality of linear equations that sequentially connect these coordinates based on the coordinates calculated by the coordinate calculation unit 216. The broken line represented by these equations corresponds to the center line of the front of the actual vehicle 1 in the vehicle image 1g. Information indicating the center line generated in this way is passed to the detection unit 14.

図7に例示した検出部14は、部分画像抽出部218と、変形部219と、照合部220と、対称性判定部221とを有する。部分画像抽出部218は、車両画像から、例えば、車両1に含まれる左右対称な形状を有する部品それぞれを表す画像の部分を抽出する。部分画像抽出部218は、個々の部品を表す画像の部分を抽出する処理に、車両特徴データベース5に蓄積された特徴情報を利用してもよい。部分画像抽出部218によって抽出された各部品の画像は、上述した中心線を境界として、車両1の正面から見て左側部分に対応する左側画像と右側部分に対応する右側画像とに分けることができる。変形部219は、抽出された各部品に対応する画像に含まれる左側画像と右側画像を、算出部12によって算出された比に基づいてそれぞれ変形する。照合部220は、変形された左側画像と右側画像とを中心線を基準として照合する。この照合結果に基づいて、対称性判定部221は、上述した個々の部品について、中心線を基準にして左側の形状と右側の形状に非対称な特徴があるか否かを判定する。検出部14は、各部品について対称性判定部221によって得られた判定結果に基づく検出結果を出力する。   The detection unit 14 illustrated in FIG. 7 includes a partial image extraction unit 218, a deformation unit 219, a collation unit 220, and a symmetry determination unit 221. The partial image extraction unit 218 extracts, from the vehicle image, for example, a portion of an image that represents each of the components having a symmetrical shape included in the vehicle 1. The partial image extraction unit 218 may use the feature information stored in the vehicle feature database 5 for the process of extracting the portion of the image representing each part. The image of each component extracted by the partial image extraction unit 218 can be divided into a left image corresponding to the left portion and a right image corresponding to the right portion as viewed from the front of the vehicle 1 with the above-described center line as a boundary. it can. The deforming unit 219 respectively deforms the left image and the right image included in the image corresponding to each extracted component based on the ratio calculated by the calculating unit 12. The collation unit 220 collates the deformed left image and right image with the center line as a reference. Based on the collation result, the symmetry determination unit 221 determines whether or not each of the above-described parts has an asymmetric feature between the left shape and the right shape with respect to the center line. The detection unit 14 outputs a detection result based on the determination result obtained by the symmetry determination unit 221 for each component.

図7に示した結果保存部6は、検出部14によって得られた検出結果を車両認識データベース8に保存する。結果通知部7は、検出部14によって車両1ごとに得られる検出結果を示す情報、あるいは、車両認識データベース8に複数の車両について保存された検出結果を示す情報を一括して通知する処理を行う。   The result storage unit 6 illustrated in FIG. 7 stores the detection result obtained by the detection unit 14 in the vehicle recognition database 8. The result notification unit 7 performs a process of collectively reporting information indicating detection results obtained for each vehicle 1 by the detection unit 14 or information indicating detection results stored for a plurality of vehicles in the vehicle recognition database 8. .

図7に示した制御部9は、図7に示した各部の間の情報のやり取りを制御する処理を行う。例えば、画像処理部212によって抽出された車両画像は、制御部9を介して、部分画像抽出部218に渡される。また、ナンバープレート認識装置4による認識結果は、制御部9を介して対称性判定部221にも渡される。また、結果通知部7は、例えば、制御部9を介して、オペレータや他のシステムに対して、上述した検出結果を示す情報を通知する。   The control unit 9 illustrated in FIG. 7 performs processing for controlling the exchange of information between the units illustrated in FIG. For example, the vehicle image extracted by the image processing unit 212 is passed to the partial image extraction unit 218 via the control unit 9. The recognition result by the license plate recognition device 4 is also passed to the symmetry determination unit 221 via the control unit 9. In addition, the result notification unit 7 notifies the operator and other systems of information indicating the detection result described above, for example, via the control unit 9.

図7に示した各部の処理は、図5に例示したコンピュータ装置に含まれるプロセッサ21、メモリ22などのハードウェアと、オペレーティングシステムおよびアプリケーションプログラムなどのプログラムとが有機的に協働することによって実現されてもよい。   The processing of each unit illustrated in FIG. 7 is realized by organic cooperation between hardware such as the processor 21 and the memory 22 included in the computer apparatus illustrated in FIG. 5 and programs such as an operating system and application programs. May be.

次に、抽出部11、算出部13、生成部13および検出部14の処理についてそれぞれ説明する。   Next, processing of the extraction unit 11, the calculation unit 13, the generation unit 13, and the detection unit 14 will be described.

図8に、特徴部位を抽出する処理を表す流れ図を示す。図8に示した各ステップは、図6に示したステップ302の処理の一例である。図8に示した各ステップは、それぞれ制御部9と抽出部11に含まれる各部によって実行される。   FIG. 8 is a flowchart showing the process of extracting the characteristic part. Each step shown in FIG. 8 is an example of the process of step 302 shown in FIG. Each step shown in FIG. 8 is executed by each unit included in the control unit 9 and the extraction unit 11, respectively.

画像入力部3からの画像を受け取った画像処理部212は、画像に含まれる車両1を表す部分を車両画像として抽出する処理を行う(ステップ302−1)。車両画像を抽出する処理には、例えば、背景との色の違いを利用する技術などの公知技術を利用することができる。   The image processing unit 212 that has received the image from the image input unit 3 performs a process of extracting a portion representing the vehicle 1 included in the image as a vehicle image (step 302-1). For the process of extracting the vehicle image, for example, a known technique such as a technique using a color difference from the background can be used.

画像処理部212により、車両画像を抽出できなかった場合に(ステップ302−2の否定判定)、処理は、制御部211を介して、図6のステップ301に戻される。そして、新たな画像が画像入力部3から入力されたときに、画像処理部212は、再び、この新たな画像から車両画像を抽出する処理を行う。   When the vehicle image cannot be extracted by the image processing unit 212 (No determination in step 302-2), the process is returned to step 301 in FIG. 6 via the control unit 211. When a new image is input from the image input unit 3, the image processing unit 212 again performs a process of extracting a vehicle image from the new image.

一方、画像処理部212により、車両画像が抽出された場合に(ステップ302−2の肯定判定)、エンブレム抽出部214は、車両画像からエンブレムを表す部分を抽出する処理を行う(ステップ302−3)。また、このとき、ナンバープレート抽出部4−aにより、同じ車両画像からナンバープレート部分を抽出する処理が行われる。そして、制御部9は、ナンバープレート抽出部4−aからナンバープレートの位置を示す情報を受け取る(ステップ302−4)。   On the other hand, when the vehicle image is extracted by the image processing unit 212 (Yes in Step 302-2), the emblem extraction unit 214 performs a process of extracting a portion representing the emblem from the vehicle image (Step 302-3). ). At this time, the license plate extraction unit 4-a performs processing for extracting the license plate portion from the same vehicle image. And the control part 9 receives the information which shows the position of a license plate from the license plate extraction part 4-a (step 302-4).

ナンバープレートの位置を示す情報を受け取ったときに(ステップ302−5の肯定判定)、制御部9は、ナンバープレートの検出は成功したと判断する。そして、制御部9は、車両1に対応する認識結果を示す情報の一部として、ナンバープレートの検出成功を示す情報と当該ナンバープレートの位置を示す情報とを記録する(ステップ302−6)。例えば、制御部9は、ナンバープレートを表す四角形の各頂点に対応する画素のアドレスを、ナンバープレートの位置を示す情報として記録してもよい。一方、ナンバープレート抽出部4−aからナンバープレートの位置を示す情報が得られなかった場合に(ステップ302−5の否定判定)、制御部9は、ナンバープレートの抽出が失敗したと判断する。この場合に、制御部9は、車両1に対応する認識結果を示す情報の一部として、ナンバープレートの検出が失敗した旨の情報を記録する(ステップ302−7)。   When the information indicating the position of the license plate is received (affirmative determination in step 302-5), the control unit 9 determines that the detection of the license plate is successful. And the control part 9 records the information which shows the detection result of a license plate, and the information which shows the position of the said license plate as a part of information which shows the recognition result corresponding to the vehicle 1 (step 302-6). For example, the control unit 9 may record the address of the pixel corresponding to each vertex of a quadrangle representing the license plate as information indicating the position of the license plate. On the other hand, when the information indicating the position of the license plate is not obtained from the license plate extraction unit 4-a (No in Step 302-5), the control unit 9 determines that the extraction of the license plate has failed. In this case, the control unit 9 records information indicating that the detection of the license plate has failed as part of the information indicating the recognition result corresponding to the vehicle 1 (step 302-7).

次いで、画像処理部212は、ステップ302−1で抽出した車両画像に対応するエッジ画像を生成する(ステップ302−8)。線分抽出部213は、生成されたエッジ画像から、車両1の正面の外形において水平方向の直線部分を示す複数の線分を抽出する(ステップ302−9)。線分抽出部213は、例えば、直線部分の傾きの範囲が所定の範囲内であることを条件として、車両1の正面の水平方向に伸びる直線部分を示す複数の線分を選択的に抽出してもよい。例えば、線分抽出部213は、図1に示したカメラ2の光軸方向と道路の走行車線の方向とがなす角に基づいて傾きの範囲を制限し、車両1の側面の直線成分に対応する線分を排除してもよい。これにより、線分抽出部213は、車両1の正面の水平方向に伸びる直線部分を示す線分を、車両画像から選択的に抽出する。なお、線分抽出部213は、抽出した各線分の両端に対応する画素のアドレスを、それぞれの線分の位置を示す情報として出力してもよい。   Next, the image processing unit 212 generates an edge image corresponding to the vehicle image extracted in Step 302-1 (Step 302-8). The line segment extraction unit 213 extracts, from the generated edge image, a plurality of line segments indicating a straight line portion in the horizontal direction in the outer shape of the front surface of the vehicle 1 (step 302-9). For example, the line segment extraction unit 213 selectively extracts a plurality of line segments indicating a straight line portion extending in the horizontal direction in front of the vehicle 1 on the condition that the inclination range of the straight line portion is within a predetermined range. May be. For example, the line segment extraction unit 213 limits the range of inclination based on the angle formed by the optical axis direction of the camera 2 and the direction of the road lane shown in FIG. You may exclude the line segment. Thereby, the line segment extraction part 213 selectively extracts the line segment which shows the straight line part extended in the horizontal direction of the front of the vehicle 1 from a vehicle image. Note that the line segment extraction unit 213 may output the addresses of the pixels corresponding to both ends of each extracted line segment as information indicating the position of each line segment.

なお、図8に示したステップ302−2のエンブレムの抽出処理、ステップ302−4〜ステップ302−7のナンバープレートの抽出に関連する処理およびステップ302−8〜ステップ302−9の線分の抽出に関連の実行順序は、図8と異なってもよい。   Note that the emblem extraction process in step 302-2 shown in FIG. 8, the process related to the license plate extraction in steps 302-4 to 302-7, and the line segment extraction in steps 302-8 to 302-9 are shown. The execution order related to may be different from that shown in FIG.

抽出部11に含まれる各部および制御部9が上述した処理を実行することにより、車両1を撮影した画像から、車両1の中央を示す部材の部分および車両1の正面の水平方向に伸びる直線部分に対応する線分を特徴部位として抽出することができる。   Each part included in the extraction unit 11 and the control unit 9 execute the above-described processing, so that a part of a member indicating the center of the vehicle 1 and a linear part extending in the horizontal direction in front of the vehicle 1 from the image of the vehicle 1 Can be extracted as a feature part.

次に、上述したようにして抽出された特徴部位の相対位置に基づく算出部12の処理について説明する。   Next, the process of the calculation part 12 based on the relative position of the characteristic part extracted as mentioned above is demonstrated.

図9に、算出部の処理の一例を表す流れ図を示す。図9に示した各ステップは、図6に示したステップ303の処理の一例である。図9に示した各ステップは、それぞれ制御部9と算出部12によって実行される。   FIG. 9 is a flowchart illustrating an example of processing performed by the calculation unit. Each step shown in FIG. 9 is an example of the process of step 303 shown in FIG. Each step shown in FIG. 9 is executed by the control unit 9 and the calculation unit 12, respectively.

ステップ303−1で、制御部9は、ナンバープレート抽出部4−aからナンバープレートの抽出が成功した旨が通知されたか否かを判定する。制御部9は、例えば、上述したステップ302−6でナンバープレートの検出が成功した旨の情報が車両1に対応する認識結果の一部として記録されている場合に、ナンバープレートの抽出の成功が通知されていると判断する(ステップ303−1の肯定判定)。この場合に、制御部9は、線分抽出部213で抽出された線分のいずれかとナンバープレートとの相対位置を調べる処理を行う(ステップ303−2)。制御部9は、例えば、上述したステップ302−6で記録されたナンバープレートの位置を示す情報と、ステップ302−9で抽出された線分の一つについて当該線分の位置を示す情報とに基づいて、ナンバープレートと線分との相対位置を調べてもよい。例えば、制御部9は、ナンバープレートの位置を示す情報に基づいて、車両画像においてナンバープレートに対応する四角形の底辺の中点に対応する画素のアドレスを特定する。そして、このアドレスと線分の一つの中点に対応する画素のアドレスとの差の大きさに基づいて、ナンバープレートと当該線分に対応する車両1の水平方向の直線部分との間に位置ずれがあるか否かを判定する。なお、位置ずれを判断する際に用いる線分は、車両1の画像において、ナンバープレートに対応する四角形に近接した位置から抽出された線分であることが望ましい。   In step 303-1, the control unit 9 determines whether or not the license plate extraction unit 4-a has notified that the license plate has been successfully extracted. For example, when the information indicating that the license plate has been successfully detected in step 302-6 described above is recorded as part of the recognition result corresponding to the vehicle 1, the control unit 9 determines that the license plate has been successfully extracted. It is determined that notification has been given (affirmative determination in step 303-1). In this case, the control unit 9 performs a process of examining the relative position between any of the line segments extracted by the line segment extraction unit 213 and the license plate (step 303-2). For example, the control unit 9 includes information indicating the position of the license plate recorded in step 302-6 described above and information indicating the position of the line segment for one of the line segments extracted in step 302-9. Based on this, the relative position between the license plate and the line segment may be examined. For example, the control unit 9 specifies the address of the pixel corresponding to the midpoint of the bottom of the quadrangle corresponding to the license plate in the vehicle image based on the information indicating the position of the license plate. Based on the magnitude of the difference between this address and the address of the pixel corresponding to the midpoint of one of the line segments, the position is located between the license plate and the horizontal straight line portion of the vehicle 1 corresponding to the line segment. It is determined whether or not there is a deviation. In addition, it is desirable that the line segment used when determining the positional deviation is a line segment extracted from a position close to a quadrangle corresponding to the license plate in the image of the vehicle 1.

上述したアドレスの差が所定の閾値以下である場合に、制御部9は、ナンバープレートは車両1の中央部に設置されていると判断する(ステップ303−3の肯定判定)。この場合に、制御部9は、算出部12に対して、車両1の中央を示す特徴部位としてナンバープレートを用いる旨を指示する。このとき、制御部9は、車両画像においてナンバープレートに対応する四角形の底辺の中点に対応する画素のアドレスを算出部12に渡してもよい。   When the above-described address difference is equal to or smaller than a predetermined threshold, the control unit 9 determines that the license plate is installed in the center of the vehicle 1 (affirmative determination in step 303-3). In this case, the control unit 9 instructs the calculation unit 12 to use the license plate as a characteristic part indicating the center of the vehicle 1. At this time, the control unit 9 may pass the address of the pixel corresponding to the midpoint of the base of the quadrangle corresponding to the license plate to the calculation unit 12 in the vehicle image.

算出部12は、制御部9から受け取った画素のアドレスと、線分抽出部213で抽出された線分の一つの位置を示す情報とに基づいて、ナンバープレートの中央位置に対応する当該線分上の点と当該線分の両端との距離の比を算出する(ステップ303−4)。例えば、算出部12は、制御部9から受け取った画素のアドレスに基づいて、車両画像においてナンバープレート部分に近接した位置から抽出された線分の中心の位置を特定する。この線分の中心は、当該線分に対応する車両1の正面の直線部分の中央に対応する。次いで、算出部12は、特定した位置を示す画素のアドレスと、当該線分の両端に対応する各画素のアドレスとの差から、特定した位置から両端までの距離をそれぞれ求め、求めた距離の比を算出する。   Based on the address of the pixel received from the control unit 9 and information indicating one position of the line segment extracted by the line segment extraction unit 213, the calculation unit 12 corresponds to the line segment corresponding to the center position of the license plate. The ratio of the distance between the upper point and both ends of the line segment is calculated (step 303-4). For example, the calculation unit 12 specifies the center position of the line segment extracted from the position close to the license plate portion in the vehicle image based on the pixel address received from the control unit 9. The center of this line segment corresponds to the center of the straight line portion in front of the vehicle 1 corresponding to the line segment. Next, the calculation unit 12 obtains the distance from the identified position to both ends from the difference between the address of the pixel indicating the identified position and the address of each pixel corresponding to both ends of the line segment, and calculates the calculated distance. Calculate the ratio.

一方、ナンバープレートに対応する四角形の底辺の中点の位置と注目している線分の中点の位置とが所定の閾値で示される距離より離れている場合に、制御部9は、ナンバープレートは中央から外れた位置にあると判断する(ステップ303−3否定判定)。この場合に、制御部9は、算出部12に対して、車両1の中央を示す特徴部位としてエンブレムを用いる旨を指示する。これに応じて、算出部12は、エンブレム部分の車両画像における位置を示す情報と、線分抽出部213で抽出された線分の一つの位置を示す情報とに基づいて、エンブレムの中央位置に対応する当該線分上の点と当該線分の両端との距離の比を算出する(ステップ303−5)。この場合に、算出部12は、エンブレム抽出部214で得られたエンブレム部分の車両画像における位置を示す情報から、エンブレムの中心の車両画像における位置を示す画素のアドレスを求めてもよい。例えば、算出部12は、求めた画素のアドレスに基づいて、車両1の画像においてエンブレムの部分に近接した位置から抽出された線分の中心の位置を特定する。次いで、算出部12は、特定した位置を示す画素のアドレスと、当該線分の両端に対応する各画素のアドレスとの差から、特定した位置から両端までの距離をそれぞれ求め、求めた距離の比を算出する。   On the other hand, when the position of the midpoint of the base of the quadrangle corresponding to the license plate and the position of the midpoint of the line segment of interest are separated from the distance indicated by the predetermined threshold, the control unit 9 Is determined to be at a position deviating from the center (No at Step 303-3). In this case, the control unit 9 instructs the calculation unit 12 to use the emblem as a characteristic part indicating the center of the vehicle 1. In response to this, the calculation unit 12 sets the center position of the emblem based on the information indicating the position of the emblem portion in the vehicle image and the information indicating one position of the line segment extracted by the line segment extraction unit 213. The ratio of the distance between the corresponding point on the line segment and both ends of the line segment is calculated (step 303-5). In this case, the calculation unit 12 may obtain an address of a pixel indicating the position of the center of the emblem in the vehicle image from the information indicating the position of the emblem portion in the vehicle image obtained by the emblem extraction unit 214. For example, the calculation unit 12 specifies the center position of the line segment extracted from the position close to the emblem portion in the image of the vehicle 1 based on the obtained pixel address. Next, the calculation unit 12 obtains the distance from the identified position to both ends from the difference between the address of the pixel indicating the identified position and the address of each pixel corresponding to both ends of the line segment, and calculates the calculated distance. Calculate the ratio.

なお、抽出部11において、エンブレムの代わりに、車両検査証のシールなどを表す部分が車両1の中央位置を示す特徴部位として車両画像から抽出される場合もある。この場合に、算出部12は、車両検査証のシールの位置を示す情報に基づいて、上述した比を算出してもよい。また、ナンバープレートの抽出が成功した場合に、算出部12は、上述したステップ303−4の処理に加えて、ステップ303−5の処理を行ってもよい。そして、算出部12は、ステップ303−4,303−5の処理でそれぞれ得られた比に基づいて、より確からしい比を求めてもよい。   Note that in the extraction unit 11, instead of the emblem, a part representing a seal of the vehicle inspection certificate or the like may be extracted from the vehicle image as a characteristic part indicating the center position of the vehicle 1. In this case, the calculation unit 12 may calculate the above-described ratio based on information indicating the position of the seal on the vehicle inspection certificate. Further, when the license plate extraction is successful, the calculation unit 12 may perform the process of step 303-5 in addition to the process of step 303-4 described above. And the calculation part 12 may obtain | require more probable ratio based on the ratio each obtained by the process of step 303-4, 303-5.

ステップ303−4あるいはステップ303−5によって得られた比は、生成部13の座標算出部216に渡される。   The ratio obtained in step 303-4 or step 303-5 is passed to the coordinate calculation unit 216 of the generation unit 13.

座標算出部216は、各線分について、上述した比に従って当該線分を内分する点の座標を算出する。座標算出部216は、各線分の両端に対応する画素のアドレスと、算出部12によって算出された比とに基づいて、内分点に対応する画素の座標を示すアドレスを求めてもよい。このようにして求められた内分点の座標は、各線分の中心、すなわち、当該線分に対応する車両1の直線部分の中央に対応する当該線分上点の位置を示す。   For each line segment, the coordinate calculation unit 216 calculates the coordinates of a point that internally divides the line segment according to the above-described ratio. The coordinate calculation unit 216 may obtain an address indicating the coordinates of the pixel corresponding to the internal dividing point based on the address of the pixel corresponding to both ends of each line segment and the ratio calculated by the calculation unit 12. The coordinates of the internal dividing points thus obtained indicate the position of the upper point of the line segment corresponding to the center of each line segment, that is, the center of the straight line portion of the vehicle 1 corresponding to the line segment.

次いで、方程式生成部217は、座標算出部216によって算出された座標に基づいて、各線分に対応する内分点を接続する方程式を生成する。例えば、画像における各画素のアドレスが行方向の位置と列方向の位置との組で表される場合に、方程式生成部217は、内分点のアドレスに含まれる行方向の位置を示す値が昇順または降順で接続されるように、各内分点を接続する方程式を生成する。また、方程式生成部217は、内分点のアドレスに含まれる列方向の位置を示す値が昇順または降順で接続されるように、各内分点を接続する方程式を生成してもよい。   Next, the equation generation unit 217 generates an equation that connects the internal dividing points corresponding to each line segment based on the coordinates calculated by the coordinate calculation unit 216. For example, when the address of each pixel in the image is represented by a set of a position in the row direction and a position in the column direction, the equation generation unit 217 has a value indicating the position in the row direction included in the address of the inner dividing point. Generate an equation that connects the interior dividing points so that they are connected in ascending or descending order. Further, the equation generation unit 217 may generate an equation for connecting the internal dividing points so that values indicating the position in the column direction included in the addresses of the internal dividing points are connected in ascending order or descending order.

このようにして、抽出部11によって抽出された各線分において、当該線分に対応する車両1の直線部分の中央を示す位置を通る中心線を示す方程式を生成することができる。   Thus, in each line segment extracted by the extraction unit 11, an equation indicating a center line passing through a position indicating the center of the straight line portion of the vehicle 1 corresponding to the line segment can be generated.

次に、上述したようにして生成された中心線に基づいて、検出部14が、車両1の画像から非対称な領域を検出する処理について説明する。   Next, a process in which the detection unit 14 detects an asymmetric area from the image of the vehicle 1 based on the center line generated as described above will be described.

図10に、車両1の画像において非対称な領域を検出する処理の一例を表す流れ図を示す。図10に示した各ステップは、図6に示したステップ305の処理の一例である。図10に示した各ステップは、図7に示した検出部14に含まれる各部および制御部9によって実行される。   FIG. 10 is a flowchart illustrating an example of processing for detecting an asymmetric region in the image of the vehicle 1. Each step shown in FIG. 10 is an example of the process of step 305 shown in FIG. Each step shown in FIG. 10 is executed by each unit and the control unit 9 included in the detection unit 14 shown in FIG.

また、図11に、車両認識データベース8の例を示す。図11に例示した車両認識データベース8は、認識対象の車両それぞれを識別する認識ID(IDentifier)に対応して、認識日時と、認識対象の車両に含まれる各部品についての認識結果と、後述する所定の条件に基づく判定結果とを保持する。   FIG. 11 shows an example of the vehicle recognition database 8. The vehicle recognition database 8 illustrated in FIG. 11 corresponds to a recognition ID (IDentifier) for identifying each recognition target vehicle, a recognition date and time, a recognition result for each component included in the recognition target vehicle, and will be described later. A determination result based on a predetermined condition is held.

制御部9は、まず、対称性の検証を行う対象となる車両1の部品を選択する(ステップ305−1)。制御部9は、例えば、車両1に含まれる多数の部品のうち、バンパーやボンネットなどのように、基本的な形状が左右対称である部品を順次に選択する。   First, the control unit 9 selects a part of the vehicle 1 to be subjected to symmetry verification (step 305-1). The control unit 9 sequentially selects, for example, parts having a symmetrical basic shape such as a bumper and a bonnet from among a large number of parts included in the vehicle 1.

次に、図7に示した部分画像抽出部218は、上述した画像処理部212によって抽出された車両画像から、制御部9によって選択された部品を表す部分を抽出する(ステップ305−2)。部分画像抽出部218は、例えば、選択された部品を表す部分を車両画像から抽出する処理に、車両特徴データベース5に蓄積された特徴情報を利用してもよい。また、部分画像抽出部218は、例えば、画像における色の連続性などの特徴を利用して、選択された部品を表す部分を車両画像から抽出してもよい。   Next, the partial image extraction unit 218 shown in FIG. 7 extracts a part representing the part selected by the control unit 9 from the vehicle image extracted by the image processing unit 212 (step 305-2). For example, the partial image extraction unit 218 may use the feature information stored in the vehicle feature database 5 for the process of extracting a part representing the selected part from the vehicle image. Further, the partial image extraction unit 218 may extract a part representing the selected part from the vehicle image by using features such as color continuity in the image, for example.

図7に示した変形部219は、まず、部分画像抽出部218によって抽出された部品を表す部分の画像を、中心線を用いて、2つの領域に分割する(ステップ305−3)。例えば、変形部219は、部分画像抽出部218によって抽出された部分に含まれる中心線の方程式を用いて、選択された部品を表す部分の画像を、車両1を正面から見て左側に含まれる左側領域と右側に含まれる右側領域とに分割する。   First, the deforming unit 219 shown in FIG. 7 divides the image of the part representing the part extracted by the partial image extracting unit 218 into two regions using the center line (step 305-3). For example, the deformation unit 219 includes an image of a part representing a selected part on the left side when the vehicle 1 is viewed from the front using an equation of a center line included in the part extracted by the partial image extraction unit 218. Dividing into a left area and a right area included on the right side.

次いで、変形部219は、左側領域の画像と右側領域の画像とを、上述した算出部12で得られた距離の比に従って変形する(ステップ305−4)。例えば、変形部219は、分割した2つの領域の一方を、算出部12で得られた距離の比に応じた倍率cを用いて、中心線に垂直な方向に拡大する変形処理を行ってもよい。算出部12で得られた比a:bに基づいて、変形部219は、左側領域の画像を、中心線に垂直な方向にa/b倍に拡大する。この変形処理により、車両1を斜め方向から撮影したことによるゆがみが補正される。   Next, the deforming unit 219 deforms the left region image and the right region image in accordance with the distance ratio obtained by the calculating unit 12 described above (step 305-4). For example, the deformation unit 219 may perform a deformation process of enlarging one of the divided two regions in a direction perpendicular to the center line using a magnification c corresponding to the ratio of the distances obtained by the calculation unit 12. Good. Based on the ratio a: b obtained by the calculation unit 12, the deformation unit 219 enlarges the image in the left region by a / b times in a direction perpendicular to the center line. By this deformation processing, distortion caused by photographing the vehicle 1 from an oblique direction is corrected.

次に、図7に示した照合部220は、上述した変形部219による変形処理後の左側画像の特徴と右側画像の特徴とを照合する(ステップ305−5)。照合部220は、例えば、変形処理後の左側画像と右側画像とについて、検証中の部品の色や明るさについての特徴を示す輝度分布を照合してもよい。この場合に、照合部220は、例えば、左側画像と右側画像とにおいて対応する位置の輝度についての差分絶対値が閾値を超えている範囲を表す情報や、この範囲に含まれる画素数を示す情報などを、輝度分布についての照合結果として出力してもよい。また、照合部220は、変形後の左側画像と右側画像とに基づいて、検証中の部品の左側の輪郭上の各点と中心線との距離と検証中の部品の右側の輪郭上の各点と中心線との距離を比較してもよい。これにより、照合部220は、検証中の部品の左右の形状の特徴について照合を行うことができる。この場合に、照合部220は、例えば、左右の輪郭上の各点と中心線との距離の差分に基づいて、差分二乗和を示す情報や、差分絶対値が閾値を超えている範囲を表す情報などを生成し、輪郭についての照合結果として出力してもよい。   Next, the collation unit 220 shown in FIG. 7 collates the features of the left image and the features of the right image after the deformation processing by the deformation unit 219 described above (step 305-5). For example, the collation unit 220 may collate the luminance distribution indicating the color and brightness characteristics of the component under verification for the left image and the right image after the deformation process. In this case, the collation unit 220, for example, information indicating a range where the absolute difference value of the luminance at the corresponding position in the left image and the right image exceeds the threshold, or information indicating the number of pixels included in this range. Or the like may be output as a collation result for the luminance distribution. Further, the collation unit 220 determines the distance between each point on the left outline of the component being verified and the center line based on the left image and the right image after the deformation, and each of the right outline of the component being verified. You may compare the distance of a point and a centerline. Thereby, the collation part 220 can collate about the characteristic of the shape of the right and left of components in verification. In this case, the collation unit 220 represents, for example, information indicating the sum of squared differences or a range in which the difference absolute value exceeds the threshold based on the difference in distance between each point on the left and right contours and the center line. Information or the like may be generated and output as a matching result for the contour.

上述したように、部品ごとに左側画像と右側画像とを変形した上で照合することにより、車両1において対称面から左右に広がる左右対称な部品の形状に非対称な部分があるか否かを高い精度で検出することができる。また、照合部220において、画像における輝度分布や色の分布を照合することにより、ボンネットに非対称な塗装があるといった特徴を検出することも可能である。   As described above, the left image and the right image are deformed for each component, and collation is performed, so that it is high whether there is an asymmetric portion in the shape of the symmetrical component that extends left and right from the symmetry plane in the vehicle 1. It can be detected with accuracy. The collation unit 220 can also detect a feature such as an asymmetric paint on the bonnet by collating luminance distribution and color distribution in an image.

図7に示した対称性判定部221は、照合部220による照合結果と所定の閾値とを比較する(ステップ305−6)。対称性判定部221は、例えば、検証中の部品の種類ごとに、更に、照合部220で照合される特徴ごとに、照合結果と比較される閾値を用意しておいてもよい。   The symmetry determination unit 221 illustrated in FIG. 7 compares the collation result obtained by the collation unit 220 with a predetermined threshold (step 305-6). For example, the symmetry determination unit 221 may prepare a threshold value to be compared with the matching result for each type of component being verified and for each feature to be checked by the matching unit 220.

検証中の部品について照合部220から受け取った全ての照合結果が、対応する閾値以下である場合に(ステップ305−6の否定判定)、対称性判定部221は、車両1において、当該部品は正常である旨を検出結果として出力する(ステップ305−7)。このとき、結果保存部6は、車両認証データベース8に、ステップ305−7で出力された検出結果に基づいて、当該部品が正常である旨の情報を、車両1を示す認識IDに対応して保存する。例えば、バンパーについて照合部220から受け取った全ての照合結果が、対応する閾値以下である場合に、対称性判定部221は、バンパーは正常である旨を検出結果として出力する。これに応じて、図7に示した結果保存部6は、図11の例で、認識対象の車両の認識ID[0001]に対応して示すように、車両認識データベース8に、バンパーは正常である旨を保存する。   When all the collation results received from the collation unit 220 for the component under verification are equal to or less than the corresponding threshold value (negative determination in step 305-6), the symmetry determination unit 221 determines that the component is normal in the vehicle 1. Is output as a detection result (step 305-7). At this time, the result storage unit 6 corresponds to the recognition ID indicating the vehicle 1 information indicating that the part is normal based on the detection result output in step 305-7 in the vehicle authentication database 8. save. For example, when all the matching results received from the matching unit 220 for the bumper are equal to or less than the corresponding threshold value, the symmetry determining unit 221 outputs a detection result indicating that the bumper is normal. In response to this, the result storage unit 6 shown in FIG. 7 shows that the bumper is normal in the vehicle recognition database 8 as shown in the example of FIG. 11 corresponding to the recognition ID [0001] of the recognition target vehicle. Save something.

一方、照合部220から受け取った検証中の部品について照合結果のいずれかに閾値以上の違いが見つかったときに(ステップ305−6の肯定判定)、対称性判定部221は、まず、検証中の部品がバンパーであるか否かを判定する(ステップ305−8)。   On the other hand, when a difference greater than or equal to the threshold is found in any of the verification results for the part under verification received from the verification unit 220 (positive determination in step 305-6), the symmetry determination unit 221 first performs verification. It is determined whether or not the part is a bumper (step 305-8).

検証中の部品がバンパー以外である場合に(ステップ305−8の否定判定)、対称性判定部221は、検証中の部品には非対称な部分があると判断する。そして、対称性判定部221は、検証中の部品を車両1の非対称な特徴の一つとして検出する(ステップ305−9)。このとき、結果保存部6は、車両認証データベース8に、ステップ305−9で検出された非対称な特徴を、車両1を示す認識IDに対応して保存する。例えば、照合部220によって得られた左右の輪郭上の各点と中心線との距離の差分二乗和が、対応する閾値以上である場合に、対称性判定部221は、ボンネットの形状が非対称である旨の情報を検出結果として出力する。これに応じて、結果保存部6は、図11の例で、認識対象の車両の認識ID[0002]に対応して示すように、車両認識データベース8に、ボンネットの形状が非対称である旨を保存する。   When the part under verification is other than the bumper (negative determination at step 305-8), the symmetry determination unit 221 determines that the part under verification has an asymmetric part. Then, the symmetry determining unit 221 detects the part under verification as one of the asymmetric features of the vehicle 1 (step 305-9). At this time, the result storage unit 6 stores the asymmetric feature detected in step 305-9 in the vehicle authentication database 8 in correspondence with the recognition ID indicating the vehicle 1. For example, when the sum of squared differences between the points on the left and right contours obtained by the matching unit 220 and the center line is equal to or greater than the corresponding threshold value, the symmetry determining unit 221 has an asymmetric bonnet shape. Information indicating that it is present is output as a detection result. In response to this, the result storage unit 6 informs the vehicle recognition database 8 that the shape of the bonnet is asymmetric as shown in the example of FIG. 11 corresponding to the recognition ID [0002] of the recognition target vehicle. save.

ところで、車両1のナンバープレートが、バンパーの中央以外の位置に設置されている場合に、バンパーを検証対象とした照合部220の照合処理の際に、このナンバープレートの画像が左右の画像で輝度分布などが不一致の部分として見つかる可能性がある。このような場合に対応するために、検証対象の部品がバンパーである場合に(ステップ305−8の肯定判定)、対称性判定部221は、ステップ305−10〜305−12の処理を行う。   By the way, when the license plate of the vehicle 1 is installed at a position other than the center of the bumper, the image of the license plate is a right-and-left image in the verification process of the verification unit 220 for verifying the bumper. Distributions may be found as inconsistent parts. In order to cope with such a case, when the verification target part is a bumper (affirmative determination in step 305-8), the symmetry determination unit 221 performs the processing in steps 305-10 to 305-12.

ステップ305−10において、対称性判定部221は、例えば、制御部9を介して、図7に示したナンバープレート認識装置4に対して、照合部220により輝度分布などが不一致とされた部分を対象としてナンバープレートの抽出処理を依頼する。   In step 305-10, the symmetry determination unit 221 detects, for example, a portion in which the luminance distribution or the like is mismatched by the collation unit 220 with respect to the license plate recognition device 4 illustrated in FIG. 7 via the control unit 9. Request license plate extraction processing as a target.

ナンバープレート認識装置4からナンバープレートの抽出が成功した旨が通知された場合に(ステップ305−11の肯定判定)、対称性判定部221は、ナンバープレートの取り付け位置を、車両1の非対称な特徴の一つとして検出する(ステップ305−12)。これに応じて、結果保存部6は、図11の例で、認識対象の車両の認識ID[0003]に対応して示すように、車両認識データベース8に、正常なナンバープレートが左側に設置されている旨を保存する。   When the license plate recognition device 4 notifies that the license plate has been successfully extracted (affirmative determination in step 305-11), the symmetry determination unit 221 determines the license plate mounting position based on the asymmetric feature of the vehicle 1. (Step 305-12). Accordingly, the result storage unit 6 has a normal license plate on the left side in the vehicle recognition database 8 as shown in the example of FIG. 11 corresponding to the recognition ID [0003] of the recognition target vehicle. Save the information.

一方、ナンバープレート認識装置4からナンバープレートの抽出が失敗した旨が通知された場合に(ステップ305−11の否定判定)、対称性判定部221は、バンパーを、車両1の非対称な特徴の一つとして検出する(ステップ305−9)。これに応じて、結果保存部6は、図11の例で、認識対象の車両の認識ID[0002]に対応して示すように、車両認識データベース8に、バンパーに異常がある旨を保存する。   On the other hand, when it is notified from the license plate recognition device 4 that the extraction of the license plate has failed (No in Step 305-11), the symmetry determination unit 221 uses the bumper as one of the asymmetric features of the vehicle 1. (Step 305-9). In response to this, the result storage unit 6 stores in the vehicle recognition database 8 that there is an abnormality in the bumper, as shown in correspondence with the recognition ID [0002] of the recognition target vehicle in the example of FIG. .

上述したステップ305−7あるいはステップ305−9あるいはステップ305−12の処理の後、制御部9は、全ての部品についての検証が終了したか否かを判定する(ステップ305−13)。未検証の部品がある場合に(ステップ305−13の否定判定)、制御部9は、ステップ305−1に戻って、新たな部品を検証対象の部品として選択する。そして、ステップ305−2〜ステップ305−12に従って、新たな部品に関する対称性を検証する処理が行われる。   After the processing of Step 305-7, Step 305-9, or Step 305-12 described above, the control unit 9 determines whether or not the verification for all components has been completed (Step 305-13). When there is an unverified part (negative determination at step 305-13), the control unit 9 returns to step 305-1 and selects a new part as a part to be verified. Then, in accordance with Step 305-2 to Step 305-12, processing for verifying symmetry with respect to the new part is performed.

このようにして、車両1に含まれる主要な部品について、それぞれ対称性を検証した結果を、車両認証データベース8に反映することができる。図11に例示した車両認証データベース8は、ナンバープレート、バックミラー、ドアミラー、フロントガラス、バンパー、ボンネットを含む主要な部品について、各認識IDで示される車両1の検証結果を示している。   In this way, the result of verifying the symmetry of each major part included in the vehicle 1 can be reflected in the vehicle authentication database 8. The vehicle authentication database 8 illustrated in FIG. 11 shows the verification result of the vehicle 1 indicated by each recognition ID for main parts including a license plate, a rearview mirror, a door mirror, a windshield, a bumper, and a bonnet.

図11の例では、認識ID[0001]の車両についての検出結果として、ヘッドライトについて異常と判断される非対称な特徴を検出した旨の情報と、他の部品については非対称な特徴を検出しなかった旨の情報が示されている。一方、認識ID[0002]の車両についての検出結果として、ナンバープレート以外の全ての部品について異常と判断される非対称な特徴を検出した旨の情報が示されている。また、認識ID[0003]の車両についての検出結果として、全ての部品について非対称な特徴を検出しなかった旨の情報とともに、ナンバープレートが左側設置である旨の情報が示されている。また、認識ID[0004]の車両についての検出結果として、フロントガラスについて非対称な特徴を検出した旨の情報と、ナンバープレートが検出不能であることから異常と判断される旨の情報が示されている。また、認識ID[0005]の車両についての検出結果として、ボンネットについて非対称な塗装による特徴を検出した旨の情報が、異常とは判断されない特徴として示されている。   In the example of FIG. 11, as a detection result for the vehicle with the recognition ID [0001], information indicating that an asymmetric feature that is determined to be abnormal for the headlight is detected, and an asymmetric feature is not detected for other components. Information to the effect is shown. On the other hand, information indicating that an asymmetric feature that is determined to be abnormal is detected for all components other than the license plate is shown as a detection result for the vehicle with the recognition ID [0002]. Further, as a detection result for the vehicle having the recognition ID [0003], information indicating that the asymmetric feature has not been detected for all components and information indicating that the license plate is installed on the left side are shown. In addition, as a detection result for the vehicle with the recognition ID [0004], information indicating that an asymmetric feature is detected on the windshield and information indicating that the license plate is not detected are indicated. Yes. Further, as a detection result for the vehicle having the recognition ID [0005], information indicating that a feature due to asymmetric painting is detected for the bonnet is indicated as a feature that is not determined to be abnormal.

なお、車両1の画像に含まれるフロントガラス部分は、車内に存在する物体が非対称に映りこんでいることを考慮して、照合部220による輝度分布の照合の対象外としてもよい。また、逆に、検出部14に、車内の人物の外形に対応するパターンとフロントガラス部分の画像とのマッチングを行うマッチング部を追加し、車内に存在する人物の数などを検出することも可能である。   Note that the windshield portion included in the image of the vehicle 1 may be excluded from the object of collation of the luminance distribution by the collation unit 220 in consideration that an object existing in the car is reflected asymmetrically. Conversely, a matching unit for matching the pattern corresponding to the outer shape of the person in the vehicle and the image of the windshield part can be added to the detection unit 14 to detect the number of persons present in the vehicle. It is.

また、検出部14によって検出された非対称な特徴を、車両認識データベース8に、車両の異常を示す特徴として保存するか、正常な範囲の特徴として保存するかは、例えば、結果保存部6において、各部品ごとに条件を設定して判断してもよい。   Whether the asymmetric feature detected by the detection unit 14 is stored in the vehicle recognition database 8 as a feature indicating vehicle abnormality or as a normal range feature is determined by, for example, the result storage unit 6. You may judge by setting conditions for each component.

また、ドアミラーやヘッドライトのように、車両1において左右対称な位置に離れて配置される部品について非対称な特徴を検出する際に好適な処理手法については、後述する。   Further, a processing method suitable for detecting an asymmetric feature of a component such as a door mirror or a headlight that is separated from the left and right symmetrical positions in the vehicle 1 will be described later.

また、図7に示した結果通知部7は、上述したようにして車両認識データベース8に蓄積された情報に基づいて、例えば、所定の条件に基づいて検出した車両の情報をオペレータの操作端末(図示せず)などに表示する処理を行ってもよい。例えば、結果通知部7は、認識対象の各車両について、車両認識データベース8に保存される各部品についての非対称性の検出結果を任意に組み合わせた条件に従って、条件を満たす車両を抽出する。   Further, the result notifying unit 7 shown in FIG. 7 uses the information stored in the vehicle recognition database 8 as described above, for example, the information on the vehicle detected based on a predetermined condition to the operator's operation terminal ( A process of displaying on a screen (not shown) may be performed. For example, the result notification unit 7 extracts a vehicle that satisfies a condition according to a condition in which detection results of asymmetry for each component stored in the vehicle recognition database 8 are arbitrarily combined for each vehicle to be recognized.

図11の例では、車両認識データベース8にいずれかの部品について異常が検出された車両に対応して、判定欄に丸印をつけて、条件に基づいて検出した車両を示した。   In the example of FIG. 11, a vehicle detected based on a condition is indicated by putting a circle in the determination column corresponding to a vehicle in which an abnormality is detected for any part in the vehicle recognition database 8.

また、結果通知部7は、抽出部11の画像処理部212で抽出された車両の画像を利用して非対称な特徴を表示することにより、オペレータに分かりやすく通知することもできる。   The result notification unit 7 can also notify the operator in an easy-to-understand manner by displaying asymmetric features using the vehicle image extracted by the image processing unit 212 of the extraction unit 11.

図12に、非対称な特徴を持つ車両を検出した結果の表示例を示す。図12の例では、検出部14による処理で検出された非対称な特徴を表す部分を符号P1,P2で示した。   FIG. 12 shows a display example of the result of detecting a vehicle having an asymmetric feature. In the example of FIG. 12, portions representing asymmetric features detected by the processing by the detection unit 14 are indicated by reference numerals P1 and P2.

結果通知部7は、符号P1,P2で示した各部分について、符号D1,D2に示すように、非対称な特徴が検出された部品の名称とともに、検出部14でどのような非対称な特徴を検出したかを示すメッセージを表示させてもよい。   The result notifying unit 7 detects what asymmetric feature is detected by the detection unit 14 together with the name of the part from which the asymmetric feature is detected, as indicated by the symbols D1 and D2, for each part indicated by the symbols P1 and P2. You may display the message which shows whether it did.

図12の例では、符号P1で示されたボンネット部分について、符号D1で示したメッセージにより、検出部14により、「形状の不一致」が検出されたことが示されている。また、符号P2で示されたドアミラー部分について、符号D2で示したメッセージにより、検出部14により、ドアミラーが検出できなかったことが示されている。   In the example of FIG. 12, it is shown that “shape mismatch” has been detected by the detection unit 14 by the message indicated by the symbol D1 for the bonnet portion indicated by the symbol P1. Further, regarding the door mirror portion indicated by reference sign P2, the message indicated by reference sign D2 indicates that the door mirror could not be detected by the detection unit 14.

次に、ドアミラーやヘッドライトのように、車両1において左右対称な位置に離れて配置される部品についての非対称な特徴を検出する際に好適な検出部14の別実施形態について説明する。   Next, another embodiment of the detection unit 14 suitable for detecting an asymmetric feature of a component such as a door mirror or a headlight that is separated from the left and right symmetrical positions in the vehicle 1 will be described.

図13に、車両検出装置の別実施形態を示す。なお、図13に示した構成要素のうち、図7に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。   FIG. 13 shows another embodiment of the vehicle detection device. 13 that are the same as those shown in FIG. 7 are denoted by the same reference numerals and description thereof is omitted.

図13に示した検出部14は、推定部222と、領域画像抽出部223と、比較部224と、対称性判定部221とを有する。推定部222は、生成部13で生成された中心線に基づいて、制御部9および車両特徴データベース5と協働して、車両1において左右対称な位置に離れて配置される左右一組の部品について、画像における位置をそれぞれ推定する。領域画像抽出部223は、抽出部11の画像処理部212で抽出された車両1の画像から、推定部222によって検証対象の1対の部品に対応してそれぞれ推定された位置に基づいて、所定の範囲の画像を抽出する。比較部224は、領域抽出部223によって左側の部品について抽出された領域の画像の特徴と右側の部品について抽出された領域の画像の特徴とを比較する。比較部224は、例えば、左側の部品について抽出された領域の画像の特徴と右側の部品について抽出された領域の画像の特徴との類似度を求めてもよい。また、対称性判定部221は、比較部224によって求められた類似度が所定の閾値よりも低いか否かに基づいて、左右の部品が非対称な特徴を持っているか否かを判定してもよい。   The detection unit 14 illustrated in FIG. 13 includes an estimation unit 222, a region image extraction unit 223, a comparison unit 224, and a symmetry determination unit 221. Based on the center line generated by the generation unit 13, the estimation unit 222 cooperates with the control unit 9 and the vehicle feature database 5 to set a pair of left and right components that are arranged at symmetrical positions in the vehicle 1. Are estimated in the image. The region image extraction unit 223 is based on the positions estimated from the image of the vehicle 1 extracted by the image processing unit 212 of the extraction unit 11 corresponding to the pair of parts to be verified by the estimation unit 222. Extract images in the range. The comparison unit 224 compares the image feature of the region extracted for the left part by the region extraction unit 223 with the image feature of the region extracted for the right part. For example, the comparison unit 224 may obtain the similarity between the image feature of the area extracted for the left part and the image feature of the area extracted for the right part. Further, the symmetry determination unit 221 may determine whether the left and right parts have asymmetric characteristics based on whether the similarity obtained by the comparison unit 224 is lower than a predetermined threshold. Good.

図14に、非対称な特徴を検出する処理の別例を表す流れ図を示す。なお、図14に示した各ステップのうち、図10に示した各ステップと同等のものについては、同一の符号を付して示し、その説明は省略する。図14に示した各ステップは、図6に示したステップ305の処理の一例である。また、図14に示した各ステップは、図13に示した検出部14に含まれる各部および制御部9によって実行される。   FIG. 14 is a flowchart showing another example of processing for detecting asymmetric features. Of the steps shown in FIG. 14, the same steps as those shown in FIG. 10 are denoted by the same reference numerals, and description thereof is omitted. Each step shown in FIG. 14 is an example of the process of step 305 shown in FIG. Moreover, each step shown in FIG. 14 is performed by each part and the control part 9 which are included in the detection part 14 shown in FIG.

ステップ305−21において、制御部9は、例えば、車両1に含まれる多数の部品のうち、ヘッドライトやドアミラーなどのように、互いに対応する部品が左右対称で離れた位置に配置される部品の対を順次に、検証対象の部品として選択する。制御部9は、例えば車両特徴データベース5に蓄積された情報を利用して、ステップ305−21の処理を行ってもよい。制御部9は、選択した部品の対を指定して、推定部222に、位置の推定を指示する。   In step 305-21, for example, among the many parts included in the vehicle 1, the control unit 9 is a part of a part in which parts corresponding to each other such as a headlight and a door mirror are arranged symmetrically apart from each other. Pairs are sequentially selected as parts to be verified. For example, the control unit 9 may perform the processing of step 305-21 using information stored in the vehicle feature database 5. The control unit 9 designates the selected pair of parts and instructs the estimation unit 222 to estimate the position.

これに応じて、推定部222は、車両特徴データベース5の情報と上述した算出部12で得られた比とに基づいて、車両画像に含まれる左右の部品を表す部分の画像における位置を推定する(ステップ205−22)。車両特徴データベース5には、例えば、図2に符号E3で示した線分に対応するフロントグリル下側の輪郭の両端と左右のヘッドライトとについて概略の位置を示す情報が含まれている。推定部222は、この情報と算出部12で得られた比に基づいて、車両画像に含まれる左右のヘッドライトの部分の画像における位置をそれぞれ推定する。   In response to this, the estimation unit 222 estimates the position in the image of the part representing the left and right parts included in the vehicle image based on the information in the vehicle feature database 5 and the ratio obtained by the calculation unit 12 described above. (Step 205-22). The vehicle feature database 5 includes, for example, information indicating the approximate positions of the both ends of the lower contour of the front grille and the left and right headlights corresponding to the line segment indicated by E3 in FIG. Based on this information and the ratio obtained by the calculation unit 12, the estimation unit 222 estimates the positions of the left and right headlight portions included in the vehicle image in the image.

上述したようにして、左右の部品について推定された位置に基づいて、領域画像抽出部223は、車両画像から、それぞれ所定の範囲の画像を抽出する(ステップ305−23)。例えば、領域抽出部223は、推定部222によって推定された位置を中心として、左右の部品の大きさに対応する領域の画像を抽出してもよい。このとき、領域抽出部223は、算出部12で得られた比に基づいて、画像における左右の部品の大きさをそれぞれ求めてもよい。   As described above, based on the positions estimated for the left and right parts, the region image extraction unit 223 extracts a predetermined range of images from the vehicle image (steps 305-23). For example, the region extraction unit 223 may extract an image of a region corresponding to the size of the left and right components with the position estimated by the estimation unit 222 as the center. At this time, the region extraction unit 223 may obtain the sizes of the left and right parts in the image based on the ratio obtained by the calculation unit 12.

このようにして左右の部品についてそれぞれ抽出された領域の画像は、比較部224に渡される。比較部224は、左右の部品についてそれぞれ抽出された領域の画像について、それぞれの特徴を比較する処理を行う(ステップ305−24)。例えば、比較部224は、左側の部品について抽出された領域の画像の輝度分布と右側の部品について抽出された領域の画像の輝度分布とについてそれぞれ特徴を抽出し、輝度分布の類似度を求めてもよい。また、比較部224は、左右の部品に対応する領域の平均輝度やその領域の色をそれぞれの画像の特徴として、互いの類似度を求めてもよい。   The images of the regions extracted for the left and right parts in this way are passed to the comparison unit 224. The comparison unit 224 performs a process of comparing the respective features of the images of the regions extracted for the left and right parts (step 305-24). For example, the comparison unit 224 extracts features for the luminance distribution of the image of the region extracted for the left part and the luminance distribution of the image of the region extracted for the right part, and obtains the similarity of the luminance distribution. Also good. Further, the comparison unit 224 may obtain the degree of similarity between each other using the average luminance of the regions corresponding to the left and right parts and the colors of the regions as the characteristics of the respective images.

上述したようにして、検出部14は、部品の対について推定された位置の周辺の画像の特徴を比較する。これにより、車両1の正面の水平方向についての対称線から離れて接地された部品についても、斜め方向から撮影したことによる画像のゆがみにかかわらず、左右の対称性を判断することができる。   As described above, the detection unit 14 compares the characteristics of the image around the position estimated for the part pair. As a result, it is possible to determine the left-right symmetry of components grounded away from the symmetry line in the horizontal direction of the front of the vehicle 1 regardless of the distortion of the image caused by photographing from the oblique direction.

いずれの場合でも、対称性判定部221は、比較部224で求められた類似度が所定の閾値よりも高い場合に(ステップ305−25の否定判定)、図10に示したステップ305−7と同様に、検証中の左右の部品は正常である旨を出力する。一方、比較部224で求められた類似度が所定の閾値よりも低い場合に(ステップ305−25の肯定判定)、左右の部品について非対称な特徴を検出する(ステップ305−9)。この検出結果に基づいて、結果保存部6は、車両認証データベース8に、ステップ305−9で検出された非対称な特徴を、車両1を示す認識IDに対応して保存する。   In any case, when the similarity determined by the comparison unit 224 is higher than a predetermined threshold (negative determination at step 305-25), the symmetry determination unit 221 determines that the step 305-7 shown in FIG. Similarly, the fact that the left and right parts under verification are normal is output. On the other hand, when the degree of similarity obtained by the comparison unit 224 is lower than a predetermined threshold (Yes in Step 305-25), asymmetric features are detected for the left and right parts (Step 305-9). Based on the detection result, the result storage unit 6 stores the asymmetric feature detected in step 305-9 in the vehicle authentication database 8 in correspondence with the recognition ID indicating the vehicle 1.

例えば、比較部224によって求められた左右のヘッドライトに対応する領域の輝度分布の類似度が所定の閾値以下とされた場合に、対称性判定部221は、ヘッドライトの輝度が非対称である旨の情報を検出結果として出力する。これに応じて、結果保存部6は、図11の例で、認識対象の車両の認識ID[0001]に対応して示すように、車両認識データベース8に、片方のヘッドライトのみが点灯している旨を保存する。また、比較部224は、左右のヘッドライトに対応する領域の平均輝度を比較して、どちらが低輝度であるかを示す情報を出力することもできる。この情報を利用すれば、結果保存部6により、図11に、認識対象の車両の認識ID[0001]のヘッドライトの欄に括弧書きで示したように、異常が疑われる部品を明確に示すこともできる。   For example, when the similarity of the luminance distribution of the region corresponding to the left and right headlights obtained by the comparison unit 224 is equal to or less than a predetermined threshold, the symmetry determination unit 221 indicates that the luminance of the headlight is asymmetric. Is output as a detection result. In response to this, the result storage unit 6 turns on only one headlight in the vehicle recognition database 8 as shown in the example of FIG. 11 corresponding to the recognition ID [0001] of the recognition target vehicle. Save that you are. The comparison unit 224 can also compare the average luminance of the areas corresponding to the left and right headlights and output information indicating which one has the lower luminance. If this information is used, the result storage unit 6 clearly shows the part suspected of being abnormal as shown in parentheses in the headlight column of the recognition ID [0001] of the recognition target vehicle in FIG. You can also.

また、例えば、ドアミラーの一方が破損している場合には、左右のドアミラーの推定位置に対応して抽出された領域について、比較部224によって求められた色の類似度が所定の閾値よりも低くなる。この場合に、対称性判定部221は、ドアミラーが非対称である旨の情報を検出結果として出力する。これに応じて、結果保存部6は、図11の例で、認識対象の車両の認識ID[0002]に対応して示すように、車両認識データベース8に、ドアミラーの一方が検出できない旨を保存する。また、比較部224は、左右のドアミラーに対応する領域の色とボディ部の色とを比較して、どちらの領域の色が一致しているかを示す情報を出力することもできる。この情報を利用すれば、結果保存部6により、図11に、認識対象の車両の認識ID[0002]のドアミラーの欄に括弧書きで示したように、異常が疑われる部品を明確に示すこともできる。   Further, for example, when one of the door mirrors is damaged, the color similarity obtained by the comparison unit 224 is lower than a predetermined threshold for the region extracted corresponding to the estimated positions of the left and right door mirrors. Become. In this case, the symmetry determination unit 221 outputs information indicating that the door mirror is asymmetric as a detection result. In response to this, the result storage unit 6 stores in the vehicle recognition database 8 that one of the door mirrors cannot be detected, as shown in association with the recognition ID [0002] of the recognition target vehicle in the example of FIG. To do. The comparison unit 224 can also compare the color of the area corresponding to the left and right door mirrors with the color of the body part and output information indicating which area has the same color. If this information is used, the result storage unit 6 clearly shows the parts suspected of being abnormal as shown in parentheses in the door mirror column of the recognition ID [0002] of the vehicle to be recognized in FIG. You can also.

なお、ドアミラーのように、車両1の中央から外れた位置に配置される部品は、カメラ2の撮影方向によっては、画像に現れない場合もある。このような場合に対応するために、例えば、算出部12によって求められた比が所定の範囲に含まれない場合に、検証対象とする部品を制限してもよい。   Note that components such as door mirrors arranged at positions deviating from the center of the vehicle 1 may not appear in the image depending on the shooting direction of the camera 2. In order to deal with such a case, for example, when the ratio obtained by the calculation unit 12 is not included in a predetermined range, the parts to be verified may be limited.

図11に、認識対象の車両の認識ID[0005]のドアミラーの欄に示した符号「−」は、当該車両については、ドアミラーを対称性についての検証対象から外した旨を示す。   In FIG. 11, the sign “−” shown in the column of the door mirror of the recognition ID [0005] of the recognition target vehicle indicates that the door mirror is excluded from the symmetry verification target for the vehicle.

ところで、カメラ2の撮影方向が車両1の正面方向である場合に、上述した生成部13によって生成される中心線は、カメラ2によって得られた画像に含まれる車両画像の外形の中心線に一致する。この場合に、検出部14は、車両画像を単純に左右で比較することにより、車両1に含まれる各部品について非対称な特徴があるか否かを判断することができる。なお、カメラ2の撮影方向が車両1の正面方向であるか否かは、例えば、図7に示したナンバープレート抽出部4−aによって抽出されたナンバープレートの画像が長方形であるか否かに基づいて判断することができる。   By the way, when the shooting direction of the camera 2 is the front direction of the vehicle 1, the center line generated by the generation unit 13 described above matches the center line of the outer shape of the vehicle image included in the image obtained by the camera 2. To do. In this case, the detection unit 14 can determine whether each component included in the vehicle 1 has an asymmetric feature by simply comparing the vehicle images on the left and right. Note that whether or not the shooting direction of the camera 2 is the front direction of the vehicle 1 is, for example, whether or not the license plate image extracted by the license plate extraction unit 4-a illustrated in FIG. It can be judged based on.

1…車両;1g…車両画像、2…カメラ;3…画像入力部;4…ナンバープレート認識装置;4−a…ナンバープレート抽出部;4−b…ナンバー認識処理部;5…車両特徴データベース;5…車両特徴データベース;6…結果保存部;7…結果通知部;8…車両認識データベース;9…制御部;10…車両検出装置;11…抽出部;12…算出部;13…生成部;14…検出部;21…プロセッサ;22…メモリ;23…ハードディスク装置(HDD);24…表示制御部;25…表示装置;26…入力装置;27…画像入力装置;28…光学ドライブ;29…通信制御部;30…ネットワーク;31…リムーバブルディスク;212…画像処理部;213…線分抽出部;214…エンブレム抽出部;216…座標算出部;217…方程式生成部;218…部分画像抽出部;219…変形部;220…照合部;221…対称性判定部;222…推定部;223…領域画像抽出部;224…比較部 DESCRIPTION OF SYMBOLS 1 ... Vehicle; 1g ... Vehicle image, 2 ... Camera; 3 ... Image input part; 4 ... License plate recognition apparatus; 4-a ... License plate extraction part; 4-b ... Number recognition processing part; DESCRIPTION OF SYMBOLS 5 ... Vehicle characteristic database; 6 ... Result preservation | save part; 7 ... Result notification part; 8 ... Vehicle recognition database; 9 ... Control part; 10 ... Vehicle detection apparatus; 11 ... Extraction part; DESCRIPTION OF SYMBOLS 14 ... Detection part; 21 ... Processor; 22 ... Memory; 23 ... Hard disk drive (HDD); 24 ... Display control part; 25 ... Display device; 26 ... Input device; 27 ... Image input device; Communication control unit; 30 ... network; 31 ... removable disk; 212 ... image processing unit; 213 ... line segment extraction unit; 214 ... emblem extraction unit; 216 ... coordinate calculation unit; Department; 218 ... partial image extracting unit; 219 ... deformation unit; 220 ... matching part; 221 ... symmetry decision section; 222 ... estimator; 223 ... area image extracting unit; 224 ... comparing unit

Claims (5)

車両を撮影した画像から、前記車両の正面の中央位置を示す部分と、前記車両の正面において水平方向に伸びる直線部分を示す複数の線分とを含む特徴部位を抽出する抽出部と、
前記中央位置を示す部分と前記中央位置を示す部分に近接する前記線分の相対位置に基づいて、前記線分の中心を求め、前記線分の中心から前記線分の一端までの距離と、前記線分の中心から前記線分の他端までの距離との比を算出する算出部と、
前記複数の線分を前記比に基づいて内分する内分点を求め、前記各線分の内分点を結ぶ中心線を生成する生成部と、
前記車両を撮影した画像に含まれる前記車両を表す部分の画像において、前記中心線を境界として前記車両の正面の左側部分と右側部分とを比較することにより、前記中心線を基準として非対称な特徴を持つ画像の領域を検出する検出部と、
を備えたことを特徴とする車両検出装置。
An extraction unit that extracts a feature portion including a portion indicating a center position of the front surface of the vehicle and a plurality of line segments indicating a straight line portion extending in a horizontal direction on the front surface of the vehicle from an image obtained by photographing the vehicle;
Based on the relative position of the line segment adjacent to the part indicating the central position and the part indicating the central position, the center of the line segment is obtained, and the distance from the center of the line segment to one end of the line segment; A calculation unit that calculates a ratio of the distance from the center of the line segment to the other end of the line segment;
A generating unit for internally dividing the plurality of line segments based on the ratio, and generating a center line connecting the internal dividing points of the line segments;
In the image of the portion representing the vehicle included in the image obtained by photographing the vehicle, the left side portion and the right side portion of the front surface of the vehicle are compared with the center line as a boundary, thereby being asymmetrical with respect to the center line A detection unit for detecting a region of an image having
A vehicle detection apparatus comprising:
請求項1に記載の車両検出装置において、
前記検出部は、
前記車両において左右対称な形状を持つ部材に対応する前記画像の部分を前記中心線によって分割して得られる2つの部分画像に対して、前記比に基づく変形を適用する変形部と、
前記変形部によって変形された前記2つの部分画像を、前記中心線を基準として照合する照合部と、を備えた
ことを特徴とする車両検出装置。
The vehicle detection device according to claim 1,
The detector is
A deformation unit that applies deformation based on the ratio to two partial images obtained by dividing a portion of the image corresponding to a member having a symmetrical shape in the vehicle by the center line;
A vehicle detection device comprising: a verification unit that collates the two partial images deformed by the deformation unit with reference to the center line.
請求項1に記載の車両検出装置において、
前記検出部は、
前記比に基づいて、前記車両において左右対称に配置される一対の部材の位置をそれぞれ推定する推定部と、
前記推定部によって前記一対の部材について推定された位置を含む所定の領域について前記画像の特徴を比較する比較部と、を備えた
ことを特徴とする車両検出装置。
The vehicle detection device according to claim 1,
The detector is
An estimation unit that estimates the positions of a pair of members arranged symmetrically in the vehicle based on the ratio;
A vehicle detection apparatus comprising: a comparison unit that compares the characteristics of the image with respect to a predetermined region including a position estimated for the pair of members by the estimation unit.
車両を撮影した画像から、前記車両の正面の中央位置を示す部分と、前記車両の正面において水平方向に伸びる直線部分を示す複数の線分とを含む特徴部位を抽出し、
前記中央位置を示す部分と前記中央位置を示す部分に近接する前記線分の相対位置に基づいて、前記線分の中心を求め、前記線分の中心から前記線分の一端までの距離と、前記線分の中心から前記線分の他端までの距離との比を算出し、
前記複数の線分を前記比に基づいて内分する内分点を求め、前記各線分の内分点を結ぶ中心線を生成し、
前記車両を撮影した画像に含まれる前記車両を表す部分の画像において、前記中心線を境界として前記車両の正面の左側部分と右側部分とを比較することにより、前記中心線を基準として非対称な特徴を持つ画像の領域を検出する、
ことを特徴とする車両検出方法。
Extracting a feature portion including a portion indicating a center position of the front of the vehicle and a plurality of line segments indicating a straight line portion extending in a horizontal direction on the front of the vehicle from an image of the vehicle,
Based on the relative position of the line segment adjacent to the part indicating the central position and the part indicating the central position, the center of the line segment is obtained, and the distance from the center of the line segment to one end of the line segment; Calculate the ratio of the distance from the center of the line segment to the other end of the line segment,
Obtaining an internal dividing point that internally divides the plurality of line segments based on the ratio, and generating a center line connecting the internal dividing points of the line segments;
In the image of the portion representing the vehicle included in the image obtained by photographing the vehicle, the left side portion and the right side portion of the front surface of the vehicle are compared with the center line as a boundary, thereby being asymmetrical with respect to the center line Detect areas of images with
The vehicle detection method characterized by the above-mentioned.
車両を撮影した画像から、前記車両の正面の中央位置を示す部分と、前記車両の正面において水平方向に伸びる直線部分を示す複数の線分とを含む特徴部位を抽出し、
前記中央位置を示す部分と前記中央位置を示す部分に近接する前記線分の相対位置に基づいて、前記線分の中心を求め、前記線分の中心から前記線分の一端までの距離と、前記線分の中心から前記線分の他端までの距離との比を算出し、
前記複数の線分を前記比に基づいて内分する内分点を求め、前記各線分の内分点を結ぶ中心線を生成し、
前記車両を撮影した画像に含まれる前記車両を表す部分の画像において、前記中心線を境界として前記車両の正面の左側部分と右側部分とを比較することにより、前記中心線を基準として非対称な特徴を持つ画像の領域を検出する、
処理をコンピュータに実行させる車両検出プログラム。
Extracting a feature portion including a portion indicating a center position of the front of the vehicle and a plurality of line segments indicating a straight line portion extending in a horizontal direction on the front of the vehicle from an image of the vehicle,
Based on the relative position of the line segment adjacent to the part indicating the central position and the part indicating the central position, the center of the line segment is obtained, and the distance from the center of the line segment to one end of the line segment; Calculate the ratio of the distance from the center of the line segment to the other end of the line segment,
Obtaining an internal dividing point that internally divides the plurality of line segments based on the ratio, and generating a center line connecting the internal dividing points of the line segments;
In the image of the portion representing the vehicle included in the image obtained by photographing the vehicle, the left side portion and the right side portion of the front surface of the vehicle are compared with the center line as a boundary, thereby being asymmetrical with respect to the center line Detect areas of images with
A vehicle detection program that causes a computer to execute processing.
JP2011055047A 2011-03-14 2011-03-14 Vehicle detection device, vehicle detection method, and vehicle detection program Expired - Fee Related JP5703864B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011055047A JP5703864B2 (en) 2011-03-14 2011-03-14 Vehicle detection device, vehicle detection method, and vehicle detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011055047A JP5703864B2 (en) 2011-03-14 2011-03-14 Vehicle detection device, vehicle detection method, and vehicle detection program

Publications (2)

Publication Number Publication Date
JP2012190380A true JP2012190380A (en) 2012-10-04
JP5703864B2 JP5703864B2 (en) 2015-04-22

Family

ID=47083431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011055047A Expired - Fee Related JP5703864B2 (en) 2011-03-14 2011-03-14 Vehicle detection device, vehicle detection method, and vehicle detection program

Country Status (1)

Country Link
JP (1) JP5703864B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046980A (en) * 2014-08-24 2015-11-11 薛青 Detection system for red light running of vehicles
CN105046979A (en) * 2015-03-08 2015-11-11 无锡桑尼安科技有限公司 Method for identifying solid line-crossing lane-merging vehicles at traffic intersection
CN105225490A (en) * 2015-04-08 2016-01-06 姜翠英 Be positioned at the electronic recognition platform violating the regulations of traffic intersection
CN113139409A (en) * 2020-01-20 2021-07-20 浙江宇视科技有限公司 Vehicle identification method, device, equipment and storage medium
KR20230071057A (en) * 2021-11-15 2023-05-23 렉스젠(주) System for analyzing information using video and method thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104574987A (en) * 2014-12-22 2015-04-29 贵州中南交通科技有限公司 Temperature-and-humidity-adjustable vehicle type recognizer
CN106372602A (en) * 2016-08-31 2017-02-01 华平智慧信息技术(深圳)有限公司 Method and device for processing video file

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200987A (en) * 1993-12-28 1995-08-04 Ibiden Co Ltd Detector for going-out of light for vehicle
JPH11213284A (en) * 1998-01-28 1999-08-06 Mitsubishi Electric Corp Vehicle kind discrimination device
JP2008139088A (en) * 2006-11-30 2008-06-19 Daido Steel Co Ltd Visual examination method
JP2008146154A (en) * 2006-12-06 2008-06-26 Mitsubishi Electric Corp Vehicle type determination device
JP2010086268A (en) * 2008-09-30 2010-04-15 Mazda Motor Corp Display object recognition device for vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200987A (en) * 1993-12-28 1995-08-04 Ibiden Co Ltd Detector for going-out of light for vehicle
JPH11213284A (en) * 1998-01-28 1999-08-06 Mitsubishi Electric Corp Vehicle kind discrimination device
JP2008139088A (en) * 2006-11-30 2008-06-19 Daido Steel Co Ltd Visual examination method
JP2008146154A (en) * 2006-12-06 2008-06-26 Mitsubishi Electric Corp Vehicle type determination device
JP2010086268A (en) * 2008-09-30 2010-04-15 Mazda Motor Corp Display object recognition device for vehicle

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046980A (en) * 2014-08-24 2015-11-11 薛青 Detection system for red light running of vehicles
CN105046979A (en) * 2015-03-08 2015-11-11 无锡桑尼安科技有限公司 Method for identifying solid line-crossing lane-merging vehicles at traffic intersection
CN105225490A (en) * 2015-04-08 2016-01-06 姜翠英 Be positioned at the electronic recognition platform violating the regulations of traffic intersection
CN113139409A (en) * 2020-01-20 2021-07-20 浙江宇视科技有限公司 Vehicle identification method, device, equipment and storage medium
CN113139409B (en) * 2020-01-20 2023-06-16 浙江宇视科技有限公司 Vehicle identification method, device, equipment and storage medium
KR20230071057A (en) * 2021-11-15 2023-05-23 렉스젠(주) System for analyzing information using video and method thereof
KR102542175B1 (en) * 2021-11-15 2023-06-13 렉스젠(주) System for analyzing information using video and method thereof

Also Published As

Publication number Publication date
JP5703864B2 (en) 2015-04-22

Similar Documents

Publication Publication Date Title
JP5703864B2 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
US10943131B2 (en) Image based lane marking classification
US20210264176A1 (en) Hazard detection from a camera in a scene with moving shadows
US11688183B2 (en) System and method of determining a curve
US10521676B2 (en) Lane detection device, lane departure determination device, lane detection method and lane departure determination method
CA2958832C (en) Method and axle-counting device for contact-free axle counting of a vehicle and axle-counting system for road traffic
US9047518B2 (en) Method for the detection and tracking of lane markings
JP5867273B2 (en) Approaching object detection device, approaching object detection method, and computer program for approaching object detection
CA2885019C (en) Robust windshield detection via landmark localization
JP5740241B2 (en) Vehicle detection device
JP2008165765A (en) Method and apparatus for acquiring vehicle side image, vehicle lamp recognition error detection method and prediction method for safe driving
JP2017505946A (en) Vehicle detection system and method
JP6794243B2 (en) Object detector
US20200074212A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
CN105787431A (en) Apparatus for safety-driving of vehicle
US20110216944A1 (en) In-vehicle white line recognition apparatus
WO2016129301A1 (en) Entry possibility determining device for vehicle
JP6226368B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
KR101268282B1 (en) Lane departure warning system in navigation for vehicle and method thereof
CN112487908A (en) Front vehicle line pressing behavior detection and dynamic tracking method based on vehicle-mounted video
KR101178508B1 (en) Vehicle Collision Alarm System and Method
CN112261390A (en) Vehicle-mounted camera equipment and image optimization device and method thereof
KR101276073B1 (en) System and method for detecting distance between forward vehicle using image in navigation for vehicle
JP4772622B2 (en) Perimeter monitoring system
JP2002150302A (en) Road surface recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150209

R150 Certificate of patent or registration of utility model

Ref document number: 5703864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees