JP6554943B2 - Image processing apparatus, image processing method, and evaluation method - Google Patents

Image processing apparatus, image processing method, and evaluation method Download PDF

Info

Publication number
JP6554943B2
JP6554943B2 JP2015132974A JP2015132974A JP6554943B2 JP 6554943 B2 JP6554943 B2 JP 6554943B2 JP 2015132974 A JP2015132974 A JP 2015132974A JP 2015132974 A JP2015132974 A JP 2015132974A JP 6554943 B2 JP6554943 B2 JP 6554943B2
Authority
JP
Japan
Prior art keywords
frame
template
matching
image
maximum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015132974A
Other languages
Japanese (ja)
Other versions
JP2017016425A (en
Inventor
宗太郎 金子
宗太郎 金子
中山 收文
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015132974A priority Critical patent/JP6554943B2/en
Publication of JP2017016425A publication Critical patent/JP2017016425A/en
Application granted granted Critical
Publication of JP6554943B2 publication Critical patent/JP6554943B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理装置、画像処理方法及び評価方法に関する。   The present invention relates to an image processing apparatus, an image processing method, and an evaluation method.

従来より、車両にカメラを搭載し、前方車両等の物標を撮影することで得られた画像情報から、所定の物標を認識する認識システムが知られており、車両の走行制御等に用いられている。   Conventionally, a recognition system for recognizing a predetermined target from image information obtained by mounting a camera on a vehicle and photographing a target such as a preceding vehicle is known and used for vehicle driving control and the like. It has been.

このような認識システムについての認識性能の検証は、例えば、所定の物標についての正解データ(所定の物標の領域を示す正解データ)を予め用意しておき、認識システムにおける認識結果(認識した物標の領域を示すデータ)と比較することで行う。   For verification of recognition performance for such a recognition system, for example, correct answer data (correct answer data indicating the area of the predetermined target) is prepared in advance, and the recognition result (recognized in the recognition system) is prepared. This is done by comparing with the data of the target area.

ここで、認識性能の検証を正しく行うにあたっては、画像情報に含まれる各フレームについて高精度な正解データを用意しておくことが求められる。正解データを抽出する方法としては、物標を表すテンプレート画像とのマッチング処理を行い、各フレームにおいてテンプレート画像がマッチングする位置を算出し、算出した位置に応じた領域(マッチング領域)を特定する方法が挙げられる。上記の方法によれば、例えば、倍率の異なる複数のテンプレート画像を用いてマッチング処理を行うことで、物標までの距離がフレームごとに異なる場合であっても、それぞれのフレームに応じたテンプレート画像用いてマッチング領域を特定することができる。この結果、物標までの距離が異なるフレームにおいて、正解データを抽出することができる。
Here, in order to correctly verify the recognition performance, it is required to prepare highly accurate correct answer data for each frame included in the image information. As a method for extracting correct data, a method of performing matching processing with a template image representing a target, calculating a position where the template image matches in each frame, and specifying a region (matching region) corresponding to the calculated position Is mentioned. According to the above method, for example, by performing a matching process using a plurality of template images having different magnifications, even if the distance to the target varies from frame to frame, the template image corresponding to each frame is used. it is possible to identify a matching area used. As a result, correct data can be extracted in frames with different distances to the target.

特開2000−113158号公報JP 2000-113158 A 国際公開第2008/114683号International Publication No. 2008/114683

しかしながら、上記方法の場合、各フレーム中において、物標がサブピクセルレベルの微小な移動やサイズ変化をしていた場合には、物標の正しい領域が認識できず、誤った領域をマッチング領域として特定してしまう。この場合、誤った正解データが抽出されることとなり、認識性能の検証を正しく行うことができない。   However, in the case of the above method, if the target has moved or changed in size at the sub-pixel level in each frame, the correct area of the target cannot be recognized, and the wrong area is used as the matching area. I will identify. In this case, incorrect correct answer data is extracted, and verification of recognition performance cannot be performed correctly.

一つの側面では、微小な移動及びサイズ変化を行う物標に対して、高精度な位置特定を実現することを目的としている。   In one aspect, an object is to realize highly accurate position specification for a target that performs minute movement and size change.

一態様によれば、車両の所定方向を撮影した画像から特定画像領域を特定する際の検証用の正解データを生成する画像処理方法であって、画素単位のテンプレートの大きさ及びフレーム中のテンプレートの位置の推定結果を取得する1次評価と、1次評価結果で条件を拘束し、フレーム間で時系列データとして推定結果を取得する2次評価の2段階で特定画像領域を特定する、処理をコンピュータが実行することを特徴とする。   According to one aspect, there is provided an image processing method for generating correct data for verification when specifying a specific image region from an image obtained by photographing a predetermined direction of a vehicle, wherein the size of a template in pixel units and a template in a frame A process for specifying a specific image region in two stages: a primary evaluation for acquiring the position estimation result and a condition based on the primary evaluation result, and a secondary evaluation for acquiring the estimation result as time-series data between frames. Is executed by a computer.

微小な移動及びサイズ変化を行う物標に対して、高精度な位置特定を実現できる。   It is possible to realize highly accurate position specification for a target that performs minute movement and size change.

認識性能検証システムの全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of a recognition performance verification system. 認識システムの機能構成の一例を示す図である。It is a figure which shows an example of a function structure of a recognition system. 性能検証装置の機能を説明するための図である。It is a figure for demonstrating the function of a performance verification apparatus. 正解生成装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a correct answer production | generation apparatus. 正解生成装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of a correct answer production | generation apparatus. 画像追跡部の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of an image tracking part. 正解情報生成処理のフローチャートである。It is a flowchart of correct information generation processing. テンプレート生成処理のフローチャートである。It is a flowchart of a template production | generation process. テンプレート情報の一例を示す図である。It is a figure which shows an example of template information. マッチング処理のフローチャートである。It is a flowchart of a matching process. マッチング処理を説明するための図である。It is a figure for demonstrating a matching process. マッチング結果情報の一例を示す図である。It is a figure which shows an example of matching result information. 極大フレーム算出処理のフローチャートである。It is a flowchart of a maximum frame calculation process. 極大フレーム算出処理を説明するための図である。It is a figure for demonstrating a maximum frame calculation process. 極大フレーム算出結果の具体例を示す図である。It is a figure which shows the specific example of a maximum frame calculation result. 継続判定処理のフローチャートである。It is a flowchart of a continuation determination process. 極大フレーム間算出処理のフローチャートである。It is a flowchart of calculation processing between maximum frames. 極大フレーム間算出処理結果の具体例を示す図である。It is a figure which shows the specific example of the calculation process result between maximum frames. マッチング処理において、誤ったマッチング結果が得られる原因を説明するための図である。It is a figure for demonstrating the cause by which an incorrect matching result is obtained in a matching process.

以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。   Each embodiment will be described below with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[第1の実施形態]
はじめに、車両に搭載される認識システムの認識性能を検証するための認識性能検証システムの全体構成について説明する。図1は、認識性能検証システムの全体構成の一例を示す図である。
[First Embodiment]
First, the overall configuration of a recognition performance verification system for verifying the recognition performance of a recognition system mounted on a vehicle will be described. FIG. 1 is a diagram illustrating an example of the overall configuration of the recognition performance verification system.

図1に示すように、認識性能検証システム100は、車両110と、格納装置120と、正解生成装置130と、性能検証装置140とを有する。   As shown in FIG. 1, the recognition performance verification system 100 includes a vehicle 110, a storage device 120, a correct answer generation device 130, and a performance verification device 140.

車両110は、認識システム111を搭載する。認識システム111は、車両110の所定方向(例えば、前方)の物標(例えば、前方車両)を撮影し、画像情報から前方車両を認識し、運転者への警告や、車両の走行制御を行う。   The vehicle 110 is equipped with a recognition system 111. The recognition system 111 captures a target (for example, a forward vehicle) in a predetermined direction (for example, forward) of the vehicle 110, recognizes the forward vehicle from the image information, and performs a warning to the driver and driving control of the vehicle. .

なお、物標とは、車両に限定されず、人物や動物、建物等の画像から特定可能な物体であればよい。また、上記の車両は、例えば、乗用車、バス、トラック、電車等であるが、これに限定されるものではなく、飛行機や船等でもよい。また、車両110の前方とは、例えば車両110本体の前方向でもよく、進行方向(例えば、車両110がバックしている場合の後方)であってもよい。   The target is not limited to a vehicle, and may be any object that can be specified from an image such as a person, an animal, or a building. Moreover, although said vehicle is a passenger car, a bus, a truck, a train etc., for example, it is not limited to this, An airplane, a ship, etc. may be sufficient. Further, the front of the vehicle 110 may be, for example, the front direction of the vehicle 110 main body, or the traveling direction (for example, the rear when the vehicle 110 is backing).

認識システム111により得られた画像情報は、格納装置120の画像情報格納部121に格納される。また、認識システム111により認識された前方車両についての認識結果は、認識結果格納部112に格納される。   Image information obtained by the recognition system 111 is stored in the image information storage unit 121 of the storage device 120. In addition, the recognition result for the preceding vehicle recognized by the recognition system 111 is stored in the recognition result storage unit 112.

格納装置120は、画像情報格納部121を有し、車両110の認識システム111により得られた画像情報を格納する。なお、画像情報格納部121に格納された画像情報は、正解生成装置130や性能検証装置140により読み出されて利用される。   The storage device 120 includes an image information storage unit 121 and stores image information obtained by the recognition system 111 of the vehicle 110. Note that the image information stored in the image information storage unit 121 is read and used by the correct answer generation device 130 and the performance verification device 140.

正解生成装置130は、画像情報に含まれる各フレームの正解情報(正解データ)を生成する画像処理装置である。正解生成装置130には正解生成プログラムがインストールされており、正解生成装置130は、正解生成プログラムを実行することで、正解生成部131として機能する。   The correct answer generation device 130 is an image processing device that generates correct answer information (correct answer data) of each frame included in the image information. A correct answer generating program is installed in the correct answer generating device 130, and the correct answer generating device 130 functions as the correct answer generating unit 131 by executing the correct answer generating program.

正解生成部131は、画像情報格納部121に格納された画像情報を読み出し、フレームごとに前方車両についての正解情報(前方車両の車両領域を特定するための情報)を生成する。また、正解生成部131は、生成した正解情報を、認識システム111の認識結果(検証対象)を検証する検証用の正解情報として、正解情報格納部132に格納する。   The correct answer generation unit 131 reads the image information stored in the image information storage unit 121, and generates correct answer information (information for specifying the vehicle area of the preceding vehicle) for the preceding vehicle for each frame. In addition, the correct answer generation unit 131 stores the generated correct answer information in the correct answer information storage unit 132 as correct answer information for verification for verifying the recognition result (verification target) of the recognition system 111.

性能検証装置140は、性能比較部141を有する。性能比較部141は、画像情報格納部121より読み出した画像情報151に含まれる各フレームについて、認識結果格納部112より読み出した認識結果情報152と、正解情報格納部132より読み出した正解情報153とを比較する。   The performance verification device 140 includes a performance comparison unit 141. For each frame included in the image information 151 read from the image information storage unit 121, the performance comparison unit 141 recognizes the recognition result information 152 read from the recognition result storage unit 112, the correct answer information 153 read from the correct answer information storage unit 132, and Compare

また、性能比較部141は、比較結果に基づいて、認識システム111の認識性能を検証し、性能比較結果を性能比較結果格納部142に格納する。   Further, the performance comparison unit 141 verifies the recognition performance of the recognition system 111 based on the comparison result, and stores the performance comparison result in the performance comparison result storage unit 142.

なお、図1の認識性能検証システム100は、車両の台数を1台としているが、車両の台数は複数であってもよい。また、格納装置120、正解生成装置130、性能検証装置140は、例えば、1台のサーバ装置により実現してもよい。   1 recognizes that the number of vehicles is one, the number of vehicles may be plural. The storage device 120, the correct answer generation device 130, and the performance verification device 140 may be realized by, for example, one server device.

次に、車両110に搭載された認識システム111の機能構成について説明する。図2は、認識システムの機能構成の一例を示す図である。図2に示すように、認識システム111は、撮像部201、認識部202、距離算出部203、警告部204、制御部205を有する。   Next, a functional configuration of the recognition system 111 mounted on the vehicle 110 will be described. FIG. 2 is a diagram illustrating an example of a functional configuration of the recognition system. As illustrated in FIG. 2, the recognition system 111 includes an imaging unit 201, a recognition unit 202, a distance calculation unit 203, a warning unit 204, and a control unit 205.

撮像部201は、例えば、カメラであり、車両110の前方を走行する前方車両210を撮影する。撮像部201により撮影された画像情報は、格納装置120に送信され、画像情報格納部121に格納される。また、撮像部201により撮影された画像情報は、認識部202に入力される。   The imaging unit 201 is, for example, a camera, and images the front vehicle 210 that travels in front of the vehicle 110. Image information captured by the imaging unit 201 is transmitted to the storage device 120 and stored in the image information storage unit 121. Further, image information captured by the imaging unit 201 is input to the recognition unit 202.

認識部202は、画像情報に含まれる各フレームについて画像認識処理を行い、各フレーム中の前方車両を認識する。また、認識部202は、認識結果(フレーム中の前方車両を示す領域の位置(座標)、前方車両の大きさ)を、車両領域(特定画像領域)を特定するための情報として認識結果格納部112に格納する。また、認識部202は、認識結果を距離算出部203に入力する。   The recognition unit 202 performs image recognition processing on each frame included in the image information, and recognizes the vehicle ahead in each frame. Further, the recognition unit 202 uses the recognition result (the position (coordinate) of the area indicating the preceding vehicle in the frame, the size of the preceding vehicle) as information for specifying the vehicle area (specific image area). 112. Further, the recognition unit 202 inputs the recognition result to the distance calculation unit 203.

距離算出部203は、認識部202による認識結果に基づいて、前方車両までの距離を算出する。また、距離算出部203は、算出した距離を警告部204及び制御部205に出力する。   The distance calculation unit 203 calculates the distance to the preceding vehicle based on the recognition result by the recognition unit 202. The distance calculation unit 203 outputs the calculated distance to the warning unit 204 and the control unit 205.

警告部204は、距離算出部203により算出された距離に応じて、車両110の乗員に情報を提示することで、乗員に対して警告を行う。制御部205は、距離算出部203により算出された距離に応じて、車両110の走行速度を制御する。   The warning unit 204 warns the occupant by presenting information to the occupant of the vehicle 110 according to the distance calculated by the distance calculation unit 203. The control unit 205 controls the traveling speed of the vehicle 110 according to the distance calculated by the distance calculation unit 203.

次に、性能検証装置140の機能について説明する。図3は、性能検証装置の機能を説明するための図である。   Next, functions of the performance verification device 140 will be described. FIG. 3 is a diagram for explaining the function of the performance verification apparatus.

図3に示すように、性能検証装置140の性能比較部141では、画像情報151に含まれる各フレーム中の前方車両の描画(以下、単に前方車両と略す)についての認識システム111による認識結果情報152を、認識結果格納部112より読み出す。   As shown in FIG. 3, in the performance comparison unit 141 of the performance verification device 140, recognition result information by the recognition system 111 about the drawing of the forward vehicle in each frame included in the image information 151 (hereinafter simply referred to as the forward vehicle). 152 is read from the recognition result storage unit 112.

上述したように、認識結果情報152には、フレーム中の前方車両301を示す領域の位置(座標)、前方車両301を示す領域の大きさが含まれる(つまり、車両領域(特定画像領域)を特定するための情報が含まれる)。図3の例では、前方車両301を示す領域の座標(X座標及びY座標)として(Xe,Ye)が読み出され、前方車両301を示す領域の大きさ(幅及び高さ)として(We,He)が読み出された場合を示している。   As described above, the recognition result information 152 includes the position (coordinates) of the area indicating the forward vehicle 301 in the frame and the size of the area indicating the forward vehicle 301 (that is, the vehicle area (specific image area) Information to identify). In the example of FIG. 3, (Xe, Ye) is read out as the coordinates (X coordinate and Y coordinate) of the area indicating the forward vehicle 301, and (We and Weight) as the size (width and height) of the area indicating the forward vehicle 301. , He) is read.

また、性能比較部141は、画像情報151に含まれる各フレーム中の前方車両301について、正解情報格納部132より、正解情報153を読み出す。図3の例では、正解情報153として、前方車両301を示す領域の座標(Xr,Yr)が読み出され、前方車両301を示す領域の大きさ(Wr,Hr)が読み出された場合を示している。つまり、前方車両301の車両領域を特定するための情報が読み出された場合を示している。   Further, the performance comparison unit 141 reads the correct answer information 153 from the correct answer information storage unit 132 for the preceding vehicle 301 in each frame included in the image information 151. In the example of FIG. 3, as the correct answer information 153, the coordinates (Xr, Yr) of the area indicating the preceding vehicle 301 are read, and the size (Wr, Hr) of the area indicating the preceding vehicle 301 is read. Show. That is, the case where the information for specifying the vehicle area | region of the front vehicle 301 is read is shown.

性能比較部141は、認識結果情報152と正解情報153とを比較し、例えば、成就した座標が領域の大きさ等の差分値を算出する。また、性能比較部141は、算出した差分値に基づいて、認識システム111の認識性能を検証し、性能比較結果として性能比較結果格納部142に格納する。なお、性能比較部141は、性能比較結果を格納するにあたり、フレーム番号と対応付けて格納する。また、性能比較部141は、フレーム中に複数の前方車両が含まれる場合に、それぞれの車両を示す車両識別子と対応付けて格納する。   The performance comparison unit 141 compares the recognition result information 152 and the correct answer information 153, and calculates, for example, a difference value such as the size of the area where the achieved coordinates are achieved. Further, the performance comparison unit 141 verifies the recognition performance of the recognition system 111 based on the calculated difference value, and stores it in the performance comparison result storage unit 142 as a performance comparison result. The performance comparison unit 141 stores the performance comparison result in association with the frame number. Further, when a plurality of front vehicles are included in the frame, the performance comparison unit 141 stores the vehicle identifiers in association with the vehicle identifiers indicating the respective vehicles.

次に、正解生成装置130の詳細について説明する。図4は、正解生成装置のハードウェア構成の一例を示す図である。   Next, details of the correct answer generation device 130 will be described. FIG. 4 is a diagram illustrating an example of a hardware configuration of the correct answer generation apparatus.

図4に示すように、正解生成装置130は、CPU401、ROM(Read Only Memory)402、RAM(Random Access Memory)403、補助記憶部404、通信部405を備える。また、正解生成装置130は、表示部406、操作部407、ドライブ部408を備える。なお、正解生成装置130の各部は、バス409を介して相互に接続されている。   As illustrated in FIG. 4, the correct answer generation device 130 includes a CPU 401, a ROM (Read Only Memory) 402, a RAM (Random Access Memory) 403, an auxiliary storage unit 404, and a communication unit 405. The correct answer generation device 130 includes a display unit 406, an operation unit 407, and a drive unit 408. Note that the units of the correct answer generation device 130 are connected to each other via a bus 409.

CPU401は、補助記憶部404にインストールされた各種プログラム(例えば、正解生成プログラム)を実行するコンピュータである。ROM402は、不揮発性メモリである。ROM402は、補助記憶部404に格納された各種プログラムをCPU401が実行するために必要な各種プログラム、データ等を格納する主記憶部として機能する。具体的には、ROM402はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する。   The CPU 401 is a computer that executes various programs (for example, a correct answer generation program) installed in the auxiliary storage unit 404. The ROM 402 is a nonvolatile memory. The ROM 402 functions as a main storage unit that stores various programs, data, and the like necessary for the CPU 401 to execute various programs stored in the auxiliary storage unit 404. Specifically, the ROM 402 stores a boot program such as a basic input / output system (BIOS) or an extensible firmware interface (EFI).

RAM403は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリであり、主記憶部として機能する。RAM403は、補助記憶部404に格納された各種プログラムがCPU401によって実行される際に展開される、作業領域を提供する。   The RAM 403 is a volatile memory such as a DRAM (Dynamic Random Access Memory) or an SRAM (Static Random Access Memory), and functions as a main storage unit. The RAM 403 provides a work area that is expanded when various programs stored in the auxiliary storage unit 404 are executed by the CPU 401.

補助記憶部404は、各種プログラムや、各種プログラムを実行したことで生成された情報(例えば、正解情報153)等を格納する。   The auxiliary storage unit 404 stores various programs, information generated by executing the various programs (for example, correct information 153), and the like.

通信部405は、正解生成装置130が格納装置120、性能検証装置140と通信するためのデバイスである。   The communication unit 405 is a device for the correct answer generation device 130 to communicate with the storage device 120 and the performance verification device 140.

表示部406は、格納装置120の画像情報格納部121より読み出した画像情報や、正解生成部131により生成された正解情報を表示する。   The display unit 406 displays the image information read from the image information storage unit 121 of the storage device 120 and the correct answer information generated by the correct answer generating unit 131.

操作部407は、正解生成装置130の操作者が正解生成装置130に対して各種指示を入力するためのデバイスである。   The operation unit 407 is a device for an operator of the correct answer generating device 130 to input various instructions to the correct answer generating device 130.

ドライブ部408は記録媒体410をセットするためのデバイスである。ここでいう記録媒体410には、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体410には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等も含まれる。   The drive unit 408 is a device for setting the recording medium 410. The recording medium 410 here includes a medium for recording information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, a magneto-optical disk, or the like. The recording medium 410 also includes a semiconductor memory that electrically records information, such as a ROM and a flash memory.

なお、本実施形態において、補助記憶部404に格納される各種プログラムは、例えば、配布された記録媒体410がドライブ部408にセットされ、該記録媒体410に記録された各種プログラムがドライブ部408により読み出されることでインストールされる。あるいは、通信部405を介してネットワークからダウンロードされることでインストールされる。   In the present embodiment, the various programs stored in the auxiliary storage unit 404 are, for example, the distributed recording medium 410 set in the drive unit 408, and the various programs recorded in the recording medium 410 are stored in the drive unit 408. Installed by reading. Alternatively, it is installed by being downloaded from the network via the communication unit 405.

次に、正解生成装置130の機能構成について説明する。図5は、正解生成装置の機能構成の一例を示す図である。図5に示すように、正解生成装置130の正解生成部131は、映像表示部501、フレーム指定受け付け部502、領域指定受け付け部503、画像追跡部504、修正部505を有する。   Next, a functional configuration of the correct answer generation apparatus 130 will be described. FIG. 5 is a diagram illustrating an example of a functional configuration of the correct answer generation apparatus. As illustrated in FIG. 5, the correct answer generation unit 131 of the correct answer generation device 130 includes a video display unit 501, a frame specification reception unit 502, an area specification reception unit 503, an image tracking unit 504, and a correction unit 505.

映像表示部501は、正解生成装置130の操作者により指定された画像情報を、画像情報格納部121より読み出し、表示部406に表示する。また、映像表示部501は、読み出した画像情報を画像追跡部504に送信する。   The video display unit 501 reads the image information designated by the operator of the correct answer generation device 130 from the image information storage unit 121 and displays it on the display unit 406. In addition, the video display unit 501 transmits the read image information to the image tracking unit 504.

フレーム指定受け付け部502は、表示部406に表示された画像情報の各フレームの中から、操作者より1のフレームについての指定を受け付け、受け付けたフレームを特定するフレーム番号を画像追跡部504に送信する。なお、本実施形態において、操作者は、表示部406に表示された画像情報の各フレームのうち、前方車両が含まれるフレームを指定する。また、操作者は、前方車両がより近傍に位置しているフレーム(すなわち、前方車両がより大きく映っているフレーム)を指定する。   The frame designation accepting unit 502 accepts designation of one frame from each frame of the image information displayed on the display unit 406 and transmits a frame number for identifying the accepted frame to the image tracking unit 504. To do. In the present embodiment, the operator designates a frame including the preceding vehicle among the frames of the image information displayed on the display unit 406. In addition, the operator designates a frame in which the preceding vehicle is located closer (that is, a frame in which the preceding vehicle appears larger).

領域指定受け付け部503は、フレーム指定受け付け部502を介して指定されたフレーム中において操作者により領域が指定された場合に、指定された領域の領域情報(領域の位置を示すX座標、Y座標及び領域の大きさを示す幅、高さ)を受け付ける。また、領域指定受け付け部503は、受け付けた領域情報を画像追跡部504に送信する。図5の例は、領域の座標として(X0,Y0)が送信され、領域の大きさとして(W0,H0)が送信されたことを示している。なお、本実施形態において、操作者は、指定したフレームにおいて、前方車両を示す領域を指定する。   The area designation accepting unit 503, when an area is designated by the operator in the frame designated via the frame designation accepting unit 502, the area information of the designated area (X coordinate and Y coordinate indicating the position of the area). And the width and height indicating the size of the area). In addition, the region designation receiving unit 503 transmits the received region information to the image tracking unit 504. The example of FIG. 5 indicates that (X0, Y0) is transmitted as the coordinates of the region and (W0, H0) is transmitted as the size of the region. In the present embodiment, the operator designates an area indicating the preceding vehicle in the designated frame.

画像追跡部504は、フレーム指定受け付け部502において指定されたフレーム及び領域指定受け付け部503において指定された領域に基づいて、テンプレート画像を生成する。本実施形態において、テンプレート画像とは、画像情報に含まれる各フレームから、所定の物標(前方車両)を示す領域を抽出するためのマッチング処理を行う際に用いられる画像である。   The image tracking unit 504 generates a template image based on the frame specified by the frame specification receiving unit 502 and the region specified by the region specification receiving unit 503. In the present embodiment, the template image is an image used when performing a matching process for extracting a region indicating a predetermined target (front vehicle) from each frame included in the image information.

画像追跡部504は、生成したテンプレート画像を用いて、画像情報に含まれる各フレームのマッチング処理を行うことで、各フレームからマッチング領域(Xr,Yr,Wr,Hr)を抽出し、正解情報として出力する。また、画像追跡部504は、抽出したマッチング領域を、各フレームに重畳して表示する。   The image tracking unit 504 extracts matching regions (Xr, Yr, Wr, Hr) from each frame by performing matching processing of each frame included in the image information using the generated template image, and as correct answer information Output. In addition, the image tracking unit 504 displays the extracted matching area superimposed on each frame.

修正部505は、画像追跡部504より出力された正解情報について、操作者が、修正が必要であると判定した場合に、当該フレームの正解情報について、操作者による修正操作を受け付ける。また、操作者の修正操作に基づいて修正した正解情報を、フレームと対応付けて正解情報格納部132に格納する。   When the operator determines that the correction information output from the image tracking unit 504 needs to be corrected, the correction unit 505 receives a correction operation by the operator for the correct information of the frame. Further, correct information corrected based on the correction operation of the operator is stored in the correct information storage unit 132 in association with the frame.

次に、正解生成部131の画像追跡部504の詳細について説明する。図6は、画像追跡部の詳細な機能構成を示す図である。   Next, details of the image tracking unit 504 of the correct answer generating unit 131 will be described. FIG. 6 is a diagram illustrating a detailed functional configuration of the image tracking unit.

図6に示すように、画像追跡部504は、テンプレート生成部601、マッチング算出部602、極大フレーム算出部603、極大フレーム間算出部604を有する。   As illustrated in FIG. 6, the image tracking unit 504 includes a template generation unit 601, a matching calculation unit 602, a maximum frame calculation unit 603, and a maximum interframe calculation unit 604.

テンプレート生成部601は、映像表示部501より送信された画像情報のうち、フレーム指定受け付け部502により送信されたフレーム番号に基づいて特定されるフレームを抽出する。また、テンプレート生成部601は、抽出したフレームから、領域指定受け付け部503において指定された領域を抽出する。更に、テンプレート生成部601は、抽出した領域に基づいてテンプレート画像を生成し、テンプレート情報格納部611に格納する。   The template generation unit 601 extracts a frame specified based on the frame number transmitted by the frame designation reception unit 502 from the image information transmitted from the video display unit 501. Further, the template generation unit 601 extracts the region designated by the region designation receiving unit 503 from the extracted frame. Further, the template generation unit 601 generates a template image based on the extracted area and stores it in the template information storage unit 611.

マッチング算出部602は、画像情報に含まれる各フレームについて、テンプレート情報格納部611に格納された各テンプレート画像を用いてマッチング処理を行う。マッチング算出部602では、マッチング処理を行うことで、各フレームについて、各テンプレート画像がマッチングする位置の推定結果(「マッチング位置」)を算出する。また、マッチング算出部602では、マッチング処理を行うことで、各フレームについて、各テンプレート画像がマッチングする位置における「マッチング度」を算出する。また、マッチング算出部602では、マッチング処理を行うことで、各フレームについて、各テンプレート画像がマッチングする位置と、各テンプレート画像の大きさとに基づいて「マッチング領域」(マッチング度が算出されたフレーム中の領域)を算出する。   The matching calculation unit 602 performs a matching process on each frame included in the image information using each template image stored in the template information storage unit 611. The matching calculation unit 602 calculates a position matching result (“matching position”) for each template image for each frame by performing a matching process. In addition, the matching calculation unit 602 calculates a “matching degree” at a position where each template image matches for each frame by performing a matching process. In addition, the matching calculation unit 602 performs a matching process, so that for each frame, a “matching region” (in the frame in which the matching degree is calculated) based on the position where each template image matches and the size of each template image. Area).

更に、マッチング算出部602は、各テンプレート画像を示すテンプレート番号と、各テンプレート画像を用いてマッチング処理を行った際のマッチング位置、マッチング度とを対応付けて、マッチング結果情報としてマッチング結果情報格納部612に格納する。なお、マッチング算出部602では、テンプレート番号と、マッチング位置と、マッチング度とを、フレームと対応付けて格納するものとする。   Further, the matching calculation unit 602 associates a template number indicating each template image with a matching position and a matching degree when matching processing is performed using each template image, and a matching result information storage unit as matching result information Stored in 612. Note that the matching calculation unit 602 stores the template number, the matching position, and the matching degree in association with the frame.

極大フレーム算出部603は、マッチング結果情報格納部612に格納されたマッチング結果情報に基づいて、極大フレームを抽出する。極大フレームの詳細な説明は後述するとして、ここでは、極大フレームを以下のように定義する。
(a)所定の区間において連続する複数フレームのうちの1のフレームである。
(b)各テンプレート画像のうち、マッチング度が最大のテンプレート画像を用いて、当該所定の区間において連続する複数フレームについてマッチング処理を行った場合に、当該所定の区間においてマッチング度が最大のフレームである。
(c)上記(b)において、マッチング度が最大のテンプレート画像とは、他のテンプレート画像のマッチング度との差が、所定の閾値以上であるテンプレート画像である。
The maximum frame calculation unit 603 extracts a maximum frame based on the matching result information stored in the matching result information storage unit 612. The detailed description of the maximal frame will be described later. Here, the maximal frame is defined as follows.
(A) One frame among a plurality of frames that are continuous in a predetermined section.
(B) Among the template images, when a matching process is performed on a plurality of consecutive frames in the predetermined section using a template image having the maximum matching degree, the frame having the maximum matching degree in the predetermined section is there.
(C) In (b) above, the template image having the maximum matching degree is a template image in which the difference from the matching degree of other template images is equal to or greater than a predetermined threshold.

極大フレーム算出部603は、抽出した極大フレームを示すフレーム番号を、極大フレーム情報として、極大フレーム情報格納部613に格納する。なお、極大フレーム算出部603では、少なくとも極大フレームを抽出する際に用いた、マッチング度が最大のテンプレート画像の大きさと、極大フレーム中のマッチング位置とを対応付けて、極大フレーム情報として極大フレーム情報格納部613に格納する。   The maximum frame calculation unit 603 stores the extracted frame number indicating the maximum frame in the maximum frame information storage unit 613 as maximum frame information. Note that the maximum frame calculation unit 603 associates the size of the template image with the maximum matching degree used when extracting at least the maximum frame with the matching position in the maximum frame, and sets the maximum frame information as the maximum frame information. Store in the storage unit 613.

極大フレーム間算出部604は、極大フレーム情報格納部613に格納された各極大フレームに対応付けて格納された、テンプレート画像の大きさと、マッチング位置とに基づいて、極大フレーム間の各フレームの正解情報を生成する際の拘束条件を算出する。   The maximum inter-frame calculation unit 604 corrects each frame between the maximum frames based on the size of the template image and the matching position stored in association with each maximum frame stored in the maximum frame information storage unit 613. Constraint conditions for generating information are calculated.

なお、拘束条件の詳細な説明は後述するものとして、ここでは、拘束条件を以下のように定義する。
(a)極大フレーム情報格納部613に格納された極大フレームのうち、連続する極大フレーム間の各フレームについて、マッチング処理を行う際の条件である。
(b)連続する極大フレーム間の各フレームについてのマッチング処理は、当該極大フレームに対応付けて格納されたテンプレート画像の大きさと、マッチング位置とにより拘束される。
Note that the detailed description of the constraint condition will be described later, and here, the constraint condition is defined as follows.
(A) This is a condition for performing matching processing for each frame between consecutive maximal frames among the maximal frames stored in the maximal frame information storage unit 613.
(B) The matching process for each frame between consecutive maximal frames is constrained by the size of the template image stored in association with the maximal frame and the matching position.

極大フレーム間算出部604は、各極大フレームについては、極大フレーム情報格納部613より読み出した、テンプレート画像の大きさと、マッチング位置とに基づいて特定されるマッチング領域を、正解情報として出力する。   For each maximal frame, the maximal inter-frame calculation unit 604 outputs, as correct answer information, a matching area that is read from the maximal frame information storage unit 613 and specified based on the size of the template image and the matching position.

また、極大フレーム間算出部604は、極大フレーム間の各フレームについては、拘束条件に基づいてマッチング処理を行うことで算出した、テンプレート画像の大きさとマッチング位置とに基づいて特定されるマッチング領域を、正解情報として出力する。   Further, the maximum inter-frame calculation unit 604 calculates a matching area specified based on the size of the template image and the matching position, which is calculated by performing the matching process based on the constraint condition for each frame between the maximum frames. , Output as correct answer information.

このように、画像追跡部504は、各フレームに対するマッチング処理結果を1次評価として取得する第1の取得手段(マッチング算出部602、極大フレーム算出部603)を有する。また、画像追跡部504は、マッチング処理結果(1次評価結果)から算出した極大フレームで条件を拘束し、極大フレーム間で時系列データとしてマッチング処理を行い、2次評価を取得する第2の取得手段(極大フレーム間算出部604)を有する。このように複数の段階(上述の例では、2段階)で評価処理を行うことで、画像追跡部504では、前方車両の車両領域を特定するための特定画像領域を正解情報として抽出する。なお、評価の段階は、2段階に限定されるものではなく、例えば3段階以上の評価に、上記の1次評価と2次評価とが含まれていればよい。   As described above, the image tracking unit 504 includes a first acquisition unit (matching calculation unit 602, maximum frame calculation unit 603) that acquires a matching processing result for each frame as a primary evaluation. Further, the image tracking unit 504 constrains the condition with the maximal frame calculated from the matching processing result (primary evaluation result), performs the matching process as time-series data between the maximal frames, and acquires the second evaluation. It has an acquisition means (maximum interframe calculation part 604). As described above, by performing the evaluation process in a plurality of stages (in the above example, two stages), the image tracking unit 504 extracts a specific image area for identifying the vehicle area of the preceding vehicle as correct information. Note that the stage of evaluation is not limited to two stages. For example, the above-described primary evaluation and secondary evaluation may be included in three or more stages of evaluation.

次に、画像追跡部504による正解情報生成処理の流れについて説明する。図7は、正解情報生成処理のフローチャートである。   Next, the flow of correct information generation processing by the image tracking unit 504 will be described. FIG. 7 is a flowchart of correct information generation processing.

ステップS701において、テンプレート生成部601はテンプレート生成処理を実行し、テンプレート画像を生成するとともに、生成したテンプレート画像をテンプレート情報格納部611に格納する。   In step S <b> 701, the template generation unit 601 executes a template generation process, generates a template image, and stores the generated template image in the template information storage unit 611.

ステップS702において、マッチング算出部602は、画像情報のフレームについてマッチング処理を実行し、マッチング結果情報をマッチング結果情報格納部612に格納する。   In step S <b> 702, the matching calculation unit 602 performs matching processing on the frame of the image information, and stores the matching result information in the matching result information storage unit 612.

ステップS703において、極大フレーム算出部603は、画像情報のフレームについて、極大フレーム算出処理を実行し、極大フレーム情報を、極大フレーム情報格納部613に格納する。   In step S <b> 703, the maximal frame calculation unit 603 performs a maximal frame calculation process on the image information frame, and stores the maximal frame information in the maximal frame information storage unit 613.

ステップS704において、極大フレーム算出部603は、継続判定処理を実行し、次のフレームについて、マッチング処理(ステップS702)及び極大フレーム算出処理(ステップS703)を継続するか否かを判定する。   In step S704, the maximum frame calculation unit 603 executes a continuation determination process, and determines whether or not to continue the matching process (step S702) and the maximum frame calculation process (step S703) for the next frame.

ステップS705において、極大フレーム算出部603が継続すると判定した場合(ステップS705において、Yes)には、ステップS702に戻る。これにより、次のフレームについて、マッチング処理(ステップS702)及び極大フレーム算出処理(ステップS703)が継続される。   If it is determined in step S705 that the maximum frame calculation unit 603 continues (Yes in step S705), the process returns to step S702. Thereby, the matching process (step S702) and the maximum frame calculation process (step S703) are continued for the next frame.

一方、ステップS705において、極大フレーム算出部603が継続しないと判定した場合(ステップS705において、No)には、ステップS706に進む。   On the other hand, if it is determined in step S705 that the maximum frame calculation unit 603 does not continue (No in step S705), the process proceeds to step S706.

ステップS706において、極大フレーム間算出部604は、極大フレーム間算出処理を実行し、極大フレーム間の各フレームについてマッチング処理を行うことで正解情報を算出する。   In step S <b> 706, the maximum interframe calculation unit 604 performs a maximum interframe calculation process, and calculates correct information by performing a matching process for each frame between the maximum frames.

ステップS707において、極大フレーム間算出部604は、ステップS706において算出した正解情報を含むすべての正解情報を修正部505に出力し、正解情報生成処理を終了する。   In step S707, the maximum interframe calculation unit 604 outputs all correct information including the correct information calculated in step S706 to the correction unit 505, and ends the correct information generation process.

次に、正解情報生成処理の各工程(図7のテンプレート生成処理(S701)、マッチング処理(S702)、極大フレーム算出処理(S703)、継続判定処理(S704)、極大フレーム間算出処理(S706))の詳細について、以下に、順を追って説明する。   Next, each step of the correct information generation processing (template generation processing (S701) in FIG. 7, matching processing (S702), maximum frame calculation processing (S703), continuation determination processing (S704), maximum local frame calculation processing (S706). ) Will be described in order below.

はじめに、テンプレート生成処理(ステップS701)について説明する。図8は、テンプレート生成部により実行されるテンプレート生成処理のフローチャートである。   First, the template generation process (step S701) will be described. FIG. 8 is a flowchart of a template generation process executed by the template generation unit.

ステップS801において、テンプレート生成部601は、初期テンプレート画像を切り出す。具体的には、映像表示部501より送信された画像情報の各フレームのうち、フレーム指定受け付け部502より送信されたフレーム番号により特定されるフレームであって、領域指定受け付け部503より送信された領域情報により特定される領域を切り出す。   In step S801, the template generation unit 601 cuts out an initial template image. Specifically, among the frames of the image information transmitted from the video display unit 501, the frame is identified by the frame number transmitted from the frame designation receiving unit 502 and transmitted from the region designation receiving unit 503. The area specified by the area information is cut out.

ステップS802において、テンプレート生成部601は、ステップS801において切り出された領域を、初期テンプレート画像として、テンプレート情報格納部611に格納する。   In step S802, the template generation unit 601 stores the region cut out in step S801 in the template information storage unit 611 as an initial template image.

ステップS803において、テンプレート生成部601は、ステップS802において格納された初期テンプレート画像に対して、幅方向及び高さ方向に、所定画素数分(例えば、1画素分)、縮小した場合のテンプレート画像のサイズを算出する。   In step S803, the template generation unit 601 reduces the template image when the initial template image stored in step S802 is reduced by a predetermined number of pixels (for example, one pixel) in the width direction and the height direction. Calculate the size.

ステップS804において、テンプレート生成部601は、ステップS803において算出したテンプレート画像のサイズが、所定のサイズ条件を満たすか否かを判定する。なお、所定のサイズ条件とは、各フレームについてマッチング処理を行うにあたって生成すべきテンプレート画像のサイズ範囲をいう。   In step S804, the template generation unit 601 determines whether the size of the template image calculated in step S803 satisfies a predetermined size condition. The predetermined size condition refers to the size range of the template image to be generated when performing the matching process for each frame.

ステップS804において、所定のサイズ条件を満たすと判定した場合(ステップS804において、Yes)には、ステップS805に進み、ステップS803において算出したサイズのテンプレート画像を生成する。その後、ステップS802に戻り、ステップS805において生成したテンプレート画像を、テンプレート情報格納部611に格納する。   If it is determined in step S804 that the predetermined size condition is satisfied (Yes in step S804), the process proceeds to step S805, and a template image having the size calculated in step S803 is generated. Thereafter, the process returns to step S802, and the template image generated in step S805 is stored in the template information storage unit 611.

一方、ステップS804において、所定のサイズ条件を満たさないと判定した場合(ステップS804において、No)には、テンプレート生成処理を終了する。   On the other hand, if it is determined in step S804 that the predetermined size condition is not satisfied (No in step S804), the template generation process ends.

このようにテンプレート生成部601によりテンプレート生成処理が実行されることで、テンプレート情報格納部611には、生成されたテンプレート画像が格納される。   In this way, the template generation processing is executed by the template generation unit 601, and thus the generated template image is stored in the template information storage unit 611.

図9は、テンプレート情報の一例を示す図である。図9に示すように、テンプレート情報900には情報の項目として、"テンプレート番号"、"テンプレート"、"テンプレートサイズ"が含まれる。   FIG. 9 is a diagram illustrating an example of template information. As shown in FIG. 9, the template information 900 includes “template number”, “template”, and “template size” as information items.

"テンプレート番号"には、テンプレート生成部601により生成されたテンプレート画像を特定するための番号が格納される。テンプレート番号は、テンプレート生成部601が、生成したテンプレート画像をテンプレート情報格納部611に格納する際に、テンプレート画像に対応付けて付与する。   In the “template number”, a number for specifying the template image generated by the template generation unit 601 is stored. The template number is assigned in association with the template image when the template generation unit 601 stores the generated template image in the template information storage unit 611.

"テンプレート"には、テンプレート生成部601が生成したテンプレート画像が格納される。   The “template” stores a template image generated by the template generation unit 601.

"テンプレートサイズ"には、テンプレート生成部601が生成したテンプレート画像のサイズ(幅×高さ)が格納される。   The “template size” stores the size (width × height) of the template image generated by the template generation unit 601.

次に、マッチング処理(ステップS702)について説明する。図10は、マッチング算出部により実行されるマッチング処理のフローチャートである。   Next, the matching process (step S702) will be described. FIG. 10 is a flowchart of the matching process executed by the matching calculation unit.

ステップS1001において、マッチング算出部602は、テンプレート番号(α)を取得する。なお、テンプレート番号(α)は、図7に示す正解情報生成処理において、1ループ前のステップS703(極大フレーム算出処理)において決定される番号である。したがって、マッチング算出部602では、ステップS703において決定されたテンプレート番号(α)を取得する。なお、図7に示す正解情報生成処理が1ループ目であった場合には、マッチング算出部602は、テンプレート番号(α)として、予め定められた初期値を取得する。   In step S1001, the matching calculation unit 602 acquires a template number (α). The template number (α) is a number determined in step S703 (maximum frame calculation process) one loop before in the correct information generation process shown in FIG. Therefore, the matching calculation unit 602 acquires the template number (α) determined in step S703. If the correct information generation process shown in FIG. 7 is the first loop, the matching calculation unit 602 acquires a predetermined initial value as the template number (α).

なお、本実施形態において、マッチング算出部602は、1つのフレームに対して、3つのテンプレート画像を用いてマッチング処理を行うものとする。   In the present embodiment, the matching calculation unit 602 performs matching processing on one frame using three template images.

ステップS1002において、マッチング算出部602は、フレーム番号(n)のフレームを取得する。なお、フレーム番号(n)は、図7に示す正解情報生成処理において、1ループ前のステップS703(極大フレーム算出処理)において決定される番号である。したがって、マッチング算出部602では、ステップS703において決定されたフレーム番号(n)を取得する。なお、図7に示す正解情報生成処理が1ループ目であった場合には、マッチング算出部602は、フレーム番号(n)として、予め定められた初期値を取得する。   In step S1002, the matching calculation unit 602 acquires a frame having a frame number (n). The frame number (n) is a number determined in step S703 (maximum frame calculation process) one loop before the correct information generation process shown in FIG. Therefore, the matching calculation unit 602 acquires the frame number (n) determined in step S703. If the correct information generation process shown in FIG. 7 is the first loop, the matching calculation unit 602 acquires a predetermined initial value as the frame number (n).

ステップS1003において、マッチング算出部602は、ステップS1002においてフレーム番号(n)のフレームを取得できたか否かを判定する。ステップS1003において、取得できなかったと判定した場合(ステップS1003において、No)には、マッチング処理を終了する。   In step S1003, the matching calculation unit 602 determines whether the frame having the frame number (n) has been acquired in step S1002. If it is determined in step S1003 that acquisition has failed (No in step S1003), the matching process ends.

一方、ステップS1003において、取得できたと判定した場合(ステップS1003において、Yes)には、ステップS1004に進む。ステップS1004において、マッチング算出部602は、テンプレート番号(α)、(α+1)、(α+2)により特定される3つのテンプレート画像を、テンプレート情報格納部611より読み出す。   On the other hand, if it is determined in step S1003 that it has been acquired (Yes in step S1003), the process proceeds to step S1004. In step S1004, the matching calculation unit 602 reads three template images specified by the template numbers (α), (α + 1), and (α + 2) from the template information storage unit 611.

ステップS1005において、マッチング算出部602は、フレーム番号(n)により特定されるフレームを、画像情報より抽出する。   In step S1005, the matching calculation unit 602 extracts the frame specified by the frame number (n) from the image information.

ステップS1006において、マッチング算出部602は、処理対象のフレームについて各テンプレート画像を用いて、それぞれマッチング度及びマッチング位置を算出する。具体的には、マッチング算出部602は、テンプレート番号(α)のテンプレート画像を用いて、フレーム番号(n)のフレームについてマッチング処理を行い、マッチング位置及びマッチング度を算出する。   In step S1006, the matching calculation unit 602 calculates the matching degree and the matching position using each template image for the processing target frame. Specifically, the matching calculation unit 602 performs a matching process on the frame with the frame number (n) using the template image with the template number (α), and calculates the matching position and the matching degree.

また、マッチング算出部602は、テンプレート番号(α+1)のテンプレート画像を用いて、フレーム番号(n)のフレームについてマッチング処理を行い、マッチング位置及びマッチング度を算出する。   In addition, the matching calculation unit 602 performs a matching process on the frame of the frame number (n) using the template image of the template number (α + 1), and calculates the matching position and the matching degree.

更に、マッチング算出部602は、テンプレート番号(α+2)のテンプレート画像を用いて、フレーム番号nのフレームについてマッチング処理を行い、マッチング位置及びマッチング度を算出する。   Further, the matching calculation unit 602 performs a matching process on the frame with the frame number n using the template image with the template number (α + 2), and calculates the matching position and the matching degree.

ステップS1007において、マッチング算出部602は、ステップS1006において、各テンプレート画像を用いて算出された、マッチング位置及びマッチング度を、マッチング結果情報格納部612に格納する。   In step S1007, the matching calculation unit 602 stores the matching position and the matching degree calculated using each template image in step S1006 in the matching result information storage unit 612.

次に、マッチング算出部602によるマッチング処理の具体例について、図11を用いて説明する。図11は、マッチング処理を説明するための図である。   Next, a specific example of matching processing by the matching calculation unit 602 will be described with reference to FIG. FIG. 11 is a diagram for explaining the matching process.

図11(a)は、テンプレート番号(α)により特定されるテンプレート画像1101を用いて、フレーム番号(n)のフレーム1110についてマッチング処理を行った場合を示している。図11(a)の例では、点線1111で示す領域において、テンプレート画像1101がマッチングしたことを示している。なお、点線1111で示す領域は、マッチング位置(X_(α),Y_(α))とテンプレート画像1101の大きさに基づいて特定され、マッチング度はM_(α)である。 FIG. 11A shows a case where the matching process is performed on the frame 1110 with the frame number (n) using the template image 1101 specified by the template number (α). In the example of FIG. 11A, it is shown that the template image 1101 is matched in the area indicated by the dotted line 1111. Note that the region indicated by the dotted line 1111 is specified based on the matching position (X n _ (α), Y n _ (α)) and the size of the template image 1101, and the matching degree is M n _ (α). .

図11(b)は、テンプレート番号(α+1)により特定されるテンプレート画像1102を用いて、フレーム番号nのフレーム1110についてマッチング処理を行った場合を示している。図11(b)の例では、点線1112で示す領域において、テンプレート画像1102がマッチングしたことを示している。なお、点線1112で示す領域は、マッチング位置(X_(α+1),Y_(α+1))とテンプレート画像1102の大きさに基づいて特定され、マッチング度はM_(α+1)である。 FIG. 11B shows a case where the matching process is performed on the frame 1110 with the frame number n using the template image 1102 specified by the template number (α + 1). In the example of FIG. 11B, the template image 1102 is matched in the area indicated by the dotted line 1112. Note that the region indicated by the dotted line 1112 is specified based on the matching position (X n _ (α + 1), Y n _ (α + 1)) and the size of the template image 1102, and the matching degree is M n _ (α + 1). .

図11(c)は、テンプレート番号(α+2)により特定されるテンプレート画像1103を用いて、フレーム番号(n)のフレーム1110についてマッチング処理を行った場合を示している。図11(c)の例では、点線1113で示す領域において、テンプレート画像1103がマッチングしたことを示している。なお、点線1113で示す領域は、マッチング位置(X_(α+2),Y_(α+2))とテンプレート画像1103の大きさに基づいて特定され、マッチング度はM_(α+2)である。 FIG. 11C shows a case where the matching process is performed on the frame 1110 with the frame number (n) using the template image 1103 specified by the template number (α + 2). In the example of FIG. 11C, the template image 1103 is matched in the area indicated by the dotted line 1113. The region indicated by the dotted line 1113, matching position (X n _ (α + 2 ), Y n _ (α + 2)) is specified based on the size of the template image 1103, the matching degree is _ M n (α + 2) .

次に、マッチング算出部602によるマッチング処理によりマッチング結果情報格納部612に格納されたマッチング結果情報の具体例について説明する。図12は、マッチング結果情報の一例を示す図である。   Next, a specific example of the matching result information stored in the matching result information storage unit 612 by the matching processing by the matching calculation unit 602 will be described. FIG. 12 is a diagram illustrating an example of matching result information.

図12に示すように、マッチング結果情報1200には、情報の項目として、"フレーム番号"、"テンプレート番号"、"テンプレート画像の大きさ"、"マッチング度"、"マッチング位置"が含まれる。   As shown in FIG. 12, the matching result information 1200 includes “frame number”, “template number”, “template image size”, “matching degree”, and “matching position” as information items.

"フレーム番号"には、マッチング処理の処理対象となったフレームのフレーム番号が格納される。   The “frame number” stores the frame number of the frame that is the target of the matching process.

"テンプレート番号"には、処理対象となったフレームに対して、マッチング処理を行った際に用いたテンプレート画像を特定するテンプレート番号が格納される。   The “template number” stores a template number for specifying a template image used when matching processing is performed on a frame to be processed.

"テンプレート画像の大きさ"には、各テンプレート番号により特定されるテンプレート画像の大きさ(幅、高さ)が格納される。   The “size of the template image” stores the size (width, height) of the template image specified by each template number.

"マッチング度"には、各テンプレート画像を用いてマッチング処理を行った際のマッチング度が格納される。   The “matching degree” stores the matching degree when matching processing is performed using each template image.

"マッチング位置"には、各テンプレート画像を用いてマッチング処理を行った際のマッチング位置が格納される。   The “matching position” stores a matching position when matching processing is performed using each template image.

次に、極大フレーム算出処理(ステップS703)について説明する。図13は、極大フレーム算出処理のフローチャートである。ここでは、フレーム番号(n)のフレームを処理対象として、フレーム番号(n−1)のフレームが極大フレームであったかを判定する極大フレーム算出処理について説明する。   Next, the maximum frame calculation process (step S703) will be described. FIG. 13 is a flowchart of the maximum frame calculation process. Here, the maximum frame calculation process for determining whether the frame with the frame number (n−1) is a maximum frame with the frame with the frame number (n) as a processing target will be described.

ステップS1301において、極大フレーム算出部603は、フレーム番号(n−1)のフレームに対して、各テンプレート画像がマッチング処理を行った場合のマッチング度のうち、最大のマッチング度を算出したテンプレート画像があるか否かを判定する。   In step S <b> 1301, the maximum frame calculation unit 603 calculates a template image for which the maximum matching degree is calculated among matching degrees when each template image performs matching processing on the frame with the frame number (n−1). It is determined whether or not there is.

ステップS1301において、最大のマッチング度を算出したテンプレート画像がなかったと判定した場合(ステップS1301において、No)には、ステップS1307に進む。一方、ステップS1301において、最大のマッチング度を算出したテンプレート画像があると判定した場合(ステップS1301において、Yes)には、ステップS1302に進む。   If it is determined in step S1301 that there is no template image for which the maximum matching degree has been calculated (No in step S1301), the process proceeds to step S1307. On the other hand, if it is determined in step S1301 that there is a template image for which the maximum matching degree is calculated (Yes in step S1301), the process proceeds to step S1302.

ステップS1302において、極大フレーム算出部603は、フレーム番号(n−1)のフレームについて各テンプレート画像を用いてマッチング処理を行った場合のマッチング度を、マッチング結果情報1200より読み出す。なお、フレーム番号(n−1)のフレームについてのマッチング処理は、テンプレート番号(α)、(α+1)、(α+2)のテンプレート画像が用いられたとする。   In step S <b> 1302, the maximum frame calculation unit 603 reads, from the matching result information 1200, the matching degree when matching processing is performed using each template image for the frame with the frame number (n−1). It is assumed that the template number (α), (α + 1), and (α + 2) template images are used in the matching process for the frame number (n−1).

このため、ステップS1302において極大フレーム算出部603は、テンプレート番号(α)のテンプレート画像のマッチング度としてMn−1_(α)を読み出す。また、テンプレート番号(α+1)のテンプレート画像のマッチング度としてMn−1_(α+1)を読み出す。更に、テンプレート番号(α+2)のテンプレート画像のマッチング度としてMn−1_(α+2)を読み出す。 For this reason, in step S1302, the maximum frame calculation unit 603 reads M n−1 _ (α) as the matching degree of the template image with the template number (α). Also, M n−1 _ (α + 1) is read as the matching degree of the template image with the template number (α + 1). Further, M n−1 _ (α + 2) is read as the matching degree of the template image with the template number (α + 2).

なお、ステップS1302において読み出したマッチング度のうち、ここでは、Mn−1_(α+1)が最大のマッチング度であるとする。 It is assumed here that M n−1 _ (α + 1) is the maximum matching degree among the matching degrees read in step S1302.

ステップS1303において、極大フレーム算出部603は、ステップS1302において読み出したマッチング度のうち、最大のマッチング度と、他のマッチング度との差が所定の閾値THより大きいか否かを判定する。換言すると、Mn−1_(α+1)−TH>Mn−1_(α)、Mn−1_(α+2)が成立するか否かを判定する。 In step S1303, the maximal frame calculation unit 603 determines whether or not the difference between the maximum matching degree read out in step S1302 and the other matching degrees is greater than a predetermined threshold value TH. In other words, it is determined whether M n−1 _ (α + 1) −TH> M n−1 _ (α) and M n−1 _ (α + 2) are satisfied.

ステップS1303において、所定の閾値TH以下であると判定した場合(ステップS1303においてNo)には、ステップS1307に進む。一方、所定の閾値THより大きいと判定した場合(ステップS1303において、Yes)には、ステップS1304に進む。   If it is determined in step S1303 that it is equal to or smaller than the predetermined threshold TH (No in step S1303), the process proceeds to step S1307. On the other hand, if it is determined that it is greater than the predetermined threshold TH (Yes in step S1303), the process proceeds to step S1304.

ステップS1304において、極大フレーム算出部603は、フレーム番号(n)のフレームに対して、テンプレート番号(α+1)のテンプレート画像を用いてマッチング処理を行った場合のマッチング度をマッチング結果情報1200より読み出す。具体的には、マッチング度M_(α+1)を読み出す。また、極大フレーム算出部603は、読み出したマッチング度M_(α+1)をマッチング度Mn−1_(α+1)と比較する。 In step S1304, the maximal frame calculation unit 603 reads from the matching result information 1200 the matching degree when the matching process is performed on the frame with the frame number (n) using the template image with the template number (α + 1). Specifically, the matching degree M n _ (α + 1) is read out. In addition, the maximum frame calculation unit 603 compares the read matching degree M n _ (α + 1) with the matching degree M n−1 _ (α + 1).

ステップS1304における比較の結果、1フレーム前のマッチング度Mn−1_(α+1)が、現在の処理対象のフレームのマッチング度M_(α+1)以下の場合(ステップS1304において、No)には、ステップS1307に進む。 As a result of the comparison in step S1304, when the matching degree M n−1 _ (α + 1) one frame before is equal to or lower than the matching degree M n _ (α + 1) of the current processing target frame (No in step S1304). The process proceeds to step S1307.

一方、ステップS1304における比較の結果、1フレーム前のマッチング度Mn-1_(α+1)の方が、現在の処理対象のフレームのマッチング度M_(α+1)より大きい場合(ステップS1304において、Yes)には、ステップS1305に進む。 On the other hand, as a result of the comparison in step S1304, when the matching degree M n-1 _ (α + 1) one frame before is greater than the matching degree M n _ (α + 1) of the current processing target frame (in step S1304, In Yes), it progresses to step S1305.

ステップS1305において、極大フレーム算出部603は、1フレーム前のフレーム(フレーム番号(n−1)のフレーム)を、極大フレームとして、極大フレーム情報格納部613に格納する。   In step S <b> 1305, the maximum frame calculation unit 603 stores the previous frame (frame number (n−1)) as the maximum frame in the maximum frame information storage unit 613.

ステップS1306において、極大フレーム算出部603は、次のフレーム(フレーム番号(n+1)のフレーム)に対するマッチング処理(ステップS702)及び極大フレーム算出処理(ステップS703)を実行する際に用いるテンプレート番号を決定する。   In step S1306, the maximal frame calculation unit 603 determines a template number used when executing a matching process (step S702) and a maximal frame calculation process (step S703) for the next frame (frame number (n + 1) frame). .

例えば、最大のマッチング度がMn−1_(α+1)であったとする。この場合、極大フレーム算出部603では、次のフレームに対するマッチング処理(ステップS702)及び極大フレーム算出処理(ステップS703)において、テンプレート番号(α)、(α+1)、(α+2)のテンプレート画像を用いることを決定する。 For example, it is assumed that the maximum matching degree is M n−1 _ (α + 1). In this case, the maximum frame calculation unit 603 uses the template images of the template numbers (α), (α + 1), and (α + 2) in the matching process (step S702) and the maximum frame calculation process (step S703) for the next frame. To decide.

また、例えば、最大のマッチング度がM_(α)であったとする。この場合、極大フレーム算出部603では、次のフレームに対するマッチング処理(ステップS702)及び極大フレーム算出処理(ステップS703)において、テンプレート番号(α−1)、(α)、(α+1)のテンプレート画像を用いることを決定する。 For example, assume that the maximum matching degree is M n — (α). In this case, the maximal frame calculation unit 603 obtains template images of template numbers (α−1), (α), and (α + 1) in the matching process (step S702) and the maximal frame calculation process (step S703) for the next frame. Decide to use.

すなわち、極大フレーム算出部603では、最大のマッチング度が算出されたテンプレート画像と、該テンプレート画像よりサイズが1つ大きいテンプレート画像とサイズが1つ小さいテンプレート画像とを、次のフレームのマッチング処理に用いることを決定する。   That is, the maximum frame calculation unit 603 uses the template image for which the maximum matching degree has been calculated, the template image having a size one larger than the template image and the template image having a size smaller by one for matching processing of the next frame. Decide to use.

ステップS1307において、極大フレーム算出部603は、フレーム番号をインクリメントし、次のフレームを処理対象にして、極大フレーム算出処理を終了する。   In step S1307, the maximum frame calculation unit 603 increments the frame number, sets the next frame as a processing target, and ends the maximum frame calculation process.

次に、極大フレーム算出部603による極大フレーム算出処理の具体例について、図14及び図15を用いて説明する。図14は、極大フレーム算出処理を説明するための図である。なお、図14では、説明の簡略化のため、それぞれのフレームについてマッチング処理を行った際に用いたテンプレート画像の種類を2種類としている。   Next, a specific example of the maximal frame calculation process by the maximal frame calculation unit 603 will be described with reference to FIGS. FIG. 14 is a diagram for explaining the maximum frame calculation process. In FIG. 14, for simplification of explanation, two types of template images are used when matching processing is performed for each frame.

図14(a)において、横軸はフレーム番号を表しており、縦軸は、それぞれのフレーム番号のフレームにおけるマッチング度を示している。また、折れ線1401は、テンプレート番号(α+1)のテンプレート画像を用いてマッチング処理を行った場合のマッチング度の変化を示している。更に、折れ線1402は、テンプレート番号(α)のテンプレート画像を用いてマッチング処理を行った場合のマッチング度の変化を示している。   In FIG. 14A, the horizontal axis represents the frame number, and the vertical axis represents the matching degree in the frame of each frame number. A polygonal line 1401 indicates a change in the matching degree when the matching process is performed using the template image of the template number (α + 1). Furthermore, a broken line 1402 indicates a change in the matching degree when the matching process is performed using the template image of the template number (α).

図14(a)に示すように、区間1411に含まれる各フレームでは、テンプレート番号(α)のテンプレート画像を用いた場合のマッチング度と、テンプレート番号(α+1)のテンプレート画像を用いた場合のマッチング度との差が所定の閾値THより大きい。したがって、区間1411内に含まれる各フレームが、極大フレームの候補となる。   As shown in FIG. 14A, in each frame included in the section 1411, the matching degree when the template image of the template number (α) is used and the matching degree when the template image of the template number (α + 1) is used. The difference from the degree is larger than a predetermined threshold value TH. Therefore, each frame included in the section 1411 is a candidate for the maximum frame.

そこで、区間1411に含まれるマッチング度(区間1411の折れ線1401)について着目する。区間1411の折れ線1401は、フレーム番号(n−1)からフレーム番号(n)に移るときに、初めて減少に転じる。つまり、区間1411においては、フレーム番号(n−1)に対応するマッチング度が最大であることがわかる。したがって、極大フレーム算出部603では、フレーム番号(n−1)のフレームを、極大フレームと判定する。   Therefore, attention is paid to the matching degree included in the section 1411 (a broken line 1401 of the section 1411). The broken line 1401 in the section 1411 starts to decrease for the first time when moving from the frame number (n−1) to the frame number (n). That is, in the section 1411, it can be seen that the matching degree corresponding to the frame number (n−1) is the maximum. Therefore, the maximum frame calculation unit 603 determines that the frame with the frame number (n−1) is the maximum frame.

同様に、図14(b)も、横軸はフレーム番号を表しており、縦軸は、それぞれのフレーム番号のフレームにおけるマッチング度を示している。また、折れ線1421は、テンプレート番号(α)のテンプレート画像を用いてマッチング処理を行った場合のマッチング度の変化を示している。更に、折れ線1422は、テンプレート番号(α+1)のテンプレート画像を用いてマッチング処理を行った場合のマッチング度の変化を示している。   Similarly, in FIG. 14B, the horizontal axis represents the frame number, and the vertical axis represents the matching degree in the frame of each frame number. A broken line 1421 indicates a change in the matching degree when the matching process is performed using the template image of the template number (α). Further, a broken line 1422 indicates a change in the matching degree when the matching process is performed using the template image of the template number (α + 1).

ただし、図14(b)の場合、区間1431に含まれる各フレームでは、テンプレート番号(α)のテンプレート画像を用いた場合のマッチング度と、テンプレート番号(α+1)のテンプレート画像を用いた場合のマッチング度との差が所定の閾値TH以下である。したがって、区間1431内に含まれる各フレームは、極大フレームにはなりえない。   However, in the case of FIG. 14B, in each frame included in the section 1431, the matching degree when using the template image of the template number (α) and the matching when using the template image of the template number (α + 1). The difference from the degree is equal to or less than a predetermined threshold value TH. Therefore, each frame included in the section 1431 cannot be a maximum frame.

図15は、極大フレーム算出結果の具体例を示す図である。図15(a)において、横軸はフレーム番号を示しており、縦軸は、テンプレート画像の大きさ(ここでは、テンプレート画像の幅)を示している。なお、直線1501は、各フレームにおける物標(前方車両301)の真の幅を示している。   FIG. 15 is a diagram illustrating a specific example of the maximum frame calculation result. In FIG. 15A, the horizontal axis indicates the frame number, and the vertical axis indicates the size of the template image (here, the width of the template image). A straight line 1501 indicates the true width of the target (the forward vehicle 301) in each frame.

図15(a)の例では、フレーム番号1のフレームが極大フレームと判定されたことを示している。また、極大フレームと判定されたフレームについて、マッチング処理を行った際に用いたテンプレート画像のうち、最大のマッチング度が算出されたテンプレート画像の幅がW1であったことを示している。   In the example of FIG. 15A, it is shown that the frame with frame number 1 is determined to be a maximal frame. Further, it is indicated that the width of the template image for which the maximum matching degree is calculated among the template images used when performing the matching process for the frame determined to be the maximal frame is W1.

また、図15(a)の例では、フレーム番号6のフレームが極大フレームと判定されたことを示している。また、極大フレームと判定されたフレームについて、マッチング処理を行った際に用いたテンプレート画像のうち、最大のマッチング度が算出されたテンプレート画像の幅がW2であったことを示している。   In the example of FIG. 15A, it is shown that the frame with frame number 6 is determined to be a maximal frame. Further, it is indicated that the width of the template image for which the maximum matching degree is calculated among the template images used when performing the matching process for the frame determined to be the maximal frame is W2.

また、図15(a)の例では、フレーム番号11のフレームが極大フレームと判定されたことを示している。また、極大フレームと判定されたフレームについて、マッチング処理を行った際に用いたテンプレート画像のうち、最大のマッチング度が算出されたテンプレート画像の幅がW3であったことを示している。   Further, in the example of FIG. 15A, it is indicated that the frame having the frame number 11 is determined to be the maximum frame. Further, it is indicated that the width of the template image for which the maximum matching degree is calculated among the template images used when performing the matching process for the frame determined to be the maximal frame is W3.

更に、図15(a)の例では、フレーム番号16のフレームが極大フレームと判定されたことを示している。また、極大フレームと判定されたフレームについて、マッチング処理を行った際に用いたマッチング画像のうち、最大のマッチング度が算出されたテンプレート画像の幅がW4であったことを示している。   Furthermore, in the example of FIG. 15A, it is shown that the frame with frame number 16 is determined to be a maximal frame. In addition, for the frame determined to be the maximum frame, among the matching images used when performing the matching process, the width of the template image for which the maximum matching degree is calculated is W4.

このように、極大フレーム算出部603では、物標(前方車両301)の真の幅と、テンプレート画像の幅(画素単位の幅)とが、一致するフレームを極大フレームと判定する。   As described above, the maximum frame calculation unit 603 determines that a frame in which the true width of the target (the forward vehicle 301) and the width of the template image (pixel-unit width) match is the maximum frame.

図15(b)は、図15(a)における判定結果を、極大フレーム情報として、極大フレーム情報格納部613に格納した様子を示している。   FIG. 15B shows a state in which the determination result in FIG. 15A is stored in the maximum frame information storage unit 613 as maximum frame information.

図15(b)に示すように、極大フレーム情報1510は情報の項目として、"極大フレーム番号"、"フレーム番号"、"テンプレート番号"、"テンプレート画像の大きさ"、"マッチング度"、"マッチング位置"が含まれる。   As shown in FIG. 15B, the maximum frame information 1510 includes information items such as “maximum frame number”, “frame number”, “template number”, “size of template image”, “matching degree”, “ "Matching position" is included.

"極大フレーム番号"には、極大フレームと判定されたフレームに付された固有の番号が格納される。"フレーム番号"には、極大フレームと判定されたフレームのフレーム番号が格納される。   The “maximum frame number” stores a unique number assigned to a frame determined to be a maximum frame. The “frame number” stores the frame number of the frame determined to be the maximum frame.

"テンプレート番号"には、極大フレームと判定されたフレームについて、最大のマッチング度を算出した際に用いたテンプレート画像を示すテンプレート番号が格納される。   The “template number” stores a template number indicating a template image used when the maximum matching degree is calculated for a frame determined to be a maximal frame.

"テンプレート画像の大きさ"には、各テンプレート番号により特定されるテンプレート画像の大きさ(幅、高さ)が格納される。   The “size of the template image” stores the size (width, height) of the template image specified by each template number.

"マッチング度"には、極大フレームと判定されたフレームについて算出された、最大のマッチング度が格納される。   The “matching degree” stores the maximum matching degree calculated for the frame determined to be the maximum frame.

"マッチング位置"には、極大フレームと判定されたフレームについて、最大のマッチング度を算出した際に用いたテンプレート画像のマッチング位置(座標)が格納される。   The “matching position” stores the matching position (coordinates) of the template image used when the maximum matching degree is calculated for the frame determined to be the maximum frame.

図15(b)の例では、フレーム番号1のフレームが極大フレームと判定され、極大フレーム番号1として極大フレーム情報格納部613に格納されたことを示している。また、図15(b)の例では、極大フレーム番号1の極大フレームは、テンプレート番号1のテンプレート画像を用いてマッチング処理を行うことで、マッチング位置(X_(1)、Y_(1))及びマッチング度M_(1)が算出されたことを示している。 In the example of FIG. 15B, it is shown that the frame with frame number 1 is determined to be the maximal frame and stored as the maximal frame number 1 in the maximal frame information storage unit 613. Further, in the example of FIG. 15B, the maximum frame of the maximum frame number 1 is subjected to matching processing using the template image of the template number 1, thereby matching positions (X 1 _ (1), Y 1 _ ( 1)) and the degree of matching M 1 _ (1) is calculated.

次に、継続判定処理(ステップS704)について説明する。図16は、極大フレーム算出部により実行される継続判定処理のフローチャートであり、ここでは、フレーム番号(n)のフレームについて、継続判定処理を実行する場合について説明する。   Next, the continuation determination process (step S704) will be described. FIG. 16 is a flowchart of the continuation determination process executed by the maximal frame calculation unit. Here, a case where the continuation determination process is executed for the frame with the frame number (n) will be described.

ステップS1601において、極大フレーム算出部603は、フレーム番号(n)のフレームについて、各テンプレート画像を用いてマッチング処理を行った場合のマッチング度のうち、最大のマッチング度を取得する。ここでは、テンプレート番号(α+1)のテンプレート画像を用いた場合のマッチング度が、最大であったとする。そこで、極大フレーム算出部603では、最大のマッチング度M_(α+1)を取得する。 In step S1601, the maximum frame calculation unit 603 obtains the maximum matching degree among the matching degrees when the matching process is performed using each template image for the frame of the frame number (n). Here, it is assumed that the matching degree when the template image of the template number (α + 1) is used is the maximum. Therefore, the maximum frame calculation unit 603 obtains the maximum matching degree M n _ (α + 1).

ステップS1602において、極大フレーム算出部603は、最大のマッチング度M_(α+1)が所定のマッチング度閾値Mth未満であるか否かを判定する。ステップS1602において、所定のマッチング度閾値Mth以上であると判定した場合(ステップS1602において、No)には、ステップS1604に進み、処理を継続すると判定する。この場合、図7の正解情報生成処理において、マッチング処理(ステップSS702)及び極大フレーム算出処理(ステップS703)が継続されることになる。 In step S1602, the maximum frame calculation unit 603 determines whether or not the maximum matching degree M n _ (α + 1) is less than a predetermined matching degree threshold Mth. If it is determined in step S1602 that the threshold value is equal to or greater than the predetermined matching degree threshold Mth (No in step S1602), the process proceeds to step S1604 and it is determined that the process is continued. In this case, in the correct answer information generation process of FIG. 7, the matching process (step SS702) and the maximum frame calculation process (step S703) are continued.

一方、ステップS1602において、所定のマッチング度閾値Mth未満であると判定した場合(ステップS1602において、Yes)には、ステップS1603に進み、処理を継続しないと判定する。この場合、図7の正解情報生成処理において、ステップS706に進み、極大フレーム間算出処理が実行されることになる。   On the other hand, if it is determined in step S1602 that it is less than the predetermined matching degree threshold Mth (Yes in step S1602), the process proceeds to step S1603, and it is determined not to continue the processing. In this case, in the correct answer information generation process of FIG. 7, the process proceeds to step S706, and the inter-maximum frame calculation process is executed.

次に、極大フレーム間算出処理(ステップS706)について説明する。図17は、極大フレーム間算出処理のフローチャートである。   Next, the maximum interframe calculation process (step S706) will be described. FIG. 17 is a flowchart of the maximum inter-frame calculation process.

ステップS1701において、極大フレーム間算出部604は、極大フレーム情報格納部613より、第1の極大フレーム番号(Ns)の極大フレーム(第1の極大フレーム)を読み出す。なお、第1の極大フレームとは、極大フレーム情報格納部613に格納された複数の極大フレームの中から連続する2つの極大フレームを読み出した場合の、古い方の極大フレームを指す。   In step S <b> 1701, the local maximum frame calculation unit 604 reads the local maximum frame (first local maximum frame) of the first local maximum frame number (Ns) from the local maximum frame information storage unit 613. The first maximal frame refers to the oldest maximal frame when two consecutive maximal frames are read from a plurality of maximal frames stored in the maximal frame information storage unit 613.

ステップS1702において、極大フレーム間算出部604は、極大フレーム情報格納部613より、極大フレーム番号(Ns+1)の極大フレーム(第2の極大フレーム)を読み出す。なお、第2の極大フレームとは、極大フレーム情報格納部613に格納された複数の極大フレームの中から連続する2つの極大フレームを読み出した場合の、新しい方の極大フレームを指す。   In step S <b> 1702, the maximum interframe calculation unit 604 reads the maximum frame (second maximum frame) having the maximum frame number (Ns + 1) from the maximum frame information storage unit 613. The second maximal frame refers to a new maximal frame when two consecutive maximal frames are read from a plurality of maximal frames stored in the maximal frame information storage unit 613.

ステップS1703において、極大フレーム間算出部604は、第1の極大フレームと第2の極大フレームとから、拘束条件を生成する。本実施形態において、極大フレーム間算出部604により生成される拘束条件には、マッチング処理を行う際のテンプレート画像の種類と、マッチング処理を行うフレーム中の範囲とが含まれる。   In step S1703, the maximal inter-frame calculation unit 604 generates a constraint condition from the first maximal frame and the second maximal frame. In the present embodiment, the constraint condition generated by the maximum inter-frame calculation unit 604 includes the type of template image when performing the matching process and the range in the frame where the matching process is performed.

例えば、第1の極大フレームについてマッチング度を算出した際に用いられたテンプレート画像の種類が、テンプレート番号1のテンプレート画像であったとする(つまり、幅W1×高さH1のテンプレート画像であったとする)。また、第2の極大フレームについてマッチング度を算出した際に用いられたテンプレート画像の種類が、テンプレート番号2のテンプレート画像であったとする(つまり、幅W2×高さH2)のテンプレート画像であったとする)。この場合、テンプレート画像の種類に関する拘束条件は、"テンプレート番号1または2のいずれか"となる。   For example, it is assumed that the type of template image used when the matching degree is calculated for the first maximal frame is the template image of template number 1 (that is, the template image of width W1 × height H1). ). Further, it is assumed that the type of the template image used when the matching degree is calculated for the second maximum frame is the template image with the template number 2 (that is, the width W2 × the height H2). To do). In this case, the constraint condition regarding the type of template image is “any of template number 1 or 2”.

また、第1の極大フレームについてのマッチング位置が(X_(1),Y_(1))で、第2の極大フレームについてのマッチング位置が(X_(2),Y_(2))であったとする。この場合、マッチング処理を行う範囲に関する拘束条件は、"2つのマッチング領域を含む所定範囲"となる。具体的には、
・マッチング位置(X_(1),Y_(1))とテンプレート画像の大きさ(W1×H1)に基づくマッチング領域、
・マッチング位置(X_(2),Y_(2))とテンプレート画像の大きさ(W2×H2)に基づくマッチング領域、
を含む所定範囲となる。
The matching position for the first maximal frame is (X 1 _ (1), Y 1 _ (1)), and the matching position for the second maximal frame is (X 6 _ (2), Y 6 _ (2)). In this case, the constraint condition regarding the range in which the matching process is performed is “a predetermined range including two matching regions”. In particular,
A matching region based on the matching position (X 1 _ (1), Y 1 _ (1)) and the size (W1 × H1) of the template image,
A matching region based on the matching position (X 6 _ (2), Y 6 _ (2)) and the size of the template image (W2 × H2),
It becomes the predetermined range including.

ステップS1704において、極大フレーム間算出部604は、極大フレームと第2の極大フレームとの間の各フレームについて、ステップS1703において生成した拘束条件のもとで、マッチング処理を行う。   In step S1704, the local maximum frame calculation unit 604 performs matching processing on each frame between the local maximum frame and the second local maximum frame under the constraint condition generated in step S1703.

ステップS1705において、極大フレーム間算出部604は、第1の極大フレームと第2の極大フレームとの間の各フレームについて、最大のマッチング度を算出した際に用いたテンプレート画像の種類と、マッチング位置とに基づいてマッチング領域を算出する。   In step S <b> 1705, the inter-maximum frame calculation unit 604 determines the template image type and matching position used when calculating the maximum matching degree for each frame between the first maximum frame and the second maximum frame. Based on the above, a matching area is calculated.

ステップS1706において、極大フレーム間算出部604は、すべての極大フレームについて、ステップS1702からステップS1705の処理を実行したか否かを判定する。ステップS1706において、未だ処理を実行していない極大フレームがあると判定した場合(ステップS1706において、No)には、ステップS1707に進む。   In step S1706, the inter-maximum frame calculation unit 604 determines whether or not the processing from step S1702 to step S1705 has been executed for all local maximum frames. If it is determined in step S1706 that there is a maximum frame that has not yet been processed (No in step S1706), the process proceeds to step S1707.

ステップS1707において、極大フレーム間算出部604は、第1の極大フレーム番号(Ns)をインクリメントする。その後、ステップS1702に戻り、ステップS1702からステップS1705の処理を実行する。   In step S1707, the maximum local frame calculation unit 604 increments the first maximum frame number (Ns). Then, it returns to step S1702 and performs the processing from step S1702 to step S1705.

一方、ステップS1706において、すべての極大フレームについて処理を実行したと判定した場合(ステップS1706において、Yes)には、極大フレーム算出処理を終了する。   On the other hand, if it is determined in step S1706 that the process has been executed for all maximal frames (Yes in step S1706), the maximal frame calculation process ends.

次に、極大フレーム間算出部604による極大フレーム間算出処理の具体例について図18及び図19を用いて説明する。   Next, a specific example of the maximal interframe calculation process by the maximal interframe calculation unit 604 will be described with reference to FIGS. 18 and 19.

図18は、極大フレーム間算出処理結果の具体例を示す図である。図18において、横軸はフレーム番号を示しており、縦軸は、テンプレート画像の大きさ(ここでは、テンプレート画像の幅)を示している。   FIG. 18 is a diagram illustrating a specific example of the maximum inter-frame calculation processing result. In FIG. 18, the horizontal axis indicates the frame number, and the vertical axis indicates the size of the template image (here, the width of the template image).

図18(a)の例は、フレーム番号1、6、11、16の各フレームが極大フレームであると判定された場合(図15(a))における極大フレーム間算出処理の具体例を示したものである。   The example of FIG. 18A shows a specific example of the maximal inter-frame calculation process in the case where it is determined that each frame of frame numbers 1, 6, 11, and 16 is a maximal frame (FIG. 15A). Is.

図18(a)に示すように、極大フレーム(極大フレーム番号(1))であると判定されたフレーム番号1のフレームは、幅W1のテンプレート画像を用いることで、最大のマッチング度が算出されている。また、極大フレーム(極大フレーム番号(2))であると判定されたフレーム番号6のフレームは、幅W2のテンプレート画像を用いることで、最大のマッチング度が算出されている。   As shown in FIG. 18A, the maximum matching degree is calculated by using the template image with the width W1 for the frame with frame number 1 determined to be the maximum frame (maximum frame number (1)). ing. Further, the maximum matching degree is calculated by using the template image having the width W2 for the frame having the frame number 6 determined to be the maximum frame (maximum frame number (2)).

このため、極大フレーム間のフレーム(すなわち、フレーム番号2〜5の各フレーム)についてマッチング処理を行う場合、テンプレート画像の種類に関する拘束条件は、
・"テンプレート番号1または2のいずれか"
となる。
For this reason, when performing a matching process about the frame between maximal frames (namely, each frame of frame numbers 2-5), the constraint conditions regarding the type of template image are:
・ "Template number 1 or 2"
It becomes.

また、マッチング処理を行う範囲に関する拘束条件は、
・"マッチング位置(X_(1),Y_(1))とテンプレート画像の大きさ(W1×H1)に基づくマッチング領域"、
・"マッチング位置(X_(2),Y_(2))とテンプレート画像の大きさ(W2×H2)に基づくマッチング領域"、
とを含む所定範囲となる。
In addition, the constraint condition regarding the range to perform the matching process is
"Matching region based on matching position (X 1 _ (1), Y 1 _ (1)) and template image size (W1 × H1)",
· "Matching position (X 6 _ (2), Y 6 _ (2)) and the size of the template image (W2 × H2) matching area based",
And a predetermined range.

したがって、極大フレーム間算出部604は、これらの拘束条件のもとでフレーム番号2〜5の各フレームについてマッチング処理を行う。これにより、フレーム番号2〜5の各フレームについて、誤差の小さい正解情報を算出することができる。   Therefore, the maximal inter-frame calculation unit 604 performs the matching process for each frame of frame numbers 2 to 5 under these constraint conditions. Thereby, correct information with a small error can be calculated for each frame of frame numbers 2 to 5.

なお、図18では、比較対象のために、拘束条件と無関係にマッチング処理を行った場合の処理結果を、図18(b)に示している。フレーム番号2〜5の各フレームについて、拘束条件と無関係にマッチング処理を行った場合、例えば、フレーム番号5のフレームについては、幅=W3のテンプレート画像により最大のマッチング度が算出される。つまり、拘束条件と無関係にマッチング処理を行った場合、フレーム番号5のフレームにおいて、誤差の大きい正解情報が算出されることになる。   FIG. 18B shows a processing result when matching processing is performed regardless of the constraint condition for comparison. When matching processing is performed for each of the frame numbers 2 to 5 regardless of the constraint condition, for example, for the frame of frame number 5, the maximum matching degree is calculated from the template image with width = W3. That is, when the matching process is performed regardless of the constraint condition, correct information with a large error is calculated in the frame of frame number 5.

同様に、図18(a)に示すように、極大フレーム(極大フレーム番号(3))であると判定されたフレーム番号11のフレームは、幅W3のテンプレート画像を用いることで、最大のマッチング度が算出されている。   Similarly, as shown in FIG. 18A, the frame with the frame number 11 determined to be the maximal frame (maximum frame number (3)) uses the template image with the width W3, so that the maximum matching degree is obtained. Is calculated.

このため、極大フレーム間のフレーム(すなわち、フレーム番号7〜10の各フレーム)についてマッチング処理を行う場合、テンプレート画像の種類に関する拘束条件は、
・"テンプレート番号2または3のいずれか"
となる。
For this reason, when performing a matching process about the frame between maximum frames (namely, each frame of the frame numbers 7-10), the constraint conditions regarding the type of template image are:
・ "Template number 2 or 3"
It becomes.

また、マッチング処理を行う範囲に関する拘束条件は、
・"マッチング位置(X_(2),Y_(2))とテンプレート画像の大きさ(W2×H2)に基づくマッチング領域"、
・"マッチング位置(X11_(3),Y11_(3))とテンプレート画像の大きさ(W3×H3)に基づくマッチング領域"、
とを含む所定範囲となる。
In addition, the constraint condition regarding the range to perform the matching process is
· "Matching position (X 6 _ (2), Y 6 _ (2)) and the size of the template image (W2 × H2) matching area based",
· "Matching position (X 11 _ (3), Y 11 _ (3)) and the matching area based on the size (W3 × H3) of the template image",
And a predetermined range.

したがって、極大フレーム間算出部604は、これらの拘束条件のもとでフレーム番号7〜10の各フレームについてマッチング処理を行う。これにより、フレーム番号7〜10の各フレームについて、誤差の小さい正解情報を算出することができる。   Therefore, the maximum inter-frame calculation unit 604 performs matching processing on each frame of frame numbers 7 to 10 under these constraint conditions. Thereby, correct information with a small error can be calculated for each frame of frame numbers 7 to 10.

なお、フレーム番号7〜10の各フレームについて、拘束条件と無関係にマッチング処理を行った場合、図18(b)に示すように、例えば、フレーム番号8のフレームについては、幅=W1のテンプレート画像により最大のマッチング度が算出される。つまり、拘束条件と無関係にマッチング処理を行った場合、フレーム番号8のフレームにおいて、誤差の大きい正解情報が算出されることになる。   When matching processing is performed for each frame number 7 to 10 regardless of the constraint condition, for example, for a frame number 8, a template image with a width = W1 is used as shown in FIG. 18B. Is used to calculate the maximum matching degree. That is, when matching processing is performed regardless of the constraint condition, correct information with a large error is calculated in the frame of frame number 8.

同様に、図18(a)に示すように、極大フレーム(極大フレーム番号(4))であると判定されたフレーム番号16のフレームは、幅W4のテンプレート画像を用いることで、最大のマッチング度が算出されている。   Similarly, as shown in FIG. 18A, the frame with frame number 16 determined to be the maximum frame (maximum frame number (4)) uses the template image with the width W4, so that the maximum matching degree is obtained. Is calculated.

このため、極大フレーム間のフレーム(すなわち、フレーム番号12〜15の各フレーム)についてマッチング処理を行う場合、テンプレート画像の種類に関する拘束条件は、
・"テンプレート番号3または4のいずれか"
となる。
For this reason, when performing a matching process about the frame between maximum frames (namely, each frame of frame numbers 12-15), the constraint conditions regarding the type of template image are:
・ "Template number 3 or 4"
It becomes.

また、マッチング処理を行う範囲に関する拘束条件は、
・"マッチング位置(X11_(3),Y11_(3))とテンプレート画像の大きさ(W3×H3)に基づくマッチング領域"、
・"マッチング位置(X16_(4),Y16_(4))とテンプレート画像の大きさ(W4×H4)に基づくマッチング領域"、
とを含む所定範囲となる。
In addition, the constraint condition regarding the range to perform the matching process is
· "Matching position (X 11 _ (3), Y 11 _ (3)) and the matching area based on the size (W3 × H3) of the template image",
“Matching region based on matching position (X 16 _ (4), Y 16 _ (4)) and template image size (W4 × H4)”,
And a predetermined range.

したがって、極大フレーム間算出部604は、これらの拘束条件のもとでフレーム番号12〜15の各フレームについてマッチング処理を行う。これにより、フレーム番号12〜15の各フレームについて、誤差の小さい正解情報を算出することができる。   Therefore, the maximum inter-frame calculation unit 604 performs matching processing on each frame of frame numbers 12 to 15 under these constraint conditions. Thereby, correct information with a small error can be calculated for each frame of frame numbers 12 to 15.

なお、フレーム番号12〜15の各フレームについて、拘束条件と無関係にマッチング処理を行った場合、図18(b)に示すように、例えば、フレーム番号15のフレームについては、幅=W5のテンプレート画像により最大のマッチング度が算出される。つまり、拘束条件と無関係にマッチング処理を行った場合、フレーム番号15のフレームにおいて、誤差の大きい正解情報が算出されることになる。   When matching processing is performed for each of the frame numbers 12 to 15 regardless of the constraint condition, for example, for the frame of frame number 15, a template image with width = W5 is shown in FIG. 18B. Is used to calculate the maximum matching degree. That is, when matching processing is performed regardless of the constraint condition, correct information with a large error is calculated in the frame of frame number 15.

なお、このように、拘束条件と無関係にマッチング処理を行った場合に、誤差の大きい正解情報が算出されるのは、極大フレーム間の各フレームにおいては、物標である前方車両がサブピクセルレベルで微小に移動しているためである。あるいは、サブピクセルレベルで微小にサイズ変更しているためである。   In addition, when matching processing is performed regardless of the constraint conditions as described above, correct information with a large error is calculated because, in each frame between the maximal frames, the front vehicle as the target is at the subpixel level. This is because it has moved slightly. Another reason is that the size is slightly changed at the sub-pixel level.

これにより、マッチング処理において、誤ったマッチング処理が行われることになり、誤差の大きい正解情報が算出される結果となる。以下に、図19を用いて、サブピクセルレベルの微小な移動やサイズ変更とマッチング結果との関係について説明する。   As a result, an incorrect matching process is performed in the matching process, and correct answer information with a large error is calculated. Hereinafter, the relationship between the minute movement or size change at the sub-pixel level and the matching result will be described with reference to FIG.

図19は、マッチング処理において、誤ったマッチング処理が行われる原因を説明するための図である。図19(a)は、初期テンプレート画像1901からテンプレート画像1902、1903を生成した様子を示している。4×4画素のテンプレート画像1902、3×3画素のテンプレート画像1903は、8×8画素の初期テンプレート画像1901を縮小することで生成されたテンプレート画像である。   FIG. 19 is a diagram for explaining the cause of an incorrect matching process in the matching process. FIG. 19A shows a state in which template images 1902 and 1903 are generated from the initial template image 1901. The 4 × 4 pixel template image 1902 and the 3 × 3 pixel template image 1903 are template images generated by reducing the 8 × 8 pixel initial template image 1901.

このうち、テンプレート画像1902は、初期テンプレート画像1901の特徴領域1911の色情報を保ったまま縮小することで生成されたテンプレート画像である。つまり、初期テンプレート画像1901の特徴領域1911の色情報は、テンプレート画像1902の特徴領域1921の色情報として保たれている。   Of these, the template image 1902 is a template image generated by reducing the size information 1911 of the initial template image 1901 while maintaining the color information. That is, the color information of the feature area 1911 of the initial template image 1901 is kept as the color information of the feature area 1921 of the template image 1902.

一方、テンプレート画像1903は、初期テンプレート画像1901の色情報を保ったまま縮小することができず、特徴領域1911の色情報と特徴領域1911以外の色情報とが混在する画素(画素1941〜1943)が含まれるテンプレート画像である。これは、特徴領域1931がテンプレート画像1903において、サブピクセルレベルにまたがって存在しているためである。   On the other hand, the template image 1903 cannot be reduced while maintaining the color information of the initial template image 1901, and pixels in which the color information of the feature region 1911 and the color information other than the feature region 1911 are mixed (pixels 1941 to 1943). Is a template image. This is because the feature region 1931 exists across the subpixel level in the template image 1903.

一方、図19(b)は、図19(a)に示すテンプレート画像1902、1903を用いてマッチング処理を行ったことを示す図である。フレーム1950は、テンプレート画像1902を用いてマッチング処理を行った場合にマッチング度が最大となることを示している。一方、フレームの画像1951のように、物標(前方車両)が水平方向にサブピクセルレベルで移動すると、物標と物標以外の色情報とが混在する画素が出現することになる。   On the other hand, FIG. 19B is a diagram showing that matching processing has been performed using the template images 1902 and 1903 shown in FIG. A frame 1950 indicates that the matching degree is maximized when the matching process is performed using the template image 1902. On the other hand, when the target (the vehicle ahead) moves at the subpixel level in the horizontal direction as in the frame image 1951, pixels in which the target and color information other than the target are mixed appear.

この場合、テンプレート画像1903のマッチング度の方が、テンプレート画像1902のマッチング度よりも大きくなることがありえる。つまり、誤ったマッチング処理が行われることになる。   In this case, the matching degree of the template image 1903 may be larger than the matching degree of the template image 1902. That is, an incorrect matching process is performed.

上述したようなサブピクセルレベルの微小な移動やサイズ変更に対して、本実施形態では、微小な移動やサイズ変更のない極大フレームでのマッチング結果に基づいて拘束条件を算出する。そして、算出した拘束条件のもとでマッチング処理を行うため、誤ったマッチング処理が行われることが回避される。   In contrast to the minute movement and size change at the sub-pixel level as described above, in the present embodiment, the constraint condition is calculated based on the matching result in the maximum frame without the minute movement or size change. Since the matching process is performed under the calculated constraint condition, it is possible to avoid performing an incorrect matching process.

以上の説明から明らかなように、正解生成装置130は、サイズの異なる複数のテンプレート画像を用いて画像情報に含まれる各フレームとのマッチング処理を行うにあたり、極大フレームを算出する。また、正解生成装置130は、算出した極大フレーム間のフレームについてマッチング処理を行うにあたり、極大フレームについてのマッチング結果に基づいて拘束条件を生成する。更に、正解生成装置130は、生成した拘束条件に基づいて、極大フレーム間の各フレームについてマッチング処理を行う。   As is clear from the above description, the correct answer generation device 130 calculates a maximum frame when performing matching processing with each frame included in the image information using a plurality of template images having different sizes. Further, when performing the matching process on the calculated frame between the maximal frames, the correct answer generation device 130 generates a constraint condition based on the matching result for the maximal frame. Further, the correct answer generation device 130 performs matching processing on each frame between the maximal frames based on the generated constraint condition.

これにより、極大フレーム間の各フレームにおいて、物標がサブピクセルレベルで移動した場合や、サイズがサブピクセルレベルで変化した場合であっても、誤ったマッチング処理が行われることが回避される。   Thereby, even when the target moves at the sub-pixel level or when the size changes at the sub-pixel level in each frame between the maximal frames, erroneous matching processing is avoided.

つまり、微小な移動及びサイズ変化を行う物標に対して、高精度な位置特定を実現することができる。   That is, highly accurate position specification can be realized for a target that performs minute movement and size change.

[その他の実施形態]
上記第1の実施形態では、マッチング処理を行う際に、各フレームに対して用いるテンプレート画像の種類を3種類として説明したが、各フレームに対して用いるテンプレート画像の種類は、2種類以上であれば何種類であってもよい。
[Other Embodiments]
In the first embodiment, three types of template images are used for each frame when performing the matching process. However, two or more types of template images may be used for each frame. Any number of types may be used.

なお、開示の技術では、以下に記載する付記のような形態が考えられる。
(付記1)
車両の所定方向を撮影した画像から特定画像領域を特定する際の検証用の正解データを生成する画像処理装置であって、
画素単位のテンプレートの大きさ及びフレーム中のテンプレートの位置の推定結果を取得する第1の取得手段と、
前記第1の取得手段により取得された推定結果で条件を拘束し、フレーム間で時系列データとして推定結果を取得する第2の取得手段と、を有し、
前記第2の取得手段で取得した推定結果に基づいて特定画像領域を特定することを特徴とする画像処理装置。
(付記2)
前記第1の取得手段は、
画素単位の大きさの異なる複数のテンプレートのうち、1のテンプレートを用いて前記フレームに対してマッチング処理を行った場合のマッチング度と、他のテンプレートを用いて前記フレームに対してマッチング処理を行った場合のマッチング度との差が、所定の閾値以上である場合に、該1のテンプレートの大きさ及びフレーム中の該1のテンプレートの位置の推定結果を取得することを特徴とする付記1に記載の画像処理装置。
(付記3)
前記第1の取得手段は、
前記1のテンプレートを用いて前記フレームに対してマッチング処理を行った場合のマッチング度が、前記1のテンプレートを用いて他のフレームに対してマッチング処理を行った場合のマッチング度より大きい場合に、前記1のテンプレートの大きさ及びフレーム中の前記1のテンプレートの位置の推定結果を取得することを特徴とする付記2に記載の画像処理装置。
(付記4)
車両の所定方向を撮影した画像から特定画像領域を特定する際の検証用の正解データを生成する画像処理方法であって、
画素単位のテンプレートの大きさ及びフレーム中のテンプレートの位置の推定結果を取得する1次評価と、1次評価結果で条件を拘束し、フレーム間で時系列データとして推定結果を取得する2次評価の2段階で特定画像領域を特定する、
処理をコンピュータが実行することを特徴とする画像処理方法。
(付記5)
画素単位のテンプレートの大きさ及びフレーム中のテンプレートの位置の推定結果を取得する1次評価と、1次評価結果で条件を拘束し、フレーム間で時系列データとして推定結果を取得する2次評価の2段階で特定画像領域を特定した検証用の正解データを用いて、車両の所定方向を撮影した画像から特定した特定画像領域を検証対象として評価する、
処理をコンピュータが実行することを特徴とする評価方法。
In addition, in the disclosed technology, forms such as the following additional notes are possible.
(Appendix 1)
An image processing device that generates correct data for verification when specifying a specific image region from an image of a predetermined direction of a vehicle,
First acquisition means for acquiring an estimation result of the size of the template in pixel units and the position of the template in the frame;
A second acquisition unit that constrains the condition with the estimation result acquired by the first acquisition unit and acquires the estimation result as time-series data between frames; and
An image processing apparatus that identifies a specific image region based on an estimation result acquired by the second acquisition unit.
(Appendix 2)
The first acquisition means includes
Among a plurality of templates having different pixel-unit sizes, the matching degree when the matching process is performed on the frame using one template, and the matching process is performed on the frame using another template The supplementary note 1 is characterized in that, when the difference from the matching degree in the case of the above is equal to or greater than a predetermined threshold, the estimation result of the size of the one template and the position of the one template in the frame is acquired. The image processing apparatus described.
(Appendix 3)
The first acquisition means includes
When the matching degree when the matching process is performed on the frame using the one template is larger than the matching degree when the matching process is performed on another frame using the one template, The image processing apparatus according to appendix 2, wherein an estimation result of the size of the one template and the position of the one template in a frame is acquired.
(Appendix 4)
An image processing method for generating correct data for verification when specifying a specific image region from an image obtained by photographing a predetermined direction of a vehicle,
A primary evaluation for obtaining the estimation result of the size of the template in pixel units and the position of the template in the frame, and a secondary evaluation for obtaining the estimation result as time series data between frames by constraining the conditions with the primary evaluation result. The specific image area is specified in two stages of
An image processing method, wherein the computer executes the processing.
(Appendix 5)
A primary evaluation for obtaining the estimation result of the size of the template in pixel units and the position of the template in the frame, and a secondary evaluation for obtaining the estimation result as time series data between frames by constraining the conditions with the primary evaluation result. Using the correct data for verification that specified the specific image area in the two stages, and evaluating the specific image area specified from the image obtained by photographing the predetermined direction of the vehicle as the verification target,
An evaluation method, wherein a computer executes processing.

なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。   Note that the present invention is not limited to the configurations shown here, such as combinations with other elements, etc., in the configurations described in the above embodiments. These points can be changed without departing from the spirit of the present invention, and can be appropriately determined according to the application form.

100 :認識性能検証システム
110 :車両
120 :格納装置
130 :正解生成装置
131 :正解生成部
504 :画像追跡部
601 :テンプレート生成部
602 :マッチング算出部
603 :極大フレーム算出部
604 :極大フレーム間算出部
611 :テンプレート情報格納部
612 :マッチング結果情報格納部
613 :極大フレーム情報格納部
900 :テンプレート情報
1200 :マッチング結果情報
100: Recognition performance verification system 110: Vehicle 120: Storage device 130: Correct answer generation device 131: Correct answer generation unit 504: Image tracking unit 601: Template generation unit 602: Matching calculation unit 603: Maximum frame calculation unit 604: Calculation between maximum frames Unit 611: Template information storage unit 612: Matching result information storage unit 613: Maximum frame information storage unit 900: Template information 1200: Matching result information

Claims (5)

車両の所定方向を撮影した画像から特定画像領域を特定する際の検証用の正解データを生成する画像処理装置であって、
画素単位のテンプレートの大きさ及びフレーム中のテンプレートの位置の推定結果を取得する第1の取得手段と、
前記第1の取得手段により取得された推定結果で条件を拘束し、フレーム間で時系列データとして推定結果を取得する第2の取得手段と、を有し、
前記第2の取得手段で取得した推定結果に基づいて特定画像領域を特定することを特徴とする画像処理装置。
An image processing device that generates correct data for verification when specifying a specific image region from an image of a predetermined direction of a vehicle,
First acquisition means for acquiring an estimation result of the size of the template in pixel units and the position of the template in the frame;
A second acquisition unit that constrains the condition with the estimation result acquired by the first acquisition unit and acquires the estimation result as time-series data between frames; and
An image processing apparatus that identifies a specific image region based on an estimation result acquired by the second acquisition unit.
前記第1の取得手段は、
画素単位の大きさの異なる複数のテンプレートのうち、1のテンプレートを用いてフレームに対してマッチング処理を行った場合のマッチング度と、他のテンプレートを用いて前記フレームに対してマッチング処理を行った場合のマッチング度との差が、所定の閾値以上であり、かつ、該1のテンプレートを用いて前記フレームに対してマッチング処理を行った場合のマッチング度が、該他のテンプレートを用いて前記フレームに対してマッチング処理を行った場合のマッチング度よりも大きい場合に、該1のテンプレートの大きさ及びフレーム中の該1のテンプレートの位置の推定結果を取得することを特徴とする請求項1に記載の画像処理装置。
The first acquisition means includes
Among a plurality of templates having different pixel-unit sizes, the matching degree when a matching process is performed on a frame using one template and the matching process is performed on the frame using another template the difference between the degree of matching cases is state, and are equal to or higher than a predetermined threshold, and the matching degree in the case of performing a matching process with respect to the frame using the template of the 1, using the said other template the 2. The estimation result of the size of the one template and the position of the one template in the frame is obtained when the degree of matching is larger than the matching degree when the matching process is performed on the frame. An image processing apparatus according to 1.
前記第1の取得手段は、
前記1のテンプレートを用いて前記フレームに対してマッチング処理を行った場合のマッチング度が、前記1のテンプレートを用いて他のフレームに対してマッチング処理を行った場合のマッチング度より大きい場合に、前記1のテンプレートの大きさ及びフレーム中の前記1のテンプレートの位置の推定結果を取得することを特徴とする請求項2に記載の画像処理装置。
The first acquisition means includes
When the matching degree when the matching process is performed on the frame using the one template is larger than the matching degree when the matching process is performed on another frame using the one template, The image processing apparatus according to claim 2, wherein an estimation result of the size of the one template and the position of the one template in a frame is acquired.
車両の所定方向を撮影した画像から特定画像領域を特定する際の検証用の正解データを生成する画像処理方法であって、
画素単位のテンプレートの大きさ及びフレーム中のテンプレートの位置の推定結果を取得する1次評価と、1次評価結果で条件を拘束し、フレーム間で時系列データとして推定結果を取得する2次評価の2段階で特定画像領域を特定する、
処理をコンピュータが実行することを特徴とする画像処理方法。
An image processing method for generating correct data for verification when specifying a specific image region from an image obtained by photographing a predetermined direction of a vehicle,
A primary evaluation for obtaining the estimation result of the size of the template in pixel units and the position of the template in the frame, and a secondary evaluation for obtaining the estimation result as time series data between frames by constraining the conditions with the primary evaluation result. The specific image area is specified in two stages of
An image processing method, wherein the computer executes the processing.
画素単位のテンプレートの大きさ及びフレーム中のテンプレートの位置の推定結果を取得する1次評価と、1次評価結果で条件を拘束し、フレーム間で時系列データとして推定結果を取得する2次評価の2段階で特定画像領域を特定した検証用の正解データを用いて、車両の所定方向を撮影した画像から特定した特定画像領域を検証対象として評価する、
処理をコンピュータが実行することを特徴とする評価方法。
A primary evaluation for obtaining the estimation result of the size of the template in pixel units and the position of the template in the frame, and a secondary evaluation for obtaining the estimation result as time series data between frames by constraining the conditions with the primary evaluation result. Using the correct data for verification that specified the specific image area in the two stages, and evaluating the specific image area specified from the image obtained by photographing the predetermined direction of the vehicle as the verification target,
An evaluation method, wherein a computer executes processing.
JP2015132974A 2015-07-01 2015-07-01 Image processing apparatus, image processing method, and evaluation method Expired - Fee Related JP6554943B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015132974A JP6554943B2 (en) 2015-07-01 2015-07-01 Image processing apparatus, image processing method, and evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015132974A JP6554943B2 (en) 2015-07-01 2015-07-01 Image processing apparatus, image processing method, and evaluation method

Publications (2)

Publication Number Publication Date
JP2017016425A JP2017016425A (en) 2017-01-19
JP6554943B2 true JP6554943B2 (en) 2019-08-07

Family

ID=57830719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015132974A Expired - Fee Related JP6554943B2 (en) 2015-07-01 2015-07-01 Image processing apparatus, image processing method, and evaluation method

Country Status (1)

Country Link
JP (1) JP6554943B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021166157A1 (en) * 2020-02-20 2021-08-26 三菱電機株式会社 Object recognition system verification device

Also Published As

Publication number Publication date
JP2017016425A (en) 2017-01-19

Similar Documents

Publication Publication Date Title
JP4940168B2 (en) Parking space recognition device
US20210073557A1 (en) Systems and methods for augmenting upright object detection
US10331962B2 (en) Detecting device, detecting method, and program
US9330472B2 (en) System and method for distorted camera image correction
JP4533936B2 (en) Image processing apparatus and vehicle detection apparatus including the same
JP6509361B2 (en) Parking support device and parking support method
US9650072B2 (en) Method for controlling steering wheel and system therefor
JP7036400B2 (en) Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program
US20120257056A1 (en) Image processing apparatus, image processing method, and image processing program
EP2756482B1 (en) Resolving homography decomposition ambiguity based on orientation sensors
JP6339058B2 (en) On-vehicle equipment and head-to-head distance calculation method
TWI504858B (en) A vehicle specification measuring and processing device, a vehicle specification measuring method, and a recording medium
JPWO2012086821A1 (en) Positioning device and positioning method
JP6439757B2 (en) Image processing apparatus and image processing method
JP6795224B2 (en) Mobile detection device, mobile detection method, and program
EP4001844A1 (en) Method and apparatus with localization
JP6554943B2 (en) Image processing apparatus, image processing method, and evaluation method
JP6620607B2 (en) Image analysis program, image analysis apparatus, and image analysis method
US20190355246A1 (en) Vehicle recognition apparatus and vehicle recognition method
JP4151631B2 (en) Object detection device
KR101721655B1 (en) System and method for object detection
AU2019203180B2 (en) Vehicle recognition apparatus and vehicle recognition method
JP6606858B2 (en) Object detection apparatus and object detection method
US20240143855A1 (en) Simulated road generation system, simulated road generation method, and non-transitory computer readable medium having stored thereon program for causing computer to perform simulated road generation process
JP2019012496A (en) Detection program, method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190624

R150 Certificate of patent or registration of utility model

Ref document number: 6554943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees