JP7014000B2 - Image processing programs, equipment, and methods - Google Patents

Image processing programs, equipment, and methods Download PDF

Info

Publication number
JP7014000B2
JP7014000B2 JP2018061157A JP2018061157A JP7014000B2 JP 7014000 B2 JP7014000 B2 JP 7014000B2 JP 2018061157 A JP2018061157 A JP 2018061157A JP 2018061157 A JP2018061157 A JP 2018061157A JP 7014000 B2 JP7014000 B2 JP 7014000B2
Authority
JP
Japan
Prior art keywords
captured
vehicle
image
captured image
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018061157A
Other languages
Japanese (ja)
Other versions
JP2019175028A (en
Inventor
望 末延
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018061157A priority Critical patent/JP7014000B2/en
Publication of JP2019175028A publication Critical patent/JP2019175028A/en
Application granted granted Critical
Publication of JP7014000B2 publication Critical patent/JP7014000B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理プログラム、画像処理装置、及び画像処理方法に関する。 The present invention relates to an image processing program, an image processing apparatus, and an image processing method.

従来、路上に設置したカメラで撮像された画像から、画像に含まれる車両のナンバープレートを読み取ることで、道路を通行する車両を特定するナンバープレート認識システムが存在する。例えば、警察の捜査などでは、このナンバープレート認識システムを利用して、ナンバープレート情報を検索キーとして画像を検索することで、特定車両の通行状況等を知ることができる。 Conventionally, there is a license plate recognition system that identifies a vehicle traveling on a road by reading the license plate of the vehicle included in the image from an image captured by a camera installed on the road. For example, in a police investigation or the like, by using this license plate recognition system and searching for an image using the license plate information as a search key, it is possible to know the traffic status of a specific vehicle.

しかしながら、例えば、犯罪現場の目撃情報などでは、ナンバープレート情報が不完全なことも多いため、車両の形状などから特定の車両を絞り込むこともある。そのため、路上に設置したカメラで撮像された画像から、指定した車種の車両が含まれる画像を検索する車種判別方式が必要とされている。 However, for example, in the sighting information of a crime scene, the license plate information is often incomplete, so a specific vehicle may be narrowed down based on the shape of the vehicle or the like. Therefore, there is a need for a vehicle type discrimination method that searches for an image including a vehicle of a specified vehicle type from an image captured by a camera installed on the road.

また、カメラの設置位置や角度、車線の幅などによって、カメラで撮像された画像内における車両の見え方は様々である。そこで、車種判別を行うためには、画像内での車両の見え方の違いに依存しない特徴量を使って判別を行うか、予め同じ見え方になるように変換するなど、見え方の違いを吸収する処理が必要となる。 In addition, the appearance of the vehicle in the image captured by the camera varies depending on the installation position and angle of the camera, the width of the lane, and the like. Therefore, in order to discriminate the vehicle type, the difference in appearance is determined by using a feature amount that does not depend on the difference in the appearance of the vehicle in the image, or by converting it so that it looks the same in advance. A process to absorb is required.

見え方の違いに依存しない特徴量を使う方式の例として、ディープラーニングなどの機械学習を利用する方式が存在する。この方式では、見え方の異なる様々なデータを学習させることで、見え方に依存しない特徴量を選び出すことができる。 As an example of a method that uses features that do not depend on the difference in appearance, there is a method that uses machine learning such as deep learning. In this method, by learning various data with different appearances, it is possible to select features that do not depend on the appearance.

また、予め同じ見え方になるように変換する方式の例として、パターンマッチングを行う際に、テンプレート又は対象画像を幾何学変換して見え方を一致させた上でマッチングを行う方式が存在する。 Further, as an example of a method of converting so as to have the same appearance in advance, there is a method of performing matching after geometrically converting a template or a target image to match the appearance when performing pattern matching.

特開平5-314390号公報Japanese Unexamined Patent Publication No. 5-314390 特開2014-2534号公報Japanese Unexamined Patent Publication No. 2014-2534 特開2004-303164号公報Japanese Unexamined Patent Publication No. 2004-303164 特開2016-62369号公報Japanese Unexamined Patent Publication No. 2016-62369

しかしながら、機械学習を利用する方式では、正しい判別を行うためには、学習に用いる正解データとして、同一車種の車両に対して撮像環境を変えて撮像した画像データを大量に集める必要がある。さらに、判別する車種の種類が新たに増えた場合には、再度学習を行う必要があるが、自動車メーカからは、新型車両が次々と市場に投入されているため、定期的に、新型車両のデータを集めて再学習をする必要がある。 However, in the method using machine learning, in order to make a correct discrimination, it is necessary to collect a large amount of image data captured by changing the imaging environment for vehicles of the same vehicle type as correct answer data used for learning. Furthermore, if the types of vehicles to be identified are newly increased, it is necessary to re-learn, but since new vehicles are being introduced to the market one after another from automobile manufacturers, new vehicles are regularly introduced. It is necessary to collect data and relearn.

また、幾何学変換を行うパターンマッチングの方式では、テンプレートと対象画像との間で、幾何学変換を行う際に対応する特徴を正確に特定する必要がある。しかし、従来技術では、例えば、比較する特徴が全てナンバープレートと同一平面上にあることが前提であったり、対象車両の3次元位置及び形状を車両1台1台の動画像から特定する必要があったり、現実的ではない。 Further, in the pattern matching method for performing geometric transformation, it is necessary to accurately specify the corresponding feature when performing geometric transformation between the template and the target image. However, in the prior art, for example, it is premised that all the features to be compared are on the same plane as the license plate, or it is necessary to specify the three-dimensional position and shape of the target vehicle from the moving image of each vehicle. It's not realistic.

一つの側面として、撮像画像内での車両の見え方が異なる場合でも、所定の車種の車両を含む撮像画像を簡易に抽出することを目的とする。 As one aspect, it is an object of the present invention to easily extract a captured image including a vehicle of a predetermined vehicle type even if the appearance of the vehicle in the captured image is different.

一つの態様として、第1のカメラで撮像された撮像画像のうち、第1の車種に分類される車両を含む撮像画像を特定し、特定した前記撮像画像に含まれる車両のナンバーを抽出する。そして、第2のカメラで撮像された撮像画像のうち、抽出した前記車両のナンバーの車両を含む撮像画像を抽出し、抽出した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する。 As one embodiment, among the captured images captured by the first camera, the captured image including the vehicle classified into the first vehicle type is specified, and the number of the vehicle included in the identified captured image is extracted. Then, among the captured images captured by the second camera, the captured image including the vehicle with the number of the extracted vehicle is extracted, and the extracted captured image is used as the captured image of the vehicle corresponding to the first vehicle type. Learn as.

一つの側面として、撮像画像内での車両の見え方が異なる場合でも、所定の車種の車両を含む撮像画像を簡易に抽出することができる。 As one aspect, even if the appearance of the vehicle in the captured image is different, the captured image including the vehicle of a predetermined vehicle type can be easily extracted.

第1~第3実施形態に係る監視システムの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the monitoring system which concerns on 1st to 3rd Embodiment. 路上装置の設置状況を説明するための概略図である。It is a schematic diagram for demonstrating the installation situation of the road device. 路上装置の機能ブロック図である。It is a functional block diagram of a road device. 監視情報データベースの一例を示す図である。It is a figure which shows an example of a monitoring information database. 第1~第3実施形態に係る画像処理装置の機能ブロック図である。It is a functional block diagram of the image processing apparatus which concerns on 1st to 3rd Embodiment. 撮像画像内の車両の見え方の違いを説明するための図である。It is a figure for demonstrating the difference of appearance of a vehicle in a captured image. 検索結果リストの一例を示す図である。It is a figure which shows an example of a search result list. 第1~第3実施形態に係る画像処理装置として機能するコンピュータの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the computer which functions as the image processing apparatus which concerns on 1st to 3rd Embodiment. 第1~第3実施形態における画像処理の一例を示すフローチャートである。It is a flowchart which shows an example of image processing in 1st to 3rd Embodiment. 第1実施形態における第1学習検索処理の一例を示すフローチャートである。It is a flowchart which shows an example of the 1st learning search processing in 1st Embodiment. 第1実施形態における第2学習検索処理の一例を示すフローチャートである。It is a flowchart which shows an example of the 2nd learning search processing in 1st Embodiment. 同一地点及び異なる地点で撮像された撮像画像に対する検索の概要を説明するための図である。It is a figure for demonstrating the outline of the search for the captured image taken at the same point and different points. 第2実施形態における第1学習検索処理の一例を示すフローチャートである。It is a flowchart which shows an example of the 1st learning search processing in 2nd Embodiment. 領域をずらしながら複数のテンプレートを抽出する場合を説明するための図である。It is a figure for demonstrating the case of extracting a plurality of templates while shifting the area. 第3実施形態における第1学習検索処理の一例を示すフローチャートである。It is a flowchart which shows an example of the 1st learning search processing in 3rd Embodiment. 第3実施形態における第2学習検索処理の一例を示すフローチャートである。It is a flowchart which shows an example of the 2nd learning search processing in 3rd Embodiment.

以下、図面を参照して、本発明の実施形態の一例を詳細に説明する。なお、以下の各実施形態では、車両の監視システムに、本発明の画像処理装置を適用する場合について説明する。 Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. In each of the following embodiments, a case where the image processing apparatus of the present invention is applied to the vehicle monitoring system will be described.

<第1実施形態>
図1に示すように、第1実施形態に係る監視システム100は、1以上の画像処理装置10と、複数の路上装置20と、監視情報データベース(DB)30とを含む。路上装置20の各々及び画像処理装置10の各々と、監視情報DB30とは、インターネット等のネットワークを介して接続される。
<First Embodiment>
As shown in FIG. 1, the monitoring system 100 according to the first embodiment includes one or more image processing devices 10, a plurality of road devices 20, and a monitoring information database (DB) 30. Each of the road devices 20 and each of the image processing devices 10 and the monitoring information DB 30 are connected to each other via a network such as the Internet.

路上装置20は、図2に示すように、カメラ22と画像認識装置24とを含み、車両が走行する道路に設けられる。カメラ22は、車両が走行する道路の所定範囲を撮像し、撮像した画像を出力する。 As shown in FIG. 2, the road device 20 includes a camera 22 and an image recognition device 24, and is provided on the road on which the vehicle travels. The camera 22 captures a predetermined range of the road on which the vehicle travels, and outputs the captured image.

画像認識装置24は、機能的には、図3に示すように、取得部25と、認識部26と、送信部27とを含む。 The image recognition device 24 functionally includes an acquisition unit 25, a recognition unit 26, and a transmission unit 27, as shown in FIG.

取得部25は、カメラ22から出力された撮像画像を取得し、認識部26へ受け渡す。 The acquisition unit 25 acquires the captured image output from the camera 22 and delivers it to the recognition unit 26.

認識部26は、取得部25から受け渡された撮像画像から、ナンバープレートを含む領域を特定し、特定した領域から車両のナンバー情報をテキスト認識により取得する。ナンバープレートの領域の特定、及びナンバー情報のテキスト認識については、従来既知の手法を用いることができるため、ここでは詳細な説明を省略する。認識部26は、認識したナンバー情報を送信部27へ受け渡す。 The recognition unit 26 identifies a region including a license plate from the captured image delivered from the acquisition unit 25, and acquires vehicle number information from the identified region by text recognition. Since a conventionally known method can be used for specifying the area of the license plate and recognizing the text of the number information, detailed description thereof will be omitted here. The recognition unit 26 passes the recognized number information to the transmission unit 27.

送信部27は、自装置(路上装置20)の識別情報である路上装置IDと、取得部25で取得された撮像画像の撮像日時と、認識部26で認識されたナンバー情報と、撮像画像の画像データとを対応付けて、監視情報として監視情報DB30へ送信する。 The transmission unit 27 includes the road device ID which is the identification information of the own device (road device 20), the capture date and time of the captured image acquired by the acquisition unit 25, the number information recognized by the recognition unit 26, and the captured image. It is associated with the image data and transmitted to the monitoring information DB 30 as monitoring information.

図4に、監視情報DB30の一例を示す。図4の例では、監視情報DB30には、路上装置テーブル32と、監視情報テーブル34とが含まれる。 FIG. 4 shows an example of the monitoring information DB 30. In the example of FIG. 4, the monitoring information DB 30 includes a road device table 32 and a monitoring information table 34.

路上装置テーブル32には、各路上装置20についての情報が記憶される。図4の例では、路上装置テーブル32は、「路上装置ID」、「地点」、及び「撮像方向」の情報を含む。「地点」は、路上装置IDで識別される路上装置20が設置されている場所の情報である。「撮像方向」は、路上装置20のカメラ22の撮像方向を示す情報であり、図4の例では、どの方面へ向かう車両を正面から撮像可能なように設置されているかによって、撮像方向を表している。 Information about each road device 20 is stored in the road device table 32. In the example of FIG. 4, the road device table 32 includes information on the “road device ID”, the “point”, and the “imaging direction”. The "point" is information on the place where the road device 20 identified by the road device ID is installed. The "imaging direction" is information indicating the imaging direction of the camera 22 of the road device 20, and in the example of FIG. 4, the imaging direction is represented by which direction the vehicle is installed so that the vehicle can be imaged from the front. ing.

また、図4の例では、監視情報テーブル34には、「路上装置ID」、「撮像日時」、「ナンバー情報」、及び「画像データ」の情報が含まれ、各路上装置20から送信された監視情報が記憶される。 Further, in the example of FIG. 4, the monitoring information table 34 contains information of "road device ID", "imaging date and time", "number information", and "image data", and is transmitted from each road device 20. Monitoring information is stored.

画像処理装置10は、機能的には、図5に示すように、第1学習部12と、第1検索部14と、第2学習部16と、第2検索部18とを含む。 Functionally, as shown in FIG. 5, the image processing device 10 includes a first learning unit 12, a first search unit 14, a second learning unit 16, and a second search unit 18.

第1学習部12は、地点Xの路上装置20のカメラ22で撮像された撮像画像のうち、検索対象の車種に分類される車両を含む撮像画像を1つ特定する。なお、本実施形態における「車種」とは、車両の型格(製品名)である。 The first learning unit 12 identifies one captured image including a vehicle classified into the vehicle type to be searched among the captured images captured by the camera 22 of the road device 20 at the point X. The "vehicle type" in the present embodiment is a vehicle model (product name).

具体的には、第1学習部12は、監視情報DB30の監視情報テーブル34に記憶された監視情報から、「地点」が地点Xである監視情報に含まれる「画像データ」が示す撮像画像をユーザに提示する。そして、第1学習部12は、検索対象の車種の車両が撮像された撮像画像の指定をユーザから受け付けることにより、1つの撮像画像を特定する。第1学習部12は、特定した撮像画像を、地点XについてのテンプレートXとして設定する。なお、特定した撮像画像をテンプレートXに設定することは、本発明の第1の学習処理の一例である。 Specifically, the first learning unit 12 obtains an captured image indicated by "image data" included in the monitoring information in which the "point" is the point X from the monitoring information stored in the monitoring information table 34 of the monitoring information DB 30. Present to the user. Then, the first learning unit 12 identifies one captured image by accepting the designation of the captured image captured by the vehicle of the vehicle type to be searched from the user. The first learning unit 12 sets the specified captured image as the template X for the point X. Setting the specified captured image in the template X is an example of the first learning process of the present invention.

ここで、検索対象の車種の車両を撮像した撮像画像を検索するための学習処理としては、車種毎の特徴的な部分を学習して車種判別装置のパラメータを決定する手法も考えられる。しかし、この手法では、事前に車種毎に学習用の画像データを大量に用意する必要があり、また、新型車両が市場に投入される毎に再学習が必要になる。本実施形態では、上記第1学習部12のように、撮像画像からテンプレートを選択することで、簡易な学習を実現する。 Here, as a learning process for searching a captured image of a vehicle of a vehicle type to be searched, a method of learning a characteristic part of each vehicle type and determining a parameter of a vehicle type discriminating device can be considered. However, in this method, it is necessary to prepare a large amount of image data for learning in advance for each vehicle type, and re-learning is required every time a new vehicle is put on the market. In the present embodiment, simple learning is realized by selecting a template from the captured image as in the first learning unit 12.

第1検索部14は、検索対象の車種の車両の検索指示を受け付けると、地点Xの路上装置20のカメラ22で撮像された撮像画像について、テンプレートXを適用して、検索対象の車種の車両が撮像された撮像画像を検索する。具体的には、第1検索部14は、監視情報テーブル34に記憶された監視情報のうち、「地点」が地点Xである監視情報に含まれる「画像データ」が示す撮像画像の各々と、テンプレートXとのテンプレートマッチングを行う。第1検索部14は、テンプレートXである撮像画像の監視情報と、テンプレートXとのマッチング度が予め定めた閾値以上となる撮像画像の監視情報とを、地点Xについての検索結果として抽出し、検索結果リスト(詳細は後述)に追加する。 When the first search unit 14 receives the search instruction for the vehicle of the vehicle type to be searched, the first search unit 14 applies the template X to the captured image captured by the camera 22 of the road device 20 at the point X, and applies the template X to the vehicle of the vehicle type to be searched. Search for the captured image captured by. Specifically, the first search unit 14 includes each of the captured images indicated by the "image data" included in the monitoring information in which the "point" is the point X among the monitoring information stored in the monitoring information table 34. Perform template matching with template X. The first search unit 14 extracts the monitoring information of the captured image as the template X and the monitoring information of the captured image whose matching degree with the template X is equal to or higher than a predetermined threshold value as the search result for the point X. Add to the search result list (details will be described later).

第2学習部16は、第1学習部12によりテンプレートXに設定された撮像画像に含まれる車両のナンバー情報を抽出する。具体的には、第2学習部16は、監視情報テーブル34から、テンプレートXに設定された撮像画像の監視情報の「ナンバー情報」を抽出する。 The second learning unit 16 extracts the vehicle number information included in the captured image set in the template X by the first learning unit 12. Specifically, the second learning unit 16 extracts "number information" of the monitoring information of the captured image set in the template X from the monitoring information table 34.

また、第2学習部16は、地点Xとは異なる地点Yの路上装置20のカメラ22で撮像された撮像画像のうち、抽出したナンバー情報を示すナンバープレートを有する車両を含む撮像画像を抽出する。具体的には、第2学習部16は、監視情報テーブル34から、「地点」が地点Yで、かつ「ナンバー情報」が抽出されたナンバー情報と一致する監視情報に含まれる「画像データ」が示す撮像画像を抽出する。 Further, the second learning unit 16 extracts the captured image including the vehicle having the license plate showing the extracted number information from the captured images captured by the camera 22 of the road device 20 at the point Y different from the point X. .. Specifically, in the second learning unit 16, from the monitoring information table 34, "image data" included in the monitoring information in which the "point" is the point Y and the "number information" matches the extracted number information is The captured image shown is extracted.

第2学習部16は、抽出した撮像画像を、地点Yの撮像画像から検索対象の車種の車両が撮像された撮像画像を検索するためのテンプレートYとして設定する。なお、抽出した撮像画像をテンプレートYに設定することは、本発明の第2の学習処理の一例である。 The second learning unit 16 sets the extracted captured image as a template Y for searching the captured image captured by the vehicle of the vehicle type to be searched from the captured image at the point Y. Setting the extracted captured image in the template Y is an example of the second learning process of the present invention.

ここで、地点Xとは異なる地点Yの路上装置20のカメラ22で撮像された撮像画像から、検索対象の車種の車両が撮像された撮像画像を検索する際に、地点XでのテンプレートXを適用する場合を考える。この場合、図6に示すように、カメラ22の設置位置や角度、車線の幅等の違いにより、カメラ22と通過車両との位置関係はカメラ毎に異なる。したがって、同一の車両を撮像した撮像画像であっても、地点が異なる場合には、撮像画像上でのその車両の見え方は異なる。 Here, when searching for an image captured by a vehicle of the vehicle type to be searched from the image captured by the camera 22 of the road device 20 at the point Y different from the point X, the template X at the point X is used. Consider the case of application. In this case, as shown in FIG. 6, the positional relationship between the camera 22 and the passing vehicle differs for each camera due to differences in the installation position and angle of the camera 22, the width of the lane, and the like. Therefore, even if the captured images of the same vehicle are captured, if the points are different, the appearance of the vehicle on the captured images will be different.

そのため、地点Xの撮像画像から選択して設定したテンプレートXを適用して、地点Yの撮像画像から検索対象の撮像画像を検索することは困難である。また、テンプレートマッチングを行う際の特徴となる車両前面の各部は、同一平面上にあるわけではないため、テンプレート又は撮像画像の回転や拡大縮小などの幾何学変換を行ったとしても、適切なマッチングが行えない場合がある。 Therefore, it is difficult to search the captured image to be searched from the captured image of the point Y by applying the template X selected and set from the captured image of the point X. In addition, since each part of the front surface of the vehicle, which is a feature of template matching, is not on the same plane, appropriate matching is performed even if geometric transformation such as rotation or enlargement / reduction of the template or captured image is performed. May not be possible.

また、上述した車種毎の特徴を学習して車種判別装置のパラメータを決定する手法において、地点毎の撮像画像における車両の見え方の違いを吸収することも考えられる。しかし、この場合、車種毎の学習データに加え、車両とカメラ22との位置関係を各地点の状況に対応させて変更した学習データを準備する必要がある。 Further, in the above-mentioned method of learning the characteristics of each vehicle type and determining the parameters of the vehicle type discriminating device, it is conceivable to absorb the difference in the appearance of the vehicle in the captured image for each point. However, in this case, in addition to the learning data for each vehicle type, it is necessary to prepare learning data in which the positional relationship between the vehicle and the camera 22 is changed according to the situation at each point.

本実施形態では、上記第2学習部16のように、第1学習部12で学習されたテンプレートXのナンバー情報を地点Yに伝搬させる。これにより、地点Yにおいて、地点XのテンプレートXが示す車種と同一の車種の車両が撮像された撮像画像であって、地点Yでの見え方に対応した撮像画像を、地点YでのテンプレートYに設定することができる。 In the present embodiment, the number information of the template X learned by the first learning unit 12 is propagated to the point Y as in the second learning unit 16. As a result, at the point Y, the captured image of the vehicle of the same vehicle type as the vehicle type indicated by the template X of the point X, and the captured image corresponding to the appearance at the point Y, is the template Y at the point Y. Can be set to.

第2検索部18は、検索対象の車種の車両の検索指示を受け付けると、地点Yの路上装置20のカメラ22で撮像された撮像画像について、テンプレートYを適用して、検索対象の車種の車両が撮像された撮像画像を検索する。具体的には、第2検索部18は、監視情報テーブル34に記憶された監視情報のうち、「地点」が地点Yである監視情報に含まれる「画像データ」が示す撮像画像の各々と、テンプレートYとのテンプレートマッチングを行う。第2検索部18は、テンプレートYである撮像画像の監視情報と、テンプレートYとのマッチング度が予め定めた閾値以上となる撮像画像の監視情報とを、地点Yについての検索結果として抽出し、検索結果リストに追加する。 When the second search unit 18 receives the search instruction for the vehicle of the vehicle type to be searched, the second search unit 18 applies the template Y to the captured image captured by the camera 22 of the road device 20 at the point Y, and applies the template Y to the vehicle of the vehicle type to be searched. Search for the captured image captured by. Specifically, the second search unit 18 includes each of the captured images indicated by the "image data" included in the monitoring information in which the "point" is the point Y among the monitoring information stored in the monitoring information table 34. Perform template matching with template Y. The second search unit 18 extracts the monitoring information of the captured image as the template Y and the monitoring information of the captured image whose matching degree with the template Y is equal to or higher than a predetermined threshold value as the search result for the point Y. Add to the search result list.

図7に、検索結果リストの一例を示す。図7の例では、検索結果リストは、検索結果として抽出された監視情報に、その監視情報に含まれる「路上装置ID」に対応する「地点」及び「撮像方向」を路上装置テーブル32から取得して対応付けている。第2検索部18は、検索結果リストを指定された項目をキーに並べ替えて出力する。例えば、路上装置ID別に撮像日時順に並べ替えることができる。この場合、ある地点を通過した検索対象の車種の車両を時系列に確認することができる。また、例えば、ナンバー情報別に撮像日時順に並べ替えることができる。この場合、ある車両が通過した地点を時系列に確認することができる。 FIG. 7 shows an example of the search result list. In the example of FIG. 7, the search result list acquires the "point" and the "imaging direction" corresponding to the "road device ID" included in the monitoring information from the road device table 32 in the monitoring information extracted as the search result. And associated. The second search unit 18 sorts and outputs the search result list by using the designated items as keys. For example, it is possible to sort by the road device ID in order of the imaging date and time. In this case, it is possible to check the vehicles of the vehicle type to be searched that have passed a certain point in chronological order. Further, for example, it is possible to sort by number information in order of imaging date and time. In this case, the points where a certain vehicle has passed can be confirmed in chronological order.

また、第2検索部18は、同一の地点、又は全地点において同一のナンバー情報を有する車両の撮像画像の検索結果が複数含まれる場合には、同一のナンバー情報を有する車両の撮像画像の検索結果が重複しないように、検索結果リストを作成してもよい。これにより、検索結果リストの冗長性を低減することができる。 Further, when the second search unit 18 includes a plurality of search results of captured images of vehicles having the same number information at the same point or all points, the second search unit 18 searches for captured images of vehicles having the same number information. You may create a search result list so that the results do not overlap. This makes it possible to reduce the redundancy of the search result list.

第1検索部14又は第2検索部18は、最終的な検索結果リストを出力する。 The first search unit 14 or the second search unit 18 outputs the final search result list.

画像処理装置10は、例えば図8に示すコンピュータ40で実現することができる。コンピュータ40は、CPU(Central Processing Unit)41と、一時記憶領域としてのメモリ42と、不揮発性の記憶部43とを備える。また、コンピュータ40は、入力装置、表示装置等の入出力装置44と、記憶媒体49に対するデータの読み込み及び書き込みを制御するR/W(Read/Write)部45と、インターネット等のネットワークに接続される通信I/F(Interface)46とを備える。CPU41、メモリ42、記憶部43、入出力装置44、R/W部45、及び通信I/F46は、バス47を介して互いに接続される。 The image processing device 10 can be realized by, for example, the computer 40 shown in FIG. The computer 40 includes a CPU (Central Processing Unit) 41, a memory 42 as a temporary storage area, and a non-volatile storage unit 43. Further, the computer 40 is connected to an input / output device 44 such as an input device and a display device, an R / W (Read / Write) unit 45 that controls reading and writing of data to the storage medium 49, and a network such as the Internet. It is provided with a communication I / F (Interface) 46. The CPU 41, the memory 42, the storage unit 43, the input / output device 44, the R / W unit 45, and the communication I / F 46 are connected to each other via the bus 47.

記憶部43は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部43には、コンピュータ40を、画像処理装置10として機能させるための画像処理プログラム50が記憶される。画像処理プログラム50は、第1学習プロセス52と、第1検索プロセス54と、第2学習プロセス56と、第2検索プロセス58とを有する。 The storage unit 43 can be realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. The storage unit 43 as a storage medium stores an image processing program 50 for causing the computer 40 to function as the image processing device 10. The image processing program 50 includes a first learning process 52, a first search process 54, a second learning process 56, and a second search process 58.

CPU41は、画像処理プログラム50を記憶部43から読み出してメモリ42に展開し、画像処理プログラム50が有するプロセスを順次実行する。CPU41は、第1学習プロセス52を実行することで、図5に示す第1学習部12として動作する。また、CPU41は、第1検索プロセス54を実行することで、図5に示す第1検索部14として動作する。また、CPU41は、第2学習プロセス56を実行することで、図5に示す第2学習部16として動作する。また、CPU41は、第2検索プロセス58を実行することで、図5に示す第2検索部18として動作する。これにより、画像処理プログラム50を実行したコンピュータ40が、画像処理装置10として機能することになる。なお、プログラムを実行するCPU41はハードウェアである。 The CPU 41 reads the image processing program 50 from the storage unit 43, expands the image processing program 50 into the memory 42, and sequentially executes the processes included in the image processing program 50. The CPU 41 operates as the first learning unit 12 shown in FIG. 5 by executing the first learning process 52. Further, the CPU 41 operates as the first search unit 14 shown in FIG. 5 by executing the first search process 54. Further, the CPU 41 operates as the second learning unit 16 shown in FIG. 5 by executing the second learning process 56. Further, the CPU 41 operates as the second search unit 18 shown in FIG. 5 by executing the second search process 58. As a result, the computer 40 that has executed the image processing program 50 functions as the image processing device 10. The CPU 41 that executes the program is hardware.

なお、画像処理プログラム50により実現される機能は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。 The function realized by the image processing program 50 can also be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC (Application Specific Integrated Circuit) or the like.

次に、第1実施形態に係る監視システム100の作用について説明する。各路上装置20のカメラ22は、撮像範囲を車両が通過する毎に、通過車両を撮像し、撮像画像を出力する。路上装置20の画像認識装置24は、カメラ22から出力された撮像画像を取得し、撮像画像からナンバー情報を認識する。そして、画像認識装置24は、自装置の路上装置IDと、撮像画像の撮像日時と、認識したナンバー情報と、撮像画像の画像データとを対応付けて、監視情報として監視情報DB30へ送信する。 Next, the operation of the monitoring system 100 according to the first embodiment will be described. Each time the vehicle passes through the imaging range, the camera 22 of each road device 20 captures the passing vehicle and outputs the captured image. The image recognition device 24 of the road device 20 acquires the captured image output from the camera 22 and recognizes the number information from the captured image. Then, the image recognition device 24 associates the street device ID of its own device, the capture date and time of the captured image, the recognized number information, and the image data of the captured image, and transmits the monitoring information to the monitoring information DB 30.

監視情報DB30には、各路上装置20から送信された監視情報が、例えば、図4に示すような監視情報テーブル34に記憶される。そして、画像処理装置10に対して、検索指示が入力されると、画像処理装置10において、図9に示す画像処理が実行される。 In the monitoring information DB 30, the monitoring information transmitted from each road device 20 is stored in, for example, the monitoring information table 34 as shown in FIG. Then, when a search instruction is input to the image processing device 10, the image processing device 10 executes the image processing shown in FIG.

図9のステップS10で、第1検索部14が、検索範囲として、撮像画像が撮像された場所の範囲及び日時の範囲の指定を受け付ける。 In step S10 of FIG. 9, the first search unit 14 accepts the designation of the range of the place where the captured image was captured and the range of the date and time as the search range.

次に、ステップS20で、第1検索部14が、監視情報DB30の監視情報テーブル34から、「地点」が検索範囲として指定された場所の範囲に含まれ、「撮像日時」が検索範囲として指定された日時の範囲に含まれる監視情報を抽出する。以下では、本ステップで抽出された監視情報群を、「検索対象リスト」という。 Next, in step S20, the first search unit 14 includes the "point" in the range of the place designated as the search range from the monitoring information table 34 of the monitoring information DB 30, and the "imaging date and time" is designated as the search range. Extract the monitoring information included in the range of the date and time. In the following, the monitoring information group extracted in this step is referred to as a "search target list".

次に、ステップS30で、図10に示す第1学習検索処理が実行される。 Next, in step S30, the first learning search process shown in FIG. 10 is executed.

図10のステップS31で、第1学習部12が、検索対象リストに含まれる監視情報の「地点」から、1つの地点を決定する。この地点を「地点X」とする。 In step S31 of FIG. 10, the first learning unit 12 determines one point from the “point” of the monitoring information included in the search target list. This point is referred to as "point X".

次に、ステップS32で、第1学習部12が、検索対象リストから、「地点」が地点Xである監視情報に含まれる「画像データ」が示す撮像画像をユーザに提示する。例えば、第1学習部12は、該当の撮像画像のサムネイル画像を一覧で表示したり、該当の撮像画像を順次切り替え可能な状態で表示したりすることにより、ユーザに提示することができる。 Next, in step S32, the first learning unit 12 presents to the user the captured image indicated by the "image data" included in the monitoring information in which the "point" is the point X from the search target list. For example, the first learning unit 12 can present the thumbnail image of the captured image to the user by displaying the thumbnail image in a list or displaying the captured image in a state in which the captured images can be sequentially switched.

次に、ステップS33で、第1学習部12が、ユーザに提示した撮像画像から、検索対象の車種の車両が撮像された撮像画像の指定を受け付けたか否かを判定する。撮像画像の指定を受け付けた場合には、処理はステップS34へ移行する。一方、撮像画像の指定を受け付けなかった場合には、処理はステップS31に戻り、第1学習部12は、前回とは異なる地点を地点Xとして決定する。 Next, in step S33, the first learning unit 12 determines whether or not the designation of the captured image captured by the vehicle of the vehicle type to be searched is accepted from the captured image presented to the user. When the designation of the captured image is accepted, the process proceeds to step S34. On the other hand, if the designation of the captured image is not accepted, the process returns to step S31, and the first learning unit 12 determines a point different from the previous time as the point X.

ステップS34では、第1学習部12が、上記ステップS33で指定を受け付けた撮像画像を、地点XについてのテンプレートXとして設定する。 In step S34, the first learning unit 12 sets the captured image designated in step S33 as the template X for the point X.

次に、ステップS35で、第1検索部14が、検索対象リストに含まれる監視情報のうち、「地点」が地点Xである監視情報に含まれる「画像データ」が示す撮像画像の各々と、テンプレートXとのテンプレートマッチングを行う。第1検索部14は、テンプレートXとのマッチング度が予め定めた閾値以上となる撮像画像を検索する。 Next, in step S35, the first search unit 14 obtains each of the captured images indicated by the "image data" included in the monitoring information in which the "point" is the point X among the monitoring information included in the search target list. Perform template matching with template X. The first search unit 14 searches for captured images whose matching degree with the template X is equal to or higher than a predetermined threshold value.

次に、ステップS36で、第1検索部14が、テンプレートXである撮像画像の監視情報と、検索した撮像画像の監視情報とを、地点Xについての検索結果として抽出し、検索結果リストに追加する。そして、処理は、画像処理(図9)に戻る。 Next, in step S36, the first search unit 14 extracts the monitoring information of the captured image as the template X and the monitoring information of the searched captured image as search results for the point X, and adds them to the search result list. do. Then, the processing returns to the image processing (FIG. 9).

次に、図9のステップS40で、図11に示す第2学習検索処理が実行される。 Next, in step S40 of FIG. 9, the second learning search process shown in FIG. 11 is executed.

図11のステップS41で、第2学習部16が、上記第1学習検索処理のステップS34でテンプレートXに設定された撮像画像の監視情報の「ナンバー情報」を、監視情報テーブル34から抽出する。 In step S41 of FIG. 11, the second learning unit 16 extracts the “number information” of the monitoring information of the captured image set in the template X in the step S34 of the first learning search process from the monitoring information table 34.

次に、ステップS42で、第2学習部16が、地点Xとは異なる地点Yを特定するための変数iを1に設定する。以下では、検索対象リストに含まれる「地点」の種類のうち、本第2学習検索処理でi番目に処理される地点を「地点i」と表記する。 Next, in step S42, the second learning unit 16 sets the variable i for specifying the point Y different from the point X to 1. In the following, among the types of "points" included in the search target list, the point processed i-th in the second learning search process is referred to as "point i".

次に、ステップS43で、第2学習部16が、変数iが、検索対象リストに含まれる「地点」の種類数Nを超えたか否かを判定する。iがN以下の場合には、処理はステップS44へ移行する。 Next, in step S43, the second learning unit 16 determines whether or not the variable i exceeds the number N of types of “points” included in the search target list. If i is N or less, the process proceeds to step S44.

ステップS44で、第2学習部16が、地点iが地点Xとは異なる地点か否かを判定する。地点i≠地点Xの場合には、処理はステップS45へ移行し、地点i=地点Xの場合には、処理はステップS50へ移行する。 In step S44, the second learning unit 16 determines whether or not the point i is different from the point X. If point i ≠ point X, the process proceeds to step S45, and if point i = point X, the process proceeds to step S50.

ステップS45では、第2学習部16が、検索対象リストに含まれる監視情報のうち、「地点」が地点iで、かつ「ナンバー情報」が抽出されたナンバー情報と一致する監視情報に含まれる「画像データ」が示す撮像画像を抽出する。 In step S45, the second learning unit 16 includes "point" in the monitoring information included in the search target list, which is included in the monitoring information whose "point" is the point i and whose "number information" matches the extracted number information. The captured image indicated by "image data" is extracted.

ステップS46では、第2学習部16が、上記ステップS45で、該当の撮像画像が抽出できたか否かを判定する。抽出できた場合には、処理はステップS47へ移行する。一方、テンプレートXに含まれる車両が地点iを通過していない場合や、地点iでの撮像画像ではナンバープレートが適切に認識できていなかった場合などの理由により、該当の撮像画像が抽出できなかった場合には、処理はステップS50へ移行する。 In step S46, the second learning unit 16 determines whether or not the corresponding captured image could be extracted in step S45. If it can be extracted, the process proceeds to step S47. On the other hand, the corresponding captured image cannot be extracted due to reasons such as the vehicle included in the template X not passing through the point i or the license plate not being properly recognized in the captured image at the point i. If so, the process proceeds to step S50.

ステップS47では、第2学習部16が、抽出した撮像画像を、地点iの撮像画像から検索対象の車種の車両が撮像された撮像画像を検索するためのテンプレートiとして設定する。 In step S47, the second learning unit 16 sets the extracted captured image as the template i for searching the captured image captured by the vehicle of the vehicle type to be searched from the captured image at the point i.

次に、ステップS48で、第2検索部18が、検索対象リストに含まれる監視情報のうち、「地点」が地点iである監視情報に含まれる「画像データ」が示す撮像画像の各々と、テンプレートiとのテンプレートマッチングを行う。第2検索部18は、テンプレートiとのマッチング度が予め定めた閾値以上となる撮像画像を検索する。 Next, in step S48, the second search unit 18 obtains each of the captured images indicated by the "image data" included in the monitoring information in which the "point" is the point i among the monitoring information included in the search target list. Perform template matching with template i. The second search unit 18 searches for captured images whose matching degree with the template i is equal to or higher than a predetermined threshold value.

次に、ステップS49で、第2検索部18が、テンプレートiである撮像画像の監視情報と、検索した撮像画像の監視情報とを、地点iについての検索結果として抽出し、検索結果リストに追加し、処理はステップS50へ移行する。 Next, in step S49, the second search unit 18 extracts the monitoring information of the captured image as the template i and the monitoring information of the searched captured image as search results for the point i, and adds them to the search result list. Then, the process proceeds to step S50.

ステップS50では、第2検索部18が、変数iを1インクリメントし、処理はステップS43に戻る。そして、ステップS43で、i>Nであると判定されると、処理は、画像処理(図9)に戻る。 In step S50, the second search unit 18 increments the variable i by 1, and the process returns to step S43. Then, if it is determined in step S43 that i> N, the processing returns to the image processing (FIG. 9).

次に、図9のステップS60で、第2検索部18が、例えば、図7に示すような検索結果リストを出力して、画像処理は終了する。 Next, in step S60 of FIG. 9, the second search unit 18 outputs, for example, a search result list as shown in FIG. 7, and the image processing ends.

以上説明したように、第1実施形態に係る監視システム100によれば、画像処理装置10が、図12に示すように、テンプレートに指定された撮像画像と同一地点で撮像された撮像画像に対しては、テンプレートによるテンプレートマッチングを適用する。一方、異なる地点の撮像画像に対しては、テンプレートに指定された撮像画像から抽出されたナンバー情報を伝搬させて、異なる地点におけるテンプレートを選択する。 As described above, according to the monitoring system 100 according to the first embodiment, as shown in FIG. 12, the image processing device 10 with respect to the captured image captured at the same point as the captured image specified in the template. Then, apply template matching by template. On the other hand, for the captured images at different points, the number information extracted from the captured images specified in the template is propagated to select the template at different points.

これにより、地点毎の撮像画像内での車両の見え方に対応したテンプレートを設定することができ、また、地点毎かつ車種毎に事前に車種判別装置を用意したり、人手でテンプレートを設定したりする必要がない。したがって、撮像画像内での車両の見え方が異なる場合でも、所定の車種の車両を含む撮像画像を簡易に抽出することができる。 This makes it possible to set a template corresponding to the appearance of the vehicle in the captured image for each point, prepare a vehicle type discrimination device in advance for each point and each vehicle type, or manually set the template. There is no need to do it. Therefore, even if the appearance of the vehicle in the captured image is different, the captured image including the vehicle of a predetermined vehicle type can be easily extracted.

<第2実施形態>
次に、第2実施形態について説明する。なお、第2実施形態に係る監視システムにおいて、第1実施形態に係る監視システム100と同様の部分については、同一符号を付して詳細な説明を省略する。
<Second Embodiment>
Next, the second embodiment will be described. In the monitoring system according to the second embodiment, the same parts as those of the monitoring system 100 according to the first embodiment are designated by the same reference numerals and detailed description thereof will be omitted.

図1に示すように、第2実施形態に係る監視システム200は、第1実施形態に係る監視システム100の画像処理装置10に替えて、画像処理装置210を含む。 As shown in FIG. 1, the monitoring system 200 according to the second embodiment includes an image processing device 210 in place of the image processing device 10 of the monitoring system 100 according to the first embodiment.

画像処理装置210は、機能的には、図5に示すように、第1学習部212と、第1検索部214と、第2学習部216と、第2検索部218とを含む。 Functionally, as shown in FIG. 5, the image processing device 210 includes a first learning unit 212, a first search unit 214, a second learning unit 216, and a second search unit 218.

第1学習部212は、地点Xの路上装置20のカメラ22で撮像された撮像画像のうち、検索対象の車種に分類される車両を含む撮像画像を複数特定する。具体的には、第1学習部212は、地点Xの撮像画像から、検索対象の車種の車両が撮像された撮像画像としてユーザにより指定された撮像画像を初期テンプレートに設定する。また、第1学習部212は、地点Xの撮像画像のうち、初期テンプレートとのマッチング度が所定の閾値以上の撮像画像を所定数特定する。そして、第1学習部212は、初期テンプレートと特定した所定数の撮像画像とを、地点XのテンプレートXとして設定する。 The first learning unit 212 identifies a plurality of captured images including vehicles classified into the vehicle type to be searched among the captured images captured by the camera 22 of the road device 20 at the point X. Specifically, the first learning unit 212 sets the captured image designated by the user as the captured image captured by the vehicle of the vehicle type to be searched from the captured image at the point X as the initial template. Further, the first learning unit 212 specifies a predetermined number of captured images whose matching degree with the initial template is equal to or higher than a predetermined threshold value among the captured images at the point X. Then, the first learning unit 212 sets the initial template and the specified number of captured images as the template X of the point X.

第1検索部214は、第1学習部212により設定された複数のテンプレートXの各々と、地点Xの撮像画像のうち、テンプレートに設定されていない撮像画像の各々とのテンプレートマッチングを行う。第1検索部214は、各テンプレートXの撮像画像の監視情報と、いずれかのテンプレートXとのマッチング度が予め定めた閾値以上となる撮像画像の監視情報とを、地点Xについての検索結果として抽出し、検索結果リストに追加する。 The first search unit 214 performs template matching with each of the plurality of templates X set by the first learning unit 212 and each of the captured images not set in the template among the captured images at the point X. The first search unit 214 uses the monitoring information of the captured image of each template X and the monitoring information of the captured image whose matching degree with any of the templates X is equal to or higher than a predetermined threshold value as the search result for the point X. Extract and add to the search result list.

第2学習部216は、監視情報テーブル34から、各テンプレートXに設定された撮像画像の監視情報の「ナンバー情報」を、それぞれ抽出する。 The second learning unit 216 extracts "number information" of the monitoring information of the captured image set in each template X from the monitoring information table 34, respectively.

また、第2学習部216は、監視情報テーブル34から、「地点」が地点Yで、かつ「ナンバー情報」が抽出されたナンバー情報のいずれかと一致する監視情報に含まれる「画像データ」が示す撮像画像を抽出する。第2学習部216は、抽出した撮像画像の各々を、地点YのテンプレートYとして設定する。 Further, in the second learning unit 216, "image data" indicated by the monitoring information included in the monitoring information in which the "point" is the point Y and the "number information" matches any of the extracted number information from the monitoring information table 34. Extract the captured image. The second learning unit 216 sets each of the extracted captured images as a template Y at the point Y.

第2検索部218は、監視情報テーブル34に記憶された監視情報のうち、「地点」が地点Yである監視情報に含まれる「画像データ」が示す撮像画像の各々と、テンプレートYの各々とのテンプレートマッチングを行う。第2検索部218は、各テンプレートYである撮像画像の監視情報と、いずれかのテンプレートYとのマッチング度が予め定めた閾値以上となる撮像画像の監視情報とを、地点Yについての検索結果として抽出し、検索結果リストに追加する。 The second search unit 218 includes each of the captured images indicated by the "image data" included in the monitoring information in which the "point" is the point Y, and each of the template Y, among the monitoring information stored in the monitoring information table 34. Template matching is performed. The second search unit 218 searches for the monitoring information of the captured image, which is each template Y, and the monitoring information of the captured image whose matching degree with any of the templates Y is equal to or higher than a predetermined threshold value, as a search result for the point Y. And add it to the search result list.

画像処理装置210は、例えば図8に示すコンピュータ40で実現することができる。コンピュータ40の記憶部43には、コンピュータ40を、画像処理装置210として機能させるための画像処理プログラム250が記憶される。画像処理プログラム250は、第1学習プロセス252と、第1検索プロセス254と、第2学習プロセス256と、第2検索プロセス258とを有する。 The image processing device 210 can be realized by, for example, the computer 40 shown in FIG. An image processing program 250 for making the computer 40 function as an image processing device 210 is stored in the storage unit 43 of the computer 40. The image processing program 250 has a first learning process 252, a first search process 254, a second learning process 256, and a second search process 258.

CPU41は、画像処理プログラム250を記憶部43から読み出してメモリ42に展開し、画像処理プログラム250が有するプロセスを順次実行する。CPU41は、第1学習プロセス252を実行することで、図5に示す第1学習部212として動作する。また、CPU41は、第1検索プロセス254を実行することで、図5に示す第1検索部214として動作する。また、CPU41は、第2学習プロセス256を実行することで、図5に示す第2学習部216として動作する。また、CPU41は、第2検索プロセス258を実行することで、図5に示す第2検索部218として動作する。これにより、画像処理プログラム250を実行したコンピュータ40が、画像処理装置210として機能することになる。 The CPU 41 reads the image processing program 250 from the storage unit 43, expands the image processing program 250 into the memory 42, and sequentially executes the processes included in the image processing program 250. The CPU 41 operates as the first learning unit 212 shown in FIG. 5 by executing the first learning process 252. Further, the CPU 41 operates as the first search unit 214 shown in FIG. 5 by executing the first search process 254. Further, the CPU 41 operates as the second learning unit 216 shown in FIG. 5 by executing the second learning process 256. Further, the CPU 41 operates as the second search unit 218 shown in FIG. 5 by executing the second search process 258. As a result, the computer 40 that has executed the image processing program 250 functions as the image processing device 210.

なお、画像処理プログラム250により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。 The function realized by the image processing program 250 can also be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC or the like.

次に、第2実施形態に係る監視システム200の作用について説明する。第1実施形態と同様に、画像処理装置210において、図9に示す画像処理が実行される。第2実施形態では、ステップS30において、図13に示す第1学習検索処理が実行され、ステップS40において、図11に示す第2学習検索処理が実行される。以下、第2実施形態における第1学習検索処理及び第2学習検索処理について説明する。なお、図13において、第1実施形態における第1学習検索処理と同様の処理については、同一符号を付して詳細な説明を省略する。 Next, the operation of the monitoring system 200 according to the second embodiment will be described. Similar to the first embodiment, the image processing apparatus 210 performs the image processing shown in FIG. In the second embodiment, the first learning search process shown in FIG. 13 is executed in step S30, and the second learning search process shown in FIG. 11 is executed in step S40. Hereinafter, the first learning search process and the second learning search process in the second embodiment will be described. In FIG. 13, the same processing as that of the first learning search processing in the first embodiment is designated by the same reference numerals and detailed description thereof will be omitted.

図13のステップS31~S33を経て、次のステップS231で、第1学習部212が、上記ステップS33で指定を受け付けた撮像画像を、初期テンプレートとして設定する。 After passing through steps S31 to S33 of FIG. 13, in the next step S231, the first learning unit 212 sets the captured image designated in the above step S33 as the initial template.

次に、ステップS232で、第1学習部212が、地点Xの撮像画像のうち、初期テンプレートとのマッチング度が所定の閾値以上の撮像画像を所定数特定する。 Next, in step S232, the first learning unit 212 specifies a predetermined number of captured images whose matching degree with the initial template is equal to or higher than a predetermined threshold value among the captured images at the point X.

次に、ステップS233で、第1学習部212が、初期テンプレートと特定した所定数の撮像画像とを、地点XのテンプレートXとして設定する。 Next, in step S233, the first learning unit 212 sets the initial template and the specified number of captured images as the template X at the point X.

なお、ステップS35では、テンプレートXが複数である点が第1実施形態と異なるだけである。 In step S35, the only difference from the first embodiment is that there are a plurality of templates X.

また、図11に示す第2学習検索処理では、ステップS41、S45、S47、及びS48において、テンプレートiが複数である点が第1実施形態と異なるだけであるため、詳細な説明を省略する。 Further, in the second learning search process shown in FIG. 11, in steps S41, S45, S47, and S48, only a plurality of templates i are different from the first embodiment, and therefore detailed description thereof will be omitted.

以上第2実施形態に係る監視システム200によれば、画像処理装置210が、各地点の撮像画像から検索対象の撮像画像を検索するためのテンプレートを複数設定する。これにより、地点毎に1つのテンプレートを用いる場合に比べ、検索漏れを低減することができる。 According to the monitoring system 200 according to the second embodiment, the image processing device 210 sets a plurality of templates for searching the captured image to be searched from the captured images at each point. As a result, it is possible to reduce search omissions as compared with the case where one template is used for each point.

なお、上記第2実施形態では、設定した複数のテンプレートの各々と撮像画像とのテンプレートマッチングにより、検索対象の車種の車両が撮像された撮像画像を検索する場合について説明したが、これに限定されない。例えば、各地点についてテンプレートに設定された撮像画像の特徴を学習して、1つの識別モデルを生成し、この識別モデルを用いて、各地点の撮像画像から検索対象の撮像画像を検索してもよい。 In the second embodiment, the case of searching the captured image captured by the vehicle of the vehicle type to be searched by template matching between each of the set plurality of templates and the captured image has been described, but the present invention is not limited to this. .. For example, even if the characteristics of the captured image set in the template for each point are learned to generate one discriminative model, and this discriminative model is used to search the captured image to be searched from the captured images at each point. good.

<第3実施形態>
次に、第3実施形態について説明する。なお、第3実施形態に係る監視システムにおいて、第1実施形態に係る監視システム100と同様の部分については、同一符号を付して詳細な説明を省略する。
<Third Embodiment>
Next, the third embodiment will be described. In the monitoring system according to the third embodiment, the same parts as those of the monitoring system 100 according to the first embodiment are designated by the same reference numerals and detailed description thereof will be omitted.

図1に示すように、第3実施形態に係る監視システム300は、第1実施形態に係る監視システム100の画像処理装置10に替えて、画像処理装置310を含む。 As shown in FIG. 1, the monitoring system 300 according to the third embodiment includes an image processing device 310 in place of the image processing device 10 of the monitoring system 100 according to the first embodiment.

画像処理装置310は、機能的には、図5に示すように、第1学習部312と、第1検索部314と、第2学習部316と、第2検索部318とを含む。 Functionally, as shown in FIG. 5, the image processing device 310 includes a first learning unit 312, a first search unit 314, a second learning unit 316, and a second search unit 318.

第1学習部312は、第2実施形態における第1学習部212と同様に、地点Xについて、所定数の撮像画像をテンプレートXとして設定する。この際、第1学習部312は、所定数の撮像画像を抽出するためのテンプレートマッチングを行う撮像画像上の領域を、テンプレートが撮像画像から抽出された位置を基準とした所定範囲内とする。また、所定範囲内は、特定される複数のテンプレートが、撮像画像のそれぞれ異なる位置から抽出されるように設定する。 Similar to the first learning unit 212 in the second embodiment, the first learning unit 312 sets a predetermined number of captured images as the template X for the point X. At this time, the first learning unit 312 sets the region on the captured image for template matching for extracting a predetermined number of captured images within a predetermined range based on the position where the template is extracted from the captured image. Further, within a predetermined range, a plurality of specified templates are set so as to be extracted from different positions of the captured image.

具体的には、第1学習部312は、地点Xの撮像画像をユーザに提示し、検索対象の車種の車両が撮像された撮像画像内の車両の画像部分の指定をユーザから受け付け、受け付けた画像部分を初期テンプレートとして設定する。また、第1学習部312は、初期テンプレートが抽出された位置から所定範囲内の領域であって、初期テンプレートが抽出された領域とは異なる領域においてテンプレートマッチングを行う。第1学習部312は、その異なる領域から抽出された撮像画像を次のテンプレートに設定する。また、第1学習部312は、新たに設定されたテンプレートが抽出された位置から所定範囲内の領域であって、そのテンプレートが抽出された領域とは異なる領域においてテンプレートマッチングを行う。第1学習部312は、その異なる領域から抽出された撮像画像を次のテンプレートに設定する。第1学習部312は、この処理を繰り返し、所定数のテンプレートを抽出する。 Specifically, the first learning unit 312 presents the captured image of the point X to the user, and accepts and accepts the designation of the image portion of the vehicle in the captured image captured by the vehicle of the vehicle type to be searched. Set the image part as the initial template. Further, the first learning unit 312 performs template matching in an area within a predetermined range from the position where the initial template is extracted and different from the area where the initial template is extracted. The first learning unit 312 sets the captured images extracted from the different regions in the next template. Further, the first learning unit 312 performs template matching in an area within a predetermined range from the position where the newly set template is extracted and different from the area where the template is extracted. The first learning unit 312 sets the captured images extracted from the different regions in the next template. The first learning unit 312 repeats this process and extracts a predetermined number of templates.

例えば、図14に示すように、第1学習部312は、領域Aにおいて初期テンプレートAが指定された場合、領域Bにおいて、初期テンプレートAによるテンプレートマッチングを行い、テンプレートBを抽出する。また、第1学習部312は、領域Cにおいて、テンプレートBによるテンプレートマッチングを行い、テンプレートCを抽出する。 For example, as shown in FIG. 14, when the initial template A is specified in the area A, the first learning unit 312 performs template matching by the initial template A in the area B and extracts the template B. Further, the first learning unit 312 performs template matching by the template B in the area C and extracts the template C.

第1検索部314は、地点Xの撮像画像に対して、テンプレートXの各々を適用してテンプレートマッチングを行って、地点Xにおける、検索対象の車種の車両が撮像された撮像画像を検索する。この際、第1検索部314は、テンプレートXの各々が抽出された位置を含む所定範囲内において、テンプレートマッチングを行う。 The first search unit 314 applies each of the templates X to the captured image of the point X to perform template matching, and searches for the captured image of the vehicle of the vehicle type to be searched at the point X. At this time, the first search unit 314 performs template matching within a predetermined range including the positions where each of the templates X is extracted.

このように、テンプレートマッチングを行う領域を少しずつずらしながら、撮像画像内の様々な位置から所定数のテンプレートを抽出し、各テンプレートが抽出された位置を含む所定範囲内でテンプレートマッチングを行う。これにより、同一地点における撮像画像内であっても生じる、撮像画像内の位置による車両のわずかな見え方の違いを吸収して、精度良く検索対象の車両が撮像された撮像画像を検索することができる。 In this way, while shifting the area for template matching little by little, a predetermined number of templates are extracted from various positions in the captured image, and template matching is performed within a predetermined range including the positions where each template is extracted. As a result, it is possible to accurately search for the captured image of the vehicle to be searched by absorbing the slight difference in the appearance of the vehicle depending on the position in the captured image, which occurs even in the captured image at the same point. Can be done.

第2学習部316は、監視情報テーブル34から、各テンプレートXに設定された車両の画像を含む撮像画像の監視情報の「ナンバー情報」を、それぞれ抽出する。 The second learning unit 316 extracts "number information" of the monitoring information of the captured image including the image of the vehicle set in each template X from the monitoring information table 34, respectively.

また、第2学習部316は、監視情報テーブル34から、「地点」が地点Yで、かつ「ナンバー情報」が抽出されたナンバー情報のいずれかと一致する監視情報に含まれる「画像データ」が示す撮像画像を抽出する。第2学習部316は、抽出した撮像画像の各々に含まれる車両の画像部分を特定し、特定した画像部分を地点YのテンプレートYとして設定する。なお、車両の画像部分の特定方法は、従来既知の手法を用いることができるため、ここでは詳細な説明を省略する。 Further, the second learning unit 316 shows "image data" included in the monitoring information from the monitoring information table 34, in which the "point" is the point Y and the "number information" matches any of the extracted number information. Extract the captured image. The second learning unit 316 identifies an image portion of the vehicle included in each of the extracted captured images, and sets the identified image portion as the template Y of the point Y. Since a conventionally known method can be used as a method for specifying the image portion of the vehicle, detailed description thereof will be omitted here.

また、第2学習部316は、第1学習部312と同様に、テンプレートマッチングを行う領域を少しずつずらしながら、撮像画像内の様々な位置から所定数のテンプレートYを抽出する。 Further, the second learning unit 316 extracts a predetermined number of template Ys from various positions in the captured image while gradually shifting the template matching area as in the first learning unit 312.

第2検索部318は、監視情報テーブル34に記憶された監視情報のうち、「地点」が地点Yである監視情報に含まれる「画像データ」が示す撮像画像の各々と、テンプレートYの各々とのテンプレートマッチングを行う。この際、第2検索部318は、テンプレートYの各々が抽出された位置を含む所定範囲内において、テンプレートマッチングを行う。 The second search unit 318 includes each of the captured images indicated by the "image data" included in the monitoring information in which the "point" is the point Y, and each of the template Y, among the monitoring information stored in the monitoring information table 34. Template matching is performed. At this time, the second search unit 318 performs template matching within a predetermined range including the positions where each of the templates Y is extracted.

画像処理装置310は、例えば図8に示すコンピュータ40で実現することができる。コンピュータ40の記憶部43には、コンピュータ40を、画像処理装置310として機能させるための画像処理プログラム350が記憶される。画像処理プログラム350は、第1学習プロセス352と、第1検索プロセス354と、第2学習プロセス356と、第2検索プロセス358とを有する。 The image processing device 310 can be realized by, for example, the computer 40 shown in FIG. An image processing program 350 for causing the computer 40 to function as an image processing device 310 is stored in the storage unit 43 of the computer 40. The image processing program 350 has a first learning process 352, a first search process 354, a second learning process 356, and a second search process 358.

CPU41は、画像処理プログラム350を記憶部43から読み出してメモリ42に展開し、画像処理プログラム350が有するプロセスを順次実行する。CPU41は、第1学習プロセス352を実行することで、図5に示す第1学習部312として動作する。また、CPU41は、第1検索プロセス354を実行することで、図5に示す第1検索部314として動作する。また、CPU41は、第2学習プロセス356を実行することで、図5に示す第2学習部316として動作する。また、CPU41は、第2検索プロセス358を実行することで、図5に示す第2検索部318として動作する。これにより、画像処理プログラム350を実行したコンピュータ40が、画像処理装置310として機能することになる。 The CPU 41 reads the image processing program 350 from the storage unit 43, expands the image processing program 350 into the memory 42, and sequentially executes the processes included in the image processing program 350. The CPU 41 operates as the first learning unit 312 shown in FIG. 5 by executing the first learning process 352. Further, the CPU 41 operates as the first search unit 314 shown in FIG. 5 by executing the first search process 354. Further, the CPU 41 operates as the second learning unit 316 shown in FIG. 5 by executing the second learning process 356. Further, the CPU 41 operates as the second search unit 318 shown in FIG. 5 by executing the second search process 358. As a result, the computer 40 that has executed the image processing program 350 functions as the image processing device 310.

なお、画像処理プログラム350により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。 The function realized by the image processing program 350 can also be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC or the like.

次に、第3実施形態に係る監視システム300の作用について説明する。第1実施形態と同様に、画像処理装置310において、図9に示す画像処理が実行される。第3実施形態では、ステップS30において、図15に示す第1学習検索処理が実行され、ステップS40において、図16に示す第2学習検索処理が実行される。なお、図15において、第1実施形態における第1学習検索処理と同様の処理については、同一符号を付し、図16において、第1実施形態における第2学習検索処理と同様の処理については、同一符号を付して詳細な説明を省略する。 Next, the operation of the monitoring system 300 according to the third embodiment will be described. Similar to the first embodiment, the image processing device 310 performs the image processing shown in FIG. In the third embodiment, the first learning search process shown in FIG. 15 is executed in step S30, and the second learning search process shown in FIG. 16 is executed in step S40. In FIG. 15, the same processing as the first learning search processing in the first embodiment is designated by the same reference numeral, and in FIG. 16, the same processing as the second learning search processing in the first embodiment is designated by the same reference numeral. The same reference numerals are given and detailed description thereof will be omitted.

まず、第1学習検索処理について説明する。 First, the first learning search process will be described.

図15のステップS31及びS32を経て、次のステップS331で、第1学習部312が、ユーザに提示した撮像画像から、検索対象の車種の車両が撮像された撮像画像内の車両の画像部分の指定を受け付けたか否かを判定する。画像部分の指定を受け付けた場合には、処理はステップS332へ移行する。一方、画像部分の指定を受け付けなかった場合には、処理はステップS31に戻り、第1学習部312は、前回とは異なる地点を地点Xとして決定する。 After passing through steps S31 and S32 of FIG. 15, in the next step S331, the image portion of the vehicle in the captured image in which the vehicle of the vehicle type to be searched is captured from the captured image presented to the user by the first learning unit 312. Determine if the designation has been accepted. When the designation of the image portion is accepted, the process proceeds to step S332. On the other hand, if the designation of the image portion is not accepted, the process returns to step S31, and the first learning unit 312 determines a point different from the previous time as the point X.

ステップS332では、第1学習部312が、上記ステップS331で指定を受け付けた画像部分を、地点XについてのテンプレートXとして設定する。 In step S332, the first learning unit 312 sets the image portion designated in step S331 as the template X for the point X.

次に、ステップS333で、第1学習部312が、検索対象リストに含まれる監視情報のうち、「地点」が地点Xである監視情報に含まれる「画像データ」が示す撮像画像から1つの撮像画像を選択する。 Next, in step S333, the first learning unit 312 captures one image from the captured image indicated by the "image data" included in the monitoring information in which the "point" is the point X among the monitoring information included in the search target list. Select an image.

次に、ステップS334で、第1学習部312が、上記ステップS333で選択された撮像画像において、テンプレートXが撮像画像から抽出された位置を基準とした所定範囲内で、テンプレートXとのテンプレートマッチングを行う。第1学習部312は、テンプレートXとのマッチング度が予め定めた閾値以上となる画像部分を特定する。 Next, in step S334, the first learning unit 312 matches the template with the template X within a predetermined range based on the position where the template X is extracted from the captured image in the captured image selected in step S333. I do. The first learning unit 312 specifies an image portion whose matching degree with the template X is equal to or higher than a predetermined threshold value.

次に、ステップS335で、第1学習部312が、上記ステップS334で、テンプレートXとマッチする画像部分が特定されたか否かを判定する。画像部分が特定された場合には、処理はステップS336へ移行し、特定されなかった場合には、処理はステップS333に戻り、次の撮像画像を選択する。 Next, in step S335, the first learning unit 312 determines whether or not the image portion matching the template X is specified in step S334. If the image portion is specified, the process proceeds to step S336, and if not specified, the process returns to step S333 and selects the next captured image.

ステップS336では、第1学習部312が、上記ステップS335で特定された画像部分を、地点Xについての新たなテンプレートXとして設定する。 In step S336, the first learning unit 312 sets the image portion specified in step S335 as a new template X for the point X.

次に、ステップS337で、第1学習部312が、上記ステップS332及びS336において、テンプレートXに設定された画像部分の合計(テンプレート数)が所定数に到達したか否かを判定する。所定数に到達した場合には、処理はステップS338へ移行する。テンプレート数が所定数に到達していない場合には、処理はステップS333に戻り、第1学習部312が、新たに設定されたテンプレートXを用いて、上記ステップS333~S336の処理を繰り返す。 Next, in step S337, the first learning unit 312 determines whether or not the total number of image portions (number of templates) set in the template X has reached a predetermined number in steps S332 and S336. When the predetermined number is reached, the process proceeds to step S338. If the number of templates has not reached a predetermined number, the process returns to step S333, and the first learning unit 312 repeats the processes of steps S333 to S336 using the newly set template X.

ステップS338では、第1検索部314が、地点Xの撮像画像に対して、テンプレートXの各々を適用してテンプレートマッチングを行って、地点Xにおける、検索対象の車種の車両が撮像された撮像画像を検索する。この際、第1検索部314は、テンプレートXの各々が抽出された位置を含む所定範囲内において、テンプレートマッチングを行う。 In step S338, the first search unit 314 applies each of the templates X to the captured image of the point X to perform template matching, and the captured image of the vehicle of the vehicle type to be searched at the point X is captured. To search for. At this time, the first search unit 314 performs template matching within a predetermined range including the positions where each of the templates X is extracted.

次に、第2学習検索処理について説明する。 Next, the second learning search process will be described.

図16のステップS41~S46を経て、次のステップS341で、第2学習部316が、テンプレートXのナンバー情報に基づいて抽出した撮像画像の各々に含まれる車両の画像部分を特定し、特定した画像部分を地点iのテンプレートiとして設定する。 Through steps S41 to S46 of FIG. 16, in the next step S341, the second learning unit 316 identifies and identifies the image portion of the vehicle included in each of the captured images extracted based on the number information of the template X. The image part is set as the template i of the point i.

次に、ステップS342で、第2学習部316が、第1学習検索処理(図15)のステップS333~S337と同様の処理により、テンプレートマッチングを行う領域を少しずつずらしながら、撮像画像内の様々な位置から所定数のテンプレートiを抽出する。 Next, in step S342, the second learning unit 316 performs the same processing as in steps S333 to S337 of the first learning search process (FIG. 15), gradually shifting the template matching area, and variously in the captured image. A predetermined number of templates i are extracted from various positions.

次に、ステップS343で、第2検索部318が、監視情報テーブル34に記憶された監視情報のうち、「地点」が地点iである監視情報に含まれる「画像データ」が示す撮像画像の各々と、テンプレートiの各々とのテンプレートマッチングを行う。この際、第2検索部318は、テンプレートiの各々が抽出された位置を含む所定範囲内において、テンプレートマッチングを行う。 Next, in step S343, the second search unit 318 uses each of the captured images indicated by the "image data" included in the monitoring information in which the "point" is the point i among the monitoring information stored in the monitoring information table 34. And template matching with each of the templates i. At this time, the second search unit 318 performs template matching within a predetermined range including the positions where each of the templates i is extracted.

以上説明したように、第3実施形態に係る監視システム300によれば、画像処理装置310が、領域を少しずつずらしながら、撮像画像内の様々な位置から所定数のテンプレートを抽出する。そして、このテンプレートが抽出された位置を含む所定範囲内において、テンプレートマッチングを行う。これにより、同一地点における撮像画像内であっても生じる、撮像画像内の位置による車両のわずかな見え方の違いを吸収して、精度良く検索対象の車両が撮像された撮像画像を検索することができる。 As described above, according to the monitoring system 300 according to the third embodiment, the image processing apparatus 310 extracts a predetermined number of templates from various positions in the captured image while shifting the area little by little. Then, template matching is performed within a predetermined range including the position where this template is extracted. As a result, it is possible to accurately search for the captured image of the vehicle to be searched by absorbing the slight difference in the appearance of the vehicle depending on the position in the captured image, which occurs even in the captured image at the same point. Can be done.

なお、上記各実施形態において、監視情報テーブル34に「車種」の項目を設け、検索された撮像画像の監視情報について、その検索のキーとなった車種の情報を記憶するようにしてもよい。この場合、最初のテンプレートXの指定をユーザから受け付ける場合に、車種の指定をテキストで受け付けるようにしてもよい。 In each of the above embodiments, the item "vehicle type" may be provided in the monitoring information table 34, and the information of the vehicle type that is the key to the search may be stored in the monitoring information of the searched captured image. In this case, when accepting the designation of the first template X from the user, the specification of the vehicle type may be accepted by text.

また、上記実施形態では、画像処理プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD-ROM、DVD-ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。 Further, in the above embodiment, the embodiment in which the image processing program is stored (installed) in the storage unit in advance has been described, but the present invention is not limited to this. The program according to the disclosed technique can also be provided in a form stored in a storage medium such as a CD-ROM, a DVD-ROM, or a USB memory.

以上の各実施形態に関し、更に以下の付記を開示する。 The following additional notes will be further disclosed with respect to each of the above embodiments.

(付記1)
第1のカメラで撮像された撮像画像のうち、第1の車種に分類される車両を含む撮像画像を特定し、
特定した前記撮像画像に含まれる車両のナンバーを抽出し、
第2のカメラで撮像された撮像画像のうち、抽出した前記車両のナンバーの車両を含む撮像画像を抽出し、
抽出した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する、
処理をコンピュータに実行させることを特徴とする画像処理プログラム。
(Appendix 1)
Among the captured images captured by the first camera, the captured images including the vehicles classified into the first vehicle type are identified.
The number of the vehicle included in the specified captured image is extracted and
From the captured images captured by the second camera, the captured image including the vehicle with the number of the extracted vehicle is extracted.
The extracted image is learned as an image of a vehicle corresponding to the first vehicle type.
An image processing program characterized by having a computer perform processing.

(付記2)
第1のカメラで撮像された撮像画像のうち、第1の車種に分類される車両を含む撮像画像を特定し、
特定した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第1の学習処理を実行し、
特定した前記撮像画像に含まれる車両のナンバーを抽出し、
第2のカメラで撮像された撮像画像のうち、抽出した前記車両のナンバーの車両を含む撮像画像を抽出し、
抽出した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第2の学習処理を実行し、
前記第1の車種の車両の検索指示を受け付けると、前記第1のカメラで撮像された撮像画像について、前記第1の学習処理による学習結果を適用して前記第1の車種の車両を検索し、前記第2のカメラで撮像された撮像画像について、前記第2の学習処理による学習結果を適用して前記第1の車種の車両を検索する、
処理をコンピュータに実行させることを特徴とする画像処理プログラム。
(Appendix 2)
Among the captured images captured by the first camera, the captured images including the vehicles classified into the first vehicle type are identified.
The first learning process of learning the identified captured image as a captured image of a vehicle corresponding to the first vehicle type is executed.
The number of the vehicle included in the specified captured image is extracted and
From the captured images captured by the second camera, the captured image including the vehicle with the number of the extracted vehicle is extracted.
A second learning process of learning the extracted captured image as a captured image of a vehicle corresponding to the first vehicle type is executed.
When the search instruction for the vehicle of the first vehicle type is received, the learning result of the first learning process is applied to the captured image captured by the first camera to search for the vehicle of the first vehicle type. , The learning result by the second learning process is applied to the captured image captured by the second camera to search for a vehicle of the first vehicle type.
An image processing program characterized by having a computer perform processing.

(付記3)
前記第1又は第2のカメラで撮像された撮像画像について行う前記第1の車種の車両の検索は、前記第1又は第2の学習処理に利用されなかった車両の撮像画像を含む撮像画像を対象に実行させる、
ことを特徴とする付記2に記載の画像処理プログラム。
(Appendix 3)
The search for the vehicle of the first vehicle type performed on the captured image captured by the first or second camera includes the captured image including the captured image of the vehicle not used for the first or second learning process. Let the target do it,
The image processing program according to Appendix 2, characterized by the above.

(付記4)
前記第1の学習処理は、前記第1のカメラで撮像された撮像画像から選択された1又は複数の撮像画像を第1のテンプレートとすること、又は前記第1のカメラで撮像された撮像画像から、前記第1のテンプレートに基づいて特定された複数の撮像画像の特徴を学習することであり、
前記第2の学習処理は、前記第2のカメラで撮像された撮像画像のうち、1又は複数の前記第1のテンプレートが示す車両のナンバーを含む1又は複数の撮像画像を第2のテンプレートとすること、又は前記第2のカメラで撮像された撮像画像から、前記第2のテンプレートに基づいて特定された複数の撮像画像の特徴を学習することである
付記2又は付記3に記載の画像処理プログラム。
(Appendix 4)
In the first learning process, one or a plurality of captured images selected from the captured images captured by the first camera are used as the first template, or the captured images captured by the first camera. From the above, it is to learn the characteristics of a plurality of captured images identified based on the first template.
In the second learning process, among the captured images captured by the second camera, one or a plurality of captured images including the vehicle number indicated by the one or a plurality of the first templates are referred to as the second template. The image processing according to Appendix 2 or Appendix 3, which is to learn the characteristics of a plurality of captured images specified based on the second template from the captured image captured by the second camera. program.

(付記5)
前記第1のテンプレート又は前記第2のテンプレートは、撮像画像内で車両を示す画像部分であり、
前記第1のテンプレート又は前記第2のテンプレートに基づいて撮像画像を特定する際に、前記第1のテンプレート又は前記第2のテンプレートとのマッチングを行う領域を、前記第1のテンプレート又は前記第2のテンプレートが抽出された位置を基準とした所定範囲内とし、前記第1のテンプレート又は前記第2のテンプレートとマッチングした画像部分を、新たな前記第1のテンプレート又は前記第2のテンプレートに設定する付記4に記載の画像処理プログラム。
(Appendix 5)
The first template or the second template is an image portion showing a vehicle in a captured image.
When the captured image is specified based on the first template or the second template, the area for matching with the first template or the second template is defined as the first template or the second template. The template is set within a predetermined range based on the extracted position, and the image portion matching the first template or the second template is set in the new first template or the second template. The image processing program according to Appendix 4.

(付記6)
前記第1のテンプレート又は前記第2のテンプレートが複数設定される場合、撮像画像内における前記第1のテンプレートの各々、又は前記第2のテンプレートの各々の位置が異なるように、前記マッチングを行う領域を設定する付記5に記載の画像処理プログラム。
(Appendix 6)
When a plurality of the first template or the second template is set, the matching area is performed so that the positions of each of the first templates or the second templates in the captured image are different. The image processing program according to Appendix 5 for setting.

(付記7)
前記第1の車種の車両を含む撮像画像を検索する場合に、所定の範囲内に存在する前記第1のカメラ又は前記第2のカメラで撮像された撮像画像から検索することを特徴とする付記2~付記6のいずれか1項に記載の画像処理プログラム。
(Appendix 7)
When searching for a captured image including a vehicle of the first vehicle type, the additional feature is to search from the captured image captured by the first camera or the second camera existing in a predetermined range. The image processing program according to any one of Items 2 to 6.

(付記8)
前記第1の車種の車両を含む撮像画像を検索する場合に、所定の期間内に撮像された撮像画像から検索することを特徴とする付記2~付記7のいずれか1項に記載の画像処理プログラム。
(Appendix 8)
The image processing according to any one of Supplementary note 2 to Supplementary note 7, wherein when searching for a captured image including a vehicle of the first vehicle type, the image is searched from the captured images captured within a predetermined period. program.

(付記9)
検索された前記第1の車種の車両を含む撮像画像を出力する場合に、同一のナンバーを有する車両の撮像画像を重複して出力しないことを特徴とする付記2~付記8のいずれか1項に記載の画像処理プログラム。
(Appendix 9)
Item 1. Image processing program described in.

(付記10)
第1のカメラで撮像された撮像画像のうち、第1の車種に分類される車両を含む撮像画像を特定する第1学習部と、
特定した前記撮像画像に含まれる車両のナンバーを抽出し、第2のカメラで撮像された撮像画像のうち、抽出した前記車両のナンバーの車両を含む撮像画像を抽出し、抽出した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第2学習部と、
を含むことを特徴とする画像処理装置。
(Appendix 10)
Among the captured images captured by the first camera, the first learning unit for specifying the captured image including the vehicle classified into the first vehicle type, and
The number of the vehicle included in the specified captured image is extracted, and the captured image including the vehicle with the extracted number of the vehicle is extracted from the captured images captured by the second camera, and the extracted captured image is used. , A second learning unit that learns as a captured image of a vehicle corresponding to the first vehicle type,
An image processing device characterized by including.

(付記11)
第1のカメラで撮像された撮像画像のうち、第1の車種に分類される車両を含む撮像画像を特定し、特定した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第1の学習処理を実行する第1学習部と、
特定した前記撮像画像に含まれる車両のナンバーを抽出し、第2のカメラで撮像された撮像画像のうち、抽出した前記車両のナンバーの車両を含む撮像画像を抽出し、抽出した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第2の学習処理を実行する第2学習部と、
前記第1の車種の車両の検索指示を受け付けると、前記第1のカメラで撮像された撮像画像について、前記第1の学習処理による学習結果を適用して前記第1の車種の車両を検索する第1検索部と、
前記第2のカメラで撮像された撮像画像について、前記第2の学習処理による学習結果を適用して前記第1の車種の車両を検索する第2検索部と、
を含むことを特徴とする画像処理装置。
(Appendix 11)
Among the captured images captured by the first camera, the captured image including the vehicle classified into the first vehicle type is specified, and the identified captured image is used as the captured image of the vehicle corresponding to the first vehicle type. The first learning unit that executes the first learning process to be learned,
The number of the vehicle included in the specified captured image is extracted, and the captured image including the vehicle with the extracted number of the vehicle is extracted from the captured images captured by the second camera, and the extracted captured image is used. , A second learning unit that executes a second learning process for learning as a captured image of a vehicle corresponding to the first vehicle type.
When the search instruction for the vehicle of the first vehicle type is received, the learning result of the first learning process is applied to the captured image captured by the first camera to search for the vehicle of the first vehicle type. The first search unit and
A second search unit that searches for a vehicle of the first vehicle type by applying the learning result of the second learning process to the captured image captured by the second camera.
An image processing device characterized by including.

(付記12)
前記第1検索部は、前記第1のカメラで撮像された撮像画像について行う前記第1の車種の車両の検索を、前記第1の学習処理に利用されなかった車両の撮像画像を含む撮像画像を対象に実行させ、
前記第2検索部は、前記第2のカメラで撮像された撮像画像について行う前記第1の車種の車両の検索を、前記第2の学習処理に利用されなかった車両の撮像画像を含む撮像画像を対象に実行させる
ことを特徴とする付記11に記載の画像処理装置。
(Appendix 12)
The first search unit searches for a vehicle of the first vehicle type performed on the captured image captured by the first camera, and includes a captured image of a vehicle that is not used in the first learning process. To be executed by the target,
The second search unit searches for a vehicle of the first vehicle type performed on the captured image captured by the second camera, and includes an captured image of a vehicle that is not used in the second learning process. The image processing apparatus according to Appendix 11, wherein the image processing apparatus is to be executed.

(付記13)
前記第1の学習処理は、前記第1のカメラで撮像された撮像画像から選択された1又は複数の撮像画像を第1のテンプレートとすること、又は前記第1のカメラで撮像された撮像画像から、前記第1のテンプレートに基づいて特定された複数の撮像画像の特徴を学習することであり、
前記第2の学習処理は、前記第2のカメラで撮像された撮像画像のうち、1又は複数の前記第1のテンプレートが示す車両のナンバーを含む1又は複数の撮像画像を第2のテンプレートとすること、又は前記第2のカメラで撮像された撮像画像から、前記第2のテンプレートに基づいて特定された複数の撮像画像の特徴を学習することである
ことを特徴とする付記11又は付記12に記載の画像処理装置。
(Appendix 13)
In the first learning process, one or a plurality of captured images selected from the captured images captured by the first camera are used as the first template, or the captured images captured by the first camera. From the above, it is to learn the characteristics of a plurality of captured images identified based on the first template.
In the second learning process, among the captured images captured by the second camera, one or a plurality of captured images including the vehicle number indicated by the one or a plurality of the first templates are referred to as the second template. 11 or 12 characterized by learning the characteristics of a plurality of captured images specified based on the second template from the captured images captured by the second camera. The image processing apparatus according to.

(付記14)
前記第1のテンプレート及び前記第2のテンプレートは、撮像画像内で車両を示す画像部分であり、
前記第1学習部は、前記第1のテンプレートに基づいて撮像画像を特定する際に、前記第1のテンプレートとのマッチングを行う領域を、前記第1のテンプレートが抽出された位置を基準とした所定範囲内とし、前記第1のテンプレートとマッチングした画像部分を、新たな前記第1のテンプレートに設定し、
前記第2学習部は、前記第2のテンプレートに基づいて撮像画像を特定する際に、前記第2のテンプレートとのマッチングを行う領域を、前記第2のテンプレートが抽出された位置を基準とした所定範囲内とし、前記第2のテンプレートとマッチングした画像部分を、新たな前記第2のテンプレートに設定する
ことを特徴とする付記13に記載の画像処理装置。
(Appendix 14)
The first template and the second template are image portions showing a vehicle in a captured image.
When the captured image is specified based on the first template, the first learning unit uses the region for matching with the first template as a reference from the position where the first template is extracted. The image portion within a predetermined range and matched with the first template is set in the new first template.
In the second learning unit, when the captured image is specified based on the second template, the region for matching with the second template is set with reference to the position where the second template is extracted. The image processing apparatus according to Appendix 13, wherein an image portion within a predetermined range and matched with the second template is set in a new second template.

(付記15)
前記第1学習部は、前記第1のテンプレートが複数設定される場合、撮像画像内における前記第1のテンプレートの各々の位置が異なるように、前記マッチングを行う領域を設定し、
前記第2学習部は、撮像画像内における前記第2のテンプレートの各々の位置が異なるように、前記マッチングを行う領域を設定する
ことを特徴とする付記14に記載の画像処理装置。
(Appendix 15)
When a plurality of the first templates are set, the first learning unit sets a region for performing the matching so that the positions of the first templates are different in the captured image.
The image processing apparatus according to Appendix 14, wherein the second learning unit sets a region for performing the matching so that the positions of the second templates in the captured image are different from each other.

(付記16)
前記第1の車種の車両を含む撮像画像を検索する場合に、
前記第1検索部は、所定の範囲内に存在する前記第1のカメラで撮像された撮像画像から検索し、
前記第2検索部は、所定の範囲内に存在する前記第2のカメラで撮像された撮像画像から検索する
ことを特徴とする付記11~付記15のいずれか1項に記載の画像処理装置。
(Appendix 16)
When searching for a captured image including a vehicle of the first vehicle type,
The first search unit searches from the captured images captured by the first camera existing within a predetermined range.
The image processing apparatus according to any one of Supplementary note 11 to Supplementary note 15, wherein the second search unit searches from an image captured by the second camera existing in a predetermined range.

(付記17)
前記第1検索部及び前記第2検索部は、前記第1の車種の車両を含む撮像画像を検索する場合に、所定の期間内に撮像された撮像画像から検索することを特徴とする付記11~付記16のいずれか1項に記載の画像処理装置。
(Appendix 17)
The first search unit and the second search unit are characterized in that, when searching for a captured image including a vehicle of the first vehicle type, the first search unit and the second search unit search from the captured images captured within a predetermined period. The image processing apparatus according to any one of Supplementary note 16.

(付記18)
前記第1検索部又は前記第2検索部は、検索された前記第1の車種の車両を含む撮像画像を出力する場合に、同一のナンバーを有する車両の撮像画像を重複して出力しないことを特徴とする付記11~付記17のいずれか1項に記載の画像処理装置。
(Appendix 18)
When the first search unit or the second search unit outputs a captured image including the searched vehicle of the first vehicle type, the first search unit or the second search unit does not duplicately output the captured image of the vehicle having the same number. The image processing apparatus according to any one of Supplementary note 11 to Supplementary note 17, which is a feature.

(付記19)
第1のカメラで撮像された撮像画像のうち、第1の車種に分類される車両を含む撮像画像を特定し、
特定した前記撮像画像に含まれる車両のナンバーを抽出し、
第2のカメラで撮像された撮像画像のうち、抽出した前記車両のナンバーの車両を含む撮像画像を抽出し、
抽出した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する、
処理をコンピュータが実行することを特徴とする画像処理方法。
(Appendix 19)
Among the captured images captured by the first camera, the captured images including the vehicles classified into the first vehicle type are identified.
The number of the vehicle included in the specified captured image is extracted and
From the captured images captured by the second camera, the captured image including the vehicle with the number of the extracted vehicle is extracted.
The extracted image is learned as an image of a vehicle corresponding to the first vehicle type.
An image processing method characterized by a computer performing the processing.

(付記20)
第1のカメラで撮像された撮像画像のうち、第1の車種に分類される車両を含む撮像画像を特定し、
特定した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第1の学習処理を実行し、
特定した前記撮像画像に含まれる車両のナンバーを抽出し、
第2のカメラで撮像された撮像画像のうち、抽出した前記車両のナンバーの車両を含む撮像画像を抽出し、
抽出した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第2の学習処理を実行し、
前記第1の車種の車両の検索指示を受け付けると、前記第1のカメラで撮像された撮像画像について、前記第1の学習処理による学習結果を適用して前記第1の車種の車両を検索し、前記第2のカメラで撮像された撮像画像について、前記第2の学習処理による学習結果を適用して前記第1の車種の車両を検索する、
処理をコンピュータが実行することを特徴とする画像処理方法。
(Appendix 20)
Among the captured images captured by the first camera, the captured images including the vehicles classified into the first vehicle type are identified.
The first learning process of learning the identified captured image as a captured image of a vehicle corresponding to the first vehicle type is executed.
The number of the vehicle included in the specified captured image is extracted and
From the captured images captured by the second camera, the captured image including the vehicle with the number of the extracted vehicle is extracted.
A second learning process of learning the extracted captured image as a captured image of a vehicle corresponding to the first vehicle type is executed.
When the search instruction for the vehicle of the first vehicle type is received, the learning result of the first learning process is applied to the captured image captured by the first camera to search for the vehicle of the first vehicle type. , The learning result by the second learning process is applied to the captured image captured by the second camera to search for a vehicle of the first vehicle type.
An image processing method characterized by a computer performing the processing.

10、210、310 画像処理装置
12、212、312 第1学習部
14、214、314 第1検索部
16、216、316 第2学習部
18、218、318 第2検索部
20 路上装置
22 カメラ
24 画像認識装置
30 監視情報データベース
32 路上装置テーブル
34 監視情報テーブル
40 コンピュータ
41 CPU
42 メモリ
43 記憶部
49 記憶媒体
50、250、350 画像処理プログラム
100、200、300 監視システム
10, 210, 310 Image processing device 12, 212, 312 First learning unit 14, 214, 314 First search unit 16, 216, 316 Second learning unit 18, 218, 318 Second search unit 20 Road device 22 Camera 24 Image recognition device 30 Monitoring information database 32 Road device table 34 Monitoring information table 40 Computer 41 CPU
42 Memory 43 Storage unit 49 Storage media 50, 250, 350 Image processing program 100, 200, 300 Monitoring system

Claims (13)

第1のカメラで撮像された撮像画像のうち、第1の車種に分類される車両を含む撮像画像を特定し、
特定した前記撮像画像に含まれる車両のナンバーを抽出し、
第2のカメラで撮像された撮像画像のうち、抽出した前記車両のナンバーの車両を含む撮像画像を抽出し、
抽出した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する、
処理をコンピュータに実行させることを特徴とする画像処理プログラム。
Among the captured images captured by the first camera, the captured images including the vehicles classified into the first vehicle type are identified.
The number of the vehicle included in the specified captured image is extracted and
From the captured images captured by the second camera, the captured image including the vehicle with the number of the extracted vehicle is extracted.
The extracted image is learned as an image of a vehicle corresponding to the first vehicle type.
An image processing program characterized by having a computer perform processing.
第1のカメラで撮像された撮像画像のうち、第1の車種に分類される車両を含む撮像画像を特定し、
特定した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第1の学習処理を実行し、
特定した前記撮像画像に含まれる車両のナンバーを抽出し、
第2のカメラで撮像された撮像画像のうち、抽出した前記車両のナンバーの車両を含む撮像画像を抽出し、
抽出した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第2の学習処理を実行し、
前記第1の車種の車両の検索指示を受け付けると、前記第1のカメラで撮像された撮像画像について、前記第1の学習処理による学習結果を適用して前記第1の車種の車両を検索し、前記第2のカメラで撮像された撮像画像について、前記第2の学習処理による学習結果を適用して前記第1の車種の車両を検索する、
処理をコンピュータに実行させることを特徴とする画像処理プログラム。
Among the captured images captured by the first camera, the captured images including the vehicles classified into the first vehicle type are identified.
The first learning process of learning the identified captured image as a captured image of a vehicle corresponding to the first vehicle type is executed.
The number of the vehicle included in the specified captured image is extracted and
From the captured images captured by the second camera, the captured image including the vehicle with the number of the extracted vehicle is extracted.
A second learning process of learning the extracted captured image as a captured image of a vehicle corresponding to the first vehicle type is executed.
When the search instruction for the vehicle of the first vehicle type is received, the learning result of the first learning process is applied to the captured image captured by the first camera to search for the vehicle of the first vehicle type. , The learning result by the second learning process is applied to the captured image captured by the second camera to search for a vehicle of the first vehicle type.
An image processing program characterized by having a computer perform processing.
前記第1又は第2のカメラで撮像された撮像画像について行う前記第1の車種の車両の検索は、前記第1又は第2の学習処理に利用されなかった車両の撮像画像を含む撮像画像を対象に実行させる、
ことを特徴とする請求項2に記載の画像処理プログラム。
The search for the vehicle of the first vehicle type performed on the captured image captured by the first or second camera includes the captured image including the captured image of the vehicle not used for the first or second learning process. Let the target do it,
The image processing program according to claim 2, wherein the image processing program is characterized by the above.
前記第1の学習処理は、前記第1のカメラで撮像された撮像画像から選択された1又は複数の撮像画像を第1のテンプレートとすること、又は前記第1のカメラで撮像された撮像画像から、前記第1のテンプレートに基づいて特定された複数の撮像画像の特徴を学習することであり、
前記第2の学習処理は、前記第2のカメラで撮像された撮像画像のうち、1又は複数の前記第1のテンプレートが示す車両のナンバーを含む1又は複数の撮像画像を第2のテンプレートとすること、又は前記第2のカメラで撮像された撮像画像から、前記第2のテンプレートに基づいて特定された複数の撮像画像の特徴を学習することである
請求項2又は請求項3に記載の画像処理プログラム。
In the first learning process, one or a plurality of captured images selected from the captured images captured by the first camera are used as the first template, or the captured images captured by the first camera. From the above, it is to learn the characteristics of a plurality of captured images identified based on the first template.
In the second learning process, among the captured images captured by the second camera, one or more captured images including the vehicle numbers indicated by the one or more first templates are referred to as the second template. 2. The method according to claim 2 or 3, wherein the feature of a plurality of captured images specified based on the second template is learned from the captured images captured by the second camera. Image processing program.
前記第1のテンプレート又は前記第2のテンプレートは、撮像画像内で車両を示す画像部分であり、
前記第1のテンプレート又は前記第2のテンプレートに基づいて撮像画像を特定する際に、前記第1のテンプレート又は前記第2のテンプレートとのマッチングを行う領域を、前記第1のテンプレート又は前記第2のテンプレートが抽出された位置を基準とした所定範囲内とし、前記第1のテンプレート又は前記第2のテンプレートとマッチングした画像部分を、新たな前記第1のテンプレート又は前記第2のテンプレートに設定する請求項4に記載の画像処理プログラム。
The first template or the second template is an image portion showing a vehicle in a captured image.
When the captured image is specified based on the first template or the second template, the area for matching with the first template or the second template is defined as the first template or the second template. The template is set within a predetermined range based on the extracted position, and the image portion matching the first template or the second template is set in the new first template or the second template. The image processing program according to claim 4.
前記第1のテンプレート又は前記第2のテンプレートが複数設定される場合、撮像画像内における前記第1のテンプレートの各々、又は前記第2のテンプレートの各々の位置が異なるように、前記マッチングを行う領域を設定する請求項5に記載の画像処理プログラム。 When a plurality of the first template or the second template is set, the matching area is performed so that the positions of each of the first template or each of the second template in the captured image are different. The image processing program according to claim 5. 前記第1の車種の車両を含む撮像画像を検索する場合に、所定の範囲内に存在する前記第1のカメラ又は前記第2のカメラで撮像された撮像画像から検索することを特徴とする請求項2~請求項6のいずれか1項に記載の画像処理プログラム。 When searching for a captured image including a vehicle of the first vehicle type, the claim is characterized by searching from the captured image captured by the first camera or the second camera existing in a predetermined range. The image processing program according to any one of items 2 to 6. 前記第1の車種の車両を含む撮像画像を検索する場合に、所定の期間内に撮像された撮像画像から検索することを特徴とする請求項2~請求項7のいずれか1項に記載の画像処理プログラム。 The invention according to any one of claims 2 to 7, wherein when searching for a captured image including a vehicle of the first vehicle type, the search is performed from the captured images captured within a predetermined period. Image processing program. 検索された前記第1の車種の車両を含む撮像画像を出力する場合に、同一のナンバーを有する車両の撮像画像を重複して出力しないことを特徴とする請求項2~請求項8のいずれか1項に記載の画像処理プログラム。 Any of claims 2 to 8, wherein when the captured image including the searched vehicle of the first vehicle type is output, the captured image of the vehicle having the same number is not output in duplicate. The image processing program according to item 1. 第1のカメラで撮像された撮像画像のうち、第1の車種に分類される車両を含む撮像画像を特定する第1学習部と、
特定した前記撮像画像に含まれる車両のナンバーを抽出し、第2のカメラで撮像された撮像画像のうち、抽出した前記車両のナンバーの車両を含む撮像画像を抽出し、抽出した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第2学習部と、
を含む画像処理装置。
Among the captured images captured by the first camera, the first learning unit for specifying the captured image including the vehicle classified into the first vehicle type, and
The number of the vehicle included in the specified captured image is extracted, and the captured image including the vehicle with the extracted number of the vehicle is extracted from the captured images captured by the second camera, and the extracted captured image is used. , A second learning unit that learns as a captured image of a vehicle corresponding to the first vehicle type,
Image processing equipment including.
第1のカメラで撮像された撮像画像のうち、第1の車種に分類される車両を含む撮像画像を特定し、特定した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第1の学習処理を実行する第1学習部と、
特定した前記撮像画像に含まれる車両のナンバーを抽出し、第2のカメラで撮像された撮像画像のうち、抽出した前記車両のナンバーの車両を含む撮像画像を抽出し、抽出した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第2の学習処理を実行する第2学習部と、
前記第1の車種の車両の検索指示を受け付けると、前記第1のカメラで撮像された撮像画像について、前記第1の学習処理による学習結果を適用して前記第1の車種の車両を検索する第1検索部と、
前記第2のカメラで撮像された撮像画像について、前記第2の学習処理による学習結果を適用して前記第1の車種の車両を検索する第2検索部と、
を含むことを特徴とする画像処理装置。
Among the captured images captured by the first camera, the captured image including the vehicle classified into the first vehicle type is specified, and the identified captured image is used as the captured image of the vehicle corresponding to the first vehicle type. The first learning unit that executes the first learning process to be learned,
The number of the vehicle included in the specified captured image is extracted, and the captured image including the vehicle with the extracted number of the vehicle is extracted from the captured images captured by the second camera, and the extracted captured image is used. , A second learning unit that executes a second learning process for learning as a captured image of a vehicle corresponding to the first vehicle type.
When the search instruction for the vehicle of the first vehicle type is received, the learning result of the first learning process is applied to the captured image captured by the first camera to search for the vehicle of the first vehicle type. The first search unit and
A second search unit that searches for a vehicle of the first vehicle type by applying the learning result of the second learning process to the captured image captured by the second camera.
An image processing device characterized by including.
第1のカメラで撮像された撮像画像のうち、第1の車種に分類される車両を含む撮像画像を特定し、
特定した前記撮像画像に含まれる車両のナンバーを抽出し、
第2のカメラで撮像された撮像画像のうち、抽出した前記車両のナンバーの車両を含む撮像画像を抽出し、
抽出した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する、
処理をコンピュータが実行することを特徴とする画像処理方法。
Among the captured images captured by the first camera, the captured images including the vehicles classified into the first vehicle type are identified.
The number of the vehicle included in the specified captured image is extracted and
From the captured images captured by the second camera, the captured image including the vehicle with the number of the extracted vehicle is extracted.
The extracted image is learned as an image of a vehicle corresponding to the first vehicle type.
An image processing method characterized by a computer performing the processing.
第1のカメラで撮像された撮像画像のうち、第1の車種に分類される車両を含む撮像画像を特定し、
特定した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第1の学習処理を実行し、
特定した前記撮像画像に含まれる車両のナンバーを抽出し、
第2のカメラで撮像された撮像画像のうち、抽出した前記車両のナンバーの車両を含む撮像画像を抽出し、
抽出した前記撮像画像を、前記第1の車種に対応する車両の撮像画像として学習する第2の学習処理を実行し、
前記第1の車種の車両の検索指示を受け付けると、前記第1のカメラで撮像された撮像画像について、前記第1の学習処理による学習結果を適用して前記第1の車種の車両を検索し、前記第2のカメラで撮像された撮像画像について、前記第2の学習処理による学習結果を適用して前記第1の車種の車両を検索する、
処理をコンピュータが実行することを特徴とする画像処理方法。
Among the captured images captured by the first camera, the captured images including the vehicles classified into the first vehicle type are identified.
The first learning process of learning the identified captured image as a captured image of a vehicle corresponding to the first vehicle type is executed.
The number of the vehicle included in the specified captured image is extracted and
From the captured images captured by the second camera, the captured image including the vehicle with the number of the extracted vehicle is extracted.
A second learning process of learning the extracted captured image as a captured image of a vehicle corresponding to the first vehicle type is executed.
When the search instruction for the vehicle of the first vehicle type is received, the learning result of the first learning process is applied to the captured image captured by the first camera to search for the vehicle of the first vehicle type. , The learning result by the second learning process is applied to the captured image captured by the second camera to search for a vehicle of the first vehicle type.
An image processing method characterized by a computer performing the processing.
JP2018061157A 2018-03-28 2018-03-28 Image processing programs, equipment, and methods Active JP7014000B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018061157A JP7014000B2 (en) 2018-03-28 2018-03-28 Image processing programs, equipment, and methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018061157A JP7014000B2 (en) 2018-03-28 2018-03-28 Image processing programs, equipment, and methods

Publications (2)

Publication Number Publication Date
JP2019175028A JP2019175028A (en) 2019-10-10
JP7014000B2 true JP7014000B2 (en) 2022-02-01

Family

ID=68170347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018061157A Active JP7014000B2 (en) 2018-03-28 2018-03-28 Image processing programs, equipment, and methods

Country Status (1)

Country Link
JP (1) JP7014000B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005209177A (en) 2003-12-25 2005-08-04 Fujitsu Ltd Vehicle retrieval system and vehicle retrieval method
JP2014219801A (en) 2013-05-07 2014-11-20 株式会社東芝 Vehicle discrimination device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6226368B2 (en) * 2013-09-25 2017-11-08 株式会社東芝 Vehicle monitoring apparatus and vehicle monitoring method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005209177A (en) 2003-12-25 2005-08-04 Fujitsu Ltd Vehicle retrieval system and vehicle retrieval method
JP2014219801A (en) 2013-05-07 2014-11-20 株式会社東芝 Vehicle discrimination device

Also Published As

Publication number Publication date
JP2019175028A (en) 2019-10-10

Similar Documents

Publication Publication Date Title
JP5096776B2 (en) Image processing apparatus and image search method
CN102422319B (en) Image retrieval method and image registration method
CN101925905B (en) Identification and verification of unknown document according to eigen image process
JP4928310B2 (en) License plate recognition device, control method thereof, computer program
US20190034717A1 (en) Data entry from series of images of a patterned document
US8295604B2 (en) Image search method and device using affine-invariant regions
JP5979451B2 (en) Verification result display device, verification result display method, program, and recording medium
CN110414507A (en) Licence plate recognition method, device, computer equipment and storage medium
WO2014030399A1 (en) Object discrimination device, object discrimination method, and program
CN111324874A (en) Certificate authenticity identification method and device
JP2014182754A (en) Learning device, learning method, and program
CN105493105A (en) Keypoint identification
Shen et al. Large-scale historical watermark recognition: dataset and a new consistency-based approach
JP5777390B2 (en) Information processing method and apparatus, pattern identification method and apparatus
JP2018526754A (en) Image processing apparatus, image processing method, and storage medium
JP7014000B2 (en) Image processing programs, equipment, and methods
JP4570995B2 (en) MATCHING METHOD, MATCHING DEVICE, AND PROGRAM
Upadhyay et al. Analysis and architecture for the deployment of dynamic license plate recognition using yolo darknet
CN116311391A (en) High-low precision mixed multidimensional feature fusion fingerprint retrieval method
CN105488099A (en) Vehicle retrieval method based on similarity learning
CN114818920A (en) Weak supervision target detection method based on double attention erasing and attention information aggregation
JP4264332B2 (en) Character recognition device, license plate recognition system
JP2003022446A (en) Device and method for signature collation, and program making computer implement the same method
JP5188290B2 (en) Annotation apparatus, annotation method and program
JP2017004052A (en) Learning device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211217

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220103