JP6858101B2 - Coordinate detector and trained model - Google Patents

Coordinate detector and trained model Download PDF

Info

Publication number
JP6858101B2
JP6858101B2 JP2017166420A JP2017166420A JP6858101B2 JP 6858101 B2 JP6858101 B2 JP 6858101B2 JP 2017166420 A JP2017166420 A JP 2017166420A JP 2017166420 A JP2017166420 A JP 2017166420A JP 6858101 B2 JP6858101 B2 JP 6858101B2
Authority
JP
Japan
Prior art keywords
detection
corner
image
unit
corner point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017166420A
Other languages
Japanese (ja)
Other versions
JP2019046007A (en
Inventor
正義 林
正義 林
貴彦 深澤
貴彦 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Priority to JP2017166420A priority Critical patent/JP6858101B2/en
Publication of JP2019046007A publication Critical patent/JP2019046007A/en
Application granted granted Critical
Publication of JP6858101B2 publication Critical patent/JP6858101B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Input (AREA)
  • Image Analysis (AREA)

Description

本発明は、座標検出装置及び学習済みモデルに関する。 The present invention relates to a coordinate detector and a trained model.

マシンビジョン技術の発展や、スマートデバイス等のカメラ搭載デバイスの普及に伴って、撮影された物体の形状を精度良く検出することが求められている。 With the development of machine vision technology and the widespread use of camera-mounted devices such as smart devices, it is required to accurately detect the shape of a photographed object.

撮影された物体の形状を検出する方法として、特徴点抽出を用いた検出方法がある。しかし、特徴点抽出を用いた検出方法では、検出の対象物毎に、抽出する特徴点の見直しや、抽出の際に使用する閾値の調節等が必要になるため、オペレータの作業負荷が大きくなる。 As a method of detecting the shape of a photographed object, there is a detection method using feature point extraction. However, in the detection method using feature point extraction, it is necessary to review the feature points to be extracted and adjust the threshold value used for extraction for each object to be detected, which increases the workload of the operator. ..

特開2007−085937号公報Japanese Unexamined Patent Publication No. 2007-085937

そこで、近年、撮影された物体の形状を機械学習を用いて検出する技術についての検討が行われている。しかし、機械学習を用いた従来の検出方法では、検出精度が低かった。 Therefore, in recent years, a technique for detecting the shape of a photographed object by using machine learning has been studied. However, the conventional detection method using machine learning has low detection accuracy.

開示の技術は、上記に鑑みてなされたものであって、撮影された物体の形状を精度良く検出することを目的とする。 The disclosed technique has been made in view of the above, and an object thereof is to accurately detect the shape of a photographed object.

開示の態様では、座標検出装置は、記憶部と、検出部とを有する。前記記憶部は、物体の規定点が中心に位置する画像を用いて機械学習により生成された、前記物体が撮影された入力画像において前記物体の規定点が中心に位置する領域の情報を出力する学習済みモデルを記憶する。前記検出部は、前記物体が撮影された前記入力画像に対して、前記学習済みモデルを用いて前記物体の規定点が中心に位置する領域を検出し、前記入力画像における前記物体の規定点の座標を検出する。 In the disclosed aspect, the coordinate detection device has a storage unit and a detection unit. The storage unit outputs information on a region in which the specified point of the object is located in the center in an input image in which the object is captured, which is generated by machine learning using an image in which the specified point of the object is located in the center. Memorize the trained model. The detection unit detects a region in which the defined point of the object is located at the center of the input image in which the object is photographed by using the learned model, and determines the defined point of the object in the input image. Detect coordinates.

開示の態様によれば、物体の形状を精度良く検出することができる。 According to the disclosed aspect, the shape of the object can be detected with high accuracy.

図1は、実施例1の物体形状検出システムの構成例を示す図である。FIG. 1 is a diagram showing a configuration example of the object shape detection system of the first embodiment. 図2は、実施例1の学習モデル生成装置の構成例を示す図である。FIG. 2 is a diagram showing a configuration example of the learning model generator of the first embodiment. 図3は、実施例1の座標検出装置の構成例を示す図である。FIG. 3 is a diagram showing a configuration example of the coordinate detection device of the first embodiment. 図4は、実施例1の学習モデル生成装置の処理の説明に供するフローチャートである。FIG. 4 is a flowchart provided for explaining the processing of the learning model generator of the first embodiment. 図5は、実施例1の学習モデル生成装置の動作の説明に供する図である。FIG. 5 is a diagram for explaining the operation of the learning model generator of the first embodiment. 図6は、実施例1の学習モデル生成装置の動作の説明に供する図である。FIG. 6 is a diagram for explaining the operation of the learning model generator of the first embodiment. 図7は、実施例1の座標検出装置の動作の説明に供する図である。FIG. 7 is a diagram for explaining the operation of the coordinate detection device of the first embodiment. 図8は、実施例1の分類モデルの動作の説明に供する図である。FIG. 8 is a diagram for explaining the operation of the classification model of the first embodiment. 図9は、実施例2の学習モデル生成装置の処理の説明に供するフローチャートである。FIG. 9 is a flowchart provided for explaining the processing of the learning model generator of the second embodiment. 図10は、実施例2の学習モデル生成装置の動作の説明に供する図である。FIG. 10 is a diagram for explaining the operation of the learning model generator of the second embodiment. 図11は、実施例2の座標検出装置の動作の説明に供する図である。FIG. 11 is a diagram for explaining the operation of the coordinate detection device according to the second embodiment. 図12は、実施例2の検出分類モデルの動作の説明に供する図である。FIG. 12 is a diagram for explaining the operation of the detection classification model of the second embodiment. 図13は、実施例2の検出分類モデルの動作の説明に供する図である。FIG. 13 is a diagram for explaining the operation of the detection classification model of the second embodiment. 図14は、実施例2の座標変換の一例を示す図である。FIG. 14 is a diagram showing an example of the coordinate transformation of the second embodiment. 図15は、実施例3の文字認識装置の構成例を示す図である。FIG. 15 is a diagram showing a configuration example of the character recognition device of the third embodiment. 図16は、実施例3の補正部及び認識部の動作の説明に供する図である。FIG. 16 is a diagram for explaining the operation of the correction unit and the recognition unit according to the third embodiment. 図17は、実施例3の透視投影変換の一例を示す図である。FIG. 17 is a diagram showing an example of the perspective projection conversion of the third embodiment. 図18は、実施例4の画像処理装置の構成例を示す図である。FIG. 18 is a diagram showing a configuration example of the image processing device of the fourth embodiment. 図19は、実施例4の画像処理装置の動作の説明に供する図である。FIG. 19 is a diagram for explaining the operation of the image processing apparatus of the fourth embodiment. 図20は、実施例5の検出対象物体の一例を示す図である。FIG. 20 is a diagram showing an example of the object to be detected in the fifth embodiment. 図21は、実施例5の検出対象物体の一例を示す図である。FIG. 21 is a diagram showing an example of the object to be detected in the fifth embodiment.

以下に、本願の開示する座標検出装置及び学習済みモデルの実施例を図面に基づいて説明する。なお、この実施例により本願の開示する座標検出装置及び学習済みモデルが限定されるものではない。また、実施例において同一の機能を有する構成、及び、同一の処理を行うステップには同一の符号を付す。 Hereinafter, examples of the coordinate detection device and the trained model disclosed in the present application will be described with reference to the drawings. It should be noted that this embodiment does not limit the coordinate detection device and the trained model disclosed in the present application. Further, in the embodiment, the same reference numerals are given to the configurations having the same functions and the steps for performing the same processing.

[実施例1]
<物体形状検出システムの構成>
図1は、実施例1の物体形状検出システムの構成例を示す図である。図1において、物体形状検出システム1は、学習モデル生成装置10と、座標検出装置20とを有する。
[Example 1]
<Configuration of object shape detection system>
FIG. 1 is a diagram showing a configuration example of the object shape detection system of the first embodiment. In FIG. 1, the object shape detection system 1 includes a learning model generation device 10 and a coordinate detection device 20.

学習モデル生成装置10には元画像が入力され、学習モデル生成装置10は、入力された元画像を用いて「学習済みモデル」を生成し、生成した学習済みモデルを座標検出装置20へ出力する。 The original image is input to the learning model generation device 10, the learning model generation device 10 generates a "learned model" using the input original image, and outputs the generated learned model to the coordinate detection device 20. ..

座標検出装置20には形状検出の対象となる物体(以下では「検出対象物体」と呼ぶことがある)が撮影された画像(以下では「検出対象画像」と呼ぶことがある)が入力される。座標検出装置20は、学習モデル生成装置10で生成された学習済みモデルを用いて、検出対象画像に撮影されている検出対象物体の形状を検出し、検出結果を出力する。検出対象画像は、座標検出装置20への「入力画像」に相当する。 An image (hereinafter sometimes referred to as "detection target image") obtained by capturing an object (hereinafter sometimes referred to as "detection target object") to be shape-detected is input to the coordinate detection device 20. .. The coordinate detection device 20 detects the shape of the detection target object captured in the detection target image by using the trained model generated by the learning model generation device 10, and outputs the detection result. The detection target image corresponds to the "input image" to the coordinate detection device 20.

<学習モデル生成装置の構成>
図2は、実施例1の学習モデル生成装置の構成例を示す図である。図2において、学習モデル生成装置10は、データセット生成部11と、学習モデル生成部12と、記憶部13と、出力部14とを有する。
<Configuration of learning model generator>
FIG. 2 is a diagram showing a configuration example of the learning model generator of the first embodiment. In FIG. 2, the learning model generation device 10 includes a data set generation unit 11, a learning model generation unit 12, a storage unit 13, and an output unit 14.

データセット生成部11には元画像が入力される。データセット生成部11は、元画像から、学習済みモデルの生成に使用される「データセット」を生成し、生成したデータセットを学習モデル生成部12へ出力する。 The original image is input to the data set generation unit 11. The data set generation unit 11 generates a "data set" used for generating a trained model from the original image, and outputs the generated data set to the training model generation unit 12.

学習モデル生成部12は、データセット生成部11で生成されたデータセットを用いて学習済みモデルを生成し、生成した学習済みモデルを記憶部13へ出力する。つまり、データセット生成部11で生成されたデータセットが、学習済みモデルを生成する際の教師データとなる。 The learning model generation unit 12 generates a trained model using the data set generated by the data set generation unit 11, and outputs the generated trained model to the storage unit 13. That is, the data set generated by the data set generation unit 11 becomes the teacher data when the trained model is generated.

記憶部13は、学習モデル生成部12で生成された学習済みモデルを記憶する。 The storage unit 13 stores the learned model generated by the learning model generation unit 12.

出力部14は、記憶部13に記憶されている学習済みモデルを取得し、取得した学習済みモデルを座標検出装置20へ出力する。学習モデル生成装置10から座標検出装置20への学習済みモデルの出力は、例えば、学習モデル生成装置10に対するオペレータの指示に従って行われる。 The output unit 14 acquires the trained model stored in the storage unit 13 and outputs the acquired trained model to the coordinate detection device 20. The output of the trained model from the learning model generation device 10 to the coordinate detection device 20 is performed according to, for example, an operator's instruction to the training model generation device 10.

<座標検出装置の構成>
図3は、実施例1の座標検出装置の構成例を示す図である。図3において、座標検出装置20は、取得部21と、記憶部22と、検出部23とを有する。
<Configuration of coordinate detection device>
FIG. 3 is a diagram showing a configuration example of the coordinate detection device of the first embodiment. In FIG. 3, the coordinate detection device 20 includes an acquisition unit 21, a storage unit 22, and a detection unit 23.

取得部21は、学習モデル生成装置10から出力された学習済みモデルを取得し、取得した学習済みモデルを記憶部22へ出力する。 The acquisition unit 21 acquires the learned model output from the learning model generation device 10, and outputs the acquired learned model to the storage unit 22.

記憶部22は、取得部21で取得された学習済みモデルを記憶する。 The storage unit 22 stores the learned model acquired by the acquisition unit 21.

検出部23には検出対象画像が入力され、検出部23は、記憶部22に記憶されている学習済みモデルを用いて、検出対象物体の形状を検出し、検出結果を出力する。 The detection target image is input to the detection unit 23, and the detection unit 23 detects the shape of the detection target object using the learned model stored in the storage unit 22 and outputs the detection result.

<学習モデル生成装置の処理>
図4は、実施例1の学習モデル生成装置の処理の説明に供するフローチャートである。
<Processing of learning model generator>
FIG. 4 is a flowchart provided for explaining the processing of the learning model generator of the first embodiment.

図4において、ステップS11では、データセット生成部11が、元画像から、教師データとしての学習用データセットAを生成する。 In FIG. 4, in step S11, the data set generation unit 11 generates the learning data set A as teacher data from the original image.

ステップS13では、学習モデル生成部12が、第一学習済みモデルとしての「検出モデル」の学習を行う。 In step S13, the learning model generation unit 12 learns the “detection model” as the first trained model.

また、ステップS15では、学習モデル生成部12が、第二学習済みモデルとしての「分類モデル」の学習を行う。 Further, in step S15, the learning model generation unit 12 learns the “classification model” as the second learned model.

学習モデル生成部12は、ステップS13の処理とステップS15の処理とを、同時に並行して行っても良いし、また、一方の処理が済んだ後に他方の処理を行っても良い。 The learning model generation unit 12 may simultaneously perform the processing of step S13 and the processing of step S15 in parallel, or may perform the other processing after one processing is completed.

<学習モデル生成装置の動作>
図5及び図6は、実施例1の学習モデル生成装置の動作の説明に供する図である。図5には、検出モデルの学習の動作例を図示し、図6には、分類モデルの学習の動作例を図示する。以下、検出モデルの学習の動作例と、分類モデルの学習の動作例とに分けて説明する。また以下では、検出対象画像に撮影されている検出対象物体の一例として、自動車の矩形のナンバープレートを挙げて説明する。また以下では、検出対象物体上に存在する「規定点」の一例として、ナンバープレートの四隅に存在する「コーナー点」を挙げて説明する。コーナー点は、「頂点」と呼ばれることもある。
<Operation of learning model generator>
5 and 6 are diagrams for explaining the operation of the learning model generator of the first embodiment. FIG. 5 illustrates an operation example of learning of the detection model, and FIG. 6 illustrates an operation example of learning of the classification model. Hereinafter, an operation example of learning the detection model and an operation example of learning the classification model will be described separately. Further, in the following, as an example of the detection target object captured in the detection target image, a rectangular license plate of an automobile will be described. Further, in the following, as an example of the "specified points" existing on the object to be detected, the "corner points" existing at the four corners of the license plate will be described. Corner points are sometimes called "vertices".

<検出モデルの学習の動作例:図5>
図5に示すように、データセット生成部11には、ナンバープレートNPを有する自動車の画像が元画像として複数入力され、データセット生成部11は、これら複数の元画像から、第一教師データとしてのデータセットA1と、第二教師データとしてのデータセットA2とを生成する。
<Example of learning operation of detection model: Fig. 5>
As shown in FIG. 5, a plurality of images of a vehicle having a number plate NP are input to the data set generation unit 11 as original images, and the data set generation unit 11 uses these plurality of original images as first teacher data. Data set A1 and data set A2 as the second teacher data are generated.

データセットA1は、図5に示すように、検出対象画像においてナンバープレートNPの4個のコーナー点が不鮮明な複数の「ネガティブ画像」により形成される。 As shown in FIG. 5, the data set A1 is formed by a plurality of "negative images" in which the four corner points of the license plate NP are unclear in the image to be detected.

一方で、データセットA2は、図5に示すように、ナンバープレートNPの4個のコーナー点の何れか一つのコーナー点だけを含む複数の「ポジティブ画像」により形成される。 On the other hand, as shown in FIG. 5, the data set A2 is formed by a plurality of "positive images" including only one of the four corner points of the license plate NP.

ここで、各ポジティブ画像PIにおいて、コーナー点CPは、ポジティブ画像の中心に位置する。すなわち、例えばポジティブ画像PIのアスペクト比が「x:y=1:1」の場合、コーナー点CPがx=1/2,y=1/2の位置に配置されるようにポジティブ画像PIが生成させる。換言すれば、ナンバープレートNPの四辺で形成される境界線のうちの互いに接する二辺の境界線がx=1/2でのy方向に平行な直線及びy=1/2でのx方向に平行な直線にほぼ重なるようにポジティブ画像PIが生成される。図5に示す例では、ナンバープレートNPの4個のコーナー点のうちの左下のコーナー点CPがポジティブ画像PIの中心に位置している。すなわち、図5に示す例では、ポジティブ画像PIにおいて、ナンバープレートNPの四辺のうち、左辺がx=1/2でのy方向に平行な直線にほぼ重なり、かつ、左辺と互いに接する下辺がy=1/2でのx方向に平行な直線にほぼ重なっている。 Here, in each positive image PI, the corner point CP is located at the center of the positive image. That is, for example, when the aspect ratio of the positive image PI is "x: y = 1: 1", the positive image PI is generated so that the corner points CP are arranged at the positions of x = 1/2 and y = 1/2. Let me. In other words, of the boundary lines formed by the four sides of the license plate NP, the boundary lines of the two tangent sides are a straight line parallel to the y direction at x = 1/2 and the x direction at y = 1/2. The positive image PI is generated so that it almost overlaps the parallel straight lines. In the example shown in FIG. 5, the lower left corner point CP of the four corner points of the license plate NP is located at the center of the positive image PI. That is, in the example shown in FIG. 5, in the positive image PI, of the four sides of the license plate NP, the left side substantially overlaps the straight line parallel to the y direction at x = 1/2, and the lower side in contact with the left side is y. It almost overlaps with a straight line parallel to the x direction at = 1/2.

学習モデル生成部12は、データセット生成部11で生成されたデータセットA1,A2を教師データとして用いて機械学習を行って、第一学習済みモデルとしての検出モデルを生成する。検出モデルを生成する際の機械学習は、例えば、LBP(Local Binary Pattern)特徴を用いたBoostingにより行う。 The learning model generation unit 12 performs machine learning using the data sets A1 and A2 generated by the data set generation unit 11 as teacher data, and generates a detection model as the first trained model. Machine learning when generating a detection model is performed by, for example, Boosting using LBP (Local Binary Pattern) features.

<分類モデルの学習の動作例:図6>
図6に示すように、データセット生成部11には、ナンバープレートNPを有する自動車の画像が元画像として複数入力され、データセット生成部11は、これら複数の元画像から、第三教師データとしてのデータセットA3を生成する。なお、データセットA1、データセットA2及びデータセットA3により、図4のステップST11における学習用データセットAが形成される。
<Example of learning operation of classification model: Fig. 6>
As shown in FIG. 6, a plurality of images of a vehicle having a number plate NP are input to the data set generation unit 11 as original images, and the data set generation unit 11 uses these plurality of original images as third teacher data. Data set A3 is generated. The data set A1, the data set A2, and the data set A3 form the learning data set A in step ST11 of FIG.

データセットA3は、図6に示すように、ナンバープレートNPの4個のコーナー点のうち、左上のコーナー点だけを含む複数の画像(以下では「左上コーナー点画像」と呼ぶことがある)と、右上のコーナー点だけを含む複数の画像(以下では「右上コーナー点画像」と呼ぶことがある)と、右下のコーナー点だけを含む複数の画像(以下では「右下コーナー点画像」と呼ぶことがある)と、左下のコーナー点だけを含む複数の画像(以下では「左下コーナー点画像」と呼ぶことがある)とにより形成される。左上コーナー点画像には左上のコーナー点に対応する「コーナー1」というラベルが付され、右上コーナー点画像には右上のコーナー点に対応する「コーナー2」というラベルが付され、右下コーナー点画像には右下のコーナー点に対応する「コーナー3」というラベルが付され、左下コーナー点画像には左下のコーナー点に対応する「コーナー4」というラベルが付される。なお、データセットA3を形成する各画像において、コーナー点は画像の中心に位置しなくても良い。 As shown in FIG. 6, the data set A3 includes a plurality of images including only the upper left corner point among the four corner points of the license plate NP (hereinafter, may be referred to as “upper left corner point image”). , Multiple images containing only the upper right corner point (hereinafter sometimes referred to as "upper right corner point image") and multiple images containing only the lower right corner point (hereinafter referred to as "lower right corner point image"). It is formed by (sometimes called) and a plurality of images (hereinafter sometimes referred to as "lower left corner point image") including only the lower left corner point. The upper left corner point image is labeled "Corner 1" corresponding to the upper left corner point, the upper right corner point image is labeled "Corner 2" corresponding to the upper right corner point, and the lower right corner point is labeled. The image is labeled "Corner 3" corresponding to the lower right corner point, and the lower left corner point image is labeled "Corner 4" corresponding to the lower left corner point. In each image forming the data set A3, the corner point does not have to be located at the center of the image.

学習モデル生成部12は、データセット生成部11で生成されたデータセットA3を教師データとして用いて機械学習を行って、第二学習済みモデルとしての分類モデルを生成する。分類モデルを生成する際の機械学習として深層学習を用いる。分類モデルの生成は、例えば、4層のCNN(Convolutional Neural Network)により行う。 The learning model generation unit 12 performs machine learning using the data set A3 generated by the data set generation unit 11 as teacher data, and generates a classification model as a second trained model. Deep learning is used as machine learning when generating a classification model. The classification model is generated by, for example, a four-layer CNN (Convolutional Neural Network).

<座標検出装置の動作>
図7は、実施例1の座標検出装置の動作の説明に供する図である。
<Operation of coordinate detection device>
FIG. 7 is a diagram for explaining the operation of the coordinate detection device of the first embodiment.

図5に示すようにして生成された検出モデル、及び、図6に示すようにして生成された分類モデルは、座標検出装置20の取得部21によって学習モデル生成装置10から取得されて記憶部22に記憶される。 The detection model generated as shown in FIG. 5 and the classification model generated as shown in FIG. 6 are acquired from the learning model generation device 10 by the acquisition unit 21 of the coordinate detection device 20 and stored in the storage unit 22. Is remembered in.

図7に示すように、ナンバープレートが撮影された検出対象画像が座標検出装置20に入力されると、検出部23は、まず、検出対象画像に対して検出モデルを用いて、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域の候補(以下では「コーナー点存在領域候補」と呼ぶことがある)を検出する。すなわち、学習モデル生成装置10により生成された検出モデルは、検出対象画像が入力されて、検出対象画像においてコーナー点存在領域候補を示す情報(以下では「候補情報」と呼ぶことがある)を検出部23へ出力する学習済みモデルである。また、検出モデルは、検出対象画像が入力される入力層と、出力層と、入力層から出力層までの何れかの層であって出力層以外の層に属する第一要素(第一ノード)と、第一要素と第一要素の重みとに基づいて値が算出される第二要素(第二ノード)とを有する。そして、検出モデルは、入力層に入力された検出対象画像に対し、出力層以外の各層に属する各要素を第一要素として、第一要素と第一要素の重みとに基づく演算を行うことにより候補情報を出力する。図7に示す例では、検出部23が検出対象画像に対して検出モデルを用いることにより、例えば、CA1〜CA7の7個のコーナー点存在領域候補が検出される。ここで、コーナー点存在領域候補の領域の大きさ及びアスペクト比は、図5におけるポジティブ画像PIと同一である。 As shown in FIG. 7, when the detection target image on which the license plate is photographed is input to the coordinate detection device 20, the detection unit 23 first uses the detection model for the detection target image in the detection target image. A candidate for a region in which the corner point of the license plate is located at the center (hereinafter, may be referred to as a "corner point existence region candidate") is detected. That is, in the detection model generated by the learning model generation device 10, the detection target image is input, and information indicating a corner point existence region candidate (hereinafter, may be referred to as "candidate information") is detected in the detection target image. This is a trained model to be output to unit 23. Further, the detection model is a first element (first node) that is any layer from the input layer, the output layer, and the input layer to the output layer to which the image to be detected is input and belongs to a layer other than the output layer. And a second element (second node) whose value is calculated based on the first element and the weight of the first element. Then, the detection model performs an operation based on the first element and the weight of the first element with each element belonging to each layer other than the output layer as the first element for the detection target image input to the input layer. Output candidate information. In the example shown in FIG. 7, when the detection unit 23 uses the detection model for the image to be detected, for example, seven corner point existence region candidates of CA1 to CA7 are detected. Here, the size and aspect ratio of the area of the corner point existence area candidate are the same as those of the positive image PI in FIG.

検出部23は、次いで、候補情報に対して分類モデルを用いて、候補情報により示されたコーナー点存在領域候補がナンバープレートの4個のコーナー点のうちの何れのコーナー点を含む領域であるかを特定する。すなわち、学習モデル生成装置10により生成された分類モデルは、候補情報が入力されて、候補情報が示すコーナー点存在領域候補がナンバープレートの4個のコーナー点のうちの何れのコーナー点を含む領域であるかを示す情報(以下では「コーナー点第一特定情報」と呼ぶことがある)を検出部23へ出力する学習済みモデルである。また、分類モデルは、候補情報が入力される入力層と、出力層と、入力層から出力層までの何れかの層であって出力層以外の層に属する第一要素と、第一要素と第一要素の重みとに基づいて値が算出される第二要素とを有する。そして、分類モデルは、入力層に入力された候補情報に対し、出力層以外の各層に属する各要素を第一要素として、第一要素と第一要素の重みとに基づく演算を行うことによりコーナー点第一特定情報を出力する。 Next, the detection unit 23 uses a classification model for the candidate information, and the corner point existence region candidate indicated by the candidate information is an region including any of the four corner points of the license plate. To identify. That is, in the classification model generated by the learning model generation device 10, candidate information is input, and the corner point existence area candidate indicated by the candidate information is an area including any of the four corner points of the license plate. This is a trained model that outputs information indicating whether or not the information (hereinafter, may be referred to as “corner point first specific information”) to the detection unit 23. Further, the classification model includes an input layer into which candidate information is input, an output layer, a first element which is any layer from the input layer to the output layer and belongs to a layer other than the output layer, and a first element. It has a second element whose value is calculated based on the weight of the first element. Then, the classification model corners the candidate information input to the input layer by performing an operation based on the first element and the weight of the first element, with each element belonging to each layer other than the output layer as the first element. The point first specific information is output.

ここで、分類モデルの動作例について説明する。図8は、実施例1の分類モデルの動作の説明に供する図である。図8に示すように、分類モデルは、まず、コーナー点存在領域候補CA1〜CA7の各々について、コーナー1〜4の何れに対応するコーナー点を含む領域であるかの確度を算出する。図8に示す例では、分類モデルにより、コーナー点存在領域候補CA1は確度20%のコーナー4(つまり左下のコーナー)を含む領域であると分類される。同様に、コーナー点存在領域候補CA2は確度5%のコーナー1(つまり左上のコーナー)を含む領域、コーナー点存在領域候補CA3は確度15%のコーナー4(つまり左下のコーナー)を含む領域、コーナー点存在領域候補CA4は確度92%のコーナー1(つまり左上のコーナー)を含む領域、コーナー点存在領域候補CA5は確度86%のコーナー2(つまり右上のコーナー)を含む領域、コーナー点存在領域候補CA6は確度88%のコーナー4(つまり左下のコーナー)を含む領域、コーナー点存在領域候補CA7は確度91%のコーナー3(つまり右下のコーナー)を含む領域であると分類モデルによって分類される。 Here, an operation example of the classification model will be described. FIG. 8 is a diagram for explaining the operation of the classification model of the first embodiment. As shown in FIG. 8, the classification model first calculates the certainty of each of the corner point existence region candidates CA1 to CA7 as to which of the corners 1 to 4 corresponds to the region including the corner point. In the example shown in FIG. 8, the corner point existence region candidate CA1 is classified as a region including a corner 4 (that is, a lower left corner) having a probability of 20% according to the classification model. Similarly, the corner point existence area candidate CA2 is an area including a corner 1 with a probability of 5% (that is, the upper left corner), and the corner point existence area candidate CA3 is an area including a corner 4 (that is, a lower left corner) with a probability of 15%. The point existence area candidate CA4 is an area including a corner 1 (that is, the upper left corner) with a probability of 92%, and the corner point existence area candidate CA5 is an area including a corner 2 (that is, the upper right corner) with an accuracy of 86%. CA6 is classified as an area including a corner 4 with an accuracy of 88% (that is, a lower left corner), and a corner point existence area candidate CA7 is classified as an area including a corner 3 with an accuracy of 91% (that is, a lower right corner) by a classification model. ..

そして、分類モデルは、コーナー1〜4の各コーナー毎に、確度が最も高いコーナーを選択してコーナー点第一特定情報を出力する。すなわち、図7及び図8に示す例では、分類モデルは、左上のコーナー点を含む領域としてコーナー点存在領域候補CA4を選択し、選択したコーナー点存在領域候補CA4に対応付けて「コーナー1」というコーナー点第一特定情報を出力する。また、分類モデルは、右上のコーナー点を含む領域としてコーナー点存在領域候補CA5を選択し、選択したコーナー点存在領域候補CA5に対応付けて「コーナー2」というコーナー点第一特定情報を出力する。また、分類モデルは、右下のコーナー点を含む領域としてコーナー点存在領域候補CA7を選択し、選択したコーナー点存在領域候補CA7に対応付けて「コーナー3」というコーナー点第一特定情報を出力する。また、分類モデルは、左下のコーナー点を含む領域としてコーナー点存在領域候補CA6を選択し、選択したコーナー点存在領域候補CA6に対応付けて「コーナー4」というコーナー点第一特定情報を出力する。これにより、検出部23は、検出対象画像において、ナンバープレートの4個のコーナー点が存在する領域(以下では「コーナー点存在領域」と呼ぶことがある)を検出することができる。 Then, the classification model selects the corner with the highest accuracy for each of the corners 1 to 4 and outputs the corner point first specific information. That is, in the examples shown in FIGS. 7 and 8, the classification model selects the corner point existence area candidate CA4 as the area including the upper left corner point, and associates the selected corner point existence area candidate CA4 with the “corner 1”. The first specific information of the corner point is output. Further, the classification model selects the corner point existence area candidate CA5 as the area including the upper right corner point, and outputs the corner point first specific information called "corner 2" in association with the selected corner point existence area candidate CA5. .. Further, the classification model selects the corner point existence area candidate CA7 as the area including the lower right corner point, and outputs the corner point first specific information called "corner 3" in association with the selected corner point existence area candidate CA7. To do. Further, the classification model selects the corner point existence area candidate CA6 as the area including the lower left corner point, and outputs the corner point first specific information called "corner 4" in association with the selected corner point existence area candidate CA6. .. As a result, the detection unit 23 can detect a region in which the four corner points of the license plate exist (hereinafter, may be referred to as a "corner point existence region") in the detection target image.

次いで、検出部23は、図7に示すように、4個のコーナー点存在領域の各々の中心座標を抽出する。すなわち、検出部23は、「コーナー1」というコーナー点第一特定情報に対応付けられたコーナー点存在領域の中心座標をナンバープレートの左上のコーナー点の座標CO1として抽出する。また、検出部23は、「コーナー2」というコーナー点第一特定情報に対応付けられたコーナー点存在領域の中心座標をナンバープレートの右上のコーナー点の座標CO2として抽出する。また、検出部23は、「コーナー3」というコーナー点第一特定情報に対応付けられたコーナー点存在領域の中心座標をナンバープレートの右下のコーナー点の座標CO3として抽出する。また、検出部23は、「コーナー4」というコーナー点第一特定情報に対応付けられたコーナー点存在領域の中心座標をナンバープレートの左下のコーナー点の座標CO4として抽出する。このようにして、検出部23は、分類モデルを用いて検出した4個のコーナー点存在領域の各々の中心座標を、検出対象画像におけるナンバープレートの4個のコーナー点の各々の座標として検出し、検出結果として出力する。このようにして検出された4個のコーナー点の座標の外縁を直線で結ぶことにより、検出対象画像において撮影されているナンバープレートの矩形の形状を検出することができる。 Next, as shown in FIG. 7, the detection unit 23 extracts the center coordinates of each of the four corner point existing regions. That is, the detection unit 23 extracts the center coordinates of the corner point existence region associated with the corner point first specific information called "corner 1" as the coordinates CO1 of the upper left corner point of the license plate. Further, the detection unit 23 extracts the center coordinates of the corner point existence region associated with the corner point first specific information called "corner 2" as the coordinates CO2 of the upper right corner point of the license plate. Further, the detection unit 23 extracts the center coordinates of the corner point existence region associated with the corner point first specific information called "corner 3" as the coordinates CO3 of the lower right corner point of the license plate. Further, the detection unit 23 extracts the center coordinates of the corner point existence region associated with the corner point first specific information called "corner 4" as the coordinates CO4 of the lower left corner point of the license plate. In this way, the detection unit 23 detects the center coordinates of each of the four corner point existence regions detected using the classification model as the coordinates of each of the four corner points of the license plate in the detection target image. , Output as detection result. By connecting the outer edges of the coordinates of the four corner points detected in this way with a straight line, the rectangular shape of the license plate captured in the image to be detected can be detected.

以上のように、実施例1では、座標検出装置20は、記憶部22と検出部23とを有する。記憶部22は、第一学習済みモデルとしての検出モデルと、第二学習済みモデルとしての分類モデルとを記憶する。検出モデルは、ナンバープレートのコーナー点が中心に位置するポジティブ画像PIを用いて機械学習により生成された学習済みモデルである。また、検出モデル及び分類モデルは、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域の情報(候補情報、コーナー点第一特定情報)を出力する。検出部23は、ナンバープレートが撮影された検出対象画像に対して、検出モデル及び分類モデルを用いてナンバープレートのコーナー点が中心に位置する領域を検出し、検出対象画像におけるナンバープレートのコーナー点の座標を検出する。つまり、検出モデル及び分類モデルは、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域の情報(候補情報、コーナー点第一特定情報)を検出部23へ出力することにより、検出対象画像におけるナンバープレートのコーナー点の座標を検出する検出部23に、ナンバープレートのコーナー点が中心に位置する領域を検出させる。 As described above, in the first embodiment, the coordinate detection device 20 has a storage unit 22 and a detection unit 23. The storage unit 22 stores the detection model as the first trained model and the classification model as the second trained model. The detection model is a trained model generated by machine learning using a positive image PI in which the corner points of the license plate are located in the center. Further, the detection model and the classification model output information (candidate information, corner point first specific information) of the region where the corner point of the license plate is located at the center in the detection target image. The detection unit 23 uses a detection model and a classification model to detect a region in which the corner point of the license plate is located at the center of the detection target image captured by the license plate, and the detection unit 23 detects the corner point of the license plate in the detection target image. Detect the coordinates of. That is, the detection model and the classification model output the information (candidate information, corner point first specific information) of the region where the corner point of the license plate is located at the center in the detection target image to the detection unit 23, thereby detecting the detection target image. The detection unit 23 that detects the coordinates of the corner points of the license plate in the above is made to detect the region where the corner points of the license plate are located at the center.

より詳細には、検出モデルは、検出対象画像が入力されて、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域の候補を示す情報(候補情報)を出力する。分類モデルは、候補情報が入力されて、候補情報が示すコーナー点存在領域候補がナンバープレートの4個のコーナー点のうちの何れのコーナー点を含む領域であるかを示す情報(コーナー点第一特定情報)を出力する。検出部23は、検出対象画像に対して検出モデルを用いてコーナー点存在領域候補を検出し、検出したコーナー点存在領域候補に対して分類モデルを用いてナンバープレートのコーナー点を含む領域を検出し、分類モデルを用いて検出した領域の中心座標を検出対象画像におけるナンバープレートのコーナー点の座標として検出する。 More specifically, the detection model inputs the detection target image and outputs information (candidate information) indicating a candidate of a region in which the corner point of the license plate is located at the center of the detection target image. In the classification model, candidate information is input, and information indicating which corner point of the four corner points of the license plate is included in the corner point existence area candidate indicated by the candidate information (corner point first). Specific information) is output. The detection unit 23 detects the corner point existence region candidate using the detection model for the detection target image, and detects the region including the corner point of the license plate using the classification model for the detected corner point existence region candidate. Then, the center coordinates of the region detected by using the classification model are detected as the coordinates of the corner points of the license plate in the detection target image.

このように、ナンバープレートのコーナー点が中心に位置するポジティブ画像PIを用いて機械学習により生成された学習済みモデルを用いて検出対象画像におけるナンバープレートのコーナー点の座標を検出することにより、検出対象画像において撮影されているナンバープレートの矩形の形状を精度良く検出することができる。 In this way, detection is performed by detecting the coordinates of the license plate corner points in the detection target image using the trained model generated by machine learning using the positive image PI in which the license plate corner points are located in the center. The rectangular shape of the license plate captured in the target image can be detected with high accuracy.

[実施例2]
<物体形状検出システムの構成、学習モデル生成装置の構成、座標検出装置の構成>
実施例2の物体形状検出システム、学習モデル生成装置及び座標検出装置の各構成は、実施例1と同一であるため(図1〜3)、説明を省略する。
[Example 2]
<Configuration of object shape detection system, configuration of learning model generator, configuration of coordinate detection device>
Since each configuration of the object shape detection system, the learning model generation device, and the coordinate detection device of the second embodiment is the same as that of the first embodiment (FIGS. 1 to 3), the description thereof will be omitted.

<学習モデル生成装置の処理>
図9は、実施例2の学習モデル生成装置の処理の説明に供するフローチャートである。
<Processing of learning model generator>
FIG. 9 is a flowchart provided for explaining the processing of the learning model generator of the second embodiment.

図9において、ステップS21では、データセット生成部11が、元画像から、教師データとしての学習用データセットBを生成する。 In FIG. 9, in step S21, the data set generation unit 11 generates the learning data set B as teacher data from the original image.

ステップS23では、学習モデル生成部12が、学習済みモデルとしての「検出分類モデル」の学習を行う。 In step S23, the learning model generation unit 12 learns the “detection classification model” as the learned model.

<学習モデル生成装置の動作>
図10〜12は、実施例2の学習モデル生成装置の動作の説明に供する図である。
<Operation of learning model generator>
10 to 12 are diagrams provided for explaining the operation of the learning model generator of the second embodiment.

図10に示すように、データセット生成部11には、ナンバープレートNPを有する自動車の画像が元画像として複数入力され、データセット生成部11は、これら複数の元画像から、第一教師データとしてのデータセットB1と、第二教師データとしてのデータセットB2とを生成する。データセットB1及びデータセットB2により、図9のステップST21における学習用データセットBが形成される。 As shown in FIG. 10, a plurality of images of a vehicle having a number plate NP are input to the data set generation unit 11 as original images, and the data set generation unit 11 uses these plurality of original images as first teacher data. Data set B1 and data set B2 as the second teacher data are generated. The data set B1 and the data set B2 form the training data set B in step ST21 of FIG.

データセットB1は、図10に示すように、左上コーナー点画像と、右上コーナー点画像と、右下コーナー点画像と、左下コーナー点画像とにより形成される。つまり、データセットB1は、ナンバープレートNPの4個のコーナー点の何れか一つのコーナー点だけを含む複数の「ポジティブ画像」により形成される。左上コーナー点画像には左上のコーナー点に対応する「コーナー1」というラベルが付され、右上コーナー点画像には右上のコーナー点に対応する「コーナー2」というラベルが付され、右下コーナー点画像には右下のコーナー点に対応する「コーナー3」というラベルが付され、左下コーナー点画像には左下のコーナー点に対応する「コーナー4」というラベルが付される。 As shown in FIG. 10, the data set B1 is formed by an upper left corner point image, an upper right corner point image, a lower right corner point image, and a lower left corner point image. That is, the data set B1 is formed by a plurality of "positive images" including only one of the four corner points of the license plate NP. The upper left corner point image is labeled "Corner 1" corresponding to the upper left corner point, the upper right corner point image is labeled "Corner 2" corresponding to the upper right corner point, and the lower right corner point is labeled. The image is labeled "Corner 3" corresponding to the lower right corner point, and the lower left corner point image is labeled "Corner 4" corresponding to the lower left corner point.

ここで、コーナー1〜4の各ラベルを付された各ポジティブ画像PIにおいて、コーナー点CPは、ポジティブ画像の中心に位置する。すなわち、例えばポジティブ画像PIのアスペクト比が「x:y=1:1」の場合、コーナー点CPがx=1/2,y=1/2の位置に配置されるようにポジティブ画像PIが生成させる。換言すれば、ナンバープレートNPの四辺で形成される境界線のうちの互いに接する二辺の境界線がx=1/2でのy方向に平行な直線及びy=1/2でのx方向に平行な直線にほぼ重なるようにポジティブ画像PIが生成される。図10に示す例では、ナンバープレートNPの4個のコーナー点のうちの左下のコーナー点CPがポジティブ画像PIの中心に位置している。すなわち、図10に示す例では、ポジティブ画像PIにおいて、ナンバープレートNPの四辺のうち、左辺がx=1/2でのy方向に平行な直線にほぼ重なり、かつ、左辺と互いに接する下辺がy=1/2でのx方向に平行な直線にほぼ重なっている。 Here, in each of the positive image PIs labeled with the corners 1 to 4, the corner point CP is located at the center of the positive image. That is, for example, when the aspect ratio of the positive image PI is "x: y = 1: 1", the positive image PI is generated so that the corner points CP are arranged at the positions of x = 1/2 and y = 1/2. Let me. In other words, of the boundary lines formed by the four sides of the license plate NP, the boundary lines of the two tangent sides are a straight line parallel to the y direction at x = 1/2 and the x direction at y = 1/2. The positive image PI is generated so that it almost overlaps the parallel straight lines. In the example shown in FIG. 10, the lower left corner point CP of the four corner points of the license plate NP is located at the center of the positive image PI. That is, in the example shown in FIG. 10, in the positive image PI, of the four sides of the license plate NP, the left side substantially overlaps the straight line parallel to the y direction at x = 1/2, and the lower side in contact with the left side is y. It almost overlaps with a straight line parallel to the x direction at = 1/2.

また、データセットB2では、各元画像に対して、各元画像において撮影されているナンバープレートNPのコーナー1〜4の4個のコーナー点の座標コーナー1(x,y)、コーナー2(x,y)、コーナー3(x,y)、コーナー4(x,y)が対応付けられる。 Further, in the data set B2, for each original image, the coordinate corners 1 (x, y) and the corners 2 (x) of the four corner points of the license plate NP corners 1 to 4 captured in each original image are taken. , Y), corner 3 (x, y), and corner 4 (x, y) are associated.

学習モデル生成部12は、データセット生成部11で生成されたデータセットB1,B2を教師データとして用いて機械学習を行って、検出分類モデルを生成する。検出分類モデルを生成する際の機械学習として深層学習を用いる。検出分類モデルの生成は、例えば、YOLOv2をベースとした11層のFCN(Fully Convolutional Networks)により行う。 The learning model generation unit 12 generates a detection classification model by performing machine learning using the data sets B1 and B2 generated by the data set generation unit 11 as teacher data. Deep learning is used as machine learning when generating a detection classification model. The detection classification model is generated by, for example, an 11-layer FCN (Fully Convolutional Networks) based on YOLOv2.

検出分類モデルの機械学習は、以下に示すように、第一段階と第二段階との二段階に分けて行われる。 Machine learning of the detection classification model is performed in two stages, the first stage and the second stage, as shown below.

すなわち、まず第一段階で、学習モデル生成部12は、データセット生成部11で生成されたデータセットB1を第一教師データとして用いて機械学習を行って、重みの初期値の学習を行う。この初期値の学習は、実施例1の分類モデルの学習に相当するものである。 That is, in the first step, the learning model generation unit 12 performs machine learning using the data set B1 generated by the data set generation unit 11 as the first teacher data, and learns the initial value of the weight. The learning of the initial value corresponds to the learning of the classification model of the first embodiment.

次いで第二段階で、学習モデル生成部12は、第一段階で学習した初期値をフィルタ群F1〜F8の各要素の重みとしてセットした後、データセット生成部11で生成されたデータセットB2を第二教師データとして用いて機械学習を行って、検出分類モデルを生成する。 Next, in the second stage, the learning model generation unit 12 sets the initial values learned in the first stage as the weights of each element of the filter groups F1 to F8, and then sets the data set B2 generated by the data set generation unit 11. Machine learning is performed using it as the second teacher data to generate a detection classification model.

<座標検出装置の動作>
図11は、実施例2の座標検出装置の動作の説明に供する図である。
<Operation of coordinate detection device>
FIG. 11 is a diagram for explaining the operation of the coordinate detection device according to the second embodiment.

図10〜12に示すようにして生成された検出分類モデルは、座標検出装置20の取得部21によって学習モデル生成装置10から取得されて記憶部22に記憶される。 The detection classification model generated as shown in FIGS. 10 to 12 is acquired from the learning model generation device 10 by the acquisition unit 21 of the coordinate detection device 20 and stored in the storage unit 22.

図11に示すように、ナンバープレートが撮影された検出対象画像が座標検出装置20に入力されると、検出部23は、まず、検出対象画像に対して検出分類モデルを用いて、ナンバープレートにおける4個のコーナー点存在領域CB1,CB2,CB3,CB4を検出するとともに、検出した各コーナー点存在領域の中心座標であるコーナー1S(x,y)、コーナー2S(x,y)、コーナー3S(x,y)、コーナー4S(x,y)を検出する。ここで、コーナー1S(x,y)はナンバープレートの左上のコーナー点に対応する座標であり、コーナー2S(x,y)はナンバープレートの右上のコーナー点に対応する座標であり、コーナー3S(x,y)はナンバープレートの右下のコーナー点に対応する座標であり、コーナー4S(x,y)はナンバープレートの左下のコーナー点に対応する座標である。但し、コーナー1S(x,y)、コーナー2S(x,y)、コーナー3S(x,y)、コーナー4S(x,y)の各座標は、相対座標のローカル座標である。 As shown in FIG. 11, when the detection target image in which the license plate is captured is input to the coordinate detection device 20, the detection unit 23 first uses the detection classification model for the detection target image in the license plate. Four corner point existence areas CB1, CB2, CB3, CB4 are detected, and corners 1S (x, y), corners 2S (x, y), and corners 3S (corners 3S), which are the center coordinates of the detected corner point existence areas, are detected. x, y) and corner 4S (x, y) are detected. Here, the corner 1S (x, y) is the coordinates corresponding to the upper left corner point of the license plate, the corner 2S (x, y) is the coordinates corresponding to the upper right corner point of the license plate, and the corner 3S ( x, y) is the coordinates corresponding to the lower right corner point of the license plate, and corner 4S (x, y) is the coordinates corresponding to the lower left corner point of the license plate. However, the coordinates of the corner 1S (x, y), the corner 2S (x, y), the corner 3S (x, y), and the corner 4S (x, y) are local coordinates of relative coordinates.

そこで、検出部23は、次いで、ローカル座標であるコーナー1S(x,y)、コーナー2S(x,y)、コーナー3S(x,y)、コーナー4S(x,y)を、検出対象画像における絶対座標(以下では「画像座標」と呼ぶことがある)に変換する。そして、検出部23は、コーナー1S(x,y)を座標変換した後の画像座標をナンバープレートの左上のコーナー点の座標CO1として検出する。また、検出部23は、コーナー2S(x,y)を座標変換した後の画像座標をナンバープレートの右上のコーナー点の座標CO2として検出する。また、検出部23は、コーナー3S(x,y)を座標変換した後の画像座標をナンバープレートの右下のコーナー点の座標CO3として検出する。また、検出部23は、コーナー4S(x,y)を座標変換した後の画像座標をナンバープレートの左下のコーナー点の座標CO4として検出する。このようにして、検出部23は、検出分類モデルを用いて検出した4個のコーナー点存在領域の各々の中心座標コーナー1S(x,y)、コーナー2S(x,y)、コーナー3S(x,y)、コーナー4S(x,y)を座標変換した上で検出対象画像におけるナンバープレートの4個のコーナー点の座標として検出する。このようにして検出された4個のコーナー点の画像座標の外縁を直線で結ぶことにより、検出対象画像において撮影されているナンバープレートの矩形の形状を検出することができる。 Therefore, the detection unit 23 then detects the local coordinates of the corner 1S (x, y), the corner 2S (x, y), the corner 3S (x, y), and the corner 4S (x, y) in the image to be detected. Convert to absolute coordinates (hereinafter sometimes referred to as "image coordinates"). Then, the detection unit 23 detects the image coordinates after the corner 1S (x, y) is coordinate-converted as the coordinates CO1 of the upper left corner point of the license plate. Further, the detection unit 23 detects the image coordinates after the corner 2S (x, y) is coordinate-converted as the coordinates CO2 of the upper right corner point of the license plate. Further, the detection unit 23 detects the image coordinates after the corner 3S (x, y) are coordinate-converted as the coordinates CO3 of the lower right corner point of the license plate. Further, the detection unit 23 detects the image coordinates after the corner 4S (x, y) are coordinate-converted as the coordinates CO4 of the lower left corner point of the license plate. In this way, the detection unit 23 has the center coordinate corner 1S (x, y), corner 2S (x, y), and corner 3S (x) of each of the four corner point existence regions detected using the detection classification model. , Y) and corner 4S (x, y) are coordinate-converted and then detected as the coordinates of the four corner points of the license plate in the detection target image. By connecting the outer edges of the image coordinates of the four corner points detected in this way with a straight line, the rectangular shape of the license plate captured in the image to be detected can be detected.

ここで、学習モデル生成装置10により生成された検出分類モデルは、検出対象画像が入力されて、検出対象画像においてコーナー点存在領域を特定し、特定したコーナー点存在領域がナンバープレートの4個のコーナー点のうちの何れのコーナー点を含む領域であるかを示す情報(以下では「コーナー点第二特定情報」と呼ぶことがある)と、コーナー点第二特定情報によって示されるコーナー点存在領域の中心座標を示す情報(以下では「中心座標情報」と呼ぶことがある)とを検出部23へ出力する学習済みモデルである。そして、検出部23は、コーナー点第二特定情報と中心座標情報とに基づいて、ナンバープレートにおける4個のコーナー点存在領域を検出するとともに、検出した各コーナー点存在領域の中心座標であるコーナー1S(x,y)、コーナー2S(x,y)、コーナー3S(x,y)、コーナー4S(x,y)を検出する。また、検出分類モデルは、検出対象画像が入力される入力層と、出力層と、入力層から出力層までの何れかの層であって出力層以外の層に属する第一要素と、第一要素と第一要素の重みとに基づいて値が算出される第二要素とを有する。そして、検出分類モデルは、入力層に入力された検出対象画像に対し、出力層以外の各層に属する各要素を第一要素として、第一要素と第一要素の重みとに基づく演算を行うことにより中心座標情報を出力する。 Here, in the detection classification model generated by the learning model generation device 10, the detection target image is input, the corner point existence region is specified in the detection target image, and the specified corner point existence region is four number plates. Information indicating which of the corner points includes the corner point (hereinafter, may be referred to as "corner point second specific information") and the corner point existence area indicated by the corner point second specific information. This is a trained model that outputs information indicating the center coordinates of the above (hereinafter, may be referred to as “center coordinate information”) to the detection unit 23. Then, the detection unit 23 detects the four corner point existence areas on the license plate based on the corner point second specific information and the center coordinate information, and also detects the corners which are the center coordinates of each of the detected corner point existence areas. 1S (x, y), corner 2S (x, y), corner 3S (x, y), and corner 4S (x, y) are detected. Further, the detection classification model includes an input layer into which an image to be detected is input, an output layer, a first element which is any layer from the input layer to the output layer and belongs to a layer other than the output layer, and the first element. It has a second element whose value is calculated based on the element and the weight of the first element. Then, the detection classification model performs an operation based on the first element and the weight of the first element with each element belonging to each layer other than the output layer as the first element for the detection target image input to the input layer. Outputs the center coordinate information by.

<検出分類モデルの動作>
図12及び図13は、実施例2の検出分類モデルの動作の説明に供する図である。
<Operation of detection classification model>
12 and 13 are diagrams for explaining the operation of the detection classification model of the second embodiment.

図12に示すように、検出分類モデルは、検出分類モデルに入力された検出対象画像を「M×N個」の複数のグリッドに分割し、各グリッドを順次「注目グリッドGR」に設定しながら、以下のように動作する。すなわち、検出分類モデルは、図12に示すように、矩形領域a,b,cの各領域の中心座標(以下では「矩形領域中心座標」と呼ぶことがある)が注目グリッドGR内に含まれるという条件の下で、矩形領域a,b,cの中にナンバープレートのコーナー点が発見されるように、矩形領域a,b,cを検出する。一つの注目グリッドGRに対して検出される矩形領域の数は「アンカー数」として予め設定されている。ここでは、一例として、「アンカー数=3」として、一つの注目グリッドGRに対して矩形領域a,b,cの3個の矩形領域が検出される場合について説明する。検出された矩形領域(以下では「検出矩形領域」と呼ぶことがある)は、以下の式(1)のように表される。 As shown in FIG. 12, in the detection classification model, the detection target image input to the detection classification model is divided into a plurality of "M × N" grids, and each grid is sequentially set to the "attention grid GR". , Works as follows. That is, as shown in FIG. 12, the detection classification model includes the center coordinates of each of the rectangular regions a, b, and c (hereinafter, may be referred to as "rectangular region center coordinates") in the attention grid GR. Under the condition, the rectangular regions a, b, and c are detected so that the corner points of the license plate are found in the rectangular regions a, b, and c. The number of rectangular regions detected for one attention grid GR is preset as the “number of anchors”. Here, as an example, a case where three rectangular regions a, b, and c are detected for one attention grid GR will be described with “the number of anchors = 3”. The detected rectangular area (hereinafter, may be referred to as “detected rectangular area”) is expressed by the following equation (1).

検出矩形領域=
(x座標,y座標,幅w,高さh,確度,
クラス確率(コーナー1,コーナー2,コーナー3,コーナー4))…式(1)
Detection rectangular area =
(X coordinate, y coordinate, width w, height h, accuracy,
Class probability (corner 1, corner 2, corner 3, corner 4)) ... Equation (1)

式(1)において、コーナー1〜4はそれぞれ、上記のように、ナンバープレートの左上のコーナー点、右上のコーナー点、右下のコーナー点、左下のコーナー点に対応する。また、式(1)において、「幅w」及び「高さh」は、予め決められた値である。また、式(1)における「x座標」及び「y座標」は、図13に示すように、注目グリッドGRの原点を基準にした相対座標(つまり、ローカル座標)である。また、式(1)における「確度」は、検出矩形領域内に何れかのコーナー点が含まれる確度を表す。また、式(1)における「クラス確率」は、4個のコーナー点それぞれの、検出矩形領域内における存在確率を表す。 In the formula (1), the corners 1 to 4 correspond to the upper left corner point, the upper right corner point, the lower right corner point, and the lower left corner point of the license plate, respectively, as described above. Further, in the equation (1), the "width w" and the "height h" are predetermined values. Further, the "x coordinate" and the "y coordinate" in the equation (1) are relative coordinates (that is, local coordinates) with respect to the origin of the grid GR of interest, as shown in FIG. Further, the "probability" in the equation (1) represents the probability that any corner point is included in the detection rectangular area. Further, the "class probability" in the equation (1) represents the existence probability of each of the four corner points in the detection rectangular area.

例えば、図12に示す注目グリッドGRに対する検出矩形領域a,b,cは、以下の式(2)〜(4)のように表される。 For example, the detection rectangular regions a, b, and c for the attention grid GR shown in FIG. 12 are expressed by the following equations (2) to (4).

検出矩形領域a
=(0.12,0.87,0.49,0.64,0.589,(0,0,0.9999,0))…式(2)
検出矩形領域b
=(0.16,0.77,1.77,2.11,0.010,(0,0.0001,0.9998,0.0001))…式(3)
検出矩形領域c
=(0.33,0.73,5.45,6.56,0.016,(0.54,0.23,0.05,0.19))…式(4)
Detection rectangular area a
= (0.12,0.87,0.49,0.64,0.589, (0,0,0.9999,0))… Equation (2)
Detection rectangular area b
= (0.16,0.77,1.77,2.11,0.010, (0,0.0001,0.9998,0.0001))… Equation (3)
Detection rectangular area c
= (0.33,0.73,5.45,6.56,0.016, (0.54,0.23,0.05,0.19))… Equation (4)

よって、例えば「確度」の閾値を「0.5」とすると、確度が0.5以上であるのは検出矩形領域aであり、検出矩形領域b,cについては確度が0.5未満であるため、図12に示す注目グリッドGRに対しては、検出矩形領域b,cは除外され、検出矩形領域aが、右下のコーナー点に対するコーナー点存在領域候補として選択される。 Therefore, for example, assuming that the threshold value of "accuracy" is "0.5", it is the detection rectangular area a that has an accuracy of 0.5 or more, and the accuracy of the detection rectangular areas b and c is less than 0.5, which is shown in FIG. For the grid GR of interest, the detection rectangle areas b and c are excluded, and the detection rectangle area a is selected as a corner point existence area candidate for the lower right corner point.

検出分類モデルは、すべてのグリッドを注目グリッドGRに順次設定しながら以上の動作を行う。そして、検出分類モデルは、各コーナー点について、確度が最も高い検出矩形領域を最終的なコーナー点存在領域に決定する。そして、検出分類モデルは、各コーナー点について、確度が最も高い検出矩形領域を示す情報をコーナー点第二特定情報として出力し、矩形領域中心座標を示す情報を中心座標情報として出力する。 The detection classification model performs the above operation while sequentially setting all the grids to the attention grid GR. Then, the detection classification model determines the detection rectangular region having the highest accuracy as the final corner point existence region for each corner point. Then, the detection classification model outputs the information indicating the detection rectangular area having the highest accuracy as the second specific information of the corner points for each corner point, and outputs the information indicating the center coordinates of the rectangular area as the center coordinate information.

<ローカル座標から画像座標への変換>
検出部23は、例えば、以下の式(5)に従って検出矩形領域のローカル座標であるコーナー1S(x,y)、コーナー2S(x,y)、コーナー3S(x,y)、コーナー4S(x,y)を、画像座標であるコーナー1S(x',y')、コーナー2S(x',y')、コーナー3S(x',y')、コーナー4S(x',y')に変換する。よって、画像座標であるコーナー1S(x',y')、コーナー2S(x',y')、コーナー3S(x',y')、コーナー4S(x',y')がそれぞれ、検出部23から出力される座標CO1,CO2,CO3,CO4(図11)に相当する。式(5)において、「W」は検出対象画像の幅を表し、「H」は検出対象画像の高さを表す。また、式(5)において、「u」は注目グリッドGRのx方向の位置を表し、「v」は注目グリッドGRのy方向の位置を表す。
<Conversion from local coordinates to image coordinates>
For example, the detection unit 23 has corners 1S (x, y), corners 2S (x, y), corners 3S (x, y), and corners 4S (x), which are local coordinates of the detection rectangular region, according to the following equation (5). , Y) is converted into corner 1S (x', y'), corner 2S (x', y'), corner 3S (x', y'), and corner 4S (x', y'), which are image coordinates. To do. Therefore, the corner 1S (x', y'), the corner 2S (x', y'), the corner 3S (x', y'), and the corner 4S (x', y'), which are the image coordinates, are the detection units, respectively. It corresponds to the coordinates CO1, CO2, CO3, and CO4 (FIG. 11) output from 23. In the formula (5), "W" represents the width of the detection target image, and "H" represents the height of the detection target image. Further, in the equation (5), "u" represents the position of the attention grid GR in the x direction, and "v" represents the position of the attention grid GR in the y direction.

x'=W(u+x)/M
y'=H(v+y)/N …式(5)
x'= W (u + x) / M
y'= H (v + y) / N ... Equation (5)

例えば、検出対象画像のサイズが(W,H)=(1322,902)であり、グリッドの総数が(M×N)=(13×13)個であった場合、座標変換前後の座標値は図14に示すようになる。図14は、実施例2の座標変換の一例を示す図である。 For example, if the size of the image to be detected is (W, H) = (1322,902) and the total number of grids is (M × N) = (13 × 13), the coordinate values before and after the coordinate conversion are As shown in FIG. FIG. 14 is a diagram showing an example of the coordinate transformation of the second embodiment.

以上のように、実施例2では、記憶部22は、学習済みモデルとしての検出分類モデルを記憶する。検出分類モデルは、ナンバープレートのコーナー点が中心に位置するポジティブ画像PIを用いて機械学習により生成された学習済みモデルである。また、検出分類モデルは、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域の情報(コーナー点第二特定情報、中心座標情報)を出力する。検出部23は、ナンバープレートが撮影された検出対象画像に対して、検出分類モデルを用いてナンバープレートのコーナー点が中心に位置する領域を検出し、検出対象画像におけるナンバープレートのコーナー点の座標を検出する。つまり、検出分類モデルは、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域の情報(コーナー点第二特定情報、中心座標情報)を出力することにより、検出対象画像におけるナンバープレートのコーナー点の座標を検出する検出部23に、ナンバープレートのコーナー点が中心に位置する領域を検出させる。 As described above, in the second embodiment, the storage unit 22 stores the detection classification model as the learned model. The detection classification model is a trained model generated by machine learning using a positive image PI in which the corner points of the license plate are located in the center. In addition, the detection classification model outputs information on a region in which the corner point of the license plate is located at the center in the image to be detected (corner point second specific information, center coordinate information). The detection unit 23 detects the region where the corner point of the license plate is located at the center of the detection target image on which the license plate is captured by using the detection classification model, and the coordinates of the corner point of the license plate in the detection target image. Is detected. That is, the detection classification model outputs the information of the region where the license plate corner point is located at the center in the detection target image (corner point second specific information, center coordinate information), so that the license plate corner in the detection target image is output. The detection unit 23 that detects the coordinates of the points is made to detect the region where the corner point of the license plate is located at the center.

より詳細には、検出分類モデルは、検出対象画像が入力されて、検出対象画像においてナンバープレートのコーナー点が中心に位置する領域を特定し、特定した領域がナンバープレートの複数の4個のコーナー点のうちの何れのコーナー点を含む領域であるかを示す情報である情報(コーナー点第二特定情報)と、コーナー点第二特定情報によって示される領域の中心座標を示す情報(中心座標情報)とを出力する。検出部23は、検出対象画像に対して検出分類モデルを用いて、コーナー点存在領域を検出するとともに、コーナー点存在領域の中心座標を検出し、検出した中心座標を座標変換した上で検出対象画像におけるナンバープレートのコーナー点の座標として検出する。 More specifically, in the detection classification model, the detection target image is input, the region where the corner point of the license plate is located at the center in the detection target image is specified, and the specified region is a plurality of four corners of the license plate. Information indicating which of the points the area includes the corner point (corner point second specific information) and information indicating the center coordinates of the area indicated by the corner point second specific information (center coordinate information). ) And is output. The detection unit 23 detects the corner point existence region using the detection classification model for the detection target image, detects the center coordinates of the corner point existence region, converts the detected center coordinates into coordinates, and then detects the detection target. It is detected as the coordinates of the corner points of the license plate in the image.

このように、ナンバープレートのコーナー点が中心に位置するポジティブ画像PIを用いて機械学習により生成された学習済みモデルを用いて検出対象画像におけるナンバープレートのコーナー点の座標を検出することにより、検出対象画像において撮影されているナンバープレートの矩形の形状を精度良く検出することができる。 In this way, detection is performed by detecting the coordinates of the license plate corner points in the detection target image using the trained model generated by machine learning using the positive image PI in which the license plate corner points are located in the center. The rectangular shape of the license plate captured in the target image can be detected with high accuracy.

また、実施例2の検出分類モデルの機能は、実施例1の検出モデルと分類モデルの両者の機能を一体化したものに相当するため、コーナー点の座標を検出する際の演算規模は、実施例2の方が実施例1よりも小さくなる。 Further, since the function of the detection classification model of the second embodiment corresponds to the one in which the functions of both the detection model and the classification model of the first embodiment are integrated, the calculation scale when detecting the coordinates of the corner points is carried out. Example 2 is smaller than Example 1.

[実施例3]
<文字認識装置の構成>
図15は、実施例3の文字認識装置の構成例を示す図である。図15において、文字認識装置30は、座標検出装置20と、補正部31と、認識部32とを有する。
[Example 3]
<Configuration of character recognition device>
FIG. 15 is a diagram showing a configuration example of the character recognition device of the third embodiment. In FIG. 15, the character recognition device 30 includes a coordinate detection device 20, a correction unit 31, and a recognition unit 32.

文字認識装置30に入力された検出対象画像は、座標検出装置20及び補正部31に入力される。例えば、検出対象画像には、実施例1,2と同様に、自動車の矩形のナンバープレートが撮影されている。 The detection target image input to the character recognition device 30 is input to the coordinate detection device 20 and the correction unit 31. For example, in the image to be detected, a rectangular license plate of an automobile is photographed as in the first and second embodiments.

座標検出装置20は、実施例1または実施例2で説明したようにして、検出対象画像において、ナンバープレートの4個のコーナー点の座標CO1,CO2,CO3,CO4を検出し、検出結果として補正部31へ出力する。 As described in the first or second embodiment, the coordinate detection device 20 detects the coordinates CO1, CO2, CO3, and CO4 of the four corner points of the license plate in the image to be detected, and corrects them as the detection result. Output to unit 31.

補正部31は、コーナー点の座標CO1,CO2,CO3,CO4に基づいて、検出対象画像に撮影されているナンバープレートの矩形の歪みをナンバープレートの文字も一体として補正し、歪みが補正された後の矩形を有するナンバープレートの画像を認識部32へ出力する。すなわち、補正部31は、4個のコーナー点の座標CO1,CO2,CO3,CO4の外縁を直線で結ぶことにより形成される矩形の歪みを補正する。 The correction unit 31 corrects the rectangular distortion of the license plate captured in the detection target image together with the characters of the license plate based on the coordinates CO1, CO2, CO3, and CO4 of the corner points, and the distortion is corrected. The image of the license plate having the latter rectangle is output to the recognition unit 32. That is, the correction unit 31 corrects the distortion of the rectangle formed by connecting the outer edges of the coordinates CO1, CO2, CO3, and CO4 of the four corner points with a straight line.

認識部32は、歪みが補正された後の矩形の中に存在する文字を認識し、認識結果を出力する。文字の認識は、例えばOCR(Optical Character Recognition)により行われる。 The recognition unit 32 recognizes the characters existing in the rectangle after the distortion is corrected, and outputs the recognition result. Character recognition is performed by, for example, OCR (Optical Character Recognition).

<補正部及び認識部の動作>
図16は、実施例3の補正部及び認識部の動作の説明に供する図である。
<Operation of correction unit and recognition unit>
FIG. 16 is a diagram for explaining the operation of the correction unit and the recognition unit according to the third embodiment.

図16に示すように、検出対象画像と、ナンバープレートの4個のコーナー点の座標CO1,CO2,CO3,CO4とを入力された補正部31は、座標CO1,CO2,CO3,CO4に基づいて、周知の技術である「透視投影変換」を利用して、検出対象画像に撮影されているナンバープレートの矩形の歪みを補正する。すなわち、補正部31は、座標CO1,CO2,CO3,CO4にそれぞれ対応する複数のコーナー点で囲まれる領域の形状の歪みを、透視投影変換を用いて補正する。この補正により、検出対象画像に撮影されているナンバープレートの形状が例えば台形であった場合でも、ナンバープレートの形状は長方形に補正される。また、ナンバープレートの矩形の歪みの補正に伴って、同時に、ナンバープレート内の文字の歪みも補正される。 As shown in FIG. 16, the correction unit 31 in which the detection target image and the coordinates CO1, CO2, CO3, CO4 of the four corner points of the license plate are input is based on the coordinates CO1, CO2, CO3, CO4. , The distortion of the rectangular shape of the license plate captured in the image to be detected is corrected by using the well-known technique "perspective projection conversion". That is, the correction unit 31 corrects the distortion of the shape of the region surrounded by the plurality of corner points corresponding to the coordinates CO1, CO2, CO3, and CO4 by using the perspective projection transformation. By this correction, even if the shape of the license plate captured in the detection target image is, for example, a trapezoid, the shape of the license plate is corrected to a rectangle. In addition, along with the correction of the distortion of the rectangle of the license plate, the distortion of the characters in the license plate is also corrected at the same time.

図17は、実施例3の透視投影変換の一例を示す図である。図17は、ナンバープレートの矩形の実寸を330×165[mm]とした場合の座標変換例である。透視投影変換により、座標CO1(x',y'),CO2(x',y'),CO3(x',y'),CO4(x',y')が、座標CO1(x'',y''),CO2(x'',y''),CO3(x'',y''),CO4(x'',y'')に補正される。 FIG. 17 is a diagram showing an example of the perspective projection conversion of the third embodiment. FIG. 17 is an example of coordinate conversion when the actual size of the rectangle of the license plate is 330 × 165 [mm]. By fluoroscopic projection conversion, the coordinates CO1 (x', y'), CO2 (x', y'), CO3 (x', y'), and CO4 (x', y') are converted to the coordinates CO1 (x'', y'). It is corrected to y''), CO2 (x'', y''), CO3 (x'', y''), CO4 (x'', y'').

以上のように、実施例3では、文字認識装置30は、座標検出装置20と、補正部31と、認識部32とを有する。座標検出装置20は、検出対象画像におけるナンバープレートの4個のコーナー点の座標CO1,CO2,CO3,CO4を検出する。補正部31は、座標CO1,CO2,CO3,CO4にそれぞれ対応する複数のコーナー点で囲まれる領域の形状の歪みを補正する。認識部32は、形状の歪みが補正された後の領域の中に存在する文字を認識する。 As described above, in the third embodiment, the character recognition device 30 includes the coordinate detection device 20, the correction unit 31, and the recognition unit 32. The coordinate detection device 20 detects the coordinates CO1, CO2, CO3, and CO4 of the four corner points of the license plate in the image to be detected. The correction unit 31 corrects the distortion of the shape of the region surrounded by the plurality of corner points corresponding to the coordinates CO1, CO2, CO3, and CO4, respectively. The recognition unit 32 recognizes the characters existing in the region after the distortion of the shape is corrected.

こうすることで、ナンバープレート内の文字の認識精度を高めることができる。また、実施例3では、検出対象画像におけるナンバープレートの形状の検出を機械学習を用いて行う一方で、機械学習による形状の検出と分離して、形状の補正及び文字認識を行っている。このため、ナンバープレート内の歪んだ文字をそのまま機械学習を用いて認識する場合よりも、用意する教師データの数が少なくて済むとともに、機械学習の学習時間を短縮することができ、また、演算量を減少させることができるので、より低スペックなプロセッサを用いて機械学習を行うことができる。 By doing so, the recognition accuracy of the characters in the license plate can be improved. Further, in the third embodiment, the shape of the license plate in the image to be detected is detected by using machine learning, while the shape is corrected and the character is recognized separately from the shape detection by machine learning. Therefore, the number of teacher data to be prepared can be reduced, the learning time of machine learning can be shortened, and the calculation can be performed, as compared with the case where the distorted characters in the number plate are recognized as they are by using machine learning. Since the amount can be reduced, machine learning can be performed using a processor with lower specifications.

[実施例4]
<画像処理装置の構成>
図18は、実施例4の画像処理装置の構成例を示す図である。図18において、画像処理装置40は、座標検出装置20と、補正部41と、記憶部42と、重畳部43と、逆変換部44とを有する。
[Example 4]
<Configuration of image processing device>
FIG. 18 is a diagram showing a configuration example of the image processing device of the fourth embodiment. In FIG. 18, the image processing device 40 includes a coordinate detection device 20, a correction unit 41, a storage unit 42, a superposition unit 43, and an inverse conversion unit 44.

画像処理装置40に入力された検出対象画像は、座標検出装置20及び補正部41に入力される。 The detection target image input to the image processing device 40 is input to the coordinate detection device 20 and the correction unit 41.

座標検出装置20は、実施例1または実施例2で説明したようにして、検出対象画像において、検出対象物体のコーナー点の座標を検出し、検出結果として補正部41へ出力する。 As described in the first or second embodiment, the coordinate detection device 20 detects the coordinates of the corner points of the detection target object in the detection target image, and outputs the detection result to the correction unit 41.

補正部41は、座標検出装置20で検出されたコーナー点の座標に基づいて、周知の技術である「透視投影変換」を利用して、検出対象画像に撮影されている検出対象物体の形状の歪みを補正し、歪みが補正された後の形状を有する検出対象物体の画像(以下では「形状補正後画像」と呼ぶことがある)を重畳部43へ出力する。すなわち、補正部41は、複数のコーナー点の座標の外縁を直線で結ぶことにより形成される形状の歪みを補正する。 The correction unit 41 uses the well-known technique "perspective projection conversion" based on the coordinates of the corner points detected by the coordinate detection device 20 to form the shape of the detection target object captured in the detection target image. The distortion is corrected, and an image of the object to be detected having the shape after the distortion is corrected (hereinafter, may be referred to as a “shape-corrected image”) is output to the superimposing unit 43. That is, the correction unit 41 corrects the distortion of the shape formed by connecting the outer edges of the coordinates of the plurality of corner points with a straight line.

記憶部42には、検出対象物体の画像と重畳されるコンテンツ(以下では「重畳コンテンツ」と呼ぶことがある)が予め記憶されている。記憶部42に記憶されている重畳コンテンツは歪みの無いコンテンツである。 The storage unit 42 stores in advance content that is superimposed on the image of the object to be detected (hereinafter, may be referred to as “superimposed content”). The superimposed content stored in the storage unit 42 is content without distortion.

重畳部43は、記憶部42から重畳コンテンツを取得し、取得した重畳コンテンツを形状補正後画像に重畳し、重畳コンテンツが形状補正後画像に重畳された後の画像(以下では「重畳後画像」と呼ぶことがある)を逆変換部44へ出力する。 The superimposition unit 43 acquires the superimposition content from the storage unit 42, superimposes the acquired superimposition content on the shape-corrected image, and superimposes the superimposition content on the shape-corrected image (hereinafter, “superimposition post-image”). Is sometimes called) is output to the inverse conversion unit 44.

逆変換部44は、補正部41で行われた透視投影変換と逆の変換を重畳後画像に対して行って重畳後画像の形状を歪ませ、形状を歪ませた後の重畳後画像を重畳結果として出力する。 The inverse conversion unit 44 performs a transformation opposite to the perspective projection conversion performed by the correction unit 41 on the superimposed image to distort the shape of the superimposed image, and superimposes the superimposed image after the shape is distorted. Output as a result.

<画像処理装置の動作>
図19は、実施例4の画像処理装置の動作の説明に供する図である。
<Operation of image processing device>
FIG. 19 is a diagram for explaining the operation of the image processing apparatus of the fourth embodiment.

図19に示すように、座標検出装置20は、検出対象画像において、検出対象物体のコーナー点の座標を検出する。図19では、一例として、検出対象物体の形状が「星形」であるとする。 As shown in FIG. 19, the coordinate detection device 20 detects the coordinates of the corner points of the detection target object in the detection target image. In FIG. 19, as an example, it is assumed that the shape of the object to be detected is a “star”.

補正部41は、座標検出装置20で検出されたコーナー点の座標に基づいて透視投影変換を行って星形の画像の歪みを補正する。すなわち、補正部41は、座標検出装置20で検出された複数の座標にそれぞれ対応する複数のコーナー点で囲まれる領域の形状の歪みを、透視投影変換を用いて補正する。この補正により、星形の画像内に設定されたマーカーの歪みも補正される。 The correction unit 41 corrects the distortion of the star-shaped image by performing perspective projection conversion based on the coordinates of the corner points detected by the coordinate detection device 20. That is, the correction unit 41 corrects the distortion of the shape of the region surrounded by the plurality of corner points corresponding to the plurality of coordinates detected by the coordinate detection device 20 by using the perspective projection conversion. This correction also corrects the distortion of the markers set in the star-shaped image.

重畳部43は、記憶部42から取得した重畳コンテンツを、星形の画像内に設定されたマーカーを基準にして、歪み補正後の星形の画像に重畳する。 The superimposing unit 43 superimposes the superimposing content acquired from the storage unit 42 on the distortion-corrected star-shaped image with reference to the marker set in the star-shaped image.

逆変換部44は、補正部41で行われた透視投影変換と逆の変換を重畳後画像に対して行って重畳後画像の形状を歪ませる。 The inverse conversion unit 44 performs a transformation opposite to the perspective projection conversion performed by the correction unit 41 on the superimposed image to distort the shape of the superimposed image.

以上のように、実施例4では、画像処理装置40は、座標検出装置20と、補正部41と、重畳部43とを有する。座標検出装置20は、検出対象画像における検出対象物体の複数のコーナー点の座標を検出する。補正部41は、座標検出装置20で検出された複数の座標にそれぞれ対応する複数のコーナー点で囲まれる領域の形状の歪みを補正する。重畳部43は、歪みが補正された後の形状に所定のコンテンツを重畳する。 As described above, in the fourth embodiment, the image processing device 40 includes the coordinate detection device 20, the correction unit 41, and the superimposition unit 43. The coordinate detection device 20 detects the coordinates of a plurality of corner points of the detection target object in the detection target image. The correction unit 41 corrects the distortion of the shape of the region surrounded by the plurality of corner points corresponding to the plurality of coordinates detected by the coordinate detection device 20. The superimposing unit 43 superimposes a predetermined content on the shape after the distortion is corrected.

こうすることで、歪みを補正した後の検出対象物体の画像にコンテンツを重畳することができるため、例えば、AR(Augmented Reality)における正確な表現が可能となる。 By doing so, the content can be superimposed on the image of the object to be detected after the distortion is corrected, so that accurate representation in AR (Augmented Reality) is possible, for example.

[実施例5]
物体形状検出システム1が対象とする検出対象物体は、ナンバープレートに限定されない。例えば、検出対象物体は、道路標記等であっても良い。図20及び図21は、実施例5の検出対象物体の一例を示す図である。図20に示す道路標識には、3個のコーナー点が存在する。また、図21に示す道路標識には、8個のコーナー点が存在する。
[Example 5]
The object to be detected by the object shape detection system 1 is not limited to the license plate. For example, the object to be detected may be a road marking or the like. 20 and 21 are diagrams showing an example of the object to be detected in the fifth embodiment. The road sign shown in FIG. 20 has three corner points. Further, the road sign shown in FIG. 21 has eight corner points.

また、コーナー点は、検出対象物体上に存在する「規定点」の一例であり、物体形状検出システム1が対象とする規定点は、コーナー点に限定されない。例えば、円形の道路標識の円周上に任意の規定点が設定されても良い。すなわち、物体形状検出システム1が対象とする規定点は、検出対象画像における検出対象物体の外縁上に存在する何れかの点であれば良い。 Further, the corner point is an example of a "specified point" existing on the object to be detected, and the specified point targeted by the object shape detection system 1 is not limited to the corner point. For example, an arbitrary defining point may be set on the circumference of a circular road sign. That is, the specified point targeted by the object shape detection system 1 may be any point existing on the outer edge of the object to be detected in the image to be detected.

さらに、規定点として、検出対象画像におけるナンバープレートのネジ、ナンバープレートの封印の中心、ナンバープレート内の“・”や“−”の文字等を採用しても良い。 Further, as the specified points, the screw of the license plate in the image to be detected, the center of the seal of the license plate, the characters "・" and "-" in the license plate, and the like may be adopted.

[他の実施例]
[1]記憶部13,22,42は、ハードウェアとして、例えば、メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)等により実現される。記憶部13,22,42を実現するメモリの一例として、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。データセット生成部11、学習モデル生成部12、検出部23、補正部31,41、認識部32、重畳部43及び逆変換部44は、ハードウェアとして、例えばプロセッサにより実現することができる。データセット生成部11、学習モデル生成部12、検出部23、補正部31,41、認識部32、重畳部43及び逆変換部44を実現するプロセッサの一例として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等が挙げられる。また、データセット生成部11、学習モデル生成部12、検出部23、補正部31,41、認識部32、重畳部43及び逆変換部44は、プロセッサと周辺回路とを含むLSI(Large Scale Integrated circuit)によって実現されても良い。出力部14及び取得部21は、ハードウェアとして、例えば、無線通信モジュールまたはネットワークインタフェースモジュールにより実現される。よって例えば、学習モデル生成装置10は、パーソナルコンピュータやサーバ等のコンピュータ装置として実現される。また例えば、座標検出装置20、文字認識装置30または画像処理装置40は、スマートフォンやタブレット端末等のスマートデバイスとして実現される。
[Other Examples]
[1] The storage units 13, 22, and 42 are realized as hardware by, for example, a memory, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like. Examples of the memory that realizes the storage units 13, 22, and 42 include RAM (Random Access Memory) such as SDRAM (Synchronous Dynamic Random Access Memory), ROM (Read Only Memory), and flash memory. The data set generation unit 11, the learning model generation unit 12, the detection unit 23, the correction units 31, 41, the recognition unit 32, the superimposition unit 43, and the inverse conversion unit 44 can be realized as hardware, for example, by a processor. As an example of a processor that realizes a data set generation unit 11, a learning model generation unit 12, a detection unit 23, a correction unit 31, 41, a recognition unit 32, a superimposition unit 43, and an inverse conversion unit 44, a CPU (Central Processing Unit) and a DSP (Digital Signal Processor), FPGA (Field Programmable Gate Array), ASIC (Application Specific Integrated Circuit) and the like. Further, the data set generation unit 11, the learning model generation unit 12, the detection unit 23, the correction units 31, 41, the recognition unit 32, the superimposition unit 43, and the inverse conversion unit 44 are LSIs (Large Scale Integrated) including a processor and peripheral circuits. It may be realized by circuit). The output unit 14 and the acquisition unit 21 are realized as hardware by, for example, a wireless communication module or a network interface module. Therefore, for example, the learning model generation device 10 is realized as a computer device such as a personal computer or a server. Further, for example, the coordinate detection device 20, the character recognition device 30, or the image processing device 40 is realized as a smart device such as a smartphone or a tablet terminal.

[2]物体形状検出システム1での上記説明における各処理の全部または一部は、各処理に対応するプログラムを物体形状検出システム1が有するプロセッサに実行させることによって実現してもよい。例えば、上記説明における各処理に対応するプログラムがメモリに記憶され、プログラムがプロセッサによってメモリから読み出されて実行されても良い。また、プログラムは、任意のネットワークを介して物体形状検出システム1に接続されたプログラムサーバに記憶され、そのプログラムサーバから物体形状検出システム1にダウンロードされて実行されたり、物体形状検出システム1が読み取り可能な記録媒体に記憶され、その記録媒体から読み出されて実行されても良い。物体形状検出システム1が読み取り可能な記録媒体には、例えば、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、CD−ROM、DVD、及び、Blu−ray(登録商標)ディスク等の可搬の記憶媒体が含まれる。また、プログラムは、任意の言語や任意の記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。また、プログラムは必ずしも単一的に構成されるものに限られず、複数のモジュールや複数のライブラリとして分散構成されるものや、OSに代表される別個のプログラムと協働してその機能を達成するものも含む。 [2] All or part of each process in the above description in the object shape detection system 1 may be realized by causing a processor included in the object shape detection system 1 to execute a program corresponding to each process. For example, the program corresponding to each process in the above description may be stored in the memory, and the program may be read from the memory by the processor and executed. Further, the program is stored in a program server connected to the object shape detection system 1 via an arbitrary network, downloaded from the program server to the object shape detection system 1 and executed, or read by the object shape detection system 1. It may be stored in a possible recording medium, read from the recording medium, and executed. Recording media that can be read by the object shape detection system 1 include, for example, memory cards, USB memory, SD cards, flexible discs, magneto-optical discs, CD-ROMs, DVDs, Blu-ray (registered trademark) discs, and the like. Includes portable storage media. The program is a data processing method described in an arbitrary language or an arbitrary description method, and may be in any format such as source code or binary code. In addition, the program is not necessarily limited to a single program, but is distributed as multiple modules or multiple libraries, or cooperates with a separate program represented by the OS to achieve its function. Including things.

[3]物体形状検出システム1の分散・統合の具体的形態は図示するものに限られず、物体形状検出システム1の全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 [3] The specific form of dispersion / integration of the object shape detection system 1 is not limited to the one shown in the drawing, and all or a part of the object shape detection system 1 can be added according to various additions or functional loads. Therefore, it can be functionally or physically distributed / integrated in any unit.

[4]実施例3,4における補正部31,41は、透視投影変換以外の技術を用いて形状の歪みを補正しても良い。 [4] The correction units 31 and 41 in Examples 3 and 4 may correct the distortion of the shape by using a technique other than the perspective projection conversion.

1 物体形状検出システム
10 学習モデル生成装置
20 座標検出装置
11 データセット生成部
12 学習モデル生成部
23 検出部
31,41 補正部
32 認識部
43 重畳部
1 Object shape detection system 10 Learning model generation device 20 Coordinate detection device 11 Data set generation unit 12 Learning model generation unit 23 Detection unit 31, 41 Correction unit 32 Recognition unit 43 Superimposition unit

Claims (4)

物体の規定点が含まれる画像を用いて機械学習により生成された第一学習済みモデル及び第二学習済みモデルであって、前記物体が撮影された入力画像が入力されて、前記入力画像において前記物体の規定点が含まれる領域の候補を示す情報である第一情報を出力する前記第一学習済みモデルと、前記第一情報が入力されて、前記第一情報が示す前記候補が前記物体の複数の規定点のうちの何れの規定点を含む領域であるかを示す情報である第二情報を出力する第二学習済みモデルと、を記憶する記憶部と、
前記物体が撮影された前記入力画像に対して前第一学習済みモデルを用いて前記候補を検出し、検出した前記候補に対して前記第二学習済みモデルを用いて前記物体の規定点を含む領域を検出し、前記第二学習済みモデルを用いて検出した前記領域に基づいて、前記入力画像における前記物体の規定点の座標を検出する検出部と、
を具備する座標検出装置。
A first trained model and a second trained model generated by machine learning using an image including a specified point of an object, and an input image in which the object is photographed is input, and the input image is described as described above. The first trained model that outputs the first information that is information indicating the candidate of the region including the specified point of the object and the first information are input, and the candidate indicated by the first information is the object. A storage unit that stores a second trained model that outputs second information, which is information indicating which of the plurality of specified points is included in the specified point.
Using a pre-Symbol first learned model to the input image in which the object was photographed to detect the candidate, a defined point of the object using the relative detected the candidate second trained model A detection unit that detects a region including the region and detects the coordinates of a specified point of the object in the input image based on the region detected by using the second trained model.
A coordinate detection device comprising.
請求項1に記載の座標検出装置と、
前記座標検出装置により検出された複数の前記座標にそれぞれ対応する複数の規定点で囲まれる領域の形状の歪みを補正する補正部と、
前記形状の前記歪みが補正された後の領域の中に存在する文字を認識する認識部と、
を具備する文字認識装置。
The coordinate detection device according to claim 1 and
A correction unit that corrects the distortion of the shape of the region surrounded by the plurality of specified points corresponding to the plurality of coordinates detected by the coordinate detection device, and the correction unit.
A recognition unit that recognizes characters existing in the region after the distortion of the shape is corrected, and
A character recognition device comprising.
請求項1に記載の座標検出装置と、
前記座標検出装置により検出された複数の前記座標にそれぞれ対応する複数の規定点で囲まれる領域の形状の歪みを補正する補正部と、
前記歪みが補正された後の前記形状に所定のコンテンツを重畳する重畳部と、
を具備する画像処理装置。
The coordinate detection device according to claim 1 and
A correction unit that corrects the distortion of the shape of the region surrounded by the plurality of specified points corresponding to the plurality of coordinates detected by the coordinate detection device, and the correction unit.
A superimposing portion that superimposes a predetermined content on the shape after the distortion is corrected, and
An image processing device comprising.
物体の規定点が含まれる画像を用いて機械学習により生成された第一学習済みモデル及び第二学習済みモデルから形成される学習済みモデルであって
前記第一学習済みモデルは、前記物体が撮影された入力画像が入力されて、前記入力画像において前記物体の規定点が含まれる領域の候補を示す情報である第一情報を出力し
前記第二学習済みモデルは、前記第一情報が入力されて、前記第一情報が示す前記候補が前記物体の複数の規定点のうちの何れの規定点を含む領域であるかを示す情報である第二情報を出力する、
学習済みモデル。
A trained model formed from a first trained model and a second trained model generated by machine learning using an image containing a defined point of an object.
The first trained model is input with an input image in which the object is photographed, and outputs first information which is information indicating a candidate for a region including a specified point of the object in the input image.
The second trained model is information indicating which of the plurality of specified points of the object is included in the candidate indicated by the first information when the first information is input. Output some second information,
Trained model.
JP2017166420A 2017-08-31 2017-08-31 Coordinate detector and trained model Active JP6858101B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017166420A JP6858101B2 (en) 2017-08-31 2017-08-31 Coordinate detector and trained model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017166420A JP6858101B2 (en) 2017-08-31 2017-08-31 Coordinate detector and trained model

Publications (2)

Publication Number Publication Date
JP2019046007A JP2019046007A (en) 2019-03-22
JP6858101B2 true JP6858101B2 (en) 2021-04-14

Family

ID=65814453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017166420A Active JP6858101B2 (en) 2017-08-31 2017-08-31 Coordinate detector and trained model

Country Status (1)

Country Link
JP (1) JP6858101B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7196905B2 (en) 2018-03-30 2022-12-27 三菱ケミカル株式会社 Heat-dissipating sheet, heat-dissipating member, and semiconductor device
JP6779491B1 (en) * 2019-06-25 2020-11-04 株式会社エクサウィザーズ Character recognition device, shooting device, character recognition method, and character recognition program
CN110517221B (en) * 2019-07-05 2022-05-03 银河水滴科技(北京)有限公司 Gap positioning method and device based on real coordinates and storage medium
JP7385417B2 (en) * 2019-10-11 2023-11-22 日立造船株式会社 Information processing device, information processing method, and information processing program
JP7294454B2 (en) * 2019-12-09 2023-06-20 コニカミノルタ株式会社 Object detection method and object detection device
CN111178236B (en) * 2019-12-27 2023-06-06 清华大学苏州汽车研究院(吴江) Parking space detection method based on deep learning
CN111444916A (en) * 2020-03-26 2020-07-24 中科海微(北京)科技有限公司 License plate positioning and identifying method and system under unconstrained condition
JP7138158B2 (en) * 2020-12-25 2022-09-15 エヌ・ティ・ティ・コムウェア株式会社 OBJECT CLASSIFIER, OBJECT CLASSIFICATION METHOD, AND PROGRAM
JP7117720B1 (en) * 2021-04-05 2022-08-15 日本システム開発株式会社 image generator
CN114445568A (en) * 2021-12-21 2022-05-06 武汉中海庭数据技术有限公司 Detection and extraction method and system for straight turning composite arrow
WO2023162223A1 (en) * 2022-02-28 2023-08-31 富士通株式会社 Training program, generation program, training method, and generation method
TWI818535B (en) 2022-05-04 2023-10-11 博遠智能科技股份有限公司 System and method for license plate recognition
CN116245950B (en) * 2023-05-11 2023-08-01 合肥高维数据技术有限公司 Screen corner positioning method for full screen or single corner deletion

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114689A (en) * 1993-10-18 1995-05-02 Nippon Signal Co Ltd:The Method for recognizing vehicle registered number
JP2007233871A (en) * 2006-03-02 2007-09-13 Fuji Xerox Co Ltd Image processor, control method for computer, and program
JP4978227B2 (en) * 2007-02-15 2012-07-18 トヨタ自動車株式会社 Image detection device
JP2016095688A (en) * 2014-11-14 2016-05-26 株式会社デンソー On-vehicle information display device

Also Published As

Publication number Publication date
JP2019046007A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
JP6858101B2 (en) Coordinate detector and trained model
CN108009543B (en) License plate recognition method and device
EP3489856B1 (en) Method and system for recognizing location information in two-dimensional code
US20190347767A1 (en) Image processing method and device
JP6688277B2 (en) Program, learning processing method, learning model, data structure, learning device, and object recognition device
US9792731B2 (en) System and method for controlling a display
CN108154149B (en) License plate recognition method based on deep learning network sharing
CN105144710A (en) Technologies for increasing the accuracy of depth camera images
CN110543877A (en) Identification recognition method, training method and device of model thereof and electronic system
CN113409372B (en) Image registration method, related device, equipment and storage medium
CN110110798B (en) Mask-RCNN (Richardson network) -based weld joint identification method, device, equipment and readable storage medium
JP2018045691A (en) Image viewpoint conversion device and method
US9256792B2 (en) Image processing apparatus, image processing method, and program
JP6031819B2 (en) Image processing apparatus and image processing method
CN112101373A (en) Object detection method and device based on deep learning network and electronic equipment
CN110827301B (en) Method and apparatus for processing image
CN115937003A (en) Image processing method, image processing device, terminal equipment and readable storage medium
CN112991349A (en) Image processing method, device, equipment and storage medium
CN112287905A (en) Vehicle damage identification method, device, equipment and storage medium
CN113344002B (en) Target coordinate duplication eliminating method and system, electronic equipment and readable storage medium
JP2020038572A (en) Image learning program, image learning method, image recognition program, image recognition method, creation program for learning data set, creation method for learning data set, learning data set, and image recognition device
WO2021117363A1 (en) Object detection method and object detection device
JP7360303B2 (en) Image processing device and image processing method
KR20220144456A (en) Method and system for recognizing a driving enviroment in proximity based on the svm original image
JP2022546880A (en) Object association method and device, system, electronic device, storage medium and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210323

R150 Certificate of patent or registration of utility model

Ref document number: 6858101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150