JP2019175107A - Recognition device, recognition method, program, and data generation device - Google Patents

Recognition device, recognition method, program, and data generation device Download PDF

Info

Publication number
JP2019175107A
JP2019175107A JP2018062205A JP2018062205A JP2019175107A JP 2019175107 A JP2019175107 A JP 2019175107A JP 2018062205 A JP2018062205 A JP 2018062205A JP 2018062205 A JP2018062205 A JP 2018062205A JP 2019175107 A JP2019175107 A JP 2019175107A
Authority
JP
Japan
Prior art keywords
information
reduced
luminance information
data generation
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018062205A
Other languages
Japanese (ja)
Other versions
JP7119493B2 (en
Inventor
孝光 渡辺
Takamitsu Watanabe
孝光 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018062205A priority Critical patent/JP7119493B2/en
Publication of JP2019175107A publication Critical patent/JP2019175107A/en
Application granted granted Critical
Publication of JP7119493B2 publication Critical patent/JP7119493B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a technology capable of executing robust discrimination against climate while reducing computation amounts required to discrimination based on a photographed image.SOLUTION: Provided is a recognition device, and that comprises: an image acquisition section for acquiring a photographed image captured by a camera; a data generation section for generating reduced high frequency information by extracting and reducing high frequency components based on first luminance information of the photographed image; and a discriminator for performing prescribed discrimination based on the reduced high frequency information.SELECTED DRAWING: Figure 1

Description

本発明は、認識装置、認識方法、プログラムおよびデータ生成装置に関する。   The present invention relates to a recognition device, a recognition method, a program, and a data generation device.

近年、カメラによって撮像された撮像画像に基づいて各種の識別を行う技術が知られている。例えば、撮像画像に基づいてナンバープレートの設置位置を特定し、特定した設置位置に基づいて、ナンバープレートに記載されている情報(例えば、マーク、文字列など)を認識する技術が開示されている(例えば、特許文献1参照)。   In recent years, techniques for performing various types of identification based on captured images captured by a camera are known. For example, a technology is disclosed in which the installation position of a license plate is specified based on a captured image and information (for example, a mark, a character string, etc.) described on the license plate is recognized based on the specified installation position. (For example, refer to Patent Document 1).

特開2007−299144号公報JP 2007-299144 A

識別器によって識別が行われる場合には、識別器に撮像画像の輝度情報そのものが入力される。しかし、撮像画像の輝度情報そのものが識別器に入力される場合には、識別に要する演算量が多くなりやすい。一例として、ディープラーニング(深層学習)による識別器が用いられる場合には、識別に要する演算量が特に多くなりやすい。さらに、カメラが屋外に設置される場合などには、天候によって識別精度が変化しやすい。一例として、悪天候時の撮像画像に基づいて識別がなされる場合には、識別精度が低下しやすい。   When the identification is performed by the classifier, the luminance information itself of the captured image is input to the classifier. However, when the luminance information itself of the captured image is input to the discriminator, the amount of calculation required for discrimination tends to increase. As an example, when a classifier based on deep learning (deep learning) is used, the amount of calculation required for identification tends to increase particularly. Further, when the camera is installed outdoors, the identification accuracy is likely to change depending on the weather. As an example, when identification is performed based on a captured image in bad weather, the identification accuracy is likely to decrease.

そこで、撮像画像に基づく識別に要する演算量を低減するとともに天候に対してロバストな識別を行うことを可能とする技術が提供されることが望まれる。   Therefore, it is desirable to provide a technique that can reduce the amount of calculation required for identification based on the captured image and can perform robust identification against the weather.

上記問題を解決するために、本発明のある観点によれば、カメラによって撮像された撮像画像を取得する画像取得部と、前記撮像画像の第1の輝度情報に基づいて高周波成分の抽出および縮小を行うことによって、縮小高周波情報を生成するデータ生成部と、前記縮小高周波情報に基づいて所定の識別を行う識別器と、を備える、認識装置が提供される。   In order to solve the above problem, according to an aspect of the present invention, an image acquisition unit that acquires a captured image captured by a camera, and extraction and reduction of a high-frequency component based on first luminance information of the captured image By performing the above, a recognition device is provided that includes a data generation unit that generates reduced high-frequency information and a discriminator that performs predetermined identification based on the reduced high-frequency information.

前記画像取得部は、車両が撮像された前記撮像画像を取得し、前記識別器は、前記縮小高周波情報に基づいて、前記車両に関する情報を識別してもよい。   The image acquisition unit may acquire the captured image obtained by capturing the vehicle, and the identifier may identify information related to the vehicle based on the reduced high-frequency information.

前記車両に関する情報は、前記車両のナンバープレート、前記車両の種別、前記車両の位置、および、前記縮小高周波情報に基づく認識結果のスコアの少なくともいずれか一つを含んでもよい。   The information related to the vehicle may include at least one of a license plate of the vehicle, a type of the vehicle, a position of the vehicle, and a score of a recognition result based on the reduced high frequency information.

前記識別器は、ニューラルネットワークを利用した識別器であってもよい。   The discriminator may be a discriminator using a neural network.

前記データ生成部は、前記第1の輝度情報から前記高周波成分を抽出して高周波情報を生成し、前記高周波情報を縮小して前記縮小高周波情報を生成してもよい。   The data generation unit may extract the high frequency component from the first luminance information to generate high frequency information, and reduce the high frequency information to generate the reduced high frequency information.

前記データ生成部は、前記高周波情報からブロックごとの代表値を抽出し、前記ブロックごとの代表値を配置することによって前記縮小高周波情報を生成してもよい。   The data generation unit may generate the reduced high-frequency information by extracting a representative value for each block from the high-frequency information and arranging the representative value for each block.

前記代表値は、平均値、最大値、中間値、前記ブロックのあらかじめ定められた画素位置の値のいずれかであってもよい。   The representative value may be an average value, a maximum value, an intermediate value, or a value of a predetermined pixel position of the block.

前記高周波成分は、所定の閾値よりも高い周波数を有する成分であってもよい。   The high frequency component may be a component having a frequency higher than a predetermined threshold.

前記データ生成部は、所定のターゲットから検出される応答値に基づいて、前記所定の閾値を決定してもよい。   The data generation unit may determine the predetermined threshold based on a response value detected from a predetermined target.

前記データ生成部は、対象物の移動に合わせて、前記所定の閾値を変化させてもよい。   The data generation unit may change the predetermined threshold according to the movement of the object.

前記データ生成部は、前記第1の輝度情報と前記所定の閾値に対応する第1のフィルタサイズを有する第1のフィルタとに基づいて、前記第1の輝度情報から前記高周波成分が除かれた第2の輝度情報を生成し、前記第1の輝度情報と前記第2の輝度情報との差分に基づいて、前記高周波情報を生成してもよい。   The data generation unit removes the high frequency component from the first luminance information based on the first luminance information and a first filter having a first filter size corresponding to the predetermined threshold. Second luminance information may be generated, and the high frequency information may be generated based on a difference between the first luminance information and the second luminance information.

前記データ生成部は、前記第1の輝度情報の縮小を行うことによって第1の縮小輝度情報を生成し、前記識別器は、前記縮小高周波情報と前記第1の縮小輝度情報とに基づいて前記所定の識別を行ってもよい。   The data generation unit generates first reduced luminance information by reducing the first luminance information, and the discriminator generates the first reduced luminance information based on the reduced high frequency information and the first reduced luminance information. Predetermined identification may be performed.

前記データ生成部は、前記第1の輝度情報に基づいて前記高周波成分よりも低い周波数成分の抽出および縮小を行うことによって縮小低周波情報を生成し、前記識別器は、前記縮小高周波情報と前記縮小低周波情報とに基づいて前記所定の識別を行ってもよい。   The data generation unit generates reduced low frequency information by extracting and reducing a frequency component lower than the high frequency component based on the first luminance information, and the discriminator includes the reduced high frequency information and the reduced frequency information. The predetermined identification may be performed based on the reduced low frequency information.

前記データ生成部は、前記第2の輝度情報を縮小して第2の縮小輝度情報を生成し、前記第2の縮小輝度情報と前記第1のフィルタとに基づいて、第3の縮小輝度情報を生成し、前記第2の縮小輝度情報と前記第3の縮小輝度情報との差分に基づいて、前記縮小低周波情報を生成してもよい。   The data generation unit reduces the second luminance information to generate second reduced luminance information, and generates third reduced luminance information based on the second reduced luminance information and the first filter. And the reduced low-frequency information may be generated based on a difference between the second reduced luminance information and the third reduced luminance information.

前記データ生成部は、前記第1の輝度情報または前記第2の輝度情報と前記第1のフィルタとは異なる第2のフィルタとに基づいて、第3の輝度情報を生成し、前記第2の輝度情報と前記第3の輝度情報との差分に基づいて、低周波情報を生成し、前記低周波情報を縮小して前記縮小低周波情報を生成してもよい。   The data generation unit generates third luminance information based on the first luminance information or the second luminance information and a second filter different from the first filter, and the second luminance information Low frequency information may be generated based on a difference between luminance information and the third luminance information, and the reduced low frequency information may be generated by reducing the low frequency information.

また、本発明の別の観点によれば、カメラによって撮像された撮像画像を取得することと、前記撮像画像の第1の輝度情報に基づいて高周波成分の抽出および縮小を行うことによって、縮小高周波情報を生成することと、前記縮小高周波情報に基づいて所定の識別を行うことと、を備える、認識方法が提供される。   According to another aspect of the present invention, a reduced high frequency signal is obtained by acquiring a captured image captured by a camera and extracting and reducing a high frequency component based on first luminance information of the captured image. A recognition method is provided that includes generating information and performing predetermined identification based on the reduced high-frequency information.

また、本発明の別の観点によれば、コンピュータを、カメラによって撮像された撮像画像を取得する画像取得部と、前記撮像画像の第1の輝度情報に基づいて高周波成分の抽出および縮小を行うことによって、縮小高周波情報を生成するデータ生成部と、前記縮小高周波情報に基づいて所定の識別を行う識別器と、を備える、認識装置として機能させるためのプログラムが提供される。   According to another aspect of the present invention, the computer performs extraction and reduction of a high-frequency component based on an image acquisition unit that acquires a captured image captured by a camera and first luminance information of the captured image. Thus, a program for functioning as a recognition device is provided, which includes a data generation unit that generates reduced high-frequency information and an identifier that performs predetermined identification based on the reduced high-frequency information.

また、本発明の別の観点によれば、カメラによって撮像された撮像画像を取得する画像取得部と、前記撮像画像の第1の輝度情報に基づいて高周波成分の抽出および縮小を行うことによって、縮小高周波情報を生成し、前記縮小高周波情報を識別器に出力するデータ生成部と、を備える、データ生成装置が提供される。   According to another aspect of the present invention, an image acquisition unit that acquires a captured image captured by a camera, and extraction and reduction of high-frequency components based on first luminance information of the captured image, There is provided a data generation device comprising: a data generation unit that generates reduced high-frequency information and outputs the reduced high-frequency information to a discriminator.

以上説明したように本発明によれば、撮像画像に基づく識別に要する演算量を低減するとともに天候に対してロバストな識別を行うことを可能とする技術が提供される。   As described above, according to the present invention, there is provided a technique capable of reducing the amount of calculation required for identification based on a captured image and performing robust identification against the weather.

本発明の実施形態に係る認識システムの構成例を示す図である。It is a figure which shows the structural example of the recognition system which concerns on embodiment of this invention. 輝度情報および縮小情報の例を示す図である。It is a figure which shows the example of luminance information and reduction | decrease information. 本発明の第1の実施形態に係る認識装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the recognition apparatus which concerns on the 1st Embodiment of this invention. フィルタサイズの例を説明するための図である。It is a figure for demonstrating the example of a filter size. 同実施形態に係るデータ生成部の動作例を説明するための図である。It is a figure for demonstrating the operation example of the data generation part which concerns on the same embodiment. 本発明の第2の実施形態に係る認識装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the recognition apparatus which concerns on the 2nd Embodiment of this invention. 同実施形態に係るデータ生成部の動作例を説明するための図である。It is a figure for demonstrating the operation example of the data generation part which concerns on the same embodiment. 本発明の第3の実施形態に係る認識装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the recognition apparatus which concerns on the 3rd Embodiment of this invention. 同実施形態に係るデータ生成部の動作例を説明するための図である。It is a figure for demonstrating the operation example of the data generation part which concerns on the same embodiment. 本発明の各実施形態に係る認識装置の例としての情報処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the information processing apparatus as an example of the recognition apparatus which concerns on each embodiment of this invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。   In the present specification and drawings, a plurality of constituent elements having substantially the same functional configuration may be distinguished by attaching different numerals to the same reference numerals. However, when there is no need to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given. In addition, similar components in different embodiments may be distinguished by attaching different alphabets after the same reference numerals. However, in the case where it is not necessary to particularly distinguish each of similar components of different embodiments, only the same reference numerals are given.

(0.概要)
図1は、本発明の実施形態に係る認識システムの構成例を示す図である。図1に示されるように、本発明の実施形態に係る認識システム1は、認識装置10とカメラ20とを有する。カメラ20は、道路平面P1を走行する車両の前面または背面を撮像可能な位置に設けられている。カメラ20は、イメージセンサを含んで構成されており、イメージセンサによって撮像範囲を撮像する。カメラ20の種類は特に限定されない。例えば、カメラ20は、可視光カメラであってもよいし、赤外光カメラであってもよい。
(0. Overview)
FIG. 1 is a diagram illustrating a configuration example of a recognition system according to an embodiment of the present invention. As shown in FIG. 1, the recognition system 1 according to the embodiment of the present invention includes a recognition device 10 and a camera 20. The camera 20 is provided at a position where the front or back of the vehicle traveling on the road plane P1 can be imaged. The camera 20 is configured to include an image sensor, and images an imaging range by the image sensor. The type of camera 20 is not particularly limited. For example, the camera 20 may be a visible light camera or an infrared light camera.

図1には、カメラ20の撮像領域A1が示されており、撮像領域A1において、(紙面の左から右に向かって走行する)車両V1および車両V2の背面がカメラ20によって撮像される。一方、撮像領域A1において、(紙面の右から左に向かって走行する)車両V3の前面がカメラ20によって撮像される。しかし、カメラ20によって撮像される対象物は、車両に限定されない。例えば、カメラ20によって撮像される対象物は、人物の全身または一部(顔など)であってもよいし、車両以外の動物体(例えば、乗り物など)であってもよい。   FIG. 1 shows an imaging area A1 of the camera 20, and in the imaging area A1, the rear surfaces of the vehicle V1 and the vehicle V2 (running from the left to the right of the page) are imaged by the camera 20. On the other hand, in the imaging region A1, the front surface of the vehicle V3 (running from the right to the left of the page) is imaged by the camera 20. However, the object imaged by the camera 20 is not limited to a vehicle. For example, the object imaged by the camera 20 may be the whole body or part of a person (such as a face), or may be an animal body (such as a vehicle) other than a vehicle.

認識装置10は、カメラ20と接続されており、カメラ20によって撮像された撮像画像を取得する。そして、撮像画像に基づいて識別器によって所定の識別を行う。識別器によって行われる識別の種類は、後に説明するように特に限定されない。しかし、本発明の実施形態では、カメラ20によって対象物の例として車両が撮像される場合を想定する。そのため、本発明の実施形態では、識別器が、撮像画像に基づいて車両に関する情報(例えば、車両のナンバープレートなど)を識別する。   The recognition device 10 is connected to the camera 20 and acquires a captured image captured by the camera 20. Then, predetermined discrimination is performed by a discriminator based on the captured image. The type of identification performed by the classifier is not particularly limited as will be described later. However, in the embodiment of the present invention, it is assumed that the camera 20 images a vehicle as an example of the object. Therefore, in the embodiment of the present invention, the classifier identifies information related to the vehicle (for example, a license plate of the vehicle) based on the captured image.

近年では、カメラ20によって撮像された撮像画像に基づいて各種の識別を行う技術が知られている。例えば、撮像画像に基づいてナンバープレートの設置位置を特定し、特定した設置位置に基づいて、ナンバープレートに記載されている情報(例えば、マーク、文字列など)を認識する技術が開示されている。   In recent years, techniques for performing various types of identification based on captured images captured by the camera 20 are known. For example, a technology is disclosed in which the installation position of a license plate is specified based on a captured image and information (for example, a mark, a character string, etc.) described on the license plate is recognized based on the specified installation position. .

識別器によって識別が行われる場合には、識別器に撮像画像の輝度情報そのものが入力される。しかし、撮像画像の輝度情報そのものが識別器に入力される場合には、識別に要する演算量が多くなりやすい。一例として、ディープラーニング(深層学習)による識別器が用いられる場合には、識別に要する演算量が特に多くなりやすい。さらに、カメラ20が屋外に設置される場合などには、天候によって識別精度が変化しやすい。一例として、悪天候時の撮像画像に基づいて識別がなされる場合には、識別精度が低下しやすい。   When the identification is performed by the classifier, the luminance information itself of the captured image is input to the classifier. However, when the luminance information itself of the captured image is input to the discriminator, the amount of calculation required for discrimination tends to increase. As an example, when a classifier based on deep learning (deep learning) is used, the amount of calculation required for identification tends to increase particularly. Furthermore, when the camera 20 is installed outdoors, the identification accuracy is likely to change depending on the weather. As an example, when identification is performed based on a captured image in bad weather, the identification accuracy is likely to decrease.

そこで、本発明の実施形態では、撮像画像に基づく識別に要する演算量を低減するとともに天候に対してロバストな識別を行うことを可能とする技術について主に説明する。ここで、撮像画像の輝度情報を縮小して、縮小された輝度情報(縮小情報)を識別器に入力することも想定される。   Therefore, in the embodiment of the present invention, a technique that reduces the amount of calculation required for identification based on a captured image and makes it possible to perform robust identification against the weather will be mainly described. Here, it is also assumed that the luminance information of the captured image is reduced and the reduced luminance information (reduction information) is input to the discriminator.

図2は、図2を参照すると、輝度情報IMG−11が示され、輝度情報IMG−輝度情報および縮小情報の例を示す図である。11の縮小によって得られる縮小輝度情報IMG−12が示されている。図2に示されるように、輝度情報IMG−11そのものではなく、縮小輝度情報IMG−12が識別器に入力される場合には、識別に要する演算量は低減されることが想定される。しかし、縮小輝度情報IMG−12が識別器に入力される場合には、輝度情報IMG−11の縮小時に高周波成分が失われてしまうため、識別精度が低下してしまう。   FIG. 2 is a diagram illustrating luminance information IMG-11, which is an example of luminance information IMG-luminance information and reduction information, with reference to FIG. 11 shows reduced luminance information IMG-12 obtained by the reduction of 11. As shown in FIG. 2, when the reduced luminance information IMG-12 is input to the discriminator instead of the luminance information IMG-11 itself, it is assumed that the amount of calculation required for the discrimination is reduced. However, when the reduced luminance information IMG-12 is input to the discriminator, the high-frequency component is lost when the luminance information IMG-11 is reduced, so that the identification accuracy is lowered.

本発明の実施形態では、認識装置10は、撮像画像から高周波成分を抽出し、高周波成分に基づいて識別を行う。これによって、識別に要する演算量は低減されるとともに、高周波成分が失われてしまうことも防ぐことができるため、識別精度の低下も防ぐことができる。さらに、高周波成分の抽出によって、悪天候による影響(例えば、雨粒などの外乱など)が除去されるため、天候に対してロバストな識別を行うことが可能となる。   In the embodiment of the present invention, the recognition apparatus 10 extracts a high frequency component from the captured image and performs identification based on the high frequency component. As a result, the amount of calculation required for identification can be reduced, and loss of high-frequency components can be prevented, so that degradation of identification accuracy can also be prevented. Furthermore, since the influence of bad weather (for example, disturbances such as raindrops) is removed by extracting high-frequency components, it becomes possible to perform robust identification with respect to the weather.

また、撮像領域A1には、カメラ20のピントが合っている領域(図1における「合焦」)と、カメラ20のピントが合っていない領域(図1における「ピンぼけ」)とが存在し得る。ピントが合っている領域には、高周波成分が多くなりやすく、ピントが合っていない領域には、低周波成分が多くなりやすい。本発明の実施形態では、認識装置10が、撮像画像から高周波成分を抽出し、高周波成分に基づいて識別を行うため、ピントが合っている領域に存在する車両に関する識別精度が向上することが期待される。   Further, the imaging area A1 may include an area where the camera 20 is in focus (“focus” in FIG. 1) and an area where the camera 20 is not in focus (“defocus” in FIG. 1). . A high-frequency component tends to increase in an in-focus area, and a low-frequency component tends to increase in an out-of-focus area. In the embodiment of the present invention, since the recognition device 10 extracts a high-frequency component from the captured image and performs identification based on the high-frequency component, it is expected that the identification accuracy regarding the vehicle existing in the focused area is improved. Is done.

以上、本発明の実施形態の概要について説明した。   The outline of the embodiment of the present invention has been described above.

(1.第1の実施形態)
続いて、本発明の第1の実施形態について説明する。
(1. First embodiment)
Subsequently, a first embodiment of the present invention will be described.

図3は、本発明の第1の実施形態に係る認識装置の機能構成例を示すブロック図である。図3に示されるように、本発明の第1の実施形態に係る認識装置10Aは、生成器100Aおよび識別器160を備える。   FIG. 3 is a block diagram illustrating a functional configuration example of the recognition device according to the first embodiment of the present invention. As shown in FIG. 3, the recognition apparatus 10A according to the first embodiment of the present invention includes a generator 100A and a discriminator 160.

生成器100Aおよび識別器160は、CPU(Central Processing Unit)などを含み、図示しない記憶部により記憶されているプログラムがCPUによりRAM(Random Access Memory)に展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、生成器100Aおよび識別器160は、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。   The generator 100A and the identifier 160 include a CPU (Central Processing Unit) and the like, and a function stored in the RAM (Random Access Memory) is executed by the CPU stored in a storage unit (not shown). Can be realized. At this time, a computer-readable recording medium that records the program can also be provided. Alternatively, the generator 100A and the identifier 160 may be configured by dedicated hardware, or may be configured by a combination of a plurality of hardware.

生成器100Aは、データ生成装置として機能し得る。生成器100Aは、画像取得部110およびデータ生成部120Aを備える。   The generator 100A can function as a data generation device. The generator 100A includes an image acquisition unit 110 and a data generation unit 120A.

画像取得部110は、カメラ20によって撮像された撮像画像を取得する。ここでは、画像取得部110が、車両が撮像された撮像画像を取得する場合を想定する。データ生成部120Aは、撮像画像の輝度情報(第1の輝度情報)に基づいて高周波成分の抽出および縮小を行うことによって、縮小高周波情報IMG−15を生成する。識別器160は、縮小高周波情報IMG−15に基づいて所定の識別を行う。ここでは、識別器160は、縮小高周波情報に基づいて、車両に関する情報を識別する場合を想定する。   The image acquisition unit 110 acquires a captured image captured by the camera 20. Here, it is assumed that the image acquisition unit 110 acquires a captured image obtained by capturing the vehicle. The data generation unit 120A generates reduced high-frequency information IMG-15 by extracting and reducing high-frequency components based on the luminance information (first luminance information) of the captured image. The discriminator 160 performs predetermined discrimination based on the reduced high-frequency information IMG-15. Here, it is assumed that the identifier 160 identifies information related to the vehicle based on the reduced high-frequency information.

図3に示された例では、識別器160が、車両に関する情報の例として、車両の種別(車種)を識別する場合が想定されている(車種が「自動車」であるか「自動二輪車」であるか「その他」であるかを識別する場合が示されている)。しかし、車両に関する情報は特に限定されない。例えば、車両に関する情報の例として、車両のナンバープレート(例えば、ナンバープレートに記載されている文字列、ナンバープレートの位置など)が識別されてもよいし、車両の位置が識別されてもよいし、縮小高周波情報IMG−15に基づく認識結果のスコア(車種またはナンバープレートの識別がどの程度しやすいかを示すスコアなど)が識別されてもよい。   In the example shown in FIG. 3, it is assumed that the identifier 160 identifies the type of vehicle (vehicle type) as an example of information about the vehicle (the vehicle type is “automobile” or “motorcycle”). The case of identifying whether it is “other” or “other”). However, the information regarding the vehicle is not particularly limited. For example, as an example of information about the vehicle, a license plate of the vehicle (for example, a character string described in the license plate, a position of the license plate, etc.) may be identified, or a position of the vehicle may be identified. The score of the recognition result based on the reduced high-frequency information IMG-15 (such as a score indicating how easy the vehicle type or license plate can be identified) may be identified.

また、識別器160は、機械学習によって生成されてよく、例えば、ニューラルネットワークを利用した識別器であってよい。   The classifier 160 may be generated by machine learning, and may be a classifier using a neural network, for example.

図3に示された例では、識別器160が、畳み込み層161−1、プーリング層161−2、畳み込み層161−3、プーリング層161−4、・・・、プーリング層161−5、全結合162−1〜162−Nを含んでいる。すなわち、識別器160がCNN(Convolutional Neural Network)によって構成されている。しかし、識別器160は、畳み込み層およびプーリング層を有していないニューラルネットワークによって構成されてもよい。さらに、図3に示された例では、識別器160が、多段の全結合によって構成されるネットワーク(ディープラーニング)によって構成されている。しかし、全結合は多段に構成されていなくてもよい。   In the example shown in FIG. 3, the discriminator 160 includes a convolution layer 161-1, a pooling layer 161-2, a convolution layer 161-3, a pooling layer 161-4,. 162-1 to 162-N. In other words, the discriminator 160 is configured by a CNN (Convolutional Neural Network). However, the discriminator 160 may be configured by a neural network that does not have a convolution layer and a pooling layer. Further, in the example shown in FIG. 3, the discriminator 160 is configured by a network (deep learning) configured by multi-stage full coupling. However, the total coupling does not have to be configured in multiple stages.

以下では、データ生成部120Aによるデータ生成について主に説明する。具体的に、データ生成部120Aは、撮像画像の輝度情報(第1の輝度情報)から高周波成分を抽出して高周波情報を生成する。そして、データ生成部120Aは、高周波情報を縮小して縮小高周波情報を生成する。このとき、高周波成分は、所定の閾値よりも高い周波数を有する成分であってよい。   Hereinafter, data generation by the data generation unit 120A will be mainly described. Specifically, the data generation unit 120A generates high-frequency information by extracting a high-frequency component from the luminance information (first luminance information) of the captured image. Then, the data generation unit 120A generates reduced high-frequency information by reducing high-frequency information. At this time, the high frequency component may be a component having a frequency higher than a predetermined threshold.

高周波成分の抽出には、どのような手法が用いられてもよい。例えば、以下では、データ生成部120Aが、DoG(Difference of Gaussian)フィルタを用いて、撮像画像の輝度情報(第1の輝度情報)から高周波成分を抽出する例を主に説明する。しかし、データ生成部120Aは、FFT(fast Fourier transform)を用いて、撮像画像の輝度情報(第1の輝度情報)から高周波成分を抽出してもよい。撮像画像の輝度情報(第1の輝度情報)に対してフィルタリングが行われる場合には、所定の閾値に対応するフィルタサイズが設定される。   Any method may be used to extract the high-frequency component. For example, an example in which the data generation unit 120A extracts a high-frequency component from luminance information (first luminance information) of a captured image using a DoG (Difference of Gaussian) filter will be mainly described below. However, the data generation unit 120A may extract a high-frequency component from the luminance information (first luminance information) of the captured image by using FFT (fast Fourier transform). When filtering is performed on the luminance information (first luminance information) of the captured image, a filter size corresponding to a predetermined threshold is set.

図4は、フィルタサイズの例を説明するための図である。図4を参照すると、ナンバープレートN1が示されており、ナンバープレートN1には、文字列が記載されている。線幅W1は、ナンバープレートN1に記載されている文字の幅を示している。また、図4を参照すると、フィルタサイズW2(フィルタにおいて用いられるカーネル関数の1周期W2に相当)が示されている。ナンバープレートN1に記載された文字列を抽出するためには、フィルタサイズW2が、線幅W1の2倍程度(例えば、線幅W1の2〜3倍)に設定されるのが望ましい。以下では、このようにして所定の閾値に対応するフィルタサイズ(第1のフィルタサイズ)が設定されたフィルタ(第1のフィルタ)が用いられる。   FIG. 4 is a diagram for explaining an example of the filter size. Referring to FIG. 4, a license plate N1 is shown, and a character string is written on the license plate N1. The line width W1 indicates the width of characters written on the license plate N1. FIG. 4 shows a filter size W2 (corresponding to one cycle W2 of a kernel function used in the filter). In order to extract the character string written on the license plate N1, it is desirable that the filter size W2 is set to about twice the line width W1 (for example, 2 to 3 times the line width W1). Hereinafter, the filter (first filter) in which the filter size (first filter size) corresponding to the predetermined threshold is set in this way is used.

図5は、本発明の第1の実施形態に係るデータ生成部120Aの動作例を説明するための図である。図5を参照すると、撮像画像の輝度情報IMG−11(第1の輝度情報)が示されている。ここで、フィルタ(第1のフィルタ)は、鮮鋭度を低下させる機能(ボケ度合いを強くする機能)を有している(すなわち、高周波成分を除く機能を有している)。そこで、データ生成部120Aは、輝度情報IMG−11とフィルタ(第1のフィルタ)とに基づいて、輝度情報IMG−1から高周波成分が除かれた輝度情報IMG−13(第2の輝度情報)を生成する。   FIG. 5 is a diagram for explaining an operation example of the data generation unit 120A according to the first embodiment of the present invention. Referring to FIG. 5, luminance information IMG-11 (first luminance information) of the captured image is shown. Here, the filter (first filter) has a function of reducing sharpness (function of increasing the degree of blur) (that is, a function of removing high-frequency components). Therefore, the data generation unit 120A, based on the luminance information IMG-11 and the filter (first filter), the luminance information IMG-13 (second luminance information) obtained by removing high frequency components from the luminance information IMG-1. Is generated.

そして、データ生成部120Aは、輝度情報IMG−11と輝度情報IMG−13との差分に基づいて、高周波情報IMG−14を生成する。より具体的に、データ生成部120Aは、輝度情報IMG−11から輝度情報IMG−13を画素ごとに減算することによって、高周波情報IMG−14を生成する。高周波情報IMG−14には、高周波成分のみが含まれている。そして、データ生成部120Aは、高周波情報IMG−14を縮小することによって、縮小高周波情報IMG−15を生成する。   Then, the data generation unit 120A generates the high frequency information IMG-14 based on the difference between the luminance information IMG-11 and the luminance information IMG-13. More specifically, the data generation unit 120A generates the high frequency information IMG-14 by subtracting the luminance information IMG-13 from the luminance information IMG-11 for each pixel. The high frequency information IMG-14 contains only high frequency components. Then, the data generation unit 120A generates reduced high-frequency information IMG-15 by reducing the high-frequency information IMG-14.

縮小高周波情報IMG−15には、高周波成分の例として車両の輪郭線が残っている。一方、縮小高周波情報IMG−15からは、その他の成分の例として悪天候による影響(例えば、雨粒などの外乱など)がほとんど除去されている。   In the reduced high-frequency information IMG-15, the outline of the vehicle remains as an example of the high-frequency component. On the other hand, from the reduced high-frequency information IMG-15, the influence of bad weather (for example, disturbance such as raindrops) is almost removed as an example of other components.

ここで、高周波情報IMG−14を縮小する手法は特に限定されない。例えば、データ生成部120Aは、高周波情報IMG−14からブロックごとの代表値を抽出し、ブロックごとの代表値を配置することによって縮小高周波情報を生成する。代表値も特に限定されない。例えば、データ生成部120Aは、高周波情報IMG−14からブロックごとの平均値を代表値の例として算出してもよい。あるいは、データ生成部120Aは、高周波情報IMG−14からブロックごとの最大値を代表値の例として抽出してもよい。   Here, the method for reducing the high-frequency information IMG-14 is not particularly limited. For example, the data generation unit 120A extracts the representative value for each block from the high frequency information IMG-14, and generates the reduced high frequency information by arranging the representative value for each block. The representative value is not particularly limited. For example, the data generation unit 120A may calculate an average value for each block as an example of the representative value from the high frequency information IMG-14. Alternatively, the data generation unit 120A may extract the maximum value for each block as an example of the representative value from the high frequency information IMG-14.

あるいは、データ生成部120Aは、高周波情報IMG−14からブロックごとの中間値を代表値の例として抽出してもよい。あるいは、データ生成部120Aは、ブロックのあらかじめ定められた画素位置の値(例えば、各ブロックが縦横n画素の矩形領域によって構成される場合に、縦横n画素の矩形領域の左上の画素位置の値など)を代表値の例として抽出してもよい。このようにして生成された縮小高周波情報IMG−15は、識別器160に入力される。   Alternatively, the data generation unit 120A may extract an intermediate value for each block as an example of the representative value from the high frequency information IMG-14. Alternatively, the data generation unit 120A may determine the value of a predetermined pixel position of the block (for example, the value of the pixel position at the upper left of the rectangular area of n pixels vertically and horizontally when each block is configured by a rectangular area of n pixels vertically and horizontally) Etc.) may be extracted as an example of the representative value. The reduced high-frequency information IMG-15 generated in this way is input to the discriminator 160.

上記では、データ生成部120Aが、高周波成分の抽出のための閾値(所定の閾値)として同じ閾値を利用する場合を主に想定した。しかし、データ生成部120Aは、高周波成分の抽出のための閾値(所定の閾値)を対象物(車両)の移動に合わせて変化させてもよい。   In the above description, it is mainly assumed that the data generation unit 120A uses the same threshold value as a threshold value (predetermined threshold value) for extracting high-frequency components. However, the data generation unit 120A may change the threshold value (predetermined threshold value) for extracting the high frequency component in accordance with the movement of the object (vehicle).

例えば、図1を参照しながら説明したように、ピントが合っている領域(車両の移動方向における中央領域)には、高周波成分が多くなりやすく、ピントが合っていない領域(車両の移動方向における中央領域の両側領域)には、低周波成分が多くなりやすい。そこで、データ生成部120Aは、ピントが合っている領域において利用される閾値を、ピントが合っていない領域において利用される閾値よりも高くしてもよい。そうすれば、車両に関する識別精度がより向上することが期待される。   For example, as described with reference to FIG. 1, the high-frequency component tends to increase in the focused area (the central area in the moving direction of the vehicle), and the out-of-focus area (in the moving direction of the vehicle) Low frequency components tend to increase in both sides of the central area. Therefore, the data generation unit 120A may set the threshold used in the in-focus area higher than the threshold used in the out-of-focus area. By doing so, it is expected that the identification accuracy regarding the vehicle is further improved.

また、データ生成部120Aは、高周波成分の抽出のための閾値(所定の閾値)を状況に応じて決定してもよい。例えば、データ生成部120Aは、所定のターゲットから検出される応答値に基づいて、所定の閾値を決定してもよい。ターゲットは特に限定されないが、識別器160によって車両のナンバープレートの識別が行われる場合には、道路平面P1を走行する車両のナンバープレートであってよい。   In addition, the data generation unit 120A may determine a threshold (predetermined threshold) for extracting a high-frequency component according to the situation. For example, the data generation unit 120A may determine a predetermined threshold based on a response value detected from a predetermined target. The target is not particularly limited, but may be the license plate of the vehicle traveling on the road plane P1 when the discriminator 160 identifies the license plate of the vehicle.

例えば、データ生成部120Aは、閾値を変化させながら(すなわち、フィルタサイズを変化させながら)、上記したような手法によってターゲットの高周波情報を生成する。そして、データ生成部120Aは、高周波情報の絶対値の画素ごとの合計結果を応答値として算出し、最も大きな応答値が得られる閾値を、識別に利用する所定の閾値として決定してもよい(最も大きな応答値が得られるフィルタサイズを、識別に利用するフィルタサイズとして決定してもよい)。   For example, the data generation unit 120A generates the high frequency information of the target by the above-described method while changing the threshold value (that is, changing the filter size). Then, the data generation unit 120A may calculate a total result for each pixel of the absolute value of the high-frequency information as a response value, and determine a threshold value that provides the largest response value as a predetermined threshold value used for identification ( The filter size that provides the largest response value may be determined as the filter size used for identification).

以上に説明したように、本発明の第1の実施形態によれば、認識装置10Aは、撮像画像から高周波成分を抽出し、高周波成分に基づいて識別を行う。これによって、識別に要する演算量は低減されるとともに、高周波成分が失われてしまうことも防ぐことができるため、識別精度の低下も防ぐことができる。さらに、高周波成分の抽出によって、悪天候による影響(例えば、雨粒などの外乱など)が除去されるため、天候に対してロバストな識別を行うことが可能となる。   As described above, according to the first embodiment of the present invention, the recognition apparatus 10A extracts a high-frequency component from a captured image and performs identification based on the high-frequency component. As a result, the amount of calculation required for identification can be reduced, and loss of high-frequency components can be prevented, so that degradation of identification accuracy can also be prevented. Furthermore, since the influence of bad weather (for example, disturbances such as raindrops) is removed by extracting high-frequency components, it becomes possible to perform robust identification with respect to the weather.

以上、本発明の第1の実施形態について説明した。   The first embodiment of the present invention has been described above.

(2.第2の実施形態)
続いて、本発明の第2の実施形態について説明する。
(2. Second Embodiment)
Subsequently, a second embodiment of the present invention will be described.

図6は、本発明の第2の実施形態に係る認識装置の機能構成例を示すブロック図である。図6に示されるように、本発明の第2の実施形態に係る認識装置10Bは、生成器100Bおよび識別器160を備える。生成器100Bは、画像取得部110およびデータ生成部120Bを備える。本発明の第2の実施形態に係る認識装置10Bは、データ生成部120Aの代わりに、データ生成部120Bを有する点において、本発明の第1の実施形態に係る認識装置10Aと主に異なる。したがって、以下では、データ生成部120Bについて主に説明し、他の構成についての詳細な説明は省略する。   FIG. 6 is a block diagram illustrating a functional configuration example of the recognition apparatus according to the second embodiment of the present invention. As shown in FIG. 6, the recognition device 10 </ b> B according to the second embodiment of the present invention includes a generator 100 </ b> B and a discriminator 160. The generator 100B includes an image acquisition unit 110 and a data generation unit 120B. The recognition apparatus 10B according to the second embodiment of the present invention is mainly different from the recognition apparatus 10A according to the first embodiment of the present invention in that it includes a data generation unit 120B instead of the data generation unit 120A. Therefore, in the following, the data generation unit 120B will be mainly described, and detailed description of other configurations will be omitted.

本発明の第2の実施形態において、データ生成部120Bは、縮小高周波情報IMG−15を生成するとともに、撮像画像の輝度情報(第1の輝度情報)の縮小を行うことによって縮小輝度情報IMG−12(第1の縮小輝度情報)を生成する。そして、図6に示されるように、データ生成部120Bから、縮小高周波情報IMG−15と縮小輝度情報IMG−12とが、対応する画素同士が関連付けられて(重ね合わせて)、識別器160に入力される。識別器160は、縮小高周波情報IMG−15と縮小輝度情報IMG−12とに基づいて所定の識別を行う。   In the second embodiment of the present invention, the data generation unit 120B generates the reduced high-frequency information IMG-15 and reduces the luminance information (first luminance information) of the captured image, thereby reducing the reduced luminance information IMG-. 12 (first reduced luminance information) is generated. Then, as illustrated in FIG. 6, the reduced high frequency information IMG-15 and the reduced luminance information IMG-12 are associated (superimposed) with the corresponding pixels of the reduced high frequency information IMG-15 and the reduced luminance information IMG-12 from the data generation unit 120B. Entered. The discriminator 160 performs predetermined discrimination based on the reduced high-frequency information IMG-15 and the reduced luminance information IMG-12.

図7は、本発明の第2の実施形態に係るデータ生成部120Bの動作例を説明するための図である。図7を参照すると、本発明の第1の実施形態と同様な手法によって、データ生成部120Bによって生成された縮小高周波情報IMG−15が示されている。さらに、データ生成部120Aは、撮像画像の輝度情報IMG−11(第1の輝度情報)を縮小することによって、縮小輝度情報IMG−12を生成する。輝度情報IMG−11を縮小する手法は、高周波情報IMG−14を縮小する手法と同様な手法であってよい。データ生成部120Bは、縮小高周波情報IMG−15と縮小輝度情報IMG−12とを識別器160に出力し、識別器160は、縮小高周波情報IMG−15と縮小輝度情報IMG−12とに基づいて所定の識別を行う。   FIG. 7 is a diagram for explaining an operation example of the data generation unit 120B according to the second embodiment of the present invention. Referring to FIG. 7, reduced high-frequency information IMG-15 generated by the data generation unit 120B is shown by the same method as that of the first embodiment of the present invention. Furthermore, the data generation unit 120A generates reduced luminance information IMG-12 by reducing the luminance information IMG-11 (first luminance information) of the captured image. The technique for reducing the luminance information IMG-11 may be the same technique as the technique for reducing the high-frequency information IMG-14. The data generation unit 120B outputs the reduced high-frequency information IMG-15 and the reduced luminance information IMG-12 to the discriminator 160, and the discriminator 160 is based on the reduced high-frequency information IMG-15 and the reduced luminance information IMG-12. Predetermined identification is performed.

以上に説明したように、本発明の第2の実施形態によれば、本発明の第1の実施形態と同様に、識別に要する演算量を低減するとともに、天候に対してロバストな識別を行うことが可能となる。さらに、ナンバープレートの識別のように色情報がなくても識別が可能である場面においては、輝度情報が識別に用いられなくてよいが、色情報が識別に必要な場面もあり得る。本発明の第2の実施形態によれば、高周波情報とともに輝度情報も識別に用いて、より高精度な識別を行うことが可能となる。このとき、データ生成部120Bは、対象物の色情報に基づいて、高周波情報とともに輝度情報も識別に利用するか否かを決めてもよい。   As described above, according to the second embodiment of the present invention, as in the first embodiment of the present invention, the amount of calculation required for identification is reduced, and robust identification against weather is performed. It becomes possible. Further, in a scene where identification is possible without color information, such as identification of a license plate, luminance information may not be used for identification, but there may be a scene where color information is necessary for identification. According to the second embodiment of the present invention, it is possible to perform identification with higher accuracy by using luminance information together with high-frequency information for identification. At this time, the data generation unit 120B may determine whether to use the luminance information together with the high frequency information for identification based on the color information of the object.

(3.第3の実施形態)
続いて、本発明の第3の実施形態について説明する。
(3. Third embodiment)
Subsequently, a third embodiment of the present invention will be described.

図8は、本発明の第3の実施形態に係る認識装置の機能構成例を示すブロック図である。図8に示されるように、本発明の第3の実施形態に係る認識装置10Cは、生成器100Cおよび識別器160を備える。生成器100Cは、画像取得部110およびデータ生成部120Cを備える。本発明の第3の実施形態に係る認識装置10Cは、データ生成部120Aの代わりに、データ生成部120Cを有する点において、本発明の第1の実施形態に係る認識装置10Aと主に異なる。したがって、以下では、データ生成部120Cについて主に説明し、他の構成についての詳細な説明は省略する。   FIG. 8 is a block diagram illustrating a functional configuration example of a recognition apparatus according to the third embodiment of the present invention. As shown in FIG. 8, a recognition apparatus 10C according to the third embodiment of the present invention includes a generator 100C and a discriminator 160. The generator 100C includes an image acquisition unit 110 and a data generation unit 120C. The recognition apparatus 10C according to the third embodiment of the present invention is mainly different from the recognition apparatus 10A according to the first embodiment of the present invention in that it includes a data generation unit 120C instead of the data generation unit 120A. Therefore, in the following, the data generation unit 120C will be mainly described, and detailed description of other configurations will be omitted.

本発明の第3の実施形態において、データ生成部120Cは、縮小高周波情報IMG−15を生成するとともに、撮像画像の輝度情報(第1の輝度情報)に基づいて高周波成分よりも低い周波数成分の抽出および縮小を行うことによって縮小低周波情報IMG−18を生成する。そして、図8に示されるように、データ生成部120Cから、縮小高周波情報IMG−15と縮小低周波情報IMG−18とが、対応する画素同士が関連付けられて(重ね合わせて)、識別器160に入力される。識別器160は、縮小高周波情報IMG−15と縮小低周波情報IMG−18とに基づいて所定の識別を行う。   In the third embodiment of the present invention, the data generation unit 120C generates the reduced high-frequency information IMG-15, and has a frequency component lower than the high-frequency component based on the luminance information (first luminance information) of the captured image. The reduced low frequency information IMG-18 is generated by performing extraction and reduction. Then, as shown in FIG. 8, the reduced high frequency information IMG-15 and the reduced low frequency information IMG-18 are associated with each other (superimposed) from the data generation unit 120C, and the discriminator 160 is overlapped. Is input. The discriminator 160 performs predetermined discrimination based on the reduced high frequency information IMG-15 and the reduced low frequency information IMG-18.

図9は、本発明の第3の実施形態に係るデータ生成部120Cの動作例を説明するための図である。図9を参照すると、本発明の第1の実施形態と同様な手法によって、データ生成部120Bによって生成された縮小高周波情報IMG−15が示されている。さらに、データ生成部120Cは、撮像画像の輝度情報IMG−11(第1の輝度情報)に基づいて高周波成分よりも低い周波数成分の抽出および縮小を行うことによって縮小低周波情報IMG−18を生成する。   FIG. 9 is a diagram for explaining an operation example of the data generation unit 120C according to the third embodiment of the present invention. Referring to FIG. 9, reduced high-frequency information IMG-15 generated by the data generation unit 120B is shown by the same method as in the first embodiment of the present invention. Furthermore, the data generation unit 120C generates reduced low-frequency information IMG-18 by extracting and reducing a frequency component lower than the high-frequency component based on the luminance information IMG-11 (first luminance information) of the captured image. To do.

ここでは、データ生成部120Cが、輝度情報IMG−13と、輝度情報IMG−13を生成するために利用したフィルタ(第1のフィルタ)とは異なるフィルタ(第2のフィルタ)とに基づいて、輝度情報IMG−16(第3の輝度情報)を生成する場合を想定する。そして、データ生成部120Cは、輝度情報IMG−13と輝度情報IMG−16との差分に基づいて(より具体的には、輝度情報IMG−13から輝度情報IMG−16を画素ごとに減算することによって)、低周波情報IMG−17を生成し、低周波情報IMG−17を縮小して縮小低周波情報IMG−18を生成する場合を想定する。低周波情報IMG−17を縮小する手法は、高周波情報IMG−14を縮小する手法と同様な手法であってよい。   Here, based on the luminance information IMG-13 and a filter (second filter) different from the filter (first filter) used to generate the luminance information IMG-13 by the data generation unit 120C, Assume that the luminance information IMG-16 (third luminance information) is generated. Then, the data generation unit 120C subtracts the luminance information IMG-16 for each pixel from the luminance information IMG-13 based on the difference between the luminance information IMG-13 and the luminance information IMG-16. ), The low frequency information IMG-17 is generated, and the low frequency information IMG-17 is reduced to generate the reduced low frequency information IMG-18. The technique for reducing the low frequency information IMG-17 may be the same technique as the technique for reducing the high frequency information IMG-14.

ここで、フィルタは、輝度情報IMG−13に対してではなく、輝度情報IMG−11に対して掛けられてもよい。すなわち、データ生成部120Cは、輝度情報IMG−11とフィルタ(第2のフィルタ)とに基づいて、輝度情報IMG−16(第3の輝度情報)を生成してもよい。あるいは、用意するフィルタの数を減らすために、輝度情報IMG−13を生成するために利用したフィルタ(第1のフィルタ)が再度利用されてもよい。   Here, the filter may be applied to the luminance information IMG-11 instead of the luminance information IMG-13. That is, the data generation unit 120C may generate the luminance information IMG-16 (third luminance information) based on the luminance information IMG-11 and the filter (second filter). Alternatively, in order to reduce the number of filters to be prepared, the filter (first filter) used for generating the luminance information IMG-13 may be used again.

すなわち、データ生成部120Cは、先に輝度情報IMG−13を縮小して縮小輝度情報(第2の縮小輝度情報)を生成してもよい。そして、データ生成部120Cは、縮小輝度情報(第2の縮小輝度情報)と輝度情報IMG−13を生成するために利用したフィルタ(第1のフィルタ)とに基づいて、縮小輝度情報(第3の縮小輝度情報)を生成してもよい。そして、データ生成部120Cは、縮小輝度情報(第2の縮小輝度情報)と縮小輝度情報(第3の縮小輝度情報)との差分に基づいて、縮小低周波情報を生成してもよい。   That is, the data generation unit 120C may reduce the luminance information IMG-13 first and generate reduced luminance information (second reduced luminance information). Then, the data generation unit 120C, based on the reduced luminance information (second reduced luminance information) and the filter (first filter) used to generate the luminance information IMG-13, the reduced luminance information (third (Reduced luminance information) may be generated. Then, the data generation unit 120C may generate reduced low-frequency information based on the difference between the reduced luminance information (second reduced luminance information) and the reduced luminance information (third reduced luminance information).

輝度情報IMG−13を縮小する手法は、高周波情報IMG−14を縮小する手法と同様な手法であってよい。縮小高周波情報IMG−18には、高周波成分の例として車両の輪郭線はほとんど残っていない。一方、縮小高周波情報IMG−18には、高周波成分よりも低い周波数成分の例として道路平面に描かれたラインが残されている。   The technique for reducing the luminance information IMG-13 may be the same technique as the technique for reducing the high-frequency information IMG-14. In the reduced high-frequency information IMG-18, almost no outline of the vehicle remains as an example of the high-frequency component. On the other hand, in the reduced high frequency information IMG-18, a line drawn on the road plane is left as an example of a frequency component lower than the high frequency component.

データ生成部120Cは、縮小高周波情報IMG−15と縮小低周波情報IMG−18とを識別器160に出力し、識別器160は、縮小高周波情報IMG−15と縮小低周波情報IMG−18とに基づいて所定の識別を行う。   The data generation unit 120C outputs the reduced high frequency information IMG-15 and the reduced low frequency information IMG-18 to the discriminator 160, and the discriminator 160 converts the reduced high frequency information IMG-15 and the reduced low frequency information IMG-18. Based on the predetermined identification.

以上に説明したように、本発明の第3の実施形態によれば、本発明の第1の実施形態と同様に、識別に要する演算量を低減するとともに、天候に対してロバストな識別を行うことが可能となる。さらに、対象物の周波数成分が高周波数成分だけとは限らず、高周波成分よりも低い周波数成分も有している可能性があり得る。本発明の第3の実施形態によれば、高周波情報とともに高周波成分よりも低い周波数成分も識別に用いて、より高精度な識別を行うことが可能となる。   As described above, according to the third embodiment of the present invention, as in the first embodiment of the present invention, the amount of calculation required for identification is reduced, and robust identification against the weather is performed. It becomes possible. Furthermore, the frequency component of the object is not limited to the high frequency component, and may have a frequency component lower than the high frequency component. According to the third embodiment of the present invention, it is possible to perform identification with higher accuracy by using the frequency component lower than the high frequency component together with the high frequency information for identification.

(4.ハードウェア構成例)
続いて、本発明の各実施形態に係る認識装置10のハードウェア構成例について説明する。以下では、本発明の各実施形態に係る認識装置10のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、認識装置10のハードウェア構成の一例に過ぎない。したがって、認識装置10のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。
(4. Hardware configuration example)
Next, a hardware configuration example of the recognition device 10 according to each embodiment of the present invention will be described. Below, the hardware structural example of the information processing apparatus 900 is demonstrated as a hardware structural example of the recognition apparatus 10 which concerns on each embodiment of this invention. Note that the hardware configuration example of the information processing apparatus 900 described below is merely an example of the hardware configuration of the recognition apparatus 10. Therefore, as for the hardware configuration of the recognition apparatus 10, an unnecessary configuration may be deleted from the hardware configuration of the information processing apparatus 900 described below, or a new configuration may be added.

図10は、本発明の各実施形態に係る認識装置10の例としての情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。   FIG. 10 is a diagram showing a hardware configuration of an information processing apparatus 900 as an example of the recognition apparatus 10 according to each embodiment of the present invention. The information processing apparatus 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, a host bus 904, a bridge 905, an external bus 906, an interface 907, , An input device 908, an output device 909, a storage device 910, and a communication device 911.

CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。   The CPU 901 functions as an arithmetic processing device and a control device, and controls the overall operation in the information processing device 900 according to various programs. Further, the CPU 901 may be a microprocessor. The ROM 902 stores programs used by the CPU 901, calculation parameters, and the like. The RAM 903 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 904 including a CPU bus or the like.

ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。   The host bus 904 is connected to an external bus 906 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 905. Note that the host bus 904, the bridge 905, and the external bus 906 are not necessarily configured separately, and these functions may be mounted on one bus.

入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作するユーザは、この入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。   The input device 908 includes an input means for inputting information such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and a lever, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 901. Etc. A user who operates the information processing apparatus 900 can input various data or instruct a processing operation to the information processing apparatus 900 by operating the input device 908.

出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。   The output device 909 includes, for example, a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, a display device such as a lamp, and an audio output device such as a speaker.

ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。   The storage device 910 is a device for storing data. The storage device 910 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 910 is configured with, for example, an HDD (Hard Disk Drive). The storage device 910 drives a hard disk and stores programs executed by the CPU 901 and various data.

通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。   The communication device 911 is a communication interface configured with, for example, a communication device for connecting to a network. Further, the communication device 911 may support either wireless communication or wired communication.

以上、本発明の各実施形態に係る認識装置10のハードウェア構成例について説明した。   Heretofore, the hardware configuration example of the recognition apparatus 10 according to each embodiment of the present invention has been described.

(5.まとめ)
以上に説明したように、本発明の実施形態によれば、カメラ20によって撮像された撮像画像を取得する画像取得部110と、撮像画像の第1の輝度情報に基づいて高周波成分の抽出および縮小を行うことによって、縮小高周波情報を生成するデータ生成部120と、縮小高周波情報に基づいて所定の識別を行う識別器160と、を備える、認識装置10が提供される。
(5. Summary)
As described above, according to the embodiment of the present invention, the image acquisition unit 110 that acquires a captured image captured by the camera 20 and the extraction and reduction of high-frequency components based on the first luminance information of the captured image. By performing the above, a recognition device 10 is provided that includes a data generation unit 120 that generates reduced high-frequency information and a discriminator 160 that performs predetermined identification based on the reduced high-frequency information.

かかる構成によれば、識別に要する演算量は低減されるとともに、高周波成分が失われてしまうことも防ぐことができるため、識別精度の低下も防ぐことができる。さらに、かかる構成によれば、高周波成分の抽出によって、悪天候による影響(例えば、雨粒などの外乱など)が除去されるため、天候に対してロバストな識別を行うことが可能となる。   According to this configuration, the amount of calculation required for identification can be reduced, and loss of high-frequency components can be prevented, so that degradation of identification accuracy can also be prevented. Furthermore, according to this configuration, the influence of bad weather (for example, disturbance such as raindrops) is removed by extracting the high-frequency component, so that robust identification with respect to the weather can be performed.

さらに、本発明の実施形態によれば、カメラ20によって撮像された撮像画像を取得する画像取得部110と、撮像画像の第1の輝度情報に基づいて高周波成分の抽出および縮小を行うことによって、縮小高周波情報を生成し、縮小高周波情報を識別器に出力するデータ生成部120と、を備える、生成器100(データ生成装置)も提供される。   Furthermore, according to the embodiment of the present invention, the image acquisition unit 110 that acquires the captured image captured by the camera 20 and the extraction and reduction of the high-frequency component based on the first luminance information of the captured image, A generator 100 (data generation device) is also provided, which includes a data generation unit 120 that generates reduced high-frequency information and outputs the reduced high-frequency information to the discriminator.

かかる構成によれば、識別に要する演算量を低減するためのデータを生成することが可能である。また、かかる構成によれば、天候に対してロバストな識別を行うためのデータを生成することが可能となる。   According to such a configuration, it is possible to generate data for reducing the amount of calculation required for identification. Further, according to such a configuration, it is possible to generate data for performing robust identification with respect to the weather.

上記したように、認識装置10のプログラムが提供され得が、生成器100(データ生成装置)のプログラムと、識別器160のプログラムとは、別々に提供されることも可能である。このとき、生成器100(データ生成装置)のプログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得るし、識別器160のプログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。   As described above, the program for the recognition device 10 can be provided, but the program for the generator 100 (data generation device) and the program for the discriminator 160 can also be provided separately. At this time, a computer-readable recording medium recording the program of the generator 100 (data generation apparatus) can be provided, and a computer-readable recording medium recording the program of the discriminator 160 can also be provided. .

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、上記では、生成器100Bと識別器160とが一体化されている場合を主に説明した。しかし、生成器100Bと識別器160とは、別体として構成されてもよい。また、上記では、カメラ20が認識装置10とは別体として構成される場合を主に説明した。しかし、認識装置10の一部または全部は、カメラ20と一体化されていてもよい。すなわち、カメラ20と認識装置10とが一体化されていてもよいし、カメラ20と生成器100とが一体化されていてもよいし、カメラ20と識別器160とが一体化されていてもよい。   For example, the case where the generator 100B and the discriminator 160 are integrated has been mainly described above. However, the generator 100B and the identifier 160 may be configured separately. In the above description, the case where the camera 20 is configured as a separate body from the recognition device 10 has been mainly described. However, a part or all of the recognition device 10 may be integrated with the camera 20. That is, the camera 20 and the recognition device 10 may be integrated, the camera 20 and the generator 100 may be integrated, or the camera 20 and the identifier 160 may be integrated. Good.

1 認識システム
10(10A〜10C) 認識装置
100(100A〜100C) 生成器(データ生成装置)
110 画像取得部
120(120A〜120C) データ生成部
160 識別器
20 カメラ
A1 撮像領域
P1 道路平面
V1〜V3 車両


1 recognition system 10 (10A to 10C) recognition device 100 (100A to 100C) generator (data generation device)
DESCRIPTION OF SYMBOLS 110 Image acquisition part 120 (120A-120C) Data generation part 160 Classifier 20 Camera A1 Imaging area P1 Road plane V1-V3 Vehicle


Claims (18)

カメラによって撮像された撮像画像を取得する画像取得部と、
前記撮像画像の第1の輝度情報に基づいて高周波成分の抽出および縮小を行うことによって、縮小高周波情報を生成するデータ生成部と、
前記縮小高周波情報に基づいて所定の識別を行う識別器と、
を備える、認識装置。
An image acquisition unit that acquires a captured image captured by the camera;
A data generation unit that generates reduced high-frequency information by extracting and reducing high-frequency components based on the first luminance information of the captured image;
An identifier for performing predetermined identification based on the reduced high-frequency information;
A recognition device comprising:
前記画像取得部は、車両が撮像された前記撮像画像を取得し、
前記識別器は、前記縮小高周波情報に基づいて、前記車両に関する情報を識別する、
請求項1に記載の認識装置。
The image acquisition unit acquires the captured image obtained by capturing the vehicle,
The identifier identifies information on the vehicle based on the reduced high-frequency information;
The recognition device according to claim 1.
前記車両に関する情報は、前記車両のナンバープレート、前記車両の種別、前記車両の位置、および、前記縮小高周波情報に基づく認識結果のスコアの少なくともいずれか一つを含む、
請求項2に記載の認識装置。
The information on the vehicle includes at least one of a license plate of the vehicle, a type of the vehicle, a position of the vehicle, and a score of a recognition result based on the reduced high frequency information.
The recognition apparatus according to claim 2.
前記識別器は、ニューラルネットワークを利用した識別器である、
請求項1に記載の認識装置。
The classifier is a classifier using a neural network.
The recognition device according to claim 1.
前記データ生成部は、前記第1の輝度情報から前記高周波成分を抽出して高周波情報を生成し、前記高周波情報を縮小して前記縮小高周波情報を生成する、
請求項1に記載の認識装置。
The data generation unit extracts the high frequency component from the first luminance information to generate high frequency information, reduces the high frequency information, and generates the reduced high frequency information.
The recognition device according to claim 1.
前記データ生成部は、前記高周波情報からブロックごとの代表値を抽出し、前記ブロックごとの代表値を配置することによって前記縮小高周波情報を生成する、
請求項5に記載の認識装置。
The data generation unit extracts a representative value for each block from the high-frequency information, and generates the reduced high-frequency information by arranging a representative value for each block.
The recognition apparatus according to claim 5.
前記代表値は、平均値、最大値、中間値、前記ブロックのあらかじめ定められた画素位置の値のいずれかである、
請求項6に記載の認識装置。
The representative value is any one of an average value, a maximum value, an intermediate value, and a predetermined pixel position value of the block.
The recognition apparatus according to claim 6.
前記高周波成分は、所定の閾値よりも高い周波数を有する成分である、
請求項5に記載の認識装置。
The high frequency component is a component having a frequency higher than a predetermined threshold.
The recognition apparatus according to claim 5.
前記データ生成部は、所定のターゲットから検出される応答値に基づいて、前記所定の閾値を決定する、
請求項8に記載の認識装置。
The data generation unit determines the predetermined threshold based on a response value detected from a predetermined target.
The recognition apparatus according to claim 8.
前記データ生成部は、対象物の移動に合わせて、前記所定の閾値を変化させる、
請求項8に記載の認識装置。
The data generation unit changes the predetermined threshold according to the movement of the object.
The recognition apparatus according to claim 8.
前記データ生成部は、前記第1の輝度情報と前記所定の閾値に対応する第1のフィルタサイズを有する第1のフィルタとに基づいて、前記第1の輝度情報から前記高周波成分が除かれた第2の輝度情報を生成し、前記第1の輝度情報と前記第2の輝度情報との差分に基づいて、前記高周波情報を生成する、
請求項8に記載の認識装置。
The data generation unit removes the high-frequency component from the first luminance information based on the first luminance information and a first filter having a first filter size corresponding to the predetermined threshold. Generating second luminance information, and generating the high frequency information based on a difference between the first luminance information and the second luminance information;
The recognition apparatus according to claim 8.
前記データ生成部は、前記第1の輝度情報の縮小を行うことによって第1の縮小輝度情報を生成し、
前記識別器は、前記縮小高周波情報と前記第1の縮小輝度情報とに基づいて前記所定の識別を行う、
請求項1に記載の認識装置。
The data generation unit generates first reduced luminance information by reducing the first luminance information;
The discriminator performs the predetermined discrimination based on the reduced high-frequency information and the first reduced luminance information.
The recognition device according to claim 1.
前記データ生成部は、前記第1の輝度情報に基づいて前記高周波成分よりも低い周波数成分の抽出および縮小を行うことによって縮小低周波情報を生成し、
前記識別器は、前記縮小高周波情報と前記縮小低周波情報とに基づいて前記所定の識別を行う、
請求項11に記載の認識装置。
The data generation unit generates reduced low frequency information by extracting and reducing a frequency component lower than the high frequency component based on the first luminance information,
The discriminator performs the predetermined discrimination based on the reduced high-frequency information and the reduced low-frequency information;
The recognition apparatus according to claim 11.
前記データ生成部は、前記第2の輝度情報を縮小して第2の縮小輝度情報を生成し、前記第2の縮小輝度情報と前記第1のフィルタとに基づいて、第3の縮小輝度情報を生成し、前記第2の縮小輝度情報と前記第3の縮小輝度情報との差分に基づいて、前記縮小低周波情報を生成する、
請求項13に記載の認識装置。
The data generation unit reduces the second luminance information to generate second reduced luminance information, and generates third reduced luminance information based on the second reduced luminance information and the first filter. And generating the reduced low-frequency information based on the difference between the second reduced luminance information and the third reduced luminance information.
The recognition device according to claim 13.
前記データ生成部は、前記第1の輝度情報または前記第2の輝度情報と前記第1のフィルタとは異なる第2のフィルタとに基づいて、第3の輝度情報を生成し、前記第2の輝度情報と前記第3の輝度情報との差分に基づいて、低周波情報を生成し、前記低周波情報を縮小して前記縮小低周波情報を生成する、
請求項13に記載の認識装置。
The data generation unit generates third luminance information based on the first luminance information or the second luminance information and a second filter different from the first filter, and the second luminance information Generating low frequency information based on a difference between luminance information and the third luminance information, reducing the low frequency information to generate the reduced low frequency information;
The recognition device according to claim 13.
カメラによって撮像された撮像画像を取得することと、
前記撮像画像の第1の輝度情報に基づいて高周波成分の抽出および縮小を行うことによって、縮小高周波情報を生成することと、
前記縮小高周波情報に基づいて所定の識別を行うことと、
を備える、認識方法。
Obtaining a captured image captured by the camera;
Generating reduced high-frequency information by extracting and reducing high-frequency components based on the first luminance information of the captured image;
Performing predetermined identification based on the reduced high-frequency information;
A recognition method comprising:
コンピュータを、
カメラによって撮像された撮像画像を取得する画像取得部と、
前記撮像画像の第1の輝度情報に基づいて高周波成分の抽出および縮小を行うことによって、縮小高周波情報を生成するデータ生成部と、
前記縮小高周波情報に基づいて所定の識別を行う識別器と、
を備える、認識装置として機能させるためのプログラム。
Computer
An image acquisition unit that acquires a captured image captured by the camera;
A data generation unit that generates reduced high-frequency information by extracting and reducing high-frequency components based on the first luminance information of the captured image;
An identifier for performing predetermined identification based on the reduced high-frequency information;
A program for functioning as a recognition device.
カメラによって撮像された撮像画像を取得する画像取得部と、
前記撮像画像の第1の輝度情報に基づいて高周波成分の抽出および縮小を行うことによって、縮小高周波情報を生成し、前記縮小高周波情報を識別器に出力するデータ生成部と、
を備える、データ生成装置。

An image acquisition unit that acquires a captured image captured by the camera;
A data generator that generates reduced high-frequency information by extracting and reducing high-frequency components based on the first luminance information of the captured image, and outputs the reduced high-frequency information to a discriminator;
A data generation device comprising:

JP2018062205A 2018-03-28 2018-03-28 Recognition device, recognition method and program Active JP7119493B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018062205A JP7119493B2 (en) 2018-03-28 2018-03-28 Recognition device, recognition method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018062205A JP7119493B2 (en) 2018-03-28 2018-03-28 Recognition device, recognition method and program

Publications (2)

Publication Number Publication Date
JP2019175107A true JP2019175107A (en) 2019-10-10
JP7119493B2 JP7119493B2 (en) 2022-08-17

Family

ID=68168965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018062205A Active JP7119493B2 (en) 2018-03-28 2018-03-28 Recognition device, recognition method and program

Country Status (1)

Country Link
JP (1) JP7119493B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022208632A1 (en) 2021-03-29 2022-10-06 三菱電機株式会社 Inference device, inference method, learning device, learning method, and program
EP4303806A1 (en) 2022-07-05 2024-01-10 Canon Kabushiki Kaisha Image processing method, image processing apparatus, learning apparatus, manufacturing method of learned model, program, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143646A (en) * 1996-08-28 1998-05-29 Matsushita Electric Ind Co Ltd Local position grasping device and its method
JP2001143646A (en) * 1999-09-14 2001-05-25 General Electric Co <Ge> Method of cooling x ray tube with rotary anode assembly by means of heat pipe
JP2001256485A (en) * 2000-03-14 2001-09-21 Hitachi Ltd System for discriminating vehicle kind
JP2013084130A (en) * 2011-10-11 2013-05-09 Fujitsu Ltd Image recognition system and image recognition method
JP2015204022A (en) * 2014-04-15 2015-11-16 本田技研工業株式会社 Image processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143646A (en) * 1996-08-28 1998-05-29 Matsushita Electric Ind Co Ltd Local position grasping device and its method
JP2001143646A (en) * 1999-09-14 2001-05-25 General Electric Co <Ge> Method of cooling x ray tube with rotary anode assembly by means of heat pipe
JP2001256485A (en) * 2000-03-14 2001-09-21 Hitachi Ltd System for discriminating vehicle kind
JP2013084130A (en) * 2011-10-11 2013-05-09 Fujitsu Ltd Image recognition system and image recognition method
JP2015204022A (en) * 2014-04-15 2015-11-16 本田技研工業株式会社 Image processor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022208632A1 (en) 2021-03-29 2022-10-06 三菱電機株式会社 Inference device, inference method, learning device, learning method, and program
KR20230144087A (en) 2021-03-29 2023-10-13 미쓰비시덴키 가부시키가이샤 learning device
EP4303806A1 (en) 2022-07-05 2024-01-10 Canon Kabushiki Kaisha Image processing method, image processing apparatus, learning apparatus, manufacturing method of learned model, program, and storage medium

Also Published As

Publication number Publication date
JP7119493B2 (en) 2022-08-17

Similar Documents

Publication Publication Date Title
JP5775225B2 (en) Text detection using multi-layer connected components with histograms
JP2017191608A (en) Object recognition method, object recognition device, and classifier training method
US9542735B2 (en) Method and device to compose an image by eliminating one or more moving objects
US10600158B2 (en) Method of video stabilization using background subtraction
CN110287791B (en) Screening method and system for face pictures
JP2005339547A (en) Apparatus and method for extracting character from image, and medium which records computer readable code for realizing method for extracting character from image
JP6299373B2 (en) Imaging direction normality determination method, imaging direction normality determination program, and imaging direction normality determination apparatus
JP2012038318A (en) Target detection method and device
JP2010239605A (en) Video editing device
JP5301694B2 (en) Image processing apparatus, image processing method, program, and recording medium therefor
CN111144337B (en) Fire detection method and device and terminal equipment
US20180184012A1 (en) Image processing apparatus, control method, and storage medium
JP5656768B2 (en) Image feature extraction device and program thereof
CN111753764A (en) Gesture recognition method of edge terminal based on attitude estimation
JP2013140428A (en) Edge detection device, edge detection program, and edge detection method
CN114049499A (en) Target object detection method, apparatus and storage medium for continuous contour
JP7119493B2 (en) Recognition device, recognition method and program
US10373329B2 (en) Information processing apparatus, information processing method and storage medium for determining an image to be subjected to a character recognition processing
JP2016053763A (en) Image processor, image processing method and program
CN109800758A (en) A kind of natural scene character detecting method of maximum region detection
US10140503B2 (en) Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus
CN112633183B (en) Automatic detection method and device for image shielding area and storage medium
CN111275045A (en) Method and device for identifying image subject, electronic equipment and medium
JP4253265B2 (en) Shadow detection apparatus, shadow detection method and shadow detection program, image processing apparatus using shadow detection apparatus, image processing method using shadow detection method, and image processing program using shadow detection program
KR102180478B1 (en) apparatus AND method for DETECTING CAPTION

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R150 Certificate of patent or registration of utility model

Ref document number: 7119493

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150