JP2022181678A - Information processing system and program - Google Patents

Information processing system and program Download PDF

Info

Publication number
JP2022181678A
JP2022181678A JP2021088744A JP2021088744A JP2022181678A JP 2022181678 A JP2022181678 A JP 2022181678A JP 2021088744 A JP2021088744 A JP 2021088744A JP 2021088744 A JP2021088744 A JP 2021088744A JP 2022181678 A JP2022181678 A JP 2022181678A
Authority
JP
Japan
Prior art keywords
information
character
image
vehicle
license plate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021088744A
Other languages
Japanese (ja)
Inventor
悟 田中
Satoru Tanaka
裕哉 中里
Hiroya Nakazato
智史 五十嵐
Satoshi Igarashi
和男 早川
Kazuo Hayakawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2021088744A priority Critical patent/JP2022181678A/en
Publication of JP2022181678A publication Critical patent/JP2022181678A/en
Priority to JP2024024173A priority patent/JP2024052812A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information processing system and a program for suitably collecting information related to a vehicle.SOLUTION: A program according to an aspect of present disclosure causes a computer to execute a detection step, an extraction step, a character recognition step, and an output control step. In the detection step, a license plate of a surrounding vehicle located around a vehicle is detected from a photographed image generated by photographing a landscape around the vehicle using a detection model that outputs a position of an image area showing the license plate contained in an input image. In the extraction step, an extraction area corresponding to the image area detected as the license plate of the surrounding vehicle is cut out from the photographed image to generate an extraction image. In the character recognition step, character information is acquired from the extracted image using a character recognition model, and license plate information of the surrounding vehicle is generated based on the character information. In the output control step, the license plate information of the surrounding vehicle is output.SELECTED DRAWING: Figure 4

Description

本開示は、情報処理システム及びプログラムに関し、特に車両に関連する情報を取得する情報処理システム及びプログラムに関する。 TECHNICAL FIELD The present disclosure relates to an information processing system and program, and more particularly to an information processing system and program for acquiring information related to a vehicle.

道路を走行する車両や駐車場を出入りする車両を監視するために、車両に関連する情報を収集する技術が提案されている。例えば、特許文献1では、車両ナンバー認識システムが、車載カメラで撮影した走行車両の画像からナンバープレートの位置とサイズを求めて文字画像を抽出し、文字画像から文字認識により車両ナンバーを取得することが開示されている。上述の特許文献1では、車両ナンバー認識システムは、取得した車両ナンバーを、走行車両の速度データや位置データとともに記録することが開示されている。 Techniques for collecting vehicle-related information have been proposed in order to monitor vehicles traveling on roads and vehicles entering and exiting parking lots. For example, in Patent Document 1, a vehicle number recognition system obtains the position and size of a license plate from an image of a running vehicle captured by an in-vehicle camera, extracts a character image, and obtains the vehicle number from the character image by character recognition. is disclosed. The above-mentioned Patent Literature 1 discloses that the vehicle number recognition system records the acquired vehicle number together with the speed data and position data of the traveling vehicle.

また特許文献2では、撮影画像から車体を検出し、車体画像からナンバープレートを検出し、切り出したナンバープレート画像からさらに文字部分画像を切り出し、文字部分画像を利用して文字認識を実行する文字認識装置が開示されている。 Further, in Patent Document 2, character recognition is performed by detecting a vehicle body from a photographed image, detecting a license plate from the vehicle body image, extracting a character partial image from the extracted license plate image, and executing character recognition using the character partial image. An apparatus is disclosed.

特開平11-296785号公報JP-A-11-296785 特許第6779491号Patent No. 6779491

しかし、上述の特許文献1には、走行車両の速度データや位置データを取得する詳細な方法について開示されておらず、車載カメラで撮影した画像から走行車両のナンバープレートを検出する詳細な方法についても開示されていない。 However, the above-mentioned Patent Document 1 does not disclose a detailed method of acquiring the speed data and position data of the traveling vehicle, and does not disclose a detailed method of detecting the license plate of the traveling vehicle from the image captured by the in-vehicle camera. is also not disclosed.

また、上述の特許文献2に記載の方法は、文字認識を実行するまでの処理手順が多いため処理負荷が高いという問題がある。尚、上述の特許文献2には、他車両の走行に関連する情報を取得することは開示されていない。
したがって、車両に関連する情報をより好適に収集することが求められる。
In addition, the method described in Patent Document 2 above has a problem that the processing load is high because there are many processing procedures until character recognition is executed. It should be noted that the aforementioned Patent Document 2 does not disclose acquisition of information related to travel of other vehicles.
Therefore, there is a demand for more suitable collection of vehicle-related information.

本開示の目的は、上述した課題を鑑み、車両に関連する情報を好適に収集する情報処理システム及びプログラムを提供することにある。 An object of the present disclosure is to provide an information processing system and a program that suitably collect vehicle-related information in view of the above-described problems.

本開示の一態様にかかるプログラムは、画像取得段階と、識別情報推定段階と、走行情報生成段階と、出力制御段階とをコンピュータに実行させる。前記画像取得段階は、車両の周囲の風景を撮影して生成された撮影画像を取得する。前記識別情報推定段階は、前記撮影画像に基づいて、前記車両の周囲に位置する周辺車両の識別情報を推定する。前記走行情報生成段階は、前記車両の走行に関する第1走行情報を取得し、前記第1走行情報に基づいて、前記周辺車両の走行に関する第2走行情報を生成する。前記出力制御段階は、前記識別情報と、前記第2走行情報とを対応付けて出力させる。 A program according to an aspect of the present disclosure causes a computer to execute an image acquisition stage, an identification information estimation stage, a driving information generation stage, and an output control stage. The image acquisition step acquires a photographed image generated by photographing the scenery around the vehicle. The identification information estimation step estimates identification information of surrounding vehicles located around the vehicle based on the captured image. The driving information generating step acquires first driving information about driving of the vehicle, and generates second driving information about driving of the surrounding vehicle based on the first driving information. The output control step causes the identification information and the second travel information to be output in association with each other.

本開示の一態様にかかるプログラムは、検出段階と、抽出段階と、文字認識段階と、出力制御段階とをコンピュータに実行させる。前記検出段階は、車両の周囲の風景を撮影して生成された撮影画像から、入力画像に含まれるナンバープレートを示す画像領域の位置を出力する検出モデルを用いて、前記車両の周囲に位置する周辺車両のナンバープレートを検出する。前記抽出段階は、前記周辺車両のナンバープレートとして検出された画像領域に応じた抽出領域を、前記撮影画像から切り出して、抽出画像を生成する。前記文字認識段階は、前記抽出画像から文字認識モデルを用いて文字情報を取得し、前記文字情報に基づいて前記周辺車両のナンバープレート情報を生成する。前記出力制御段階は、前記周辺車両のナンバープレート情報を出力させる。 A program according to an aspect of the present disclosure causes a computer to execute a detection stage, an extraction stage, a character recognition stage, and an output control stage. The detection step uses a detection model that outputs the position of an image area showing a license plate contained in an input image from a captured image generated by capturing the scenery around the vehicle to locate the area around the vehicle. Detect license plates of surrounding vehicles. In the extracting step, an extraction area corresponding to the image area detected as the license plate of the surrounding vehicle is cut out from the photographed image to generate an extraction image. In the character recognition step, character information is obtained from the extracted image using a character recognition model, and license plate information of the surrounding vehicle is generated based on the character information. The output control step outputs license plate information of the surrounding vehicle.

本開示の一態様にかかる情報処理システムは、画像取得部と、識別情報推定部と、走行情報生成部と、出力制御部とを備える。前記画像取得部は、車両の周囲の風景を撮影した撮影画像を取得する。前記識別情報推定部は、前記撮影画像に基づいて、前記車両の周囲に位置する周辺車両の識別情報を推定する。前記走行情報生成部は、前記車両の走行に関する第1走行情報を取得し、前記第1走行情報に基づいて、前記周辺車両の走行に関する第2走行情報を生成する。前記出力制御部は、前記識別情報と、前記第2走行情報とを対応付けて出力させる。 An information processing system according to one aspect of the present disclosure includes an image acquisition unit, an identification information estimation unit, a travel information generation unit, and an output control unit. The image acquisition unit acquires a photographed image of scenery around the vehicle. The identification information estimation unit estimates identification information of surrounding vehicles positioned around the vehicle based on the captured image. The travel information generation unit acquires first travel information about travel of the vehicle, and generates second travel information about travel of the surrounding vehicle based on the first travel information. The output control unit causes the identification information and the second travel information to be output in association with each other.

本開示の一態様にかかる情報処理システムは、検出部と、抽出部と、文字認識部と、出力制御部とを備える。前記検出部は、車両の周囲の風景を撮影した撮影画像から、入力画像に含まれるナンバープレートを示す画像領域の位置を出力する検出モデルを用いて、前記車両の周囲に位置する周辺車両のナンバープレートを検出する。前記抽出部は、前記周辺車両のナンバープレートとして検出された画像領域に応じた抽出領域を、前記撮影画像から切り出して、抽出画像を生成する。前記文字認識部は、前記抽出画像から文字認識モデルを用いて文字情報を取得し、前記文字情報に基づいて前記周辺車両のナンバープレート情報を生成する。前記出力制御部は、前記周辺車両のナンバープレート情報を出力させる。 An information processing system according to one aspect of the present disclosure includes a detection unit, an extraction unit, a character recognition unit, and an output control unit. The detection unit uses a detection model that outputs the position of the image area showing the license plate included in the input image from the captured image of the scenery around the vehicle, and detects the license plates of the surrounding vehicles located around the vehicle. Detect the plate. The extraction unit cuts out an extraction area corresponding to an image area detected as the license plate of the surrounding vehicle from the captured image to generate an extraction image. The character recognition unit acquires character information from the extracted image using a character recognition model, and generates license plate information of the surrounding vehicle based on the character information. The output control unit outputs the license plate information of the surrounding vehicle.

本開示により、車両に関連する情報を好適に収集する情報処理システム及びプログラムを提供することができる。 According to the present disclosure, it is possible to provide an information processing system and a program that suitably collect vehicle-related information.

実施形態1にかかる情報処理システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an information processing system according to a first embodiment; FIG. 実施形態1にかかる情報処理方法の流れを示すフローチャートである。4 is a flow chart showing the flow of an information processing method according to the first embodiment; 実施形態2にかかる情報処理システムの構成を示すブロック図である。2 is a block diagram showing the configuration of an information processing system according to a second embodiment; FIG. 実施形態2にかかる情報処理方法の流れを示すフローチャートである。9 is a flow chart showing the flow of an information processing method according to the second embodiment; 実施形態3にかかる車両管理システムの概略構成図である。FIG. 11 is a schematic configuration diagram of a vehicle management system according to Embodiment 3; 実施形態3にかかる車載システムの構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of an in-vehicle system according to Embodiment 3; 実施形態3にかかる撮影画像の一例を示す図である。FIG. 12 is a diagram showing an example of a photographed image according to the third embodiment; FIG. 実施形態3にかかる抽出画像の一例を示す図である。FIG. 11 is a diagram showing an example of an extracted image according to the third embodiment; FIG. 実施形態3にかかる文字認識処理を説明するための図である。FIG. 11 is a diagram for explaining character recognition processing according to the third embodiment; 実施形態3にかかる認識結果の一例を示す図である。FIG. 11 is a diagram showing an example of a recognition result according to the third embodiment; FIG. 実施形態3にかかる情報処理方法の流れを示すフローチャートである。11 is a flow chart showing the flow of an information processing method according to the third embodiment; 撮影画像の一例を示す図である。It is a figure which shows an example of a picked-up image. 実施形態3の第1変形例にかかる撮影画像の一例を示す図である。FIG. 12 is a diagram showing an example of a photographed image according to the first modified example of the third embodiment; FIG. 実施形態3の第2変形例にかかるナンバープレート情報の合成処理を説明するための図である。FIG. 14 is a diagram for explaining a process of synthesizing license plate information according to the second modification of the third embodiment; 実施形態3の第3変形例にかかる車載システムの構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of an in-vehicle system according to a third modified example of the third embodiment; 実施形態4にかかる車両管理システムの概略構成図である。FIG. 11 is a schematic configuration diagram of a vehicle management system according to a fourth embodiment; 実施形態4にかかる認識用教師データ生成装置の構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of a recognition training data generation device according to a fourth embodiment; 実施形態4にかかるアノテーション情報のデータ構造の一例を示す図である。FIG. 13 is a diagram showing an example of the data structure of annotation information according to the fourth embodiment; FIG. 実施形態4にかかる書式情報及び描画点情報を説明するための図である。FIG. 14 is a diagram for explaining format information and drawing point information according to the fourth embodiment; 実施形態4にかかる描画点情報DBのデータ構造の一例を示す図である。FIG. 14 is a diagram showing an example of the data structure of a drawing point information DB according to the fourth embodiment; FIG. 実施形態4にかかる認識用教師データ生成処理の流れを示すフローチャートである。FIG. 14 is a flow chart showing the flow of a process of generating training data for recognition according to the fourth embodiment; FIG. 実施形態4にかかる画像生成部による描画方法を説明するための図である。FIG. 11 is a diagram for explaining a drawing method by an image generator according to the fourth embodiment; FIG. 実施形態4にかかる補正部による補正処理を説明するための図である。FIG. 12 is a diagram for explaining correction processing by a correction unit according to the fourth embodiment; 実施形態4にかかる文字認識モデル学習処理の流れを示すフローチャートである。FIG. 14 is a flowchart showing the flow of character recognition model learning processing according to the fourth embodiment; FIG. 実施形態5にかかる車両管理システムの概略構成図である。FIG. 11 is a schematic configuration diagram of a vehicle management system according to a fifth embodiment; 実施形態5にかかる文字認識処理を説明するための図である。FIG. 12 is a diagram for explaining character recognition processing according to the fifth embodiment; コンピュータの構成例を示す図である。It is a figure which shows the structural example of a computer.

以下、実施形態を通じて本開示を説明するが、特許請求の範囲にかかる開示を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。 Hereinafter, the present disclosure will be described through embodiments, but the disclosure according to the scope of claims is not limited to the following embodiments. Moreover, not all the configurations described in the embodiments are essential as means for solving the problems. In each drawing, the same elements are denoted by the same reference numerals, and redundant description is omitted as necessary.

<実施形態の課題>
ここで、実施形態の課題について改めて説明する。道路や駐車場の入口の任意の場所に固定設置されたカメラから車両を撮影し、撮影画像からナンバープレートを認識する監視システムが活用されている。しかし、上記監視システムにおいては、カメラを固定設置する必要があり、設置コストがかかること及び建築上の制限があることから、容易にカメラを設置できないという問題がある。このため、上記監視システムは、現状、主要道路しかカバーできていない。近年、可搬型の監視システムも開発されているが、設置する手間がかかっている。
<Problem of Embodiment>
Here, the problem of the embodiment will be explained again. Vehicles are photographed by cameras fixedly installed at the entrances of roads and parking lots, and surveillance systems are used to recognize license plates from the photographed images. However, in the surveillance system described above, the cameras must be fixedly installed, and there is a problem that the cameras cannot be easily installed due to the high installation cost and constructional restrictions. For this reason, the above monitoring system currently covers only major roads. In recent years, a portable monitoring system has been developed, but it takes time and effort to install it.

ここで、上述の特許文献1に記載の車両ナンバー認識システムは、固定設置カメラに代えて、車載カメラで走行車両を撮影し、車両ナンバーを取得することが開示されている。そして上述の特許文献1に記載の車両ナンバー認識システムは、取得した車両ナンバーを、走行車両の速度データや位置データとともに記録することが開示されている。ここで、車載カメラを利用してナンバープレートを認識する場合、より好適に車両を監視するためには、走行車両の速度データや位置データ等の走行情報をより好適に取得することが求められる。しかし、上述の特許文献1には、走行車両の速度データや位置データを取得する詳細な方法については開示されていない。 Here, the vehicle number recognition system described in the above-mentioned Patent Document 1 discloses that a running vehicle is photographed by an in-vehicle camera instead of a fixedly installed camera, and a vehicle number is acquired. The vehicle number recognition system described in the above-mentioned Patent Document 1 discloses that the acquired vehicle number is recorded together with the speed data and position data of the traveling vehicle. Here, when recognizing a license plate using an in-vehicle camera, it is required to more preferably acquire traveling information such as speed data and position data of the traveling vehicle in order to more preferably monitor the vehicle. However, Patent Literature 1 mentioned above does not disclose a detailed method for acquiring the speed data and position data of the traveling vehicle.

尚、認識対象は、走行車両のナンバープレートに限らず、走行車両の車種又はボディカラーであったとしても、同様の課題が存在する。 It should be noted that the recognition target is not limited to the license plate of the running vehicle, and the same problem exists even if it is the type or body color of the running vehicle.

また上述の特許文献2では、撮影画像に基づいてナンバープレート情報を取得する技術が開示されている。しかし、上述の通り、上述の特許文献2に記載の方法は、文字認識を実行するまでの処理手順が多いため処理負荷が高い。したがって、認識対象がナンバープレートである場合は、ナンバープレート情報をより好適に取得することが求められる。 Moreover, the above-mentioned Patent Document 2 discloses a technique of acquiring license plate information based on a photographed image. However, as described above, the method described in Patent Literature 2 has a large processing load due to the large number of processing steps up to execution of character recognition. Therefore, when the recognition target is a license plate, it is required to obtain the license plate information more preferably.

このように、車両に関連する情報をより好適に収集することが求められる。本実施形態は、このような課題を解決するためになされたものである。 Thus, there is a demand for more suitable collection of vehicle-related information. The present embodiment is made to solve such problems.

<実施形態1>
次に、本開示の実施形態1について説明する。図1は、実施形態1にかかる情報処理システム900の構成を示すブロック図である。情報処理システム900は、車両に関連する情報として、車両の識別情報及び走行情報を取得するコンピュータシステムである。情報処理システム900は、画像取得部902と、識別情報推定部903と、走行情報生成部907と、出力制御部908とを備える。
<Embodiment 1>
Next, Embodiment 1 of the present disclosure will be described. FIG. 1 is a block diagram showing the configuration of an information processing system 900 according to the first embodiment. The information processing system 900 is a computer system that acquires vehicle identification information and travel information as vehicle-related information. The information processing system 900 includes an image acquisition section 902 , an identification information estimation section 903 , a travel information generation section 907 and an output control section 908 .

画像取得部902は、車両の周囲の風景を撮影して生成された撮影画像を取得する。車両は、自動車、電車又はバス等の移動体である。尚、車両には、周囲の風景を撮影するカメラ(不図示)が搭載されている。カメラは、ドライブレコーダに内蔵されたカメラであってよいが、その他の任意の車載カメラであってよい。以下では、カメラにより周囲の風景を撮影した車両を、撮影車両(自車両)と呼ぶことがある。画像取得部902は、撮影画像を識別情報推定部903に供給する。 The image acquisition unit 902 acquires a captured image generated by capturing the scenery around the vehicle. A vehicle is a mobile object such as an automobile, a train, or a bus. The vehicle is equipped with a camera (not shown) that captures the surrounding scenery. The camera may be a camera built into the drive recorder, but may be any other vehicle-mounted camera. Hereinafter, a vehicle in which the surrounding scenery is captured by a camera is sometimes referred to as a captured vehicle (own vehicle). The image acquisition unit 902 supplies the captured image to the identification information estimation unit 903 .

識別情報推定部903は、撮影画像に基づいて、撮影車両の周囲に位置する周辺車両の識別情報を推定する。周辺車両は、撮影車両の前方又は後方を走行する車両であってもよいし、撮影車両に対向して走行する車両であってもよいし、撮影車両の周辺で駐車又は停車する車両であってもよい。識別情報は、車両を識別する情報であり、車両の外観から推定可能な識別情報であってよい。識別情報は、例えば、ナンバープレート、車種又はボディカラーの情報であってよい。
そして識別情報推定部903は、周辺車両の識別情報を出力制御部908に供給する。
The identification information estimation unit 903 estimates identification information of surrounding vehicles located around the photographed vehicle based on the photographed image. The peripheral vehicle may be a vehicle traveling in front or behind the photographing vehicle, a vehicle traveling opposite the photographing vehicle, or a vehicle parked or stopped in the vicinity of the photographing vehicle. good too. The identification information is information that identifies the vehicle, and may be identification information that can be estimated from the appearance of the vehicle. The identification information may be, for example, license plate, vehicle type, or body color information.
The identification information estimation unit 903 then supplies the identification information of the surrounding vehicle to the output control unit 908 .

走行情報生成部907は、撮影車両の走行に関する第1走行情報を取得する。第1走行情報は、撮影車両の位置情報、進行方向及び速度のうち少なくとも1つを含む。そして走行情報生成部907は、第1走行情報に基づいて、周辺車両の走行に関する第2走行情報を生成する。第2走行情報は、周辺車両の位置情報、進行方向及び速度のうち少なくとも1つを含む。例えば、走行情報生成部907は、第1走行情報と同一の情報を、第2走行情報として生成する。また例えば、走行情報生成部907は、撮影画像と、第1走行情報とに基づいて、第2走行情報を生成する。一例として、走行情報生成部907は、撮影画像に含まれる周辺車両の画像領域の大きさ及び位置の少なくとも一方に基づいて、撮影車両に対する周辺車両の相対位置を算出する。そして走行情報生成部907は、撮影車両の位置情報及び相対位置に基づいて、周辺車両の位置を算出してよい。尚、撮影車両の位置情報は、GNSS(global navigation satellite system)、例えばGPS(Global Positioning System)等の衛星測位システムから自車両の位置を測位するための測位情報を受信することで、取得することができる。また一例として、走行情報生成部907は、撮影画像に含まれる周辺車両をトラッキングし、周辺車両の画像領域の位置及び大きさの、フレーム間の差分に基づいて、撮影車両に対する周辺車両の相対速度を算出する。そして走行情報生成部907は、撮影車両の速度及び相対速度に基づいて、周辺車両の速度を算出してよい。尚、撮影車両の速度は、車速信号から取得することができる。また走行情報生成部907は、撮影車両の進行方向及び相対速度の正負に基づいて、周辺車両の進行方向を算出してよい。
そして走行情報生成部907は、第2走行情報を出力制御部908に供給する。
The travel information generation unit 907 acquires first travel information regarding travel of the photographing vehicle. The first travel information includes at least one of location information, traveling direction, and speed of the photographing vehicle. Based on the first travel information, the travel information generation unit 907 generates second travel information regarding the travel of the surrounding vehicle. The second travel information includes at least one of location information, traveling direction, and speed of surrounding vehicles. For example, the travel information generator 907 generates the same information as the first travel information as the second travel information. Further, for example, the travel information generation unit 907 generates second travel information based on the captured image and the first travel information. As an example, the travel information generation unit 907 calculates the relative position of the surrounding vehicle with respect to the photographed vehicle based on at least one of the size and position of the image area of the surrounding vehicle included in the photographed image. Then, the travel information generation unit 907 may calculate the positions of surrounding vehicles based on the position information and the relative positions of the shooting vehicle. In addition, the position information of the shooting vehicle is obtained by receiving positioning information for positioning the position of the own vehicle from a satellite positioning system such as GNSS (global navigation satellite system), for example GPS (Global Positioning System). can be done. As an example, the travel information generation unit 907 tracks the surrounding vehicles included in the captured image, and calculates the relative speed of the surrounding vehicles with respect to the captured vehicle based on the difference between the frames in the position and size of the image area of the surrounding vehicles. Calculate Then, the travel information generation unit 907 may calculate the speed of surrounding vehicles based on the speed and relative speed of the photographing vehicle. Note that the speed of the photographing vehicle can be acquired from the vehicle speed signal. Further, the traveling information generation unit 907 may calculate the traveling direction of the surrounding vehicle based on the traveling direction of the photographing vehicle and the positive/negative of the relative speed.
The travel information generator 907 then supplies the second travel information to the output controller 908 .

出力制御部908は、識別情報と、第2走行情報とを対応付けて出力する。ここで、出力とは、上記対応付けた情報を、情報処理システム900の出力部(不図示)に、所定のデータ形式で出力することであってもよいし、ネットワークを介して外部装置(不図示)に送信することであってもよい。また出力とは、上記対応付けた情報を情報処理システム900の記憶部(不図示)に格納することであってもよい。 The output control unit 908 outputs the identification information and the second travel information in association with each other. Here, the output may be outputting the associated information to an output unit (not shown) of the information processing system 900 in a predetermined data format, or may be output to an external device (not shown) via a network. shown). The output may be storing the associated information in a storage unit (not shown) of the information processing system 900 .

図2は、実施形態1にかかる情報処理方法の流れを示すフローチャートである。まず情報処理システム900の画像取得部902は、車両の周囲の風景を撮影して生成された撮影画像を取得する(ステップS10)。次に、識別情報推定部903は、ステップS10で取得した撮影画像に基づいて、周辺車両の識別情報を推定する(ステップS11)。次に、走行情報生成部907は、撮影車両の第1走行情報を取得する(ステップS12)。次に、走行情報生成部907は、撮影車両の第1走行情報に基づいて、周辺車両の第2走行情報を生成する(ステップS13)。尚、ステップS12~13に示す処理は、ステップS11の前に行われてもよいし、ステップS11と並行して行われてもよい。次に、出力制御部908は、ステップS11で推定した、周辺車両の識別情報と、ステップS13で生成した、周辺車両の第2走行情報とを、互いに対応付けて出力する(ステップS14)。 FIG. 2 is a flow chart showing the flow of the information processing method according to the first embodiment. First, the image acquisition unit 902 of the information processing system 900 acquires a captured image generated by capturing the scenery around the vehicle (step S10). Next, the identification information estimation unit 903 estimates identification information of surrounding vehicles based on the captured image acquired in step S10 (step S11). Next, the travel information generator 907 acquires first travel information of the photographing vehicle (step S12). Next, the travel information generation unit 907 generates second travel information of surrounding vehicles based on the first travel information of the photographing vehicle (step S13). The processing shown in steps S12 and S13 may be performed before step S11 or may be performed in parallel with step S11. Next, the output control unit 908 outputs the identification information of the surrounding vehicle estimated in step S11 and the second travel information of the surrounding vehicle generated in step S13 in association with each other (step S14).

このように実施形態1によれば、情報処理システム900は、撮影車両から周辺車両を撮影できるため、設置コスト及び建築上の設置制限の問題を回避することができる。例えば、撮影車両が道路を走行するだけで、特別な設備投資不要で前方又は後方車両に関連する情報を取得できる。また例えば、撮影車両が対向車両とすれ違うことができる道幅の道路を走行するだけで、特別な設備投資不要で対向車両に関連する情報を取得できる。 As described above, according to the first embodiment, the information processing system 900 can photograph surrounding vehicles from the photographing vehicle, thereby avoiding the problems of installation costs and architectural installation restrictions. For example, just by driving the photographing vehicle on the road, it is possible to acquire information related to the vehicle ahead or behind without special equipment investment. Also, for example, just by traveling on a road wide enough for the photographing vehicle to pass the oncoming vehicle, it is possible to acquire information related to the oncoming vehicle without requiring any special equipment investment.

そして情報処理システム900は、複雑なセンサを必要とせず、周辺車両の走行情報を容易に生成し、生成した走行情報を周辺車両の識別情報に対応付けて出力することができる。したがって、情報処理システム900は、車両に関連する情報を好適に収集することができる。 The information processing system 900 can easily generate travel information of surrounding vehicles without requiring a complicated sensor, and can output the generated travel information in association with the identification information of the surrounding vehicles. Therefore, the information processing system 900 can suitably collect information related to the vehicle.

<実施形態2>
次に、本開示の実施形態2について説明する。図3は、実施形態2にかかる情報処理システム910の構成を示すブロック図である。情報処理システム910は、車両に関連する情報として、車両のナンバープレート情報を取得するコンピュータシステムである。情報処理システム910は、検出部914と、抽出部915と、文字認識部916と、出力制御部918とを備える。
<Embodiment 2>
Next, Embodiment 2 of the present disclosure will be described. FIG. 3 is a block diagram showing the configuration of an information processing system 910 according to the second embodiment. The information processing system 910 is a computer system that acquires vehicle license plate information as vehicle-related information. The information processing system 910 includes a detection unit 914 , an extraction unit 915 , a character recognition unit 916 and an output control unit 918 .

検出部914は、撮影車両の周囲の風景を撮影して生成された撮影画像から、検出器(検出モデルとも呼ばれる)を用いて、撮影車両の周囲に位置する周辺車両のナンバープレートを検出する。尚、実施形態1と同様に、車両には、周囲の風景を撮影する車載カメラ(不図示)が搭載されている。カメラ構成は、実施形態1と同様であってよい。検出モデルは、入力画像に含まれるナンバープレートを示す画像領域の位置情報を出力する。検出モデルは、学習済の畳み込みニューラルネットワーク(CNN= Convolutional Neural Network)を含むモデルであり、例えばYolo(You Look Only Onse)、SSD(Single Shot MultiBox Detector)又はWSSD(Weighted Single Shot MultiBox Detector)であってよい。例えば検出モデルは、ナンバープレートを示す画像領域の位置情報がアノテーション情報として付与された画像を教師データとして用いて学習されている。位置情報は、例えばナンバープレートを示す矩形領域の頂点の位置座標であってよい。したがって、この場合、検出部914は、検出モデルに撮影画像を入力することで、周辺車両のナンバープレートとして検出された矩形領域の頂点の位置座標を取得することができる。なお、検出モデルは、CNNに限定されず、FCN(Fully Convolution Network)やFCNの一つであるU-netであってもよい。 A detection unit 914 uses a detector (also called a detection model) to detect the license plates of surrounding vehicles located around the vehicle from a captured image generated by capturing the scenery around the vehicle. As in the first embodiment, the vehicle is equipped with an in-vehicle camera (not shown) that captures the surrounding scenery. The camera configuration may be the same as in the first embodiment. The detection model outputs the positional information of the image area indicating the license plate included in the input image. The detection model is a model including a trained convolutional neural network (CNN=Convolutional Neural Network), such as Yolo (You Look Only Onse), SSD (Single Shot MultiBox Detector) or WSSD (Weighted Single Shot MultiBox Detector). you can For example, the detection model is trained using, as training data, an image to which position information of an image area showing a license plate is added as annotation information. The position information may be, for example, the position coordinates of the vertices of a rectangular area representing the license plate. Therefore, in this case, the detection unit 914 can acquire the position coordinates of the vertices of the rectangular area detected as the license plate of the surrounding vehicle by inputting the photographed image into the detection model. Note that the detection model is not limited to CNN, and may be FCN (Fully Convolution Network) or U-net, which is one of FCN.

検出部914は、周辺車両のナンバープレートとして検出された画像領域の位置情報を、抽出部915に供給する。以下では、ナンバープレートとして検出された画像領域を、ナンバープレート画像領域と呼ぶことがある。 The detection unit 914 supplies the extraction unit 915 with the positional information of the image area detected as the license plate of the surrounding vehicle. Below, the image area detected as the license plate may be referred to as the license plate image area.

抽出部915は、周辺車両のナンバープレート画像領域に応じた抽出領域を、撮影画像から切り出して、抽出画像を生成する。抽出領域は、ナンバープレート画像領域と一致していてもよいし、ナンバープレート画像領域を含む所定の領域であってもよいし、ナンバープレート画像領域中の所定の領域を少なくとも含む領域であってもよい。例えば抽出領域は、ナンバープレート画像領域を中心として予め定められた範囲の画像領域であってよい。抽出部915は、抽出画像を文字認識部916に供給する。 The extraction unit 915 cuts out an extraction area corresponding to the license plate image area of the surrounding vehicle from the captured image to generate an extraction image. The extraction area may match the license plate image area, may be a predetermined area including the license plate image area, or may be an area including at least a predetermined area in the license plate image area. good. For example, the extraction area may be an image area of a predetermined range around the license plate image area. The extraction unit 915 supplies the extracted image to the character recognition unit 916 .

文字認識部916は、抽出画像から文字認識器(文字認識モデルとも呼ばれる)を用いて文字情報を取得する。文字認識モデルは、文字を表す図形(文字図形とも呼ばれる)の画像領域の位置情報と、当該図形が示す文字情報とが、アノテーション情報として付与された画像を、教師データとして用いて学習されている。位置情報は、例えば図形を取り囲む矩形領域の頂点の位置座標であってよい。したがって、この場合、文字認識部916は、文字認識モデルに抽出画像を入力することで、周辺車両のナンバープレートに含まれる図形が示す文字情報を、図形を取り囲む領域の位置座標とともに取得することができる。 A character recognition unit 916 obtains character information from the extracted image using a character recognizer (also called a character recognition model). The character recognition model is trained using an image to which the position information of the image area of a figure representing a character (also called a character figure) and the character information indicated by the figure are added as annotation information, as training data. . The position information may be, for example, the position coordinates of the vertices of a rectangular area surrounding the figure. Therefore, in this case, by inputting the extracted image into the character recognition model, the character recognition unit 916 can acquire the character information indicated by the figure included in the license plate of the surrounding vehicle together with the position coordinates of the area surrounding the figure. can.

そして文字認識部916は、取得した文字情報に基づいて周辺車両のナンバープレート情報を生成する。具体的には、文字認識部916は、複数の文字情報と、各文字情報に対応する図形を取り囲む領域の位置座標とに基づいて、文字情報の組み合わせを決定する。これにより、文字認識部916は、ナンバープレート情報を生成することができる。 Then, the character recognition unit 916 generates license plate information of surrounding vehicles based on the acquired character information. Specifically, the character recognition unit 916 determines a combination of character information based on a plurality of pieces of character information and the positional coordinates of an area surrounding a graphic corresponding to each piece of character information. Thereby, the character recognition unit 916 can generate license plate information.

文字認識部916は、生成したナンバープレート情報を、出力制御部918に供給する。 The character recognition section 916 supplies the generated license plate information to the output control section 918 .

出力制御部918は、周辺車両のナンバープレート情報を出力する。ここで、出力とは、上記対応付けた情報を、情報処理システム910の出力部(不図示)に、所定のデータ形式で出力することであってもよいし、ネットワークを介して外部装置(不図示)に送信することであってもよい。また出力とは、上記対応付けた情報を情報処理システム910の記憶部(不図示)に格納することであってもよい。 The output control unit 918 outputs license plate information of surrounding vehicles. Here, the output may be outputting the associated information to an output unit (not shown) of the information processing system 910 in a predetermined data format, or may be output to an external device (not shown) via a network. shown). Also, the output may be storing the associated information in a storage unit (not shown) of the information processing system 910 .

図4は、実施形態2にかかる情報処理方法の流れを示すフローチャートである。まず情報処理システム910の検出部914は、撮影車両の周囲の風景を撮影して生成された撮影画像から、検出モデルを用いて、撮影車両の周囲に位置する周辺車両のナンバープレートを検出する(ステップS20)。次に、抽出部915は、周辺車両のナンバープレート画像領域に応じた抽出領域を、撮影画像から切り出して、抽出画像を生成する(ステップS21)。次に、文字認識部916は、文字認識モデルを用いて抽出画像から文字情報を取得する(ステップS22)。次に文字認識部916は、文字情報に基づいて周辺車両のナンバープレート情報を生成する(ステップS23)。次に、出力制御部918は、周辺車両のナンバープレート情報を出力する(ステップS24)。 FIG. 4 is a flow chart showing the flow of the information processing method according to the second embodiment. First, the detection unit 914 of the information processing system 910 uses the detection model to detect the license plates of the surrounding vehicles located around the photographed vehicle from the photographed image generated by photographing the scenery around the photographed vehicle ( step S20). Next, the extraction unit 915 cuts out an extraction area corresponding to the license plate image area of the surrounding vehicle from the captured image to generate an extraction image (step S21). Next, the character recognition unit 916 acquires character information from the extracted image using the character recognition model (step S22). Next, the character recognition unit 916 generates license plate information of surrounding vehicles based on the character information (step S23). Next, the output control unit 918 outputs license plate information of surrounding vehicles (step S24).

このように実施形態2によれば、情報処理システム910は、撮影画像からナンバープレートを容易に検出することができ、その結果、容易にナンバープレート情報を取得することができる。 As described above, according to the second embodiment, the information processing system 910 can easily detect the license plate from the captured image, and as a result, can easily acquire the license plate information.

尚、情報処理システム900,910は、図示しない構成としてプロセッサ、メモリ及び記憶装置を備えるものである。また、当該記憶装置には、本実施形態1~2にかかる各情報処理方法の処理が実装されたコンピュータプログラムが記憶されている。そして、当該プロセッサは、記憶装置からコンピュータプログラムを前記メモリへ読み込ませ、当該コンピュータプログラムを実行する。これにより、前記プロセッサは、画像取得部902、識別情報推定部903、走行情報生成部907及び出力制御部908、あるいは、検出部914、抽出部915、文字認識部916及び出力制御部918の機能を実現する。 The information processing systems 900 and 910 are provided with processors, memories, and storage devices (not shown). Further, the storage device stores a computer program in which the processing of each information processing method according to the first and second embodiments is implemented. Then, the processor loads the computer program from the storage device into the memory and executes the computer program. As a result, the processor functions as an image acquisition unit 902, an identification information estimation unit 903, a travel information generation unit 907 and an output control unit 908, or a detection unit 914, an extraction unit 915, a character recognition unit 916 and an output control unit 918. Realize

または、画像取得部902、識別情報推定部903、走行情報生成部907及び出力制御部908、検出部914、抽出部915、文字認識部916及び出力制御部918は、それぞれが専用のハードウェアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry)、プロセッサ等やこれらの組合せによって実現されもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。また、プロセッサとして、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)等を用いることができる。 Alternatively, the image acquisition unit 902, the identification information estimation unit 903, the driving information generation unit 907, the output control unit 908, the detection unit 914, the extraction unit 915, the character recognition unit 916, and the output control unit 918 are respectively dedicated hardware. may be implemented. Also, part or all of each component of each device may be realized by general-purpose or dedicated circuitry, processors, etc., or combinations thereof. These may be composed of a single chip, or may be composed of multiple chips connected via a bus. A part or all of each component of each device may be implemented by a combination of the above-described circuits and the like and programs. As the processor, a CPU (Central Processing Unit), GPU (Graphics Processing Unit), FPGA (field-programmable gate array), or the like can be used.

また、情報処理システム900,910の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。また、情報処理システム900,910の機能がSaaS(Software as a Service)形式で提供されてもよい。 Further, when a part or all of the components of the information processing systems 900 and 910 are realized by a plurality of information processing devices, circuits, etc., the plurality of information processing devices, circuits, etc. may be centrally arranged. and may be distributed. For example, the information processing device, circuits, and the like may be implemented as a form in which each is connected via a communication network, such as a client-server system, a cloud computing system, or the like. Also, the functions of the information processing systems 900 and 910 may be provided in a SaaS (Software as a Service) format.

<実施形態3>
次に、本開示の実施形態3について説明する。実施形態3は、実施形態1及び実施形態2を具体化した実施形態である。図5は、実施形態3にかかる車両管理システム1の概略構成図である。車両管理システム1は、車両に関連する情報として、車両のナンバープレート情報及び走行情報を管理するコンピュータシステムである。つまり本実施形態3では、車両の識別情報は、車両のナンバープレート情報である。尚、本実施形態3では、走行情報は、位置情報、進行方向及び速度を含む。車両管理システム1は、車載システム10-1、10-2、10-3と、管理サーバ20とを備え、これらがネットワークNを介して通信可能に接続されている。ネットワークNは、有線又は無線の通信回線である。
<Embodiment 3>
Next, Embodiment 3 of the present disclosure will be described. The third embodiment is a specific embodiment of the first and second embodiments. FIG. 5 is a schematic configuration diagram of the vehicle management system 1 according to the third embodiment. The vehicle management system 1 is a computer system that manages vehicle license plate information and driving information as vehicle-related information. That is, in the third embodiment, the identification information of the vehicle is license plate information of the vehicle. Note that in the third embodiment, the travel information includes position information, traveling direction, and speed. The vehicle management system 1 includes in-vehicle systems 10-1, 10-2, 10-3 and a management server 20, which are connected via a network N so as to be communicable. The network N is a wired or wireless communication line.

車載システム10-1、10-2、10-3の各々は、各車両に搭載されるコンピュータシステムである。以下では、車載システム10-1、10-2、10-3を区別せず言及する場合、単に車載システム10と呼ぶことがある。尚、車両管理システム1において車載システム10の数は3に限らず、2以下であってもよいし、4以上であってもよい。 Each of the in-vehicle systems 10-1, 10-2 and 10-3 is a computer system installed in each vehicle. In the following description, the in-vehicle systems 10-1, 10-2, and 10-3 may simply be referred to as the in-vehicle system 10 when they are referred to without distinction. The number of in-vehicle systems 10 in the vehicle management system 1 is not limited to three, and may be two or less, or four or more.

車載システム10は、車載カメラ(不図示)を用いて周辺車両に関連する情報を取得し、周辺車両に関連する情報を、ネットワークNを介して管理サーバ20に送信する。具体的には、車載システム10は、車載カメラを用いて周辺車両のナンバープレート情報及び周辺車両の走行情報を取得し、上記ナンバープレート情報と上記走行情報とを対応付けた車両関連情報を、ネットワークNを介して管理サーバ20に送信する。尚、車両関連情報には、さらに、撮影時刻、撮影画像(全景画像)及びナンバープレート画像領域に応じて切り出された抽出画像を含んでもよい。 The in-vehicle system 10 acquires information related to surrounding vehicles using an in-vehicle camera (not shown), and transmits the information related to the surrounding vehicles to the management server 20 via the network N. FIG. Specifically, the in-vehicle system 10 uses an in-vehicle camera to acquire the license plate information of the surrounding vehicle and the driving information of the surrounding vehicle, and transmits the vehicle-related information in which the license plate information and the driving information are associated with each other via the network. N to the management server 20 . The vehicle-related information may further include an extracted image cut out according to the photographing time, the photographed image (full-view image), and the license plate image area.

管理サーバ20は、車載システム10から周辺車両に関連する情報を収集し、周辺車両に関連する情報を記憶部(不図示)に記録する。具体的には、管理サーバ20は、車両関連情報を、ネットワークNを介して車載システム10から受信した場合、車両関連情報に含まれるナンバープレート情報と走行情報とを対応付けて記憶部に格納する。尚、車両関連情報に撮影時刻、撮影画像及び抽出画像が含まれる場合は、これらをナンバープレート情報に対応付けて記憶部に格納する。 The management server 20 collects information related to the surrounding vehicles from the in-vehicle system 10 and records the information related to the surrounding vehicles in a storage unit (not shown). Specifically, when the management server 20 receives the vehicle-related information from the in-vehicle system 10 via the network N, the management server 20 associates the license plate information and the driving information included in the vehicle-related information with each other and stores them in the storage unit. . When the vehicle-related information includes the photographing time, the photographed image, and the extracted image, these are stored in the storage unit in association with the license plate information.

また管理サーバ20は、車両関連情報を表示部(不図示)に表示することで、オペレータに報知してもよい。このとき、管理サーバ20は、走行情報に含まれる位置情報に基づいて、撮影場所を地図上に表示してよい。 The management server 20 may notify the operator of the vehicle-related information by displaying it on a display unit (not shown). At this time, the management server 20 may display the shooting location on the map based on the position information included in the travel information.

図6は、実施形態3にかかる車載システム10の構成を示すブロック図である。車載システム10は、情報処理システム(以下、情報処理装置と呼ぶ)100と、車載カメラ120と、1又は複数のセンサ140とを備える。 FIG. 6 is a block diagram showing the configuration of the in-vehicle system 10 according to the third embodiment. The in-vehicle system 10 includes an information processing system (hereinafter referred to as an information processing device) 100 , an in-vehicle camera 120 and one or more sensors 140 .

車載カメラ120は、撮影車両の任意の位置に搭載され、撮影車両の周囲の風景を撮影し、撮影画像のデータである撮影データを生成する。車載カメラ120は、情報処理装置100に通信可能に接続される。車載カメラ120は、例えば毎秒30フレーム(30fps)の撮影データを生成し、生成した撮影データを30分の1秒ごとに情報処理装置100に供給する。撮影データは、例えば、H.264もしくはH.265等の方式を用いて生成されてもよい。本実施形態3では、車載カメラ120は、車両の前方の風景を撮影する前方カメラである。しかし車載カメラ120は、車両の後方、左側、又は右側の風景を撮影する後方カメラ、左カメラ、又は右カメラであってもよい。あるいは、車載カメラ120は、上述したカメラのうち複数を含んで構成されていてもよい。 The in-vehicle camera 120 is mounted at an arbitrary position of the photographing vehicle, photographs the scenery around the photographing vehicle, and generates photographing data, which is the data of the photographed image. In-vehicle camera 120 is communicably connected to information processing apparatus 100 . The in-vehicle camera 120 generates, for example, 30 frames per second (30 fps) photographed data, and supplies the generated photographed data to the information processing apparatus 100 every 1/30th of a second. The shooting data is, for example, H.264. 264 or H.264. It may be generated using a scheme such as H.265. In the third embodiment, the vehicle-mounted camera 120 is a front camera that captures the scenery in front of the vehicle. However, the vehicle-mounted camera 120 may be a rear camera, left camera, or right camera that captures the scenery behind, left, or right of the vehicle. Alternatively, vehicle-mounted camera 120 may be configured to include a plurality of the cameras described above.

1又は複数のセンサ140は、撮影車両の任意の位置に搭載され、撮影車両の位置情報及び撮影車両の車速を計測するセンサである。例えばセンサ140は、車速を計測し、車速信号を生成するセンサであってよい。尚、センサ140は、情報処理装置100に車速信号を直接送信してもよいが、車速信号をECU(Electronic Control Unit)に送信し、ECUが情報処理装置100に車速信号を送信してもよい。またセンサ140は、GPS等の衛星測位システムから撮影車両の位置を測位するための測位情報を、位置情報として受信する測位情報受信部として機能してもよい。尚、センサ140は、受信した位置情報を直接情報処理装置100に送信してもよいが、位置情報をECUに送信し、ECUが情報処理装置100に位置情報を送信してもよい。 One or a plurality of sensors 140 are mounted at arbitrary positions of the imaging vehicle and are sensors that measure the position information of the imaging vehicle and the vehicle speed of the imaging vehicle. For example, sensor 140 may be a sensor that measures vehicle speed and produces a vehicle speed signal. The sensor 140 may directly transmit the vehicle speed signal to the information processing device 100, or may transmit the vehicle speed signal to an ECU (Electronic Control Unit), and the ECU may transmit the vehicle speed signal to the information processing device 100. . Further, the sensor 140 may function as a positioning information receiving unit that receives positioning information for positioning the position of the photographing vehicle from a satellite positioning system such as GPS as position information. The sensor 140 may transmit the received position information directly to the information processing device 100 , or may transmit the position information to the ECU, and the ECU may transmit the position information to the information processing device 100 .

情報処理装置100は、周辺車両に関連する情報を生成するコンピュータである。情報処理装置100は、通信部101と、画像取得部102と、識別情報推定部103と、走行情報生成部107と、出力制御部108と、記憶部109とを備える。 The information processing device 100 is a computer that generates information related to surrounding vehicles. The information processing device 100 includes a communication unit 101 , an image acquisition unit 102 , an identification information estimation unit 103 , a travel information generation unit 107 , an output control unit 108 and a storage unit 109 .

通信部101は、ネットワークNとの通信インタフェースである。 A communication unit 101 is a communication interface with the network N. FIG.

画像取得部102は、上述した画像取得部902の一例である。画像取得部102は、車載カメラ120から撮影車両の周囲の風景を撮影した撮影画像を取得する。そして画像取得部102は、撮影画像を識別情報推定部103に供給する。 The image acquisition unit 102 is an example of the image acquisition unit 902 described above. The image acquisition unit 102 acquires a photographed image of the scenery around the photographing vehicle from the vehicle-mounted camera 120 . The image acquisition unit 102 then supplies the captured image to the identification information estimation unit 103 .

識別情報推定部103は、上述した識別情報推定部903の一例である。識別情報推定部103は、撮影画像に基づいて、周辺車両の識別情報として、周辺車両のナンバープレート情報を推定する。識別情報推定部103は、検出部104と、抽出部105と、文字認識部106とを有する。 The identification information estimation unit 103 is an example of the identification information estimation unit 903 described above. The identification information estimation unit 103 estimates the license plate information of the surrounding vehicle as the identification information of the surrounding vehicle based on the captured image. The identification information estimation unit 103 has a detection unit 104 , an extraction unit 105 and a character recognition unit 106 .

検出部104は、上述した検出部914の一例である。検出部104は、上述した検出モデルを用いて、撮影画像から、周辺車両のナンバープレートを検出する。そして検出部104は、検出モデルから周辺車両のナンバープレート画像領域NAの位置情報を取得し、抽出部105に供給する。ナンバープレート画像領域NAの位置情報は、ナンバープレートを示す矩形領域の頂点の位置座標であってよい。 The detection unit 104 is an example of the detection unit 914 described above. The detection unit 104 detects license plates of surrounding vehicles from the captured image using the detection model described above. Then, the detection unit 104 acquires the position information of the license plate image area NA of the surrounding vehicle from the detection model, and supplies it to the extraction unit 105 . The position information of the license plate image area NA may be the position coordinates of the vertices of the rectangular area representing the license plate.

抽出部105は、上述した抽出部915の一例である。抽出部105は、周辺車両のナンバープレート画像領域NAに応じた抽出領域を、撮影画像から切り出して、抽出画像を生成する。尚、抽出部105は、抽出領域が、後続の文字認識モデルの入力画像のサイズと一致するように、抽出領域の範囲を定めてよい。またこれに代えて、抽出部105は、所定の抽出領域を撮影画像から切り出し、当該切り出し画像を、後続の文字認識モデルの入力画像のサイズになるようにリサイズすることで、抽出画像を生成してもよい。尚、切り出し画像に対して周辺車両のナンバープレート画像領域NAが傾いている場合、傾きを補正した上で、抽出画像を生成してもよい。
抽出部105は、抽出画像を文字認識部106に供給する。
Extraction unit 105 is an example of extraction unit 915 described above. The extraction unit 105 cuts out an extraction area corresponding to the license plate image area NA of the surrounding vehicle from the captured image to generate an extraction image. Note that the extraction unit 105 may determine the range of the extraction area so that the size of the extraction area matches the size of the input image of the subsequent character recognition model. Alternatively, the extraction unit 105 cuts out a predetermined extraction region from the captured image, and resizes the cutout image to the size of the input image of the subsequent character recognition model to generate an extraction image. may If the license plate image area NA of the surrounding vehicle is tilted with respect to the clipped image, the extracted image may be generated after correcting the tilt.
The extraction unit 105 supplies the extracted image to the character recognition unit 106 .

文字認識部106は、上述した文字認識部916の一例である。文字認識部106は、上述した文字認識モデルを用いて、抽出画像から、複数の文字情報と、各文字情報に対応する図形を取り囲む領域の位置座標とを取得する。本実施形態3では、図形を取り囲む領域の位置座標は、図形を取り囲む領域の代表点の位置座標であり、例えば、図形を取り囲む矩形領域の頂点の位置座標又は重心の位置座標であってよい。 The character recognition unit 106 is an example of the character recognition unit 916 described above. The character recognition unit 106 uses the above-described character recognition model to obtain a plurality of pieces of character information and the position coordinates of the area surrounding the figure corresponding to each character information from the extracted image. In the third embodiment, the position coordinates of the area surrounding the figure are the position coordinates of the representative point of the area surrounding the figure, and may be, for example, the position coordinates of the vertices or the position coordinates of the center of gravity of the rectangular area surrounding the figure.

そして文字認識部106は、複数の文字情報と、各文字情報に対応する図形を取り囲む領域の位置座標とに基づいて周辺車両のナンバープレート情報を生成する。文字認識部106は、生成したナンバープレート情報を、出力制御部108に供給する。 Then, the character recognition unit 106 generates license plate information of surrounding vehicles based on the plurality of character information and the position coordinates of the area surrounding the graphic corresponding to each character information. The character recognition unit 106 supplies the generated license plate information to the output control unit 108 .

走行情報生成部107は、上述した走行情報生成部907の一例である。走行情報生成部107は、センサ140から、直接的又は間接的に、撮影車両の走行に関する第1走行情報(位置情報、進行方向及び車速)を取得する。そして走行情報生成部107は、上述した通り、第1走行情報に基づいて、周辺車両の走行に関する第2走行情報(位置情報、進行方向及び車速)を生成する。
そして走行情報生成部107は、第2走行情報を出力制御部108に供給する。
The travel information generator 107 is an example of the travel information generator 907 described above. The travel information generation unit 107 acquires, directly or indirectly, first travel information (position information, traveling direction, and vehicle speed) regarding travel of the photographing vehicle from the sensor 140 . Then, as described above, the travel information generation unit 107 generates second travel information (position information, traveling direction, and vehicle speed) regarding travel of surrounding vehicles based on the first travel information.
Then, the travel information generator 107 supplies the second travel information to the output controller 108 .

出力制御部108は、上述した出力制御部908及び出力制御部918の一例である。出力制御部108は、周辺車両のナンバープレート情報と、第2走行情報とを対応付けて出力する。具体的には、出力制御部108は、周辺車両のナンバープレート情報と、第2走行情報と、撮影時刻と、撮影画像と、抽出画像とを対応付けた車両関連情報を、通信部101を介してネットワークN経由で管理サーバ20に送信する。尚、出力制御部108は、周辺車両のナンバープレート情報及び第2走行情報が生成される度に、車両関連情報を管理サーバ20に送信してよい。しかしこれに代えて、出力制御部108は、記憶部109に車両関連情報を蓄積しておき、定期的に、又は蓄積された情報量が所定量以上になった場合に、車両関連情報を管理サーバ20に送信してもよい。あるいは、出力制御部108は、管理サーバ20から車両関連情報の送信を要求された場合に、記憶部109に蓄積された車両関連情報を管理サーバ20に送信してもよい。 The output control unit 108 is an example of the output control unit 908 and the output control unit 918 described above. The output control unit 108 outputs the license plate information of the surrounding vehicle and the second travel information in association with each other. Specifically, the output control unit 108 transmits, via the communication unit 101, the vehicle-related information in which the license plate information of the surrounding vehicle, the second travel information, the photographing time, the photographed image, and the extracted image are associated with each other. is sent to the management server 20 via the network N. Note that the output control unit 108 may transmit the vehicle-related information to the management server 20 each time the license plate information and the second travel information of the surrounding vehicle are generated. However, instead of this, the output control unit 108 accumulates vehicle-related information in the storage unit 109, and manages the vehicle-related information periodically or when the amount of accumulated information exceeds a predetermined amount. You may transmit to the server 20. Alternatively, output control unit 108 may transmit vehicle-related information accumulated in storage unit 109 to management server 20 when transmission of vehicle-related information is requested by management server 20 .

記憶部109は、情報処理装置100の情報処理に必要な情報を記憶する記憶媒体である。また記憶部109は、車両関連情報を記憶してよい。 The storage unit 109 is a storage medium that stores information necessary for information processing of the information processing apparatus 100 . The storage unit 109 may also store vehicle-related information.

図7は、実施形態3にかかる撮影画像300の一例を示す図である。撮影画像300には、車両画像領域Vと、その他の風景を示す画像領域とが含まれる。ここで、検出部104は、検出モデルに撮影画像300を入力する。例えば、検出モデルは、撮影画像300中の矩形のナンバープレート画像領域NAを検出し、撮影画像300中のナンバープレート画像領域NAの頂点の位置情報を出力する。これにより、検出部104は、撮影画像300からナンバープレート画像領域NAの頂点の位置情報を取得することができる。 FIG. 7 is a diagram showing an example of a captured image 300 according to the third embodiment. The captured image 300 includes a vehicle image area V and other image areas showing scenery. Here, the detection unit 104 inputs the captured image 300 to the detection model. For example, the detection model detects a rectangular license plate image area NA in the captured image 300 and outputs the position information of the vertex of the license plate image area NA in the captured image 300 . Thereby, the detection unit 104 can acquire the position information of the vertex of the license plate image area NA from the captured image 300 .

そして抽出部105は、ナンバープレート画像領域NAの頂点の位置情報に基づいて、撮影画像300から、ナンバープレート画像領域NAを含む矩形領域を切り出し、これにより抽出画像を生成する。 Then, the extraction unit 105 cuts out a rectangular area including the license plate image area NA from the captured image 300 based on the positional information of the vertices of the license plate image area NA, thereby generating an extracted image.

図8は、実施形態3にかかる抽出画像310の一例を示す図である。抽出画像310は、ナンバープレート画像領域NAを含んでいる。ナンバープレート画像領域NAには、文字情報に対応する図形を複数含んでいる。文字情報は、ナンバープレート情報の各識別情報を構成する。 FIG. 8 is a diagram showing an example of an extracted image 310 according to the third embodiment. Extracted image 310 includes license plate image area NA. The license plate image area NA includes a plurality of figures corresponding to character information. The character information constitutes each identification information of the license plate information.

ここでナンバープレート情報は、種別(分類項目と呼ばれることがある)が異なる複数の識別情報から構成されている。具体的には、複数の識別情報は、陸運支局T、分類番号C、平仮名等Uおよび一連指定番号Sである。たとえば陸運支局Tは、漢字または仮名文字等であり、本図では「足立」である。また分類番号Cは、数字等であり、本図では「330」である。また平仮名等Uは、仮名文字またはアルファベット等であり、本図では「え」である。一連指定番号Sは、数字等であり、本図では「12-34」である。 Here, the license plate information is composed of a plurality of pieces of identification information of different types (sometimes called classification items). Specifically, the plurality of pieces of identification information are land transportation branch office T, classification number C, hiragana U, and series designation number S. For example, the land transport branch office T is represented by kanji characters or kana characters, and is "Adachi" in this figure. The classification number C is a number or the like, and is "330" in this figure. Hiragana, etc. U is a kana character, an alphabet, or the like, and is "e" in the figure. The series designation number S is a number or the like, and is "12-34" in this figure.

図9は、実施形態3にかかる文字認識処理を説明するための図である。文字認識部106は、抽出画像310を文字認識モデルCRMに入力する。文字認識モデルCRMは、抽出画像310から図形を取り囲む矩形領域を検出し、矩形領域毎に図形が示すと推定される文字情報を出力する。例えば文字認識モデルCRMは、文字情報として、「足立」、「3」、「3」、「0」、「え」、「1」、「2」、「3」及び「4」と、各文字情報に対応する矩形領域の代表点(例えば、頂点)の位置座標とを含む認識結果320を出力する。そして文字認識部106は、矩形領域の代表点の位置座標に基づいて、各文字情報がどの識別情報を示しているのかを判定する。例えば、文字認識部106は、「足立」は陸運支局Tを示し、「3」、「3」及び「0」は分類番号Cを示し、「え」は平仮名等Uを示し、「1」、「2」、「3」及び「4」は一連指定番号Sを示すと判定する。分類番号C及び一連指定番号Sに関しては、矩形領域の代表点の横軸の位置座標に基づいて、抽出画像310の左に位置する文字情報から順に、文字情報を連結する。その結果、文字認識部106は、「(陸運支局T)足立/(分類番号C)330/(平仮名等U)え/(一連指定番号S)12-34」というナンバープレート情報を生成する。 FIG. 9 is a diagram for explaining character recognition processing according to the third embodiment. The character recognition unit 106 inputs the extracted image 310 to the character recognition model CRM. The character recognition model CRM detects a rectangular area surrounding a figure from the extracted image 310, and outputs character information estimated to be indicated by the figure for each rectangular area. For example, the character recognition model CRM has "Adachi", "3", "3", "0", "E", "1", "2", "3" and "4" as character information, and each character A recognition result 320 including position coordinates of representative points (for example, vertices) of the rectangular area corresponding to the information is output. Then, the character recognition unit 106 determines which identification information each piece of character information indicates, based on the positional coordinates of the representative point of the rectangular area. For example, the character recognition unit 106 indicates that "Adachi" indicates land transportation branch office T, "3", "3" and "0" indicate classification number C, "E" indicates hiragana U, etc., "1", It is determined that "2", "3" and "4" indicate the series designation number S. Regarding the classification number C and the series designation number S, the character information is concatenated in order from the character information located on the left side of the extracted image 310 based on the positional coordinates of the representative point of the rectangular area on the horizontal axis. As a result, the character recognition unit 106 generates license plate information "(Land Transport Office T) Adachi/(Classification number C) 330/(Hiragana U) E/(Serial designation number S) 12-34".

尚、文字認識部106は、所定の位置に文字情報を検出できなかった場合、又は同じ識別情報中の隣り合う文字情報に対応する矩形領域の代表点間の距離が所定閾値以上である場合、文字情報の代わりに所定の記号「?」を付与して、識別情報を生成してよい。例えば、一連指定番号Sの「2」が検出できなかった場合、文字認識部106は、「足立/330/え/1?-34」というナンバープレート情報を生成する。これにより、文字認識部106は、後続の処理で容易に“抜け”を判定することができる。 When the character recognition unit 106 cannot detect character information at a predetermined position, or when the distance between representative points of rectangular areas corresponding to adjacent character information in the same identification information is equal to or greater than a predetermined threshold value, Identification information may be generated by adding a predetermined symbol “?” instead of character information. For example, if the serial designation number S "2" cannot be detected, the character recognition unit 106 generates license plate information "Adachi/330/E/1?-34". As a result, the character recognition unit 106 can easily determine "missing" in subsequent processing.

尚、文字認識モデルCRMは、矩形領域毎に、図形が示すと推定される文字情報に加えて、その文字情報であると推定した場合の信頼度を出力してもよい。
図10は、実施形態3にかかる認識結果320の一例を示す図である。例えば認識結果320は、文字情報と、各文字情報に対応する矩形領域の代表点の位置座標と、各文字情報についての信頼度とを含む。一例として、平仮名等Uを示す「え」という文字認識結果が32%の信頼度を有しており、分類番号Cの一部を示す「0」が90%の信頼度を有している。
Note that the character recognition model CRM may output, for each rectangular area, the reliability of the assumed character information in addition to the character information assumed to be indicated by the graphic.
FIG. 10 is a diagram showing an example of the recognition result 320 according to the third embodiment. For example, the recognition result 320 includes character information, the position coordinates of the representative point of the rectangular area corresponding to each character information, and the reliability of each character information. As an example, the character recognition result "E" indicating hiragana U has a reliability of 32%, and "0" indicating a part of the classification number C has a reliability of 90%.

ここで、文字認識モデルCRMは、同じ図形に対して複数の文字情報を出力する場合がある。この場合、文字認識部106は、複数の文字情報と各文字情報の信頼度とに基づいて、複数の文字情報から所定数の文字情報を選択し、選択した所定数の文字情報に基づいてナンバープレート情報を生成してよい。例えば、文字認識部106は、陸運支局T及び平仮名等Uのように、1の文字情報から構成される識別情報については、最も信頼度が高い文字情報を、ナンバープレート情報を構成する識別情報として選択する。これに対して、分類番号C及び一連指定番号Sのように、複数の文字情報から構成される識別情報については、文字認識部106は、信頼度の高い所定桁数の文字情報を選択してよい。例えば、文字認識部106は、一連指定番号Sであれば信頼度が上位4個の文字情報を選択してよい。 Here, the character recognition model CRM may output a plurality of pieces of character information for the same figure. In this case, the character recognition unit 106 selects a predetermined number of pieces of character information from the plurality of pieces of character information based on the plurality of pieces of character information and the reliability of each piece of character information, and recognizes the number based on the selected predetermined number of pieces of character information. Plate information may be generated. For example, the character recognition unit 106 recognizes the character information having the highest degree of reliability as the identification information that constitutes the license plate information for the identification information composed of one piece of character information such as the land transport branch office T and hiragana U. select. On the other hand, for identification information composed of a plurality of pieces of character information, such as the classification number C and the series designation number S, the character recognition unit 106 selects character information of a predetermined number of digits with high reliability. good. For example, the character recognition unit 106 may select the character information with the highest four reliability levels for the serial designation number S. FIG.

あるいは、文字認識部106は、複数の文字情報と各文字情報に対応する図形の位置とに基づいて、複数の文字情報から所定数の文字情報を選択し、選択した所定数の文字情報に基づいてナンバープレート情報を生成してもよい。例えば、複数の文字情報から構成される識別情報については、文字認識部106は、矩形領域の代表点の横軸の位置座標と、一桁の図形の最小幅とを用いて、同じ桁の文字情報があるか否かを判定してよい。そして文字認識部106は、同じ桁の文字情報があると判定した場合、同じ桁の文字情報のうち、信頼度が最も高い文字情報を、識別情報を構成する文字情報として選択してよい。尚、このときも文字認識部106は、信頼度に基づいて、所定桁数となるように文字情報の選択を調整してよい。 Alternatively, the character recognition unit 106 selects a predetermined number of character information from the plurality of character information based on the plurality of character information and the position of the figure corresponding to each character information, and based on the selected predetermined number of character information. may generate license plate information. For example, for identification information composed of a plurality of pieces of character information, the character recognition unit 106 uses the position coordinates of the representative point of the rectangular area on the horizontal axis and the minimum width of the one-digit figure to identify characters of the same digit. It may be determined whether there is information. When determining that there is character information of the same digit, the character recognition unit 106 may select character information with the highest reliability among the character information of the same digit as the character information constituting the identification information. Also at this time, the character recognition unit 106 may adjust the selection of character information so that the number of digits is a predetermined number based on the reliability.

そして文字認識部106は、選択した文字情報を、矩形領域の代表点の横軸の位置座標に基づいて連結して、ナンバープレート情報を構成する識別情報を生成する。 Then, the character recognition unit 106 connects the selected character information based on the positional coordinates of the representative points of the rectangular area on the horizontal axis to generate identification information constituting the license plate information.

図11は、実施形態3にかかる情報処理方法の流れを示すフローチャートである。まず画像取得部102は、車両の周囲の撮影画像を車載カメラ120から取得する(ステップS100)。 FIG. 11 is a flow chart showing the flow of the information processing method according to the third embodiment. First, the image acquisition unit 102 acquires a photographed image of the surroundings of the vehicle from the vehicle-mounted camera 120 (step S100).

次に、識別情報推定部103は、ステップS110に示す検出処理を実行する。ステップS110は、ステップS111及びS112で構成されてよい。ステップS111において、検出部104は、検出モデルを用いて、撮影画像から周辺車両のナンバープレートを検出する。そしてステップS112において、抽出部105は、ナンバープレート画像領域NAに応じた抽出領域を、撮影画像から切り出して、抽出画像を生成する。 Next, the identification information estimation unit 103 executes detection processing shown in step S110. Step S110 may consist of steps S111 and S112. In step S111, the detection unit 104 detects license plates of surrounding vehicles from the captured image using the detection model. Then, in step S112, the extraction unit 105 cuts out an extraction area corresponding to the license plate image area NA from the captured image to generate an extraction image.

次に、識別情報推定部103は、ステップS120に示す文字認識処理を実行する。ステップS120は、ステップS121及びS122で構成されてよい。ステップS1212において、文字認識部106は、文字認識モデルを用いて、抽出画像から文字情報を取得する。そしてステップS122において、文字認識部106は、文字情報に基づいて、ナンバープレート情報を生成する。 Next, the identification information estimation unit 103 executes character recognition processing shown in step S120. Step S120 may consist of steps S121 and S122. In step S1212, the character recognition unit 106 acquires character information from the extracted image using the character recognition model. Then, in step S122, the character recognition unit 106 generates license plate information based on the character information.

次に走行情報生成部107は、ステップS130に示す走行情報生成処理を実行する。ステップS130は、ステップS131及びS132で構成される。ステップS131において、走行情報生成部107は、センサ140から第1走行情報を取得する。そしてステップS132において、走行情報生成部107は、第1走行情報に基づいて第2走行情報を生成する。尚、ステップS130は、ステップS110又はS120より前に実行されてもよいし、ステップS110又はS120と並行して行われてもよい。 Next, the travel information generation unit 107 executes travel information generation processing shown in step S130. Step S130 is composed of steps S131 and S132. In step S<b>131 , the travel information generator 107 acquires first travel information from the sensor 140 . Then, in step S132, the travel information generator 107 generates second travel information based on the first travel information. Note that step S130 may be performed before step S110 or S120, or may be performed in parallel with step S110 or S120.

次に、出力制御部108は、通信部101を介して、ステップS122で生成したナンバープレート情報と、ステップS132で生成した第2走行情報とを対応付けた車両管理情報を、管理サーバ20に送信する(ステップS140)。 Next, the output control unit 108 transmits the vehicle management information in which the license plate information generated in step S122 and the second travel information generated in step S132 are associated with each other to the management server 20 via the communication unit 101. (step S140).

このように実施形態3によれば、実施形態1及び2と同様の効果を奏することができる。また、車両に対して車載システム10を搭載するだけで、カメラの固定設置が出来ない細い道路でもナンバープレートの認識が可能となる。尚、車載システム10は、既存機器であるドライブレコーダ等の車載カメラに対して、情報処理装置100を追加すれば実現可能であるため、比較的低コストで実現する事ができる。 Thus, according to the third embodiment, the same effects as those of the first and second embodiments can be obtained. In addition, just by mounting the in-vehicle system 10 on the vehicle, it becomes possible to recognize the license plate even on a narrow road where a fixed camera cannot be installed. The in-vehicle system 10 can be realized by adding the information processing device 100 to an existing in-vehicle camera such as a drive recorder, and thus can be realized at a relatively low cost.

また、本実施形態3では、車載システム10において、検出処理及び文字認識処理を行っている。これにより、管理サーバ20において検出処理及び文字認識処理を行う場合と比べて、通信環境により画質が悪くなり検出及び文字認識精度が低下するという事態を回避できる。しかし通信環境が整っている場合や検出及び文字認識精度が許容される場合は、これに代えて、車載システム10が撮影画像を管理サーバ20に送信し、管理サーバ20において検出処理及び文字認識処理を行ってもよい。 Further, in the third embodiment, the in-vehicle system 10 performs detection processing and character recognition processing. As a result, compared with the case where the management server 20 performs the detection process and the character recognition process, it is possible to avoid a situation in which the image quality deteriorates due to the communication environment and the accuracy of detection and character recognition decreases. However, if the communication environment is in place or if the accuracy of detection and character recognition is acceptable, instead of this, the in-vehicle system 10 transmits the captured image to the management server 20, and the management server 20 performs detection processing and character recognition processing. may be performed.

<実施形態3の第1変形例>
上述の実施形態3では、検出部104は、撮影画像から周辺車両のナンバープレートを検出する。しかし、検出部104は、看板又は道路標識等の、ナンバープレートと同程度のサイズの矩形体や、ナンバープレートと同様に図形文字を含む矩形体を、ナンバープレートとして検出することがある。
<First Modification of Embodiment 3>
In the third embodiment described above, the detection unit 104 detects license plates of surrounding vehicles from the captured image. However, the detection unit 104 may detect, as a license plate, a rectangular body having a size similar to that of a license plate, such as a signboard or a road sign, or a rectangular body containing graphic characters like a license plate.

図12は、撮影画像330の一例を示す図である。本図には、検出部104が、ナンバープレート画像領域NA1及びNA2に加えて、ナンバープレート画像領域NA3を検出したことを示している。しかしナンバープレート画像領域NA3は、道路標識(交差点名標識)であり、ナンバープレートではない。このような誤検出を回避するため、実施形態3の第1変形例では、検出部104は、撮影画像のうち、検出対象となる領域(検出対象領域)を予め定め、検出対象領域からナンバープレートを検出する。 FIG. 12 is a diagram showing an example of the captured image 330. As shown in FIG. This figure shows that the detection unit 104 has detected the license plate image area NA3 in addition to the license plate image areas NA1 and NA2. However, the license plate image area NA3 is a road sign (intersection name sign), not a license plate. In order to avoid such erroneous detection, in the first modification of the third embodiment, the detection unit 104 predetermines a detection target region (detection target region) in the captured image, and detects the license plate from the detection target region. to detect

図13は、実施形態3の第1変形例にかかる撮影画像330の一例を示す図である。本図では、検出部104は、撮影画像330の下側の部分を、検出対象領域DAとして定めている。より具体的には、検出部104は、検出対象領域DAの上端が、撮影画像330の上端から所定長さだけ下に離隔するように、検出対象領域DAを定めている。例えば、検出部104は、撮影画像330の下半分、又は下側の1/3の領域を検出対象領域DAとして定めてよい。これは、撮影車両の近傍を走行する周辺車両のナンバープレートは、撮影画像330の下側に現れる可能性が高いからである。したがって、撮影画像330の上側に現れる可能性が高い看板又は道路標識を検出対象から排除することができ、検出精度を高めることができる。したがって、本図では、検出対象領域DAに含まれるナンバープレート画像領域NA1及びNA2は検出されているが、ナンバープレート画像領域NA3は検出されていない。 FIG. 13 is a diagram showing an example of a captured image 330 according to the first modified example of the third embodiment. In this figure, the detection unit 104 defines the lower portion of the captured image 330 as the detection target area DA. More specifically, the detection unit 104 defines the detection target area DA such that the upper end of the detection target area DA is separated downward from the upper end of the captured image 330 by a predetermined length. For example, the detection unit 104 may determine the lower half or the lower ⅓ area of the captured image 330 as the detection target area DA. This is because there is a high possibility that the license plates of surrounding vehicles running in the vicinity of the photographed vehicle appear below the photographed image 330 . Therefore, signboards or road signs that are likely to appear on the upper side of the captured image 330 can be excluded from detection targets, and detection accuracy can be improved. Therefore, in this figure, the license plate image areas NA1 and NA2 included in the detection target area DA are detected, but the license plate image area NA3 is not detected.

尚、検出部104は、撮影車両と周辺車両とが所定距離以上離隔している場合、本図のナンバープレート画像領域NA2のように、小さなサイズのナンバープレート画像領域NAを検出することがある。この場合、文字認識部106において、信頼度の高い文字認識を行うことが困難となる。したがって、検出部104において検出されたナンバープレート画像領域NAが所定サイズ未満である場合、後続の抽出部105において抽出画像を生成しないようにしてもよい。例えば、抽出部105は、ナンバープレート画像領域NAの幅が所定画素数未満である場合、抽出画像を生成しなくてよい。これにより、情報処理装置100による情報処理を高速化することができる。 Note that the detection unit 104 may detect a license plate image area NA of a small size, such as the license plate image area NA2 in this figure, when the vehicle to be photographed and the surrounding vehicle are separated by a predetermined distance or more. In this case, it becomes difficult for the character recognition unit 106 to perform highly reliable character recognition. Therefore, if the license plate image area NA detected by the detection unit 104 is smaller than a predetermined size, the subsequent extraction unit 105 may not generate an extracted image. For example, when the width of the license plate image area NA is less than the predetermined number of pixels, the extraction unit 105 does not need to generate the extraction image. Thereby, information processing by the information processing apparatus 100 can be speeded up.

<実施形態3の第2変形例>
実施形態3では、車載カメラ120は対向車両や追従車両を連続して撮影し、情報処理装置100は、撮影画像毎に対向車両や追従車両のナンバープレート情報を生成していた。このため、情報処理装置100は、同一の周辺車両のナンバープレート情報を、複数、管理サーバ20に送信していた。特に、情報処理装置100は、撮影車両及び周辺車両が信号待ちをしている場合、同一の周辺車両に関連する情報を、複数、管理サーバ20に送信することになる。これにより、管理サーバ20の記憶部の容量及び情報処理装置100の記憶部109の容量を圧迫してしまうという問題がある。
<Second Modification of Embodiment 3>
In the third embodiment, the in-vehicle camera 120 continuously photographs the oncoming vehicle and the following vehicle, and the information processing device 100 generates the license plate information of the oncoming vehicle and the following vehicle for each photographed image. For this reason, the information processing device 100 transmits the license plate information of the same peripheral vehicle to the management server 20 multiple times. In particular, the information processing apparatus 100 transmits a plurality of pieces of information related to the same surrounding vehicle to the management server 20 when the photographing vehicle and surrounding vehicles are waiting for a signal. As a result, there is a problem that the capacity of the storage unit of the management server 20 and the capacity of the storage unit 109 of the information processing apparatus 100 are pressed.

そこで、実施形態3の第2変形例では、文字認識部106は、撮影タイミングが異なる複数の撮影画像の各々について生成されたナンバープレート情報に基づいて、1のナンバープレート情報を生成する。つまり文字認識部106は、複数のナンバープレート情報を合成して、1のナンバープレート情報を生成する。そして出力制御部108は、文字認識部106により生成された1のナンバープレート情報を、第2走行情報に対応付けて出力する。 Therefore, in the second modified example of the third embodiment, the character recognition unit 106 generates one piece of license plate information based on the license plate information generated for each of a plurality of shot images taken at different shooting timings. That is, the character recognition unit 106 synthesizes a plurality of pieces of license plate information to generate one piece of license plate information. Then, the output control unit 108 outputs the one piece of license plate information generated by the character recognition unit 106 in association with the second travel information.

図14は、実施形態3の第2変形例にかかるナンバープレート情報の合成処理を説明するための図である。本図には、同じ周辺車両に関する複数の抽出画像310a,310bが示されている。抽出画像310aからは、「足立/330/?/12-34」というナンバープレート情報が得られ、抽出画像310bからは、「足立/3?0/え/12-3?」というナンバープレート情報が得られている。この場合、文字認識部106は、2つのナンバープレート情報を統合して、「足立/330/え/12-34」という1のナンバープレート情報を、周辺車両のナンバープレート情報として生成する。例えば、文字認識部106は、1つの抽出画像から取得したナンバープレート情報で認識できなかった文字情報を示す「?」を、他の抽出画像から取得したナンバープレート情報で補完することで、1のナンバープレート情報を生成してよい。また文字認識部106は、各抽出画像に対して文字認識モデルCRMが出力した各文字情報の信頼度に基づいて、1のナンバープレート情報を生成してもよい。例えば、文字認識部106は、各識別情報に含まれる各文字情報について、抽出画像の間で最も信頼度が高い文字情報を選択し、選択した文字情報を組み合わせて、1のナンバープレート情報を生成してよい。 FIG. 14 is a diagram for explaining processing for synthesizing license plate information according to the second modification of the third embodiment. This figure shows a plurality of extracted images 310a and 310b relating to the same surrounding vehicle. License plate information "Adachi/330/?/12-34" is obtained from the extracted image 310a, and license plate information "Adachi/3?0/eh/12-3?" is obtained from the extracted image 310b. have been obtained. In this case, the character recognition unit 106 integrates the two license plate information and generates one license plate information "Adachi/330/E/12-34" as the license plate information of the surrounding vehicle. For example, the character recognition unit 106 complements “?” indicating character information that could not be recognized in license plate information obtained from one extracted image with license plate information obtained from another extracted image, thereby obtaining 1 License plate information may be generated. Further, the character recognition unit 106 may generate one piece of license plate information based on the reliability of each character information output by the character recognition model CRM for each extracted image. For example, the character recognition unit 106 selects character information with the highest reliability among the extracted images for each piece of character information included in each piece of identification information, and combines the selected character information to generate one piece of license plate information. You can

これにより、出力制御部108が出力するデータ量を削減し、管理サーバ20の記憶部の容量及び情報処理装置100の記憶部109の容量を圧迫するという問題を回避できる。また、文字認識部106は、1つの抽出画像からは認識できなかった文字情報を、他の抽出画像によって補完することができるため、ナンバープレート情報の推定精度が向上する。 As a result, the amount of data output by the output control unit 108 can be reduced, and the problem of pressure on the capacity of the storage unit of the management server 20 and the capacity of the storage unit 109 of the information processing apparatus 100 can be avoided. In addition, since the character recognition unit 106 can complement character information that cannot be recognized from one extracted image with another extracted image, the accuracy of estimating license plate information is improved.

尚、抽出画像310a及び抽出画像310bが同一の周辺車両に対応する画像であるか否かは、各抽出画像から得られたナンバープレート情報の重複度に基づいて、文字認識部106により判定されてよい。例えば文字認識部106は、重複度が所定閾値以上のナンバープレート情報を、同一の周辺車両に対応するナンバープレート情報であると判定する。また、本図では、文字認識部106は、2つの抽出画像から得られたナンバープレート情報を合成したが、抽出画像の数はこれに限らない。 Whether or not the extracted image 310a and the extracted image 310b are images corresponding to the same surrounding vehicle is determined by the character recognition unit 106 based on the redundancy of license plate information obtained from each extracted image. good. For example, the character recognition unit 106 determines license plate information with a degree of redundancy equal to or greater than a predetermined threshold as license plate information corresponding to the same surrounding vehicle. Also, in this figure, the character recognition unit 106 synthesizes license plate information obtained from two extracted images, but the number of extracted images is not limited to this.

<実施形態3の第3変形例>
実施形態3にかかる情報処理装置100の機能は、複数の情報処理装置によって実現されてもよい。
図15は、実施形態3の第3変形例にかかる車載システム10の構成を示すブロック図である。車載システム10に含まれる情報処理装置100は、画像解析装置160と、走行情報生成装置107bと、I/O110と、通信端末180とを有する。
<Third Modification of Embodiment 3>
The functions of the information processing device 100 according to the third embodiment may be implemented by a plurality of information processing devices.
FIG. 15 is a block diagram showing the configuration of an in-vehicle system 10 according to a third modified example of the third embodiment. The information processing device 100 included in the in-vehicle system 10 has an image analysis device 160 , a travel information generation device 107 b , an I/O 110 and a communication terminal 180 .

画像解析装置160は、車載カメラ120で撮影された撮影画像に基づいて、ナンバープレートの検出及び認識を行う情報処理装置である。画像解析装置160は、画像取得部102と、識別情報推定部103と、第1出力制御部108aと、第1記憶部109aとを含む。第1出力制御部108aは、識別情報推定部103が生成したナンバープレート情報を、I/O110を介して通信端末180に出力する。例えば、第1出力制御部108aは、LAN(Local Area Network)を介してI/O110に接続されている。第1記憶部109aは、画像解析装置160の処理に必要な情報を記憶する記憶媒体である。撮影画像は第1記憶部109aに保存されてよい。 The image analysis device 160 is an information processing device that detects and recognizes the license plate based on the captured image captured by the vehicle-mounted camera 120 . The image analysis device 160 includes an image acquisition unit 102, an identification information estimation unit 103, a first output control unit 108a, and a first storage unit 109a. First output control section 108 a outputs the license plate information generated by identification information estimation section 103 to communication terminal 180 via I/O 110 . For example, the first output control unit 108a is connected to the I/O 110 via a LAN (Local Area Network). The first storage unit 109a is a storage medium that stores information necessary for processing of the image analysis device 160. FIG. The captured image may be stored in the first storage unit 109a.

走行情報生成装置107bは、センサ140に接続され、走行情報生成部107と同様の機能を有する。走行情報生成装置107bは、第2走行情報を、I/O110を介して通信端末180に出力する。例えば走行情報生成装置107bは、USB2.0の通信規格によりI/O110に接続されている。尚、通信規格は、USB2.0に限らず、USB2.0以上であってよい。 The travel information generator 107b is connected to the sensor 140 and has the same function as the travel information generator 107. The travel information generation device 107b outputs the second travel information to the communication terminal 180 via the I/O 110. FIG. For example, the travel information generation device 107b is connected to the I/O 110 according to the USB 2.0 communication standard. Note that the communication standard is not limited to USB 2.0, and may be USB 2.0 or higher.

I/O110は、画像解析装置160、走行情報生成装置107b及び通信端末180の間のデータ入出力を中継するインタフェースである。例えばI/O110は、USB2.0の通信規格により通信端末180に接続されている。尚、通信規格は、USB2.0に限らず、USB2.0以上であってよい。 The I/O 110 is an interface that relays data input/output between the image analysis device 160 , the travel information generation device 107 b and the communication terminal 180 . For example, the I/O 110 is connected to the communication terminal 180 according to the USB 2.0 communication standard. Note that the communication standard is not limited to USB 2.0, and may be USB 2.0 or higher.

通信端末180は、タブレット端末又はスマートフォン等の通信端末である。通信端末180は、LTE(Long Term Evolution)回線が利用できる通信端末であってよい。通信端末180は、画像解析装置160で解析されたデータと、走行情報生成装置107b経由で入手できる第2走行情報と、撮影時刻との関連付けを行い、車両関連情報として蓄積する。また、通信端末180は、車両関連情報を管理サーバ20に送信する。通信端末180は、通信部101と、第2出力制御部108bと、第2記憶部109bとを含む。第2出力制御部108bは、情報処理装置100の出力制御部108と同様の機能を有してよい。第2記憶部109bは、通信端末180の処理に必要な情報を記憶する記憶媒体である。車両関連情報は、第2記憶部109bに蓄積される。 The communication terminal 180 is a communication terminal such as a tablet terminal or a smart phone. Communication terminal 180 may be a communication terminal that can use an LTE (Long Term Evolution) line. The communication terminal 180 associates the data analyzed by the image analysis device 160, the second travel information that can be obtained via the travel information generation device 107b, and the shooting time, and accumulates them as vehicle-related information. Communication terminal 180 also transmits vehicle-related information to management server 20 . Communication terminal 180 includes communication section 101, second output control section 108b, and second storage section 109b. The second output control unit 108b may have the same function as the output control unit 108 of the information processing device 100. FIG. The second storage unit 109b is a storage medium that stores information necessary for processing of the communication terminal 180. FIG. Vehicle-related information is accumulated in the second storage unit 109b.

<実施形態4>
次に、本開示の実施形態4について説明する。図16は、実施形態4にかかる車両管理システム1aの概略構成図である。車両管理システム1aは、車載システム10及び管理サーバ20に加えて、検出用教師データ生成装置30、検出用学習装置40、認識用教師データ生成装置50及び認識用学習装置60を備える。検出用教師データ生成装置30、検出用学習装置40、認識用教師データ生成装置50及び認識用学習装置60は、ネットワークNに接続されている。
<Embodiment 4>
Next, Embodiment 4 of the present disclosure will be described. FIG. 16 is a schematic configuration diagram of a vehicle management system 1a according to the fourth embodiment. The vehicle management system 1 a includes a detection teacher data generation device 30 , a detection learning device 40 , a recognition teacher data generation device 50 and a recognition learning device 60 in addition to the vehicle-mounted system 10 and the management server 20 . The detection teaching data generation device 30, the detection learning device 40, the recognition teaching data generation device 50, and the recognition learning device 60 are connected to a network N. FIG.

検出用教師データ生成装置30は、検出モデルを学習するための教師データである検出用教師データを生成するコンピュータである。検出用教師データは、画像に対して、ナンバープレートを示す画像領域の位置情報がアノテーション情報として付与されたデータである。検出用教師データ生成装置30は、画像に対して、ナンバープレートを示す画像領域の位置情報をアノテーション情報として付与して、検出用教師データを生成する。そして検出用教師データ生成装置30は、生成した検出用教師データを、ネットワークNを介して検出用学習装置40に出力する。 The detection teacher data generation device 30 is a computer that generates detection teacher data, which is teacher data for learning a detection model. The detection training data is data in which the position information of the image area showing the license plate is added as annotation information to the image. The detection training data generation device 30 generates detection training data by adding position information of an image area showing a license plate to the image as annotation information. Then, the detection teaching data generation device 30 outputs the generated detection teaching data to the detection learning device 40 via the network N. FIG.

検出用学習装置40は、検出用教師データを用いて、検出モデルを学習するコンピュータである。検出用学習装置40は、生成した学習済の検出モデルを、ネットワークNを介して車載システム10に出力する。 The detection learning device 40 is a computer that learns a detection model using detection teacher data. The detection learning device 40 outputs the generated learned detection model to the in-vehicle system 10 via the network N. FIG.

認識用教師データ生成装置50は、文字認識モデルを学習するための教師データである認識用教師データを生成するコンピュータである。認識用教師データ生成装置50としては、例えば、発明者らによる特願2020-072831に記載されている画像生成装置を用いることができる。認識用教師データは、文字画像に対して、文字情報と図形の位置とを含むアノテーション情報が付与されたデータである。文字画像は、文字情報に基づいて生成された、文字情報に対応する図形を含む。尚、本実施形態4では、認識用教師データとして用いられる文字画像は、文字情報に基づいて生成された文字画像を一次文字画像とした場合、上記一次文字画像の画素値を補正することにより得られた文字画像である。まず認識用教師データ生成装置50は、文字情報に基づいて図形を含む画像を生成し、当該文字情報と、図形の画像領域の位置情報とを、アノテーション情報として付与して、認識用教師データを生成する。そして認識用教師データ生成装置50は、生成した認識用教師データを、ネットワークNを介して認識用学習装置60に出力する。 The recognition training data generation device 50 is a computer that generates recognition training data, which is training data for learning a character recognition model. As the recognition training data generation device 50, for example, an image generation device described in Japanese Patent Application No. 2020-072831 by the inventors can be used. The recognition training data is data in which annotation information including character information and the position of a figure is added to a character image. The character image includes graphics corresponding to character information generated based on the character information. In the fourth embodiment, when a character image generated based on character information is used as a primary character image, the character image used as training data for recognition is obtained by correcting the pixel values of the primary character image. character image. First, the recognition training data generation device 50 generates an image including a figure based on character information, adds the character information and the position information of the image area of the figure as annotation information, and generates recognition training data. Generate. Then, the recognition teaching data generating device 50 outputs the generated recognition teaching data to the recognition learning device 60 via the network N. FIG.

認識用学習装置60は、認識用教師データを用いて、文字認識モデルを学習するコンピュータである。認識用学習装置60は、生成した学習済の文字認識モデルを、ネットワークNを介して車載システム10に出力する。 The recognition learning device 60 is a computer that learns a character recognition model using recognition teacher data. The recognition learning device 60 outputs the generated learned character recognition model to the in-vehicle system 10 via the network N. FIG.

図17は、実施形態4にかかる認識用教師データ生成装置50の構成を示すブロック図である。認識用教師データ生成装置50は、取得部500と、画像生成部501と、補正部502と、アノテーション付与部503と、記憶部504とを有する。 FIG. 17 is a block diagram showing the configuration of the recognition training data generation device 50 according to the fourth embodiment. The recognition training data generation device 50 has an acquisition unit 500 , an image generation unit 501 , a correction unit 502 , an annotation addition unit 503 and a storage unit 504 .

記憶部504は、認識用教師データ生成のために必要な各種情報および認識用教師データを記憶する記憶媒体である。記憶部504は、書式情報FMと、描画点情報データベース(DB)505と、学習用DB506とを記憶する。
描画点情報DB505は、文字情報に対応する図形を描画するための描画点情報DRを記憶する。描画点情報DR及び書式情報FMの詳細については、後述する。
学習用DB506は、上述した認識用教師データを記憶する。
The storage unit 504 is a storage medium for storing various information and recognition teaching data necessary for generation of recognition teaching data. A storage unit 504 stores format information FM, a drawing point information database (DB) 505, and a learning DB 506. FIG.
The drawing point information DB 505 stores drawing point information DR for drawing a figure corresponding to character information. Details of the drawing point information DR and the format information FM will be described later.
The learning DB 506 stores the above-described recognition teacher data.

取得部500は、ユーザから認識用教師データにかかる文字情報等の各種情報を取得する。そして取得部500は、取得した文字情報等を画像生成部501に供給する。取得部500はまた、ユーザから描画点情報DRに関連する各種情報を取得する。そして取得部500は、取得した描画点情報DRに関連する各種情報を記憶部504の描画点情報DB505に格納する。 The acquisition unit 500 acquires various types of information such as character information related to recognition training data from the user. The acquisition unit 500 then supplies the acquired character information and the like to the image generation unit 501 . The acquisition unit 500 also acquires various types of information related to the drawing point information DR from the user. The acquisition unit 500 then stores various types of information related to the acquired drawing point information DR in the drawing point information DB 505 of the storage unit 504 .

画像生成部501は、取得した文字情報から文字情報に対応する図形を含む文字画像を生成する。ここで画像生成部501は、記憶部504の描画点情報DB505に記憶される、書式情報FM及び文字情報に関連付けられた描画点情報DRに基づいて、文字画像を生成する。そして画像生成部501は、文字画像を補正部502に、文字情報をアノテーション付与部503に供給する。 The image generator 501 generates a character image including a figure corresponding to the character information from the obtained character information. Here, the image generation unit 501 generates a character image based on the drawing point information DR associated with the format information FM and the character information stored in the drawing point information DB 505 of the storage unit 504 . The image generation unit 501 then supplies the character image to the correction unit 502 and the character information to the annotation addition unit 503 .

補正部502は、画像生成部501から供給された文字画像の画素値を変換し、文字画像を補正する。補正部502は、補正した文字画像をアノテーション付与部503に供給する。 The correction unit 502 converts the pixel values of the character image supplied from the image generation unit 501 and corrects the character image. The correction unit 502 supplies the corrected character image to the annotation adding unit 503 .

アノテーション付与部503は、画像生成部501から供給された文字情報を用いてアノテーション情報を生成する。そしてアノテーション付与部503は、補正部502から供給された文字画像にアノテーション情報を付与し、認識用教師データを生成する。アノテーション付与部503は、生成された認識用教師データを記憶部504の学習用DB506に格納する。 The annotation adding unit 503 generates annotation information using the character information supplied from the image generating unit 501 . Then, the annotation adding unit 503 adds annotation information to the character image supplied from the correcting unit 502 to generate teacher data for recognition. The annotation adding unit 503 stores the generated recognition teacher data in the learning DB 506 of the storage unit 504 .

図18は、実施形態4にかかるアノテーション情報のデータ構造の一例を示す図である。本図に示すように、例えばアノテーション情報は、識別情報の種別と、区画領域P及び文字領域Lの位置座標と、正解ラベルとを含み、これらが互いに関連付けられた構成をとる。ここで、区画領域Pは、各識別情報に割り当てられ、文字画像においてその識別情報の種別に対応する文字情報に対応する図形が描画され得る領域(描画領域)である。そして文字領域Lは、各区画領域Pに対応する識別情報の文字数に応じて割り当てられた、1文字ごとの描画領域である。区画領域P及び文字領域Lの位置座標は、当該領域を決定する頂点の座標または当該領域の中心の座標といった、当該領域の代表点の座標であってよい。尚、区画領域P及び文字領域Lは、後述する書式情報FMによって決定される。 FIG. 18 is a diagram illustrating an example of a data structure of annotation information according to the fourth embodiment; As shown in this figure, for example, the annotation information includes the type of identification information, the positional coordinates of the partitioned area P and the character area L, and the correct label, which are associated with each other. Here, the partitioned area P is an area (drawing area) that is assigned to each piece of identification information and in which a figure corresponding to the character information corresponding to the type of the identification information can be drawn in the character image. The character area L is a drawing area for each character assigned according to the number of characters of the identification information corresponding to each partition area P. FIG. The positional coordinates of the partitioned area P and the character area L may be the coordinates of the representative point of the area, such as the coordinates of the vertex that determines the area or the coordinates of the center of the area. Note that the partitioned area P and the character area L are determined by format information FM, which will be described later.

図19は、実施形態4にかかる書式情報及び描画点情報を説明するための図である。本図は、文字画像上における、書式情報FMが示す書式と、描画点情報DRが示す描画点とを示す。本図に示すように、書式は、識別情報の種別ごとの区画領域P及び文字領域Lを画定する位置及び寸法等である。したがって、書式情報FMは、識別情報の種別ごとの区画領域P及び文字領域Lを画定する位置情報及び寸法情報を含む。なお書式情報FMは、法律、政令又は省令等の法令で定められるナンバープレートの様式に基づいて決定されてよい。 FIG. 19 is a diagram for explaining format information and drawing point information according to the fourth embodiment. This figure shows the format indicated by the format information FM and the drawing points indicated by the drawing point information DR on the character image. As shown in this figure, the format includes the positions, dimensions, and the like that define the partitioned area P and the character area L for each type of identification information. Therefore, the format information FM includes position information and dimension information that define the partition area P and the character area L for each type of identification information. Note that the format information FM may be determined based on the format of the license plate defined by laws, government ordinances, or ministerial ordinances.

描画点は、文字画像に含まれる文字情報に対応する図形を描画するための点である。したがって描画点情報DRは、このような描画点の位置座標を示す。ここで位置座標は、ビットマップ座標であってよい。本実施形態4で描画点情報DRは、当該図形に含まれる全ての描画点のうち、当該図形を画定する外枠および内枠を含む枠線を形成する描画点の位置座標であってよい。また描画点情報DRは、当該図形に含まれる全ての描画点のうち、当該外枠および内枠の中間点の位置座標であってもよい。このように描画点情報DRを一部の描画点の位置座標と定めることで、全ての描画点の位置座標を描画点情報DB505に格納する場合と比べて必要なメモリ容量が最小限に抑えられる。また後述する図形の色の塗りつぶし処理が容易となる。なお本実施形態4で描画点情報DRは、このような描画点の、区画領域P又は文字領域Lの代表点に対する相対的な位置座標であってよい。 A drawing point is a point for drawing a figure corresponding to character information included in a character image. Therefore, the drawing point information DR indicates the position coordinates of such a drawing point. The position coordinates here may be bitmap coordinates. In the fourth embodiment, the drawing point information DR may be the position coordinates of the drawing points forming the frame line including the outer frame and the inner frame defining the figure among all the drawing points included in the figure. Also, the drawing point information DR may be position coordinates of an intermediate point between the outer frame and the inner frame among all the drawing points included in the figure. By defining the drawing point information DR as the position coordinates of some of the drawing points in this way, the required memory capacity can be minimized compared to the case where the position coordinates of all the drawing points are stored in the drawing point information DB 505. . In addition, it becomes easy to fill in the color of a figure, which will be described later. Note that the drawing point information DR in the fourth embodiment may be relative positional coordinates of such a drawing point with respect to a representative point of the partition area P or the character area L. FIG.

図20は、実施形態4にかかる描画点情報DB505のデータ構造の一例を示す図である。例えば描画点情報DB505は、識別情報の種別と、識別情報に種別に対応する文字情報と、識別情報の種別に対応する区画領域P又は文字領域Lの代表点に対する描画点の相対的な位置座標(描画点情報DR)とを対応付ける。なお本図では描画点情報DB505のデータ構造をテーブル形式で表したが、これに限らず、描画点の相対的な位置座標を記憶するファイルの集合体であってもよい。ファイルは、XMLファイル等のテキストファイルであってよい。なお各ファイルは、識別情報の種別及び識別情報の種別に対応する文字情報に関連付けられてもよい。 FIG. 20 is a diagram showing an example of the data structure of the drawing point information DB 505 according to the fourth embodiment. For example, the drawing point information DB 505 contains the type of identification information, character information corresponding to the type of identification information, and the relative position coordinates of the drawing point with respect to the representative point of the partitioned area P or character area L corresponding to the type of the identification information. (drawing point information DR). Although the data structure of the drawing point information DB 505 is shown in a table format in FIG. The file may be a text file, such as an XML file. Each file may be associated with the type of identification information and text information corresponding to the type of identification information.

図21は、実施形態4にかかる認識用教師データ生成処理の流れを示すフローチャートである。まず認識用教師データ生成装置50の取得部500は、識別情報の種別ごとに、認識用教師データの正解ラベルとなる文字情報を取得する(ステップS210)。このとき取得部500は、認識用教師データ生成装置50の入力部(不図示)がユーザからの入力を受け付けることによって、又はネットワークNを介してユーザ端末(不図示)から認識用教師データにかかる文字情報を取得してよい。このとき取得部500は、図形及び背景の色を決定する車両種別情報を取得してもよい。取得部500は、識別情報の種別、文字情報及び車両種別情報等を画像生成部501に出力する。 FIG. 21 is a flow chart showing the flow of recognition teacher data generation processing according to the fourth embodiment. First, the acquisition unit 500 of the recognition teaching data generation device 50 acquires character information that will be the correct label of the recognition teaching data for each type of identification information (step S210). At this time, the acquisition unit 500 acquires the recognition training data from a user terminal (not shown) via the network N or when an input unit (not shown) of the recognition training data generation device 50 receives an input from the user. Character information may be obtained. At this time, the acquisition unit 500 may acquire vehicle type information that determines the colors of the graphics and the background. The acquisition unit 500 outputs the type of identification information, character information, vehicle type information, and the like to the image generation unit 501 .

次に、画像生成部501は、識別情報の種別と文字情報とに基づいて、識別情報の種別に対応する文字情報に関連付けられた描画点情報DRを記憶部504の描画点情報DB505から取得する(ステップS212)。また画像生成部501は、記憶部504から書式情報FMを取得する。 Next, the image generation unit 501 acquires the drawing point information DR associated with the character information corresponding to the identification information type from the drawing point information DB 505 of the storage unit 504 based on the identification information type and the character information. (Step S212). The image generation unit 501 also acquires the format information FM from the storage unit 504 .

次に、画像生成部501は、取得した描画点情報DR及び書式情報FMに基づいて、文字情報に対応する図形を描画し、文字画像を生成する(ステップS214)。
ここで図22は、実施形態4にかかる画像生成部501による描画方法を説明するための図である。本実施形態4では、図22に示すように、画像生成部501は、区画領域P又は文字領域Lの代表点を基準として、取得した描画点情報DRに含まれる位置座標をプロットし、図形の外枠及び内枠を形成する。そして画像生成部501は、図形の外枠及び内枠で囲まれた領域及び外枠外の背景を、車両種別情報に応じた色を用いて塗りつぶす処理を行う。画像生成部501は、.NET Frameworkの標準機能を用いて、このような塗りつぶし処理を行ってよい。そして画像生成部501は、このように生成された文字画像を補正部502に供給し、識別情報の種別ごとの文字情報をアノテーション付与部503に供給する。
Next, the image generator 501 draws a figure corresponding to the character information based on the obtained drawing point information DR and format information FM to generate a character image (step S214).
Here, FIG. 22 is a diagram for explaining the drawing method by the image generation unit 501 according to the fourth embodiment. In the fourth embodiment, as shown in FIG. 22, the image generation unit 501 plots the position coordinates included in the acquired drawing point information DR with reference to the representative point of the partition region P or the character region L, and An outer frame and an inner frame are formed. Then, the image generating unit 501 performs a process of painting out the area surrounded by the outer and inner frames of the figure and the background outside the outer frame using the color corresponding to the vehicle type information. The image generation unit 501 uses . NET Framework standard functions may be used to perform such fill processing. The image generation unit 501 then supplies the character image generated in this way to the correction unit 502 and supplies the character information for each type of identification information to the annotation addition unit 503 .

図21に戻り、説明を続ける。次に、補正部502は、画像生成部501が生成した文字画像に対して、画素値を変換し、文字画像を補正する(ステップS215)。そして補正部502は、補正した文字画像をアノテーション付与部503に供給する。 Returning to FIG. 21, the description is continued. Next, the correction unit 502 converts the pixel values of the character image generated by the image generation unit 501 to correct the character image (step S215). The correction unit 502 then supplies the corrected character image to the annotation addition unit 503 .

ここで、図23は、実施形態4にかかる補正部502による補正処理を説明するための図である。本図に示すように、補正部502は、様々な画素値変換処理を行ってよい。
たとえば、図23(a)に示すように、補正部502は文字画像を所定角度だけ回転させてよい。特に、撮影画像中で対向車のナンバープレートは若干傾いているため、上述のように補正した文字画像を認識用教師データとして用いて文字認識モデルを学習することは有効である。
また図23(b)に示すように、補正部502は、文字画像に含まれる図形のエッジ検出をし、図形の輪郭を強調させてよい。
Here, FIG. 23 is a diagram for explaining correction processing by the correction unit 502 according to the fourth embodiment. As shown in this figure, the correction unit 502 may perform various pixel value conversion processes.
For example, as shown in FIG. 23(a), the correction unit 502 may rotate the character image by a predetermined angle. In particular, since the license plate of the oncoming vehicle is slightly tilted in the photographed image, it is effective to learn the character recognition model using the character image corrected as described above as the training data for recognition.
Further, as shown in FIG. 23(b), the correction unit 502 may detect the edges of the figure included in the character image and emphasize the contour of the figure.

また図23(c)に示すように、補正部502は、文字画像の解像度を低下させ、輪郭を不明瞭にしてよい。例えば、補正部502は、所定の画素と周囲の画素との間隔を変更し、その間の画素を補間することで、文字画像の解像度を低下させる。解像度の低下率(圧縮率)は、実際の撮影画像に基づいて生成された抽出画像の画質やブレに合わせて、定められてよい。圧縮率を定める上で参考とする上記抽出画像は、抽出領域中のナンバープレート画像領域NAが傾いている場合、抽出領域を切り出し後、傾きを補正した画像であってもよい。 Further, as shown in FIG. 23C, the correction unit 502 may reduce the resolution of the character image to make the outline unclear. For example, the correction unit 502 reduces the resolution of the character image by changing the interval between a predetermined pixel and surrounding pixels and interpolating the pixels therebetween. The resolution reduction rate (compression rate) may be determined according to the image quality and blurring of the extracted image generated based on the actual captured image. When the license plate image area NA in the extraction area is tilted, the extraction image referred to in determining the compression ratio may be an image obtained by clipping the extraction area and then correcting the tilt.

また図23(d)に示すように、補正部502は、文字画像に対してひずみ補正を行ってよい。
また図23(e)に示すように、補正部502は、ガウシアンフィルタ、中央値フィルタおよびバイラテラルフィルタ等のフィルタを用いて文字画像の画素値を変換してよい。
Further, as shown in FIG. 23D, the correction unit 502 may perform distortion correction on the character image.
Further, as shown in FIG. 23E, the correction unit 502 may convert the pixel values of the character image using filters such as a Gaussian filter, a median filter, and a bilateral filter.

また図23(f)に示すように、補正部502は、ガウシアンノイズ、インパルスノイズ等のノイズを文字画像の各画素に対して付与し、文字画像を平滑化させてよい。近年、背景に図柄を含むナンバープレートが増加しているが、上述のように補正した文字画像を認識用教師データとして用いることで、図柄による影響を抑える効果がある。 Further, as shown in FIG. 23F, the correction unit 502 may add noise such as Gaussian noise or impulse noise to each pixel of the character image to smooth the character image. In recent years, there has been an increase in the number of license plates that include a pattern in the background. Using the character image corrected as described above as training data for recognition has the effect of suppressing the effect of the pattern.

また、補正部502は、上述した補正処理を組み合わせてもよい。例えば、図23(g)に示すように、補正部502は、文字画像を所定角度だけ回転させ、さらに文字画像の解像度を圧縮させて、輪郭を不明瞭にしてよい。例えば補正部502は、これらの処理を、OpenCV(登録商標)を用いたアプリケーションを用いて実行してよい。 Further, the correction unit 502 may combine the correction processes described above. For example, as shown in FIG. 23G, the correction unit 502 may rotate the character image by a predetermined angle and further compress the resolution of the character image to make the outline unclear. For example, the correction unit 502 may execute these processes using an application using OpenCV (registered trademark).

図21に戻り、説明を続ける。次に、アノテーション付与部503は、ステップS215で補正された文字画像に対して、識別情報の種別に対応する区画領域P又は区画領域Pと、文字情報である正解ラベルとが関連付けられたアノテーション情報を付与する(ステップS216)。このようにして、アノテーション付与部503は認識用教師データを生成する。そしてアノテーション付与部503は、アノテーション情報が付与された文字画像を認識用教師データとして学習用DB506に格納する(ステップS218)。 Returning to FIG. 21, the description is continued. Next, for the character image corrected in step S215, the annotation adding unit 503 creates annotation information in which the partitioned region P corresponding to the type of the identification information or the partitioned region P and the correct label that is the character information are associated with each other. is given (step S216). In this manner, the annotation adding unit 503 generates training data for recognition. Then, the annotation adding unit 503 stores the character image to which the annotation information is added in the learning DB 506 as training data for recognition (step S218).

なおステップS210において取得部500の車両種別情報の取得は、省略されてもよい。この場合、画像生成部501は、S214において、分類番号C及び平仮名等Uに対応する文字情報に基づいて、図形及び背景の色を推定してよい。 It should be noted that acquisition of the vehicle type information by the acquisition unit 500 in step S210 may be omitted. In this case, the image generation unit 501 may estimate the colors of the figure and the background based on the character information corresponding to the classification number C and U such as hiragana in S214.

図24は、実施形態4にかかる文字認識モデル学習処理の流れを示すフローチャートである。まず、認識用学習装置60は、認識用教師データ生成装置50から認識用教師データを取得する(ステップS220)。次に、認識用学習装置60は、学習前の文字認識モデルを取得する(ステップS221)。次に、認識用学習装置60は、学習前の文字認識モデルを用いて、文字認識処理を行う(ステップS222)。このとき認識用学習装置60は、認識用教師データの文字画像を文字認識モデルに入力し、文字認識モデルから出力された出力値を取得する。次に、認識用学習装置60は、入力した文字画像に付与されたアノテーション情報に基づいて、アノテーション情報が示す正解ラベルと出力値との間の誤差を算出する(ステップS223)。そして、認識用学習装置60は、学習を終了するか否かを判定する(ステップS224)。たとえば認識用学習装置60は、パラメータの更新回数が予め定められた回数に達したか否かを判定することにより、学習を終了するか否かを判定してよい。また認識用学習装置60は、算出した誤差が閾値未満であるか否かを判定することにより、学習を終了するか否かを判定してよい。認識用学習装置60は、学習を終了する場合(ステップS224でYes)、処理をステップS226に進め、そうでない場合(ステップS224でNo)、処理をステップS225に進める。 FIG. 24 is a flowchart showing the flow of character recognition model learning processing according to the fourth embodiment. First, the recognition learning device 60 acquires recognition teaching data from the recognition teaching data generating device 50 (step S220). Next, the recognition learning device 60 acquires a pre-learning character recognition model (step S221). Next, the recognition learning device 60 performs character recognition processing using the character recognition model before learning (step S222). At this time, the learning device for recognition 60 inputs the character image of the teacher data for recognition to the character recognition model, and acquires the output value output from the character recognition model. Next, the recognition learning device 60 calculates the error between the correct label indicated by the annotation information and the output value based on the annotation information attached to the input character image (step S223). Then, the recognition learning device 60 determines whether or not to end the learning (step S224). For example, the recognition learning device 60 may determine whether or not to end learning by determining whether or not the number of parameter updates has reached a predetermined number. Further, the recognition learning device 60 may determine whether or not to end learning by determining whether or not the calculated error is less than a threshold. If the learning device for recognition 60 ends the learning (Yes in step S224), the process proceeds to step S226; otherwise (No in step S224), the process proceeds to step S225.

ステップS225において、認識用学習装置60は、誤差に基づいて文字認識モデルのニューラルネットワークの各種パラメータを更新する。そして認識用学習装置60は、処理をS222に戻す。 In step S225, the recognition learning device 60 updates various parameters of the neural network of the character recognition model based on the error. The recognition learning device 60 then returns the process to S222.

ステップS226において、認識用学習装置60は学習を終了し、各種パラメータ及び文字認識モデルを決定する。そして認識用学習装置60は、文字認識モデルを、ネットワークNを介して車載システム10に出力し、処理を終了する。 In step S226, the recognition learning device 60 ends learning and determines various parameters and character recognition models. Then, the recognition learning device 60 outputs the character recognition model to the in-vehicle system 10 via the network N, and ends the process.

このように実施形態4によれば、認識用教師データ生成装置50が、取得した文字情報から文字画像を生成し、生成した文字画像に対して自動でアノテーション情報を付与する。したがって認識用教師データ生成装置50は、大量の文字画像を入手することができる。そして認識用教師データ生成装置50は、管理者の作業負担を最小限に抑えて、文字画像に対して効率よくアノテーション情報を付与することができる。これにより、アノテーション情報が付与された認識用教師データを効率よく生成することができる。 As described above, according to the fourth embodiment, the recognition training data generation device 50 generates a character image from the acquired character information, and automatically adds annotation information to the generated character image. Therefore, the recognition training data generation device 50 can obtain a large amount of character images. The recognition training data generation device 50 can efficiently add annotation information to character images while minimizing the workload of the administrator. As a result, it is possible to efficiently generate recognition training data to which annotation information is attached.

また、本実施形態4では、回転やぼかし等の補正処理を行った文字画像に基づいて生成された認識用教師データを用いて学習した文字認識モデルを、文字認識処理に用いる。ここで、これまで、ナンバープレート情報を認識するシステムやソリューションは、機械学習による完全一致による認識方法が主流であった。また、走行中の車両から車載カメラを用いて撮影した撮影画像は、被写体の大きさが定まらない上に相対速度が大きいため、画質が安定せず、鮮明にならないという問題があった。したがって、鮮明な画像を用いて学習させた文字認識モデルでは、文字認識精度が低く、実用レベルでは利用できないという問題があった。しかし、本実施形態4によれば、車載カメラを用いたナンバープレート情報の文字認識精度を向上させることができる。 Further, in the fourth embodiment, a character recognition model learned using recognition teacher data generated based on character images subjected to correction processing such as rotation and blurring is used for character recognition processing. Here, until now, systems and solutions for recognizing license plate information have mainly used recognition methods based on perfect matching based on machine learning. In addition, there is a problem that an image captured by an in-vehicle camera from a running vehicle is not stable and clear because the size of the subject is not fixed and the relative speed is high. Therefore, a character recognition model trained using clear images has a problem of low character recognition accuracy and cannot be used at a practical level. However, according to the fourth embodiment, it is possible to improve the accuracy of character recognition of license plate information using an in-vehicle camera.

尚、画像生成部501は、文字画像を、補正部502を介さずに、アノテーション付与部503に供給してもよい。つまり、アノテーション付与部503は、補正されていない文字画像に対して、アノテーション情報を付与して、認識用教師データを生成してもよい。また、検出用教師データ生成装置30、検出用学習装置40、認識用教師データ生成装置50及び認識用学習装置60の一部又は全部の機能は、各車載システム10又は管理サーバ20に備えられていてもよい。例えば、各車載システム10又は管理サーバ20は、上述した認識用教師データ生成処理及び文字認識モデル学習処理を行ってよい。 Note that the image generation unit 501 may supply the character image to the annotation addition unit 503 without going through the correction unit 502 . That is, the annotation adding unit 503 may add annotation information to an uncorrected character image to generate recognition training data. Some or all of the functions of the detection teacher data generation device 30, the detection learning device 40, the recognition teacher data generation device 50, and the recognition learning device 60 are provided in each in-vehicle system 10 or the management server 20. may For example, each in-vehicle system 10 or management server 20 may perform the above-described recognition teacher data generation processing and character recognition model learning processing.

<実施形態5>
次に、本開示の実施形態5について説明する。実施形態5は、識別情報の種別ごとに文字認識モデルがあり、文字認識モデル毎に、車両管理システムが認識用教師データ生成装置及び認識用学習装置を有することに特徴を有する。
<Embodiment 5>
Next, Embodiment 5 of the present disclosure will be described. Embodiment 5 is characterized in that there is a character recognition model for each type of identification information, and that the vehicle management system has a recognition teacher data generating device and a recognition learning device for each character recognition model.

図25は、実施形態5にかかる車両管理システム1bの概略構成図である。車両管理システム1bは、認識用教師データ生成装置50及び認識用学習装置60に代えて、第1~第4認識用教師データ生成装置50b-1~50b-4と、第1~第4認識用学習装置60b-1~60b-4とを備える。第1~第4認識用教師データ生成装置50b-1~50b-4及び第1~第4認識用学習装置60b-1~60b-4は、ネットワークNに接続されている。 FIG. 25 is a schematic configuration diagram of a vehicle management system 1b according to the fifth embodiment. The vehicle management system 1b replaces the recognition teaching data generation device 50 and the recognition learning device 60 with first to fourth recognition teaching data generation devices 50b-1 to 50b-4 and first to fourth recognition Learning devices 60b-1 to 60b-4 are provided. The first to fourth recognition training data generation devices 50b-1 to 50b-4 and the first to fourth recognition learning devices 60b-1 to 60b-4 are connected to a network N. FIG.

第1認識用教師データ生成装置50b-1及び第1認識用学習装置60b-1は、陸運支局Tを認識する陸運支局モデルCRM-1に対応する認識用教師データ生成装置及び認識用学習装置である。第2認識用教師データ生成装置50b-2及び第2認識用学習装置60b-2は、分類番号Cを認識する分類番号モデルCRM-2に対応する認識用教師データ生成装置及び認識用学習装置である。第3認識用教師データ生成装置50b-3及び第3認識用学習装置60b-3は、平仮名等Uを認識する平仮名等モデルCRM-3に対応する認識用教師データ生成装置及び認識用学習装置である。第4認識用教師データ生成装置50b-4及び第4認識用学習装置60b-4は、一連指定番号Sを認識する一連指定番号モデルCRM-4に対応する認識用教師データ生成装置及び認識用学習装置である。 The first recognition teacher data generation device 50b-1 and the first recognition learning device 60b-1 are a recognition teacher data generation device and a recognition learning device corresponding to the land transportation branch office model CRM-1 that recognizes the land transportation branch office T. be. The second recognition teaching data generation device 50b-2 and the second recognition learning device 60b-2 are a recognition teaching data generation device and a recognition learning device corresponding to the classification number model CRM-2 that recognizes the classification number C. be. The third recognition teaching data generation device 50b-3 and the third recognition learning device 60b-3 are a recognition teaching data generation device and a recognition learning device corresponding to the hiragana etc. model CRM-3 that recognizes hiragana etc. U. be. The fourth recognition teacher data generation device 50b-4 and the fourth recognition learning device 60b-4 are recognition teacher data generation devices and recognition learning devices corresponding to the serial designation number model CRM-4 that recognizes the serial designation number S. It is a device.

尚、陸運支局T、分類番号C、平仮名等U及び一連指定番号Sの任意の2つの識別情報を第1識別情報及び第2識別情報と呼び、第1識別情報及び第2識別情報の各々に対応する文字情報を認識する文字認識モデルを第1文字認識モデル及び第2文字認識モデルと呼ぶことがある。また第1識別情報及び第2識別情報に対応する認識用教師データを、それぞれ、第1認識用教師データ及び第2認識用教師データと呼ぶことがある。 In addition, arbitrary two identification information of land transportation branch office T, classification number C, hiragana etc. U and serial designation number S are called first identification information and second identification information, and each of the first identification information and second identification information A character recognition model for recognizing corresponding character information may be called a first character recognition model and a second character recognition model. Recognition teaching data corresponding to the first identification information and the second identification information may be called first recognition teaching data and second recognition teaching data, respectively.

図26は、実施形態5にかかる文字認識処理を説明するための図である。
まず、車載システム10の文字認識部106は、抽出画像310を、陸運支局モデルCRM-1、分類番号モデルCRM-2、平仮名等モデルCRM-3及び一連指定番号モデルCRM-4に入力する。
FIG. 26 is a diagram for explaining character recognition processing according to the fifth embodiment.
First, the character recognition unit 106 of the in-vehicle system 10 inputs the extracted image 310 to the land transportation branch office model CRM-1, classification number model CRM-2, hiragana etc. model CRM-3, and series designation number model CRM-4.

陸運支局モデルCRM-1の認識用教師データは、ナンバープレート全体を表す文字画像に対して、陸運支局Tに対応する文字情報と、その文字情報を示す図形の位置とを含むアノテーション情報が付与されたデータである。抽出画像310が入力された陸運支局モデルCRM-1は、陸運支局Tとして「足立」を少なくとも含む認識結果を出力する。 In the training data for recognition of the land transportation branch office model CRM-1, annotation information including character information corresponding to the land transportation branch office T and the position of the figure indicating the character information is added to the character image representing the entire license plate. data. Land transportation branch office model CRM-1 to which extracted image 310 is input outputs a recognition result including at least "Adachi" as land transportation branch office T. FIG.

分類番号モデルCRM-2の認識用教師データは、ナンバープレート全体を表す文字画像に対して、分類番号Cに対応する文字情報と、その文字情報を示す図形の位置とを含むアノテーション情報が付与されたデータである。抽出画像310が入力された分類番号モデルCRM-2は、分類番号Cとして「3」、「3」、及び「0」と、各文字情報に対応する矩形領域の代表点の位置座標とを少なくとも含む認識結果を出力する。 In the recognition training data of the classification number model CRM-2, annotation information including character information corresponding to the classification number C and the position of the figure indicating the character information is added to the character image representing the entire license plate. data. The classification number model CRM-2 to which the extracted image 310 is input has at least "3", "3", and "0" as the classification number C and the position coordinates of the representative points of the rectangular areas corresponding to each character information. Output recognition results including

平仮名等モデルCRM-3の認識用教師データは、ナンバープレート全体を表す文字画像に対して、平仮名等Uに対応する文字情報と、その文字情報を示す図形の位置とを含むアノテーション情報が付与されたデータである。抽出画像310が入力された平仮名等モデルCRM-3は、平仮名等Uとして「え」を少なくとも含む認識結果を出力する。 The teacher data for recognition of the hiragana model CRM-3 is provided with annotation information including character information corresponding to the hiragana U and the position of the figure indicating the character information for the character image representing the entire license plate. data. The hiragana model CRM-3 to which the extracted image 310 is input outputs a recognition result including at least "e" as the hiragana U. FIG.

一連指定番号モデルCRM-4の認識用教師データは、ナンバープレート全体を表す文字画像に対して、一連指定番号Sに対応する文字情報と、その文字情報を示す図形の位置とを含むアノテーション情報が付与されたデータである。抽出画像310が入力された一連指定番号モデルCRM-4は、一連指定番号Sとして「1」、「2」、「3」及び「4」と、各文字情報に対応する矩形領域の代表点の位置座標とを少なくとも含む認識結果を出力する。 The training data for recognition of the sequence designation model CRM-4 is annotation information including character information corresponding to the sequence designation number S and the position of the figure indicating the character information for the character image representing the entire license plate. It is given data. The series designation number model CRM-4 to which the extracted image 310 is input has "1", "2", "3" and "4" as the series designation number S, and the representative points of the rectangular areas corresponding to each piece of character information. output a recognition result including at least position coordinates;

文字認識部106は、各文字認識モデルから得られた認識結果に基づいて、「足立/330/え/12-34」というナンバープレート情報を生成する。 The character recognition unit 106 generates license plate information "Adachi/330/E/12-34" based on the recognition results obtained from each character recognition model.

このように、識別情報の種別ごとに独立して学習した文字認識モデルを用いて、各識別情報を認識することで、1つの文字認識モデルから4種類の識別情報を認識する場合と比べて、出力対象の文字の選択肢が少なくなるため、文字認識精度を向上できる。1つの文字認識モデルから4種類の識別情報を認識する一実施例では、陸運支局T、分類番号C、平仮名等U及び一連指定番号Sの認識成功率がそれぞれ29.7%、75.4%、69.2%及び93.2%であった。しかし、本実施形態5にかかる一実施例では、陸運支局T、分類番号C、平仮名等U及び一連指定番号Sの認識成功率が、それぞれ94.9%、97.4%、99.1%及び99.9%となり、認識成功率を向上させることができた。 In this way, by recognizing each piece of identification information using character recognition models learned independently for each type of identification information, compared to the case of recognizing four types of identification information from one character recognition model, Since there are fewer options for characters to be output, the accuracy of character recognition can be improved. In one example of recognizing four types of identification information from one character recognition model, the recognition success rates for land transportation branch office T, classification number C, hiragana, etc. U, and serial designation number S are 29.7% and 75.4%, respectively. , 69.2% and 93.2%. However, in one example according to the fifth embodiment, the recognition success rates for the land transportation branch T, the classification number C, the hiragana U, and the serial designation number S are 94.9%, 97.4%, and 99.1%, respectively. and 99.9%, and the recognition success rate could be improved.

尚、第1~第4認識用教師データ生成装置50b-1~50b-4及び第1~第4認識用学習装置60b-1~60b-4の一部又は全部の機能は、各車載システム10又は管理サーバ20に備えられていてもよい。例えば、各車載システム10又は管理サーバ20は、識別情報の種別ごとに認識用教師データ生成処理及び文字認識モデル学習処理を行ってよい。 Some or all of the functions of the first to fourth recognition training data generation devices 50b-1 to 50b-4 and the first to fourth recognition learning devices 60b-1 to 60b-4 are provided by each in-vehicle system 10. Alternatively, it may be provided in the management server 20 . For example, each in-vehicle system 10 or management server 20 may perform recognition teacher data generation processing and character recognition model learning processing for each type of identification information.

続いて、車両管理システムに含まれる、情報処理装置、管理サーバ、検出用教師データ生成装置、検出用学習装置、認識用教師データ生成装置及び認識用学習装置の物理構成を説明する。図27は、上記装置として用いられるコンピュータの構成例を示す図である。コンピュータ1000は、プロセッサ1010、記憶部1020、ROM(Read Only Memory)1030、RAM(Random Access Memory)1040、通信インタフェース(IF:Interface)1050、及びユーザインタフェース1060を有する。 Next, the physical configurations of the information processing device, the management server, the detection teacher data generation device, the detection learning device, the recognition teacher data generation device, and the recognition learning device included in the vehicle management system will be described. FIG. 27 is a diagram showing a configuration example of a computer used as the above device. The computer 1000 has a processor 1010 , a storage unit 1020 , a ROM (Read Only Memory) 1030 , a RAM (Random Access Memory) 1040 , a communication interface (IF) 1050 and a user interface 1060 .

通信インタフェース1050は、有線通信手段又は無線通信手段などを介して、コンピュータ1000と通信ネットワークとを接続するためのインタフェースである。ユーザインタフェース1060は、例えばディスプレイなどの表示部を含む。また、ユーザインタフェース1060は、キーボード、マウス、及びタッチパネルなどの入力部を含む。 The communication interface 1050 is an interface for connecting the computer 1000 and a communication network via wired communication means or wireless communication means. User interface 1060 includes a display, such as a display. User interface 1060 also includes input units such as a keyboard, mouse, and touch panel.

記憶部1020は、各種のデータを保持できる補助記憶装置である。記憶部1020は、必ずしもコンピュータ1000の一部である必要はなく、外部記憶装置であってもよいし、ネットワークを介してコンピュータ1000に接続されたクラウドストレージであってもよい。 The storage unit 1020 is an auxiliary storage device capable of holding various data. The storage unit 1020 is not necessarily a part of the computer 1000, and may be an external storage device or a cloud storage connected to the computer 1000 via a network.

ROM1030は、不揮発性の記憶装置である。ROM1030には、例えば比較的容量が少ないフラッシュメモリなどの半導体記憶装置が用いられる。プロセッサ1010が実行するプログラムは、記憶部1020又はROM1030に格納され得る。記憶部1020又はROM1030は、例えば車両管理システムに含まれる各装置内の各部の機能を実現するための各種プログラムを記憶する。 ROM 1030 is a non-volatile storage device. For the ROM 1030, for example, a semiconductor storage device such as a flash memory having a relatively small capacity is used. Programs executed by processor 1010 may be stored in storage unit 1020 or ROM 1030 . Storage unit 1020 or ROM 1030 stores various programs for implementing the functions of each unit in each device included in the vehicle management system, for example.

上記プログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、コンピュータ1000に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体を含む。非一時的なコンピュータ可読媒体の例は、例えばフレキシブルディスク、磁気テープ、又はハードディスクなどの磁気記録媒体、例えば光磁気ディスクなどの光磁気記録媒体、CD(compact disc)、又はDVD(digital versatile disk)などの光ディスク媒体、及び、マスクROM、PROM(programmable ROM)、EPROM(erasable PROM)、フラッシュROM、又はRAMなどの半導体メモリを含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体を用いてコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバなどの有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 The programs described above can be stored and provided to computer 1000 using various types of non-transitory computer-readable media. Non-transitory computer-readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media such as flexible disks, magnetic tapes, or hard disks, magneto-optical recording media such as magneto-optical discs, compact discs (CDs), or digital versatile disks (DVDs). and semiconductor memory such as mask ROM, PROM (programmable ROM), EPROM (erasable PROM), flash ROM, or RAM. The program may also be delivered to the computer using various types of transitory computer readable media. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.

RAM1040は、揮発性の記憶装置である。RAM1040には、DRAM(Dynamic Random Access Memory)又はSRAM(Static Random Access Memory)などの各種半導体メモリデバイスが用いられる。RAM1040は、データなどを一時的に格納する内部バッファとして用いられ得る。プロセッサ1010は、記憶部1020又はROM1030に格納されたプログラムをRAM1040に展開し、実行する。プロセッサ1010は、CPU(Central Processing Unit)又はGPU(Graphics Processing Unit)であってよい。プロセッサ1010がプログラムを実行することで、車両管理システムに含まれる各装置内の各部の機能が実現され得る。プロセッサ1010は、データなどを一時的に格納できる内部バッファを有してもよい。 RAM 1040 is a volatile storage device. Various semiconductor memory devices such as DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory) are used for the RAM 1040 . RAM 1040 can be used as an internal buffer that temporarily stores data and the like. The processor 1010 develops the program stored in the memory|storage part 1020 or ROM1030 to RAM1040, and runs it. The processor 1010 may be a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). Processor 1010 executes the program to implement the function of each unit in each device included in the vehicle management system. Processor 1010 may have internal buffers in which data and the like can be temporarily stored.

以上、実施形態を参照して本開示を説明したが、本開示は上記によって限定されるものではない。本開示の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the present disclosure has been described with reference to the embodiments, the present disclosure is not limited to the above. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present disclosure within the scope of the invention.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
車両の周囲の風景を撮影して生成された撮影画像を取得する画像取得段階と、
前記撮影画像に基づいて、前記車両の周囲に位置する周辺車両の識別情報を推定する識別情報推定段階と、
前記車両の走行に関する第1走行情報を取得し、前記第1走行情報に基づいて、前記周辺車両の走行に関する第2走行情報を生成する走行情報生成段階と、
前記識別情報と、前記第2走行情報とを対応付けて出力させる出力制御段階と
をコンピュータに実行させるためのプログラム。
(付記2)
前記第1走行情報は、前記車両の位置情報、進行方向及び車速のうち少なくとも1つを含み、
前記第2走行情報は、前記周辺車両の位置情報、進行方向及び車速のうち少なくとも1つを含む
付記1に記載のプログラム。
(付記3)
前記走行情報生成段階は、前記第1走行情報と同一の情報を、前記第2走行情報として生成する段階を含む
付記1又は2に記載のプログラム。
(付記4)
前記走行情報生成段階は、前記撮影画像と、前記第1走行情報とに基づいて、前記第2走行情報を生成する段階を含む
付記1又は2に記載のプログラム。
(付記5)
前記出力制御段階は、前記周辺車両の前記識別情報と、前記第2走行情報とを対応付けた車両関連情報を、管理サーバに送信させる段階を含む
付記1から4のいずれか一項に記載のプログラム。
(付記6)
前記周辺車両の前記識別情報は、前記周辺車両のナンバープレート情報であり、
前記識別情報推定段階は、
前記撮影画像から、前記周辺車両のナンバープレートを検出する検出段階と、
前記周辺車両のナンバープレートとして検出された画像領域に応じた抽出領域を、前記撮影画像から切り出して、抽出画像を生成する抽出段階と、
前記抽出画像から文字認識モデルを用いて文字情報を取得し、前記文字情報に基づいて前記周辺車両のナンバープレート情報を生成する文字認識段階と
を含む
付記1から5のいずれか一項に記載のプログラム。
(付記7)
車両の周囲の風景を撮影して生成された撮影画像から、入力画像に含まれるナンバープレートを示す画像領域の位置を出力する検出モデルを用いて、前記車両の周囲に位置する周辺車両のナンバープレートを検出する検出段階と、
前記周辺車両のナンバープレートとして検出された画像領域に応じた抽出領域を、前記撮影画像から切り出して、抽出画像を生成する抽出段階と、
前記抽出画像から文字認識モデルを用いて文字情報を取得し、前記文字情報に基づいて前記周辺車両のナンバープレート情報を生成する文字認識段階と、
前記周辺車両のナンバープレート情報を出力させる出力制御段階と
をコンピュータに実行させるためのプログラム。
(付記8)
前記文字認識モデルは、認識用教師データを用いて学習され、
前記認識用教師データは、文字情報に基づいて生成された文字画像であって、前記文字情報に対応する図形を含む文字画像、に対して、前記文字情報と前記図形の位置とを含むアノテーション情報が付与されたデータである
付記6又は7に記載のプログラム。
(付記9)
前記文字画像は、前記文字情報に基づいて生成された一次文字画像の画素値を補正することにより得られた文字画像である
付記8に記載のプログラム。
(付記10)
前記文字認識モデルは、
ナンバープレート情報中の第1識別情報、に対応する文字情報を認識する第1文字認識モデルと、
ナンバープレート情報中の第2識別情報、に対応する文字情報を認識する第2文字認識モデルと、
を含み、
前記第1文字認識モデルは、前記第1識別情報に対応する第1認識用教師データを用いて学習され、
前記第2文字認識モデルは、前記第2識別情報に対応する第2認識用教師データを用いて学習される
付記6から9のいずれか一項に記載のプログラム。
(付記11)
前記文字認識段階は、
前記文字認識モデルが出力した、複数の文字情報と前記複数の文字情報の各々の信頼度とに基づいて、前記複数の文字情報から所定数の文字情報を選択する段階と、
選択した前記所定数の文字情報に基づいて前記ナンバープレート情報を生成する段階と
を含む
付記6から10のいずれか一項に記載のプログラム。
(付記12)
前記文字認識段階は、
前記文字認識モデルが出力した、複数の文字情報と前記複数の文字情報の各々に対応する図形の位置とに基づいて、前記複数の文字情報から所定数の文字情報を選択する段階と、
選択した前記所定数の文字情報に基づいて前記ナンバープレート情報を生成する段階と
を含む
付記6から11のいずれか一項に記載のプログラム。
(付記13)
前記検出段階は、前記撮影画像に含まれる予め定められた検出対象領域から、前記ナンバープレートを検出する段階を含む
付記6から12のいずれか一項に記載のプログラム。
(付記14)
前記検出対象領域の上端は、前記撮影画像の上端から所定長さだけ下に離隔する
付記13に記載のプログラム。
(付記15)
前記抽出段階は、前記周辺車両のナンバープレートとして検出された画像領域が所定サイズ未満である場合、前記抽出画像を生成する段階を含まない
付記6から14のいずれか一項に記載のプログラム。
(付記16)
前記文字認識段階は、撮影タイミングが異なる複数の撮影画像の各々について生成されたナンバープレート情報に基づいて、1のナンバープレート情報を生成する段階を含み、
前記出力制御段階は、前記1のナンバープレート情報を出力させる段階を含む
付記6から15のいずれか一項に記載のプログラム。
(付記17)
車両の周囲の風景を撮影した撮影画像を取得する画像取得部と、
前記撮影画像に基づいて、前記車両の周囲に位置する周辺車両の識別情報を推定する識別情報推定部と、
前記車両の走行に関する第1走行情報を取得し、前記第1走行情報に基づいて、前記周辺車両の走行に関する第2走行情報を生成する走行情報生成部と、
前記識別情報と、前記第2走行情報とを対応付けて出力させる出力制御部と
を備える情報処理システム。
(付記18)
車両の周囲の風景を撮影した撮影画像を取得する画像取得段階と、
前記撮影画像に基づいて、前記車両の周囲に位置する周辺車両の識別情報を推定する識別情報推定段階と、
前記車両の走行に関する第1走行情報を取得し、前記第1走行情報に基づいて、前記周辺車両の走行に関する第2走行情報を生成する走行情報生成段階と、
前記識別情報と、前記第2走行情報とを対応付けて出力させる出力制御段階と
を備える情報処理方法。
(付記19)
車両の周囲の風景を撮影した撮影画像から、入力画像に含まれるナンバープレートを示す画像領域の位置を出力する検出モデルを用いて、前記車両の周囲に位置する周辺車両のナンバープレートを検出する検出部と、
前記周辺車両のナンバープレートとして検出された画像領域に応じた抽出領域を、前記撮影画像から切り出して、抽出画像を生成する抽出部と、
前記抽出画像から文字認識モデルを用いて文字情報を取得し、前記文字情報に基づいて前記周辺車両のナンバープレート情報を生成する文字認識部と、
前記周辺車両のナンバープレート情報を出力させる出力制御部と
を備える情報処理システム。
(付記20)
車両の周囲の風景を撮影した撮影画像から、入力画像に含まれるナンバープレートを示す画像領域の位置を出力する検出モデルを用いて、前記車両の周囲に位置する周辺車両のナンバープレートを検出する検出段階と、
前記周辺車両のナンバープレートとして検出された画像領域に応じた抽出領域を、前記撮影画像から切り出して、抽出画像を生成する抽出段階と、
前記抽出画像から文字認識モデルを用いて文字情報を取得し、前記文字情報に基づいて前記周辺車両のナンバープレート情報を生成する文字認識段階と、
前記周辺車両のナンバープレート情報を出力させる出力制御段階と
を備える情報処理方法。
Some or all of the above-described embodiments can also be described in the following supplementary remarks, but are not limited to the following.
(Appendix 1)
an image acquisition step of acquiring a captured image generated by capturing the scenery around the vehicle;
an identification information estimation step of estimating identification information of surrounding vehicles located around the vehicle based on the captured image;
a travel information generation step of acquiring first travel information about travel of the vehicle and generating second travel information about travel of the peripheral vehicle based on the first travel information;
A program for causing a computer to execute: an output control step for outputting the identification information and the second travel information in association with each other.
(Appendix 2)
the first travel information includes at least one of location information, traveling direction, and vehicle speed of the vehicle;
The program according to appendix 1, wherein the second travel information includes at least one of position information, traveling direction, and vehicle speed of the surrounding vehicle.
(Appendix 3)
3. The program according to appendix 1 or 2, wherein the driving information generating step includes generating the same information as the first driving information as the second driving information.
(Appendix 4)
3. The program according to appendix 1 or 2, wherein the driving information generating step includes generating the second driving information based on the captured image and the first driving information.
(Appendix 5)
5. The output control step includes a step of transmitting vehicle-related information in which the identification information of the surrounding vehicle and the second travel information are associated with each other to a management server. program.
(Appendix 6)
The identification information of the surrounding vehicle is license plate information of the surrounding vehicle,
The identification information estimation step includes:
a detection step of detecting license plates of the surrounding vehicles from the captured image;
an extracting step of extracting an extraction area corresponding to the image area detected as the license plate of the surrounding vehicle from the captured image to generate an extraction image;
6. The character recognition step of obtaining character information from the extracted image using a character recognition model, and generating license plate information of the surrounding vehicle based on the character information. program.
(Appendix 7)
Using a detection model that outputs the position of the image area showing the license plate included in the input image from the captured image generated by capturing the scenery around the vehicle, license plates of surrounding vehicles located around the vehicle a detection stage for detecting
an extracting step of extracting an extraction area corresponding to the image area detected as the license plate of the surrounding vehicle from the captured image to generate an extraction image;
a character recognition step of obtaining character information from the extracted image using a character recognition model and generating license plate information of the surrounding vehicle based on the character information;
A program for causing a computer to execute an output control step for outputting the license plate information of the peripheral vehicle.
(Appendix 8)
The character recognition model is learned using recognition teacher data,
The training data for recognition is a character image generated based on character information, and annotation information including the character information and the position of the figure for a character image including a figure corresponding to the character information. 8. The program according to appendix 6 or 7, which is data to which is assigned.
(Appendix 9)
9. The program according to appendix 8, wherein the character image is a character image obtained by correcting pixel values of a primary character image generated based on the character information.
(Appendix 10)
The character recognition model is
a first character recognition model that recognizes character information corresponding to the first identification information in the license plate information;
a second character recognition model that recognizes character information corresponding to the second identification information in the license plate information;
including
The first character recognition model is learned using first recognition teacher data corresponding to the first identification information,
10. The program according to any one of appendices 6 to 9, wherein the second character recognition model is trained using second recognition training data corresponding to the second identification information.
(Appendix 11)
The character recognition step includes:
selecting a predetermined number of character information from the plurality of character information based on the plurality of character information and the reliability of each of the plurality of character information output by the character recognition model;
and generating the license plate information based on the predetermined number of character information selected.
(Appendix 12)
The character recognition step includes:
selecting a predetermined number of pieces of character information from the plurality of pieces of character information based on the plurality of pieces of character information and the positions of graphics corresponding to each of the plurality of pieces of character information, which are output by the character recognition model;
and generating the license plate information based on the predetermined number of character information selected.
(Appendix 13)
13. The program according to any one of appendices 6 to 12, wherein the detecting step includes detecting the license plate from a predetermined detection target area included in the captured image.
(Appendix 14)
14. The program according to appendix 13, wherein the upper end of the detection target area is separated downward by a predetermined length from the upper end of the captured image.
(Appendix 15)
15. The program according to any one of appendices 6 to 14, wherein the extracting step does not include the step of generating the extracted image if the image area detected as the license plate of the surrounding vehicle is smaller than a predetermined size.
(Appendix 16)
The step of recognizing characters includes the step of generating one piece of license plate information based on license plate information generated for each of a plurality of captured images captured at different timings,
16. The program according to any one of appendices 6 to 15, wherein said output control step includes a step of outputting said 1 license plate information.
(Appendix 17)
an image acquisition unit that acquires a captured image of the scenery around the vehicle;
an identification information estimation unit for estimating identification information of surrounding vehicles located around the vehicle based on the captured image;
a travel information generation unit that acquires first travel information about travel of the vehicle and generates second travel information about travel of the surrounding vehicle based on the first travel information;
An information processing system comprising: an output control unit that associates and outputs the identification information and the second travel information.
(Appendix 18)
an image acquisition step of acquiring a photographed image of the scenery around the vehicle;
an identification information estimation step of estimating identification information of surrounding vehicles located around the vehicle based on the captured image;
a travel information generation step of acquiring first travel information about travel of the vehicle and generating second travel information about travel of the peripheral vehicle based on the first travel information;
An information processing method comprising: an output control step for outputting the identification information and the second travel information in association with each other.
(Appendix 19)
Detection that detects the license plates of surrounding vehicles located around the vehicle using a detection model that outputs the position of the image area showing the license plate included in the input image from the captured image of the scenery around the vehicle. Department and
an extraction unit that cuts out an extraction area corresponding to the image area detected as the license plate of the surrounding vehicle from the captured image to generate an extraction image;
a character recognition unit that acquires character information from the extracted image using a character recognition model and generates license plate information of the surrounding vehicle based on the character information;
An information processing system comprising: an output control unit for outputting the license plate information of the peripheral vehicle.
(Appendix 20)
Detection that detects the license plates of surrounding vehicles located around the vehicle using a detection model that outputs the position of the image area showing the license plate included in the input image from the captured image of the scenery around the vehicle. stages and
an extracting step of extracting an extraction area corresponding to the image area detected as the license plate of the surrounding vehicle from the captured image to generate an extraction image;
a character recognition step of obtaining character information from the extracted image using a character recognition model and generating license plate information of the surrounding vehicle based on the character information;
and an output control step for outputting the license plate information of the surrounding vehicle.

1,1a,1b 車両管理システム
10 車載システム
20 管理サーバ
30 検出用教師データ生成装置
40 検出用学習装置
50 認識用教師データ生成装置
50b-1~4 第1~第4認識用教師データ生成装置
60 認識用学習装置
60b-1~4 第1~第4認識用学習装置
100,900,910 情報処理装置(情報処理システム)
101 通信部
102,902 画像取得部
103,903 識別情報推定部
104,914 検出部
105,915 抽出部
106,916 文字認識部
107,907 走行情報生成部
107b 走行情報生成装置
108,908,918 出力制御部
108a 第1出力制御部
108b 第2出力制御部
109 記憶部
109a 第1記憶部
109b 第2記憶部
110 I/O
120 車載カメラ
140 センサ
160 画像解析装置
180 通信端末
300,330 撮影画像
310 抽出画像
320 認識結果
500 取得部
501 画像生成部
502 補正部
503 アノテーション付与部
504 記憶部
505 描画点情報DB
506 学習用DB
1000 コンピュータ
1010 プロセッサ
1020 記憶部
1030 ROM
1040 RAM
1050 通信インタフェース
1060 ユーザインタフェース
NA ナンバープレート画像領域
V 車両画像領域
DA 検出対象領域
T 陸運支局
C 分類番号
U 平仮名等
S 一連指定番号
CRM 文字認識モデル
FM 書式情報
DR 描画点情報
1, 1a, 1b vehicle management system 10 in-vehicle system 20 management server 30 detection teaching data generation device 40 detection learning device 50 recognition teaching data generation device 50b-1 to 4 first to fourth recognition teaching data generation device 60 Recognition learning devices 60b-1 to 4 First to fourth recognition learning devices 100, 900, 910 Information processing device (information processing system)
101 communication unit 102, 902 image acquisition unit 103, 903 identification information estimation unit 104, 914 detection unit 105, 915 extraction unit 106, 916 character recognition unit 107, 907 travel information generation unit 107b travel information generation device 108, 908, 918 output Control unit 108a First output control unit 108b Second output control unit 109 Storage unit 109a First storage unit 109b Second storage unit 110 I/O
120 Vehicle-mounted camera 140 Sensor 160 Image analysis device 180 Communication terminal 300, 330 Photographed image 310 Extracted image 320 Recognition result 500 Acquisition unit 501 Image generation unit 502 Correction unit 503 Annotation addition unit 504 Storage unit 505 Drawing point information DB
506 DB for learning
1000 computer 1010 processor 1020 storage unit 1030 ROM
1040 RAM
1050 Communication interface 1060 User interface NA License plate image area V Vehicle image area DA Detection target area T Land transport branch office C Classification number U Hiragana, etc. S Serial designation number CRM Character recognition model FM Format information DR Drawing point information

Claims (10)

車両の周囲の風景を撮影して生成された撮影画像を取得する画像取得段階と、
前記撮影画像に基づいて、前記車両の周囲に位置する周辺車両の識別情報を推定する識別情報推定段階と、
前記車両の走行に関する第1走行情報を取得し、前記第1走行情報に基づいて、前記周辺車両の走行に関する第2走行情報を生成する走行情報生成段階と、
前記識別情報と、前記第2走行情報とを対応付けて出力させる出力制御段階と
をコンピュータに実行させるためのプログラム。
an image acquisition step of acquiring a captured image generated by capturing the scenery around the vehicle;
an identification information estimation step of estimating identification information of surrounding vehicles located around the vehicle based on the captured image;
a travel information generation step of acquiring first travel information about travel of the vehicle and generating second travel information about travel of the peripheral vehicle based on the first travel information;
A program for causing a computer to execute: an output control step for outputting the identification information and the second travel information in association with each other.
前記周辺車両の前記識別情報は、前記周辺車両のナンバープレート情報であり、
前記識別情報推定段階は、
前記撮影画像から、前記周辺車両のナンバープレートを検出する検出段階と、
前記周辺車両のナンバープレートとして検出された画像領域に応じた抽出領域を、前記撮影画像から切り出して、抽出画像を生成する抽出段階と、
前記抽出画像から文字認識モデルを用いて文字情報を取得し、前記文字情報に基づいて前記周辺車両のナンバープレート情報を生成する文字認識段階と
を含む
請求項1に記載のプログラム。
The identification information of the surrounding vehicle is license plate information of the surrounding vehicle,
The identification information estimation step includes:
a detection step of detecting license plates of the surrounding vehicles from the captured image;
an extracting step of extracting an extraction area corresponding to the image area detected as the license plate of the surrounding vehicle from the captured image to generate an extraction image;
The program according to claim 1, comprising a character recognition step of acquiring character information from the extracted image using a character recognition model, and generating license plate information of the surrounding vehicle based on the character information.
車両の周囲の風景を撮影して生成された撮影画像から、入力画像に含まれるナンバープレートを示す画像領域の位置を出力する検出モデルを用いて、前記車両の周囲に位置する周辺車両のナンバープレートを検出する検出段階と、
前記周辺車両のナンバープレートとして検出された画像領域に応じた抽出領域を、前記撮影画像から切り出して、抽出画像を生成する抽出段階と、
前記抽出画像から文字認識モデルを用いて文字情報を取得し、前記文字情報に基づいて前記周辺車両のナンバープレート情報を生成する文字認識段階と、
前記周辺車両のナンバープレート情報を出力させる出力制御段階と
をコンピュータに実行させるためのプログラム。
Using a detection model that outputs the position of the image area showing the license plate included in the input image from the captured image generated by capturing the scenery around the vehicle, license plates of surrounding vehicles located around the vehicle a detection stage for detecting
an extracting step of extracting an extraction area corresponding to the image area detected as the license plate of the surrounding vehicle from the captured image to generate an extraction image;
a character recognition step of obtaining character information from the extracted image using a character recognition model and generating license plate information of the surrounding vehicle based on the character information;
A program for causing a computer to execute an output control step for outputting the license plate information of the peripheral vehicle.
前記文字認識モデルは、認識用教師データを用いて学習され、
前記認識用教師データは、文字情報に基づいて生成された文字画像であって、前記文字情報に対応する図形を含む文字画像、に対して、前記文字情報と前記図形の位置とを含むアノテーション情報が付与されたデータである
請求項2又は3に記載のプログラム。
The character recognition model is learned using recognition teacher data,
The training data for recognition is a character image generated based on character information, and annotation information including the character information and the position of the figure for a character image including a figure corresponding to the character information. 4. The program according to claim 2 or 3, wherein the data is given with .
前記文字画像は、前記文字情報に基づいて生成された一次文字画像の画素値を補正することにより得られた文字画像である
請求項4に記載のプログラム。
5. The program according to claim 4, wherein the character image is a character image obtained by correcting pixel values of a primary character image generated based on the character information.
前記文字認識モデルは、
ナンバープレート情報中の第1識別情報、に対応する文字情報を認識する第1文字認識モデルと、
ナンバープレート情報中の第2識別情報、に対応する文字情報を認識する第2文字認識モデルと、
を含み、
前記第1文字認識モデルは、前記第1識別情報に対応する第1認識用教師データを用いて学習され、
前記第2文字認識モデルは、前記第2識別情報に対応する第2認識用教師データを用いて学習される
請求項2から5のいずれか一項に記載のプログラム。
The character recognition model is
a first character recognition model that recognizes character information corresponding to the first identification information in the license plate information;
a second character recognition model that recognizes character information corresponding to the second identification information in the license plate information;
including
The first character recognition model is learned using first recognition teacher data corresponding to the first identification information,
6. The program according to any one of claims 2 to 5, wherein the second character recognition model is trained using second recognition training data corresponding to the second identification information.
前記検出段階は、前記撮影画像に含まれる予め定められた検出対象領域から、前記ナンバープレートを検出する段階を含む
請求項2から6のいずれか一項に記載のプログラム。
The program according to any one of claims 2 to 6, wherein the detecting step includes detecting the license plate from a predetermined detection target area included in the captured image.
前記文字認識段階は、撮影タイミングが異なる複数の撮影画像の各々について生成されたナンバープレート情報に基づいて、1のナンバープレート情報を生成する段階を含み、
前記出力制御段階は、前記1のナンバープレート情報を出力させる段階を含む
請求項2から7のいずれか一項に記載のプログラム。
The step of recognizing characters includes the step of generating one piece of license plate information based on license plate information generated for each of a plurality of captured images captured at different timings,
8. The program according to any one of claims 2 to 7, wherein said output control step includes a step of outputting said one license plate information.
車両の周囲の風景を撮影した撮影画像を取得する画像取得部と、
前記撮影画像に基づいて、前記車両の周囲に位置する周辺車両の識別情報を推定する識別情報推定部と、
前記車両の走行に関する第1走行情報を取得し、前記第1走行情報に基づいて、前記周辺車両の走行に関する第2走行情報を生成する走行情報生成部と、
前記識別情報と、前記第2走行情報とを対応付けて出力させる出力制御部と
を備える情報処理システム。
an image acquisition unit that acquires a captured image of the scenery around the vehicle;
an identification information estimation unit for estimating identification information of surrounding vehicles located around the vehicle based on the captured image;
a travel information generation unit that acquires first travel information about travel of the vehicle and generates second travel information about travel of the surrounding vehicle based on the first travel information;
An information processing system comprising: an output control unit that associates and outputs the identification information and the second travel information.
車両の周囲の風景を撮影した撮影画像から、入力画像に含まれるナンバープレートを示す画像領域の位置を出力する検出モデルを用いて、前記車両の周囲に位置する周辺車両のナンバープレートを検出する検出部と、
前記周辺車両のナンバープレートとして検出された画像領域に応じた抽出領域を、前記撮影画像から切り出して、抽出画像を生成する抽出部と、
前記抽出画像から文字認識モデルを用いて文字情報を取得し、前記文字情報に基づいて前記周辺車両のナンバープレート情報を生成する文字認識部と、
前記周辺車両のナンバープレート情報を出力させる出力制御部と
を備える情報処理システム。
Detection that detects the license plates of surrounding vehicles located around the vehicle using a detection model that outputs the position of the image area showing the license plate included in the input image from the captured image of the scenery around the vehicle. Department and
an extraction unit that cuts out an extraction area corresponding to the image area detected as the license plate of the surrounding vehicle from the captured image to generate an extraction image;
a character recognition unit that acquires character information from the extracted image using a character recognition model and generates license plate information of the surrounding vehicle based on the character information;
An information processing system comprising: an output control unit for outputting the license plate information of the peripheral vehicle.
JP2021088744A 2021-05-26 2021-05-26 Information processing system and program Pending JP2022181678A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021088744A JP2022181678A (en) 2021-05-26 2021-05-26 Information processing system and program
JP2024024173A JP2024052812A (en) 2021-05-26 2024-02-21 Information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021088744A JP2022181678A (en) 2021-05-26 2021-05-26 Information processing system and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024024173A Division JP2024052812A (en) 2021-05-26 2024-02-21 Information processing system, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2022181678A true JP2022181678A (en) 2022-12-08

Family

ID=84328446

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021088744A Pending JP2022181678A (en) 2021-05-26 2021-05-26 Information processing system and program
JP2024024173A Pending JP2024052812A (en) 2021-05-26 2024-02-21 Information processing system, information processing method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024024173A Pending JP2024052812A (en) 2021-05-26 2024-02-21 Information processing system, information processing method, and program

Country Status (1)

Country Link
JP (2) JP2022181678A (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352705A (en) * 2004-06-09 2005-12-22 Omron Corp Device and method for pattern recognition, and character recognizing method
JP2009169827A (en) * 2008-01-18 2009-07-30 Mitsubishi Heavy Ind Ltd License plate recognition device, method, and program
JP2010170207A (en) * 2009-01-20 2010-08-05 Hitachi Ltd Vehicle monitoring system
JP2012063869A (en) * 2010-09-14 2012-03-29 Nippon Signal Co Ltd:The License plate reader
JP2012164051A (en) * 2011-02-04 2012-08-30 Jvc Kenwood Corp License plate character recognition device and license plate character recognition method
JP2018060296A (en) * 2016-10-03 2018-04-12 グローリー株式会社 Image processing apparatus, image processing system, and image processing method
JP2020129255A (en) * 2019-02-08 2020-08-27 いすゞ自動車株式会社 Information transmitter and method for transmitting information
JP2021005164A (en) * 2019-06-25 2021-01-14 株式会社エクサウィザーズ Character recognition device, imaging device, character recognition method, and character recognition program
JP6843362B1 (en) * 2020-05-29 2021-03-17 ニューラルポケット株式会社 Information processing system, information processing device, terminal device, server device, program, or method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352705A (en) * 2004-06-09 2005-12-22 Omron Corp Device and method for pattern recognition, and character recognizing method
JP2009169827A (en) * 2008-01-18 2009-07-30 Mitsubishi Heavy Ind Ltd License plate recognition device, method, and program
JP2010170207A (en) * 2009-01-20 2010-08-05 Hitachi Ltd Vehicle monitoring system
JP2012063869A (en) * 2010-09-14 2012-03-29 Nippon Signal Co Ltd:The License plate reader
JP2012164051A (en) * 2011-02-04 2012-08-30 Jvc Kenwood Corp License plate character recognition device and license plate character recognition method
JP2018060296A (en) * 2016-10-03 2018-04-12 グローリー株式会社 Image processing apparatus, image processing system, and image processing method
JP2020129255A (en) * 2019-02-08 2020-08-27 いすゞ自動車株式会社 Information transmitter and method for transmitting information
JP2021005164A (en) * 2019-06-25 2021-01-14 株式会社エクサウィザーズ Character recognition device, imaging device, character recognition method, and character recognition program
JP6843362B1 (en) * 2020-05-29 2021-03-17 ニューラルポケット株式会社 Information processing system, information processing device, terminal device, server device, program, or method

Also Published As

Publication number Publication date
JP2024052812A (en) 2024-04-12

Similar Documents

Publication Publication Date Title
EP4109331A1 (en) Obstacle detection method and apparatus, computer device, and storage medium
CN112417953B (en) Road condition detection and map data updating method, device, system and equipment
WO2020097840A1 (en) Systems and methods for correcting a high-definition map based on detection of obstructing objects
CN107273788B (en) Imaging system for performing lane detection in a vehicle and vehicle imaging system
CN108877269B (en) Intersection vehicle state detection and V2X broadcasting method
CN112800860B (en) High-speed object scattering detection method and system with coordination of event camera and visual camera
CN111209780A (en) Lane line attribute detection method and device, electronic device and readable storage medium
CN111179152A (en) Road sign identification method and device, medium and terminal
CN111967396A (en) Processing method, device and equipment for obstacle detection and storage medium
CN115761668A (en) Camera stain recognition method and device, vehicle and storage medium
CN111611918A (en) Traffic flow data set acquisition and construction method based on aerial photography data and deep learning
CN112598743B (en) Pose estimation method and related device for monocular vision image
JP2022181678A (en) Information processing system and program
CN115953744A (en) Vehicle identification tracking method based on deep learning
CN111753663B (en) Target detection method and device
CN113160217A (en) Method, device and equipment for detecting foreign matters in circuit and storage medium
CN117173693B (en) 3D target detection method, electronic device, medium and driving device
CN112668563B (en) Method and related device for realizing movement track calculation based on video image
CN117407480B (en) Map display method and device based on photoelectric holder
CN117831000A (en) Traffic light detection method and device, electronic equipment and storage medium
Liebe et al. FARSEC: A Reproducible Framework for Automatic Real-Time Vehicle Speed Estimation Using Traffic Cameras
WO2020073272A1 (en) Snapshot image to train an event detector
WO2024089456A1 (en) Video-based automated driving conditions classification system and method
Pöllot et al. Identification of irregular motion in automotive navigation systems using novelty detection
WO2020073270A1 (en) Snapshot image of traffic scenario

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226