JP2021068350A - Vehicle estimation device - Google Patents

Vehicle estimation device Download PDF

Info

Publication number
JP2021068350A
JP2021068350A JP2019195019A JP2019195019A JP2021068350A JP 2021068350 A JP2021068350 A JP 2021068350A JP 2019195019 A JP2019195019 A JP 2019195019A JP 2019195019 A JP2019195019 A JP 2019195019A JP 2021068350 A JP2021068350 A JP 2021068350A
Authority
JP
Japan
Prior art keywords
vehicle
image
estimation
small
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019195019A
Other languages
Japanese (ja)
Other versions
JP6900448B2 (en
Inventor
龍一 今井
Ryuichi Imai
龍一 今井
雄平 山本
Yuhei Yamamoto
雄平 山本
田中 成典
Shigenori Tanaka
成典 田中
匡哉 中原
Masaya NAKAHARA
匡哉 中原
光貴 中畑
Koki Nakahata
光貴 中畑
精久 高野
Kiyohisa Takano
精久 高野
亮 山中
Akira Yamanaka
亮 山中
庄治 大月
Shoji Otsuki
庄治 大月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intelligent Style Co Ltd
Original Assignee
Intelligent Style Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intelligent Style Co Ltd filed Critical Intelligent Style Co Ltd
Priority to JP2019195019A priority Critical patent/JP6900448B2/en
Publication of JP2021068350A publication Critical patent/JP2021068350A/en
Priority to JP2021099891A priority patent/JP7277511B2/en
Application granted granted Critical
Publication of JP6900448B2 publication Critical patent/JP6900448B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Devices For Checking Fares Or Tickets At Control Points (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a vehicle determination device capable of determining a vehicle with high flexibility.SOLUTION: An image pickup unit 2 captures an image of an automobile and outputs the captured image. Vehicle recognition means 4 recognizes and outputs a vehicle included in the captured image. Vehicle image extracting means 6 extracts an image (vehicle image) of a vehicle portion based on the above recognition. Part extraction means 8 extracts a part region such as front and rear tires, a front surface, a side surface, and an upper surface in the vehicle image. Size estimation means 10 estimates whether the vehicle is a large vehicle or a small vehicle based on a relationship between the extracted plurality of part regions. This size estimation means 10 can be constructed by inference means in which the relationship between a plurality of part regions is specified and learned for the large vehicle and the small vehicle. As described above, the large vehicle and the small vehicle can be estimated.SELECTED DRAWING: Figure 1

Description

この発明は、撮像した画像から、自動車などの大型車、小型車を推定する装置に関するものである。 The present invention relates to a device for estimating a large vehicle such as an automobile or a small vehicle from an captured image.

交通量の調査や施設における管理のために、自動車が大型車であるか小型車であるかを判断する必要がある。たとえば、交通量の調査においては、交差点などで調査員が目視にて、通過する車両の種類や大型小型などの分類を行って、その分類ごとに交通量を計数している。 It is necessary to determine whether a vehicle is a large vehicle or a small vehicle for traffic volume surveys and facility management. For example, in a traffic volume survey, an investigator visually classifies passing vehicles, large and small vehicles, and the like at intersections, and counts the traffic volume for each classification.

近年、撮像画像中から自動車の部分を抽出し、当該自動車の種類(乗用車、トラックなど)を推定するソフトウエア(たとえばYOLO)が実用化されている。 In recent years, software (for example, YOLO) that extracts a part of an automobile from a captured image and estimates the type of the automobile (passenger car, truck, etc.) has been put into practical use.

特開2017−142587JP-A-2017-142587

しかしながら、上記のようなソフトウエアを交通量調査などに適用すると、自動車の種類は推定できたとしても、大型車であるか小型車であるかの推定まではできなかった。同一の種類の自動車は、大型であっても小型であっても類似の形状をしているためである。 However, when the above software is applied to traffic volume surveys, etc., even if the type of automobile can be estimated, it cannot be estimated whether it is a large car or a small car. This is because automobiles of the same type have similar shapes regardless of whether they are large or small.

また、自動車のナンバープレートの文字を読み取り、当該文字から種類などを推定するシステムも提案されている(特許文献1)。このシステムによれば、自動車の種類だけでなく、ナンバープレートの文字に現れた大型車、小型車の区別を取得することができる。 In addition, a system has been proposed in which characters on the license plate of an automobile are read and the type or the like is estimated from the characters (Patent Document 1). According to this system, it is possible to obtain not only the type of automobile but also the distinction between a large car and a small car appearing on the letters on the license plate.

このようなナンバープレートの文字による推定を行えば、種類だけでなく大型・小型の区別も可能となる。 By estimating by the letters of the license plate like this, it is possible to distinguish not only the type but also the large size and the small size.

しかしながら、撮像距離や位置、天候などによって、ナンバープレートの文字を読み取れない可能性がある。このため、交通量調査などに用いることには制限があった。 However, it may not be possible to read the characters on the license plate depending on the imaging distance, position, weather, and so on. For this reason, there are restrictions on its use for traffic surveys and the like.

この発明は上記のような問題点を解決して、柔軟性の高い車判定を行うことのできる車判定装置を提供することを目的とする。 An object of the present invention is to solve the above-mentioned problems and to provide a vehicle determination device capable of performing highly flexible vehicle determination.

この発明の独立して適用可能な特徴を以下に列挙する。 The independently applicable features of the present invention are listed below.

(1)(2)この発明に係る車推定装置は、車両を撮像して撮像画像を出力する撮像部と、撮像画像に含まれる車両を認識して出力する車両認識手段と、車両認識手段によって認識された車両の車両画像を抽出する車両画像抽出手段と、抽出された車両画像を受けて、当該画像中の車両の前後のタイヤ、側面を含む部位領域を抽出する部位抽出手段と、前記抽出された複数の部位領域の関係に基づいて、大型車か小型車かを推定する大小推定手段とを備えている。 (1) (2) The vehicle estimation device according to the present invention is provided by an imaging unit that images a vehicle and outputs an captured image, a vehicle recognition means that recognizes and outputs a vehicle included in the captured image, and a vehicle recognition means. A vehicle image extraction means for extracting a vehicle image of a recognized vehicle, a part extraction means for extracting a part region including front and rear tires and side surfaces of the vehicle in the extracted vehicle image, and the above-mentioned extraction. It is provided with a size estimation means for estimating whether the vehicle is a large vehicle or a small vehicle based on the relationship between a plurality of site regions.

したがって、類似した外形の車両であっても大型車・小型車を区別して推定することができる。 Therefore, even if the vehicles have similar outer shapes, it is possible to distinguish between a large vehicle and a small vehicle.

(3)この発明に係る車推定装置は、撮像部が、走行する車両を連続的に撮像して複数の撮像画像を出力するものであり、大小推定手段は、複数の撮像画像についての大型車か小型車かの判断を統合して、最終的な大型車か小型車かの判断を行うことを特徴としている。 (3) In the vehicle estimation device according to the present invention, the imaging unit continuously images a traveling vehicle and outputs a plurality of captured images, and the size estimation means is a large vehicle for a plurality of captured images. It is characterized by integrating the judgment of whether it is a small car or a small car and making the final judgment of whether it is a large car or a small car.

したがって、より正確に推定を行うことができる。 Therefore, the estimation can be performed more accurately.

(4)この発明に係る車推定装置は、部位抽出手段が、車両の前後のタイヤと側面に代えて、あるいは加えて、フロントガラス、リアガラスまたはナンバープレートを含む部位領域も抽出することを特徴としている。 (4) The vehicle estimation device according to the present invention is characterized in that the part extraction means extracts a part region including a windshield, a rear glass or a license plate in place of or in addition to the front and rear tires and side surfaces of the vehicle. There is.

したがって、これら領域に基づいて、大型小型の推定を行うことができる。 Therefore, large and small estimates can be made based on these regions.

(5)この発明に係る車推定装置は、大小推定手段が、前記抽出された車両画像も推定の根拠に用いることを特徴としている。 (5) The vehicle estimation device according to the present invention is characterized in that the magnitude estimation means also uses the extracted vehicle image as a basis for estimation.

したがって、より正確に推定を行うことができる。 Therefore, the estimation can be performed more accurately.

(6)この発明に係る車推定装置は、大小推定手段が、前記抽出された車両画像の枠をカメラからの距離に応じて正規化した時の枠の大きさも推定の根拠に用いることを特徴としている。 (6) The vehicle estimation device according to the present invention is characterized in that the size estimation means also uses the size of the frame when the frame of the extracted vehicle image is normalized according to the distance from the camera as the basis for estimation. It is supposed to be.

したがって、より正確に推定を行うことができる。 Therefore, the estimation can be performed more accurately.

(7)この発明に係る車推定装置は、大小推定手段が、前記抽出された車両画像をカメラからの距離に応じて正規化した時の車両画像における車両の占める領域面積も推定の根拠に用いることを特徴としている。 (7) In the vehicle estimation device according to the present invention, the area occupied by the vehicle in the vehicle image when the size estimation means normalizes the extracted vehicle image according to the distance from the camera is also used as the basis for estimation. It is characterized by that.

したがって、より正確に推定を行うことができる。 Therefore, the estimation can be performed more accurately.

(8)この発明に係る車推定装置は、車両認識手段が、少なくとも乗用車、バス、トラックの車種を判断するものであり、大小推定手段は、前記車種ごとに分けて大小推定を行うことを特徴としている。 (8) In the vehicle estimation device according to the present invention, the vehicle recognition means determines at least the vehicle types of passenger cars, buses, and trucks, and the size estimation means separately performs size estimation for each vehicle type. It is said.

したがって、より正確に推定を行うことができる。 Therefore, the estimation can be performed more accurately.

(9)(10)この発明に係る入場管理装置は、施設に入場しようとする車両を撮像して撮像画像を出力する撮像部と、前記撮像画像に含まれる車両を認識して出力する車両認識手段と、車両認識手段によって認識された車両の車両画像を抽出する車両画像抽出手段と、抽出された車両画像を受けて、当該画像中の車両の前後のタイヤ、側面を含む部位領域を抽出する抽出手段と、前記抽出された複数の部位領域の関係に基づいて、大型車か小型車かを推定する大小推定手段と、少なくとも前記推定結果が大型車であるか小型車であるかに基づいて、施設に入場するためのゲートの開閉を制御するゲート制御手段とを備えている。 (9) (10) The admission management device according to the present invention has an imaging unit that captures an image of a vehicle trying to enter a facility and outputs an image, and a vehicle recognition that recognizes and outputs a vehicle included in the captured image. The means, the vehicle image extracting means for extracting the vehicle image of the vehicle recognized by the vehicle recognition means, and the extracted vehicle image are received, and the part region including the front and rear tires and the side surface of the vehicle in the image is extracted. A facility based on the extraction means, the size estimation means for estimating whether the vehicle is a large vehicle or a small vehicle based on the relationship between the extracted plurality of site regions, and at least whether the estimation result is a large vehicle or a small vehicle. It is equipped with a gate control means for controlling the opening and closing of the gate for entering the vehicle.

したがって、大型車が小型車かを推定し、これに対応してゲートの開閉を制御することができる。 Therefore, it is possible to estimate whether the large vehicle is a small vehicle and control the opening and closing of the gate correspondingly.

(11)(12)この発明に係る料金管理装置は、施設に入場しようとする車両を撮像して撮像画像を出力する撮像部と、前記撮像画像に含まれる車両を認識して出力する車両認識手段と、車両認識手段によって認識された車両の車両画像を抽出する車両画像抽出手段と、抽出された車両画像を受けて、当該画像中の車両の前後のタイヤ、側面を含む部位領域を抽出する抽出手段と、前記抽出された複数の部位領域の関係に基づいて、大型車か小型車かを推定する大小推定手段と、少なくとも前記推定結果が大型車であるか小型車であるかに基づいて、施設利用料金を算出する料金算出手段とを備えている。 (11) (12) The charge management device according to the present invention has an imaging unit that captures an image of a vehicle trying to enter a facility and outputs an captured image, and a vehicle recognition that recognizes and outputs a vehicle included in the captured image. The means, the vehicle image extracting means for extracting the vehicle image of the vehicle recognized by the vehicle recognition means, and the extracted vehicle image are received, and the part region including the front and rear tires and the side surface of the vehicle in the image is extracted. A facility based on the extraction means, the size estimation means for estimating whether the vehicle is a large vehicle or a small vehicle based on the relationship between the extracted plurality of site regions, and at least whether the estimation result is a large vehicle or a small vehicle. It is equipped with a charge calculation means for calculating usage charges.

したがって、大型車が小型車かを推定し、これに対応して料金を算出することができる。 Therefore, it is possible to estimate whether the large vehicle is a small vehicle and calculate the charge corresponding to this.

(13)この発明に係る装置は、撮像部が、走行する車両を連続的に撮像して複数の撮像画像を出力するものであり、大小推定手段は、複数の撮像画像についての大型車か小型車かの判断を統合して、最終的な大型車か小型車かの判断を行うことを特徴としている。 (13) In the apparatus according to the present invention, the imaging unit continuously images a traveling vehicle and outputs a plurality of captured images, and the magnitude estimation means is a large vehicle or a small vehicle for the plurality of captured images. It is characterized by integrating the judgments and making the final judgment as to whether it is a large vehicle or a small vehicle.

したがって、より正確に推定を行うことができる。 Therefore, the estimation can be performed more accurately.

(14)この発明に係る装置は、部位抽出手段が、車両の前後のタイヤと側面に代えて、あるいは加えて、フロントガラス、リアガラスまたはナンバープレートを含む部位領域も抽出することを特徴としている。 (14) The apparatus according to the present invention is characterized in that the site extraction means extracts a site region including a windshield, a rear glass or a license plate in place of or in addition to the front and rear tires and side surfaces of the vehicle.

したがって、これら領域に基づいて、大型小型の推定を行うことができる。 Therefore, large and small estimates can be made based on these regions.

(15)この発明に係る装置は、大小推定手段が、前記抽出された車両画像も推定の根拠に用いることを特徴としている。 (15) The apparatus according to the present invention is characterized in that the magnitude estimation means also uses the extracted vehicle image as a basis for estimation.

したがって、より正確に推定を行うことができる。 Therefore, the estimation can be performed more accurately.

(16)この発明に係る装置は、大小推定手段が、前記抽出された車両画像の枠をカメラからの距離に応じて正規化した時の枠の大きさも推定の根拠に用いることを特徴としている。 (16) The apparatus according to the present invention is characterized in that the magnitude estimation means also uses the size of the frame when the frame of the extracted vehicle image is normalized according to the distance from the camera as the basis for estimation. ..

したがって、より正確に推定を行うことができる。 Therefore, the estimation can be performed more accurately.

(17)この発明に係る装置は、大小推定手段が、前記抽出された車両画像をカメラからの距離に応じて正規化した時の車両画像における車両の占める領域面積も推定の根拠に用いることを特徴としている。 (17) The apparatus according to the present invention uses the area occupied by the vehicle in the vehicle image when the size estimation means normalizes the extracted vehicle image according to the distance from the camera as the basis for estimation. It is a feature.

したがって、より正確に推定を行うことができる。 Therefore, the estimation can be performed more accurately.

(18)この発明に係る装置は、車両認識手段が、少なくとも乗用車、バス、トラックの車種を判断するものであり、大小推定手段は、前記車種ごとに分けて大小推定を行うことを特徴としている。 (18) In the device according to the present invention, the vehicle recognition means determines at least the vehicle type of a passenger car, a bus, or a truck, and the size estimation means is characterized in that the size is estimated separately for each of the vehicle types. ..

したがって、より正確に推定を行うことができる。 Therefore, the estimation can be performed more accurately.

「車両認識手段」は、実施形態においては、ステップS4がこれに対応する。 In the embodiment, step S4 corresponds to the "vehicle recognition means".

「車両画像抽出手段」は、実施形態においては、ステップS8がこれに対応する。 In the embodiment, step S8 corresponds to the “vehicle image extraction means”.

「部位抽出手段」は、実施形態においては、ステップS10がこれに対応する。 In the embodiment, step S10 corresponds to the “site extraction means”.

「大小推定手段」は、少なくとも大型車であるか小型車であるかの区別を行うものであり、車種の判断をおこなうものも含む概念である。実施形態においては、ステップS12がこれに対応する。 The "large / small estimation means" is a concept that at least distinguishes between a large vehicle and a small vehicle, and includes a vehicle type determination. In the embodiment, step S12 corresponds to this.

「プログラム」とは、CPUにより直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム等を含む概念である。 The "program" is a concept including not only a program that can be directly executed by the CPU, but also a source format program, a compressed program, an encrypted program, and the like.

この発明の一実施形態による車推定装置の機能構成図である。It is a functional block diagram of the vehicle estimation device by one Embodiment of this invention. 車推定装置のハードウエア構成である。This is the hardware configuration of the car estimation device. 車推定プログラムのフローチャートである。It is a flowchart of a car estimation program. 撮像画像と車両認識画像と部位推定画像の例である。This is an example of a captured image, a vehicle recognition image, and a part estimation image. 車両認識のための学習処理のフローチャートである。It is a flowchart of learning process for vehicle recognition. 学習のためのデータを示す図である。It is a figure which shows the data for learning. 車両を切り出した画像の例である。This is an example of an image of a vehicle cut out. 部位推定のための学習処理のフローチャートである。It is a flowchart of the learning process for site estimation. 部位推定のための学習データを示す図である。It is a figure which shows the learning data for site estimation. 大小推定のための学習処理のフローチャートである。It is a flowchart of learning process for magnitude estimation. 学習のためのデータを示す図である。It is a figure which shows the data for learning. 車種の修正のためのテーブルである。This is a table for modifying the vehicle type. 第2の実施形態による入場管理装置の機能構成である。It is a functional configuration of the entrance management device according to the second embodiment. ゲートの外観を示す図である。It is a figure which shows the appearance of the gate. ハードウエア構成を示す図である。It is a figure which shows the hardware configuration. 制御プログラムのフローチャートである。It is a flowchart of a control program.

1.第1の実施形態
1.1機能構成
図1に、この発明の一実施形態による車推定装置の機能構成を示す。撮像部2は、自動車を撮像して撮像画像を出力する。車両認識手段4は、撮像画像に含まれる車両を認識して出力する。たとえば、車両をバウンダリーボックスで囲って出力する。車両認識手段4は、たとえば、車両の画像にて学習させた推論手段によって構築することができる。
1. 1. First Embodiment
1.1 Functional configuration Figure 1 shows the functional configuration of the vehicle estimation device according to the embodiment of the present invention. The image pickup unit 2 takes an image of the automobile and outputs the captured image. The vehicle recognition means 4 recognizes and outputs the vehicle included in the captured image. For example, the vehicle is enclosed in a boundary box and output. The vehicle recognition means 4 can be constructed by, for example, an inference means learned from an image of a vehicle.

車両画像抽出手段6は、上記認識に基づいて車両部分の画像(車両画像)を抽出する。部位抽出手段8は、当該車両画像中の、前後のタイヤ、正面、側面、上面などの部位領域を抽出する。この部位抽出手段8は、部位を特定して学習させた推論手段によって構築することができる。 The vehicle image extracting means 6 extracts an image (vehicle image) of the vehicle portion based on the above recognition. The part extraction means 8 extracts part regions such as front and rear tires, front surface, side surface, and upper surface in the vehicle image. The site extraction means 8 can be constructed by an inference means in which a site is specified and learned.

大小推定手段10は、上記抽出された複数の部位領域の関係に基づいて、大型車であるか小型車であるかを推定する。この大小推定手段10は、大型車、小型車につき、複数の部位領域の関係を特定して学習させた推論手段によって構築することができる。 The size estimation means 10 estimates whether the vehicle is a large vehicle or a small vehicle based on the relationship between the extracted plurality of region regions. The size estimation means 10 can be constructed by an inference means in which the relationship between a plurality of site regions is specified and learned for a large vehicle and a small vehicle.

以上のようにして大型車、小型車を推定することができる。
As described above, large vehicles and small vehicles can be estimated.

1.2ハードウエア構成
図2に、車推定装置のハードウエア構成を示す。CPU30には、メモリ32、ディスプレイ34、カメラ2、ハードディスク36、DVD−ROMドライブ38、キーボード/マウス40、通信回路42が接続されている。
1.2 Hardware configuration Figure 2 shows the hardware configuration of the vehicle estimation device. A memory 32, a display 34, a camera 2, a hard disk 36, a DVD-ROM drive 38, a keyboard / mouse 40, and a communication circuit 42 are connected to the CPU 30.

通信回路42は、インターネットに接続するためのものである。ハードディスク36には、オペレーティングシステム44、車推定プログラム46が記録されている。車推定プログラム46は、オペレーティングシステム44と協働してその機能を発揮するものである。 The communication circuit 42 is for connecting to the Internet. The operating system 44 and the vehicle estimation program 46 are recorded on the hard disk 36. The vehicle estimation program 46 exerts its function in cooperation with the operating system 44.

これらプログラムは、DVD−ROM48に記録されていたものを、DVD−ROMドライブ38を介して、ハードディスク36にインストールしたものである。
These programs are those recorded on the DVD-ROM 48 and installed on the hard disk 36 via the DVD-ROM drive 38.

1.3車推定処理
図3に、車推定処理のフローチャートを示す。CPU30は、カメラ2による撮像画像を取得する(ステップS2)。この実施形態では、動画として撮像を行っている。図4Aに、撮像画像の例を示す。この実施形態では、電柱や街頭の上にカメラ2を設けて、上方からのアングルにて撮像を行っている。
1.3 Vehicle estimation processing Figure 3 shows a flowchart of vehicle estimation processing. The CPU 30 acquires an image captured by the camera 2 (step S2). In this embodiment, imaging is performed as a moving image. FIG. 4A shows an example of a captured image. In this embodiment, a camera 2 is provided on a utility pole or a street, and an image is taken from an angle from above.

CPU30は、この撮像画像に含まれる車両を認識し車種を推定する(ステップS4)。この実施形態では、かかる推定処理のために学習済みの推論モデル(例えばディープラーニングによる機械学習のモデル)を用いている。 The CPU 30 recognizes the vehicle included in the captured image and estimates the vehicle type (step S4). In this embodiment, a trained inference model (for example, a model of machine learning by deep learning) is used for such estimation processing.

この実施形態においては、学習処理は、図2のコンピュータを用いて行うようにしている。もちろん、他のコンピュータを用いてもよい。 In this embodiment, the learning process is performed using the computer of FIG. Of course, other computers may be used.

まず、図6Aに示すような車両の含まれる画像データを多数用意して、ハードディスク36に記録する。できれば、いろいろな車種、背景による画像が多数あることが好ましい。 First, a large number of image data including a vehicle as shown in FIG. 6A are prepared and recorded on the hard disk 36. If possible, it is preferable that there are many images of various vehicle types and backgrounds.

この時、車両を撮像するアングルは、できるだけ実際に運用する場合のアングルに近いものであることが好ましい。たとえば、図4Aに示すようなアングルにて撮像して運用を行うのであれば、これに近いアングルであることが好ましい。 At this time, it is preferable that the angle at which the vehicle is imaged is as close as possible to the angle when actually operating the vehicle. For example, if an image is taken at an angle as shown in FIG. 4A for operation, an angle close to this is preferable.

それぞれの画像データ(オリジナル画像データ)を、ディスプレイ34に表示する。、ユーザは、画像を見ながら、キーボード/マウス40を操作して、図6Bに示すように車両部分を矩形(バウンダリーボックス)で囲い、当該車両の車種を入力する
これにより、図6Cに示すように、バウンダリーボックスの左上座標、右下座標(二次元画像中の座標)および車種が記録された解析データと、オリジナル画像データとが対応付けられてハードディスク36に記録される。この実施形態では、車種として、乗用車、貨物車、バスを区別するようにしている。上記の処理を、全てのオリジナル画像について行う。これにより、多数の学習データが、ハードディスク36に記録されることになる。
Each image data (original image data) is displayed on the display 34. The user operates the keyboard / mouse 40 while looking at the image, encloses the vehicle portion with a rectangle (boundary box) as shown in FIG. 6B, and inputs the vehicle type of the vehicle. As described above, the analysis data in which the upper left coordinate, the lower right coordinate (coordinates in the two-dimensional image) and the vehicle type of the boundary box are recorded are associated with the original image data and recorded on the hard disk 36. In this embodiment, passenger cars, freight cars, and buses are distinguished as vehicle types. The above process is performed on all original images. As a result, a large amount of learning data will be recorded on the hard disk 36.

図5に、車両認識と車種推定のために、推定モデル(ディープラーニング)を学習する処理のフローチャートを示す。 FIG. 5 shows a flowchart of a process of learning an estimation model (deep learning) for vehicle recognition and vehicle type estimation.

CPU30は、ハードディスク36からオリジナル画像を取得する(ステップS52)。たとえば、図6Aに示すようなオリジナル画像を読み出す。次に、CPU30は、オリジナル画像について、学習済みの推定モデル(ディープラーニング)により、車両認識と車種推定を行う(ステップS54、S56)。 The CPU 30 acquires the original image from the hard disk 36 (step S52). For example, the original image as shown in FIG. 6A is read out. Next, the CPU 30 performs vehicle recognition and vehicle type estimation on the original image by a trained estimation model (deep learning) (steps S54 and S56).

次に、CPU30は、オリジナル画像に対応づけて記録されている解析データ(図6C)を読み出す(ステップS58)。続いて、CPU30は、図6Cの解析データを教師データとし、車両認識と車両推定の結果に基づいて、ステップS54、S56における推定のためのパラメータを学習する(ステップS60)。 Next, the CPU 30 reads out the analysis data (FIG. 6C) recorded in association with the original image (step S58). Subsequently, the CPU 30 uses the analysis data of FIG. 6C as teacher data, and learns the parameters for estimation in steps S54 and S56 based on the results of vehicle recognition and vehicle estimation (step S60).

以上のようにして、学習済みの推論モデルが生成される。なお、最初は、未学習の推論モデルあるいは学習不足の推論モデルであるが、上記の処理を繰り返すことで、十分に学習済みの推論モデルを得ることができる。 As described above, the trained inference model is generated. Initially, it is an unlearned inference model or an under-learned inference model, but by repeating the above processing, a sufficiently learned inference model can be obtained.

なお、この実施形態では、車両の前方からの写真だけでなく、後方や側面からの写真も学習データとして用いるようにしている。したがって、いずれの方向にて撮像された車両であっても推論を行うことができるような推論モデルを生成できる。運用時に前方など特定の方向からの車両だけを判断すればよいのであれば、前方のなど特定の方向だけからの写真に基づいて学習データを作成すればよい。 In this embodiment, not only the photograph from the front of the vehicle but also the photograph from the rear or the side is used as the learning data. Therefore, it is possible to generate an inference model that can make inferences regardless of the vehicle imaged in any direction. If it is only necessary to determine the vehicle from a specific direction such as the front during operation, the learning data may be created based on the photograph from only the specific direction such as the front.

なお、学習済みの推論モデルとして、YOLOなどのプログラムを用いてもよい。また、YOLOなどのプログラムを追加学習して用いるようにしてもよい。 A program such as YOLO may be used as the learned inference model. In addition, a program such as YOLO may be additionally learned and used.

図3のステップS4においては、CPU30は、このようにして生成された推論モデルを用いて、撮像された画像(図4A)に写し出された車両をバウンダリーボックスにて囲い、車種を推定する。 In step S4 of FIG. 3, the CPU 30 uses the inference model generated in this way to enclose the vehicle projected in the captured image (FIG. 4A) with a boundary box and estimate the vehicle type.

図4Bに、車両が認識されバウンダリーボックスにて囲われた画像を示す。また、図示していないが、各バウンダリーボックスに対応付けて推定した車種が記録される(図6Bのような形式にて記録される)。 FIG. 4B shows an image in which the vehicle is recognized and surrounded by a boundary box. Further, although not shown, the estimated vehicle type is recorded in association with each boundary box (recorded in the format as shown in FIG. 6B).

続いて、CPU30は、バウンダリーボックスに基づいて、それぞれの車両の画像を切り出す(ステップS8)。切り出した車両画像の例を、図7に示す。 Subsequently, the CPU 30 cuts out an image of each vehicle based on the boundary box (step S8). An example of the cut out vehicle image is shown in FIG.

CPU30は、車両画像に基づいて、当該車両の部位推定を行う(ステップS10)。なお、車両との距離によって切り出した画像の大きさが異なっている。そこで、この実施形態では距離に応じて異なる大きさとなっている車両画像を、統一した大きさに変換(正規化)してから推定を行うようにしている。たとえば、車両画像の横幅(バウンダリーボックスの横幅)を定められた幅となるように、車両画像全体を均等に拡大縮小する。 The CPU 30 estimates the part of the vehicle based on the vehicle image (step S10). The size of the cut-out image differs depending on the distance from the vehicle. Therefore, in this embodiment, vehicle images having different sizes depending on the distance are converted (normalized) into a unified size before estimation. For example, the entire vehicle image is uniformly enlarged or reduced so that the width of the vehicle image (width of the boundary box) becomes a predetermined width.

この実施形態では、かかる推定処理のために学習済みの推論モデル(例えばディープラーニングによる機械学習のモデル)を用いている。 In this embodiment, a trained inference model (for example, a model of machine learning by deep learning) is used for such estimation processing.

この実施形態においては、学習処理は、図2のコンピュータを用いて行うようにしている。もちろん、他のコンピュータを用いてもよい。 In this embodiment, the learning process is performed using the computer of FIG. Of course, other computers may be used.

図8に、学習処理のフローチャートを示す。この実施形態では、セマンティック・セグメンテーションによる推定処理を行うSegNet(https://qiita.com/uni-3/items/a62daa5a03a02f5fa46dにて入手可能)を、ディープラーニングのエンジンとして用いた。 FIG. 8 shows a flowchart of the learning process. In this embodiment, SegNet (available at https://qiita.com/uni-3/items/a62daa5a03a02f5fa46d), which performs estimation processing by semantic segmentation, was used as an engine for deep learning.

まず、図9Aに示すような自動車の含まれる画像データを多数用意して、ハードディスク36に記録する。できれば、いろいろな車種、いろいろな背景による画像が多数あることが好ましい。 First, a large number of image data including an automobile as shown in FIG. 9A are prepared and recorded on the hard disk 36. If possible, it is preferable that there are many images with various vehicle types and various backgrounds.

それぞれの画像データ(オリジナル画像データ)を、ディスプレイ34に表示し、操作者が画像をみながら、マウス40を操作して、前ナンバープレート、後ナンバープレート、前タイヤ、後タイヤ、左タイヤ、右タイヤ、正面、フロントガラス、左側面、右側面、背面、リアガラス、上面および背景(自動車以外の部分)を、それぞれ異なる色でラベル付けする。ラベル画像の例を図9Bに示す。生成されたラベル画像データは、オリジナルの画像データに対応付けて、ハードディスク36に記録される。 Each image data (original image data) is displayed on the display 34, and the operator operates the mouse 40 while viewing the image to display the front license plate, the rear license plate, the front tire, the rear tire, the left tire, and the right. Label the tires, front, front glass, left side, right side, back, rear glass, top and background (non-automobile parts) with different colors. An example of a label image is shown in FIG. 9B. The generated label image data is recorded on the hard disk 36 in association with the original image data.

以上のようにして、オリジナル画像データとこれに対応するラベル画像データが、多数、ハードディスク36に記録されることとなる。 As described above, a large number of original image data and corresponding label image data are recorded on the hard disk 36.

まず、CPU30は、ハードディスク36からオリジナル画像データを取得する(ステップS62)。たとえば、図9Aのようなオリジナル画像を読みだす。次に、CPU30は、オリジナル画像について、学習済みのセマンティック・セグメンテーションにより、前ナンバープレート、後ナンバープレート、前タイヤ、後タイヤ、左タイヤ、右タイヤ、正面、フロントガラス、左側面、右側面、背面、リアガラス、上面の各部位を推定する(ステップS64)。推定結果の画像を、図9Cに示す。図9Cに示すように、各部位ごとに異なる色が付された画像となっている。 First, the CPU 30 acquires the original image data from the hard disk 36 (step S62). For example, the original image as shown in FIG. 9A is read out. Next, the CPU 30 uses the trained semantic segmentation on the original image to perform front license plate, rear license plate, front tire, rear tire, left tire, right tire, front, windshield, left side, right side, and back. , Rear glass, and upper surface are estimated (step S64). An image of the estimation result is shown in FIG. 9C. As shown in FIG. 9C, the images are colored differently for each part.

この実施形態では、オリジナル画像に対して、プーリングおよび畳み込みを繰り返し、さらに、アップサンプリングと畳み込みを繰り返すことで推定結果の画像を得るようにしている。 In this embodiment, the original image is repeatedly pooled and convolved, and then upsampling and convolution are repeated to obtain an image of the estimation result.

次に、CPU30は、オリジナル画像に対応してハードディスク36に記録されているラベル画像を読みだす(ステップS66)。たとえば、図9Bのようなラベル画像が読みだされる。 Next, the CPU 30 reads out the label image recorded on the hard disk 36 corresponding to the original image (step S66). For example, a label image as shown in FIG. 9B is read out.

続いて、CPU30は、図9Bのラベル画像を教師データとし、図9Cの推定結果画像に基づいて、ステップS64における推定のためのパラメータを学習する(ステップS68)。 Subsequently, the CPU 30 uses the label image of FIG. 9B as teacher data, and learns the parameters for estimation in step S64 based on the estimation result image of FIG. 9C (step S68).

全てのオリジナル画像・ラベル画像に基づいて学習を行うと、CPU30は、学習処理を終了する(ステップS60、S70)。なお、最初は、未学習の推論モデルあるいは学習不足の推論モデルであるが、上記の処理を繰り返すことで、十分に学習済みの推論モデルを得ることができる。 When learning is performed based on all the original images / label images, the CPU 30 ends the learning process (steps S60 and S70). Initially, it is an unlearned inference model or an under-learned inference model, but by repeating the above processing, a sufficiently learned inference model can be obtained.

なお、上記実施形態では、車両一台ごとの画像に基づいて学習を行っている。しかし、複数の車両が撮像された画像に基づいて学習を行ってもよい。 In the above embodiment, learning is performed based on an image of each vehicle. However, learning may be performed based on images captured by a plurality of vehicles.

図3のステップS10において、CPU30は、上記のようにして学習された推定モデルを用い、一つの車両の部位領域を推定する(ステップS10)。これにより、図4Cに示すように、自動車の各部位が推定される。この実施形態では、各部位ごとに領域分けされた(色彩、濃度などにより区別する)部位推定画像を出力するようにしている。 In step S10 of FIG. 3, the CPU 30 estimates a part region of one vehicle using the estimation model learned as described above (step S10). As a result, as shown in FIG. 4C, each part of the automobile is estimated. In this embodiment, a part estimation image (distinguished by color, density, etc.) divided into areas for each part is output.

図4Cに部位推定画像の例を示す。この例の場合、前面、前ナンバープレート、フロントガラス、左側面、上面、左前タイヤ、左後タイヤが認識されている。 FIG. 4C shows an example of a site estimation image. In the case of this example, the front surface, the front license plate, the windshield, the left side surface, the upper surface, the left front tire, and the left rear tire are recognized.

次に、CPU30は、上記の部位推定画像とステップS4にて推定した車種とに基づいて、大型車・小型車の推定を行う(ステップS12)。 Next, the CPU 30 estimates a large vehicle / a small vehicle based on the above-mentioned part estimation image and the vehicle type estimated in step S4 (step S12).

前述のように、この実施形態では、ステップS3において、乗用車、貨物車、バスの車種を得ている。しかし、貨物車の中には、小型貨物車(小型トラック)と普通貨物車(普通トラック)が含まれており、これらを区別するために、大型・小型の推定を行う。前者が小型であり、後者が大型である。 As described above, in this embodiment, a passenger car, a freight car, and a bus are obtained in step S3. However, freight vehicles include small freight vehicles (light trucks) and ordinary freight vehicles (ordinary trucks), and in order to distinguish between them, large and small estimates are made. The former is small and the latter is large.

また、乗用車の中には、ワゴン車やマイクロバスのように、その形状から大型車であるバスと誤って認識されることもある。そこで、この実施形態では、これらを区別するために、大型・小型の推定を行う。前者が小型であり、後者が大型である。 In addition, some passenger cars, such as wagons and minibuses, may be mistakenly recognized as large buses because of their shape. Therefore, in this embodiment, in order to distinguish between them, large size and small size are estimated. The former is small and the latter is large.

以上のように、大型・小型の区別を行うことにより、道路交通センサスなどに用いられている分類である、乗用車(小型車)、小型貨物車(小型車)、バス(大型車)、普通貨物車(大型車)を得ることができる。 As described above, by distinguishing between large and small vehicles, passenger cars (small cars), small freight cars (small cars), buses (large cars), and ordinary freight cars (small cars), which are the classifications used for road traffic census, etc. You can get a large car).

この実施形態では、大型・小型の推定処理のために学習済みの推論モデル(例えばディープラーニングによる機械学習のモデル)を用いている。 In this embodiment, a trained inference model (for example, a machine learning model by deep learning) is used for large-sized and small-sized estimation processing.

この実施形態においては、学習処理は、図2のコンピュータを用いて行うようにしている。もちろん、他のコンピュータを用いてもよい。 In this embodiment, the learning process is performed using the computer of FIG. Of course, other computers may be used.

図10に、学習処理のフローチャートを示す。まず、図11Aに示すような部位推定画像データを多数用意して、ハードディスク36に記録する。できれば、いろいろな車種による画像が多数あることが好ましい。 FIG. 10 shows a flowchart of the learning process. First, a large number of site estimation image data as shown in FIG. 11A are prepared and recorded on the hard disk 36. If possible, it is preferable that there are many images of various vehicle types.

それぞれの部位推定画像を、ディスプレイ34に表示し、操作者が画像をみながら、キーボード/マウス40を操作して、大型車・小型車の区別を入力する。なお、部位推定画像だけでは判別が難しい場合があるので、オリジナル画像も合わせて表示する。上述のように、乗用車(マイクロバス、ワゴン車を含む)や小型貨物車であれば小型車とし、バス、普通貨物車であれば大型車とする。この大型車・小型車の区別は、部位推定画像に対応付けて、ハードディスク36に記録される。 Each part estimation image is displayed on the display 34, and the operator operates the keyboard / mouse 40 while viewing the image to input the distinction between a large car and a small car. In addition, since it may be difficult to distinguish only from the part estimation image, the original image is also displayed. As described above, a passenger car (including a minibus and a wagon car) and a small freight car are referred to as a small car, and a bus and an ordinary freight car are referred to as a large car. The distinction between the large vehicle and the small vehicle is recorded on the hard disk 36 in association with the part estimation image.

以上のようにして、部位推定画像とこれに対応する大型車・小型車の区別が、多数ハードディスク36に記録されることとなる。 As described above, the part estimation image and the corresponding distinction between the large vehicle and the small vehicle are recorded on the large number of hard disks 36.

まず、CPU30は、ハードディスク36から部位推定画像を取得する(ステップS82)。たとえば、図11Aのような部位推定画像を読みだす。次に、CPU30は、部位推定画像について、学習済みの推定エンジンにより、大型・小型の推定を行う(ステップS84)。 First, the CPU 30 acquires a site estimation image from the hard disk 36 (step S82). For example, a site estimation image as shown in FIG. 11A is read out. Next, the CPU 30 estimates the size and size of the part estimation image by the trained estimation engine (step S84).

次に、CPU30は、部位推定画像に対応してハードディスク36に記録されている大型・小型の区別を読みだす(ステップS66)。 Next, the CPU 30 reads out the distinction between large and small size recorded on the hard disk 36 corresponding to the site estimation image (step S66).

続いて、CPU30は、読み出した大型・小型の区別を教師データとし、ステップS84における推定結果に基づいて、ステップS84における推定のためのパラメータを学習する(ステップS88)。 Subsequently, the CPU 30 uses the read large-sized / small-sized distinction as teacher data, and learns the parameters for estimation in step S84 based on the estimation result in step S84 (step S88).

全ての部位推定画像に基づいて学習を行うと、CPU30は、学習処理を終了する(ステップS80、S90)。なお、最初は、未学習の推論モデルあるいは学習不足の推論モデルであるが、上記の処理を繰り返すことで、十分に学習済みの推論モデルを得ることができる。 When learning is performed based on all the part estimation images, the CPU 30 ends the learning process (steps S80 and S90). Initially, it is an unlearned inference model or an under-learned inference model, but by repeating the above processing, a sufficiently learned inference model can be obtained.

なお、この推定が機能している理由は、大型車と小型車とによって、外形形状が類似していたとしても、フロントガラスの占める割合や前後のタイヤ間隔などが異なるためであると思われる。 It is considered that the reason why this estimation works is that the ratio of the windshield and the distance between the front and rear tires are different depending on the large car and the small car, even if the outer shapes are similar.

なお、上記実施形態では、車両一台ごとの画像に基づいて学習を行っている。しかし、複数の車両が撮像された画像に基づいて学習を行ってもよい。 In the above embodiment, learning is performed based on an image of each vehicle. However, learning may be performed based on images captured by a plurality of vehicles.

図3のステップS12において、CPU30は、上記のようにして学習された推定モデルを用い、部位推定画像に基づいて大型・小型の推定を行う。次に、CPU30は、この大型・小型の推定結果に基づいて、ステップS4における車種推定を修正する(ステップS14)。 In step S12 of FIG. 3, the CPU 30 uses the estimation model learned as described above to perform large-sized and small-sized estimation based on the site estimation image. Next, the CPU 30 modifies the vehicle model estimation in step S4 based on the large / small estimation results (step S14).

ステップS4では、乗用車、貨物車、バスの車種推定を行っていた。この実施形態では、ステップS14において、図12に示すように、大型・小型の推定に基づいて、車種推定を正確なものに修正している。 In step S4, the vehicle types of passenger cars, freight cars, and buses were estimated. In this embodiment, in step S14, as shown in FIG. 12, the vehicle type estimation is corrected to be accurate based on the large / small estimation.

次に、CPU30は、当該車両が連続して撮像されている動画の中で、最初に登場したかどうかを判断する。これは、類似形状の車両が初めて認識されたかどうかによって判断することができる。また、道路の進行方向との関係で、初めて登場したかどうかを判断する対象の車両を絞り込むことができる。たとえば、図4Aの画像において、向かってくる車両であれば、ライン200より上の部分にある車両のみを対象として判断することができる。他の方向に移動する車両についても同様である。 Next, the CPU 30 determines whether or not the vehicle first appears in the moving image of the vehicle being continuously imaged. This can be determined by whether a vehicle of similar shape is recognized for the first time. In addition, it is possible to narrow down the target vehicles for determining whether or not they have appeared for the first time in relation to the traveling direction of the road. For example, in the image of FIG. 4A, if the vehicle is approaching, it can be determined only for the vehicle above the line 200. The same applies to vehicles moving in other directions.

初めて撮像された車両であれば、当該車両について新たなIDを生成し、当該車両に対応付けて修正した推定結果を記録する(ステップS20)。また、既に認識済みの車両であれば、当該車両に対応付けて修正した推定結果を追加して記録する(ステップS18)。 If this is the first vehicle imaged, a new ID is generated for the vehicle, and the estimated result corrected in association with the vehicle is recorded (step S20). If the vehicle has already been recognized, the estimated result corrected in association with the vehicle is added and recorded (step S18).

CPU30は、上記の推定を、車両の数だけ繰り返す(ステップS6、S22)。これにより、カメラによって撮像された画像に写し出された各車両について、車種の推定を行うことができる。 The CPU 30 repeats the above estimation for the number of vehicles (steps S6 and S22). As a result, it is possible to estimate the vehicle type for each vehicle projected in the image captured by the camera.

次に、CPU30は、次の撮像画像を取り込み(ステップS2)、上記と同様にして、各車両の車種推定を行い、その結果を対応づけて記録する(ステップS4〜S22)。 Next, the CPU 30 captures the next captured image (step S2), estimates the vehicle type of each vehicle in the same manner as described above, and records the results in association with each other (steps S4 to S22).

以上を繰り返すと、車両の移動により、撮像されなくなるものがでてくる。当該車両について、記録された修正された車種推定結果(複数個ある)を統合して、最終的な車種推定結果を得て、当該最終的な車種推定結果を当該車両(車両ID)に対応づけて記録する(ステップS24)。たとえば、複数ある車種推定結果のうち、最も多い車種推定結果を、最終的な車種推定結果とする。 If the above is repeated, some objects will not be imaged due to the movement of the vehicle. For the vehicle, the recorded modified vehicle type estimation results (s) are integrated to obtain the final vehicle type estimation result, and the final vehicle type estimation result is associated with the vehicle (vehicle ID). And record (step S24). For example, among a plurality of vehicle model estimation results, the vehicle model estimation result having the largest number is used as the final vehicle model estimation result.

以上のようにして、リアルタイムに撮像を行いながら正確に車種を判断することができる。たとえば、交通量調査などにおける車種判定などに用いることができる。
As described above, it is possible to accurately determine the vehicle type while performing real-time imaging. For example, it can be used for determining a vehicle type in a traffic volume survey or the like.

1.4その他
(1)上記実施形態では、ステップS14において、部位推定画像に基づいて大型・小型の推定を行っている。しかし、ステップS8で抽出した車両画像(正規化したものが好ましい)も含めて推定に用いるようにしてもよい。
1.4 Other
(1) In the above embodiment, in step S14, large / small size estimation is performed based on the site estimation image. However, the vehicle image extracted in step S8 (preferably normalized) may also be used for estimation.

(2)上記実施形態では、車両画像の大きさを正規化した後、推定を行うようにしている。しかし、正規化せずに推定を行うようにしてもよい。 (2) In the above embodiment, the size of the vehicle image is normalized and then the estimation is performed. However, the estimation may be performed without normalization.

(3)上記実施形態では、まず、車種を推定してから、大型・小型の推定を行って、修正し最終的な車種を得ている。しかし、ステップS4において、車両の部位推定画像を用いて、最終的な車種の推定を一度に行ってもよい。 (3) In the above embodiment, first, the vehicle type is estimated, then the large / small size is estimated, and the final vehicle type is obtained. However, in step S4, the final vehicle type may be estimated at once by using the vehicle part estimation image.

(4)上記実施形態では、リアルタイムに車種の推定を行っている。しかし、記録済みの撮像画像に基づいて上記の処理を行って、車種の推定を行うようにしてもよい。この場合、カメラ2によって撮像した画像を可搬性記録媒体に記録し、これをハードディスク36に読み込んで処理を行うようにしてもよい。 (4) In the above embodiment, the vehicle type is estimated in real time. However, the vehicle type may be estimated by performing the above processing based on the recorded captured image. In this case, the image captured by the camera 2 may be recorded on a portable recording medium, and the image may be read into the hard disk 36 for processing.

(5)上記実施形態では、部位推定画像として、前面、前ナンバープレート、側面、タイヤ、フロントガラスなどの部位領域を明らかにしたものを用いている。しかし、大型車と小型車において、全体の大きさが分かる部位と、フロントガラスやタイヤ間隔やナンバープレートの大きさが分かるような部位を含む部位推定画像を用いることができる。たとえば、少なくとも、フロントガラスといずれかの側面を含む部位推定画像を用いてもよい。また、少なくとも、いずれかの前タイヤと後タイヤといずれかの側面を含む部位推定画像を用いてもよい。 (5) In the above embodiment, as the part estimation image, an image in which the part areas such as the front surface, the front license plate, the side surface, the tire, and the windshield are clarified is used. However, in large cars and small cars, it is possible to use a part estimation image including a part where the overall size can be known and a part where the size of the windshield, tire spacing and license plate can be known. For example, a site estimation image including at least the windshield and any side surface may be used. Further, at least, a part estimation image including any front tire and any rear tire and any side surface may be used.

(6)上記実施形態では、全ての車両についての共通した学習済み推論モデルを構築して、大型車・小型車の推定をしている。しかし、ステップS4において推定した車種ごとに学習済み推論モデルを構築し、車種ごとに大型車・小型車の推定をしてもよい。また、車種の判定を行うようにしてもよい。 (6) In the above embodiment, a common learned inference model for all vehicles is constructed to estimate large vehicles and small vehicles. However, a learned inference model may be constructed for each vehicle type estimated in step S4, and a large vehicle / a small vehicle may be estimated for each vehicle type. In addition, the vehicle type may be determined.

(7)上記実施形態では部位推定画像に基づいて大型車・小型車の推論を行っている。しかし、これに代えて、あるいはこれに加えて、車両画像を正規化した時のバウンダリーボックス枠の大きさや車両が専有する面積などを推論の根拠として用いるようにしてもよい。 (7) In the above embodiment, the inference of a large vehicle / small vehicle is performed based on the part estimation image. However, instead of or in addition to this, the size of the boundary box frame when the vehicle image is normalized, the area occupied by the vehicle, and the like may be used as the basis for inference.

(8)上記実施形態では、いろいろな方向に移動する車両を撮像している。しかし、カメラ設置の際に、一方にのみ移動する車(向かってくる車のみ等)だけが撮像されるように設定すれば、推定処理が容易となり精度も向上する。 (8) In the above embodiment, a vehicle moving in various directions is imaged. However, when the camera is installed, if it is set so that only a vehicle moving to only one side (such as an oncoming vehicle) is imaged, the estimation process becomes easy and the accuracy is improved.

(9)上記実施形態では、同一の車両に対する複数の車両画像に基づいて、大型小型の判断を行っている。しかし、一枚の画像に基づいてこれを行うようにしてもよい。 (9) In the above embodiment, the size is determined based on a plurality of vehicle images for the same vehicle. However, this may be done on the basis of a single image.

(10)上記実施形態およびその変形例は、その本質に反しない限り他の実施形態変形例と組み合わせて実施可能である。
(10) The above-described embodiment and its modifications can be implemented in combination with other embodiments as long as it does not contradict its essence.

2.第2の実施形態
2.1機能構成
図13に、この発明の一実施形態による入場管理システムの機能ブロック図を示す。撮像部2は、たとえば、施設などの駐車場入口に設けられ、入口ゲートに近づく車両を撮像する。車種推定手段100は、たとえば、第1の実施形態にて説明した手法によって、撮像画像に基づいて車種を推定するものである。ゲート制御手段150は、当該推定された車種に基づいて、ゲートの開閉を制御するものである。たとえば、大型車と小型車によって、大型車のための駐車場へのゲート、小型車のための駐車場へのゲートを開けるかを制御する。
2. Second embodiment
2.1 Functional configuration Figure 13 shows a functional block diagram of an admission management system according to an embodiment of the present invention. The imaging unit 2 is provided at the entrance of a parking lot such as a facility, and images a vehicle approaching the entrance gate. The vehicle type estimation means 100 estimates the vehicle type based on the captured image by, for example, the method described in the first embodiment. The gate control means 150 controls the opening and closing of the gate based on the estimated vehicle type. For example, a large car and a small car control whether to open a gate to a parking lot for a large car and a gate to a parking lot for a small car.

2.2システム構成と動作
図14に、入場管理システムの入場ゲートの外観を示す。小型車用ゲート120と大型車用ゲート140が設けられている。カメラ2は、これらのゲートに進入しようとする車両を撮像する。
2.2 System configuration and operation Figure 14 shows the appearance of the entrance gate of the entrance management system. A gate 120 for a small car and a gate 140 for a large car are provided. The camera 2 images a vehicle trying to enter these gates.

図15に、ハードウエア構成を示す。コンピュータ160は、第1の実施形態における図2の構成と同様のものである。ただし、CPU30は、ゲート120、140の開閉を制御するゲート制御部180に対して、指令を与えることができるようになっている。 FIG. 15 shows the hardware configuration. The computer 160 is similar to the configuration of FIG. 2 in the first embodiment. However, the CPU 30 can give a command to the gate control unit 180 that controls the opening and closing of the gates 120 and 140.

図16に、制御プログラムのフローチャートを示す。CPU30は、ステップS110において、カメラ2によって撮像した画像を取得する。撮像画像において車両が認識されなければ、ステップS110を繰り返す。 FIG. 16 shows a flowchart of the control program. In step S110, the CPU 30 acquires an image captured by the camera 2. If the vehicle is not recognized in the captured image, step S110 is repeated.

車両が認識されると、CPU30は、第1の実施形態にて説明した処理により、車種(大型・小型)の推定を行う(ステップS114)。大型であると推定した場合、CPU30は、大型用ゲート140を開くようゲート制御部180に指示する(ステップS116)。また、小型であると推定した場合、CPU30は、小型用ゲート120を開くようゲート制御部180に指示する(ステップS116)。 When the vehicle is recognized, the CPU 30 estimates the vehicle type (large / small) by the process described in the first embodiment (step S114). When it is estimated that the size is large, the CPU 30 instructs the gate control unit 180 to open the large gate 140 (step S116). Further, when it is estimated that the size is small, the CPU 30 instructs the gate control unit 180 to open the small gate 120 (step S116).

ゲートを開いた後、通過検出のセンサ(図示せず)からの出力を受けると、CPU30は、ゲートを閉じる(ステップS118)。 After opening the gate, the CPU 30 closes the gate when it receives an output from a passage detection sensor (not shown) (step S118).

以上のようにして、自動的に大型小型を判定して、行き先のゲートを選択して開閉することができる。
As described above, it is possible to automatically determine whether the size is large or small, select the destination gate, and open / close the gate.

2.3その他
(1)上記実施形態では、駐車場について説明したが、ドライブスルーサファリなどその他の施設についても同様に適用することができる。また、上記では、大型・小型の判断に基づいてゲートを選択的に開閉しているが、より細かい車種分けに応じてゲートを選択的に開閉するようにしてもよい。
2.3 Others
(1) In the above embodiment, the parking lot has been described, but the same can be applied to other facilities such as a drive-through safari. Further, in the above, the gate is selectively opened and closed based on the judgment of large size and small size, but the gate may be selectively opened and closed according to a finer vehicle type classification.

また、所定の車種に応じて(あるいは大型・小型に応じて)、ゲートを開けるかどうかを判断するようにしてもよい。たとえば、小型車専用の橋であれば、その入口で大型車に対してはゲートを開けないように制御することができる。 In addition, it may be determined whether or not to open the gate according to a predetermined vehicle type (or depending on whether it is large or small). For example, in the case of a bridge dedicated to small cars, it is possible to control the entrance of the bridge so that the gate cannot be opened for large cars.

(2)上記実施形態では、ゲートの開閉を制御する場合について説明した。しかし、車種推定(大型小型の推定を含む)に応じて、駐車料金や施設利用料金を算出するようにしてもよい。高速道路などの入り口において利用することができる。 (2) In the above embodiment, the case of controlling the opening and closing of the gate has been described. However, the parking fee and the facility usage fee may be calculated according to the vehicle type estimation (including the estimation of large and small size). It can be used at entrances such as highways.

(3)上記実施形態およびその変形例は、その本質に反しない限り他の実施形態や変形例と組み合わせて実施可能である。


(3) The above-described embodiment and its modified examples can be implemented in combination with other embodiments and modified examples as long as the essence is not contrary to the essence.


Claims (18)

車両を撮像して撮像画像を出力する撮像部と、
撮像画像に含まれる車両を認識して出力する車両認識手段と、
車両認識手段によって認識された車両の車両画像を抽出する車両画像抽出手段と、
抽出された車両画像を受けて、当該画像中の車両の前後のタイヤ、側面を含む部位領域を抽出する部位抽出手段と、
前記抽出された複数の部位領域の関係に基づいて、大型車か小型車かを推定する大小推定手段と、
を備えた車推定装置。
An imaging unit that captures the vehicle and outputs the captured image,
A vehicle recognition means that recognizes and outputs the vehicle included in the captured image,
A vehicle image extraction means for extracting a vehicle image of a vehicle recognized by the vehicle recognition means, and a vehicle image extraction means.
A part extraction means that receives the extracted vehicle image and extracts a part region including the front and rear tires and side surfaces of the vehicle in the image, and a part extraction means.
A size estimation means for estimating whether a large vehicle or a small vehicle is used based on the relationship between the extracted plurality of site regions, and
Car estimation device equipped with.
車推定装置をコンピュータによって実現するための車種推定プログラムであって、コンピュータを、
車両を撮像した撮像画像に含まれる車両を認識して出力する車両認識手段と、
車両認識手段によって認識された車両の車両画像を抽出する車両画像抽出手段と、
抽出された車両画像を受けて、当該画像中の車両の前後のタイヤと側面とを含む部位領域を抽出する部位抽出手段と、
前記抽出された複数の部位領域の関係に基づいて、大型車か小型車かを推定する大小推定手段として機能させるための車推定プログラム。
It is a vehicle type estimation program for realizing a vehicle estimation device by a computer.
Vehicle recognition means that recognizes and outputs the vehicle included in the captured image of the vehicle,
A vehicle image extraction means for extracting a vehicle image of a vehicle recognized by the vehicle recognition means, and a vehicle image extraction means.
A part extraction means that receives the extracted vehicle image and extracts a part region including the front and rear tires and side surfaces of the vehicle in the image, and a part extraction means.
A vehicle estimation program for functioning as a size estimation means for estimating whether a large vehicle or a small vehicle is based on the relationship between the extracted plurality of region regions.
請求項1の装置または請求項2のプログラムにおいて、
前記撮像部は、走行する車両を連続的に撮像して複数の撮像画像を出力するものであり、
大小推定手段は、複数の撮像画像についての大型車か小型車かの判断を統合して、最終的な大型車か小型車かの判断を行うことを特徴とする装置またはプログラム。
In the apparatus of claim 1 or the program of claim 2.
The imaging unit continuously images a traveling vehicle and outputs a plurality of captured images.
The magnitude estimation means is a device or program that integrates the determination of a large vehicle or a small vehicle from a plurality of captured images to make a final determination of whether the vehicle is a large vehicle or a small vehicle.
請求項1〜3のいずれかの装置またはプログラムにおいて、
前記部位抽出手段は、車両の前後のタイヤと側面に代えて、あるいは加えて、フロントガラス、リアガラスまたはナンバープレートを含む部位領域も抽出することを特徴とする装置またはプログラム。
In any of the devices or programs of claims 1-3
A device or program, wherein the site extraction means extracts a site region including a windshield, a rear glass or a license plate in place of or in addition to the front and rear tires and sides of the vehicle.
請求項1〜4のいずれかの装置またはプログラムにおいて、
前記大小推定手段は、前記抽出された車両画像も推定の根拠に用いることを特徴とする装置またはプログラム。
In any of the devices or programs of claims 1 to 4,
The magnitude estimation means is a device or program that also uses the extracted vehicle image as a basis for estimation.
請求項1〜5のいずれかの装置またはプログラムにおいて、
前記大小推定手段は、前記抽出された車両画像の枠をカメラからの距離に応じて正規化した時の枠の大きさも推定の根拠に用いることを特徴とする装置またはプログラム。
In any of the devices or programs of claims 1-5
The magnitude estimation means is an apparatus or program characterized in that the size of the frame when the frame of the extracted vehicle image is normalized according to the distance from the camera is also used as the basis for estimation.
請求項1〜6のいずれかの装置またはプログラムにおいて、
前記大小推定手段は、前記抽出された車両画像をカメラからの距離に応じて正規化した時の車両画像における車両の占める領域面積も推定の根拠に用いることを特徴とする装置またはプログラム。
In the device or program according to any one of claims 1 to 6.
The magnitude estimation means is a device or program that also uses the area occupied by the vehicle in the vehicle image when the extracted vehicle image is normalized according to the distance from the camera as the basis for estimation.
請求項1〜7のいずれかの装置またはプログラムにおいて、
前記車両認識手段は、少なくとも乗用車、バス、トラックの車種を判断するものであり、
前記大小推定手段は、前記車種ごとに分けて大小推定を行うことを特徴とする装置またはプログラム。
In any of the devices or programs of claims 1-7
The vehicle recognition means determines at least the vehicle type of a passenger car, a bus, or a truck.
The magnitude estimation means is an apparatus or program characterized in that the magnitude is estimated separately for each vehicle type.
施設に入場しようとする車両を撮像して撮像画像を出力する撮像部と、
前記撮像画像に含まれる車両を認識して出力する車両認識手段と、
車両認識手段によって認識された車両の車両画像を抽出する車両画像抽出手段と、
抽出された車両画像を受けて、当該画像中の車両の前後のタイヤ、側面を含む部位領域を抽出する抽出手段と、
前記抽出された複数の部位領域の関係に基づいて、大型車か小型車かを推定する大小推定手段と、
少なくとも前記推定結果が大型車であるか小型車であるかに基づいて、施設に入場するためのゲートの開閉を制御するゲート制御手段と、
を備えた入場管理装置。
An imaging unit that captures the vehicle trying to enter the facility and outputs the captured image,
A vehicle recognition means that recognizes and outputs a vehicle included in the captured image, and
A vehicle image extraction means for extracting a vehicle image of a vehicle recognized by the vehicle recognition means, and a vehicle image extraction means.
An extraction means that receives the extracted vehicle image and extracts a site region including the front and rear tires and side surfaces of the vehicle in the image, and
A size estimation means for estimating whether a large vehicle or a small vehicle is used based on the relationship between the extracted plurality of site regions, and
A gate control means for controlling the opening and closing of the gate for entering the facility, at least based on whether the estimation result is a large vehicle or a small vehicle.
Admission management device equipped with.
入場管理装置をコンピュータによって実現するための入場管理プログラムであって、コンピュータを、
施設に入場しようとする車両を撮像した撮像画像に含まれる車両を認識して出力する車両認識手段と、
車両認識手段によって認識された車両の車両画像を抽出する車両画像抽出手段と、
抽出された車両画像を受けて、当該画像中の車両の前後のタイヤ、側面を含む部位領域を抽出する抽出手段と、
前記抽出された複数の部位領域の関係に基づいて、大型車か小型車かを推定する大小推定手段と、
少なくとも前記推定結果が大型車であるか小型車であるかに基づいて、施設に入場するためのゲートの開閉を制御するゲート制御手段として機能させるための入場管理プログラム。
An admission management program for realizing an admission management device with a computer,
Vehicle recognition means that recognizes and outputs the vehicle included in the captured image of the vehicle that is about to enter the facility,
A vehicle image extraction means for extracting a vehicle image of a vehicle recognized by the vehicle recognition means, and a vehicle image extraction means.
An extraction means that receives the extracted vehicle image and extracts a site region including the front and rear tires and side surfaces of the vehicle in the image, and
A size estimation means for estimating whether a large vehicle or a small vehicle is used based on the relationship between the extracted plurality of site regions, and
An entrance management program for functioning as a gate control means for controlling the opening and closing of a gate for entering a facility, at least based on whether the estimation result is a large vehicle or a small vehicle.
施設に入場しようとする車両を撮像して撮像画像を出力する撮像部と、
前記撮像画像に含まれる車両を認識して出力する車両認識手段と、
車両認識手段によって認識された車両の車両画像を抽出する車両画像抽出手段と、
抽出された車両画像を受けて、当該画像中の車両の前後のタイヤ、側面を含む部位領域を抽出する抽出手段と、
前記抽出された複数の部位領域の関係に基づいて、大型車か小型車かを推定する大小推定手段と、
少なくとも前記推定結果が大型車であるか小型車であるかに基づいて、施設利用料金を算出する料金算出手段と、
を備えた料金管理装置。
An imaging unit that captures the vehicle trying to enter the facility and outputs the captured image,
A vehicle recognition means that recognizes and outputs a vehicle included in the captured image, and
A vehicle image extraction means for extracting a vehicle image of a vehicle recognized by the vehicle recognition means, and a vehicle image extraction means.
An extraction means that receives the extracted vehicle image and extracts a site region including the front and rear tires and side surfaces of the vehicle in the image, and
A size estimation means for estimating whether a large vehicle or a small vehicle is used based on the relationship between the extracted plurality of site regions, and
A fee calculation means for calculating a facility usage fee based on at least whether the estimation result is a large vehicle or a small vehicle.
Charge management device equipped with.
料金管理装置をコンピュータによって実現するための料金管理プログラムであって、コンピュータを、
施設に入場しようとする車両を撮像した撮像画像に含まれる車両を認識して出力する車両認識手段と、
車両認識手段によって認識された車両の車両画像を抽出する車両画像抽出手段と、
抽出された車両画像を受けて、当該画像中の車両の前後のタイヤ、側面を含む部位領域を抽出する抽出手段と、
前記抽出された複数の部位領域の関係に基づいて、大型車か小型車かを推定する大小推定手段と、
前記推定結果が大型車であるか小型車であるかによって、施設に入場するためのゲートの開閉を制御するゲート制御手段として機能させるための料金管理プログラム。
It is a charge management program for realizing a charge management device by a computer.
Vehicle recognition means that recognizes and outputs the vehicle included in the captured image of the vehicle that is about to enter the facility,
A vehicle image extraction means for extracting a vehicle image of a vehicle recognized by the vehicle recognition means, and a vehicle image extraction means.
An extraction means that receives the extracted vehicle image and extracts a site region including the front and rear tires and side surfaces of the vehicle in the image, and
A size estimation means for estimating whether a large vehicle or a small vehicle is used based on the relationship between the extracted plurality of site regions, and
A charge management program for functioning as a gate control means for controlling the opening and closing of a gate for entering a facility, depending on whether the estimation result is a large vehicle or a small vehicle.
請求項9〜12のいずれかのプログラムにおいて、
前記撮像部は、走行する車両を連続的に撮像して複数の撮像画像を出力するものであり、
大小推定手段は、複数の撮像画像についての大型車か小型車かの判断を統合して、最終的な大型車か小型車かの判断を行うことを特徴とする装置またはプログラム。
In any of the programs of claims 9-12
The imaging unit continuously images a traveling vehicle and outputs a plurality of captured images.
The magnitude estimation means is a device or program that integrates the determination of a large vehicle or a small vehicle from a plurality of captured images to make a final determination of whether the vehicle is a large vehicle or a small vehicle.
請求項11〜13のいずれかの装置またはプログラムにおいて、
前記部位抽出手段は、前記部位抽出手段は、車両の前後のタイヤと側面に代えて、あるいは加えて、フロントガラス、リアガラスまたはナンバープレートを含む部位領域も抽出することを特徴する装置またはプログラム。
In any of the devices or programs of claims 11-13.
The site extracting means is a device or program characterized in that the site extracting means extracts a site region including a windshield, a rear glass or a license plate in place of or in addition to the front and rear tires and side surfaces of a vehicle.
請求項11〜14のいずれかの装置またはプログラムにおいて、
前記大小推定手段は、前記抽出された車両画像も推定の根拠に用いることを特徴とする装置またはプログラム。
In any of the devices or programs of claims 11-14.
The magnitude estimation means is a device or program that also uses the extracted vehicle image as a basis for estimation.
請求項11〜15のいずれかの装置またはプログラムにおいて、
前記大小推定手段は、前記抽出された車両画像の枠をカメラからの距離に応じて正規化した時の車両画像の枠の大きさも推定の根拠に用いることを特徴とする装置またはプログラム。
In any of the devices or programs of claims 11-15.
The magnitude estimation means is an apparatus or program characterized in that the size of the frame of the vehicle image when the frame of the extracted vehicle image is normalized according to the distance from the camera is also used as the basis for estimation.
請求項11〜16のいずれかの装置またはプログラムにおいて、
前記大小推定手段は、前記抽出された車両画像をカメラからの距離に応じて正規化した時の車両画像における車両の占める領域面積も推定の根拠に用いることを特徴とする装置またはプログラム。
In any of the devices or programs of claims 11-16,
The magnitude estimation means is a device or program that also uses the area occupied by the vehicle in the vehicle image when the extracted vehicle image is normalized according to the distance from the camera as the basis for estimation.
請求項11〜17のいずれかの装置またはプログラムにおいて、
前記車両認識手段は、少なくとも乗用車、バス、トラックの車種を判断するものであり、
前記大小推定手段は、前記車種ごとに分けて大小推定を行うことを特徴とする装置またはプログラム。




In any of the devices or programs of claims 11-17,
The vehicle recognition means determines at least the vehicle type of a passenger car, a bus, or a truck.
The magnitude estimation means is an apparatus or program characterized in that the magnitude is estimated separately for each vehicle type.




JP2019195019A 2019-10-28 2019-10-28 Car estimation device Active JP6900448B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019195019A JP6900448B2 (en) 2019-10-28 2019-10-28 Car estimation device
JP2021099891A JP7277511B2 (en) 2019-10-28 2021-06-16 car estimator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019195019A JP6900448B2 (en) 2019-10-28 2019-10-28 Car estimation device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021099891A Division JP7277511B2 (en) 2019-10-28 2021-06-16 car estimator

Publications (2)

Publication Number Publication Date
JP2021068350A true JP2021068350A (en) 2021-04-30
JP6900448B2 JP6900448B2 (en) 2021-07-07

Family

ID=75637327

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019195019A Active JP6900448B2 (en) 2019-10-28 2019-10-28 Car estimation device
JP2021099891A Active JP7277511B2 (en) 2019-10-28 2021-06-16 car estimator

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021099891A Active JP7277511B2 (en) 2019-10-28 2021-06-16 car estimator

Country Status (1)

Country Link
JP (2) JP6900448B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281769A1 (en) * 2021-07-06 2023-01-12 パナソニックホールディングス株式会社 Information processing device, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002042113A (en) * 2000-07-21 2002-02-08 Nri & Ncc Co Ltd Vehicle traffic quantity measuring system
JP2013257720A (en) * 2012-06-12 2013-12-26 Kyosan Electric Mfg Co Ltd Vehicle detection device
JP2016162354A (en) * 2015-03-04 2016-09-05 三菱重工メカトロシステムズ株式会社 Axle number detection device, vehicle type distinguishing system, axle number detection method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002042113A (en) * 2000-07-21 2002-02-08 Nri & Ncc Co Ltd Vehicle traffic quantity measuring system
JP2013257720A (en) * 2012-06-12 2013-12-26 Kyosan Electric Mfg Co Ltd Vehicle detection device
JP2016162354A (en) * 2015-03-04 2016-09-05 三菱重工メカトロシステムズ株式会社 Axle number detection device, vehicle type distinguishing system, axle number detection method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281769A1 (en) * 2021-07-06 2023-01-12 パナソニックホールディングス株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP6900448B2 (en) 2021-07-07
JP7277511B2 (en) 2023-05-19
JP2021140824A (en) 2021-09-16

Similar Documents

Publication Publication Date Title
Satzoda et al. Multipart vehicle detection using symmetry-derived analysis and active learning
Hsieh et al. Automatic traffic surveillance system for vehicle tracking and classification
Khammari et al. Vehicle detection combining gradient analysis and AdaBoost classification
Cui et al. Vehicle localisation using a single camera
CN106599832A (en) Method for detecting and recognizing various types of obstacles based on convolution neural network
CN107341454A (en) The detection method and device of barrier, electronic equipment in a kind of scene
Kuang et al. Feature selection based on tensor decomposition and object proposal for night-time multiclass vehicle detection
CN104778444A (en) Method for analyzing apparent characteristic of vehicle image in road scene
Kavitha et al. Pothole and object detection for an autonomous vehicle using yolo
Sangnoree et al. Thermal-image processing and statistical analysis for vehicle category in nighttime traffic
US20240320751A1 (en) Remote vehicle damage assessment
JP6891253B2 (en) Traffic measuring device
Li et al. A low-cost and fast vehicle detection algorithm with a monocular camera for adaptive driving beam systems
JP6900448B2 (en) Car estimation device
CN103177248B (en) A kind of rapid pedestrian detection method of view-based access control model
Forczmański et al. Deep learning approach to detection of preceding vehicle in advanced driver assistance
CN105740801A (en) Camera-based automobile merging assisting driving method
CN113326831B (en) Method and device for screening traffic violation data, electronic equipment and storage medium
Biswas et al. Detection of Traffic Rule Violations Using Machine Learning: An Analytical Review
CN107452230A (en) A kind of obstacle detection method, device, terminal device and storage medium
TWI709917B (en) Assistant driving device, method, and storage medium
CN112686136A (en) Object detection method, device and system
Wu et al. Color vision-based multi-level analysis and fusion for road area detection
JP7538300B2 (en) Method and apparatus for improving object recognition rate of self-driving vehicles
Yudokusumo et al. Design and implementation program identification of traffic form in self driving car robot

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200424

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200424

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210616

R150 Certificate of patent or registration of utility model

Ref document number: 6900448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350