JPWO2020071559A1 - Vehicle condition judgment device, its judgment program and its judgment method - Google Patents

Vehicle condition judgment device, its judgment program and its judgment method Download PDF

Info

Publication number
JPWO2020071559A1
JPWO2020071559A1 JP2020551134A JP2020551134A JPWO2020071559A1 JP WO2020071559 A1 JPWO2020071559 A1 JP WO2020071559A1 JP 2020551134 A JP2020551134 A JP 2020551134A JP 2020551134 A JP2020551134 A JP 2020551134A JP WO2020071559 A1 JPWO2020071559 A1 JP WO2020071559A1
Authority
JP
Japan
Prior art keywords
vehicle
determination
state
parts
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020551134A
Other languages
Japanese (ja)
Inventor
昂平 安田
昂平 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Arithmer Inc
Original Assignee
Arithmer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Arithmer Inc filed Critical Arithmer Inc
Publication of JPWO2020071559A1 publication Critical patent/JPWO2020071559A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M17/00Testing of vehicles
    • G01M17/007Wheeled or endless-tracked vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Abstract

【課題】車両の損傷状態を柔軟性をもって高速かつ精度よく判定する。【解決手段】部品判定部4は、部品学習モデル9を参照して、撮像画像における車両部品を判定する。部品学習モデル9は、深層学習による物体検出アルゴリズムを用いて、車両部品に関するデータを教師データとした教師あり学習によって構築されている。物体検出アルゴリズムは、撮像画像を単一のニューラルネットワーク系に入力することで、回帰問題的なアプローチによって、撮像画像における車両部品の領域抽出を属性の分類付きでまとめて行う。状態判定部5は、状態学習モデル10を参照して、部品判定部4によって判定された車両部品の損傷状態を判定する。状態学習モデル10は、車両部品の損傷状態に関するデータを教師データとした教師あり学習によって構築されている。PROBLEM TO BE SOLVED: To determine a damaged state of a vehicle flexibly, at high speed and with high accuracy. A component determination unit 4 determines a vehicle component in a captured image with reference to a component learning model 9. The parts learning model 9 is constructed by supervised learning using data related to vehicle parts as supervised data by using an object detection algorithm by deep learning. The object detection algorithm inputs the captured image into a single neural network system, and uses a regression-problem approach to collectively extract the region of the vehicle part in the captured image with attribute classification. The state determination unit 5 determines the damaged state of the vehicle parts determined by the component determination unit 4 with reference to the state learning model 10. The state learning model 10 is constructed by supervised learning using data on the damaged state of vehicle parts as teacher data.

Description

本発明は、撮像画像から車両の損傷状態を判定する車両状態判定装置、その判定プログラムおよび判定方法に関する。 The present invention relates to a vehicle state determination device for determining a vehicle damage state from a captured image, a determination program thereof, and a determination method.

例えば、特許文献1には、事故車の損傷の評価や修理見積もりを的確かつ迅速に行うことが可能な事故車修理費見積システムが開示されている。この見積システムは、キャプチャー手段と、記憶手段と、入力手段と、表示手段と、リンク手段と、見積手段とを有する。キャプチャー手段は、事故車両の画像データを取り込む。記憶手段は、事故車修理費見積に必要な車両属性データを記憶する。入力手段は、事故車修理費見積に必要な見積データを入力する。表示手段は、事故車両画像データを含む各種データを表示する。リンク手段は、画像データが車両のどの部位の損傷を明瞭に示しているかを決定する。見積手段は、画像データおよび画像データに対応する部位の車両属性データを表示手段に同時に表示する。また、見積手段は、見積データおよび車両属性データに基いて、事故車の修理に要する費用の見積処理を行う。 For example, Patent Document 1 discloses an accident vehicle repair cost estimation system that can accurately and quickly evaluate damage to an accident vehicle and estimate repairs. This estimation system includes a capture means, a storage means, an input means, a display means, a link means, and an estimation means. The capturing means captures the image data of the accident vehicle. The storage means stores the vehicle attribute data necessary for estimating the accident vehicle repair cost. The input means inputs the estimation data necessary for estimating the repair cost of the accident vehicle. The display means displays various data including accident vehicle image data. The linking means determines which part of the vehicle the image data clearly indicates damage. The estimation means simultaneously displays the image data and the vehicle attribute data of the portion corresponding to the image data on the display means. In addition, the estimation means performs estimation processing of the cost required for repairing the accident vehicle based on the estimation data and the vehicle attribute data.

特開平10−197285号公報Japanese Unexamined Patent Publication No. 10-197285

しかしながら、特許文献1のシステムでは、事故車両の画像データについて、過去に修理をした車両の画像データとの近似性から損傷の程度を判定するため、適切な過去の画像データが存在しない場合には判定精度が低下する。 However, in the system of Patent Document 1, the degree of damage is determined from the closeness of the image data of the accident vehicle to the image data of the vehicle repaired in the past. Therefore, if there is no appropriate past image data, Judgment accuracy is reduced.

そこで、本発明の目的は、車両の損傷状態を柔軟性をもって高速かつ精度よく判定することである。 Therefore, an object of the present invention is to determine the damaged state of the vehicle flexibly, at high speed and with high accuracy.

かかる課題を解決すべく、第1の発明は、部品判定部と、状態判定部とを有し、撮像画像から車両の損傷状態を判定する車両状態判定装置を提供する。部品判定部は、部品学習モデルを参照して、撮像画像における車両部品を判定する。部品学習モデルは、深層学習による物体検出アルゴリズムを用いて、車両部品に関するデータを教師データとした教師あり学習によって構築されている。物体検出アルゴリズムは、撮像画像を単一のニューラルネットワーク系に入力することで、回帰問題的なアプローチによって、撮像画像における車両部品の領域抽出を属性の分類付きでまとめて行う。状態判定部は、状態学習モデルを参照して、部品判定部によって判定された車両部品毎の損傷状態を判定する。状態学習モデルは、車両部品の損傷状態に関するデータを教師データとした教師あり学習によって構築されている。 In order to solve such a problem, the first invention provides a vehicle state determination device having a component determination unit and a state determination unit, and determining a damaged state of the vehicle from a captured image. The parts determination unit determines the vehicle parts in the captured image with reference to the parts learning model. The parts learning model is constructed by supervised learning using data related to vehicle parts as supervised data using an object detection algorithm by deep learning. The object detection algorithm inputs the captured image into a single neural network system, and uses a regression-problem approach to collectively extract the region of the vehicle part in the captured image with attribute classification. The state determination unit determines the damaged state of each vehicle part determined by the parts determination unit with reference to the state learning model. The state learning model is constructed by supervised learning using data on the damaged state of vehicle parts as supervised data.

ここで、第1の発明において、物体検出アルゴリズムは、YOLOまたはSSDであることが好ましい。また、第1の発明において、面判定部をさらに設けてもよい。面判定部は、面学習モデルを参照して、撮像画像における車両の構成面を判定する。面学習モデルは、車両の構成面に関するデータを教師データとした教師あり学習によって構築されている。この場合、部品判定部は、面判定部によって判定された構成面に基づいて、車両部品をフィルタリングし、このフィルタリングされた車両部品を判定結果として出力することが好ましい。また、面判定部は、撮像画像中に特定の構成面に固有の車両部品が存在する場合、この固有の車両部品に対応する構成面を判定結果に含めてもよい。 Here, in the first invention, the object detection algorithm is preferably YOLO or SSD. Further, in the first invention, a surface determination unit may be further provided. The surface determination unit determines the constituent surface of the vehicle in the captured image with reference to the surface learning model. The surface learning model is constructed by supervised learning using data on the constituent surfaces of the vehicle as teacher data. In this case, it is preferable that the component determination unit filters the vehicle parts based on the constituent surface determined by the surface determination unit, and outputs the filtered vehicle parts as the determination result. Further, when a vehicle component unique to a specific constituent surface is present in the captured image, the surface determination unit may include the constituent surface corresponding to the specific constituent surface in the determination result.

第1の発明において、見積算出部をさらに設けてもよい。見積算出部は、見積テーブルを参照することによって、状態判定部によって判定された車両部品毎の損傷状態から、車両の修理費用を見積もる。見積テーブルは、車両部品の損傷状態に対応付けられた修理費用を車両部品毎に保持する。 In the first invention, an estimate calculation unit may be further provided. The estimation calculation unit estimates the repair cost of the vehicle from the damaged state of each vehicle part determined by the condition determination unit by referring to the estimation table. The estimation table holds the repair cost associated with the damaged state of the vehicle parts for each vehicle part.

第1の発明において、面判定部から部品判定部への処理の移行、部品判定部から状態判定部への処理の移行、および、状態判定部から見積算出部への処理の移行のうちの少なくとも一つは、ユーザによる判定結果の修正を許容しつつ、ユーザの承認が得られたことを条件に行われることが好ましい。 In the first invention, at least one of the transition of the process from the surface determination unit to the component determination unit, the transfer of the process from the component determination unit to the state determination unit, and the transfer of the process from the state determination unit to the estimate calculation unit. One is preferably performed on the condition that the user's approval is obtained while allowing the user to modify the determination result.

第2の発明は、部品判定ステップと、状態判定ステップとを有する処理をコンピュータに実行させ、撮像画像から車両の損傷状態を判定する車両状態判定プログラムを提供する。部品判定ステップでは、部品学習モデルを参照して、撮像画像における車両部品を判定する。部品学習モデルは、深層学習による物体検出アルゴリズムを用いて、車両部品に関するデータを教師データとした教師あり学習によって構築されている。物体検出アルゴリズムは、撮像画像を単一のニューラルネットワーク系に入力することで、回帰問題的なアプローチによって、撮像画像における車両部品の領域抽出を属性の分類付きでまとめて行う。状態判定ステップでは、状態学習モデルを参照して、部品判定部によって判定された車両部品毎の損傷状態を判定する。状態学習モデルは、車両部品の損傷状態に関するデータを教師データとした教師あり学習によって構築されている。 The second invention provides a vehicle state determination program that causes a computer to execute a process having a component determination step and a state determination step, and determines a damaged state of the vehicle from an captured image. In the component determination step, the vehicle component in the captured image is determined with reference to the component learning model. The parts learning model is constructed by supervised learning using data related to vehicle parts as supervised data using an object detection algorithm by deep learning. The object detection algorithm inputs the captured image into a single neural network system, and uses a regression-problem approach to collectively extract the region of the vehicle part in the captured image with attribute classification. In the state determination step, the damage state of each vehicle part determined by the parts determination unit is determined with reference to the state learning model. The state learning model is constructed by supervised learning using data on the damaged state of vehicle parts as supervised data.

第3の発明は、部品判定ステップと、状態判定ステップとを有し、撮像画像から車両の損傷状態を判定する車両状態判定方法を提供する。部品判定ステップでは、部品学習モデルを参照して、撮像画像における車両部品を判定する。部品学習モデルは、深層学習による物体検出アルゴリズムを用いて、車両部品に関するデータを教師データとした教師あり学習によって構築されている。物体検出アルゴリズムは、撮像画像を単一のニューラルネットワーク系に入力することで、回帰問題的なアプローチによって、撮像画像における車両部品の領域抽出を属性の分類付きでまとめて行う。状態判定ステップでは、状態学習モデルを参照して、部品判定部によって判定された車両部品毎の損傷状態を判定する。状態学習モデルは、車両部品の損傷状態に関するデータを教師データとした教師あり学習によって構築されている。 The third invention provides a vehicle state determination method that includes a parts determination step and a state determination step, and determines a vehicle damage state from a captured image. In the component determination step, the vehicle component in the captured image is determined with reference to the component learning model. The parts learning model is constructed by supervised learning using data related to vehicle parts as supervised data using an object detection algorithm by deep learning. The object detection algorithm inputs the captured image into a single neural network system, and uses a regression-problem approach to collectively extract the region of the vehicle part in the captured image with attribute classification. In the state determination step, the damage state of each vehicle part determined by the parts determination unit is determined with reference to the state learning model. The state learning model is constructed by supervised learning using data on the damaged state of vehicle parts as supervised data.

ここで、第2および第3の発明において、物体検出アルゴリズムは、YOLOまたはSSDであることが好ましい。また、第2および第3の発明において、面判定ステップをさらに設けてもよい。面判定ステップでは、面学習モデルを参照して、撮像画像における車両の構成面を判定する。面学習モデルは、車両の構成面に関するデータを教師データとした教師あり学習によって構築されている。この場合、部品判定ステップは、面判定ステップによって判定された構成面に基づいて、車両部品をフィルタリングし、このフィルタリングされた車両部品を判定結果として出力することが好ましい。また、面判定ステップは、撮像画像中に特定の構成面に固有の車両部品が存在する場合、この固有の車両部品に対応する構成面を判定結果に含めてもよい。 Here, in the second and third inventions, the object detection algorithm is preferably YOLO or SSD. Further, in the second and third inventions, a surface determination step may be further provided. In the surface determination step, the constituent surface of the vehicle in the captured image is determined with reference to the surface learning model. The surface learning model is constructed by supervised learning using data on the constituent surfaces of the vehicle as teacher data. In this case, it is preferable that the component determination step filters the vehicle parts based on the constituent surface determined by the surface determination step, and outputs the filtered vehicle parts as the determination result. Further, in the surface determination step, when a vehicle component unique to a specific constituent surface is present in the captured image, the constituent surface corresponding to the specific constituent surface may be included in the determination result.

第2および第3の発明において、見積算出ステップをさらに設けてもよい。見積算出ステップでは、見積テーブルを参照することによって、状態判定ステップによって判定された車両部品毎の損傷状態から車両の修理費用を見積もる。見積テーブルは、車両部品の損傷状態に対応付けられた修理費用を車両部品毎に保持する。 In the second and third inventions, an estimate calculation step may be further provided. In the estimation calculation step, the repair cost of the vehicle is estimated from the damaged state of each vehicle part determined by the state determination step by referring to the estimation table. The estimation table holds the repair cost associated with the damaged state of the vehicle parts for each vehicle part.

第2および第3の発明において、面判定ステップから部品判定ステップへの処理の移行、部品判定ステップから状態判定ステップへの処理の移行、および、状態判定ステップから見積算出ステップへの処理の移行のうちの少なくとも一つは、ユーザによる判定結果の修正を許容しつつ、ユーザの承認が得られたことを条件に行われることが好ましい。 In the second and third inventions, the process shifts from the surface determination step to the component determination step, the process shifts from the component determination step to the state determination step, and the process shifts from the state determination step to the estimate calculation step. It is preferable that at least one of them is performed on condition that the user's approval is obtained while allowing the user to modify the determination result.

本発明によれば、機械学習に基づいて車両の損傷状態を判定することで、未知の車両を含む様々な車両に対して、柔軟な対応が可能になる。その際、部品判定と損傷判定とに処理を分離し、部品判定を行った後に個々の部品の損傷判定を行うことで、全体としての判定精度の向上を図ることができる。また、撮像画像中に多くの車両部品が物体として検出され得る部品判定については、YOLOやSSDに代表されるように、撮像画像を単一のニューラルネットワーク系に入力し、回帰問題的なアプローチによって車両部品の領域抽出を属性の分類付きでまとめて行う物体検出アルゴリズムを採用することで、処理の高速化を図ることが可能になる。 According to the present invention, by determining the damaged state of a vehicle based on machine learning, it is possible to flexibly deal with various vehicles including an unknown vehicle. At that time, the processing is separated into the component determination and the damage determination, and the damage determination of each component is performed after the component determination is performed, so that the determination accuracy as a whole can be improved. In addition, for component determination in which many vehicle parts can be detected as objects in the captured image, as represented by YOLO and SSD, the captured image is input to a single neural network system, and a regression problem approach is used. By adopting an object detection algorithm that collectively extracts the area of vehicle parts with attribute classification, it is possible to speed up the processing.

車両状態判定装置のブロック図Block diagram of vehicle condition judgment device 画像受付の画面表示例を示す図Figure showing screen display example of image reception 面判定結果の画面表示例を示す図The figure which shows the screen display example of the surface judgment result 物体検出アルゴリズムの説明図Explanatory diagram of object detection algorithm YOLOのネットワーク構成図YOLO network configuration diagram 車両部品判定結果の画面表示例を示す図The figure which shows the screen display example of the vehicle part judgment result 損傷状態の判定結果の画面表示例を示す図The figure which shows the screen display example of the judgment result of the damage state 見積テーブルの概略的な構成図Schematic block diagram of the quotation table 見積結果の画面表示例を示す図Figure showing screen display example of estimation result

図1は、本実施形態に係る車両状態判定装置1のブロック図である。この車両状態判定装置1は、ユーザによって指定された撮像画像から車両の損傷状態を判定し、車両の修理に要する概算費用をユーザに提示する。判定対象となる車両は、本実施形態では自家用の自動車を想定しているが、これは一例であって、トラック、バス、二輪車等を含めて、設計仕様次第で任意の車両を対象とすることができる。なお、車両状態判定装置1は、コンピュータプログラム(帳票レイアウト解析プログラム)をコンピュータにインストールすることによって等価的に実現することも可能である。 FIG. 1 is a block diagram of the vehicle state determination device 1 according to the present embodiment. The vehicle condition determination device 1 determines the damaged state of the vehicle from the captured image designated by the user, and presents the estimated cost required for repairing the vehicle to the user. The vehicle to be determined is assumed to be a private vehicle in this embodiment, but this is an example, and any vehicle including trucks, buses, motorcycles, etc. should be targeted depending on the design specifications. Can be done. The vehicle state determination device 1 can be equivalently realized by installing a computer program (form layout analysis program) on the computer.

車両状態判定装置1は、画像受付部2と、面判定部3と、部品判定部4と、状態判定部5と、見積算出部6と、入出力インターフェース7と、学習モデル8〜10と、見積テーブル11とを主体に構成されている。各処理ユニット2〜6は、入出力インターフェース7を介して表示装置12に接続されており、入出力インターフェース7は、これらと表示装置12との間の入出力を司る。基本的に、処理ユニット3〜6における各処理は逐次的に行われるが、隣接した処理ユニット間における処理の移行、具体的には、面判定部3から部品判定部4への移行、部品判定部4から状態判定部5への移行、および、状態判定部5から見積算出部6への移行は、ユーザによる判定結果の修正を許容した上で、ユーザの承認が得られたことを条件に行われる。これは、処理過程でユーザの意図を適宜反映することで、全体としての判定精度の向上を図るためである。ただし、処理の移行の一部については、ユーザの承認を条件とすることなく自動的に行ってもよい。なお、表示装置12がインターネットなどにネットワーク接続されている場合、入出力インターフェース7は、ネットワーク通信を行うために必要な通信機能を備える。 The vehicle state determination device 1 includes an image reception unit 2, a surface determination unit 3, a parts determination unit 4, a state determination unit 5, an estimate calculation unit 6, an input / output interface 7, a learning model 8 to 10. It is mainly composed of the estimation table 11. Each processing unit 2 to 6 is connected to a display device 12 via an input / output interface 7, and the input / output interface 7 controls input / output between these and the display device 12. Basically, each process in the processing units 3 to 6 is sequentially performed, but the transfer of the process between adjacent processing units, specifically, the transfer from the surface determination unit 3 to the part determination unit 4, and the component determination. The transition from the unit 4 to the status determination unit 5 and the transition from the status determination unit 5 to the estimate calculation unit 6 are subject to the user's approval after allowing the user to correct the determination result. Will be done. This is to improve the judgment accuracy as a whole by appropriately reflecting the user's intention in the processing process. However, some of the process transitions may be done automatically without the condition of user approval. When the display device 12 is connected to the Internet or the like via a network, the input / output interface 7 has a communication function necessary for performing network communication.

画像受付部2は、表示装置12から判定対象となる撮像画像、具体的には、損傷した車両の外観をカメラで撮像した画像を受け付ける。車両を撮像する向きは、前方、後方、側方のいずれであってもよく、斜め前方や斜め後方などであってもよい。 The image receiving unit 2 receives an captured image to be determined from the display device 12, specifically, an image captured by a camera of the appearance of the damaged vehicle. The direction in which the vehicle is imaged may be any of front, rear, and sideways, and may be diagonally forward or diagonally rearward.

判定対象となる撮像画像は、ユーザが画面を見ながら表示装置12を操作することによって指定され、車両状態判定装置1に出力/アップロードされる。図2は、表示装置12における画像受付の画面表示例を示す図である。画像受付用の表示画面30は、画像受付領域31を有する。画像受付領域31には、判定対象となる撮像画像のサムネイルが表示される。ユーザは、ファイル参照ボタンを通じて特定の画像ファイルを指定することで、あるいは、画像受付領域31内に特定の画像ファイルをドロップすることで、判定対象を指定する。画像受付領域31に複数のブランク枠が存在することからも理解できるように、判定対象は複数指定することもでき、既に指定された判定対象であっても、取り消しボタンを通じて取り消すことができる。ユーザは、判定対象の指定が完了した場合、判定開始ボタンを押す。このアクションによって、判定対象は画像受付部2に出力される。画像受付部2によって受け付けられた撮像画像は、面判定部3に出力される。 The captured image to be determined is designated by the user operating the display device 12 while looking at the screen, and is output / uploaded to the vehicle state determination device 1. FIG. 2 is a diagram showing an example of screen display of an image reception in the display device 12. The display screen 30 for receiving an image has an image receiving area 31. In the image receiving area 31, thumbnails of captured images to be determined are displayed. The user specifies a determination target by designating a specific image file through the file reference button or by dropping a specific image file in the image receiving area 31. As can be understood from the existence of a plurality of blank frames in the image receiving area 31, a plurality of determination targets can be specified, and even if the determination target has already been specified, it can be canceled through the cancel button. When the specification of the judgment target is completed, the user presses the judgment start button. By this action, the determination target is output to the image receiving unit 2. The captured image received by the image receiving unit 2 is output to the surface determination unit 3.

判定対象となる撮像画像は、カラー画像であってもよいが、メモリ使用量の低減を図るべく、グレースケール画像を受け付けるようにしてもよい。撮像画像のサイズは、システムのメモリ使用量などを考慮して適宜設定される。 The captured image to be determined may be a color image, but a grayscale image may be accepted in order to reduce the memory usage. The size of the captured image is appropriately set in consideration of the memory usage of the system and the like.

面判定部3は、判定対象となる撮像画像に写し出されている車両の構成面を判定する。ここで、「構成面」とは、立体的な車両を構成する個別の面をいい、車両の前面、背面、側面などが挙げられる。例えば、前方から車両を撮影した撮像画像の場合、判定結果は前面となり、後方から車両を撮影した撮像画像の場合、判定結果は背面となる。ただし、判定結果として得られる構成面の数は一つであるとは限らず、複数の場合もある。例えば、斜め前方から車両を撮影した撮像画像の場合、判定結果が前面および側面となるといった如くである。このような構成面の判定を行う理由は、後処理における判定精度の向上を図るためである。 The surface determination unit 3 determines the constituent surface of the vehicle projected on the captured image to be determined. Here, the "construction surface" refers to an individual surface that constitutes a three-dimensional vehicle, and includes the front surface, the back surface, and the side surface of the vehicle. For example, in the case of a captured image of the vehicle taken from the front, the determination result is the front side, and in the case of the captured image of the vehicle taken from the rear, the determination result is the back side. However, the number of constituent surfaces obtained as a determination result is not limited to one, and may be multiple. For example, in the case of an captured image of a vehicle taken diagonally from the front, the determination results are front and side surfaces. The reason for determining the configuration surface in this way is to improve the determination accuracy in the post-processing.

構成面の判定では、面学習モデル8が参照される。この面学習モデル8は、人の脳神経を模したニューラルネットワーク系を主体に構成されている。ニューラルネットワーク系は、コンピュータの作業領域上に形成され、入力層と、隠れ層と、出力層とを有する。入力層は、隠れ層に入力信号を伝達する際、活性化関数による重み付けが行われる。そして、隠れ層の層数に応じた重み付けを伴う伝達が繰り返され、出力層に伝達された信号が最終的に出力される。入力層のポート数、出力層のポート数、隠れ層の層数などは任意である。出力層は、出力(前面、背面、側面など)の分類確率も出力する。 The surface learning model 8 is referred to in the determination of the constituent surface. This surface learning model 8 is mainly composed of a neural network system that imitates the human cranial nerves. The neural network system is formed on the work area of a computer and has an input layer, a hidden layer, and an output layer. The input layer is weighted by an activation function when transmitting an input signal to the hidden layer. Then, the transmission with weighting according to the number of layers of the hidden layer is repeated, and the signal transmitted to the output layer is finally output. The number of ports in the input layer, the number of ports in the output layer, the number of layers in the hidden layer, etc. are arbitrary. The output layer also outputs the classification probabilities of the outputs (front, back, sides, etc.).

面学習モデル8の構築は、車両の構成面に関するデータを教師データとした教師あり学習によって行われる。教師データは、車両を撮影した撮像画像と、車両の構成面の分類とを有し、様々な車種、様々な車体色、様々な撮影方向などを含めて、多様かつ大量のデータが用いられる。教師あり学習では、教師データの入力に対する出力の分類確率が検証され、これに基づいて活性化関数(重み付け)の調整を繰り返すことによって、面学習モデル8が所望の状態に設定される。 The surface learning model 8 is constructed by supervised learning using data related to the constituent surfaces of the vehicle as teacher data. The teacher data has a captured image of the vehicle and a classification of the constituent surfaces of the vehicle, and various and large amounts of data are used including various vehicle types, various body colors, various shooting directions, and the like. In supervised learning, the classification probability of the output with respect to the input of supervised data is verified, and the surface learning model 8 is set to a desired state by repeating the adjustment of the activation function (weighting) based on this.

なお、面学習モデル8としては、ニューラルネットワークの他、サポートベクターマシン、決定木、ベイジアンネットワーク、線形回帰、多変量解析、ロジスティック回帰分析、判定分析等の機械学習手法を用いてもよい。また、畳み込みニューラルネットワークおよびそれを用いたR−CCN(Regions with CNN features)などを用いてもよい。この点は、後述する状態学習モデル10についても同様である。 As the surface learning model 8, in addition to the neural network, a machine learning method such as a support vector machine, a decision tree, a Bayesian network, a linear regression, a multivariate analysis, a logistic regression analysis, or a judgment analysis may be used. Further, a convolutional neural network and R-CCN (Regions with CNN features) using the convolutional neural network may be used. This point is the same for the state learning model 10 described later.

また、構成面の判定では、面学習モデル8の参照に加えて、特定の構成面に存在する固有の車両部品の有無に着目して、構成面を推定してもよい。例えば、フロントライトやフロントグリルなどは、車両の前面に固有であり、他の車両部品とは区別できる特徴的な形状を有することから、フロントライトなどの存在を以て、撮像画像中には少なくとも前面が含まれているとみなせる。このことから、撮像画像中に特定の構成面に固有の車両部品が存在する場合、この固有の車両部品に対応する構成面が判定結果に含められる。 Further, in the determination of the constituent surface, in addition to the reference of the surface learning model 8, the constituent surface may be estimated by paying attention to the presence or absence of the unique vehicle parts existing in the specific constituent surface. For example, the front light and the front grille are unique to the front surface of the vehicle and have a characteristic shape that can be distinguished from other vehicle parts. Therefore, due to the presence of the front light and the like, at least the front surface is included in the captured image. It can be considered to be included. For this reason, when a vehicle component unique to a specific constituent surface is present in the captured image, the constituent surface corresponding to the unique constituent surface is included in the determination result.

さらに、GPU(Graphics Processing Unit)のメモリ使用量を抑制するために、または、学習効率の向上を図るために、面学習モデル8の軽量化を図ってもよい。その一例として、VGG−16などの汎用モデルにおけるVGGブロック(畳み込み→畳み込み→プーリングで1ブロック)の個数を減らすことや、撮像画像のサイズを小さくすることが挙げられる。VGG−16は、既に学習済のモデルをCNN(畳み込みニューラルネットワーク)に用いる手法、すなわち、転移学習モデルの一つであり、畳み込み層と全結合層との合計16層を含み、畳み込みフィルタの大きさは全て3×3、全結合層は4096ユニット2層、クラス分類用の1000ユニット1層からなる。 Further, the surface learning model 8 may be reduced in weight in order to suppress the memory usage of the GPU (Graphics Processing Unit) or to improve the learning efficiency. As an example, the number of VGG blocks (1 block by convolution-> convolution-> pooling) in a general-purpose model such as VGG-16 can be reduced, and the size of the captured image can be reduced. VGG-16 is a method of using an already trained model for a CNN (convolutional neural network), that is, one of the transfer learning models, which includes a total of 16 layers including a convolution layer and a fully connected layer, and has a large convolution filter. All of them are 3x3, and the fully connected layer consists of 2 layers of 4096 units and 1 layer of 1000 units for classification.

面判定部3の判定結果は、表示装置12に出力される。図3は、表示装置12に表示される面判定結果の画面表示例を示す図である。この判定結果の表示画面40は、画像表示領域41と、複数の判定結果表示領域42と、複数のチェックボックス43とを有する。画像受付領域41には、判定対象に係る車両の撮像画像が表示される。それぞれの判定結果表示領域42には、車両の構成面の候補(前面、側面、背面)が分類確率付きで表示される。チェックボックス43は、それぞれの判定結果表示領域42に対応して設けられており、所定の条件を満たすものにはチェックマークが付されている。所定の条件としては、構成面の候補の分類確率が所定のしきい値以上であること(この場合は複数にチェックマークが付されることもある。)、構成面の分類確率が最も高いものなどが挙げられる。ユーザは、判定結果が妥当であると判断した場合、判定継続ボタンを押す。また、ユーザは、これが妥当でないと判断した場合、チェックボックス43のチックマークの変更を含む判定結果の修正を行った上で、判定継続ボタンを押す。このアクションによって、面判定部3の判定結果(ユーザによって修正された判定結果を含む。)は、撮像画像と共に部品判定部4に出力される。 The determination result of the surface determination unit 3 is output to the display device 12. FIG. 3 is a diagram showing a screen display example of the surface determination result displayed on the display device 12. The determination result display screen 40 has an image display area 41, a plurality of determination result display areas 42, and a plurality of check boxes 43. In the image receiving area 41, a captured image of the vehicle related to the determination target is displayed. In each determination result display area 42, candidates (front surface, side surface, back surface) of the constituent surface of the vehicle are displayed with a classification probability. The check boxes 43 are provided corresponding to the respective determination result display areas 42, and those satisfying a predetermined condition are marked with a check mark. The predetermined conditions are that the classification probability of the constituent surface candidates is equal to or higher than the predetermined threshold value (in this case, a plurality of check marks may be added), and the constituent surface classification probability is the highest. And so on. When the user determines that the determination result is valid, the user presses the determination continuation button. If the user determines that this is not appropriate, he / she corrects the determination result including the change of the tick mark of the check box 43, and then presses the determination continuation button. By this action, the determination result of the surface determination unit 3 (including the determination result corrected by the user) is output to the component determination unit 4 together with the captured image.

なお、ユーザによって修正された判定結果は、面学習モデル8に反映させてもよい。これにより、構成面の判定における学習深度を深めることができる。 The determination result modified by the user may be reflected in the surface learning model 8. Thereby, the learning depth in the determination of the constituent surface can be deepened.

部品判定部4は、撮像画像に写し出された車両部品の抽出処理、具体的には、車両部品が写し出されている部品領域と、車両部品の属性とを個別に抽出する。この部品判定では、部品学習モデル9が参照される。この学習モデル9は、マルチスケール性や動作速度などを考慮して、YOLOやSSDなどの深層学習による物体検出アルゴリズムに基づき構築されている。 The component determination unit 4 extracts the vehicle parts projected on the captured image, specifically, the component area on which the vehicle parts are projected and the attributes of the vehicle parts individually. In this component determination, the component learning model 9 is referred to. This learning model 9 is constructed based on an object detection algorithm by deep learning such as YOLO and SSD in consideration of multi-scale property and operation speed.

図4は、物体検出アルゴリズムの説明図である。同図(a)に示すように、顔検出などで用いられる従来の検出手法では、入力に対する処理として、領域探索、特徴量抽出、機械学習という3つの段階に別れている。すなわち、まず領域探索が行われ、つぎに検出する物体に合わせて特徴抽出が行われ、最後に適切な機械学習手法が選択される。この検出手法では、物体検出を3つのアルゴリズムに別けて実現される。特徴量についても、基本的に、検出対象に応じた専用設計になるため特定の対象しか検出できない。そこで、かかる制約を解消すべく、同図(b)および(c)に示すような深層学習による物体検出アルゴリズムが提案された。同図(b)に示すように、R−CNNなどでは、深層学習を用いることで特徴量抽出が自動で実現される。これによって、ネットワークの設計だけで、色々な物体に対する柔軟な分類が可能になる。しかしながら、領域探索については別処理として依然として残る。そこで、領域探索についても深層学習に含めたものが、YOLO(You Only Look Once)やSSD(Single Shot MultiBox Detector)に代表される同図(c)の手法である。本手法では、入力(撮像画像)を単一のニューラルネットワークに入力することで、項目領域の抽出と、その属性の分類とがまとめて行われる。本手法の特徴として、第1に、回帰問題的なアプローチであることが挙げられる。回帰(Regression)とは、データの傾向から数値を直接予測するアプローチをいい、領域を決めてからそれが何かを分類するのではなく、物体の座標と大きさが直接予測される。第2に、単一のネットワークで処理が完結することである。データ入力した後は深層学習だけで最後(出力結果)までいってしまうという意味で、「End-to-End」の処理ということもできる。本実施形態の特徴の一つは、撮像画像中に多くの車両部品が物体として検出され得る部品判定について、YOLOやSSDに代表される同図(c)の手法を採用していることである。 FIG. 4 is an explanatory diagram of the object detection algorithm. As shown in FIG. 6A, the conventional detection method used for face detection and the like is divided into three stages of input processing: area search, feature extraction, and machine learning. That is, first, the area search is performed, then the feature extraction is performed according to the object to be detected, and finally the appropriate machine learning method is selected. In this detection method, object detection is realized by dividing it into three algorithms. As for the feature quantity, basically, only a specific target can be detected because it is designed exclusively for the detection target. Therefore, in order to eliminate such restrictions, an object detection algorithm by deep learning as shown in FIGS. (B) and (c) has been proposed. As shown in FIG. 3B, in R-CNN and the like, feature extraction is automatically realized by using deep learning. This allows flexible classification of various objects simply by designing the network. However, the area search still remains as a separate process. Therefore, the method shown in Fig. (C) represented by YOLO (You Only Look Once) and SSD (Single Shot MultiBox Detector) includes the area search in the deep learning. In this method, by inputting an input (captured image) to a single neural network, extraction of an item area and classification of its attributes are performed collectively. The first feature of this method is that it is a regression problem approach. Regression is an approach that directly predicts numerical values from the tendency of data, and instead of deciding a region and then classifying what it is, the coordinates and size of an object are directly predicted. Second, the process is completed in a single network. It can also be called "End-to-End" processing in the sense that after data is input, it goes to the end (output result) only by deep learning. One of the features of this embodiment is that the method of FIG. 3C represented by YOLO or SSD is adopted for determining parts in which many vehicle parts can be detected as objects in the captured image. ..

例えば、YOLOの処理は、概ね以下のようになる。まず、入力画像がS×Sの領域に分割される。つぎに、それぞれの領域内における物体の分類確率が導出される。そして、B個(ハイパーパラメータ)のバウンディングボックスのパラメータ(x,y,height,width)と信頼度(confidence)とが算出される。バウンディングボックスとは、物体領域の外接四角形であり、信頼度とは、予測と正解のバウンディングボックスの一致度である。物体検出には、物体の分類確率と、各バウンディングボックスの信頼度との積が用いられる。図5は、YOLOのネットワーク構成図である。YOLOにおいて、帳票画像はCNN(Convolutional Neural Network)層に入力されると共に、複数段の全結合層を経て結果が出力される。出力は、S*S個に分割した画像領域と、信頼度(分類確度)を含むバウンディングボックス(BB)の5パラメータと、クラス数(項目の属性)とを含む。 For example, the processing of YOLO is as follows. First, the input image is divided into S × S regions. Next, the classification probabilities of the objects in each region are derived. Then, the parameters (x, y, height, width) and the confidence (confidence) of B bounding boxes (hyperparameters) are calculated. The bounding box is the circumscribed quadrangle of the object area, and the reliability is the degree of agreement between the predicted and the correct bounding box. For object detection, the product of the classification probability of the object and the reliability of each bounding box is used. FIG. 5 is a network configuration diagram of YOLO. In YOLO, the form image is input to the CNN (Convolutional Neural Network) layer, and the result is output through the fully connected layers of a plurality of stages. The output includes an image area divided into S * S pieces, five parameters of a bounding box (BB) including reliability (classification accuracy), and the number of classes (item attributes).

部品学習モデル9の構築は、車両の構成面毎の車両部品に関するデータを教師データとした教師あり学習によって行われる。この教師データは、車両部品の部分画像と、この車両部品の属性とを有し、様々な車種、様々な車両部品、様々な撮影方向などを含めて、多様かつ大量のデータが用いられる。大量のデータを確保するために、あるソース画像に画像処理を施したものも用いられる。ただし、右ヘッドランプ、左ヘッドランプ等を区別するために、画像処理の一つである画像の左右反転は行わない。このような部品学習モデル9を用いることで、車両の損傷の有無やその程度に関わりなく、車両の構成面に含まれる車両部品を判定・抽出することができる。 The parts learning model 9 is constructed by supervised learning using data related to vehicle parts for each constituent surface of the vehicle as teacher data. This teacher data has a partial image of a vehicle part and an attribute of the vehicle part, and various and large amounts of data are used including various vehicle types, various vehicle parts, various shooting directions, and the like. In order to secure a large amount of data, a source image that has undergone image processing is also used. However, in order to distinguish between the right headlamp and the left headlamp, the image is not flipped horizontally, which is one of the image processing. By using such a parts learning model 9, it is possible to determine and extract vehicle parts included in the constituent surface of the vehicle regardless of the presence or absence of damage to the vehicle and its degree.

部品判定部4は、面判定部3によって判定された車両の構成面に基づいて、部品学習モデル9に基づき特定された車両部品をフィルタリングし、フィルタリングされた車両部品を判定結果として出力する。例えば、構成面の判定結果が前面および側面の場合、部品判定の結果としてテールランプが抽出されたとしても、これが誤判定であることは明らかである。テールランプは背面に存在し、前面および側面には存在し得ないからである。このような相関性は、側面固有のサイドドア、前面固有のヘッドライト、フロントグリル、フロントウインドウなどについても認められる。よって、部品判定の結果として得られた車両部品のうち、構成面の判定結果として得られた構成面に関するもののみを判定結果に含め、それ以外については除外することで、部品判定精度の向上を図ることができる。 The parts determination unit 4 filters the vehicle parts specified based on the parts learning model 9 based on the constituent surfaces of the vehicle determined by the surface determination unit 3, and outputs the filtered vehicle parts as the determination result. For example, when the determination result of the constituent surface is the front surface and the side surface, it is clear that this is an erroneous determination even if the tail lamp is extracted as a result of the component determination. This is because the tail lamps are on the back and cannot be on the front and sides. Such correlation is also recognized for side doors unique to the sides, headlights specific to the front, front grilles, front windows, and the like. Therefore, among the vehicle parts obtained as a result of the parts judgment, only those related to the constituent surface obtained as the judgment result of the constituent surface are included in the judgment result, and the others are excluded to improve the parts determination accuracy. Can be planned.

部品判定部4の判定結果は、表示装置12に出力される。図6は、部品判定結果の画面表示例を示す図である。この判定結果の表示画面50は、画像表示領域51と、複数の判定結果表示領域52と、複数のチェックボックス53とを有する。画像表示領域51には、判定対象に係る車両の撮像画像が表示されると共に、部品判定部4によって抽出された個々の車両部品を示す矩形枠が表示される。判定結果表示領域52には、それぞれの車両部品の候補(右ヘッドライト、左ヘッドライト、フロントウインドウなど)が分類確率付きで表示される。チェックボックス53は、それぞれの判定結果表示領域52に対応して設けられており、所定の条件を満たすものにはチェックマークが付されている。所定の条件としては、典型的には、構成面の候補の分類確率が所定のしきい値以上であることが挙げられる。ユーザは、判定結果が妥当であると判断した場合、判定継続ボタンを押す。また、ユーザは、これが妥当でないと判断した場合、チェックボックス53のチックマークの変更を含む判定結果の修正を行った上で、判定継続ボタンを押す。このアクションによって、部品判定部4の判定結果(ユーザによって修正された判定結果を含む。)は、撮像画像と共に状態判定部5に出力される。 The determination result of the component determination unit 4 is output to the display device 12. FIG. 6 is a diagram showing a screen display example of the component determination result. The determination result display screen 50 has an image display area 51, a plurality of determination result display areas 52, and a plurality of check boxes 53. In the image display area 51, a captured image of the vehicle related to the determination target is displayed, and a rectangular frame showing individual vehicle parts extracted by the component determination unit 4 is displayed. In the determination result display area 52, candidates for each vehicle component (right headlight, left headlight, front window, etc.) are displayed with a classification probability. The check boxes 53 are provided corresponding to the respective determination result display areas 52, and those satisfying a predetermined condition are marked with a check mark. As a predetermined condition, typically, the classification probability of the candidate of the constituent surface is equal to or higher than the predetermined threshold value. When the user determines that the determination result is valid, the user presses the determination continuation button. If the user determines that this is not appropriate, he / she corrects the determination result including the change of the tick mark of the check box 53, and then presses the determination continuation button. By this action, the determination result of the component determination unit 4 (including the determination result corrected by the user) is output to the state determination unit 5 together with the captured image.

なお、ユーザによって修正された判定結果は、部品学習モデル9に反映させてもよい。これにより、部品判定の学習深度を深めることができる。 The determination result corrected by the user may be reflected in the component learning model 9. As a result, the learning depth of component determination can be deepened.

状態判定部5は、部品判定部4によって抽出された車両部品毎の損傷状態を判定する。この損傷状態判定は、車両部品の損傷状態に関する教師データを用いた教師あり学習によって構築された状態学習モデル10を参照することによって行われる。状態学習モデル10の構成は、基本的に、面学習モデル8のそれに準ずる。 The state determination unit 5 determines the damaged state of each vehicle part extracted by the part determination unit 4. This damage state determination is performed by referring to the state learning model 10 constructed by supervised learning using the teacher data regarding the damage state of the vehicle parts. The configuration of the state learning model 10 basically conforms to that of the surface learning model 8.

また、状態学習モデル10の構築は、車両部品の損傷状態に関するデータを教師データとした教師あり学習によって行われる。この教師データは、損傷した車両部品の部分画像と、その損傷状態を分類した属性(例えば、「取替」、「脱着」、損傷程度の「大」、「中」、「小」)とを有し、様々な車種、様々な車両部品、様々な撮影方向などを含めて、多様かつ大量のデータが用いられる。ここで、「取替」は、補修では済まず車両部品自体を交換しなければならない程度の損傷を意味する。「脱着」は、その車両部品自体は損傷を受けていないものの、損傷を受けた他の車両部品の交換・修理のために、車体から一端外されなければならないことを意味する。なお、大量のデータを確保するために、あるソース画像に画像処理を施したものを用いてもよい。このような状態学習モデル10を用いて損傷状態を車両部品毎に判定することで、損傷状態の判定精度の向上を図ることができる。 Further, the construction of the state learning model 10 is performed by supervised learning using data on the damaged state of the vehicle parts as teacher data. This teacher data includes a partial image of a damaged vehicle part and attributes that classify the damaged state (for example, "replacement", "detachment", damage degree "large", "medium", "small"). It has a large amount of diverse data, including various vehicle types, various vehicle parts, and various shooting directions. Here, "replacement" means damage to the extent that the vehicle parts themselves must be replaced rather than being repaired. "Detachment" means that the vehicle part itself is undamaged, but must be removed from the vehicle body in order to replace or repair other damaged vehicle parts. In addition, in order to secure a large amount of data, a certain source image that has undergone image processing may be used. By determining the damaged state for each vehicle part using such a state learning model 10, it is possible to improve the accuracy of determining the damaged state.

本実施形態では、状態判定部5として、上述したVGG−16などの汎用モデルをベースとして全結合層のみを取り替えたネットワークを用いている。また、車両部品毎にデータ量のばらつきが大きいことから、少ないデータ量でも学習を行うべく、予めImageNetで学習した重みによるファインチューニングを実施してもよい。ファインチューニングとは、既存のモデルの一部を再利用して、新しいモデルを構築する手法である。さらに、データごとに引き気味の画像と、アップの画像と異なる種類の画像とが混在している場合に対応すべく、アップ画像の選別、対象部位のトリミングによるクレンジングを実施してもよい(トリミングされた画像も一部使用)。 In the present embodiment, the state determination unit 5 uses a network in which only the fully connected layer is replaced based on the general-purpose model such as the VGG-16 described above. Further, since the amount of data varies widely for each vehicle part, fine tuning may be performed by the weight learned in advance by ImageNet in order to perform learning even with a small amount of data. Fine tuning is a method of constructing a new model by reusing a part of an existing model. Furthermore, in order to deal with the case where an image that is slightly pulled for each data and an image of a different type from the up image are mixed, the up image may be selected and cleansing may be performed by trimming the target portion (trimming). Some of the images that have been cropped are also used).

状態判定部5の判定結果は、表示装置12に出力される。図7は、表示装置12に表示される損傷状態の判定結果の画面表示例を示す図である。この判定結果の表示画面60は、画像表示領域61と、複数の判定結果表示領域62と、複数のチェックボックス63とを有する。画像表示領域61には、判定対象に係る車両の撮像画像が表示されると共に、状態判定部5によって判定された損傷部位を示す丸枠が表示される。判定結果表示領域62には、損傷状態の候補(取替、脱着、大、中、小)が分類確率付きで表示される。チェックボックス63は、それぞれの判定結果表示領域62に対応して設けられており、所定の条件を満たすものにはチェックマークが付されている。所定の条件としては、典型的には、損傷程度の候補の分類確率が所定のしきい値以上であることが挙げられる。ユーザは、判定結果が妥当であると判断した場合、見積開始継続ボタンを押す。また、ユーザは、これが妥当でないと判断した場合、チェックボックス63のチックマークの変更を含む判定結果の修正を行った上で、見積開始ボタンを押す。このアクションによって、状態判定部5の判定結果(ユーザによって修正された判定結果を含む。)は、撮像画像と共に見積算出部6に出力される。 The determination result of the state determination unit 5 is output to the display device 12. FIG. 7 is a diagram showing a screen display example of the damage state determination result displayed on the display device 12. The determination result display screen 60 has an image display area 61, a plurality of determination result display areas 62, and a plurality of check boxes 63. In the image display area 61, a captured image of the vehicle related to the determination target is displayed, and a round frame indicating the damaged portion determined by the state determination unit 5 is displayed. In the determination result display area 62, candidates for the damaged state (replacement, desorption, large, medium, small) are displayed with a classification probability. The check boxes 63 are provided corresponding to the respective determination result display areas 62, and those satisfying a predetermined condition are marked with a check mark. A predetermined condition typically includes a probability of classification of damage degree candidates greater than or equal to a predetermined threshold. When the user determines that the determination result is appropriate, the user presses the estimate start continuation button. If the user determines that this is not appropriate, he / she corrects the determination result including the change of the tick mark of the check box 63, and then presses the estimation start button. By this action, the determination result of the state determination unit 5 (including the determination result corrected by the user) is output to the estimation calculation unit 6 together with the captured image.

なお、ユーザによって修正された判定結果は、状態学習モデル10に反映させてもよい。これにより、損傷状態判定の学習深度を深めることができる。 The determination result corrected by the user may be reflected in the state learning model 10. As a result, the learning depth for determining the damage state can be deepened.

見積算出部6は、見積テーブル11を参照することによって、判定対象に係る車両の修理に要する費用を見積もる。図8は、見積テーブル11の概略的な構成図である。この見積テーブル11は、車両部品名と、損傷の程度と、工賃を含む費用とが対応付けて保持されている。部品判定部4によって特定された車両部品と、状態判定部5によって判定されたその車両部品の損傷状態とをキーに見積テーブル11を検索することによって、費用が車両部品別に特定される。車両の修理に要する費用は、車両部品毎の費用を合算した総額となる。例えば、部品判定部4によって「フロントバンパー」および「ヘッドライト」が抽出され、状態判定部5によって前車の損傷程度が「中」、後者の損傷程度が「小」と判定された場合、前者の工賃が「\200,000」、後者の工賃が「\30,000」となり、総額は「\230,000」となる。 The estimate calculation unit 6 estimates the cost required for repairing the vehicle related to the determination target by referring to the estimate table 11. FIG. 8 is a schematic configuration diagram of the estimation table 11. In this estimation table 11, the vehicle part name, the degree of damage, and the cost including wages are stored in association with each other. The cost is specified for each vehicle part by searching the estimation table 11 using the vehicle parts specified by the parts determination unit 4 and the damaged state of the vehicle parts determined by the state determination unit 5 as keys. The cost required to repair the vehicle is the total of the costs for each vehicle part. For example, when the parts determination unit 4 extracts the "front bumper" and the "headlight", and the state determination unit 5 determines that the degree of damage to the front vehicle is "medium" and the degree of damage to the latter is "small", the former The wage will be "\ 200,000", the latter wage will be "\ 30,000", and the total amount will be "\ 230,000".

なお、撮像画像の解析によって車種が特定されている場合、または、ユーザによって車種が指定されている場合といった如く、車種が既知であることを前提に費用を算出する設計仕様であれば、同図に示したように、見積テーブル11の項目として車種(例えば「ABC」)を含めてもよい。このように、車種別に費用を細かく設定することで、車種に応じた見積金額を的確に算出できる。 If the design specifications are such that the vehicle type is specified by the analysis of the captured image, or the vehicle type is specified by the user, and the cost is calculated on the assumption that the vehicle type is known, the figure is shown in the figure. As shown in the above, the vehicle type (for example, “ABC”) may be included as an item in the estimation table 11. In this way, by setting the cost in detail for each vehicle type, it is possible to accurately calculate the estimated amount according to the vehicle type.

見積算出部6の見積結果は、表示装置12に出力される。図9は、表示装置12に表示される見積結果の画面表示例を示す図である。この見積結果の表示画面70は、画像表示領域71と、見積結果表示領域72とを有する。画像表示領域71には、判定対象に係る車両の撮像画像が表示される。見積結果表示領域72には、損傷した車両部品(パーツ)と、損傷の程度と、費用とが表示される。損傷した車両部品が複数存在する場合、個別の費用と共に総額も表示される。ユーザが終了ボタンを押すことによって、車両状態判定装置1における一連の処理が終了する。 The estimation result of the estimation calculation unit 6 is output to the display device 12. FIG. 9 is a diagram showing a screen display example of the estimation result displayed on the display device 12. The estimation result display screen 70 has an image display area 71 and an estimation result display area 72. In the image display area 71, a captured image of the vehicle related to the determination target is displayed. In the estimation result display area 72, the damaged vehicle parts (parts), the degree of damage, and the cost are displayed. If there are multiple damaged vehicle parts, the total cost will be displayed along with the individual costs. When the user presses the end button, a series of processes in the vehicle state determination device 1 are completed.

このように、本実施形態によれば、機械学習に基づいて車両の損傷状態を判定することで、未知の車両を含む様々な車両に対して、柔軟な対応が可能になる。その際、部品判定部4と状態判定部5とで処理を分離し、部品判定を行った後に損傷状態を判定を車両部品毎に行うことで、これらを単一の機械学習で処理する場合と比較して、全体としての判定精度の向上を図ることができる。 As described above, according to the present embodiment, by determining the damaged state of the vehicle based on machine learning, it is possible to flexibly deal with various vehicles including an unknown vehicle. At that time, the processing is separated by the parts determination unit 4 and the state determination unit 5, and after the parts are determined, the damage state is determined for each vehicle part, so that these can be processed by a single machine learning. In comparison, it is possible to improve the judgment accuracy as a whole.

また、本実施形態によれば、撮像画像中に多くの車両部品が物体として検出され得る部品判定については、YOLOやSSDに代表されるように、撮像画像を単一のニューラルネットワーク系に入力し、回帰問題的なアプローチによって車両部品の領域抽出を属性の分類付きでまとめて行う物体検出アルゴリズムを採用する。これにより、部品判定部4における処理の高速化を図ることが可能になる。 Further, according to the present embodiment, for the component determination in which many vehicle parts can be detected as objects in the captured image, the captured image is input to a single neural network system as represented by YOLO and SSD. , Adopt an object detection algorithm that collectively extracts the area of vehicle parts with attribute classification by a regression problematic approach. This makes it possible to speed up the processing in the component determination unit 4.

また、本実施形態によれば、部品判定部4の処理に先立ち、面判定部2によって撮像画像における車両の構成面を特定し、その上で、撮像画像に対する部品判定を実行する。これにより、部品判定部4の判定結果として得られた車両部品のうち、面判定部2によって特定された構成面上に存在し得ないものについては誤判定として除外できるため、部品判定の精度向上を図ることができる。 Further, according to the present embodiment, prior to the processing of the component determination unit 4, the surface determination unit 2 identifies the constituent surface of the vehicle in the captured image, and then executes the component determination for the captured image. As a result, among the vehicle parts obtained as the determination result of the component determination unit 4, those that cannot exist on the constituent surface specified by the surface determination unit 2 can be excluded as erroneous determination, so that the accuracy of component determination is improved. Can be planned.

さらに、本実施形態によれば、状態判定部5によって判定された車両部品毎の損傷状態から、車両の修理費用を見積もる見積算出部6を設けることで、車両の修理に要する費用をユーザに提示する。これにより、ユーザの利便性を更に高めることができる。 Further, according to the present embodiment, the cost required for repairing the vehicle is presented to the user by providing the estimation calculation unit 6 for estimating the repair cost of the vehicle from the damaged state of each vehicle part determined by the state determination unit 5. do. As a result, the convenience of the user can be further enhanced.

1 車両状態判定装置
2 画像受付部
3 面判定部
4 部品判定部
5 状態判定部
6 見積算出部
7 入出力インターフェース
8 面学習モデル
9 部品学習モデル
10 状態学習モデル
11 見積テーブル
12 表示装置
1 Vehicle condition judgment device 2 Image reception unit 3 Surface judgment unit 4 Parts judgment unit 5 Condition judgment unit 6 Estimate calculation unit 7 Input / output interface 8 Surface learning model 9 Parts learning model 10 State learning model 11 Estimate table 12 Display device

Claims (18)

撮像画像から車両の損傷状態を判定する車両状態判定装置において、
深層学習による物体検出アルゴリズムを用いて、車両部品に関するデータを教師データとした教師あり学習によって構築された部品学習モデルを参照して、撮像画像における車両部品を判定する部品判定部と、
車両部品の損傷状態に関するデータを教師データとした教師あり学習によって構築された状態学習モデルを参照して、前記部品判定部によって判定された車両部品毎の損傷状態を判定する状態判定部とを有し、
前記物体検出アルゴリズムは、
前記撮像画像を単一のニューラルネットワーク系に入力することで、回帰問題的なアプローチによって、前記撮像画像における前記車両部品の領域抽出を属性の分類付きでまとめて行うことを特徴とする車両状態判定装置。
In the vehicle condition determination device that determines the damaged condition of the vehicle from the captured image,
A parts determination unit that determines vehicle parts in a captured image by referring to a parts learning model constructed by supervised learning using data related to vehicle parts as supervised learning using an object detection algorithm by deep learning.
It has a state determination unit that determines the damage state of each vehicle part determined by the parts determination unit with reference to a state learning model constructed by supervised learning using data on the damage state of vehicle parts as teacher data. death,
The object detection algorithm
By inputting the captured image into a single neural network system, the vehicle state determination is characterized in that the region extraction of the vehicle parts in the captured image is collectively performed with the classification of attributes by a regression problem approach. Device.
前記物体検出アルゴリズムは、YOLOまたはSSDであることを特徴とする請求項1に記載された車両状態判定装置。 The vehicle state determination device according to claim 1, wherein the object detection algorithm is YOLO or SSD. 車両の構成面に関するデータを教師データとした教師あり学習によって構築された面学習モデルを参照して、撮像画像における車両の構成面を判定する面判定部をさらに有し、
前記部品判定部は、前記面判定部によって判定された前記構成面に基づいて、前記車両部品をフィルタリングし、当該フィルタリングされた車両部品を判定結果として出力することを特徴とする請求項1に記載された車両状態判定装置。
It also has a surface determination unit that determines the constituent surface of the vehicle in the captured image by referring to the surface learning model constructed by supervised learning using the data related to the constituent surface of the vehicle as teacher data.
The first aspect of claim 1, wherein the component determination unit filters the vehicle parts based on the constituent surface determined by the surface determination unit, and outputs the filtered vehicle parts as a determination result. Vehicle condition determination device.
前記面判定部は、前記撮像画像中に特定の構成面に固有の車両部品が存在する場合、当該固有の車両部品に対応する構成面を判定結果に含めることを特徴とする請求項3に記載された車両状態判定装置。 The surface determination unit according to claim 3, wherein when a vehicle component unique to a specific constituent surface is present in the captured image, the surface determination unit includes the constituent surface corresponding to the specific constituent surface in the determination result. Vehicle condition determination device. 車両部品の損傷状態に対応付けられた修理費用が車両部品毎に保持された見積テーブルを参照することによって、前記状態判定部によって判定された車両部品毎の損傷状態から、車両の修理費用を見積もる見積算出部をさらに有することを特徴とする請求項1から4のいずれかに記載された車両状態判定装置。 By referring to the estimation table in which the repair cost associated with the damaged state of the vehicle part is held for each vehicle part, the repair cost of the vehicle is estimated from the damaged state of each vehicle part determined by the state determination unit. The vehicle condition determination device according to any one of claims 1 to 4, further comprising an estimate calculation unit. 前記面判定部から前記部品判定部への処理の移行、前記部品判定部から前記状態判定部への処理の移行、および、前記状態判定部から前記見積算出部への処理の移行のうちの少なくとも一つは、ユーザによる判定結果の修正を許容した上でユーザの承認が得られたことを条件に行われることを特徴とする請求項1から5のいずれかに記載された車両状態判定装置。 At least one of the transfer of the process from the surface determination unit to the component determination unit, the transfer of the process from the component determination unit to the state determination unit, and the transfer of the process from the state determination unit to the estimate calculation unit. One is the vehicle condition determination device according to any one of claims 1 to 5, wherein the determination is performed on condition that the user approves the determination result after allowing the user to modify the determination result. 撮像画像から車両の損傷状態を判定する車両状態判定プログラムにおいて、
深層学習による物体検出アルゴリズムを用いて、車両部品に関するデータを教師データとした教師あり学習によって構築された部品学習モデルを参照して、撮像画像における車両部品を判定する部品判定ステップと、
車両部品の損傷状態に関するデータを教師データとした教師あり学習によって構築された状態学習モデルを参照して、前記部品判定部によって判定された車両部品毎の損傷状態を判定する状態判定ステップとを有する処理をコンピュータに実行させ、
前記物体検出アルゴリズムは、
前記撮像画像を単一のニューラルネットワーク系に入力することで、回帰問題的なアプローチによって、前記撮像画像における前記車両部品の領域抽出を属性の分類付きでまとめて行うことを特徴とする車両状態判定プログラム。
In the vehicle condition determination program that determines the damaged condition of the vehicle from the captured image,
Using the object detection algorithm by deep learning, the parts determination step to determine the vehicle parts in the captured image by referring to the parts learning model constructed by supervised learning using the data related to the vehicle parts as the teacher data, and
It has a state determination step of determining the damage state of each vehicle part determined by the parts determination unit with reference to a state learning model constructed by supervised learning using data on the damage state of vehicle parts as teacher data. Let the computer do the work
The object detection algorithm
By inputting the captured image into a single neural network system, the vehicle state determination is characterized in that the region extraction of the vehicle parts in the captured image is collectively performed with the classification of attributes by a regression problem approach. program.
前記物体検出アルゴリズムは、YOLOまたはSSDであることを特徴とする請求項7に記載された車両状態判定プログラム。 The vehicle state determination program according to claim 7, wherein the object detection algorithm is YOLO or SSD. 車両の構成面に関するデータを教師データとした教師あり学習によって構築された面学習モデルを参照して、撮像画像における車両の構成面を判定する面判定ステップをさらに有し、
前記部品判定ステップは、前記面判定ステップによって判定された前記構成面に基づいて、前記車両部品をフィルタリングし、当該フィルタリングされた車両部品を判定結果として出力することを特徴とする請求項7に記載された車両状態判定プログラム。
It further has a surface determination step for determining the constituent surface of the vehicle in the captured image by referring to the surface learning model constructed by supervised learning using the data related to the constituent surface of the vehicle as the teacher data.
The seventh aspect of claim 7, wherein the component determination step filters the vehicle parts based on the constituent surface determined by the surface determination step, and outputs the filtered vehicle parts as a determination result. Vehicle condition determination program.
前記面判定ステップは、前記撮像画像中に特定の構成面に固有の車両部品が存在する場合、当該固有の車両部品に対応する構成面を判定結果に含めることを特徴とする請求項9に記載された車両状態判定プログラム。 The surface determination step according to claim 9, wherein when a vehicle component unique to a specific constituent surface is present in the captured image, the constituent surface corresponding to the specific constituent surface is included in the determination result. Vehicle condition determination program. 車両部品の損傷状態に対応付けられた修理費用が車両部品毎に保持された見積テーブルを参照することによって、前記状態判定ステップによって判定された車両部品毎の損傷状態から、車両の修理費用を見積もる見積算出ステップをさらに有することを特徴とする請求項7から10のいずれかに記載された車両状態判定プログラム。 By referring to the estimation table in which the repair cost associated with the damaged state of the vehicle part is held for each vehicle part, the repair cost of the vehicle is estimated from the damaged state of each vehicle part determined by the state determination step. The vehicle condition determination program according to any one of claims 7 to 10, further comprising an estimate calculation step. 前記面判定ステップから前記部品判定ステップへの処理の移行、前記部品判定ステップから前記状態判定ステップへの処理の移行、および、前記状態判定ステップから前記見積算出ステップへの処理の移行のうちの少なくとも一つは、ユーザによる判定結果の修正を許容しつつ、ユーザの承認が得られたことを条件に行われることを特徴とする請求項7から11のいずれかに記載された車両状態判定プログラム。 At least one of the transition of the process from the surface determination step to the component determination step, the transition of the process from the component determination step to the state determination step, and the transition of the process from the state determination step to the estimate calculation step. One is the vehicle condition determination program according to any one of claims 7 to 11, wherein the determination is performed on condition that the user's approval is obtained while allowing the user to modify the determination result. 撮像画像から車両の損傷状態を判定する車両状態判定方法において、
深層学習による物体検出アルゴリズムを用いて、車両部品に関するデータを教師データとした教師あり学習によって構築された部品学習モデルを参照して、撮像画像における車両部品を判定する部品判定ステップと、
車両部品の損傷状態に関するデータを教師データとした教師あり学習によって構築された状態学習モデルを参照して、前記部品判定部によって判定された車両部品毎の損傷状態を判定する状態判定ステップとを有し、
前記物体検出アルゴリズムは、
前記撮像画像を単一のニューラルネットワーク系に入力することで、回帰問題的なアプローチによって、前記撮像画像における前記車両部品の領域抽出を属性の分類付きでまとめて行うことを特徴とする車両状態判定方法。
In the vehicle condition determination method for determining the damaged condition of the vehicle from the captured image,
Using the object detection algorithm by deep learning, the parts determination step to determine the vehicle parts in the captured image by referring to the parts learning model constructed by supervised learning using the data related to the vehicle parts as the teacher data, and
With reference to a state learning model constructed by supervised learning using data related to the damaged state of vehicle parts as teacher data, there is a state determination step for determining the damaged state of each vehicle part determined by the parts determination unit. death,
The object detection algorithm
By inputting the captured image into a single neural network system, the vehicle state determination is characterized in that the region extraction of the vehicle parts in the captured image is collectively performed with the classification of attributes by a regression problem approach. Method.
前記深層学習による物体検出アルゴリズムは、YOLOまたはSSDであることを特徴とする請求項13に記載された車両状態判定方法。 The vehicle state determination method according to claim 13, wherein the object detection algorithm by deep learning is YOLO or SSD. 車両の構成面に関するデータを教師データとした教師あり学習によって構築された面学習モデルを参照して、撮像画像における車両の構成面を判定する面判定ステップをさらに有し、
前記部品判定ステップは、前記面判定ステップによって判定された前記構成面に基づいて、前記車両部品をフィルタリングし、当該フィルタリングされた車両部品を判定結果として出力することを特徴とする請求項13に記載された車両状態判定方法。
It further has a surface determination step for determining the constituent surface of the vehicle in the captured image by referring to the surface learning model constructed by supervised learning using the data related to the constituent surface of the vehicle as the teacher data.
13. The thirteenth aspect of the present invention, wherein the component determination step filters the vehicle parts based on the constituent surface determined by the surface determination step, and outputs the filtered vehicle parts as a determination result. Vehicle condition determination method.
前記面判定ステップは、前記撮像画像中に特定の構成面に固有の車両部品が存在する場合、当該固有の車両部品に対応する構成面を判定結果に含めることを特徴とする請求項15に記載された車両状態判定方法。 The surface determination step according to claim 15, wherein when a vehicle component unique to a specific constituent surface is present in the captured image, the constituent surface corresponding to the specific constituent surface is included in the determination result. Vehicle condition determination method. 車両部品の損傷状態に対応付けられた修理費用が車両部品毎に保持された見積テーブルを参照することによって、前記状態判定ステップによって判定された車両部品毎の損傷状態から、車両の修理費用を見積もる見積算出ステップをさらに有することを特徴とする請求項13から16のいずれかに記載された車両状態判定方法。 By referring to the estimation table in which the repair cost associated with the damaged state of the vehicle part is held for each vehicle part, the repair cost of the vehicle is estimated from the damaged state of each vehicle part determined by the state determination step. The vehicle condition determination method according to any one of claims 13 to 16, further comprising an estimate calculation step. 前記面判定ステップから前記部品判定ステップへの処理の移行、前記部品判定ステップから前記状態判定ステップへの処理の移行、および、前記状態判定ステップから前記見積算出ステップへの処理の移行のうちの少なくとも一つは、ユーザによる判定結果の修正を許容しつつ、ユーザの承認が得られたことを条件に行われることを特徴とする請求項13から17のいずれかに記載された車両状態判定方法。 At least one of the transition of the process from the surface determination step to the component determination step, the transition of the process from the component determination step to the state determination step, and the transition of the process from the state determination step to the estimate calculation step. One is the vehicle condition determination method according to any one of claims 13 to 17, wherein the determination is performed on condition that the user's approval is obtained while allowing the user to modify the determination result.
JP2020551134A 2018-10-05 2019-10-04 Vehicle condition judgment device, its judgment program and its judgment method Pending JPWO2020071559A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018190113 2018-10-05
JP2018190113 2018-10-05
PCT/JP2019/039413 WO2020071559A1 (en) 2018-10-05 2019-10-04 Vehicle state evaluation device, evaluation program therefor, and evaluation method therefor

Publications (1)

Publication Number Publication Date
JPWO2020071559A1 true JPWO2020071559A1 (en) 2021-10-07

Family

ID=70055452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020551134A Pending JPWO2020071559A1 (en) 2018-10-05 2019-10-04 Vehicle condition judgment device, its judgment program and its judgment method

Country Status (2)

Country Link
JP (1) JPWO2020071559A1 (en)
WO (1) WO2020071559A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7015503B2 (en) * 2019-12-18 2022-02-03 Arithmer株式会社 Lending object management system, lending object management program and lending object management method.
AU2021204966A1 (en) 2020-01-03 2022-08-04 Tractable Ltd Method of determining painting requirements for a damage vehicle

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012083855A (en) * 2010-10-07 2012-04-26 Toyota Motor Corp Object recognition device and object recognition method
GB201517462D0 (en) * 2015-10-02 2015-11-18 Tractable Ltd Semi-automatic labelling of datasets
GB2554361B8 (en) * 2016-09-21 2022-07-06 Emergent Network Intelligence Ltd Automatic image based object damage assessment
CN107392218B (en) * 2017-04-11 2020-08-04 创新先进技术有限公司 Vehicle loss assessment method and device based on image and electronic equipment

Also Published As

Publication number Publication date
WO2020071559A1 (en) 2020-04-09

Similar Documents

Publication Publication Date Title
JP6650657B2 (en) Method and system for tracking moving objects in video using fingerprints
JP4971191B2 (en) Identification of spurious areas in video frames
CN103376890B (en) The gesture remote control system of view-based access control model
CN110210474B (en) Target detection method and device, equipment and storage medium
CN108885700A (en) Data set semi-automatic labelling
CN104424634A (en) Object tracking method and device
WO2023065395A1 (en) Work vehicle detection and tracking method and system
US10504003B1 (en) Systems and methods for 3D image distification
JP2014071902A5 (en)
CN105612473A (en) Manipulation input device and method, program, and recording medium
JPWO2020071559A1 (en) Vehicle condition judgment device, its judgment program and its judgment method
KR20190137669A (en) Apparatus, method and computer program for automatically calculating the damage
JPWO2020071560A1 (en) Vehicle damage estimation device, its estimation program and its estimation method
US20220358637A1 (en) Methods and systems of utilizing image processing systems to measure objects
JPWO2015136709A1 (en) Image processing apparatus, image sensor, and image processing method
JP6991519B2 (en) Vehicle damage estimation device, its estimation program and its estimation method
WO2021231839A1 (en) Image processing system
US20230012796A1 (en) Identification of a vehicle having various disassembly states
CN111178200A (en) Identification method of instrument panel indicator lamp and computing equipment
US20220138860A1 (en) Remote Vehicle Damage Assessment
CN114972540A (en) Target positioning method and device, electronic equipment and storage medium
Bernuy et al. Adaptive and real-time unpaved road segmentation using color histograms and RANSAC
CN111860225B (en) Image processing method and device, electronic equipment and storage medium
CN114529883A (en) Method and electronic device for detecting traffic light
Landabaso et al. Reconstruction of 3D shapes considering inconsistent 2D silhouettes

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20210714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210716