JP2021167991A - Vehicle damage estimation device, estimation program therefor and estimation method therefor - Google Patents
Vehicle damage estimation device, estimation program therefor and estimation method therefor Download PDFInfo
- Publication number
- JP2021167991A JP2021167991A JP2020070114A JP2020070114A JP2021167991A JP 2021167991 A JP2021167991 A JP 2021167991A JP 2020070114 A JP2020070114 A JP 2020070114A JP 2020070114 A JP2020070114 A JP 2020070114A JP 2021167991 A JP2021167991 A JP 2021167991A
- Authority
- JP
- Japan
- Prior art keywords
- damage
- vehicle
- external
- parts
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、撮像画像から車両の損傷状態を推定する車両損傷推定装置、その推定プログラムおよび推定方法に関する。 The present invention relates to a vehicle damage estimation device for estimating a vehicle damage state from a captured image, an estimation program thereof, and an estimation method.
例えば、特許文献1には、事故車の損傷の評価や修理見積もりを的確かつ迅速に行うことが可能な事故車修理費見積システムが開示されている。この見積システムは、キャプチャー手段と、記憶手段と、入力手段と、表示手段と、リンク手段と、見積手段とを有する。キャプチャー手段は、事故車両の画像データを取り込む。記憶手段は、事故車修理費見積に必要な車両属性データを記憶する。入力手段は、事故車修理費見積に必要な見積データを入力する。表示手段は、事故車両画像データを含む各種データを表示する。リンク手段は、画像データが車両のどの部位の損傷を明瞭に示しているかを決定する。見積手段は、画像データおよび画像データに対応する部位の車両属性データを表示手段に同時に表示する。また、見積手段は、見積データおよび車両属性データに基いて、事故車の修理に要する費用の見積処理を行う。
For example,
しかしながら、特許文献1のシステムでは、事故車両の画像データについて、過去に修理をした車両の画像データとの近似性から損傷の程度を判定するため、適切な過去の画像データが存在しない場合には判定精度が低下する。
However, in the system of
第1観点に係る発明は、部品判定部と状態判定部とを有する車両状態判定装置である。部品判定部は、車両部品に関する教師データによって構築された部品学習モデルを参照して、撮像画像における車両部品を判定する。状態判定部は、車両部品の損傷状態に関する教師データによって構築された状態学習モデルを参照して、部品判定部によって判定された車両部品毎の損傷状態を判定する。部品学習モデルは、車両の写った画像に対し、当該車両における車両部品の部分をバウンディングボックスで指定した教師データ又は当該車両における車両部品の部分に対応するピクセルを指定した教師データのいずれか若しくは両方の教師データにより学習されたものであり、撮像画像の入力に応じて、撮像画像における車両部品の領域抽出と分類とを出力する。
第2観点に係る発明は、部品判定部と、外部損傷判定部と、内部損傷推定部とを有し、撮像画像から車両の損傷状態を推定する車両損傷推定装置である。部品判定部は、部品学習モデルを参照して、撮像画像における車両の外部部品を判定する。部品学習モデルは、車両部品に関するデータを教師データとした教師あり学習によって構築されている。外部損傷判定部は、状態学習モデルを参照して、部品判定部によって判定された外部部品毎の損傷状態を外部損傷として判定する。状態学習モデルは、外部部品の損傷状態に関するデータを教師データとした教師あり学習によって構築されている。内部損傷推定部は、損傷事例データベースを参照し、外部損傷判定部によって判定された外部損傷と類似した損傷事例を抽出することによって、車両の内部損傷を推定する。損傷事例データベースは、外部損傷および内部損傷を含む車両の損傷内容を含む過去の損傷事例を保持する。
The invention according to the first aspect is a vehicle state determination device having a parts determination unit and a state determination unit. The parts determination unit determines the vehicle parts in the captured image with reference to the parts learning model constructed by the teacher data regarding the vehicle parts. The state determination unit determines the damage state of each vehicle part determined by the parts determination unit with reference to the state learning model constructed by the teacher data regarding the damage state of the vehicle parts. The parts learning model is either or both of the teacher data in which the part of the vehicle part in the vehicle is specified by the bounding box and the teacher data in which the pixel corresponding to the part of the vehicle part in the vehicle is specified for the image of the vehicle. It is learned from the teacher data of the above, and the area extraction and classification of the vehicle parts in the captured image are output in response to the input of the captured image.
The invention according to the second aspect is a vehicle damage estimation device that has a parts determination unit, an external damage determination unit, and an internal damage estimation unit, and estimates a vehicle damage state from an captured image. The parts determination unit determines the external parts of the vehicle in the captured image with reference to the parts learning model. The parts learning model is constructed by supervised learning using data related to vehicle parts as teacher data. The external damage determination unit refers to the state learning model and determines the damage state of each external component determined by the component determination unit as external damage. The state learning model is constructed by supervised learning using data on the damaged state of external parts as supervised data. The internal damage estimation unit estimates the internal damage of the vehicle by referring to the damage case database and extracting damage cases similar to the external damage determined by the external damage determination unit. The damage case database holds past damage cases, including vehicle damage details, including external and internal damage.
本発明によれば、機械学習に基づいて車両の損傷状態を判定することで、未知の車両を含む様々な車両に対して、柔軟な対応が可能になる。その際、部品判定と損傷判定とに処理を分離し、部品判定を行った後に個々の部品の損傷判定を行うことで、全体としての判定精度の向上を図ることができる。また、本発明によれば、機械学習に基づいて外部部品の損傷状態を判定すると共に、これをキーとして損傷事例データベースを参照することで、内部損傷を推定する。これにより、未知の車両を含む様々な車両について、外部損傷のみならず内部損傷も含んだ損傷推定を柔軟かつ精度よく行うことができる。 According to the present invention, by determining the damaged state of a vehicle based on machine learning, it is possible to flexibly deal with various vehicles including an unknown vehicle. At that time, the processing is separated into the component determination and the damage determination, and the damage determination of each component is performed after the component determination is performed, so that the determination accuracy as a whole can be improved. Further, according to the present invention, the damage state of the external component is determined based on machine learning, and the internal damage is estimated by referring to the damage case database using this as a key. As a result, it is possible to flexibly and accurately estimate damage including not only external damage but also internal damage for various vehicles including unknown vehicles.
図1は、本実施形態に係る車両損傷推定装置1のブロック図である。この車両損傷推定装置1は、ユーザによって指定された撮像画像から、外部損傷のみならず内部損傷を含めて車両の損傷状態を推定する。推定対象となる車両は、本実施形態では自家用の自動車を想定しているが、これは一例であって、トラック、バス、二輪車等を含めて、設計仕様次第で任意の車両を対象とすることができる。なお、車両損傷推定装置1は、コンピュータプログラムをコンピュータにインストールすることによって等価的に実現することも可能である。
FIG. 1 is a block diagram of the vehicle
車両損傷推定装置1は、画像受付部2と、面判定部3と、部品判定部4と、外部損傷判定部5と、内部損傷推定部6と、入出力インターフェース7と、学習モデル8〜10と、損傷事例データベース11とを主体に構成されている。各処理ユニット2〜6は、入出力インターフェース7を介して表示装置12に接続されており、入出力インターフェース7は、これらと表示装置12との間の入出力を司る。基本的に、処理ユニット2〜6における各処理は逐次的に行われるが、隣接した処理ユニット間における処理の移行、具体的には、面判定部3から部品判定部4への移行、部品判定部4から外部損傷判定部5への移行、および、外部損傷判定部5から内部損傷推定部6への移行は、ユーザによる判定結果の修正を許容した上で、ユーザの承認が得られたことを条件に行われる。これは、処理過程でユーザの意図を適宜反映することで、車両損傷の推定精度の向上を図るためである。ただし、処理の移行の一部については、ユーザの承認を条件とすることなく自動的に行ってもよい。なお、表示装置12がインターネットなどにネットワーク接続されている場合、入出力インターフェース7は、ネットワーク通信を行うために必要な通信機能を備える。
The vehicle
画像受付部2は、表示装置13から推定対象となる撮像画像、具体的には、損傷した車両の外観をカメラで撮像した画像を受け付ける。車両を撮像する向きは、前方、後方、側方のいずれであってもよく、斜め前方や斜め後方などであってもよい。
The
推定対象となる撮像画像は、ユーザが画面を見ながら表示装置13を操作することによって指定され、車両損傷推定装置1に出力/アップロードされる。図2は、表示装置13における画像受付の画面表示例を示す図である。画像受付用の表示画面30は、画像受付領域31を有する。画像受付領域31には、推定対象となる撮像画像のサムネイルが表示される。ユーザは、ファイル参照ボタンを通じて特定の画像ファイルを指定することで、あるいは、画像受付領域31内に特定の画像ファイルをドロップすることで、推定対象を指定する。画像受付領域31に複数のブランク枠が存在することからも理解できるように、推定対象は複数指定することもでき、既に指定された推定対象であっても、取り消しボタンを通じて取り消すことができる。ユーザは、推定対象の指定が完了した場合、判定開始ボタンを押す。このアクションによって、推定対象は画像受付部2に出力される。画像受付部2によって受け付けられた撮像画像は、面判定部3に出力される。
The captured image to be estimated is designated by the user operating the
推定対象となる撮像画像は、カラー画像であってもよいが、メモリ使用量の低減を図るべく、グレースケール画像を受け付けるようにしてもよい。撮像画像のサイズは、システムのメモリ使用量などを考慮して適宜設定される。 The captured image to be estimated may be a color image, but a grayscale image may be accepted in order to reduce the memory usage. The size of the captured image is appropriately set in consideration of the memory usage of the system and the like.
面判定部3は、推定対象となる撮像画像に写し出されている車両の構成面を判定する。ここで、「構成面」とは、立体的な車両を構成する個別の面をいい、車両の前面、背面、側面などが挙げられる。例えば、前方から車両を撮影した撮像画像の場合、判定結果は前面となり、後方から車両を撮影した撮像画像の場合、判定結果は背面となる。ただし、判定結果として得られる構成面の数は一つであるとは限らず、複数の場合もある。例えば、斜め前方から車両を撮影した撮像画像の場合、判定結果が前面および側面となるといった如くである。このような構成面の判定を行う理由は、後処理における判定精度の向上を図るためである。
The
構成面の判定では、面学習モデル8が参照される。この面学習モデル8は、人の脳神経を模したニューラルネットワーク系を主体に構成されている。ニューラルネットワーク系は、コンピュータの作業領域上に形成され、入力層と、隠れ層と、出力層とを有する。入力層は、隠れ層に入力信号を伝達する際、活性化関数による重み付けが行われる。そして、隠れ層の層数に応じた重み付けを伴う伝達が繰り返され、出力層に伝達された信号が最終的に出力される。入力層のポート数、出力層のポート数、隠れ層の層数などは任意である。出力層は、出力(前面、背面、側面など)の分類確率も出力する。
The
面学習モデル8の構築は、車両の構成面に関するデータを教師データとした教師あり学習によって行われる。教師データは、車両を撮影した撮像画像と、車両の構成面の分類とを有し、様々な車種、様々な車体色、様々な撮影方向などを含めて、多様かつ大量のデータが用いられる。教師あり学習では、教師データの入力に対する出力の分類確率が検証され、これに基づいて活性化関数(重み付け)の調整を繰り返すことによって、面学習モデル8が所望の状態に設定される。
The
なお、面学習モデル8としては、ニューラルネットワークの他、サポートベクターマシン、決定木、ベイジアンネットワーク、線形回帰、多変量解析、ロジスティック回帰分析、判定分析等の機械学習手法を用いてもよい。また、畳み込みニューラルネットワークおよびそれを用いたR−CNN(Regions with CNN features)などを用いてもよい。この点は、後述する状態学習モデル10についても同様である。
As the
また、構成面の判定では、面学習モデル8の参照に加えて、特定の構成面に存在する固有の外部部品の有無に着目して、構成面を推定してもよい。本明細書において、「外部部品」とは、車両部品のうち、外観上露出したものをいう。また、車両部品のうち、外観上露出していないものを「内部部品」という。
例えば、フロントライトやフロントグリルなどは、車両の前面に固有であり、他の外部部品とは区別できる特徴的な形状を有することから、フロントライトなどの存在を以て、撮像画像中には少なくとも前面が含まれているとみなせる。このことから、撮像画像中に特定の構成面に固有の外部部品が存在する場合、この固有の外部部品に対応する構成面が判定結果に含められる。
Further, in the determination of the constituent surface, in addition to the reference of the
For example, the front light and the front grille are unique to the front surface of the vehicle and have a characteristic shape that can be distinguished from other external parts. Therefore, due to the presence of the front light and the like, at least the front surface is included in the captured image. It can be considered to be included. For this reason, when an external component unique to a specific constituent surface is present in the captured image, the constituent surface corresponding to the unique external component is included in the determination result.
さらに、GPU(Graphics Processing Unit)のメモリ使用量を抑制するために、または、学習効率の向上を図るために、面学習モデル8の軽量化を図ってもよい。その一例として、VGG−16などの汎用モデルにおけるVGGブロック(畳み込み→畳み込み→プーリングで1ブロック)の個数を減らすことや、撮像画像のサイズを小さくすることが挙げられる。VGG−16は、既に学習済のモデルをCNN(畳み込みニューラルネットワーク)に用いる手法、すなわち、転移学習モデルの一つであり、畳み込み層と全結合層との合計16層を含み、畳み込みフィルタの大きさは全て3×3、全結合層は4096ユニット2層、クラス分類用の1000ユニット1層からなる。
Further, the
面判定部3の判定結果は、表示装置12に出力される。図3は、表示装置12に表示される面判定結果の画面表示例を示す図である。この判定結果の表示画面40は、画像表示領域41と、複数の判定結果表示領域42と、複数のチェックボックス43とを有する。画像表示領域41には、推定対象に係る車両の撮像画像が表示される。それぞれの判定結果表示領域42には、車両の構成面の候補(前面、側面、背面)が分類確率付きで表示される。チェックボックス43は、それぞれの判定結果表示領域42に対応して設けられており、所定の条件を満たすものにはチェックマークが付されている。所定の条件としては、構成面の候補の分類確率が所定のしきい値以上であること(この場合は複数にチェックマークが付されることもある。)、構成面の分類確率が最も高いものなどが挙げられる。ユーザは、判定結果が妥当であると判断した場合、判定継続ボタンを押す。また、ユーザは、これが妥当でないと判断した場合、チェックボックス43のチックマークの変更を含む判定結果の修正を行った上で、判定継続ボタンを押す。このアクションによって、面判定部3の判定結果(ユーザによって修正された判定結果を含む。)は、撮像画像と共に部品判定部4に出力される。
The determination result of the
なお、ユーザによって修正された判定結果は、面学習モデル8に反映させてもよい。これにより、構成面の判定における学習深度を深めることができる。
The determination result modified by the user may be reflected in the
部品判定部4は、撮像画像に写し出された外部部品の抽出処理、具体的には、外部部品が写し出されている部品領域と、外部部品の属性とを個別に抽出する。この部品判定では、部品学習モデル9が参照される。この部品学習モデル9は、マルチスケール性や動作速度などを考慮して、YOLOやSSDなどの深層学習による物体検出アルゴリズムに基づき構築されている。
The
図4は、物体検出アルゴリズムの説明図である。同図(a)に示すように、顔検出などで用いられる従来の検出手法では、入力に対する処理として、領域探索、特徴量抽出、機械学習という3つの段階に別れている。すなわち、まず領域探索が行われ、つぎに検出する物体に合わせて特徴抽出が行われ、最後に適切な機械学習手法が選択される。この検出手法では、物体検出を3つのアルゴリズムに別けて実現される。特徴量についても、基本的に、検出対象に応じた専用設計になるため特定の対象しか検出できない。そこで、かかる制約を解消すべく、同図(b)および(c)に示すような深層学習による物体検出アルゴリズムが提案された。同図(b)に示すように、R−CNNなどでは、深層学習を用いることで特徴量抽出が自動で実現される。これによって、ネットワークの設計だけで、色々な物体に対する柔軟な分類が可能になる。しかしながら、領域探索については別処理として依然として残る。そこで、領域探索についても深層学習に含めたものが、YOLO( You Only Look Once)やSSD(Single Shot MultiBox Detector)に代表される同図(c)の手法である。本手法では、入力(撮像画像)を単一のニューラルネットワークに入力することで、項目領域の抽出と、その属性の分類とがまとめて行われる。本手法の特徴として、第1に、回帰問題的なアプローチであることが挙げられる。回帰(Regression)とは、データの傾向から数値を直接予測するアプローチをいい、領域を決めてからそれが何かを分類するのではなく、物体の座標と大きさが直接予測される。第2に、単一のネットワークで処理が完結することである。データ入力した後は深層学習だけで最後(出力結果)までいってしまうという意味で、「End-to-End」の処理ということもできる。 FIG. 4 is an explanatory diagram of the object detection algorithm. As shown in FIG. 6A, the conventional detection method used for face detection and the like is divided into three stages of input processing: area search, feature extraction, and machine learning. That is, first, the area search is performed, then the feature extraction is performed according to the object to be detected, and finally the appropriate machine learning method is selected. In this detection method, object detection is realized by dividing it into three algorithms. As for the feature quantity, basically, only a specific target can be detected because it is designed exclusively for the detection target. Therefore, in order to eliminate such restrictions, an object detection algorithm by deep learning as shown in FIGS. (B) and (c) has been proposed. As shown in FIG. 3B, in R-CNN and the like, feature extraction is automatically realized by using deep learning. This allows flexible classification of various objects simply by designing the network. However, the area search still remains as a separate process. Therefore, the method shown in FIG. 6C, represented by YOLO (You Only Look Once) and SSD (Single Shot MultiBox Detector), includes the area search in the deep learning. In this method, by inputting an input (captured image) to a single neural network, extraction of an item area and classification of its attributes are performed collectively. The first feature of this method is that it is a regression problem approach. Regression is an approach that directly predicts numerical values from the tendency of data, and instead of deciding a region and then classifying what it is, the coordinates and size of an object are directly predicted. Second, the process is completed in a single network. It can also be called "End-to-End" processing in the sense that after data is input, it goes to the end (output result) only by deep learning.
例えば、YOLOの処理は、概ね以下のようになる。まず、入力画像がS×Sの領域に分割される。つぎに、それぞれの領域内における物体の分類確率が導出される。そして、B個(ハイパーパラメータ)のバウンディングボックスのパラメータ(x,y,height,width)と信頼度(confidence)とが算出される。バウンディングボックスとは、物体領域の外接四角形であり、信頼度とは、予測と正解のバウンディングボックスの一致度である。物体検出には、物体の分類確率と、各バウンディングボックスの信頼度との積が用いられる。図5は、YOLOのネットワーク構成図である。YOLOにおいて、撮像画像はCNN(Convolutional Neural Network)層に入力されると共に、複数段の全結合層を経て結果が出力される。出力は、S*S個に分割した画像領域と、信頼度(分類確度)を含むバウンディングボックス(BB)の5パラメータと、クラス数(項目の属性)とを含む。 For example, the processing of YOLO is as follows. First, the input image is divided into S × S regions. Next, the classification probabilities of the objects in each region are derived. Then, the parameters (x, y, height, width) and the confidence (confidence) of B bounding boxes (hyperparameters) are calculated. The bounding box is the circumscribed quadrangle of the object area, and the reliability is the degree of agreement between the predicted and the correct bounding box. For object detection, the product of the classification probability of the object and the reliability of each bounding box is used. FIG. 5 is a network configuration diagram of YOLO. In YOLO, the captured image is input to the CNN (Convolutional Neural Network) layer, and the result is output through a plurality of fully connected layers. The output includes an image area divided into S * S pieces, five parameters of a bounding box (BB) including reliability (classification accuracy), and the number of classes (item attributes).
部品学習モデル9の構築は、車両の構成面毎の外部部品に関するデータを教師データとした教師あり学習によって行われる。具体的には、部品学習モデル9は、車両の写った画像に対し、車両の構成面毎の外部部品の部分をバウンディングボックスで指定した教師データにより学習されることにより行われる。そして、このような教師あり学習により、部品学習モデル9は、撮像画像の入力に応じて、撮像画像における車両部品の領域抽出と分類とを出力する。
なお、教師データは、外部部品の部分画像と、この外部部品の属性とを有し、様々な車種、様々な外部部品、様々な撮影方向などを含めて、多様かつ大量のデータが用いられる。大量のデータを確保するために、あるソース画像に画像処理を施したものも用いられる。ただし、右ヘッドランプ、左ヘッドランプ等を区別するために、画像処理の一つである画像の左右反転は行わない。このような部品学習モデル9を用いることで、車両の損傷の有無やその程度に関わりなく、車両の構成面に含まれる外部部品を判定・抽出することができる。
The parts learning model 9 is constructed by supervised learning using data related to external parts for each constituent surface of the vehicle as teacher data. Specifically, the parts learning model 9 is performed by learning the parts of the external parts for each constituent surface of the vehicle from the image of the vehicle by the teacher data specified by the bounding box. Then, by such supervised learning, the parts learning model 9 outputs the region extraction and classification of the vehicle parts in the captured image in response to the input of the captured image.
The teacher data has a partial image of the external part and an attribute of the external part, and various and large amounts of data are used including various vehicle models, various external parts, various shooting directions, and the like. In order to secure a large amount of data, a source image that has undergone image processing is also used. However, in order to distinguish between the right headlamp and the left headlamp, the image is not flipped horizontally, which is one of the image processing. By using such a parts learning model 9, it is possible to determine and extract external parts included in the constituent surface of the vehicle regardless of the presence or absence of damage to the vehicle and its degree.
部品判定部4は、面判定部3によって判定された車両の構成面に基づいて、部品学習モデル9に基づき特定された外部部品をフィルタリングし、フィルタリングされた外部部品を判定結果として出力する。例えば、構成面の判定結果が前面および側面の場合、部品判定の結果としてテールランプが抽出されたとしても、これが誤判定であることは明らかである。テールランプは背面に存在し、前面および側面には存在し得ないからである。このような相関性は、側面固有のサイドドア、前面固有のヘッドライト、フロントグリル、フロントウインドウなどについても認められる。よって、部品判定の結果として得られた外部部品のうち、構成面の判定結果として得られた構成面に関するもののみを判定結果に含め、それ以外については除外することで、部品判定精度の向上を図ることができる。
The
部品判定部4の判定結果は、表示装置13に出力される。図6は、部品判定結果の画面表示例を示す図である。この判定結果の表示画面50は、画像表示領域51と、複数の判定結果表示領域52と、複数のチェックボックス53とを有する。画像表示領域51には、推定対象に係る車両の撮像画像が表示されると共に、部品判定部4によって抽出された個々の外部部品を示す矩形枠が表示される。判定結果表示領域52には、それぞれの外部部品の候補(右ヘッドライト、左ヘッドライト、フロントウインドウなど)が分類確率付きで表示される。チェックボックス53は、それぞれの判定結果表示領域52に対応して設けられており、所定の条件を満たすものにはチェックマークが付されている。所定の条件としては、典型的には、構成面の候補の分類確率が所定のしきい値以上であることが挙げられる。ユーザは、判定結果が妥当であると判断した場合、判定継続ボタンを押す。また、ユーザは、これが妥当でないと判断した場合、チェックボックス53のチックマークの変更を含む判定結果の修正を行った上で、判定継続ボタンを押す。このアクションによって、部品判定部4の判定結果(ユーザによって修正された判定結果を含む。)は、撮像画像と共に外部損傷判定部5に出力される。
The determination result of the
なお、ユーザによって修正された判定結果は、部品学習モデル9に反映させてもよい。これにより、部品判定の学習深度を深めることができる。 The determination result corrected by the user may be reflected in the component learning model 9. As a result, the learning depth of component determination can be deepened.
外部損傷判定部5は、部品判定部4によって抽出された外部部品毎の損傷状態を判定する。そして、複数の外部部品の損傷状態をまとめた判定結果が外部損傷として出力される。外部損傷の判定は、外部部品の損傷状態に関する教師データを用いた教師あり学習によって構築された状態学習モデル10を参照することによって行われる。状態学習モデル10の構成は、基本的に、面学習モデル8のそれに準ずる。
The external damage determination unit 5 determines the damage state of each external component extracted by the
また、状態学習モデル10の構築は、外部部品の損傷状態に関するデータを教師データとした教師あり学習によって行われる。この教師データは、損傷した外部部品の部分画像と、その損傷状態を分類した属性(例えば、「取替」、「脱着」、損傷程度の「大」、「中」、「小」)とを有し、様々な車種、様々な外部部品、様々な撮影方向などを含めて、多様かつ大量のデータが用いられる。ここで、「取替」は、補修では済まず外部部品自体を交換しなければならない程度の損傷を意味する。「脱着」は、その外部部品自体は損傷を受けていないものの、損傷を受けた他の車両部品の交換・修理のために、車体から一端外されなければならないことを意味する。なお、大量のデータを確保するために、あるソース画像に画像処理を施したものを用いてもよい。このような状態学習モデル10を用いて損傷状態を外部部品毎に判定することで、損傷状態の判定精度の向上を図ることができる。 Further, the state learning model 10 is constructed by supervised learning using data on the damaged state of the external component as teacher data. This teacher data contains a partial image of the damaged external part and the attributes that classify the damaged state (for example, "replacement", "detachment", damage degree "large", "medium", "small"). It has a large amount of diverse data, including various vehicle models, various external parts, and various shooting directions. Here, "replacement" means damage to the extent that the external parts themselves must be replaced rather than being repaired. "Detachment" means that the external parts themselves are not damaged, but must be removed from the vehicle body in order to replace or repair other damaged vehicle parts. In addition, in order to secure a large amount of data, a certain source image that has undergone image processing may be used. By determining the damaged state for each external component using such a state learning model 10, it is possible to improve the accuracy of determining the damaged state.
本実施形態では、外部損傷判定部5として、上述したVGG−16などの汎用モデルをベースとして全結合層のみを取り替えたネットワークを用いている。また、外部部品毎にデータ量のばらつきが大きいことから、少ないデータ量でも学習を行うべく、予めImageN etで学習した重みによるファインチューニングを実施してもよい。ファインチューニングとは、既存のモデルの一部を再利用して、新しいモデルを構築する手法である。さらに、データごとに引き気味の画像と、アップの画像と異なる種類の画像とが混在している場合に対応すべく、アップ画像の選別、対象部位のトリミングによるクレンジングを実施してもよい(トリミングされた画像も一部使用)。 In the present embodiment, the external damage determination unit 5 uses a network in which only the fully connected layer is replaced based on the general-purpose model such as the VGG-16 described above. Further, since the amount of data varies widely for each external component, fine tuning may be performed by the weights learned in advance by ImageN et in order to perform learning even with a small amount of data. Fine tuning is a method of constructing a new model by reusing a part of an existing model. Furthermore, in order to deal with the case where an image that is slightly pulled for each data and an image of a different type from the up image are mixed, the up image may be selected and cleansing may be performed by trimming the target portion (trimming). Some of the images that have been cropped are also used).
外部損傷判定部5の判定結果は、表示装置12に出力される。図7は、表示装置12に表示される外部損傷の判定結果の画面表示例を示す図である。この判定結果の表示画面60は、画像表示領域61と、複数の判定結果表示領域62と、複数のチェックボックス63とを有する。画像表示領域61には、推定対象に係る車両の撮像画像が表示されると共に、外部損傷判定部5によって判定された損傷部位を示す丸枠が表示される。判定結果表示領域62には、損傷状態の候補(取替、脱着、大、中、小)が分類確率付きで表示される。チェックボックス63は、それぞれの判定結果表示領域62に対応して設けられており、所定の条件を満たすものにはチェックマークが付されている。所定の条件としては、典型的には、損傷程度の候補の分類確率が所定のしきい値以上であることが挙げられる。ユーザは、判定結果が妥当であると判断した場合、見積開始継続ボタンを押す。また、ユーザは、これが妥当でないと判断した場合、チェックボックス63のチックマークの変更を含む判定結果の修正を行った上で、見積開始ボタンを押す。このアクションによって、外部損傷判定部5の判定結果(ユーザによって修正された判定結果を含む。)は、撮像画像と共に内部損傷推定部6に出力される。
The determination result of the external damage determination unit 5 is output to the
なお、ユーザによって修正された判定結果は、状態学習モデル10に反映させてもよい。これにより、損傷状態判定の学習深度を深めることができる。 The determination result corrected by the user may be reflected in the state learning model 10. As a result, the learning depth for determining the damage state can be deepened.
内部損傷推定部6は、損傷事例データベース11を参照し、外部損傷判定部5によって判定された外部損傷と類似した損傷事例を抽出することによって、車両の内部損傷を推定する。図8は、損傷事例データベース11の概略的な構成図である。損傷事例データベース11は、過去に発生した実際の損傷事例を大量に保持している(ビックデータ)。それぞれの損傷事例は、ログとして、外部損傷および内部損傷を含む車両の損傷内容を含む。具体的には、車両を構成するそれぞれの車両部品(外部部品および内部部品の双方を含む。)について、0%は損傷なし、100%は全損といった如く、損傷の程度がパーセントで表示されている。例えば、損傷事例1は、フロントバンパーの損傷割合が81%(大)、フロントウインドウの損傷割合が53%(中)、ラジエータの損傷割合が17%(小)、コアサポートの損傷割合が12%(小)であることを示している。そして、外部損傷判定部5の判定結果が、例えば、フロントバンパーの損傷状態が「大」、フロントウインドの損傷状態が「中」であった場合、これと類似したものとして損傷事例1が抽出される。その結果、内部部品の推定結果として、ラジエータの損傷状態が「小」、コアサポートの損傷状態が「小」となる。
The internal
外部損傷判定部5によって判定された外部損傷と類似した損傷事例が複数抽出された場合、これらをサンプルとした統計的な処理によって、車両の内部損傷が推定される。例えば、ある内部部品について、所定の範囲毎に区分された損傷状態のヒストグラムをとり、出現頻度が最も高い損傷状態を採用するといった如くである。 When a plurality of damage cases similar to the external damage determined by the external damage determination unit 5 are extracted, the internal damage of the vehicle is estimated by statistical processing using these as samples. For example, for a certain internal component, a histogram of the damaged state divided into predetermined ranges is taken, and the damaged state having the highest frequency of appearance is adopted.
内部損傷推定部6の推定結果は、外部損傷も含めた車両損傷の推定結果として、表示装置12に出力される。図9は、表示装置12に表示される車両損傷の推定結果の画面表示例を示す図である。この推定結果の表示画面70は、画像表示領域71と、結果表示領域72とを有する。画像表示領域71には、推定対象に係る車両の撮像画像が表示される。結果表示領域72には、損傷した車両部品(外部部品および内部部品を含む。)と、損傷の程度とが表示される。ユーザが終了ボタンを押すことによって、車両損傷推定装置1における一連の処理が終了する。
The estimation result of the internal
また、内部損傷推定部6は、見積テーブルを参照することによって、推定対象に係る車両の修理に要する費用を見積もった上で、ユーザに提示してもよい。この見積テーブルは、外部部品および内部部品を含む車両部品名と、損傷の程度と、工賃を含む費用とが対応付けて保持されている。外部部品については、部品判定部4によって特定された外部部品と、外部損傷判定部5によって判定された損傷状態とに基づき、費用が特定される。また、内部部品については、内部損傷推定部6によって特定された内部部品およびその損傷状態に基づき、費用が算出される。車両の修理に要する費用は、車両部品毎の費用を合算した総額となる。車両の修理に要する費用は、図9に示した表示画面における結果表示領域72に表示される。
Further, the internal
なお、撮像画像の解析によって車種が特定されている場合、または、ユーザによって車種が指定されている場合といった如く、車種が既知であることを前提に費用を算出する設計仕様であれば、見積テーブルの項目として車種(例えば「ABC」)を含めてもよい。このように、車種別に費用を細かく設定することで、車種に応じた見積金額を的確に算出できる。 If the design specifications are such that the vehicle type is specified by the analysis of the captured image, or the vehicle type is specified by the user, and the cost is calculated on the assumption that the vehicle type is known, the estimation table is used. The vehicle type (for example, "ABC") may be included as an item of. In this way, by setting the cost in detail for each vehicle type, it is possible to accurately calculate the estimated amount according to the vehicle type.
このように、本実施形態によれば、機械学習に基づいて外部部品の損傷状態を判定すると共に、これをキーとして損傷事例データベース11を参照することで、内部損傷を推定する。これにより、未知の車両を含む様々な車両について、外部損傷のみならず内部損傷も含んだ損傷推定を柔軟かつ精度よく行うことができる。 As described above, according to the present embodiment, the damage state of the external component is determined based on machine learning, and the internal damage is estimated by referring to the damage case database 11 using this as a key. As a result, it is possible to flexibly and accurately estimate damage including not only external damage but also internal damage for various vehicles including unknown vehicles.
また、本実施形態によれば、撮像画像中に多くの外部部品が物体として検出され得る部品判定については、YOLOやSSDに代表されるように、撮像画像を単一のニューラルネットワーク系に入力し、回帰問題的なアプローチによって車両部品の領域抽出を属性の分類付きでまとめて行う物体検出アルゴリズムを採用する。これにより、部品判定部4における処理の高速化を図ることが可能になる。
Further, according to the present embodiment, for component determination in which many external components can be detected as objects in the captured image, the captured image is input to a single neural network system as represented by YOLO and SSD. , Adopt an object detection algorithm that collectively extracts the area of vehicle parts with attribute classification by a regression problematic approach. This makes it possible to speed up the processing in the
また、本実施形態によれば、部品判定部4の処理に先立ち、面判定部3によって撮像画像における車両の構成面を特定し、その上で、撮像画像に対する部品判定を実行する。これにより、部品判定部4の判定結果として得られた車両部品のうち、面判定部3によって特定された構成面上に存在し得ないものについては誤判定として除外できるため、部品判定の精度向上を図ることができる。
Further, according to the present embodiment, prior to the processing of the
さらに、本実施形態によれば、内部損傷推定部6によって、車両の修理費用を見積もった上で、車両の修理に要する費用をユーザに提示する。これにより、ユーザの利便性を更に高めることができる。
Further, according to the present embodiment, the internal
(変形例1)
本実施形態に係る車両損傷推定装置1では、内部損傷推定部6に代えて、又は追加して見積算出部16を有するものでもよい。ここでは、ユーザによる見積開始ボタンを押下によって、外部損傷判定部(状態判定部)5の判定結果(ユーザによって修正された判定結果を含む。)が、撮像画像と共に見積算出部16に出力される。なお、ユーザによって修正された判定結果は、状態学習モデル10に反映させてもよい。これにより、損傷状態判定の学習深度を深めることができる。
(Modification example 1)
The vehicle
見積算出部16は、見積テーブル21を参照することによって、判定対象に係る車両の修理に要する費用を見積もる。図10は、見積テーブル21の概略的な構成図である。この見積テーブル21は、車両部品名と、損傷の程度と、工賃を含む費用とが対応付けて保持されている。部品判定部4によって特定された車両部品と、外部損傷判定部5によって判定されたその車両部品の損傷状態とをキーに見積テーブル21を検索することによって、費用が車両部品別に特定される。車両の修理に要する費用は、車両部品毎の費用を合算した総額となる。例えば、部品判定部4によって「フロントバンパー」および「ヘッドライト」が抽出され、外部損傷判定部5によって前車の損傷程度が「中」、後者の損傷程度が「小」と判定された場合、前者の工賃が「\200,000」、後者の工賃が「\30,000」となり、総額は「\ 230,000」となる。
The estimation calculation unit 16 estimates the cost required for repairing the vehicle related to the determination target by referring to the estimation table 21. FIG. 10 is a schematic configuration diagram of the estimation table 21. The estimation table 21 holds the vehicle part name, the degree of damage, and the cost including wages in association with each other. The cost is specified for each vehicle part by searching the estimation table 21 using the vehicle parts specified by the
なお、撮像画像の解析によって車種が特定されている場合、または、ユーザによって車種が指定されている場合といった如く、車種が既知であることを前提に費用を算出する設計仕様であれば、見積テーブル21の項目として車種(例えば「ABC」)を含めてもよい。このように、車種別に費用を細かく設定することで、車種に応じた見積金額を的確に算出できる。 If the design specifications are such that the vehicle type is specified by the analysis of the captured image, or the vehicle type is specified by the user, and the cost is calculated on the assumption that the vehicle type is known, the estimation table is used. The vehicle type (for example, "ABC") may be included as the item of 21. In this way, by setting the cost in detail for each vehicle type, it is possible to accurately calculate the estimated amount according to the vehicle type.
見積算出部16の見積結果は、表示装置12に出力される。図11は、表示装置12に表示される見積結果の画面表示例を示す図である。この見積結果の表示画面70は、画像表示領域71と、結果表示領域72とを有する。画像表示領域71には、判定対象に係る車両の撮像画像が表示される。結果表示領域72には、損傷した車両部品(パーツ)と、損傷の程度と、費用とが表示される。損傷した車両部品が複数存在する場合、個別の費用と共に総額も表示される。ユーザが終了ボタンを押すことによって、車両損傷推定装置1における一連の処理が終了する。
The estimation result of the estimation calculation unit 16 is output to the
以上説明したように、外部損傷判定部5によって判定された車両部品毎の損傷状態から、車両の修理費用を見積もる見積算出部16を設けることで、車両の修理に要する費用をユーザに提示する。これにより、ユーザの利便性を更に高めることができる。 As described above, by providing the estimation calculation unit 16 that estimates the vehicle repair cost from the damage state of each vehicle part determined by the external damage determination unit 5, the cost required for vehicle repair is presented to the user. As a result, the convenience of the user can be further enhanced.
(変形例2)
本実施形態に係る車両損傷推定装置1では、面判定部3と部品判定部4とを別のモデルとして構築することにより、判定対象の領域を限定している。これにより、判定精度の高めることができる。ただし、このような形態に限定されるものではなく、面判定部3と部品判定部4とは同一モデルとして構築することも可能である。
(Modification 2)
In the vehicle
(変形例3)
また、本実施形態では、部品学習モデル9は、車両の写った画像に対し、車両部品の部分をバウンディングボックスで指定した教師データによる学習により構築されるものとしたが、部品学習モデル9の構築はこれに限定されるものではない。例えば、部品学習モデル9は、車両の写った画像に対し、車両部品の部分に対応するピクセルを指定した教師データによる学習により構築されるものでもよい。具体的には、U-Netのようなネットワーク構造により構築されるものでも良い。さらに、部品学習モデル9は、これらを統合したモデルであってもよい。すなわち、部品学習モデル9は、車両の写った画像に対し、車両部品の部分をバウンディングボックスで指定した教師データであって、車両部品の部分に対応するピクセルを指定した教師データ(Mask R-CNN)による学習により構築されるものでもよい。要するに、本実施形態に係る物体検出アルゴリズムは、YOLOやSSDなどのモデルに限定されるものではなく、Semantic segmentationやInstance segmentationなどのモデルであってもよい。また、物体の領域抽出と分類とが可能な任意のモデルを採用することができる。
(Modification example 3)
Further, in the present embodiment, the parts learning model 9 is constructed by learning the vehicle parts with the teacher data specified by the bounding box with respect to the image of the vehicle, but the parts learning model 9 is constructed. Is not limited to this. For example, the parts learning model 9 may be constructed by learning the image of the vehicle with the teacher data in which the pixels corresponding to the parts of the vehicle parts are specified. Specifically, it may be constructed by a network structure such as U-Net. Further, the component learning model 9 may be a model in which these are integrated. That is, the parts learning model 9 is teacher data in which the part of the vehicle parts is designated by the bounding box for the image of the vehicle, and the teacher data (Mask R-CNN) in which the pixels corresponding to the parts of the vehicle are designated. ) May be constructed by learning. In short, the object detection algorithm according to the present embodiment is not limited to a model such as YOLO or SSD, and may be a model such as Semantic segmentation or Instance segmentation. In addition, any model capable of extracting and classifying the area of the object can be adopted.
(変形例4)
また、本実施形態では、外部損傷判定部5に関し、状態学習モデル10の構成が面学習モデル8のそれに準ずるとしたが、このような形態に限定されるものではない。状態学習モデル10は、部品学習モデル9と同様の物体検出アルゴリズムを採用するものでもよい。具体的に、状態学習モデル10は、凹み及び/又は擦り傷の状態判定では、上述の物体検出アルゴリズムを用いることで判定精度を高めることができる。
(Modification example 4)
Further, in the present embodiment, regarding the external damage determination unit 5, the configuration of the state learning model 10 is similar to that of the
1 車両損傷推定装置
2 画像受付部
3 面判定部
4 部品判定部
5 外部損傷判定部
6 内部損傷推定部
7 入出力インターフェース
8 面学習モデル
9 部品学習モデル
10 状態学習モデル
11 損傷事例データベース
12 表示装置
16 見積算出部
21 見積テーブル
1 Vehicle
Claims (15)
車両部品に関するデータを教師データとした教師あり学習によって構築された部品学習モデルを参照して、撮像画像における車両の外部部品を判定する部品判定部と、
外部部品の損傷状態に関するデータを教師データとした教師あり学習によって構築された状態学習モデルを参照して、前記部品判定部によって判定された外部部品毎の損傷状態を外部損傷として判定する外部損傷判定部と、を備え、
前記部品学習モデルは、車両の写った画像に対し、当該車両における外部部品の部分をバウンディングボックスで指定した教師データ又は当該車両における外部部品の部分に対応するピクセルを指定した教師データのいずれか若しくは両方の教師データによる学習により構築されたものであり、前記撮像画像の入力に応じて、前記撮像画像における前記外部部品の領域抽出と分類とを出力する、
車両損傷推定装置。 In the vehicle damage estimation device that estimates the damage state of the vehicle from the captured image,
A parts determination unit that determines external parts of the vehicle in the captured image by referring to the parts learning model constructed by supervised learning using data related to vehicle parts as teacher data.
External damage determination that determines the damage state of each external part determined by the component determination unit as external damage by referring to the state learning model constructed by supervised learning using data related to the damage state of external parts as supervised learning. With a department,
The parts learning model is either the teacher data in which the part of the external part in the vehicle is specified by the bounding box or the teacher data in which the pixel corresponding to the part of the external part in the vehicle is specified with respect to the image of the vehicle. It is constructed by learning with both teacher data, and outputs the region extraction and classification of the external component in the captured image in response to the input of the captured image.
Vehicle damage estimation device.
請求項1に記載された車両損傷推定装置。 The component learning model is constructed by YOLO or SSD.
The vehicle damage estimation device according to claim 1.
請求項1に記載された車両損傷推定装置。 The component learning model is constructed by Mask R-CNN.
The vehicle damage estimation device according to claim 1.
前記部品判定部は、前記面判定部によって判定された前記構成面に基づいて外部部品を判定結果として出力する、
請求項1から3のいずれか1項に記載された車両損傷推定装置。 It also has a surface determination unit that determines the constituent surface of the vehicle in the captured image by referring to the surface learning model constructed by supervised learning using the data related to the constituent surface of the vehicle as supervised learning.
The component determination unit outputs an external component as a determination result based on the constituent surface determined by the surface determination unit.
The vehicle damage estimation device according to any one of claims 1 to 3.
請求項4に記載された車両損傷推定装置。 When an external component unique to a specific constituent surface is present in the captured image, the surface determination unit includes the constituent surface corresponding to the unique external component in the determination result.
The vehicle damage estimation device according to claim 4.
請求項1から5のいずれか1項に記載された車両損傷推定装置。 By referring to the estimation table in which the repair cost associated with the damaged state of the external part is held for each external part, the repair cost of the vehicle is estimated from the damaged state of each external part determined by the state determination unit. It also has an estimate calculation unit,
The vehicle damage estimation device according to any one of claims 1 to 5.
請求項1から6のいずれか1項に記載された車両損傷推定装置。 At least one of the transfer of the process from the surface determination unit to the component determination unit, the transfer of the process from the component determination unit to the state determination unit, and the transfer of the process from the state determination unit to the estimate calculation unit. One is performed on the condition that the user's approval is obtained after allowing the user to modify the judgment result.
The vehicle damage estimation device according to any one of claims 1 to 6.
をさらに備える、請求項1から7のいずれか1項に記載の車両損傷推定装置。 By referring to the damage case database that holds past damage cases including the damage contents of the vehicle including external damage and internal damage, and extracting damage cases similar to the external damage determined by the external damage determination unit, the vehicle Internal damage estimation unit, which estimates the internal damage of
The vehicle damage estimation device according to any one of claims 1 to 7, further comprising.
車両部品に関するデータを教師データとした教師あり学習によって構築された部品学習モデルを参照して、撮像画像における車両の外部部品を判定する部品判定部と、
外部部品の損傷状態に関するデータを教師データとした教師あり学習によって構築された状態学習モデルを参照して、前記部品判定部によって判定された外部部品毎の損傷状態を外部損傷として判定する外部損傷判定部と、
外部損傷および内部損傷を含む車両の損傷内容を含む過去の損傷事例を保持する損傷事例データベースを参照し、前記外部損傷判定部によって判定された外部損傷と類似した損傷事例を抽出することによって、車両の内部損傷を推定する内部損傷推定部と、
を備える車両損傷推定装置。 In the vehicle damage estimation device that estimates the damage state of the vehicle from the captured image,
A parts determination unit that determines external parts of the vehicle in the captured image by referring to the parts learning model constructed by supervised learning using data related to vehicle parts as teacher data.
External damage determination that determines the damage state of each external part determined by the component determination unit as external damage by referring to the state learning model constructed by supervised learning using data related to the damage state of external parts as supervised learning. Department and
By referring to the damage case database that holds past damage cases including the damage contents of the vehicle including external damage and internal damage, and extracting damage cases similar to the external damage determined by the external damage determination unit, the vehicle Internal damage estimation unit that estimates the internal damage of
A vehicle damage estimation device equipped with.
請求項9に記載された車両損傷推定装置。 The internal damage estimation unit estimates the internal damage of the vehicle based on a plurality of damage cases similar to the external damage determined by the external damage determination unit.
The vehicle damage estimation device according to claim 9.
前記外部損傷判定部によって判定された外部損傷と、前記内部損傷推定部によって推定された内部損傷とに基づいて、車両の修理費用を見積もる、
請求項9または10に記載された車両損傷推定装置。 The internal damage estimation unit
The vehicle repair cost is estimated based on the external damage determined by the external damage determination unit and the internal damage estimated by the internal damage estimation unit.
The vehicle damage estimation device according to claim 9 or 10.
車両部品に関するデータを教師データとした教師あり学習によって構築された部品学習モデルを参照して、撮像画像における車両の外部部品を判定する部品判定ステップと、
外部部品の損傷状態に関するデータを教師データとした教師あり学習によって構築された状態学習モデルを参照して、前記部品判定部によって判定された外部部品毎の損傷状態を外部損傷として判定する外部損傷判定ステップと、
を有する処理をコンピュータに実行させるものであり、
前記部品学習モデルは、車両の写った画像に対し、当該車両における外部部品の部分をバウンディングボックスで指定した教師データ又は当該車両における外部部品の部分に対応するピクセルを指定した教師データのいずれか若しくは両方の教師データによる学習により構築されたものであり、前記撮像画像の入力に応じて、前記撮像画像における前記外部部品の領域抽出と分類とを出力する、
車両損傷推定プログラム。 In a vehicle damage estimation program that estimates the damage state of a vehicle from captured images,
With reference to the parts learning model constructed by supervised learning using data related to vehicle parts as teacher data, a part determination step for determining external parts of the vehicle in the captured image, and
External damage determination that determines the damage state of each external part determined by the component determination unit as external damage by referring to the state learning model constructed by supervised learning using data related to the damage state of external parts as supervised learning. Steps and
Is to make the computer execute the process having
The parts learning model is either the teacher data in which the part of the external part in the vehicle is specified by the bounding box or the teacher data in which the pixel corresponding to the part of the external part in the vehicle is specified with respect to the image of the vehicle. It is constructed by learning with both teacher data, and outputs the region extraction and classification of the external component in the captured image in response to the input of the captured image.
Vehicle damage estimation program.
車両部品に関するデータを教師データとした教師あり学習によって構築された部品学習モデルを参照して、撮像画像における車両の外部部品を判定する部品判定ステップと、
外部部品の損傷状態に関するデータを教師データとした教師あり学習によって構築された状態学習モデルを参照して、前記部品判定部によって判定された外部部品毎の損傷状態を外部損傷として判定する外部損傷判定ステップと、
外部損傷および内部損傷を含む車両の損傷内容を含む過去の損傷事例を保持する損傷事例データベースを参照し、前記外部損傷判定部によって判定された外部損傷と類似した損傷事例を抽出することによって、車両の内部損傷を推定する内部損傷推定ステップと、
を備える車両損傷推定プログラム。 In a vehicle damage estimation program that estimates the damage state of a vehicle from captured images,
With reference to the parts learning model constructed by supervised learning using data related to vehicle parts as teacher data, a part determination step for determining external parts of the vehicle in the captured image, and
External damage determination that determines the damage state of each external part determined by the component determination unit as external damage by referring to the state learning model constructed by supervised learning using data related to the damage state of external parts as supervised learning. Steps and
By referring to the damage case database that holds past damage cases including the damage contents of the vehicle including external damage and internal damage, and extracting damage cases similar to the external damage determined by the external damage determination unit, the vehicle Internal damage estimation step to estimate internal damage and
Vehicle damage estimation program with.
車両部品に関するデータを教師データとした教師あり学習によって構築された部品学習モデルを参照して、撮像画像における車両の外部部品を判定する部品判定ステップと、
外部部品の損傷状態に関するデータを教師データとした教師あり学習によって構築された状態学習モデルを参照して、前記部品判定部によって判定された外部部品毎の損傷状態を外部損傷として判定する外部損傷判定ステップと、
を含み、
前記部品学習モデルは、車両の写った画像に対し、当該車両における外部部品の部分をバウンディングボックスで指定した教師データ又は当該車両における外部部品の部分に対応するピクセルを指定した教師データのいずれか若しくは両方の教師データによる学習により構築されたものであり、前記撮像画像の入力に応じて、前記撮像画像における前記外部部品の領域抽出と分類とを出力する、
車両損傷推定方法。 In the vehicle damage estimation method for estimating the damage state of the vehicle from the captured image,
With reference to the parts learning model constructed by supervised learning using data related to vehicle parts as teacher data, a part determination step for determining external parts of the vehicle in the captured image, and
External damage determination that determines the damage state of each external part determined by the component determination unit as external damage by referring to the state learning model constructed by supervised learning using data related to the damage state of external parts as supervised learning. Steps and
Including
The parts learning model is either the teacher data in which the part of the external part in the vehicle is specified by the bounding box or the teacher data in which the pixel corresponding to the part of the external part in the vehicle is specified with respect to the image of the vehicle. It is constructed by learning with both teacher data, and outputs the region extraction and classification of the external component in the captured image in response to the input of the captured image.
Vehicle damage estimation method.
車両部品に関するデータを教師データとした教師あり学習によって構築された部品学習モデルを参照して、撮像画像における車両の外部部品を判定する部品判定ステップと、
外部部品の損傷状態に関するデータを教師データとした教師あり学習によって構築された状態学習モデルを参照して、前記部品判定部によって判定された外部部品毎の損傷状態を外部損傷として判定する外部損傷判定ステップと、
外部損傷および内部損傷を含む車両の損傷内容を含む過去の損傷事例を保持する損傷事例データベースを参照し、前記外部損傷判定部によって判定された外部損傷と類似した損傷事例を抽出することによって、車両の内部損傷を推定する内部損傷推定ステップと、
を含む車両損傷推定方法。
In the vehicle damage estimation method for estimating the damage state of the vehicle from the captured image,
With reference to the parts learning model constructed by supervised learning using data related to vehicle parts as teacher data, a part determination step for determining external parts of the vehicle in the captured image, and
External damage determination that determines the damage state of each external part determined by the component determination unit as external damage by referring to the state learning model constructed by supervised learning using data related to the damage state of external parts as supervised learning. Steps and
By referring to the damage case database that holds past damage cases including the damage contents of the vehicle including external damage and internal damage, and extracting damage cases similar to the external damage determined by the external damage determination unit, the vehicle Internal damage estimation step to estimate internal damage and
Vehicle damage estimation method including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020070114A JP6991519B2 (en) | 2020-04-08 | 2020-04-08 | Vehicle damage estimation device, its estimation program and its estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020070114A JP6991519B2 (en) | 2020-04-08 | 2020-04-08 | Vehicle damage estimation device, its estimation program and its estimation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021167991A true JP2021167991A (en) | 2021-10-21 |
JP6991519B2 JP6991519B2 (en) | 2022-01-12 |
Family
ID=78079735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020070114A Active JP6991519B2 (en) | 2020-04-08 | 2020-04-08 | Vehicle damage estimation device, its estimation program and its estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6991519B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11184933A (en) * | 1997-12-19 | 1999-07-09 | Tajima Kiko:Kk | Vehicle repair estimating device |
JP2012009073A (en) * | 2011-09-28 | 2012-01-12 | Fujitsu Ltd | Specific portion extraction program |
JP2019114059A (en) * | 2017-12-22 | 2019-07-11 | 三井住友海上火災保険株式会社 | Determination device, repair cost determination system, determination method, and determination program |
JP2019115487A (en) * | 2017-12-27 | 2019-07-18 | 株式会社日立製作所 | Ultrasonic imaging device, image processing device, and method |
WO2019142243A1 (en) * | 2018-01-16 | 2019-07-25 | オリンパス株式会社 | Image diagnosis support system and image diagnosis support method |
-
2020
- 2020-04-08 JP JP2020070114A patent/JP6991519B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11184933A (en) * | 1997-12-19 | 1999-07-09 | Tajima Kiko:Kk | Vehicle repair estimating device |
JP2012009073A (en) * | 2011-09-28 | 2012-01-12 | Fujitsu Ltd | Specific portion extraction program |
JP2019114059A (en) * | 2017-12-22 | 2019-07-11 | 三井住友海上火災保険株式会社 | Determination device, repair cost determination system, determination method, and determination program |
JP2019115487A (en) * | 2017-12-27 | 2019-07-18 | 株式会社日立製作所 | Ultrasonic imaging device, image processing device, and method |
WO2019142243A1 (en) * | 2018-01-16 | 2019-07-25 | オリンパス株式会社 | Image diagnosis support system and image diagnosis support method |
Non-Patent Citations (1)
Title |
---|
藤原 弘将: "解説 基礎研究", 画像ラボ 第30巻 第1号 IMAGE LABORATORY, vol. 第30巻, JPN6021007173, 10 January 2019 (2019-01-10), JP, pages 57 - 67, ISSN: 0004543164 * |
Also Published As
Publication number | Publication date |
---|---|
JP6991519B2 (en) | 2022-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11144889B2 (en) | Automatic assessment of damage and repair costs in vehicles | |
CN102332092B (en) | Flame detection method based on video analysis | |
WO2023065395A1 (en) | Work vehicle detection and tracking method and system | |
CN110210474B (en) | Target detection method and device, equipment and storage medium | |
Romdhane et al. | An improved traffic signs recognition and tracking method for driver assistance system | |
CN104424634A (en) | Object tracking method and device | |
KR20190137669A (en) | Apparatus, method and computer program for automatically calculating the damage | |
CN108648211A (en) | A kind of small target detecting method, device, equipment and medium based on deep learning | |
CN110502977B (en) | Building change classification detection method, system, device and storage medium | |
US20220358669A1 (en) | Methods and systems of utilizing image processing systems to measure objects | |
JPWO2020071560A1 (en) | Vehicle damage estimation device, its estimation program and its estimation method | |
JPWO2020071559A1 (en) | Vehicle condition judgment device, its judgment program and its judgment method | |
CN114863464B (en) | Second-order identification method for PID drawing picture information | |
JP6991519B2 (en) | Vehicle damage estimation device, its estimation program and its estimation method | |
CA3131758A1 (en) | Image processing system | |
CN111191584B (en) | Face recognition method and device | |
US20230012796A1 (en) | Identification of a vehicle having various disassembly states | |
KR102197724B1 (en) | Apparatus for crashworthiness prediction and method thereof | |
CN110175622B (en) | Vehicle component identification method and system based on convolutional neural network of symbiotic relationship | |
CN111178200A (en) | Identification method of instrument panel indicator lamp and computing equipment | |
CN115546824B (en) | Taboo picture identification method, apparatus and storage medium | |
CN114972540A (en) | Target positioning method and device, electronic equipment and storage medium | |
CN112365324A (en) | Commodity picture detection method suitable for E-commerce platform | |
Jarraya et al. | Adaptive moving shadow detection and removal by new semi-supervised learning technique | |
US11604940B2 (en) | Systems and methods for part identification and assessment using multiple images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201006 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201006 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201006 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210212 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6991519 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |