JP6905081B2 - 車両損失査定画像を取得するための方法および装置、サーバ、ならびに端末デバイス - Google Patents

車両損失査定画像を取得するための方法および装置、サーバ、ならびに端末デバイス Download PDF

Info

Publication number
JP6905081B2
JP6905081B2 JP2019558552A JP2019558552A JP6905081B2 JP 6905081 B2 JP6905081 B2 JP 6905081B2 JP 2019558552 A JP2019558552 A JP 2019558552A JP 2019558552 A JP2019558552 A JP 2019558552A JP 6905081 B2 JP6905081 B2 JP 6905081B2
Authority
JP
Japan
Prior art keywords
damaged
site
image
video
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019558552A
Other languages
English (en)
Other versions
JP2020518078A (ja
Inventor
ハイタオ チャン
ハイタオ チャン
チンロン ホウ
チンロン ホウ
シン クオ
シン クオ
ユアン チョン
ユアン チョン
チエン ワン
チエン ワン
チュアン シュイ
チュアン シュイ
ファン チョウ
ファン チョウ
カン チャン
カン チャン
Original Assignee
アドバンスド ニュー テクノロジーズ カンパニー リミテッド
アドバンスド ニュー テクノロジーズ カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アドバンスド ニュー テクノロジーズ カンパニー リミテッド, アドバンスド ニュー テクノロジーズ カンパニー リミテッド filed Critical アドバンスド ニュー テクノロジーズ カンパニー リミテッド
Publication of JP2020518078A publication Critical patent/JP2020518078A/ja
Application granted granted Critical
Publication of JP6905081B2 publication Critical patent/JP6905081B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本出願は、コンピュータ画像データ処理技術の分野に関し、より詳細には、車両損失査定画像(vehicle loss assessment image)を取得するための方法、装置、サーバ、および端末デバイスに関する。
車両の交通事故が発生した後、保険会社は、保険金請求を行う車両に対して損失査定および損失検証を行い、また、保険金請求の資料を保管するために、いくつかの損失査定画像を必要とする。
現在、車両損失査定画像は通常、係員(operator)が現場で撮影することによって取得され、そして、現場で撮影された写真に応じて車両損失査定処理が行われる。車両損失査定画像は、損傷車両の損傷部位、損傷部品、損傷タイプ、および損傷の程度などの情報を明瞭に反映する必要がある。通常、撮影者は、専門的な車両損失査定に関連する知識があり、損失査定処理要件を満たす画像を撮影できることが求められる。これは明らかに、人材育成および損失査定処理の経験の積み重ねに関する比較的大きなコストを必要とする。また、交通事故後にできるだけ早く車両を退避または移動させる必要がある一部の状況が存在するが、保険会社の係員が事故現場に到着するまでに比較的長い時間がかかる。そして、車両の所有者が主導権を握って写真を撮るか、または保険会社の係員の要求に応じて最初に写真を撮って、オリジナルの損失査定画像を取得する場合、車両の所有者は専門家ではないので、車両の所有者によって取得された損失査定画像は、損失査定画像処理要件を満たさないことが多い。また、係員により現場で撮影された画像は、後で撮影デバイスからエクスポートし、手動でスクリーニングして、適格な損失査定画像を決定する必要があることが多い。これもまた、比較的多くの人手および時間が必要になるので、損失査定処理に必要な最終的な損失査定画像の取得効率が低下する。
保険会社の係員または車両の所有者によって損失査定画像を取得する既存の方式では、専門的な車両損失査定に関連する知識が必要となる。人手および時間のコストは比較的高く、損失査定処理要件を満たす損失査定画像を取得する効率は依然として比較的低い。
本出願の目的は、撮影者により実行される損傷車両の損傷部位のビデオ録画によって、損失査定処理要件を満たす高品質な損失査定画像を自動的かつ迅速に生成することによって、損失査定画像の取得効率を高め、係員の作業を容易にする、車両損失査定画像を取得するための方法、装置、サーバ、および端末デバイスを提供することである。
本出願で提供する車両損失査定画像を取得するための方法、装置、サーバ、および端末デバイスは、以下のように実現される。
車両損失査定画像を取得するための方法は、
クライアントにより、キャプチャされたビデオ・データを取得し、キャプチャされたビデオ・データをサーバに送信することと、
サーバにより、キャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出して、1つまたは複数のビデオ画像内の損傷部位を識別することと、
サーバにより、識別された損傷部位に基づいて1つまたは複数のビデオ画像を分類して、損傷部位の1つまたは複数の候補画像分類セットを決定することと、
事前設定されたスクリーニング条件に従って1つまたは複数の候補画像分類セットから車両損失査定画像を選択することと
を含む。
車両損失査定画像を取得するための方法は、
端末デバイスによりアップロードされた損傷車両のキャプチャされたビデオ・データを受信し、キャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出して、1つまたは複数のビデオ画像内の損傷部位を識別することと、
識別された損傷部位に基づいて1つまたは複数のビデオ画像を分類して、損傷部位の1つまたは複数の候補画像分類セットを決定することと、
事前設定されたスクリーニング条件に従って1つまたは複数の候補画像分類セットから車両損失査定画像を選択することと
を含む。
車両損失査定画像を取得するための方法は、
損傷車両のビデオ録画を実行して、キャプチャされたビデオ・データを取得することと、
キャプチャされたビデオ・データを処理端末に送信することと、
処理端末により返された、ビデオ・データ内の損傷部位のリアルタイム追跡によって取得された位置領域(location region)を受信し、追跡された位置領域を表示することと
を含み、損傷部位は処理端末によりキャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出することによって識別される。
車両損失査定画像を取得するための方法は、
損傷車両のキャプチャされたビデオ・データを受信することと、
キャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出して、1つまたは複数のビデオ画像内の損傷部位を識別することと、
識別された損傷部位に基づいて1つまたは複数のビデオ画像を分類して、損傷部位の1つまたは複数の候補画像分類セットを決定することと、
事前設定されたスクリーニング条件に従って1つまたは複数の候補画像分類セットから車両損失査定画像を選択することと
を含む。
車両損失査定画像を取得するための装置は、
端末デバイスによりアップロードされた損傷車両のキャプチャされたビデオ・データを受信するように構成されるデータ受信モジュールと、
キャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出して、1つまたは複数のビデオ画像内の損傷部位を識別するように構成される損傷部位識別モジュールと、
識別された損傷部位に基づいて1つまたは複数のビデオ画像を分類して、損傷部位の1つまたは複数の候補画像分類セットを決定するように構成される分類モジュールと、
事前設定されたスクリーニング条件に従って1つまたは複数の候補画像分類セットから車両損失査定画像を選択するように構成されるスクリーニング・モジュールと
を含む。
車両損失査定画像を取得するための装置は、
損傷車両のビデオ録画を実行して、キャプチャされたビデオ・データを取得するように構成される撮影モジュールと、
キャプチャされたビデオ・データを処理端末に送信するように構成される通信モジュールと、
処理端末により返された、ビデオ・データ内の損傷部位のリアルタイム追跡によって取得された位置領域を受信し、追跡された位置領域を表示するように構成される追跡モジュールと
を含み、損傷部位は処理端末によりキャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出することによって識別される。
車両損失査定画像を取得する装置は、プロセッサと、プロセッサにより実行可能な命令を記憶するように構成されるメモリとを含み、プロセッサは命令を実行して、
損傷車両のキャプチャされたビデオ・データを受信することと、
キャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出して、1つまたは複数のビデオ画像内の損傷部位を識別することと、
識別された損傷部位に基づいて1つまたは複数のビデオ画像を分類して、損傷部位の1つまたは複数の候補画像分類セットを決定することと、
事前設定されたスクリーニング条件に従って1つまたは複数の候補画像分類セットから車両損失査定画像を選択することと
を実施する。
コンピュータ可読記憶媒体であって、コンピュータ可読記憶媒体はコンピュータ命令を記憶し、命令が実行された場合に、
損傷車両のキャプチャされたビデオ・データを受信するステップと、
キャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出して、1つまたは複数のビデオ画像内の損傷部位を識別するステップと、
識別された損傷部位に基づいて1つまたは複数のビデオ画像を分類して、損傷部位の1つまたは複数の候補画像分類セットを決定するステップと、
事前設定されたスクリーニング条件に従って1つまたは複数の候補画像分類セットから車両損失査定画像を選択するステップと
が実施される、コンピュータ可読記憶媒体。
コンピュータ可読記憶媒体であって、コンピュータ可読記憶媒体はコンピュータ命令を記憶し、命令が実行された場合に、
損傷車両のビデオ録画を実行して、キャプチャされたビデオ・データを取得するステップと、
キャプチャされたビデオ・データを処理端末に送信するステップと、
処理端末により返された、ビデオ・データ内の損傷部位のリアルタイム追跡によって取得された位置領域を受信し、追跡された位置領域を表示するステップと
が実施され、損傷部位は処理端末によりキャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出することによって識別される、コンピュータ可読記憶媒体。
サーバは、プロセッサと、プロセッサにより実行可能な命令を記憶するように構成されるメモリとを含み、プロセッサは命令を実行して、
端末デバイスによりアップロードされた損傷車両のキャプチャされたビデオ・データを受信し、キャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出して、1つまたは複数のビデオ画像内の損傷部位を識別することと、
識別された損傷部位に基づいて1つまたは複数のビデオ画像を分類して、損傷部位の1つまたは複数の候補画像分類セットを決定することと、
事前設定されたスクリーニング条件に従って1つまたは複数の候補画像分類セットから車両損失査定画像を選択することと
を実施する。
端末デバイスは、プロセッサと、プロセッサにより実行可能な命令を記憶するように構成されるメモリとを含み、プロセッサは命令を実行して、
損傷車両のビデオ・キャプチャによってキャプチャされたビデオ・データを取得することと、
キャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出して、1つまたは複数のビデオ画像内の損傷部位を識別することと、
検出された損傷部位に基づいて1つまたは複数のビデオ画像を分類して、損傷部位の1つまたは複数の候補画像分類セットを決定することと、
事前設定されたスクリーニング条件に従って1つまたは複数の候補画像分類セットから車両損失査定画像を選択することと
を実施する。
本出願で提供する車両損失査定画像を取得するための方法、装置、サーバおよび端末デバイスは、ビデオベースの車両損失査定画像を自動的に生成する解決策を提案する。撮影者は端末デバイスを使用して損傷車両のビデオ録画を実行することができ、キャプチャされたビデオ・データはシステムのサーバに送信することができ、次いで、サーバはビデオ・データを分析し、損傷部位を識別し、損傷部位に応じて損失査定に必要な様々なタイプの候補画像を取得する。そして、候補画像から損傷車両の損失査定画像を生成することができる。本出願の実装例によれば、損失査定処理要件を満たす高品質な損失査定画像を自動的かつ迅速に生成することができ、それによって損失査定処理要件が満たされ、損失査定画像を取得する効率が高まり、また、保険会社の係員により損失査定画像を取得および処理するコストが削減される。
本出願の実施形態または既存技術における技術的解決策をより明確に説明するために、実施形態または既存技術を説明するための添付図面を以下に簡単に説明する。明らかに、以下の説明における添付図面は本出願の単に一部の実施形態を示すものであり、当業者であれば、これらの添付図面から創造的労力なしに他の図面をさらに取得するであろう。
本出願による車両損失査定画像を取得するための方法の一実施形態の概略フローチャートである。 本出願による方法を使用して構築されるビデオ画像内の損傷部位を識別するためのモデルの概略構造図である。 本出願による方法における損傷検出モデルを使用して損傷部位を識別する実施シナリオの概略図である。 本出願の一実施形態による、識別された損傷部位に基づいてクローズ・アップ画像を決定する概略図である。 本出願による方法を使用して構築されるビデオ画像内の損傷部品を識別するためのモデルの概略構造図である。 本出願による車両損失査定画像を取得するための方法の処理シナリオの概略図である。 本出願による方法の別の実施形態の概略フローチャートである。 本出願による方法の別の実施形態の概略フローチャートである。 本出願による方法の別の実施形態の概略フローチャートである。 本出願による方法の別の実施形態の概略フローチャートである。 本出願による車両損失査定画像を取得するための装置の一実施形態のモジュールの概略構造図である。 本出願による車両損失査定画像を取得するための別の装置の一実施形態のモジュールの概略構造図である。 本出願による端末デバイスの一実施形態の概略構造図である。
当業者が本出願の技術的解決策をよりよく理解できるようにするために、本出願の実施形態の添付図面を参照して、本出願の実施形態の技術的解決策を以下に明確かつ完全に説明する。明らかに、説明する実施形態は、本出願の実施形態の一部にすぎず、全てではない。当業者により本出願の実施形態に基づいて創造的労力なしに取得される他の全ての実施形態は、本出願の保護範囲内に入るものとする。
図1は、本出願による車両損失査定画像を取得するための方法の一実施形態の概略フローチャートである。本出願では、以下の実施形態または添付図面に示す方法動作ステップまたは装置構造を提供するが、慣例の作業に基づくかまたは創造的労力なしの、より多くの動作ステップまたはモジュール・ユニット、あるいは一部の動作ステップまたはモジュール・ユニットを統合して可能になるより少ない動作ステップまたはモジュール・ユニットは、これらの方法または装置に含めることができる。論理上必要な因果関係が存在しないステップまたは構造では、ステップの実行順序または装置のモジュール構造は、本出願の実施形態または添付図面に示す実行順序またはモジュール構造に限定されない。方法またはモジュール構造が実際に装置、サーバ、または端末製品に適用される場合、実施形態または添付図面に示す方法またはモジュール構造に従って、順次実行または並列実行が(たとえば、並列プロセッサまたはマルチ・スレッド処理環境で、さらには、分散処理およびサーバ・クラスタリングを含む環境で)行われてもよい。
明瞭にするために、以下の実施形態は、撮影者がモバイル端末を使用してビデオ録画を実行し、サーバがキャプチャされたビデオ・データを処理して1つまたは複数の損失査定画像を取得する実施シナリオを一例として説明する。撮影者は保険会社の係員であってもよく、撮影者はモバイル端末を保持して損傷車両のビデオ録画を実行してもよい。モバイル端末は、ビデオ録画機能およびデータ通信機能を有する携帯電話、タブレット・コンピュータ、あるいは他の汎用または専用のデバイスのいずれかを含むことができる。モバイル端末およびサーバに、対応するアプリケーション・モジュール(たとえば、モバイル端末にインストールされる車両損失査定アプリケーション(アプリ))を配備して、対応するデータ処理を実現してもよい。しかしながら、当業者であれば、本解決策の本質的な趣旨が、車両損失査定画像を取得するための他の実施シナリオに適用可能であることを理解できるであろう。たとえば、撮影者は車両の所有者であってもよく、またはモバイル端末を使用して実行された撮影の後に、モバイル端末でビデオ・データが直接処理され、損失査定画像が取得される。
一実施形態を図1に示す。本出願による車両損失査定画像を取得するための方法の一実施形態では、方法は以下を含むことができる。
S1:クライアントはキャプチャされたビデオ・データを取得し、キャプチャされたビデオ・データをサーバに送信する。
クライアントは、ビデオ録画機能およびデータ通信機能を有する汎用または専用のデバイス、たとえば、携帯電話またはタブレット・コンピュータなどの端末デバイスを含むことができる。この実施形態の別の実施シナリオでは、クライアントは、データ通信機能を有する据置型コンピュータ・デバイス(たとえば、PC端末)、および据置型コンピュータ・デバイスに接続されたポータブル・ビデオ録画デバイスをさらに含むことができる。据置型コンピュータ・デバイスとポータブル・ビデオ録画デバイスとの組み合わせは、この実施形態のクライアントの端末デバイスとみなされる。撮影者はクライアントを使用してキャプチャされたビデオ・データを取得し、キャプチャされたビデオ・データはサーバに送信することができる。サーバは、ビデオ・データ内のフレーム画像を分析および処理し、損失査定画像を決定する処理デバイスを含むことができる。サーバは、画像データ処理およびデータ通信機能を有する論理ユニット装置、たとえば、この実施形態の適用シナリオでのサーバを含むことができる。データ交換の観点からは、サーバは、第1の端末デバイスとして使用されるクライアントとのデータ通信を行う第2の端末デバイスである。したがって、説明の便宜上、車両のビデオ録画によりキャプチャされたビデオ・データが取得される側をクライアントと呼び、キャプチャされたビデオ・データへの処理によって損失査定画像が生成される側をサーバと呼ぶ。本出願では、一部の実施形態において、クライアントおよびサーバは、クライアントおよびサーバが物理的に接続されている同一の端末デバイスであることを除外しない。
本出願の一部の実装例では、クライアントを使用した撮影によって取得されたビデオ・データは、リアルタイムでサーバに送信することができ、それによってサーバが迅速に処理できるようになる。別の実装例では、代替的には、クライアントを使用して実行されるビデオ録画が完了した後に、ビデオ・データをサーバに送信することができる。撮影者による使用時にモバイル端末にネットワーク接続が存在しない場合、最初にビデオ録画を実行してもよく、モバイル端末がモバイル・セルラー、ワイヤレス・ローカル・エリア・ネットワーク(WLAN)、または専用のネットワークに接続された後に、ビデオ・データが送信されてもよい。当然ながら、クライアントがサーバと通常のデータ通信を実行できる場合でも、クライアントは代替的に、キャプチャされたビデオ・データを非同期でサーバに送信することができる。
この実施形態では、撮影者が車両の損傷部位を撮影することにより取得されるキャプチャされたビデオ・データは、1つのビデオ・クリップ、または複数のビデオ・クリップ、たとえば、同一の損傷部位に異なる角度および異なる距離で実行された複数回の撮影によって生成されるマルチ・クリップのキャプチャされたビデオ・データ、もしくは異なる損傷部位の撮影によって取得されるそれぞれの異なる損傷部位のキャプチャされたビデオ・データを含むことができることに留意されたい。当然ながら、一部の実施シナリオでは、代替的には、損傷車両の各損傷部位をまるごと撮影して、比較的長い時間続く1つのビデオ・クリップを取得してもよい。
S2:サーバはキャプチャされたビデオ・データ内のビデオ画像を検出して、ビデオ画像内の損傷部位を識別する。
この実施形態のこの実装例では、サーバは、キャプチャされたビデオ・データ内のビデオ画像に対して画像検出を実行し、ビデオ画像内の車両の損傷部位を識別および処理することができる。一般的に、識別された損傷部位は、ビデオ画像内である領域を占有し、対応する領域情報、たとえば、損傷部位が所在する領域の位置およびサイズを有する。
ビデオ画像内の損傷部位を検出する一実装例では、ビデオ画像内の損傷部位は、構築された損傷検出モデルを使用して識別することができる。損傷検出モデルは、ディープ・ニューラル・ネットワークを使用して、車両の損傷部位と、画像内の損傷部位の領域とを検出する。本出願の一実施形態では、損傷検出モデルは、畳み込みニューラル・ネットワーク(CNN:convolutional neural network)および領域提案ネットワーク(RPN:region proposal network)に基づいて、プーリング層、全結合(FC:fully−connected)層などと組み合わせて構築することができる。
この実施形態では、ビデオ画像に含まれる損傷部位を識別するために使用される損傷検出モデルは、設計された機械学習アルゴリズムを使用して事前に構築することができる。損傷検出モデルがサンプルに基づいて訓練された後、損傷検出モデルはビデオ画像内の1つまたは複数の損傷部位を識別することができる。損傷検出モデルは、サンプルに基づいて訓練されたディープ・ニューラル・ネットワークのネットワーク・モデル、またはディープ・ニューラル・ネットワークの変形されたネットワーク・モデルを使用して構築することができる。この実施形態では、その構築は、CNNおよびRPNに基づくことができ、FC層、プーリング層、データ正規化層などと組み合わせることができる。当然ながら、別の実施形態では、損傷部位を分類する必要がある場合、確率出力層(ソフトマックス)などが損傷検出モデルにさらに追加されてもよい。一例を図2に示す。図2は、本出願による方法を使用して構築されるビデオ画像内の損傷部位を識別するためのモデルの概略構造図である。図3は、本出願による方法において、損傷検出モデルを使用して損傷部位を識別する実施シナリオの概略図である。識別された損傷部位はリアルタイムでクライアントに表示することができる。
CNNは一般的には、畳み込み層を主要構造として使用し、その他、活性化層などを含むニューラル・ネットワークであり、主に画像識別に使用される。この実施形態では、ディープ・ニューラル・ネットワークは、畳み込み層および他の重要な層(たとえば、訓練用にモデルに入力されるサンプル損傷画像、データ正規化層、および活性化層)を使用して、RPNと組み合わせて生成することができる。CNNでは、通常、画像処理における2次元の離散畳み込み演算が、人工ニューラル・ネットワークと組み合わせられる。この畳み込み演算は、自動特徴抽出に使用することができる。RPNは画像(任意のサイズ)から抽出される特徴を入力として使用して(これはCNNを使用して抽出される2次元の特徴でもよい)、矩形のターゲット提案ボックスのセットを出力することができる。各ボックスは物体スコアを有する。
前述の実装例では、モデル訓練中にビデオ画像内の1つまたは複数の損傷部位を識別することができる。たとえば、サンプルに基づく訓練に、ピクチャが入力され、ピクチャの複数の領域を出力することができる。1つの損傷部位がある場合、ピクチャの1つの領域を出力することができ、k個の損傷部位がある場合、ピクチャのk個の領域を出力することができ、または損傷部位がない場合、0個の画像領域が出力される。ニューラル・ネットワークの選択したパラメータは、マークされたデータを使用したミニ・バッチ勾配降下訓練によって取得することができる。たとえば、ミニ・バッチが32に等しい場合、32個の訓練ピクチャが1つの入力として訓練に使用される。
別の実装例では、損傷検出モデルは、CNNおよびRPNに基づく複数のモデルおよびそれらの変形、たとえば、Faster R−CNN、YOLO、およびMask−FCNであってもよい。CNNは任意のCNNモデル、たとえば、ResNet、Inception、VGG、またはそれらの変形を使用してもよい。通常、ニューラル・ネットワークのCNN部分は、物体認識で比較的良好な効果を実現する成熟したネットワーク構造、たとえば、InceptionまたはResNetなどのネットワークを使用してもよい。たとえば、ResNetネットワークでは、入力はピクチャであり、出力は複数の損傷領域、および損傷領域に対応する信頼度である(本明細書での信頼度とは、識別された損傷領域の真正性(authenticity)の程度を示すパラメータである)。Fast R−CNN、YOLO、Mask−FCNなどは全て、この実施形態で使用可能な、畳み込み層を含むディープ・ニューラル・ネットワークである。この実施形態で使用されるディープ・ニューラル・ネットワークは、領域提案層およびCNN層と組み合わせて、ビデオ画像内の損傷部位を検出し、ビデオ画像内の損傷部位の領域を確認することができる。本出願では、CNN部分は、物体認識で良好な効果を実現する成熟したネットワーク構造を使用することができる。ResNetネットワークでは、モデルのパラメータは、マークされたデータを使用したミニ・バッチ勾配降下訓練によって取得することができる。
撮影者がクライアントを使用してビデオ録画を実行した場合、サーバにより識別された損傷部位の位置領域をリアルタイムでクライアントに表示することができ、それによってユーザは損傷部位を観察および確認することができる。損傷部位を識別した後、サーバは損傷部位を自動的に追跡することができる。また、追跡の過程で、撮影距離および角度が変化するにつれて、ビデオ画像内の損傷部位に対応する位置領域のサイズおよび位置も対応して変化することができる。
他の実装例では、撮影者は、ビデオ画像内の識別された損傷部位の位置およびサイズを対話形式で変更することができる。たとえば、クライアントはサーバにより検出された損傷部位の位置領域をリアリタイムで表示する。サーバにより識別された損傷部位の位置領域が現場で観察された損傷部位を完全にカバーできないために、撮影者が調整を検討する場合、撮影者はクライアント上で損傷部位の位置領域の位置およびサイズを調整することができる。たとえば、損傷部位を長押しして位置領域が選択された後に位置領域を移動させることによって、損傷部位の位置が調整され、または損傷部位の位置領域のフレームを引き延ばすことによって、損傷部位のサイズが調整される。撮影者がクライアント上で損傷部位の位置領域を調整および変更した後、損傷部位の新たな情報を生成することができ、次いで、新たな損傷部位の新たな情報がサーバに送信される。
このようにして、撮影者は、現場で損傷部位の状況に応じてビデオ画像内の損傷部位の位置領域を好都合かつ柔軟に調整して、損傷部位をより正確に位置特定することができ、それによってサーバは高品質な損失査定画像をより正確かつ確実に取得することができる。
サーバはクライアントによりアップロードされたキャプチャされたビデオ・データを受信し、キャプチャされたビデオ・データ内のビデオ画像を検出して、ビデオ画像内の損傷部位を識別する。
S3:サーバは検出された損傷部位に基づいてビデオ画像を分類して、損傷部位の候補画像分類セットを決定する。
車両損失査定には多くの場合、様々なタイプの画像データ、たとえば、様々な角度の車両全体の画像、損傷部品を表示可能な画像、損傷部位のクローズ・アップ詳細画像が必要になる。本出願では、損失査定画像の取得中に、ビデオ画像を分析して、たとえば、ビデオ画像が損傷車両の画像であるか否か、車両部品が分析される画像に含まれているか否か、1つまたは複数の車両部品が含まれているか否か、あるいは車両部品が損傷しているか否かを判定することができる。本出願のこの実施形態のシナリオでは、車両損失査定に必要な損失査定画像は、それ相応に異なるタイプに分類することができ、損失査定画像要件を満たしていないその他の画像は個別に別のタイプに分類することができる。一部の実施形態では、キャプチャされたビデオの各フレーム画像を抽出し、識別し、分類して、損傷部位の候補画像分類セットを形成することができる。
本出願による方法の別の実施形態では、決定された候補画像分類セットは、
S301:損傷部位を表示するクローズ・アップ画像セットと、損傷部位が属する車両部品を表示する部品画像セットと
を含むことができる。
クローズ・アップ画像セットは、損傷部位の1つまたは複数のクローズ・アップ画像を含む。部品画像セットは損傷車両の損傷部品を表示する1つまたは複数の画像を含み、損傷部品は少なくとも1つの損傷部位を有する。この実施形態の適用シナリオでは、撮影者は、撮影者による移動またはズームイン/アウトによって、損傷車両の損傷部位を近くから遠くまで(または遠くから近くまで)撮影することができる。サーバはキャプチャされたビデオ内のフレーム画像を識別および処理して(各フレーム画像が処理されてもよく、またはビデオ・クリップの複数のフレーム画像が選択および処理されてもよい)、ビデオ画像の分類を決定することができる。この実施形態のこの適用シナリオでは、キャプチャされたビデオのビデオ画像は、次の3つのタイプに分類することができ、具体的には、
a:クローズ・アップ画像:損傷部位の詳細情報を明瞭に表示可能な損傷部位のクローズ・アップ画像と、
b:損傷部位を含み、損傷部位が所在する車両部品を表示可能な部品画像と、
c:「a」タイプにも「b」タイプにも属さない画像と
を含む。
一部の実施形態では、aタイプ画像の識別アルゴリズムまたは分類要件などは、損傷部位のクローズ・アップ画像の要件に従って決定することができる。本出願では、aタイプ画像を識別する過程において、一実装例では、aタイプ画像は、現在のビデオ画像内の損傷部位が占める領域のサイズ(面積または領域スパン)に基づいて識別することができる。損傷部位がビデオ画像内で比較的大きな領域を占める場合、(たとえば、領域のサイズが閾値より大きい場合、たとえば、領域の長さまたは幅がビデオ画像の長さまたは幅の4分の1よりも大きい場合)、ビデオ画像はaタイプ画像と判定することができる。本出願で提供する別の実装例では、同一の損傷部品の分析済みフレーム画像の中で、現在のフレーム画像内の損傷部位の領域の面積が、損傷部位を含む既に分析および処理された他の分析済みフレーム画像内のそれよりも大きい(特定の比率内またはTOP範囲内にある)場合、現在のフレーム画像はaタイプ画像と判定することができる。したがって、本出願による方法の別の実施形態では、クローズ・アップ画像セット内のビデオ画像は、
S3011:損傷部位を含むビデオ画像の領域に対する損傷部位が占める領域の面積率が、第1の事前設定された比率より大きいことと、
S3012:損傷部位を含むビデオ画像の長さに対する損傷部位の横座標スパンの比率が、第2の事前設定された比率より大きく、および/または損傷部位を含むビデオ画像の高さに対する損傷部位の縦座標スパンの比率が、第3の事前設定された比率より大きいことと、
S3013:同一の損傷部位を含むビデオ画像から、ビデオ画像内の同一の損傷部位の面積の降順でビデオ画像がソートされた後に、最初のK個のビデオ画像が選択され、あるいは1つまたは複数のビデオ画像であって、各ビデオ画像において、ビデオ画像の面積に対する損傷部位の面積の比率が第4の事前設定された比率内である、1つまたは複数のビデオ画像が選択され、K≧1であることと
のうちの少なくとも1つによって決定することができる。
aタイプの損傷詳細画像では、損傷部位は通常、比較的大きな領域範囲を占める。S3011において第1の事前設定された比率を設定することにより、損傷部位詳細画像の選択を好適に制御して、処理要件を満たすaタイプ画像を取得することができる。aタイプ画像内の損傷部位の領域の面積は、損傷部位の領域に含まれる画素点をカウントすることによって取得することができる。
別の実装例S3012では、代替的に、ビデオ画像に対する損傷部位の座標スパンに応じて、ビデオ画像がaタイプ画像であるか否かが判定される。たとえば、一例では、ビデオ画像は800×650画素を有し、損傷車両は2つの比較的長い傷を有し、各傷に対応する横座標スパンは600画素の長さであり、各傷に対応する垂直座標スパンは非常に狭い。このとき、損傷部位の領域の面積は損傷部位が属するビデオ画像の面積の10分の1未満であるが、損傷部位の600画素の横座標スパンは、ビデオ画像全体の800画素の長さの4分の3を占める。したがって、ビデオ画像はaタイプ画像としてマークすることができる。図4に示すように、図4は、本出願の一実施形態による、識別された損傷部位に基づいてビデオ画像がクローズ・アップ画像であると判定する概略図である。
一実装例S3013では、損傷部位の面積は、S3011における損傷部位の領域の面積であってもよく、損傷部位の長さまたは高さのスパンの値であってもよい。
当然ながら、aタイプ画像は、代替的に、前述の様々な方式を組み合わせて識別することができる。たとえば、損傷部位の領域の面積がビデオ画像をある比率で占有し、その比率は第4の事前設定された比率内であり、または同一の損傷領域の画像の中で損傷の領域面積が最大である。この実施形態では、aタイプ画像は通常、損傷部位の全部または一部の詳細画像情報を含む。
上述の第1の事前設定された比率、第2の事前設定された比率、第3の事前設定された比率、および第4の事前設定された比率は、画像識別精度、分類精度、他の処理要件などに従って、それ相応に設定することができる。たとえば、第2の事前設定された比率または第3の事前設定された比率の値は、4分の1とすることができる。
一実装例では、bタイプ画像の識別において、構築された車両部品検出モデルを使用して、ビデオ画像に含まれる車両部品(たとえば、フロント・バンパー、左フロント・フェンダー、および右の後部ドア)およびそれらの位置を検出することができる。損傷部位が検出された損傷部品上にある場合、ビデオ画像はbタイプ画像と判定することができる。たとえば、ビデオ画像P1において、P1内の検出された損傷部品の部品領域が、識別された損傷部位を含む場合(通常、識別された部品領域の面積は損傷部位の面積より大きい)、P1内の部品領域は損傷部品とみなすことができる。あるいは、ビデオ画像P2において、P2内で検出された損傷領域と、P2内で検出された部品領域とが重なる場合、P2内の部品領域に対応する車両部品を同様に損傷部品とみなすことができ、ビデオ画像はbタイプ画像として分類される。
この実施形態では、部品検出モデルは、ディープ・ニューラル・ネットワークを使用して、部品および画像内の部品の領域を検出する。本出願の一実施形態では、部品損傷識別モデルは、CNNおよびRPNに基づいて、プーリング層、FC層などを組み合わせて構築することができる。たとえば、部品認識モデルに関して、CNNおよびRPNに基づく複数のモデルおよびそれらの変形、たとえば、Faster R−CNN、YOLO、およびMask−FCNを使用することができる。CNNは任意のCNNモデル、たとえば、ResNet、Inception、VGG、またはそれらの変形を使用してもよい。一般的に、ニューラル・ネットワークのCNN部分は、物体認識で比較的良好な効果を実現する成熟したネットワーク構造、たとえば、InceptionまたはResNetなどのネットワークを使用してもよい。たとえば、ResNetネットワークでは、入力はピクチャであり、出力は複数の部品領域、対応する部品分類、および信頼度である(本明細書での信頼度とは、認識された車両部品の真正性の程度を示すパラメータである)。Fast R−CNN、YOLO、Mask−FCNなどは全て、この実施形態で使用可能な、畳み込み層を含むディープ・ニューラル・ネットワークである。この実施形態で使用されるディープ・ニューラル・ネットワークは、領域提案層およびCNN層と組み合わせて、処理対象画像内の車両部品を検出し、処理対象画像内の車両部品の部品領域を確認することができる。本出願では、CNN部分は、物体認識で良好な効果を実現する成熟したネットワーク構造を使用することができる。ResNetネットワークでは、モデルのパラメータは、マークされたデータを使用したミニ・バッチ勾配降下訓練によって取得することができる。図5は、本出願による方法を使用して構築されるビデオ画像内の損傷部品を識別するためのモデルの概略構造図である。
適用シナリオでは、ビデオ画像がaタイプ画像およびbタイプ画像の両方の判定論理を満たす場合、ビデオ画像はaタイプ画像かつbタイプ画像である。
サーバはキャプチャされたビデオ・データからビデオ画像を抽出し、検出された損傷部位に基づいてビデオ画像を分類し、損傷部位の候補画像分類セットを決定することができる。
S4:サーバは事前設定されたスクリーニング条件に従って候補画像分類セットから車両損失査定画像を選択する。
損失査定画像タイプ、鮮明度などに応じて、事前設定されたスクリーニング条件を満たす画像を、候補画像分類セットから選択することができる。事前設定されたスクリーニング条件はカスタマイズすることができる。たとえば、一実装例では、aタイプ画像およびbタイプ画像から、画像鮮明度に応じて、鮮明度が最高の、撮影角度が異なる複数の(たとえば、5個または10個の)画像を、識別された損傷部位の損失査定画像として選択することができる。画像鮮明度は、損傷部位と、検出された車両部品が所在する画像領域とに基づいて計算することができ、たとえば、空間ドメイン・ベースのオペレータ(たとえば、Gaborオペレータ)、または周波数ドメイン・ベースのオペレータ(たとえば、高速フーリエ変換)などの方法を使用して取得することができる。aタイプ画像の場合、通常、1つまたは複数の画像を組み合わせて、損傷部位内の全ての領域を表示できるようにする必要があり、それによって包括的な損傷領域情報を取得できるようになる。
車両損失査定画像を取得するための方法は、ビデオベースの車両損失査定画像を自動的に生成する解決策を提供する。撮影者は端末デバイスを使用して損傷車両のビデオ録画を実行することができ、キャプチャされたビデオ・データはシステムのサーバに送信することができる。サーバはビデオ・データを分析し、損傷部位を識別し、損傷部位に応じて、損失査定に必要な様々なタイプの候補画像を取得する。そして、候補画像から損傷車両の1つまたは複数の損失査定画像を生成することができる。本明細書の実施形態によれば、損失査定処理要件を満たす高品質な損失査定画像を自動的かつ迅速に生成することができ、それによって損失査定画像を取得する効率が高まり、また、保険会社の係員により損失査定画像を取得および処理するコストが削減される。
本出願の方法の一実施形態では、クライアント上でキャプチャされたビデオはサーバに送信され、サーバは損傷部位に応じてビデオ内の損傷部位の位置をリアルタイムで追跡することができる。たとえば、前述の実施シナリオでは、損傷車両は静止物体であるので、撮影者が動くと、モバイル端末が動かされる。このとき、キャプチャされたビデオ内の隣接するフレーム画像間の対応関係は、オプティカル・フロー・ベースのアルゴリズムなどの画像アルゴリズムを使用して損傷部位の追跡を実施することによって取得することができる。モバイル端末が加速度計およびジャイロ・スコープなどのセンサを有する場合、これらのセンサの信号データを組み合わせて、撮影者の動きの方向および角度をさらに決定することによって、損傷部位をより正確に追跡することができる。したがって、本出願の方法の別の実施形態では、ビデオ画像内の損傷部位を識別した後に、方法は以下をさらに含むことができる。
S200:サーバは、キャプチャされたビデオ・データ内の損傷部位の位置領域をリアルタイムで追跡する。
損傷部位がビデオ画像から離脱した後に損傷部位がビデオ画像に再度進入したと判定した場合、サーバは、損傷部位の画像特徴データに基づいて損傷部位の位置領域を再度位置特定および追跡する。
サーバは損傷領域の画像特徴データ、たとえば、スケール不変特徴変換(SIFT:scale−invariant feature transform)特徴データを抽出することができる。損傷部位がビデオ画像から離脱した後に損傷部位がビデオ画像に再度進入した場合、システムは損傷部位を位置特定し、損傷部位の追跡を継続することができる。たとえば、撮影デバイスが電源オフ後に再起動された後、または撮影領域が非損傷部位に移動された後、同一の損傷部位が再度撮影される。
サーバにより識別された損傷部位の位置領域をクライアントにリアリタイムで表示して、ユーザが損傷部位を観察および確認しやすくすることができる。クライアントおよびサーバは、識別された損傷部位を同時に表示することができる。サーバは識別された損傷部位を自動的に追跡することができる。また、撮影距離および角度が変化すると、ビデオ画像内の損傷部位に対応する位置領域のサイズおよび位置も対応して変化することができる。このようにして、サーバは、クライアントにより追跡される損傷部位をリアルタイムで表示して、サーバのオペレータが観察および使用しやすくすることができる。
別の実装例では、サーバにより実行されるリアルタイム追跡中に、サーバは損傷部位の追跡された位置領域をクライアントに送信することができ、それによってクライアントはサーバと同期してリアルタイムで損傷部位を表示することができるので、撮影者はサーバにより位置特定および追跡された損傷部位を観察しやすくなる。したがって、方法の別の実施形態では、方法はさらに以下を含むことができる。
S210:サーバは、損傷部位の追跡された位置領域をクライアントに送信して、クライアントがリアルタイムで損傷部位の位置領域を表示できるようにする。
別の実装例では、撮影者は、ビデオ画像内の損傷部位の位置およびサイズを対話形式で変更することができる。たとえば、クライアントが識別された損傷部位を表示するときに、識別された損傷部位の位置領域が損傷部位を完全にカバーできないために、撮影者が調整を検討する場合、撮影者は位置領域の位置およびサイズを再調整することができる。たとえば、損傷部位を長押しして位置領域が選択された後に位置領域を移動させることによって、損傷部位が調整され、または損傷部位の位置領域のフレームを引き延ばすことによって、損傷部位のサイズが調整される。撮影者がクライアント上で損傷部位の位置領域を調整および変更した後、損傷部位の新たな情報を生成することができ、次いで、損傷部位の新たな情報がサーバに送信される。また、サーバはクライアント上で変更された情報に基づいて損傷部位の情報を同期して更新することができる。サーバは損傷部位の更新された情報に基づいて後続のビデオ画像を識別および処理することができる。本出願で提供する方法の別の実施形態では、方法は、
S220:クライアントにより送信された新たな損傷部位の情報を受信することであって、新たな損傷部位は、クライアントが受信した対話型指示に基づいて損傷部位の位置領域を変更した後に再決定される損傷部位を含む、受信すること
をさらに含むことができ、
対応して、検出された損傷部位に基づいてビデオ画像を分類することは、新たな損傷部位の情報に基づいてビデオ画像を分類することを含む。
このようにして、撮影者は、現場で損傷部位の状況に応じてビデオ画像内の損傷部位の位置領域を好都合かつ柔軟に調整して、損傷部位をより正確に位置特定することができ、それによってサーバは高品質な損失査定画像を取得する。
方法の別の適用シナリオでは、損傷部位のクローズ・アップを撮影する場合、撮影者は損傷部位を様々な角度から撮影し続けることができる。サーバは損傷部位の追跡に応じて各フレーム画像の撮影角度を計算して、様々な角度のビデオ画像のグループを損傷部位の損失査定画像として選択することができ、それによって損失査定画像が損傷のタイプおよび程度を正確に反映できるようになる。したがって、本出願の方法の別の実施形態では、事前設定されたスクリーニング条件に従って候補画像分類セットから車両損失査定画像を選択することは、
S401:損傷部位の候補画像分類セットから、ビデオ画像の鮮明度と、ビデオ画像内の損傷部位の撮影角度とに応じて、それぞれ少なくとも1つのビデオ画像を、損傷部位の損失査定画像として選択すること
を含む。
たとえば、一部の事故現場では、部品の変形はいくつかの角度において、他の角度よりも明らかである場合があり、または損傷部品に反射または映り込みがある場合、反射または映り込みは撮影角度の変化などと共に変化する。本明細書のこの実施形態では、様々な角度の画像が損失査定画像として選択され、それによってこれらの要因の損失査定への干渉が大幅に減少する。任意選択で、クライアントが加速度計およびジャイロ・スコープなどのセンサを有する場合、撮影角度は代替的に、センサの信号を使用して取得するか、または計算の補助によって取得することができる。
一例では、複数の候補画像分類セットを生成することができる。しかしながら、損失査定画像が選択される場合、1つまたは複数のタイプ、たとえば、前述の「a」タイプ、「b」タイプ、および「c」タイプの候補画像分類セットのみを適用することができる。最終的に必要な損失査定画像が選択される場合、損失査定画像は、aタイプの候補画像分類セットおよびbタイプの候補画像分類セットから選択することができる。aタイプ画像およびbタイプ画像では、ビデオ画像の鮮明度に応じて、鮮明度が最高の、撮影角度が異なる複数の画像が損失査定画像としてそれぞれ選択される(たとえば、同一の部品の5つの画像が選択され、同一の損傷部位の10個の画像が選択される)。画像鮮明度は、損傷部位と、検出された車両部品が所在する画像領域とに基づいて、たとえば、空間ドメイン・ベースのオペレータ(たとえば、Gaborオペレータ)、または周波数ドメイン・ベースのオペレータ(たとえば、高速フーリエ変換)などの方法を使用して計算することができる。一般的に、aタイプ画像の場合、損傷部位の任意の領域が選択された画像のうちの少なくとも1つに存在するようにする必要がある。
本出願の方法の別の実施シナリオでは、損傷車両に複数の損傷部位があり、損傷部位が互いに近いことを検出した場合、サーバは複数の損傷部位を同時に追跡し、各損傷部位を分析および処理して、対応する損失査定画像を取得することができる。サーバは前述の処理を識別された全ての損傷部位に実行して、各損傷部位の1つまたは複数の損失査定画像を取得し、次いで、生成された全ての損失査定画像を損傷車両全体の損失査定画像として使用することができる。図6は、本出願による車両損失査定画像を取得するための方法の処理シナリオの概略図である。図6に示すように、損傷部位Aおよび損傷部位Bの間の距離は比較的短いので、損傷部位Aおよび損傷部位Bは同時に追跡することができる。しかしながら、損傷部位Cは損傷車両の反対側にあり、キャプチャされたビデオでは損傷部位Aおよび損傷部位Bから離れている。したがって、損傷部位Aおよび損傷部位Bと共に損傷部位Cを追跡するのではなく、損傷部位Aおよび損傷部位Bが撮影された後に、損傷部位Cを単独で撮影することができる。したがって、本出願の方法の別の実施形態では、ビデオ画像内に少なくとも2つの損傷部位が存在するのを検出したことに応答して、少なくとも2つの損傷部位の間の距離が、設定された近接条件を満たすか否かが判定され、
少なくとも2つの損傷部位の間の距離が設定された近接条件を満たすと判定したことに応答して、少なくとも2つの損傷部位を同時に追跡し、それぞれ対応する損失査定画像を生成する。
近接条件は、同一のビデオ画像内の損傷部位の数、損傷部位のサイズ、損傷部位間の距離などに応じて設定することができる。
損傷部位のクローズ・アップ画像セットおよび部品画像セットの少なくとも1つが空であること、あるいはクローズ・アップ画像セット内のビデオ画像が対応する損傷部位の領域全体をカバーしていないことを検出した場合、サーバはビデオ録画プロンプト・メッセージを生成し、次いで、ビデオ録画プロンプト・メッセージをキャプチャされたビデオ・データに対応するクライアントに送信することができる。
たとえば、前述の例示的な実施シナリオでは、損傷部位が所在する車両部品を決定するために使用可能なbタイプの損失査定画像をサーバが取得できない場合、サーバはビデオ録画プロンプト・メッセージを撮影者のクライアントに返して、損傷部位を含む複数の隣接する車両部品を撮影するように撮影者に促すことによって、1つまたは複数のbタイプの損失査定画像が取得されるようにすることができる。サーバがaタイプの損失査定画像を取得することができず、または全てのaタイプ画像が、単独でまたは組み合わせて、損傷部位の領域全体をカバーすることができない場合、サーバはビデオ録画プロンプト・メッセージを撮影者に返して、損傷部位の領域全体をカバーするように損傷部位のクローズ・アップを撮影するよう撮影者に促すことができる。
本出願の方法の別の実施形態では、キャプチャされたビデオ画像の鮮明度が不十分である(鮮明度が事前設定された閾値より低いか、最近録画されたビデオ・クリップの平均鮮明度より低い)ことをサーバが検出した場合、サーバは撮影者にゆっくり動くように促して、キャプチャされる画像の品質を確保することができる。たとえば、ビデオ録画プロンプト・メッセージをモバイル端末アプリに返して、鮮明度に影響する焦点および照明などの撮影要因に注意を払うようにユーザに促す。たとえば、プロンプト情報「速すぎます。画質を確保するためにゆっくり動いてください。」が表示される。
任意選択で、サーバは、その後の点検、検証などのための損失査定画像を生成するために使用されるビデオ・クリップを保持することができる。あるいは、クライアントは、ビデオ画像がキャプチャされた後に、損失査定画像をバッチでサーバにアップロードまたはコピーすることができる。
前述の実施形態の車両損失査定画像を取得するための方法は、ビデオベースの車両損失査定画像を自動的に生成する解決策を提供する。撮影者は端末デバイスを使用して損傷車両のビデオ録画を実行することができ、キャプチャされたビデオ・データはサーバに送信することができ、サーバはビデオ・データを分析し、損傷部位を識別し、損傷部位に応じて、損失査定に必要な様々なタイプの候補画像を取得する。そして、候補画像から損傷車両の1つまたは複数の損失査定画像を生成することができる。本明細書の実施形態によれば、損失査定処理要件を満たす高品質な損失査定画像を自動的かつ迅速に生成することができ、それによって損失査定画像を取得する効率が高まり、また、保険会社の係員により損失査定画像を取得および処理するコストが削減される。
前述の実施形態では、クライアントがサーバと対話する実施シナリオにおいて、本出願における損傷車両の録画されたビデオ・データを使用して損失査定画像を自動的に取得する実装例を説明している。前述の説明に基づいて、本出願はサーバに適用可能な車両損失査定画像を取得するための方法を提供する。図7は本出願による方法の別の実施形態の概略フローチャートである。図7に示すように、方法は、
S10:端末デバイスによりアップロードされた損傷車両のキャプチャされたビデオ・データを受信し、キャプチャされたビデオ・データ内のビデオ画像を検出して、ビデオ画像内の損傷部位を識別することと、
S11:検出された損傷部位に基づいてビデオ画像を分類して、損傷部位の候補画像分類セットを決定することと、
S12:事前設定されたスクリーニング条件に従って候補画像分類セットから車両損失査定画像を選択することと
を含むことができる。
端末デバイスは、前述の実施形態で説明したクライアントであってもよく、本出願では他の端末デバイス、たとえば、データベース・システム、サード・パーティ・サーバ、またはフラッシュ・メモリであってもよい。この実施形態では、クライアントによりアップロードまたはコピーされた、損傷車両の撮影によって取得されたキャプチャされたビデオ・データを受信した後、サーバは、キャプチャされたビデオ・データを検出して損傷部位を識別し、次いで、識別された損傷部位に従ってビデオ画像を分類することができる。さらに、車両損失査定画像はスクリーニングによって自動的に生成される。本出願の実装例によれば、損失査定処理要件を満たす高品質な損失査定画像を自動的かつ迅速に生成することができ、それによって損失査定画像を取得する効率が高まり、また、保険会社の係員により損失査定画像を取得および処理するコストが削減される。
車両損失査定には多くの場合、様々なタイプの画像データ、たとえば、様々な角度の車両全体の画像、損傷部品を表示可能な画像、および損傷部位のクローズ・アップ詳細画像が必要になる。本出願の一実施形態では、必要な損失査定画像は、相応に異なるタイプに分類することができる。方法の他の実施形態では、決定された候補画像分類セットは、
損傷部位を表示するクローズ・アップ画像セットと、損傷部位が属する車両部品を表示する部品画像セットと
を含むことができる。
一般的に、候補画像分類セット内のビデオ画像、たとえば、前述のaタイプのクローズ・アップ画像、bタイプの部品画像、および「a」タイプにも「b」タイプにも属さないcタイプの画像は、少なくとも1つの損傷部位を含む。
車両損失査定画像を取得するための方法の別の実施形態では、クローズ・アップ画像セット内のビデオ画像は、
損傷部位を含むビデオ画像の領域に対する損傷部位が占める領域の面積率が、第1の事前設定された比率より大きいことと、
損傷部位を含むビデオ画像の長さに対する損傷部位の横座標スパンの比率が、第2の事前設定された比率より大きく、および/または損傷部位を含むビデオ画像の高さに対する損傷部位の縦座標スパンの比率が、第3の事前設定された比率より大きいことと、
同一の損傷部位を含むビデオ画像から、ビデオ画像内の同一の損傷部位の面積の降順でビデオ画像がソートされた後に、最初のK個のビデオ画像が選択され、あるいは1つまたは複数のビデオ画像であって、各ビデオ画像において、ビデオ画像の面積に対する損傷部位の面積の比率が第4の事前設定された比率内である、1つまたは複数のビデオ画像が選択され、K≧1であることと
のうちの少なくとも1つによって決定することができる。
一部の実施形態では、aタイプ画像の識別アルゴリズムまたは分類要件などは、損失査定処理用の損傷部位のクローズ・アップ画像の要件に従って決定することができる。本出願では、aタイプ画像を識別する過程において、一実装例では、aタイプ画像は、現在のビデオ画像内の損傷部位が占める領域のサイズ(面積または領域スパン)に基づいて識別することができる。損傷部位がビデオ画像内で比較的大きな領域を占める場合、(たとえば、領域のサイズが閾値より大きい場合、たとえば、領域の長さまたは幅がビデオ画像の長さまたは幅の4分の1よりも大きい場合)、ビデオ画像はaタイプ画像と判定することができる。本出願で提供する別の実装例では、同一の損傷部品の分析済みフレーム画像の中で、現在のフレーム画像内の損傷部位の領域の面積が、損傷部位を含む既に分析および処理された他の分析済みフレーム画像内のそれよりも大きい(特定の比率内またはTOP範囲内にある)場合、現在のフレーム画像はaタイプ画像と判定することができる。
車両損失査定画像を取得するための方法の別の実施形態では、方法は、
損傷部位のクローズ・アップ画像セットおよび部品画像セットの少なくとも1つが空であること、あるいはクローズ・アップ画像セット内のビデオ画像が損傷部位の領域全体をカバーしていないことが検出された場合、ビデオ録画プロンプト・メッセージを生成することと、
ビデオ録画プロンプト・メッセージを端末デバイスに送信することと
をさらに含むことができる。
端末デバイスはサーバと対話する前述のクライアント、たとえば、携帯電話であってもよい。
車両損失査定画像を取得するための方法の別の実施形態では、方法は、
キャプチャされたビデオ・データ内の損傷部位の位置領域をリアリタイムで追跡することと、
損傷部位がビデオ画像から離脱した後に損傷部位がビデオ画像に再度進入した場合、損傷部位の画像特徴データに基づいて損傷部位の位置領域を再度位置特定および追跡することと
をさらに含むことができる。
再度位置特定および追跡された損傷部位の位置領域は、サーバに表示することができる。
車両損失査定画像を取得するための方法の別の実施形態では、方法は、
損傷部位の追跡された位置領域を端末デバイスに送信して、端末デバイスがリアルタイムで損傷部位の位置領域を表示できるようにすること
をさらに含むことができる。
撮影者は識別された損傷部位をクライアントにリアルタイムで表示して、ユーザが損傷部位を観察および確認しやすくすることができる。このようにして、撮影者は、現場で損傷部位の状況に応じてビデオ画像内の損傷部位の位置領域を好都合かつ柔軟に調整して、損傷部位をより正確に位置特定することができ、それによってサーバは高品質な損失査定画像を取得する。
別の実装例では、撮影者は、ビデオ画像内の損傷部位の位置およびサイズを対話形式で変更することができる。撮影者がクライアント上で識別された損傷部位の位置領域を調整および変更した後、損傷部位の新たな情報を生成することができ、次いで、損傷部位の新たな情報がサーバに送信される。また、サーバはクライアント上で変更された新たな損傷部位を同期して更新することができる。サーバは新たな損傷部位に従って後続のビデオ画像を識別および処理することができる。したがって、車両損失査定画像を取得するための方法の別の実施形態では、方法は、
端末デバイスによって送信された新たな損傷部位の情報を受信することであって、新たな損傷部位は、端末デバイスが受信した対話型指示に基づいて識別された損傷部位の位置領域を変更した後に再決定される損傷部位を含む、受信すること
をさらに含むことができ、
対応して、検出された損傷部位に基づいてビデオ画像を分類することは、新たな損傷部位の情報に基づいてビデオ画像を分類することを含む。
このようにして、撮影者は、現場で損傷部位の状況に応じてビデオ画像内の損傷部位の位置領域を好都合かつ柔軟に調整して、損傷部位をより正確に位置特定することができ、それによってサーバは高品質な損失査定画像を取得する。
損傷部位のクローズ・アップを撮影する場合、撮影者は損傷部位を様々な角度から撮影し続けることができる。サーバは損傷部位の追跡に応じて各フレーム画像の撮影角度を計算して、様々な角度のビデオ画像のグループを損傷部位の損失査定画像として選択することができ、それによって損失査定画像が損傷のタイプおよび程度を正確に反映できるようになる。したがって、車両損失査定画像を取得するための方法の別の実施形態では、事前設定されたスクリーニング条件に従って候補画像分類セットから車両損失査定画像を選択することは、
損傷部位の候補画像分類セットから、ビデオ画像の鮮明度と、ビデオ画像内の損傷部位の撮影角度とに応じて、それぞれ少なくとも1つのビデオ画像を、損傷部位の損失査定画像として選択すること
を含む。
損傷車両に複数の損傷部位があり、損傷部位が互いに近いことを特定した場合、サーバは複数の損傷部位を同時に追跡して、各損傷部位の損失査定画像を生成することができる。サーバは前述の処理を撮影者により指定された全ての損傷部位に実行して、各損傷部位の損失査定画像を取得し、次いで、生成された全ての損失査定画像を損傷車両全体の損失査定画像として使用することができる。したがって、車両損失査定画像を取得するための方法の別の実施形態では、ビデオ画像内に少なくとも2つの損傷部位が存在することが検出された場合、少なくとも2つの損傷部位の間の距離が指定された近接条件を満たすか否かが判定され、
満たす場合、少なくとも2つの損傷部位が同時に追跡され、それぞれ対応する損失査定画像が生成される。
近接条件は、同一のビデオ画像内の損傷部位の数、損傷部位のサイズ、損傷部位間の距離などに応じて設定することができる。
クライアントがサーバと対話する実施シナリオで説明した、損傷車両のキャプチャされたビデオ・データを使用して損失査定画像を自動的に取得する実装例に基づいて、本出願はクライアントに適用可能な車両損失査定画像を取得するための方法をさらに提供する。図8は本出願による方法の別の実施形態の概略フローチャートである。図8に示すように、方法は、
S20:損傷車両のビデオ録画を実行して、ビデオ・データを取得することと、
S21:キャプチャされたビデオ・データを処理端末に送信することと、
S22:処理端末により返された、損傷部位のリアルタイム追跡によって取得された位置領域を受信し、追跡された位置領域を表示することと
を含むことができ、損傷部位は処理端末によりキャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出することによって識別される。
処理端末は、キャプチャされたビデオ・データを処理し、識別された損傷部位に基づいて損傷車両の損失査定画像を自動的に生成する端末デバイスを含む。たとえば、処理端末は、損失査定画像処理を実行するためのリモート・サーバであってもよい。
別の実施形態では、決定された候補画像分類セットは、代替的には、損傷部位を表示するクローズ・アップ画像セットおよび損傷部位が属する車両部品を表示する部品画像セット、たとえば、前述のaタイプ画像およびbタイプ画像を含むことができる。損傷部位が所在する車両部品を決定するために使用可能なbタイプの損失査定画像をサーバが取得できない場合、サーバはビデオ録画プロンプト・メッセージを撮影者のクライアントに返して、損傷部位を含む複数の隣接する車両部品を撮影するように撮影者に促すことによって、1つまたは複数のbタイプの損失査定画像が取得されるようにすることができる。システムがaタイプの損失査定画像を取得することができず、または全てのaタイプ画像が、単独でまたは組み合わせて、損傷部位全体をカバーすることができない場合、システムもまた、ビデオ録画プロンプト・メッセージを撮影者に送信して、損傷部位全体をカバーするように損傷部位のクローズ・アップ画像を撮影するよう撮影者に促すことができる。したがって、別の実施形態では、方法は、
S23:処理端末により送信されたビデオ録画プロンプト・メッセージを受信および表示することをさらに含むことができ、損傷部位のクローズ・アップ画像セットおよび部品画像セットの少なくとも1つが空であることを処理端末が検出した場合、あるいはクローズ・アップ画像セット内の1つまたは複数のビデオ画像が損傷部位の領域全体をカバーしていない場合に、ビデオ録画プロンプト・メッセージが生成される。
上述のように、別の実装例では、クライアントは、サーバにより追跡される損傷部位の位置領域をリアルタイムで表示することができ、位置領域の位置およびサイズは、クライアント上で対話形式で変更することができる。したがって、方法の別の実施形態では、方法は
S24:受信した対話型指示に基づいて損傷部位の位置領域を変更した後に、新たな損傷部位を再決定することと、
新たな損傷部位の情報を処理端末に送信して、処理端末が損傷部位の新たな情報に基づいてビデオ・データ内のビデオ画像を分類できるようにすることと
をさらに含むことができる。
前述の実施形態において提供した車両損失査定画像を取得するための方法によれば、撮影者は端末デバイスを使用して損傷車両のビデオ録画を実行することができ、キャプチャされたビデオ・データはシステムのサーバに送信することができ、次いで、サーバはビデオ・データを分析し、損傷部位を識別し、損傷部位に応じて損失査定に必要な様々なタイプの候補画像を取得する。そして、候補画像から損傷車両の損失査定画像を生成することができる。本出願の実装例によれば、損失査定処理要件を満たす高品質な損失査定画像を自動的かつ迅速に生成することができ、それによって損失査定画像を取得する効率が高まり、また、保険会社の係員により損失査定画像を取得および処理するコストが削減される。
前述の実施形態では、クライアントがサーバと対話する観点、クライアントの観点、およびサーバの観点からのそれぞれの実施シナリオにおいて、本出願における損傷車両のキャプチャされたビデオ・データを使用して損失査定画像を自動的に取得する実装例を説明している。本出願の別の実装例では、クライアント上で車両ビデオが撮影されたときに(またはその後に)、撮影者はキャプチャされたビデオをクライアント上で直接分析および処理して、損失査定画像を生成することができる。具体的には、図9は本出願による方法の別の実施形態の概略フローチャートである。図9に示すように、方法は、
S30:損傷車両のキャプチャされたビデオ・データを受信することと、
S31:キャプチャされたビデオ・データ内のビデオ画像を検出して、ビデオ画像内の損傷部位を識別することと、
S32:検出された損傷部位に基づいてビデオ画像を分類して、損傷部位の候補画像分類セットを決定することと、
S33:事前設定されたスクリーニング条件に従って候補画像分類セットから車両損失査定画像を選択することと
を含む。
一実装例では、端末デバイスは、クライアントに配備されるアプリケーション・モジュールを含むことができる。一般的に、端末デバイスは、ビデオ録画機能および画像処理能力を有する汎用または専用のデバイス、たとえば、携帯電話またはタブレット・コンピュータなどのクライアントとすることができる。撮影者はクライアントを使用して損傷車両のビデオ録画を実行することができ、クライアントはキャプチャされたビデオ・データを分析し、損傷部位を識別して、損失査定画像を生成する。
任意選択で、サーバをさらに含めることができる。サーバはクライアントにより生成された損失査定画像を受信するように構成される。クライアントは生成された損失査定画像をサーバにリアルタイムまたは非同期で送信することができる。したがって、方法の別の実施形態では、方法は、
S3301:損失査定画像をリアルタイムでサーバに送信すること、または、
S3302:損失査定画像を非同期でサーバに送信すること
をさらに含むことができる。
図10は本出願による方法の別の実施形態の概略フローチャートである。図10に示すように、クライアントは、生成された損失査定画像をすぐにリモート・サーバにアップロードすることができ、または損失査定画像を後でバッチでリモート・サーバにアップロードまたはコピーすることができる。
サーバが損失査定画像を自動的に生成し、損傷部位を位置特定および追跡するなどの、前述の実施形態の説明に基づいて、クライアント上で損失査定画像を自動的に生成するための方法は、他の実装例をさらに含むことができる。たとえば、ビデオ録画プロンプト・メッセージは、生成された後に撮影端末に直接表示される。他の実施形態では、損失査定画像タイプ分類および識別、分類方式、ならびに損傷部位の識別、位置特定および追跡を説明している。詳細については、関連する実施形態の説明を参照することができ、ここでは繰り返さない。
本出願で提供する車両損失査定画像を取得するための方法によれば、クライアントは損傷車両のキャプチャされたビデオに基づいて損失査定画像を自動的に生成することができる。撮影者はクライアントを使用して損傷車両のビデオ録画を実行することによって、ビデオ・データをキャプチャすることができ、次いで、クライアントはキャプチャされたビデオ・データを分析し、損傷部位を識別して、損失査定に必要な様々なタイプの候補画像を取得する。さらに、候補画像から損傷車両の損失査定画像を生成することができる。本出願の実装例によれば、ビデオ録画はクライアント上で直接実行することができ、損失査定処理要件を満たす高品質な損失査定画像を自動的かつ迅速に生成することができ、それによって損失査定画像を取得する効率が高まり、また、保険会社の係員により損失査定画像を取得および処理するコストが削減される。
車両損失査定画像を取得するための前述の方法に基づいて、本出願は車両損失査定画像を取得するための装置をさらに提供する。装置は、本出願の方法のシステム(分散システムを含む)、ソフトウェア(アプリケーション)、モジュール、コンポーネント、サーバ、クライアントなどを、必要な実装ハードウェアと組み合わせて使用する装置を含むことができる。同一の革新的な構想に基づいて、本出願で提供する装置を以下の実施形態で説明する。方法および装置の実装例は類似している。したがって、本出願における装置の実装例については、前述の方法の実装例を参照することができ、重複部分は説明しない。以下の「ユニット」または「モジュール」という用語は、所定の機能を有するソフトウェアおよび/またはハードウェアの組み合わせを指す場合がある。以下の実施形態で説明する装置はソフトウェアを使用して実装されるが、ハードウェア、またはソフトウェアおよびハードウェアの組み合わせを使用して実装される装置の実施形態も可能であり、考えられる。図11は、本出願による車両損失査定画像を取得するための装置の一実施形態のモジュールの概略構造図である。図11に示すように、装置は、
端末デバイスによりアップロードされた損傷車両のキャプチャされたビデオ・データを受信するように構成されるデータ受信モジュール101と、
キャプチャされたビデオ・データ内のビデオ画像を検出して、ビデオ画像内の損傷部位を識別するように構成される損傷部位識別モジュール102と、
検出された損傷部位に基づいてビデオ画像を分類して、損傷部位の候補画像分類セットを決定するように構成される分類モジュール103と、
事前設定されたスクリーニング条件に従って候補画像分類セットから車両損失査定画像を選択するように構成されるスクリーニング・モジュール104と
を含むことができる。
前述の装置は、クライアントによりアップロードされたキャプチャされたビデオ・データの分析および処理を実施して、損失査定画像を取得するサーバに適用することができる。本出願は、クライアントに適用可能な車両損失査定画像を取得するための装置をさらに提供する。図12は、本出願による装置の別の実施形態のモジュールの概略構造図である。一部の実施形態では、装置は、
損傷車両のビデオ録画を実行して、ビデオ・データを取得するように構成される撮影モジュール201と、
キャプチャされたビデオ・データを処理端末に送信するように構成される通信モジュール202と、
処理端末により返された、損傷部位のリアルタイム追跡によって取得された位置領域を受信し、追跡された位置領域を表示するように構成される追跡および表示モジュール203と
を含むことができ、損傷部位は処理端末によりキャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出することによって識別される。
一実装例では、追跡および表示モジュール203は、表示画面を含む表示ユニットとすることができる。撮影者は表示画面内で損傷部位を指定することができ、損傷部位の追跡された位置領域を表示画面に表示することもできる。
本出願で提供する車両損失査定画像を取得するための方法は、プロセッサがコンピュータ内で対応するプログラム命令を実行することによって、実施することができる。本出願で提供する車両損失査定画像を取得するための装置は、プロセッサと、プロセッサにより実行可能な命令を記憶するように構成されるメモリとを含むことができ、プロセッサは命令を実行して、
損傷車両のキャプチャされたビデオ・データを受信することと、
キャプチャされたビデオ・データ内のビデオ画像を検出して、ビデオ画像内の損傷部位を識別することと、
検出された損傷部位に基づいてビデオ画像を分類して、損傷部位の候補画像分類セットを決定することと、
事前設定されたスクリーニング条件に従って候補画像分類セットから車両損失査定画像を選択することと
を実施する。
装置はサーバとすることができる。サーバは、クライアントによりアップロードされたキャプチャされたビデオ・データを受信し、次いで、損傷部位識別、タイプ分類、画像選択などを含む分析および処理を実行して、車両損失査定画像を取得する。別の実装例では、装置は代替的に、クライアントとすることができる。損傷車両のビデオ録画を実行した後、クライアントは分析および処理を直接実行して、車両損失査定画像を取得する。したがって、本出願における装置の別の実施形態では、損傷車両のキャプチャされたビデオ・データは、
端末デバイスがキャプチャされたビデオ・データを取得した後に端末デバイスによりアップロードされるデータ情報、または、
車両損失査定画像を取得するための装置による損傷車両のビデオ録画によって取得されるキャプチャされたビデオ・データ
を含むことができる。
さらに、装置がキャプチャされたビデオ・データを取得し、分析および処理を直接実行して、損失査定画像を取得する実施シナリオでは、装置はさらに、取得された損失査定画像をサーバに送信することができ、サーバは損失査定画像を記憶するか、またはさらなる損失査定処理を実行する。したがって、装置の別の実施形態では、損傷車両のキャプチャされたビデオ・データが、車両損失査定画像を取得するための装置によるビデオ録画によって取得される場合、プロセッサは命令を実行して、
損失査定画像をリアルタイムで処理端末に送信すること、または、
損失査定画像を非同期で処理端末に送信すること
をさらに実施する。
損失査定画像が自動的に生成され、損傷部位が位置特定および追跡されるなどの、前述の方法または装置の実施形態の説明に基づいて、本出願におけるクライアント上で損失査定画像を自動的に生成するための装置は、他の実装例をさらに含むことができる。たとえば、ビデオ録画プロンプト・メッセージは、生成された後に撮影端末に表示される。他の実施形態では、損失査定画像タイプ分類および識別、分類方式、ならびに損傷部位の位置特定および追跡を説明している。詳細については、関連する実施形態の説明を参照することができ、ここでは繰り返さない。
撮影者は本出願で提供する車両損失査定画像を取得するための装置を使用して損傷車両のビデオ録画を実行することによって、ビデオ・データをキャプチャすることができ、次いで、キャプチャされたビデオ・データを分析して、損失査定に必要な様々なタイプの候補画像を取得する。さらに、候補画像から損傷車両の損失査定画像を生成することができる。本出願の実装例によれば、ビデオ録画はクライアント上で実行することができ、損失査定処理要件を満たす高品質な損失査定画像を自動的かつ迅速に生成することができ、それによって損失査定画像を取得する効率が高まり、また、保険会社の係員により損失査定画像を取得および処理するコストも削減される。
本出願の前述の実施形態の方法または装置は、コンピュータ・プログラムを使用して業務ロジックを実現し、業務ロジックを記憶媒体に記録することができ、記憶媒体は、コンピュータで読み取り可能かつ実行可能にして、本出願の実施形態に記載した解決策の効果を実現することができる。したがって、本出願はコンピュータ可読記憶媒体をさらに提供し、コンピュータ可読記憶媒体はコンピュータ命令を記憶し、命令が実行された場合に、
損傷車両のキャプチャされたビデオ・データを受信するステップと、
キャプチャされたビデオ・データ内のビデオ画像を検出して、ビデオ画像内の損傷部位を識別するステップと、
検出された損傷部位に基づいてビデオ画像を分類して、損傷部位の候補画像分類セットを決定するステップと、
事前設定されたスクリーニング条件に従って候補画像分類セットから車両損失査定画像を選択するステップと
を実施することができる。
本出願は他のコンピュータ可読記憶媒体をさらに提供し、コンピュータ可読記憶媒体はコンピュータ命令を記憶し、命令が実行された場合に、
損傷車両のビデオ録画を実行して、キャプチャされたビデオ・データを取得するステップと、
キャプチャされたビデオ・データを処理端末に送信するステップと、
処理端末により返された、損傷部位のリアルタイム追跡によって取得された位置領域を受信し、追跡された位置領域を表示するステップと
が実施され、損傷部位は処理端末によりキャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を検出することによって識別される。
コンピュータ可読記憶媒体は、情報を記憶するように構成される物理的装置を含むことができる。通常、情報はデジタル化された後に、電気、磁気、光学、または別の形式の媒体を使用して記憶される。実施形態で説明するコンピュータ可読記憶媒体は、電気エネルギーを使用して情報を記憶する装置、たとえば、RAMおよびROMなどの様々なタイプのメモリと、磁気エネルギーを使用して情報を記憶する装置、たとえば、ハード・ディスク、フロッピー・ディスク、磁気テープ、磁気コア・メモリ、バブル・メモリ、またはUSBフラッシュ・ドライブと、情報を光学的に記憶する装置、たとえば、CDまたはDVDとを含むことができる。当然ながら、他の形式の読み取り可能な記憶媒体、たとえば、量子メモリ、またはグラフェン・メモリなどもあり得る。
前述の装置、方法またはコンピュータ可読記憶媒体は、車両損失査定画像を取得するためのサーバに適用して、車両画像ビデオに基づいて車両損失査定画像を自動的に取得することができる。サーバは、独立したサーバ、または複数のアプリケーション・サーバを含むシステム・クラスタ、あるいは分散システムのサーバとすることができる。一実施形態では、サーバは、プロセッサと、プロセッサにより実行可能な命令を記憶するように構成されるメモリとを含むことができ、プロセッサは命令を実行して、
端末デバイスによりアップロードされた損傷車両のキャプチャされたビデオ・データを受信することと、
キャプチャされたビデオ・データ内のビデオ画像を検出して、ビデオ画像内の損傷部位を識別することと、
検出された損傷部位に基づいてビデオ画像を分類して、損傷部位の候補画像分類セットを決定することと、
事前設定されたスクリーニング条件に従って候補画像分類セットから車両損失査定画像を選択することと
を実施することができる。
前述の装置、方法またはコンピュータ可読記憶媒体は、車両損失査定画像を取得するための端末デバイスに適用して、車両画像ビデオに基づいて車両損失査定画像を自動的に取得することができる。端末デバイスは、サーバとして実装されてもよく、または現場で損傷車両のビデオ録画を実行するクライアントとして実装されてもよい。図13は、本出願による端末デバイスの一実施形態の概略構造図である。一実施形態では、端末デバイスは、プロセッサと、プロセッサにより実行可能な命令を記憶するように構成されるメモリとを含むことができ、プロセッサは命令を実行して、
損傷車両のビデオ録画によってキャプチャされたビデオ・データを受信することと、
キャプチャされたビデオ・データ内のビデオ画像を検出して、ビデオ画像内の損傷部位を識別することと、
検出された損傷部位に基づいてビデオ画像を分類して、損傷部位の候補画像分類セットを決定することと、
事前設定されたスクリーニング条件に従って候補画像分類セットから車両損失査定画像を選択することと
を実施することができる。
取得されたキャプチャされたビデオ・データは、端末デバイスがキャプチャされたビデオ・データを取得した後にアップロードされるデータ情報であってもよく、または端末デバイスにより直接損傷車両のビデオ録画を実行することによってキャプチャされたビデオ・データであってもよい。
さらに、端末デバイスがビデオ録画を実行するクライアントである場合、プロセッサは命令を実行して、
損失査定画像をリアルタイムでサーバに送信すること、または、
損失査定画像を非同期でサーバに送信すること
をさらに実施する。
撮影者は本出願で提供する車両損失査定画像を取得するための端末デバイスを使用して損傷車両のビデオ録画を実行することによって、ビデオ・データをキャプチャし、次いで、クライアントはキャプチャされたビデオ・データを分析し、損傷部位を識別して、損失査定に必要な様々なタイプの候補画像を取得する。さらに、候補画像から損傷車両の損失査定画像を生成することができる。本出願の実装例によれば、ビデオ録画はクライアント上で直接実行することができ、損失査定処理要件を満たす高品質な損失査定画像を自動的かつ迅速に生成することができ、それによって損失査定画像を取得する効率が高まり、また、保険会社の係員により損失査定画像を取得および処理するコストも削減される。
本出願の内容では、損傷領域追跡方式、CNNおよびRPNを使用した損傷部位および車両部品の検出、ならびに損傷部位ベースの画像識別および分類における、データ・モデル構築、データ取得、対話、計算、判定などを説明しているが、本出願は、業界の通信標準、標準データ・モデル、コンピュータ処理および記憶ルール、または本出願に記載の実施形態に合致するものに限定されない。一部の業界標準、あるいはカスタマイズした方式で、または本明細書に記載の実装に基づいてわずかに修正された実装例も、前述の実施形態と同一、同等、または類似の効果、あるいは変形後に予測可能な効果を実現することができる。これらの修正または変形をデータ取得、記憶、判定、および処理方式に適用した後に得られる実施形態は、依然として本出願の任意選択の実装例の範囲に属することができる。
1990年代には、技術の改良は、ハードウェアの改良(たとえば、ダイオード、トランジスタ、スイッチなどの回路構造の改良)、またはソフトウェアの改良(方法手順の改良)に明確に分類することができる。しかしながら、技術の発展に伴い、多くの方法手順の改良は、ハードウェア回路構造の直接的な改良とみなすことができる。設計者はほとんどの場合、改良された方法手順をハードウェア回路にプログラミングすることにより、対応するハードウェア回路構造を取得する。したがって、方法手順の改良がハードウェア・エンティティ・モジュールでは実装できないと言うことはできない。たとえば、フィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・ロジック・デバイス(PLD)は、ユーザがデバイスをプログラミングすることによって論理的な機能が決定されるタイプの集積回路である。設計者は自発的なプログラミングを行って、デジタル・システムを単一のPLDに「統合」し、チップ製造業者が専用の集積回路チップを設計および製作する必要はない。また、集積回路チップを手作りで製作する代わりに、プログラミングは主に「ロジック・コンパイラ」ソフトウェアを使用して実施され、これはプログラムを書く際に使用されるソフトウェア・コンパイラに似たものである。コンパイルする前の元のコードも特定のプログラミング言語で書かれ、これはハードウェア記述言語(HDL:Hardware Description Language)と呼ばれる。多くのタイプのHDLがあり、たとえば、高度ブール式言語(ABEL:Advanced Boolean Expression Language)、アルテラ社のハードウェア記述言語(AHDL:Altera Hardware Description Language)、Confluence、コーネル大学のプログラミング言語(CUPL:Cornell University Programming Language)、HDCal、Java(登録商標)ハードウェア記述言語(JHDL:Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、Rubyハードウェア記述言語(RHDL:Ruby Hardware Description Language)などがある。現在、超高速集積回路ハードウェア記述言語(VHDL:Very−High−Speed Integrated Circuit Hardware Description Language)およびVerilogが最も一般的に使用されている。当業者であれば、方法手順が前述のハードウェア記述言語を使用して論理的にプログラミングされ、次いで集積回路にプログラミングされる限り、論理的な方法手順を実装するハードウェア回路は簡単に取得できることも理解するはずである。
コントローラは任意の適切な方式で実装することができ、たとえば、コントローラは、たとえば、マイクロプロセッサまたはプロセッサ、ならびにプロセッサ、論理ゲート、スイッチ、特定用途向け集積回路(ASIC)、プログラマブル・ロジック・コントローラ、および組み込みマイクロコントローラによって実行可能なコンピュータ可読プログラム・コード(たとえば、ソフトウェアまたはファームウェア)を記憶したコンピュータ可読媒体の形をとることができる。コントローラの例には、限定はしないが、次のマイクロコントローラ:ARC625D、Atmel AT91SAM、Microchip PIC18F26K20、およびSilicone Labs C8051F320が含まれる。メモリ・コントローラは、メモリ制御ロジックの一部として実装することもできる。当業者であれば、純粋なコンピュータ可読プログラム・コードの形態でコントローラを実装することに加えて、論理ゲート、スイッチ、特定用途向け集積回路、プログラマブル・ロジック・コントローラ、および組み込みマイクロコントローラの形態、ならびに同一の機能を実現する他の形態でコントローラを実装することも可能であるということも理解する。そのようなコントローラはハードウェア・コンポーネントとみなすことができ、様々な機能を実現するためにその中に含まれる装置もまた、ハードウェア・コンポーネント内の構造とみなすことができる。あるいは、様々な機能を実現するように構成される装置は、方法を実装するソフトウェア・モジュールと、ハードウェア・コンポーネント内の構造との両方とみなすことができる。
前述の実施形態に記載のシステム、装置、モジュール、またはユニットは、コンピュータ・チップまたはエンティティによって実装することができ、または特定の機能を有する製品によって実装することができる。典型的なデバイスはコンピュータである。コンピュータは、たとえば、パーソナル・コンピュータ、ラップトップ・コンピュータ、車載用マン−マシン対話型デバイス、携帯電話、カメラ付き電話、スマートフォン、パーソナル・デジタル・アシスタント、メディア・プレーヤー、ナビゲーション・デバイス、電子メール・デバイス、ゲーム・コンソール、タブレット・コンピュータ、ウェアラブル・デバイス、またはこれらのデバイスの任意の組み合わせであってもよい。
本出願は実施形態またはフローチャートに記載の方法動作ステップを提供するが、慣例的な手段または非創造的な手段に基づいて、より多いまたはより少ない動作ステップが含まれてもよい。実施形態で列挙したステップの順序は、多数のステップの実行順序の1つにすぎず、唯一の実行順序を示すものではない。実際の装置または端末製品が実行された場合、実施形態または添付図面に示した方法の順序に従って、順次実行または並列実行が(たとえば、並列プロセッサまたはマルチ・スレッド処理環境、さらには分散データ処理環境内で)行われてもよい。「含む(include)」、「備える(comprise)」という用語、またはそれらの他の任意の変形は、非排他的な包含を含むものとし、したがって、一連の要素を含む処理、方法、製品、またはデバイスは、そのような要素を含むだけでなく、明示的に列挙していない他の要素を含み、あるいはそのような処理、方法、製品、またはデバイスに固有の要素をさらに含む。特記のない限り、それらの要素を含む処理、方法、製品、またはデバイスに存在する他の同一または同等の要素は排除されない。
説明の便宜上、前述の装置を説明する場合、その装置は説明する機能に応じてそれぞれユニットに分割される。当然ながら、本出願の一実装例では、モジュールの機能は、同一または複数のソフトウェアおよび/またはハードウェアで実装されてもよく、あるいは同一の機能を実装するモジュールは、複数のサブモジュールまたはサブユニットの組み合わせを使用して実装されてもよい。たとえば、前述の装置の実施形態は例にすぎない。たとえば、ユニットの分割は論理的な機能の分割にすぎず、他の実装例では他の分割であり得る。たとえば、複数のユニットまたはコンポーネントは、組み合わされても別のシステムに統合されてもよく、あるいは一部の特徴は無視されても実行されなくてもよい。また、図示または説明した相互結合または直接結合あるいは通信接続は、一部のインターフェースを使用して実装されてもよい。装置またはユニットの間の間接結合または通信接続は、電気、機械、またはその他の形態で実装されてもよい。
当業者であれば、純粋なコンピュータ可読プログラム・コードの形態でコントローラを実装することに加えて、論理ゲート、スイッチ、特定用途向け集積回路、プログラマブル・ロジック・コントローラ、および組み込みマイクロコントローラの形態、ならびに同一の機能を実現する他の形態でコントローラを実装することも可能であるということも理解する。そのようなコントローラはハードウェア・コンポーネントとみなすことができ、様々な機能を実現するためにその中に含まれる装置もまた、ハードウェア・コンポーネント内の構造とみなすことができる。あるいは、様々な機能を実現するように構成される装置は、方法を実装するソフトウェア・モジュールと、ハードウェア・コンポーネント内の構造との両方とみなすことができる。
本出願は、本明細書の実施形態による方法、デバイス(システム)、およびコンピュータ・プログラム製品のフローチャートおよび/またはブロック図を参照して説明している。コンピュータ・プログラム命令が、フローチャートおよび/またはブロック図内の各処理および/または各ブロック、ならびにフローチャートおよび/またはブロック図内の処理および/またはブロックの組み合わせを実装するために使用できることを理解されたい。これらのコンピュータ・プログラム命令を、汎用コンピュータ、専用コンピュータ、組み込みプロセッサ、または別のプログラマブル・データ処理デバイスのプロセッサに提供して、マシンを生成することによって、コンピュータまたは他のプログラマブル・データ処理デバイスのプロセッサにより実行された命令が、フローチャートの1つまたは複数の処理、ならびに/あるいはブロック図の1つまたは複数のブロックの特定の機能を実装するための装置を生成するようにしてもよい。
代替的には、これらのコンピュータ・プログラム命令は、コンピュータ可読メモリに記憶された命令が、命令装置を含む製造品を生成するような方式で動作するように、コンピュータまたは他のプログラマブル・データ処理デバイスに指示することができるコンピュータ可読メモリに記憶されてもよい。命令装置は、フローチャートの1つまたは複数の処理、ならびに/あるいはブロック図の1つまたは複数のブロックの特定の機能を実装する。
代替的には、これらのコンピュータ・プログラム命令を、コンピュータまたは他のプログラマブル・データ処理デバイスにロードし、その結果、一連の動作およびステップがコンピュータまたは他のプログラマブル・デバイスで実行されて、コンピュータ実施処理が生成されるようにしてもよい。したがって、コンピュータまたは他のプログラマブル・デバイス上で実行される命令は、フローチャートの1つまたは複数の処理、ならびに/あるいはブロック図の1つまたは複数のブロックの機能を実現するためのステップを提供する。
典型的な構成では、コンピューティング・デバイスは、1つまたは複数のプロセッサ(CPU)、入力/出力インターフェース、ネットワーク・インターフェース、およびメモリを含む。
メモリは、コンピュータ可読媒体の中で、揮発性メモリ、たとえば、ランダム・アクセス・メモリ(RAM)、ならびに/あるいは不揮発性メモリ、たとえば、読み取り専用メモリ(ROM)またはフラッシュ・メモリ(フラッシュRAM)を含むことができる。メモリはコンピュータ可読媒体の一例である。
コンピュータ可読媒体は、任意の方法または技術を使用して情報記憶を実現できる、不揮発性、揮発性、取り外し可能、および取り外し不可能媒体を含む。情報は、コンピュータ可読命令、データ構造、プログラム・モジュール、またはその他のデータとすることができる。コンピュータ記憶媒体の例には、限定はしないが、相変化メモリ(PRAM:phase change memory)、スタティック・ランダム・アクセス・メモリ(SRAM)、ダイナミック・ランダム・アクセス・メモリ(DRAM)、その他のタイプのランダム・アクセス・メモリ(RAM)、読み取り専用メモリ(ROM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、フラッシュ・メモリもしくはその他のメモリ技術、コンパクトディスク読み取り専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)またはその他の光学ストレージ、カセット磁気テープ、テープおよびディスク・ストレージもしくはその他の磁気記憶デバイス、あるいはコンピューティング・デバイスがアクセス可能な情報を記憶するように構成できる他の任意の非伝送媒体が含まれる。本開示の説明に基づいて、コンピュータ可読媒体は、一時的コンピュータ可読媒体(一時的媒体)、たとえば、変調されたデータ信号および搬送波を含まない。
当業者であれば、本出願の実施形態が方法、システム、またはコンピュータ・プログラム製品として提供できることを理解するはずである。したがって、本出願は、ハードウェアのみ、ソフトウェアのみ、またはソフトウェアとハードウェアとの組み合わせの形態を使用することができる。また、本出願は、コンピュータ使用可能プログラム・コードを含む1つまたは複数のコンピュータ使用可能記憶媒体(ディスク・メモリ、CD−ROM、光学メモリなどを含むがこれらに限定されない)上で実装されるコンピュータ・プログラム製品の形態を使用することができる。
本出願は、たとえばプログラム・モジュールなど、コンピュータにより実行可能なコンピュータ実行可能命令の一般的な文脈で説明している場合がある。一般的に、プログラム・モジュールは、特定のタスクの実行や、特定の抽象データ型の実装などのためのルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。本出願は、通信ネットワークを介して接続されたリモート処理デバイスによってタスクが実行される分散コンピューティング環境において実践することもできる。分散コンピューティング環境では、プログラム・モジュールは、記憶デバイスを含むローカルおよびリモート両方のコンピュータ記憶媒体に配置することができる。
本開示の実施形態は、漸進的(progressive)に説明している。実施形態における同一または類似の部分については、これらの実施形態を参照されたい。各実施形態は、他の実施形態との違いに焦点を当てている。特に、システムの実施形態は基本的に方法の実施形態と類似しているので、簡潔に説明しており、関連する部分については、方法の実施形態の部分的な説明を参照されたい。本明細書の説明では、「一実施形態」、「一部の実施形態」、「一例」、「一具体例」、または「一部の例」などの参照用語の説明は、実施形態または例を参照して説明する特徴、構造、材料、または特徴が、本出願の少なくとも1つの実施形態または例に含まれることを意味する。本明細書では、前述の用語の概略説明は、必ずしも同一の実施形態または例に向けたものではない。そのうえ、説明した特徴、構造、材料、または特徴は、任意の1つまたは複数の実施形態または例において適切な方式で組み合わせることができる。また、互いに矛盾しなければ、当業者は、本明細書に記載した異なる実施形態または例、ならびにそれらの異なる実施形態または例の特徴の組み合わせやグループ化などを行うことができる。
前述の説明は本出願の実施形態にすぎず、本出願の限定を意図したものではない。当業者であれば、様々な修正および変更を本出願に行うことができる。本出願の趣旨および原理内で行われるいかなる修正、等価な置換、改良なども、本出願の特許請求の範囲に入るものとする。

Claims (34)

  1. 車両損失査定画像を取得するための方法であって、
    クライアントにより、キャプチャされたビデオ・データを取得し、前記キャプチャされたビデオ・データをサーバに送信することと、
    前記サーバにより、前記キャプチャされたビデオ・データから1つまたは複数のビデオ画像を選択して、前記1つまたは複数のビデオ画像内の車両の損傷部位を識別することと
    前記サーバにより、前記キャプチャされたビデオ・データから前記1つまたは複数のビデオ画像内の前記損傷部位の位置領域を追跡することであって、
    前記サーバにより、前記キャプチャされたビデオ・データ内の前記1つまたは複数のビデオ画像から前記識別された損傷部位に従って前記損部位の前記位置領域を決定することと、
    前記サーバにより、表示のために前記決定された前記位置領域を前記クライアントに送信することと
    を含む追跡することと、
    前記サーバにより、前記識別された損傷部位に基づいて前記1つまたは複数のビデオ画像を分類して、前記車両の前記損傷部位の1つまたは複数の候補画像分類セットを決定することと、
    前記サーバにより、前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像内の前記損傷部位の鮮明度と、前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像の前記損傷部位の撮影角度とに従って前記1つまたは複数の候補画像分類セットから車両損失査定画像を選択することと
    を含む、車両損失査定画像を取得するための方法。
  2. 車両損失査定画像を取得するためのコンピュータに実装される方法であって、
    端末デバイスによりアップロードされた損傷車両のキャプチャされたビデオ・データを受信することと、
    前記キャプチャされたビデオ・データから1つまたは複数のビデオ画像を選択して、前記1つまたは複数のビデオ画像内の前記損傷車両の損傷部位を識別することと
    前記キャプチャされたビデオ・データから前記1つまたは複数のビデオ画像内の前記損傷部位の位置領域を追跡することであって、
    前記キャプチャされたビデオ・データ内の前記1つまたは複数のビデオ画像から前記識別された損傷部位に従って前記損部位の前記位置領域を決定することと、
    表示のために前記決定された前記位置領域を前記端末デバイスに送信することと
    を含む追跡することと、
    前記損傷車両の前記識別された損傷部位に基づいて前記1つまたは複数のビデオ画像を分類して、前記損傷部位の1つまたは複数の候補画像分類セットを決定することと、
    前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像内の前記損傷部位の鮮明度と、前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像の前記損傷部位の撮影角度とに従って前記1つまたは複数の候補画像分類セットから車両損失査定画像を選択することと
    を含む、車両損失査定画像を取得するための方法。
  3. 前記1つまたは複数の決定された候補画像分類セットは、
    前記損傷部位を表示するクローズ・アップ画像セットと、前記損傷部位が属する車両部品を表示する部品画像セットと
    を含む、請求項2に記載の車両損失査定画像を取得するための方法。
  4. 前記クローズ・アップ画像セット内のビデオ画像は、
    前記損傷部位を含む前記ビデオ画像の領域に対する前記損傷部位が占める領域の面積率が、第1の事前設定された比率より大きいことと、
    前記損傷部位を含む前記ビデオ画像の長さに対する前記損傷部位の横座標スパンの比率が、第2の事前設定された比率より大きく、および/または前記損傷部位を含む前記ビデオ画像の高さに対する前記損傷部位の縦座標スパンの比率が、第3の事前設定された比率より大きいことと、
    同一の損傷部位を含むビデオ画像から、前記ビデオ画像内の前記同一の損傷部位の面積の降順で前記ビデオ画像がソートされた後に、最初のK個のビデオ画像が選択され、あるいは1つまたは複数のビデオ画像であって、各ビデオ画像において、前記ビデオ画像の面積に対する前記損傷部位の面積の比率が第4の事前設定された面積率内である、1つまたは複数のビデオ画像が選択され、K≧1であることと
    のうちの少なくとも1つによって決定される、請求項3に記載の車両損失査定画像を取得するための方法。
  5. 前記損傷部位の前記クローズ・アップ画像セットおよび前記部品画像セットの少なくとも1つが空であること、あるいは前記クローズ・アップ画像セット内の前記1つまたは複数のビデオ画像が前記対応する損傷部位の領域全体をカバーしていないことを検出したことに応答して、ビデオ録画プロンプト・メッセージを生成することと、
    前記ビデオ録画プロンプト・メッセージを前記端末デバイスに送信することと
    をさらに含む、請求項3に記載の車両損失査定画像を取得するための方法。
  6. 前記ビデオ画像内の前記損傷部位が識別された後に、前記方法は
    記損傷部位が前記ビデオ画像から離脱した後に前記損傷部位が前記ビデオ画像に再度進入したことに応答して、前記損傷部位の画像特徴データに基づいて前記損傷部位の前記位置領域を再度決定することと
    をさらに含む、請求項2に記載の車両損失査定画像を取得するための方法。
  7. 前記端末デバイスにより送信された新たな損傷部位の情報を受信することであって、前記新たな損傷部位は、前記端末デバイスが受信した対話型指示に基づいて前記識別された損傷部位の前記位置領域を変更した後に再決定される損傷部位を含む、受信すること
    をさらに含み、
    対応して、前記識別された損傷部位に基づいて前記1つまたは複数のビデオ画像を前記分類することは、前記新たな損傷部位の前記情報に基づいて前記1つまたは複数のビデオ画像を分類することを含む、
    請求項に記載の車両損失査定画像を取得するための方法。
  8. 前記1つまたは複数のビデオ画像内に少なくとも2つの損傷部位が存在するのを検出したことに応答して、前記少なくとも2つの損傷部位の間の距離が設定された近接条件を満たすか否かを判定することと、
    前記少なくとも2つの損傷部位の間の前記距離が前記設定された近接条件を満たすと判定したことに応答して、前記少なくとも2つの損傷部位を同時に追跡し、それぞれ対応する車輛損失査定画像を生成することと
    をさらに含む、請求項6または7に記載の車両損失査定画像を取得するための方法。
  9. 車両損失査定画像を取得するためのコンピュータに実装される方法であって、
    損傷車両のビデオ録画を実行して、キャプチャされたビデオ・データを取得することと、
    前記キャプチャされたビデオ・データを処理端末に送信することと、
    前記処理端末により返された、前記処理端末による前記キャプチャされたビデオ・データ内の損傷部位の追跡によって取得された位置領域を受信し、前記追跡された位置領域を表示することと
    を含み、前記損傷部位は前記処理端末により前記キャプチャされたビデオ・データから1つまたは複数のビデオ画像を選択することによって識別され、前記処理端末による前記キャプチャされたビデオ・データ内の前記損傷部位の前記位置領域の追跡は、前記処理端末によって前記キャプチャされたビデオ・データ内の前記1つまたは複数のビデオ画像から前記識別された損傷部位に従って前記損傷部位の前記位置領域を決定し、前記処理端末による表示のため前記決定された位置領域を送信することを含む、車両損失査定画像を取得するための方法。
  10. 前記処理端末により送信されたビデオ録画プロンプト・メッセージを受信および表示することをさらに含み、前記損傷部位のクローズ・アップ画像セットおよび部品画像セットの少なくとも1つが空であること、あるいは前記クローズ・アップ画像セット内の前記1つまたは複数のビデオ画像が前記対応する損傷部位の領域全体をカバーしていないことを前記処理端末が検出した場合に、前記ビデオ録画プロンプト・メッセージが生成される、
    請求項に記載の車両損失査定画像を取得するための方法。
  11. 受信した対話型指示に基づいて前記損傷部位の前記位置領域を変更した後に、新たな損傷部位を再決定することと、
    前記新たな損傷部位の情報を前記処理端末に送信して、前記処理端末が前記新たな損傷部位の前記情報に基づいて前記1つまたは複数のビデオ画像を分類すること
    をさらに含む、請求項または10に記載の車両損失査定画像を取得するための方法。
  12. 車両損失査定画像を取得するための方法であって、
    損傷車両のキャプチャされたビデオ・データを受信することと、
    前記キャプチャされたビデオ・データから1つまたは複数のビデオ画像を選択して、前記1つまたは複数のビデオ画像内の前記損傷車両の損傷部位を識別することと
    前記キャプチャされたビデオ・データから前記1つまたは複数のビデオ画像内の前記損傷部位の位置領域を追跡することであって、
    前記キャプチャされたビデオ・データ内の前記1つまたは複数のビデオ画像から前記識別された損傷部位に従って前記損部位の前記位置領域を決定することと、
    表示のために前記決定された位置領域を端末デバイスに送信することと
    を含む追跡することと、
    前記損傷車両の前記識別された損傷部位に基づいて前記1つまたは複数のビデオ画像を分類して、前記損傷部位の1つまたは複数の候補画像分類セットを決定することと、
    前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像内の前記損傷部位の鮮明度と、前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像の前記損傷部位の撮影角度とに従って前記1つまたは複数の候補画像分類セットから車両損失査定画像を選択することと
    を含む、車両損失査定画像を取得するための方法。
  13. 前記1つまたは複数の決定された候補画像分類セットは、
    前記損傷部位を表示するクローズ・アップ画像セットと、前記損傷部位が属する車両部品を表示する部品画像セットと
    を含む、請求項12に記載の車両損失査定画像を取得するための方法。
  14. 前記クローズ・アップ画像セット内のビデオ画像は、
    前記損傷部位を含む前記ビデオ画像の領域に対する前記損傷部位が占める領域の面積率が、第1の事前設定された比率より大きいことと、
    前記損傷部位を含む前記ビデオ画像の長さに対する前記損傷部位の横座標スパンの比率が、第2の事前設定された比率より大きく、および/または前記損傷部位を含む前記ビデオ画像の高さに対する前記損傷部位の縦座標スパンの比率が、第3の事前設定された比率より大きいことと、
    同一の損傷部位を含むビデオ画像から、前記ビデオ画像内の前記同一の損傷部位の面積の降順で前記ビデオ画像がソートされた後に、最初のK個のビデオ画像が選択され、あるいは1つまたは複数のビデオ画像であって、各ビデオ画像において、前記ビデオ画像の面積に対する前記損傷部位の面積の比率が第4の事前設定された面積率内である、1つまたは複数のビデオ画像が選択され、K≧1であることと
    のうちの少なくとも1つによって決定される、請求項13に記載の車両損失査定画像を取得するための方法。
  15. 前記損傷部位の前記クローズ・アップ画像セットおよび前記部品画像セットの少なくとも1つが空であること、あるいは前記クローズ・アップ画像セット内の前記1つまたは複数のビデオ画像が前記対応する損傷部位の領域全体をカバーしていないことを検出したことに応答して、ビデオ録画プロンプト・メッセージを生成することと、
    前記ビデオ録画プロンプト・メッセージを表示することと
    をさらに含む、請求項13に記載の車両損失査定画像を取得するための方法。
  16. 前記ビデオ画像内の前記損傷部位が識別された後に、前記方法は
    記損傷部位が前記ビデオ画像から離脱した後に前記損傷部位が前記ビデオ画像に再度進入したことに応答して、前記損傷部位の画像特徴データに基づいて前記損傷部位の前記位置領域を再度決定することと
    をさらに含む、請求項12に記載の車両損失査定画像を取得するための方法。
  17. 受信した対話型指示に基づいて前記識別された損傷部位の前記位置領域を変更した後に、新たな損傷部位を再決定すること
    をさらに含み、
    対応して、前記識別された損傷部位に基づいて前記1つまたは複数のビデオ画像を前記分類することは、前記新たな損傷部位の情報に基づいて前記1つまたは複数のビデオ画像を分類することを含む、
    請求項16に記載の車両損失査定画像を取得するための方法。
  18. 少なくとも2つの示された損傷部位を受信したことに応答して、前記少なくとも2つの損傷部位の間の距離が、設定された近接条件を満たすか否かを判定することと、
    前記少なくとも2つの損傷部位の間の前記距離が前記設定された近接条件を満たすと判定したことに応答して、前記少なくとも2つの損傷部位を同時に追跡し、それぞれ対応する損失査定画像を生成することと
    をさらに含む、請求項16または17に記載の車両損失査定画像を取得するための方法。
  19. 前記車両損失査定画像をリアルタイムでサーバに送信すること、または、
    前記車両損失査定画像を非同期でサーバに送信すること
    をさらに含む、請求項12に記載の車両損失査定画像を取得するための方法。
  20. 車両損失査定画像を取得するための装置であって、
    端末デバイスによりアップロードされた損傷車両のキャプチャされたビデオ・データを受信するように構成されるデータ受信モジュールと、
    前記キャプチャされたビデオ・データから1つまたは複数のビデオ画像を選択して、前記1つまたは複数のビデオ画像内の前記損傷車両の損傷部位を識別するように構成される損傷部位識別モジュールと
    前記キャプチャされたビデオ・データから前記1つまたは複数のビデオ画像内の前記損傷部位の位置領域を追跡するように構成される追跡モジュールであって、
    前記キャプチャされたビデオ・データ内の前記1つまたは複数のビデオ画像から前記識別された損傷部位に従って前記損部位の前記位置領域を決定し、
    表示のために前記決定された前記位置領域を前記端末デバイスに送信すること、を備える追跡モジュールと、
    前記識別された損傷部位に基づいて前記1つまたは複数のビデオ画像を分類して、前記損傷車両の前記損傷部位の1つまたは複数の候補画像分類セットを決定するように構成される分類モジュールと、
    前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像内の前記損傷部位の鮮明度と、前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像の前記損傷部位の撮影角度とに従って前記1つまたは複数の候補画像分類セットから車両損失査定画像を選択するように構成されるスクリーニング・モジュールと
    を備える、車両損失査定画像を取得するための装置。
  21. 車両損失査定画像を取得するための装置であって、
    損傷車両のビデオ録画を実行して、キャプチャされたビデオ・データを取得するように構成される撮影モジュールと、
    前記キャプチャされたビデオ・データを処理端末に送信するように構成される通信モジュールと、
    前記処理端末により返された、前記処理端末による前記キャプチャされたビデオ・データ内の損傷部位の追跡によって取得された位置領域を受信し、前記追跡された位置領域を表示するように構成される追跡モジュールと
    を備え、前記損傷部位は前記処理端末により前記キャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を選択することによって識別され、前記処理端末による前記キャプチャされた前記ビデオ・データ内の前記損傷部位の前記位置領域の追跡は、前記処理端末によって前記キャプチャされた前記ビデオ・データ内の前記1つまたは複数のビデオ画像から前記識別された損傷部位に従って前記損傷部位の位置前記領域を決定し、前記処理端末によって表示のため前記決定された位置領域を送信することを含む、車両損失査定画像を取得するための装置。
  22. 車両損失査定画像を取得するための装置であって、プロセッサと、前記プロセッサにより実行可能な命令を記憶するように構成されるメモリとを備え、前記プロセッサは前記命令を実行して、
    損傷車両のキャプチャされたビデオ・データを受信することと、
    前記キャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を選択して、前記1つまたは複数のビデオ画像内の前記損傷車両の損傷部位を識別することと
    前記キャプチャされたビデオ・データから前記1つまたは複数のビデオ画像内の前記損傷部位の位置領域を追跡することであって、
    前記キャプチャされたビデオ・データ内の前記1つまたは複数のビデオ画像から前記識別された損傷部位に従って前記損部位の前記位置領域を決定することと、
    表示のために前記決定された位置領域を端末デバイスに送信することと
    を含む追跡することと、
    前記識別された損傷部位に基づいて前記1つまたは複数のビデオ画像を分類して、前記損傷部位の1つまたは複数の候補画像分類セットを決定することと、
    前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像内の前記損傷部位の鮮明度と、前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像の前記損傷部位の撮影角度とに従って前記1つまたは複数の候補画像分類セットから車両損失査定画像を選択することと
    を実施する、車両損失査定画像を取得するための装置。
  23. 前記プロセッサが前記命令を実行した場合、前記1つまたは複数の決定された候補画像分類セットは、
    前記損傷部位を表示するクローズ・アップ画像セットと、前記損傷部位が属する車両部品を表示する部品画像セットと
    を含む、請求項22に記載の車両損失査定画像を取得するための装置。
  24. 前記プロセッサが前記命令を実行した場合、前記クローズ・アップ画像セット内のビデオ画像は、
    前記損傷部位を含む前記ビデオ画像の領域に対する前記損傷部位が占める領域の面積率が、第1の事前設定された比率より大きいことと、
    前記損傷部位を含む前記ビデオ画像の長さに対する前記損傷部位の横座標スパンの比率が、第2の事前設定された比率より大きく、および/または前記損傷部位を含む前記ビデオ画像の高さに対する前記損傷部位の縦座標スパンの比率が、第3の事前設定された比率より大きいことと、
    同一の損傷部位を含むビデオ画像から、前記ビデオ画像内の前記同一の損傷部位の面積の降順で前記ビデオ画像がソートされた後に、最初のK個のビデオ画像が選択され、あるいは1つまたは複数のビデオ画像であって、各ビデオ画像において、前記ビデオ画像の面積に対する前記損傷部位の面積の比率が第4の事前設定された面積率内である、1つまたは複数のビデオ画像が選択され、K≧1であることと
    のうちの少なくとも1つによって決定される、請求項23に記載の車両損失査定画像を取得するための装置。
  25. 前記プロセッサは前記命令を実行して、
    前記損傷部位の前記クローズ・アップ画像セットおよび前記部品画像セットの少なくとも1つが空であること、あるいは前記クローズ・アップ画像セット内の前記1つまたは複数のビデオ画像が前記対応する損傷部位の領域全体をカバーしていないことを検出したことに応答して、ビデオ録画プロンプト・メッセージを生成すること
    をさらに実施し、
    前記ビデオ録画プロンプト・メッセージは前記端末デバイスに表示される、
    請求項23に記載の車両損失査定画像を取得するための装置。
  26. 前記プロセッサは前記命令を実行して
    記損傷部位が前記ビデオ画像から離脱した後に前記損傷部位が前記ビデオ画像に再度進入したことに応答して、前記損傷部位の画像特徴データに基づいて前記損傷部位の前記位置領域を再度決定することと
    をさらに実施する、請求項22に記載の車両損失査定画像を取得するための装置。
  27. 前記プロセッサは前記命令を実行して、
    前記識別された損傷部位の前記位置領域が変更された後に再決定される新たな損傷部位の情報を受信すること
    をさらに実施し、
    対応して、前記識別された損傷部位に基づいて前記1つまたは複数のビデオ画像を前記分類することは、前記新たな損傷部位の前記情報に基づいて前記1つまたは複数のビデオ画像を分類することを含む、
    請求項22に記載の車両損失査定画像を取得するための装置。
  28. 前記プロセッサが前記命令を実行した場合に、前記1つまたは複数のビデオ画像内に少なくとも2つの損傷部位が存在するのを検出したことに応答して、前記少なくとも2つの損傷部位の間の距離が、設定された近接条件を満たすか否かを判定し、
    前記少なくとも2つの損傷部位の間の前記距離が前記設定された近接条件を満たすと判定したことに応答して、前記少なくとも2つの損傷部位を同時に追跡し、それぞれ対応する損失査定画像を生成する、
    請求項26または27に記載の車両損失査定画像を取得するための装置。
  29. 前記損傷車両の前記キャプチャされたビデオ・データが、車両損失査定画像を取得するための前記装置による前記ビデオ録画を実行することによって取得される場合、前記プロセッサは前記命令を実行して、
    前記車両損失査定画像をリアルタイムで処理端末に送信すること、または、
    前記車両損失査定画像を非同期で処理端末に送信すること
    をさらに実施する、請求項22に記載の車両損失査定画像を取得するための装置。
  30. コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体はコンピュータ命令を記憶し、前記命令が実行された場合に、
    損傷車両のキャプチャされたビデオ・データを受信するステップと、
    前記キャプチャされたビデオ・データから1つまたは複数のビデオ画像を選択して、前記1つまたは複数のビデオ画像内の前記損傷車両の損傷部位を識別するステップと
    前記キャプチャされたビデオ・データから前記1つまたは複数のビデオ画像内の前記損傷部位の位置領域を追跡するステップであって、
    前記キャプチャされたビデオ・データ内の前記1つまたは複数のビデオ画像から前記識別された損傷部位に従って前記損部位の前記位置領域を決定するステップと、
    表示のために前記決定された位置領域を端末デバイスに送信するステップと
    を含む追跡するステップと、
    前記損傷車両の前記識別された損傷部位に基づいて前記1つまたは複数のビデオ画像を分類して、前記損傷部位の1つまたは複数の候補画像分類セットを決定するステップと、
    前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像内の前記損傷部位の鮮明度と、前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像の前記損傷部位の撮影角度とに従って前記1つまたは複数の候補画像分類セットから車両損失査定画像を選択するステップと
    が実施される、コンピュータ可読記憶媒体。
  31. コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体はコンピュータ命令を記憶し、前記命令が実行された場合に、
    損傷車両のビデオ録画を実行して、キャプチャされたビデオ・データを取得するステップと、
    前記キャプチャされたビデオ・データを処理端末に送信するステップと、
    前記処理端末により返された、前記処理端末による前記キャプチャされたビデオ・データ内の損傷部位の追跡によって取得された位置領域を受信し、前記追跡された位置領域を表示するステップと
    が実施され、前記損傷部位は前記処理端末により前記キャプチャされたビデオ・データ内の1つまたは複数のビデオ画像を選択することによって識別され、前記処理端末による前記キャプチャされたビデオ・データ内の前記損傷部位の前記位置領域の追跡は、前記処理端末によって前記キャプチャされたビデオ・データ内の前記1つまたは複数のビデオ画像から前記識別された損傷部位に従って前記損傷部位の前記位置領域を決定し、前記処理端末によって表示のため前記決定された位置領域を送信することを含む、コンピュータ可読記憶媒体。
  32. プロセッサと、前記プロセッサにより実行可能な命令を記憶するように構成されるメモリとを備えるサーバであって、前記プロセッサは前記命令を実行して、
    端末デバイスによりアップロードされた損傷車両のキャプチャされたビデオ・データを受信し、前記キャプチャされたビデオ・データから1つまたは複数のビデオ画像を選択して、前記1つまたは複数のビデオ画像内の前記損傷車両の損傷部位を識別することと
    前記キャプチャされたビデオ・データから前記1つまたは複数のビデオ画像内の前記損傷部位の位置領域を追跡することであって、
    前記キャプチャされたビデオ・データ内の前記1つまたは複数のビデオ画像から前記識別された損傷部位に従って前記損部位の前記位置領域を決定することと、
    表示のために前記決定された前記位置領域を前記端末デバイスに送信することと
    を含む追跡することと、
    前記損傷車両の前記識別された損傷部位に基づいて前記1つまたは複数のビデオ画像を分類して、前記損傷部位の1つまたは複数の候補画像分類セットを決定することと、
    前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像内の前記損傷部位の鮮明度と、前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像の前記損傷部位の撮影角度とに従って前記1つまたは複数の候補画像分類セットから車両損失査定画像を選択することと
    を実施する、サーバ。
  33. プロセッサと、前記プロセッサにより実行可能な命令を記憶するように構成されるメモリとを備える端末デバイスであって、前記プロセッサは前記命令を実行して、
    損傷車両のビデオ・キャプチャによってキャプチャされたビデオ・データを取得することと、
    前記キャプチャされたビデオ・データから1つまたは複数のビデオ画像を選択して、前記1つまたは複数のビデオ画像内の前記損傷車両の損傷部位を識別することと
    前記キャプチャされたビデオ・データから前記1つまたは複数のビデオ画像内の前記損傷部位の位置領域を追跡することであって、
    前記キャプチャされたビデオ・データ内の前記1つまたは複数のビデオ画像から前記識別された損傷部位に従って前記損部位の前記位置領域を決定することと、
    表示のために前記決定された前記位置領域を処理端末に送信することと
    を含む追跡することと、
    前記損傷車両の前記識別された損傷部位に基づいて前記1つまたは複数のビデオ画像を分類して、前記損傷部位の1つまたは複数の候補画像分類セットを決定することと、
    前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像内の前記損傷部位の鮮明度と、前記1つまたは複数の候補画像分類セット内の前記1つまたは複数のビデオ画像の前記損傷部位の撮影角度とに従って前記1つまたは複数の候補画像分類セットから車両損失査定画像を選択することと
    を実施する、端末デバイス。
  34. 前記プロセッサは前記命令を実行して、
    データ通信モジュールを使用して、前記車両損失査定画像をリアルタイムでサーバに送信すること、または、
    前記車両損失査定画像を非同期でサーバに送信すること
    をさらに実施する、請求項33に記載の端末デバイス。
JP2019558552A 2017-04-28 2018-04-27 車両損失査定画像を取得するための方法および装置、サーバ、ならびに端末デバイス Active JP6905081B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710294010.4 2017-04-28
CN201710294010.4A CN107194323B (zh) 2017-04-28 2017-04-28 车辆定损图像获取方法、装置、服务器和终端设备
PCT/CN2018/084760 WO2018196837A1 (zh) 2017-04-28 2018-04-27 车辆定损图像获取方法、装置、服务器和终端设备

Publications (2)

Publication Number Publication Date
JP2020518078A JP2020518078A (ja) 2020-06-18
JP6905081B2 true JP6905081B2 (ja) 2021-07-21

Family

ID=59872897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019558552A Active JP6905081B2 (ja) 2017-04-28 2018-04-27 車両損失査定画像を取得するための方法および装置、サーバ、ならびに端末デバイス

Country Status (9)

Country Link
US (1) US11151384B2 (ja)
EP (1) EP3605386A4 (ja)
JP (1) JP6905081B2 (ja)
KR (1) KR20190139262A (ja)
CN (2) CN107194323B (ja)
PH (1) PH12019502401A1 (ja)
SG (1) SG11201909740RA (ja)
TW (1) TW201839666A (ja)
WO (1) WO2018196837A1 (ja)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107194323B (zh) 2017-04-28 2020-07-03 阿里巴巴集团控股有限公司 车辆定损图像获取方法、装置、服务器和终端设备
CN107610091A (zh) * 2017-07-31 2018-01-19 阿里巴巴集团控股有限公司 车险图像处理方法、装置、服务器及系统
CN107766805A (zh) * 2017-09-29 2018-03-06 阿里巴巴集团控股有限公司 提升车辆定损图像识别结果的方法、装置及服务器
CN109753985A (zh) * 2017-11-07 2019-05-14 北京京东尚科信息技术有限公司 视频分类方法及装置
CN108090838B (zh) * 2017-11-21 2020-09-29 阿里巴巴集团控股有限公司 识别车辆受损部件的方法、装置、服务器、客户端及系统
CN108038459A (zh) * 2017-12-20 2018-05-15 深圳先进技术研究院 一种水下生物的检测识别方法、终端设备及存储介质
CN108647563A (zh) * 2018-03-27 2018-10-12 阿里巴巴集团控股有限公司 一种车辆定损的方法、装置及设备
CN108921811B (zh) 2018-04-03 2020-06-30 阿里巴巴集团控股有限公司 检测物品损伤的方法和装置、物品损伤检测器
CN113179368B (zh) * 2018-05-08 2023-10-27 创新先进技术有限公司 一种车辆定损的数据处理方法、装置、处理设备及客户端
CN108665373B (zh) * 2018-05-08 2020-09-18 阿里巴巴集团控股有限公司 一种车辆定损的交互处理方法、装置、处理设备及客户端
CN108682010A (zh) * 2018-05-08 2018-10-19 阿里巴巴集团控股有限公司 车辆损伤识别的处理方法、处理设备、客户端及服务器
CN108647712A (zh) * 2018-05-08 2018-10-12 阿里巴巴集团控股有限公司 车辆损伤识别的处理方法、处理设备、客户端及服务器
CN110634120B (zh) * 2018-06-05 2022-06-03 杭州海康威视数字技术股份有限公司 一种车辆损伤判别方法及装置
CN110609877B (zh) * 2018-06-14 2023-04-18 百度在线网络技术(北京)有限公司 一种图片采集的方法、装置、设备和计算机存储介质
CN111666832B (zh) * 2018-07-27 2023-10-31 创新先进技术有限公司 一种检测方法及装置、一种计算设备及存储介质
CN109034264B (zh) * 2018-08-15 2021-11-19 云南大学 交通事故严重性预测csp-cnn模型及其建模方法
CN109145903A (zh) * 2018-08-22 2019-01-04 阿里巴巴集团控股有限公司 一种图像处理方法和装置
CN108989684A (zh) * 2018-08-23 2018-12-11 阿里巴巴集团控股有限公司 控制拍摄距离的方法和装置
CN110569695B (zh) * 2018-08-31 2021-07-09 创新先进技术有限公司 基于定损图像判定模型的图像处理方法和装置
CN110569694A (zh) * 2018-08-31 2019-12-13 阿里巴巴集团控股有限公司 车辆的部件检测方法、装置及设备
CN110570316A (zh) 2018-08-31 2019-12-13 阿里巴巴集团控股有限公司 训练损伤识别模型的方法及装置
CN110569697A (zh) * 2018-08-31 2019-12-13 阿里巴巴集团控股有限公司 车辆的部件检测方法、装置及设备
CN110567728B (zh) * 2018-09-03 2021-08-20 创新先进技术有限公司 用户拍摄意图的识别方法、装置及设备
CN110569864A (zh) * 2018-09-04 2019-12-13 阿里巴巴集团控股有限公司 基于gan网络的车损图像生成方法和装置
CN109359542A (zh) * 2018-09-18 2019-02-19 平安科技(深圳)有限公司 基于神经网络的车辆损伤级别的确定方法及终端设备
CN110569700B (zh) * 2018-09-26 2020-11-03 创新先进技术有限公司 优化损伤识别结果的方法及装置
CN109389169A (zh) * 2018-10-08 2019-02-26 百度在线网络技术(北京)有限公司 用于处理图像的方法和装置
CN109615649A (zh) * 2018-10-31 2019-04-12 阿里巴巴集团控股有限公司 一种图像标注方法、装置及系统
CN109447071A (zh) * 2018-11-01 2019-03-08 博微太赫兹信息科技有限公司 一种基于fpga和深度学习的毫米波成像危险物品检测方法
CN110033608B (zh) * 2018-12-03 2020-12-11 创新先进技术有限公司 车辆损伤检测的处理方法、装置、设备、服务器和系统
CN109657599B (zh) * 2018-12-13 2023-08-01 深源恒际科技有限公司 距离自适应的车辆外观部件的图片识别方法
CN109784171A (zh) * 2018-12-14 2019-05-21 平安科技(深圳)有限公司 车辆定损图像筛选方法、装置、可读存储介质及服务器
KR102097120B1 (ko) * 2018-12-31 2020-04-09 주식회사 애자일소다 딥러닝 기반의 자동차 부위별 파손정도 자동 판정 시스템 및 방법
CN110569702B (zh) * 2019-02-14 2021-05-14 创新先进技术有限公司 视频流的处理方法和装置
CN110033386B (zh) * 2019-03-07 2020-10-02 阿里巴巴集团控股有限公司 车辆事故的鉴定方法及装置、电子设备
CN110287768A (zh) * 2019-05-06 2019-09-27 浙江君嘉智享网络科技有限公司 图像智能识别车辆定损方法
CN110363238A (zh) * 2019-07-03 2019-10-22 中科软科技股份有限公司 智能车辆定损方法、系统、电子设备及存储介质
CN110473418B (zh) * 2019-07-25 2022-05-20 平安科技(深圳)有限公司 危险路段识别方法、装置、服务器及存储介质
CN110688513B (zh) * 2019-08-15 2023-08-18 平安科技(深圳)有限公司 基于视频的农作物查勘方法、装置及计算机设备
CN110969183B (zh) * 2019-09-20 2023-11-21 北京方位捷讯科技有限公司 一种根据图像数据确定目标对象受损程度的方法及系统
CN113038018B (zh) * 2019-10-30 2022-06-28 支付宝(杭州)信息技术有限公司 辅助用户拍摄车辆视频的方法及装置
WO2021136947A1 (en) 2020-01-03 2021-07-08 Tractable Ltd Vehicle damage state determination method
JP7356941B2 (ja) 2020-03-26 2023-10-05 株式会社奥村組 管渠損傷特定装置、管渠損傷特定方法および管渠損傷特定プログラム
CN111612104B (zh) * 2020-06-30 2021-04-13 爱保科技有限公司 车辆定损图像获取方法、装置、介质和电子设备
CN112541096B (zh) * 2020-07-27 2023-01-24 中咨数据有限公司 一种用于智慧城市的视频监控方法
WO2022047736A1 (zh) * 2020-09-04 2022-03-10 江苏前沿交通研究院有限公司 一种基于卷积神经网络的损伤检测方法
CN112465018B (zh) * 2020-11-26 2024-02-02 深源恒际科技有限公司 一种基于深度学习的车辆视频定损系统的智能截图方法及系统
CN112492105B (zh) * 2020-11-26 2022-04-15 深源恒际科技有限公司 一种基于视频的车辆外观部件自助定损采集方法及系统
CN112712498A (zh) * 2020-12-25 2021-04-27 北京百度网讯科技有限公司 移动终端执行的车辆定损方法、装置、移动终端、介质
CN113033372B (zh) * 2021-03-19 2023-08-18 北京百度网讯科技有限公司 车辆定损方法、装置、电子设备及计算机可读存储介质
EP4309124A1 (en) * 2021-04-21 2024-01-24 Siemens Mobility GmbH Automated selection and semantic connection of images
CN113033517B (zh) * 2021-05-25 2021-08-10 爱保科技有限公司 车辆定损图像获取方法、装置和存储介质
CN113361426A (zh) * 2021-06-11 2021-09-07 爱保科技有限公司 车辆定损图像获取方法、介质、装置和电子设备
CN113361424A (zh) * 2021-06-11 2021-09-07 爱保科技有限公司 一种车辆智能定损图像获取方法、装置、介质和电子设备
US20230125477A1 (en) * 2021-10-26 2023-04-27 Nvidia Corporation Defect detection using one or more neural networks
WO2023083182A1 (en) * 2021-11-09 2023-05-19 Alpha Ai Technology Limited A system for assessing a damage condition of a vehicle and a platform for facilitating repairing or maintenance services of a vehicle

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981739A (ja) * 1995-09-12 1997-03-28 Toshiba Corp 損害額算出システム及び損傷位置検出装置
JP2001188906A (ja) * 1999-12-28 2001-07-10 Hitachi Ltd 画像自動分類方法及び画像自動分類装置
US7546219B2 (en) * 2005-08-31 2009-06-09 The Boeing Company Automated damage assessment, report, and disposition
US8379914B2 (en) 2008-01-18 2013-02-19 Mitek Systems, Inc. Systems and methods for mobile image capture and remittance processing
US20130297353A1 (en) 2008-01-18 2013-11-07 Mitek Systems Systems and methods for filing insurance claims using mobile imaging
CN101739611A (zh) * 2009-12-08 2010-06-16 上海华平信息技术股份有限公司 一种高清远程协同车辆定损系统及方法
US20130262156A1 (en) 2010-11-18 2013-10-03 Davidshield L.I.A. (2000) Ltd. Automated reimbursement interactions
WO2013093932A2 (en) * 2011-09-29 2013-06-27 Tata Consultancy Services Limited Damage assessment of an object
US8510196B1 (en) * 2012-08-16 2013-08-13 Allstate Insurance Company Feedback loop in mobile damage assessment and claims processing
US8712893B1 (en) * 2012-08-16 2014-04-29 Allstate Insurance Company Enhanced claims damage estimation using aggregate display
US20140114692A1 (en) * 2012-10-23 2014-04-24 InnovaPad, LP System for Integrating First Responder and Insurance Information
FR3007172B1 (fr) * 2013-06-12 2020-12-18 Renault Sas Procede et systeme d'identification d'un degat cause a un vehicule
US10748216B2 (en) 2013-10-15 2020-08-18 Audatex North America, Inc. Mobile system for generating a damaged vehicle insurance estimate
KR20150112535A (ko) 2014-03-28 2015-10-07 한국전자통신연구원 비디오 대표 이미지 관리 장치 및 방법
US10423982B2 (en) 2014-05-19 2019-09-24 Allstate Insurance Company Content output systems using vehicle-based data
CN104268783B (zh) * 2014-05-30 2018-10-26 翱特信息系统(中国)有限公司 车辆定损估价的方法、装置和终端设备
KR101713387B1 (ko) 2014-12-29 2017-03-22 주식회사 일도엔지니어링 사진 자동 분류 및 저장 시스템 및 그 방법
KR101762437B1 (ko) 2015-05-14 2017-07-28 (주)옥천당 관능성이 개선된 커피 원두의 제조 방법
KR20160134401A (ko) * 2015-05-15 2016-11-23 (주)플래닛텍 자동차의 수리견적 자동산출시스템 및 그 방법
US10529028B1 (en) 2015-06-26 2020-01-07 State Farm Mutual Automobile Insurance Company Systems and methods for enhanced situation visualization
CN106407984B (zh) * 2015-07-31 2020-09-11 腾讯科技(深圳)有限公司 目标对象识别方法及装置
GB201517462D0 (en) * 2015-10-02 2015-11-18 Tractable Ltd Semi-automatic labelling of datasets
CN105678622A (zh) * 2016-01-07 2016-06-15 平安科技(深圳)有限公司 车险理赔照片的分析方法及系统
CN105719188B (zh) * 2016-01-22 2017-12-26 平安科技(深圳)有限公司 基于多张图片一致性实现保险理赔反欺诈的方法及服务器
US10692050B2 (en) * 2016-04-06 2020-06-23 American International Group, Inc. Automatic assessment of damage and repair costs in vehicles
CN105956667B (zh) * 2016-04-14 2018-09-25 平安科技(深圳)有限公司 车险定损理赔审核方法及系统
US9922471B2 (en) 2016-05-17 2018-03-20 International Business Machines Corporation Vehicle accident reporting system
CN106021548A (zh) * 2016-05-27 2016-10-12 大连楼兰科技股份有限公司 基于分布式人工智能图像识别的远程定损方法及系统
CN106127747B (zh) * 2016-06-17 2018-10-16 史方 基于深度学习的汽车表面损伤分类方法及装置
CN106251421A (zh) * 2016-07-25 2016-12-21 深圳市永兴元科技有限公司 基于移动终端的车辆定损方法、装置及系统
CN106296118A (zh) * 2016-08-03 2017-01-04 深圳市永兴元科技有限公司 基于图像识别的车辆定损方法及装置
US10902525B2 (en) 2016-09-21 2021-01-26 Allstate Insurance Company Enhanced image capture and analysis of damaged tangible objects
CN106600421A (zh) * 2016-11-21 2017-04-26 中国平安财产保险股份有限公司 一种基于图片识别的车险智能定损方法及系统
CN106600422A (zh) * 2016-11-24 2017-04-26 中国平安财产保险股份有限公司 一种车险智能定损方法和系统
US10424132B2 (en) * 2017-02-10 2019-09-24 Hitachi, Ltd. Vehicle component failure prevention
CN107358596B (zh) 2017-04-11 2020-09-18 阿里巴巴集团控股有限公司 一种基于图像的车辆定损方法、装置、电子设备及系统
CN107194323B (zh) * 2017-04-28 2020-07-03 阿里巴巴集团控股有限公司 车辆定损图像获取方法、装置、服务器和终端设备
US10470023B2 (en) 2018-01-16 2019-11-05 Florey Insurance Agency, Inc. Emergency claim response unit
US10997413B2 (en) * 2018-03-23 2021-05-04 NthGen Software Inc. Method and system for obtaining vehicle target views from a video stream

Also Published As

Publication number Publication date
US20200050867A1 (en) 2020-02-13
WO2018196837A1 (zh) 2018-11-01
CN107194323B (zh) 2020-07-03
SG11201909740RA (en) 2019-11-28
JP2020518078A (ja) 2020-06-18
CN111914692B (zh) 2023-07-14
CN107194323A (zh) 2017-09-22
US11151384B2 (en) 2021-10-19
KR20190139262A (ko) 2019-12-17
EP3605386A1 (en) 2020-02-05
CN111914692A (zh) 2020-11-10
PH12019502401A1 (en) 2020-12-07
TW201839666A (zh) 2018-11-01
EP3605386A4 (en) 2020-04-01

Similar Documents

Publication Publication Date Title
JP6905081B2 (ja) 車両損失査定画像を取得するための方法および装置、サーバ、ならびに端末デバイス
US20200058075A1 (en) Method and apparatus for obtaining vehicle loss assessment image, server and terminal device
JP6859505B2 (ja) 画像に基づく車両損傷判定方法、装置および電子デバイス
US9998651B2 (en) Image processing apparatus and image processing method
US11887318B2 (en) Object tracking
US20170053167A1 (en) Systems and methods for object tracking
CN107408303A (zh) 用于对象跟踪的系统和方法
KR101530255B1 (ko) 객체 자동 추적 장치가 구비된 cctv 시스템
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN107395957B (zh) 拍照方法、装置、存储介质及电子设备
US20200145623A1 (en) Method and System for Initiating a Video Stream
WO2017062441A1 (en) Autofocus method and apparatus using modulation transfer function curves
CN111368944B (zh) 翻拍图像、证件照识别、模型训练方法、装置及电子设备
CN114267041B (zh) 场景中对象的识别方法及装置
US20220122341A1 (en) Target detection method and apparatus, electronic device, and computer storage medium
CN110930437A (zh) 目标跟踪方法和装置
US11553162B2 (en) Image processing system for extending a range for image analytics
KR20150137698A (ko) 농장에서의 움직임 개체의 이동 궤적 트래킹 방법 및 장치
US11622073B2 (en) Method of generating a panoramic image
AU2021290428A1 (en) Target detection method and apparatus, electronic device, and computer storage medium
WO2023144780A1 (en) Crowdsourcing techniques to deploy artificial intelligence systems
CN113870221A (zh) 可达空间的检测方法、装置、车载终端及存储介质
de Azevedo Sensor fusion of laser and vision in active pedestrian detection
KR20210067710A (ko) 실시간 객체 검출 방법 및 장치
GB2557920A (en) Learning analytics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210120

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210125

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210624

R150 Certificate of patent or registration of utility model

Ref document number: 6905081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150