JP7224603B2 - 車両画像の比較方法とそのシステム - Google Patents

車両画像の比較方法とそのシステム Download PDF

Info

Publication number
JP7224603B2
JP7224603B2 JP2021501137A JP2021501137A JP7224603B2 JP 7224603 B2 JP7224603 B2 JP 7224603B2 JP 2021501137 A JP2021501137 A JP 2021501137A JP 2021501137 A JP2021501137 A JP 2021501137A JP 7224603 B2 JP7224603 B2 JP 7224603B2
Authority
JP
Japan
Prior art keywords
image
images
given
portions
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021501137A
Other languages
English (en)
Other versions
JP2021520006A (ja
Inventor
ヘバー,アミー
ヘバー,オハド
ボゴモルニー,イリヤ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Uveye Ltd
Original Assignee
Uveye Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Uveye Ltd filed Critical Uveye Ltd
Publication of JP2021520006A publication Critical patent/JP2021520006A/ja
Application granted granted Critical
Publication of JP7224603B2 publication Critical patent/JP7224603B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30136Metal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

[001]ここに開示する主題は、一般に、車両画像分析の分野に関連し、より具体的には、車両画像比較のための方法およびシステムに関連する。
[002]自動車の検査は、通常、技術者によってマニュアルで行われる。マニュアル検査プロセスを支援し、検査の視覚的証拠を提供する目的で車両の画像がキャプチャされることがある。このプロセスは通常、面倒で時間がかかるものである。
[003]場合によっては、車両の画像がキャプチャされ、検査の目的で分析される。画像の見当合わせが、参照画像に対して画像を分析するときに一般的に使用される。この態様での既知の方法は、一般に非効率的で、エラーが発生しやすく、計算コストがかかる。
[004]ここに開示する主題の特定の態様によれば、車両画像比較のコンピュータ化された方法が提供され、車両の少なくとも一部をキャプチャする撮像装置によって取得された入力画像を取得するステップであって、前記入力画像は複数の画像部分を含む、ステップと;参照画像のセットを取得するステップと;前記複数の画像部分のうちの所与の画像部分ごとに、前記参照画像のセット内で最も一致する参照部分を検索するステップであって、i)前記参照画像のセットに対応する参照部分候補のセットを取得するステップであって、前記セット内の所与の参照画像ごとに:前記入力画像内の所与の画像部分の位置に従って前記所与の参照画像内の参照領域を識別するステップであって、前記参照領域は、前記所与の画像部分よりも小さくないサイズを有するステップと;前記所与の画像部分および参照領域の類似性モデルを使用して、前記参照領域内の1つまたは複数のそれぞれの位置を有する1つまたは複数の参照画像部分に対応する1つまたは複数のセクションを含む類似性マップを取得するステップであって、前記類似性マップの各セクションは、前記所与の画像部分とそれぞれの参照画像部分との間の類似性を示している、ステップと;前記1つまたは複数の参照画像部分から、前記所与の参照画像の参照部分候補として最も類似性の高い参照画像部分を選択するステップとを含む、取得するステップと、ii)前記参照部分候補のセットから最も一致する参照部分を選択するステップとを含む、検索するステップと;比較モデルを使用して、前記所与の各画像部分を前記最も一致する参照部分と比較し、前記所与の画像部分に対応する差分マップを生成するステップであって、前記差分マップは、前記所与の画像部分における関心の差(DOI)の存在の確率を示し、これにより、前記入力画像の複数の画像部分に対応する複数の差分マップを得る、ステップとを含む。
[005]上記の特徴に加えて、ここに開示する主題のこの態様による方法は、技術的に可能な任意の所望の組み合わせまたは順列で、以下にリストされる特徴(i)~(xiv)のうちの1つまたは複数を含むことができる。
(i)前記方法は、前記複数の差分マップを、前記入力画像内の関心のある差分(difference of interest:DOI)の存在の確率を示す複合差分マップへと結合するステップをさらに含み得る。
(ii)前記複数の画像部分は、スライディングウィンドウを用いて取得することができる。
(iii)前記複数の画像部分は、セグメンテーションモデルを使用して、車両の少なくとも一部に含まれる1つまたは複数の機械的構成要素に対応する1つまたは複数の入力セグメントへと前記入力画像をセグメント化することによって取得することができる。
(iv)前記入力画像は、第1の撮像条件で前記撮像装置によって取得することができ、前記参照画像のセット内の少なくとも1つの参照画像は、前記第1の撮像条件とは異なる第2の撮像条件で取得することができ、それによって前記第1および第2の撮像条件の違いに起因する、前記入力画像と少なくとも1つの参照画像との間に誤警報(false alarm:FA)の差異が生じる。
(v)前記第1および第2の撮像条件は、車両と撮像装置との間の相対位置、照明状態、および車両の速度のうちの1つまたは複数を含むことができる。
(vi)前記参照画像のセットは、前記入力画像内で車両を一意に識別するインスタンス記述子を使用して取得することができる。
(vii)前記参照画像のセットは、車両の同じインスタンスをキャプチャした画像の第1のセットと、車両に類似のインスタンスをキャプチャした画像の第2のセットを含むグループから選択することができる。
(viii)前記画像の第2のセットは、エンコーディングモデルを使用して前記入力画像および候補参照画像のそれぞれのベクトル表現を取得し、前記入力画像のベクトル表現と各参照画像候補との間の類似性メトリックを使用して前記第2の画像セットを選択することによって選択することができる。
(ix)前記比較モデルは、DOIを識別し、各画像ペア間の差分マップでFAの差異を除外できるように、それぞれがターゲット画像と参照画像を含む画像ペアのセットを含むトレーニングデータセットを使用してトレーニングされた比較深層学習モデルにすることができる。
(x)前記類似性モデルは、見当合わせされた画像から抽出された複数の画像部分のセットを含むトレーニングデータセットを使用してトレーニングされた類似性深層学習モデルとすることができ、前記類似性モデルは、画像部分の複数のセットの各セット内の画像部分の各ペア内の類似性を反映するようにトレーニングされる。
(xi)前記セグメンテーションモデルは、そこに含まれる機械的構成要素に従って事前にセグメント化された車両画像のセットを含むトレーニングデータセットを使用してトレーニングされたセグメンテーション深層学習モデルとすることができる。
(xii)前記所与の画像部分に対応する差分マップは、前記所与の画像部分におけるDOIの存在の部分ごとの確率を示すことができる。
(xiii)前記所与の画像部分に対応する差分マップは、前記所与の画像部分にDOIが存在するピクセル単位の確率を示すことができる。
(xiv)前記複合差分マップのピクセルの少なくとも一部は、異なる参照画像との比較から生成することができる。
[006]ここに開示する主題の他の態様によれば、車両画像比較のコンピュータ化されたシステムが提供され、当該システムはI/Oインターフェースに動作可能に接続されたプロセッサおよびメモリ回路(PMC)を具え、前記I/Oインターフェースは車両の少なくとも一部をキャプチャする撮像装置によって取得された入力画像を取得し、ここで前記入力画像は複数の画像部分を含んでおり、参照画像のセットを検索するように構成されており;前記PMCは:前記複数の画像部分の所与の画像部分ごとに、前記参照画像のセット内で最も一致する参照部分を検索するように構成され、これにはi)前記参照画像のセットに対応する参照部分候補のセットを取得することであって、前記セット内の所与の参照画像ごとに:前記入力画像内の所与の画像部分の位置に従って前記所与の参照画像内の参照領域を識別すること、ここで前記参照領域は、前記所与の画像部分よりも小さくないサイズを有する;前記所与の画像部分および参照領域の類似性モデルを使用して、前記参照領域内の1つまたは複数のそれぞれの位置を有する1つまたは複数の参照画像部分に対応する1つまたは複数のセクションを含む類似性マップを取得すること、ここで前記類似性マップの各セクションは、前記所与の画像部分とそれぞれの参照画像部分との間の類似性を示す;および、前記1つまたは複数の参照画像部分から、前記所与の参照画像の参照部分候補として最も類似性の高い参照画像部分を選択することと、ii)前記参照部分候補のセットから最も一致する参照部分を選択し、比較モデルを使用して、前記所与の各画像部分を最も一致する参照部分と比較し、前記所与の画像部分に対応する差分マップを生じさせ、ここで前記差マップは、前記所与の画像部分における関心の差(DOI)の存在の確率を示し、これにより、前記入力画像の複数の画像部分に対応する複数の差分マップを生成することと、が含まれる。
[007]開示された主題のこの態様は、技術的に可能である任意の所望の組み合わせまたは順列において、必要な変更を加えて、方法に関して上記列挙された特徴(i)~(xiv)のうちの1つ以上を含み得る。
[008]ここに開示する主題の他の態様によれば、コンピュータによって実行されると、当該コンピュータに車両画像比較の方法を実行させる命令のプログラムを具体的に担持する非一時的なコンピュータ可読記憶媒体が提供され、この方法は:車両の少なくとも一部をキャプチャする撮像装置によって取得された入力画像を取得するステップであって、前記入力画像は、複数の画像部分を含むステップと;参照画像のセットの検索するステップと;前記複数の画像部分の所与の画像部分ごとに、前記参照画像のセット内で最も一致する参照部分を検索するステップとを含み、これにはi)前記参照画像のセットに対応する参照部分候補のセットを取得することであって、前記セット内の所与の参照画像ごとに:前記入力画像内の所与の画像部分の位置に従って前記所与の参照画像内の参照領域を識別すること、ここで前記参照領域は、前記所与の画像部分よりも小さくないサイズを有する;前記所与の画像部分および参照領域の類似性モデルを使用して、前記参照領域内の1つまたは複数のそれぞれの位置を有する1つまたは複数の参照画像部分に対応する1つまたは複数のセクションを含む類似性マップを取得すること、ここで前記類似性マップの各セクションは、前記所与の画像部分とそれぞれの参照画像部分との間の類似性を示す;および、前記1つまたは複数の参照画像部分から、前記所与の参照画像の参照部分候補として最も類似性の高い参照画像部分を選択することと、ii)前記参照部分候補のセットから最も一致する参照部分を選択し、比較モデルを使用して、前記所与の各画像部分を最も一致する参照部分と比較し、前記所与の画像部分に対応する差分マップを生じさせ、ここで前記差マップは、前記所与の画像部分における関心の差(DOI)の存在の確率を示し、これにより、前記入力画像の複数の画像部分に対応する複数の差分マップを生成することと、が含まれる。
[009]開示された主題のこの態様は、技術的に可能である任意の所望の組み合わせまたは順列において、必要な変更を加えて、方法に関して上記列挙された特徴(i)~(xiv)のうちの1つ以上を含み得る。
[0010]本発明を理解し、それが実際にどのように実行されるかを理解するために、添付の図面を参照して、非限定的な例としてのみ実施形態を説明する。
[0011]図1は、ここに開示する主題の特定の実施形態による、車両画像を比較することができるコンピュータ化されたシステムのブロック図を概略的に示す。 [0012]図2は、ここに開示する主題の特定の実施形態による車両画像比較の一般化されたフローチャートを示す。 [0013]図3は、本開示の主題の特定の実施形態による参照選択の一般化されたフローチャートを示す。 [0014]図4は、ここに開示する主題の特定の実施形態による、入力画像および対応するセグメントの例を示す。 [0015]図5は、ここに開示する主題の特定の実施形態による、複合差分マップおよび対応する入力画像の例を示す。 [0016]図6は、ここに開示する主題の特定の実施形態による、入力画像内の所与の画像部分に最も一致する参照部分を選択する概略例を示している。
[0017]以下の詳細な説明では、本発明の完全な理解を提供するために、多くの特定の詳細が示されている。しかしながら、当業者、ここに開示する主題がこれらの特定の詳細なしで実施され得ることを理解するであろう。他方、ここに開示する主題を曖昧にしないように、周知の方法、手順、構成要素、および回路は詳細に説明されていない。
[0018]特に明記しない限り、以下の説明から明らかなように、明細書の記載を通して、「取得する」、「比較する」、「検索する(retrieving)」、「キャプチャする」、「セグメント化する」、「生成する」、「使用する」、「検索する」、「提供する」、「組み合わせる」、「識別する」、「生じさせる」、「エンコーディングする」、「選択する」、「トレーニングする」、「除外する」、「検索する(searching)」などは、データを操作および/または他のデータに変換するコンピュータの動作および/またはプロセスをいい、前記データは、物理的なもの、例えば電子的なもの、量、および/または前記物理的なものを表すデータとして表され、前記データは、前記物理的なものを表す。「コンピュータ」という用語は、非限定的な例として、本願に開示される車両画像比較システムと、その処理およびメモリ回路(PMC)とを含む、データ処理機能を備えたあらゆる種類のハードウェアベースの電子デバイスを包含すると広範に解釈されるべきである。
[0019]本明細書の教示による動作は、所望の目的のために特別に構築されたコンピュータによって、または、非一時的コンピュータ可読記憶媒体に記憶されたコンピュータプログラムによって所望の目的のために特別に構成された汎用コンピュータによって、実行することができる。
[0020]本明細書で使用される「非一時的メモリ」、「非一時的記憶媒体」および「非一時的コンピュータ可読記憶媒体」という用語は、ここに開示する主題に適した揮発性または不揮発性コンピュータメモリを包含するように広範に解釈されるべきである。
[0021]ここに開示する主題の実施形態は、特定のプログラミング言語を参照して説明されていない。本明細書に記載されるように、ここに開示する主題の教示を実施するために、様々なプログラミング言語を使用できることが理解されよう。
[0022]本明細書で使用される場合、「例えば」、「~といった」、「など」という句およびその変形は、ここに開示する主題の非限定的な実施形態を説明するものである。本明細書における「ある場合」、「いくつかの場合」、「他の場合」またはそれらの変形への言及は、実施形態に関連して説明される特定の特徴、構造または特徴が、ここに開示された主題1以上の実施形態に含まれることを意味する。したがって、「ある場合」、「いくつかの場合」、「他の場合」またはそれらの変形という句の出現は、必ずしも同じ実施形態を指すとは限らない。
[0023]特に明記しない限り、別個の実施形態の文脈で説明される、ここに開示する主題の特定の特徴もまた、単一の実施形態で組み合わせて提供され得ることが理解される。逆に、単一の実施形態の文脈で説明される、ここに開示する主題の様々な特徴は、別個に、または任意の適切なサブコンビネーションで提供することもできる。以下の詳細な説明では、方法および装置の完全な理解を提供するために、多くの特定の詳細が示されている。
[0024]本開示の主題の実施形態では、図示される1つまたは複数の工程は、異なる順序で実行することができ、および/または工程の1つ以上のグループは、同時に実行されてもよく、逆もまた同様である。
[0025]これを念頭に置いて、ここに開示する主題の特定の実施形態による、車両画像を比較できるコンピュータ化されたシステムのブロック図を概略的に示す図1に注意が向けられる。
[0026]図1に示されるシステム100は、コンピュータベースの車両画像比較システムである。システム100は、ハードウェアベースのI/Oインターフェース120を介して、撮像装置120によって取得された入力画像(ターゲット画像とも呼ばれる)を取得するように構成することができる。入力画像は、車両の少なくとも一部をキャプチャする。本明細書で使用される「車両(vehicle)」という用語は、自動車、バス、オートバイ、トラック、列車、および飛行機などを含むがこれらに限定されないあらゆる種類の自動車両を包含するように広範に解釈されるべきであることに留意されたい。本開示は、特定の車両のタイプおよび使用法によっても、静止または動いている車両の状態によっても制限されない。
[0027]撮像装置120は、任意の種類の画像取得デバイス、または特定の解像度および周波数で車両画像をキャプチャするために利用可能な画像取得機能を備えた汎用デバイス、例えば、画像および/またはビデオ録画機能を備えるデジタルカメラであり得る。いくつかの実施形態では、撮像装置は、車両に対して所与の相対位置に配置された1つの画像取得デバイスを指すことができる。入力画像は、所与の視点から所与の画像取得デバイスによってキャプチャされた1つまたは複数の画像を意味し得る。いくつかの実施形態では、撮像装置は、異なる視点から画像をキャプチャするために、車両に対して異なる相対位置に配置することができる複数の画像取得ユニットを意味し得る。このような場合、入力画像は、図2を参照して以下でさらに詳細に説明するように、複数の画像取得ユニットのそれぞれまたは少なくともいくつかによって取得された1つまたは複数の画像を指すと理解されるべきである。
[0028]図示のように、システム100は、I/Oインターフェース126および記憶ユニット122に機能的に接続された処理およびメモリ回路(PMC)102を具え得る。PMC102は、オペレーティングシステム100に必要なすべての処理を提供するように構成されており、これが図2~3を参照してさらに詳細に説明される。PMC102は、プロセッサ(別個に図示せず)およびメモリ(別個に図示せず)を具える。PMC102のプロセッサは、PMCに含まれる非一時的コンピュータ可読メモリに実装されたコンピュータ可読命令に従って、いくつかの機能モジュールを実行するように構成することができる。そのような機能モジュールは、以下、PMCに含まれるものとする。本明細書でいうプロセッサという用語は、データ処理機能を備えた任意の処理回路をカバーするように広範に解釈されるべきであり、本開示は、そのタイプまたはプラットフォーム、またはそこに含まれる処理コアの数に限定されないことに留意されたい。場合によっては、システム100は、1つまたは複数の外部データリポジトリ(別個に図示せず)に機能的に接続することができる。
[0029]ストレージユニット122は、以前に処理された(例えば、セグメント化された)車両インスタンスの複数の以前のスキャン/画像を格納するように構成され得る画像データベース123を含むことができる。入力画像と比較する目的でPMC102によって検索することができる参照画像として、そこから特定の画像を選択することができる。任意選択で、画像データベースは、システム100の外部、例えば、外部データリポジトリの1つ、または外部システムまたはプロバイダに常駐することができ、参照画像は、I/Oインターフェース120を介して取得することができる。場合によっては、入力画像を事前に取得して、PMCによって取得することができる画像データベース123に格納することができる。
[0030]特定の実施形態では、PMC102に含まれる機能モジュールは、参照画像選択モジュール104、参照部分選択モジュール106、および比較モジュール108を含み得る。PMCに含まれる機能モジュールは、互いに機能的に接続されている。参照画像選択モジュール104は、画像データベースから、所与の入力画像について比較するために検索される参照画像のセットを選択するように構成することができ、これが図3を参照して以下でさらに詳細に説明される。入力画像は、複数の画像部分を含み得る。参照部分選択モジュール106は、複数の画像部分の所与の画像部分ごとに、図2を参照して以下に詳述するように、参照画像のセット内で最も一致する参照部分を検索するように構成することができる。
[0031]比較モジュール108は、比較モデルを使用して、所与の各画像部分を最も一致する参照部分と比較し、所与の画像部分に対応する差分マップを生成するように構成することができる。差分マップは、所与の画像部分に関心のある差分(difference of interest:DOI)が存在する確率を示し得る。したがって、入力画像の複数の画像部分に対応する複数の差分マップを得ることができる。参照部分の選択と比較の詳細については、図2を参照して以下でさらに詳しく説明する。
[0032]I/Oインターフェース120は、入力として、撮像装置からの入力画像および/または画像データベース/データリポジトリからの参照画像を取得し、出力として、その中にDOIが存在する確率を示す入力画像の複数の画像部分に対応する複数の差分マップを提供するように構成することができる。任意選択で、システム100は、入力および/または出力の表示をユーザにレンダリングするように構成されたグラフィカルユーザインターフェース(GUI)124をさらに備えることができる。任意選択で、GUIは、オペレーティングシステム100に対してユーザ指定の入力を有効にするように構成できる。
[0033]システム100は、例えば、異常の検査および検出、定期的な点検および保守などのような様々な目的および用途のための車両画像の比較に使用することができる。例として、セキュリティの目的で、システム100は、違法な密輸品、潜在的な爆発物、および車両に対する目に見える機械的変更の検出に使用することができる。別の例として、一般的な自動車の目的のために、システム100は、例えば、錆、油漏れ、部品の欠落、タイヤ状態の変化、および凹みや引っかき傷などの機械的損傷の検出に使用することができる。これらの比較および検出アプリケーションは、同じ車両の以前のスキャン、または同様の車両のスキャン(図3を参照して説明)のいずれかに関して実行することができる。本開示は、システムの特定の使用法に制限されないことを理解されたい。
[0034]車両の入力画像を以前の参照のいずれかと比較する場合、比較結果に2種類の差異が表示され得る(例えば、差異マップで表される)。一方のタイプの差異は、損傷、異常、構成要素の不一致、色の変化など、車両自体の実際の物理的変化(参照と比較して)を反映するDOIの差異である。他方のタイプの差異は、車両の実際の変化を示すのではなく、2つの画像(すなわち入力画像と参照画像)が異なる撮像条件下で取得されるという事実に起因する誤警報(FA)の差異をいう。FAタイプの差異を生じ得る撮像条件は、車両と撮像装置との間の相対位置、照明状態、車両の速度、および撮像装置上に加わったスポット(例えば、汚れ)など、の1以上を含み得る。
[0035]一例として、撮像装置が車両下回りの画像を撮影する地下カメラである場合、車両が2つの異なる相対位置で(例えば、二度目と比較して一度目は車両がカメラのわずかに右側を通っている)、および/または異なる速度でカメラを通過し、取得画像が下回りを異なってキャプチャする場合がある(例えば、画像が異なる角度/視点からとられ、および/または特定の要素/物体が一方の画像には現れるが他方には現れないことから、寸法、スケール、形状などについて同じ構成要素が2つの画像で異なって見える場合がある)。別の例として、2つの画像が撮影される照明条件が異なると、2つの画像の同じ要素の明るさが異なるため、比較結果に影響を与え得る。したがって、車両画像の比較は、上記の要因のために、他のタイプの画像比較と比べて、多くの技術的課題が課される場合がある。
[0036]本明細書で開示されている比較の1つの目標は、比較結果からFAの差異を除外しながら、差異のDOIタイプを識別できるようにすることである。前述のように、画像の見当合わせが一般的に画像分析と比較で用いられている。しかしながら、既知の画像の見当合わせ技術はかなり面倒であり、車両画像比較の特定の場合に生じ得る上記の特定の問題を適切に解決することができない。例えば、これらの場合、同じ車両要素が2つの画像で非常に異なって見え、したがって適切に一致/見当合わせされない場合があるため、既知の画像登録手法が適切に機能しない場合がある。
[0037]以下に図2を参照して説明する参照部分の選択と比較、および任意選択で、以下に図3を参照して説明する参照画像選択プロセスを実行することにより、より効率的な比較プロセスとより良い比較結果(すなわち、FAの差異を除外しながらDOIを特定する)を達成することができる。
[0038]また、図1に示されるシステムは、分散コンピューティング環境で実装することができ、図1に示す前述の機能モジュールは、いくつかのローカルおよび/またはリモートデバイスに分散させ、通信ネットワークを介してリンクさせることができる。
[0039]当技術分野に精通している者は、ここに開示する主題の教示が、図1に示されているシステムに拘束されないことを容易に理解するであろう。等価および/または変更された機能を、別の方法で統合または分割することができ、ソフトウェアとファームウェアおよびハードウェアの適切な組み合わせで実装することができる。図1のシステムは、スタンドアロン型のネットワークエンティティにしてもよいし、他のネットワークエンティティと完全にまたは部分的に統合してもよい。当業者はまた、その中のデータリポジトリまたはストレージユニットが他のシステムと共有されてもよいし、第三者の機器を含む他のシステムによって提供されてもよいことを容易に理解するであろう。
[0040]必ずしもそうではないが、システム100の動作プロセスは、図2~3に関して説明された方法の一部または全部の工程に対応し得る。同様に、図2~3に関して記載された方法およびそれらの可能な実装例は、システム100に実装することができる。したがって、図2~3に関して説明した方法に関連して説明した実施形態は、必要な変更を加えて、システム100の様々な実施形態として実装することもでき、その逆も可能である。
[0041]ここで図2を参照すると、ここに開示する主題の特定の実施形態による車両画像比較の一般化されたフローチャートが示されている。
[0042]撮像装置によって取得された入力画像を取得することができる(例えば、図1に示すように、I/Oインターフェイス126を介してPMC102によって、または画像データベース123から)。この入力画像は、車両の少なくとも一部をキャプチャしている。
[0043]本明細書で使用される「入力画像」または「ターゲット画像」という用語は、1つまたは複数の視点から取得された1つまたは複数の静止画像、所与の視点を構成する映像から取得されたシーケンス/一連の画像/フレーム、および上記いずれかに基づいて生成されたステッチ画像/合成画像、のいずれかを指すように広義に解釈されるべきである。
[0044]前述のように、いくつかの実施形態では、入力画像は、例えば、車両の正面、側面(例えば、左側または右側)、背面、平面、および下面などの所与の視点/ビュー/角度から1つの画像取得デバイスによってキャプチャされた1つまたは複数の画像をいう。したがって、入力画像は、画像が取得される特定の視点、および画像取得デバイスと車両との間の相対位置に応じて、車両外部の少なくとも一部をカバーし得る。例として、車両が通過する通路の地下に埋め込まれた撮像装置は、所与の時間間隔(例えば、毎秒100~250フレーム)で複数の足回り画像をキャプチャすることができる。視野が重なっている複数の下部構造画像を組み合わせて、車両下部構造の単一のステッチ画像を形成することができる。このようなステッチ画像は、通常、比較的高解像度であり、入力画像として使用できる。場合によっては、そのようなステッチ画像は3D画像であり得る。
[0045]いくつかの実施形態では、入力画像は、車両に対して異なる相対位置に配置された複数の画像取得ユニットのそれぞれによって取得された1つまたは複数の画像を意味し得る。例として、複数の静止画像を異なる視点から取得することができ、システム100への入力画像として使用し得る複数の静止画像に基づいて1つの合成画像を生成することができる。例えば、車両を囲むカメラを使用することで、3D車両モデルを作成し、入力画像として使用することができる。3Dモデル、ならびに上記の3D画像は、撮像装置に対するピクセルの相対的または絶対的な深度測定値を示す各ピクセルの追加情報を含むモデルまたは画像を意味し得る。場合により、キャプチャされた複数の2D画像に基づいて3Dモデルまたは画像を作成することができ、1つまたは複数の合成2D画像を3Dモデルまたは画像から抽出することができる。そのような合成2D画像は、キャプチャされた2D画像ではなく、本明細書に開示されるような比較システム100の入力として使用することができる。合成2D画像は、参照画像に近い/類似した推定された視点から生成できるため、これは、視点の違い(すなわち、視点によって引き起こされる違い)を補正する目的で有利な場合があり、FAタイプの差異を減少することができる。
[0046]任意選択で、上記のようなステッチ画像または合成画像、またはその少なくとも一部を生成する機能を、PMC102内に統合することができる。あるいは、そのような機能が撮像装置によって提供され、ステッチ画像または合成画像がI/Oインターフェースを介してPMCに送信されてもよい。
[0047]本開示は、撮影される入力画像の数、タイプ、範囲、および視点によっても、その方法の特定の生成によっても制限されないことを理解されたい。
[0048]入力画像が取得されると、そこから複数の画像部分を導出することができる。一実施形態では、入力画像は、事前定義されたグリッドを使用することによって、複数の画像部分に分割することができる。別の実施形態では、スライディングウィンドウを使用することによって、複数の画像部分を取得することができる。スライディングウィンドウは、事前定義されたサイズを持ち、特定のステップサイズ(例えば、「スライド」ステップごとにスライディングウィンドウが移動する距離)で入力画像内を「スライド」するように構成できる。このステップサイズは、画像部分が互いに重ならないように、または特定の方法で重なるように定義することができる。本開示は、画像部分を取得する特定の方法には限定されない。
[0049]いくつかの実施形態では、複数の画像部分は、セグメンテーションモデルを使用して、入力画像を(例えば、PMC102のセグメンテーションモジュール(別個に図示せず)によって)車両の少なくとも一部に含まれる1つまたは複数の機械的構成要素に対応する1つまたは複数の入力セグメントにセグメント化することによって得ることができる。これらの入力セグメントは画像部分として用いることができる。車両またはその一部の機械的構成要素への分割は多様であり得ることに留意されたい。例えば、特定の機械的構成要素をさらにサブ構成要素に分割することができる。したがって、画像部分と機械的構成要素との間の対応/マッピングは固定ではなく、適宜適合させることができることが理解されるべきである。例えば、1つの画像部分が1つまたは複数の機械的構成要素に対応してもよいし、あるいは、1つの機械的構成要素が1つまたは複数の画像部分に対応してもよい。本開示は、機械的構成要素の特定の分割、および/または画像部分と機械的構成要素との間の対応によって制限されない。
[0050]図4は、ここに開示する主題の特定の実施形態による入力画像および対応するセグメントの例を示している。図示のように、例示的な入力画像404は、車両の下部構造をキャプチャしている。この入力画像404は、402に示されるように、複数の入力セグメントにセグメント化される。このセグメンテーションは、402のセグメントが、排気、燃料タンク、エンジン、ホイール、サスペンション、およびシャーシなどの例示的な機械的構成要素に対応するように実行される。セグメント406を例にとると、本例では、排気コンポーネント全体に対応する1つのセグメント406が存在する。しかしながら、他の例では、排気は、例えば1つまたは複数の排気管などのサブコンポーネント/部品にさらに分割することができ、これらのセグメントは、サブコンポーネントまたはコンポーネント全体に対応してもよい。
[0051]いくつかの実施形態では、セグメンテーションモデルは機械学習に基づくことができる。例として、セグメンテーションモデルは、例えば、深層学習ニューラルネットワーク(深層ニューラルネットワーク、またはDNNとも呼ばれる)などのセグメンテーション深層学習モデルとして実装することができる。セグメンテーション深層学習モデルは、PMC102のセグメンテーションモジュール106に含まれていると見なすことができる。
[0052]本明細書で言及されるDNNは、それぞれのDNNアーキテクチャに従って編成された複数の層を含む教師ありまたは教師なし(supervised or unsupervised)DNNを意味し得る。非限定的な例として、DNNの層は、畳み込みニューラルネットワーク(CNN)アーキテクチャ、リカレントニューラルネットワークアーキテクチャ、再帰型ニューラルネットワークアーキテクチャ、GANアーキテクチャなどに従って編成することができる。任意選択で、少なくともいくつかの層は、複数のDNNサブネットワークに編成することができる。DNNの各層は、当技術分野で通常次元、ニューロン、またはノードと呼ばれる複数の基本的な計算要素(CE)を含むことができる。
[0053]一般に、所与の層のCEは、前の層および/または後続の層のCEと接続することができる。前の層のCEと次の層のCEの間の各接続は、重み付け値に関連付けられている。所与のCEは、それぞれの接続を介して前の層のCEから入力を受け取ることができ、所与の各接続は、所与の接続の入力に適用できる重み付け値に関連付けられている。重み付け値は、接続の相対的な強度を決定し、したがって、特定のCEの出力に対するそれぞれの入力の相対的な影響を決定できる。所与のCEは、活性化値(入力の加重和など)を計算し、計算された活性化に活性化関数を適用することによって出力をさらに導出するように構成できる。活性化関数は、例えば、アイデンティティ関数、決定論的関数(例えば、線形、シグモイド、閾値など)、確率関数または他の適切な関数であり得る。所与のCEからの出力は、それぞれの接続を介して後続の層のCEに送信できる。同様に、上記のように、CEの出力での各接続は、後続の層のCEの入力として受け取られる前に、CEの出力に適用され得る重み値に関連付けられ得る。重み付け値に加えて、接続とCEに関連付けられたしきい値(制限機能を含む)があってもよい。
[0054]DNNの重み付けおよび/またはしきい値は、トレーニング前に最初に選択でき、トレーニング中にさらに繰り返し調整または変更して、トレーニングされたDNNで重み付けおよび/またはしきい値の最適なセットを実現することができる。各反復の後、DNNによって生成された実際の出力と、それぞれのトレーニングデータセットに関連付けられたターゲット出力との差を特定することができる。この差がエラー値と呼ばれる。エラー値を示すコスト関数が所定の値よりも小さい場合、または反復間のパフォーマンスの変化が限定された場合に、トレーニングが完了したと判断することができる。任意選択で、DNN全体をトレーニングする前に、DNNサブネットワークの少なくとも一部(存在する場合)を個別にトレーニングしてもよい。
[0055]深層ニューラルネットワークの重み/しきい値を調整するために使用されるDNN入力データのセットは、以降、トレーニングセットまたはトレーニングデータセットまたはトレーニングデータと呼ばれる。
[0056]ここに開示する主題の教示は、上記のようなDNNアーキテクチャによって限定されないことに留意されたい。
[0057]いくつかの実施形態では、セグメンテーション深層学習モデル(例えば、セグメンテーションDNN)は、そこに含まれる機械的構成要素に従って、事前にセグメント化された車両画像のセットを含むトレーニングデータセットを使用してトレーニングすることができる。トレーニング画像とセグメント化されたラベルは、トレーニングのためにセグメンテーションDNNに入力される。トレーニングプロセスは、モデルを最適化して、入力画像のセグメンテーションラベル(ピクセル単位のセグメンテーションラベルなど)を正しく予測できるようにすることである。場合によっては、様々なタイプの車両の画像をカバーする様々なトレーニングデータセットを提供して、実行時に入力される様々なタイプの車両をセグメント化できるようにモデルをトレーニングする必要がある。
[0058]図2のフローを続けると、参照画像のセットを検索することができる(206)(例えば、PMC102の参照選択モジュール104によって)。
[0059]ここで図3を参照すると、ここに開示する主題の特定の実施形態による参照選択の一般化されたフローチャートが示されている。
[0060]参照画像のセットは、インスタンス記述子を用いて選択される。インスタンス記述子は、画像内の車両インスタンスの一意の識別子であり得る。例として、インスタンス記述子は、ナンバープレート認識を使用して取得/生成することができる。別の例として、識別子の手動入力をインスタンス記述子として使用することができる。場合によっては、画像内の車両インスタンスの特定の特徴を表すフィンガープリントを作成して、インスタンス記述子として使用することができる。例として、この特定の特徴は、例えば、形状、サイズ、要素の位置、および要素間の幾何学的関係および相対位置など、画像内の要素/コンポーネント/パターンの1つまたは複数の構造的特徴に関連し得る。追加的または代替的に、入力画像の取得の場所および時間も、識別子情報の一部として使用することができる。したがって、上記の方法のいずれかを使用して、入力画像に対して特定のインスタンス記述子が取得される(301)。
[0061]特定のインスタンス記述子の検索が、画像データベース(例えば、図1の画像データベース123)で実行され(302)、ここには様々な車両インスタンス(すなわち、候補参照画像)の以前のスキャンがそれに関連付けられた固有のインスタンス記述子とともに保存されている。この検索は、入力画像内の特定の車両インスタンス(特定のインスタンス記述子によって表される)がデータベース内で見つかるかどうか(304)を判別するためである。特定のインスタンスが見つかった場合、同じ特定のインスタンス記述子に関連付けられ、したがって同じ車両インスタンスをキャプチャした第1の画像セットが取得され、入力画像と比較するための参照画像として使用される(306)。特定のインスタンスが見つからない場合(あるいは、参照が少なすぎる、参照のスキャン品質が低い、ビューの視点が悪いなど、306で見つかった参照が不十分な場合)、類似性メトリックを用いて代替または追加の参照(すなわち、類似の車両インスタンスをキャプチャする2番目の画像セット)を探すことができる。
[0062]具体的には、エンコーディングモデルを使用して、入力画像および候補参照画像のそれぞれのベクトル表現を取得することができる(308)。いくつかの実施形態では、エンコーディングモデルは、機械学習に基づくことができる。例として、エンコーディングモデルは、例えば、エンコーディングDNNなどのエンコーディング深層学習モデルとして実装することができる。エンコーディングDNNは、PMC102の参照選択モジュール104に含まれると見なすことができる。DNNアーキテクチャと実装の一般的な説明は上記で詳細に説明されているため、説明を簡潔かつ簡潔にするために、ここでは繰り返さないことにする。
[0063]入力画像のベクトル表現と各候補参照画像との間の類似性メトリックを使用して、類似の車両インスタンスをキャプチャする画像の第2のセットを選択することができる(310)。類似性メトリックは、任意の距離関数(例えば、L1ノルム、L2ノルムなど)など、2つのオブジェクト/インスタンス間の類似性を定量化するために使用できる任意の既知の尺度または関数であり得る。具体的には、エンコーディングDNNは、すべての類似インスタンスのベクトル表現間の距離が、非類似インスタンスまでの距離よりも小さくなるようにトレーニングおよび最適化できる。
[0064]車両画像比較の上記の技術的課題のため、入力画像が第1の撮像条件で撮像装置によって取得され、参照画像のセット内の1以上の参照画像が第1の撮像条件とは異なる第2の撮像条件で取得されたものと認識することができ、それによって、第1の撮像条件と第2の撮像条件との違いに起因する入力画像と1以上の参照画像との間に誤警報(FA)の差が生じる。このため、理想的な比較結果を得るには、FAの差を排除してDOIを特定する必要がある。
[0065]図2のフローチャートに戻ると、複数の画像部分の所与の画像部分ごとに、参照画像のセット内で(例えば、PMC102の参照部分選択モジュール106によって)最も一致する参照部分を検索することができる(205)。具体的には、参照画像のセットに対応する参照部分候補のセットを取得することができ(206)、これは、セット内の所与の参照画像ごとに、入力画像内の所与の画像部分の位置に応じて所与の参照画像内の参照領域を同定する(208)。この参照領域は、所与の画像部分よりも小さくないサイズを有する。所与の画像部分と参照領域の類似性モデルを使用して、参照領域内の1つまたは複数のそれぞれの位置を有する1つまたは複数の参照画像部分に対応する1つまたは複数のセクションを含む類似性マップを取得する(210)。この類似性マップの各セクションは、所与の画像部分とそれぞれの参照画像部分との間の類似性を示す。そして、1つまたは複数の参照画像部分から、所与の参照画像の参照部分候補として最も類似性の高い参照画像部分を選択する(212)。208、210、および212を関して説明した動作が、セット内の各参照画像に対して繰り返され、それによって参照部分候補のセットが得られる。この参照部分候補のセットから最も一致する参照部分を選択することができる(214)。
[0066]図6を参照すると、ここに開示する主題の特定の実施形態による、入力画像内の所与の画像部分に最も一致する参照部分を選択するステップの概略例を示す。
[0067]図6には、入力画像について選択された参照画像のセット内の、入力画像602および所与の参照画像604が例示されている。(入力画像602に含まれる複数の画像部分のうちの)所与の画像部分606について、入力画像内の所与の画像部分606の位置に従って、所与の参照画像604内で参照領域607が同定され得る(例えば、左コーナーまたはセンター位置の相対座標、あるいは所与の画像部分の他の適切な基準点に基づいて)。本例では、参照領域607のサイズは、ここから参照画像部分を選択するための比較的大きな領域を提供するように、画像部分606よりも大きいものとして示されている。画像部分606および参照領域607は、類似性モデル610への入力として提供され、類似性マップ612が得られる。
[0068]類似性マップ612は、参照領域607内のそれぞれの位置を有する複数の参照画像部分に対応する複数のセクションを含む。類似性マップ612の各セクションは、所与の画像部分606と、参照領域607内の複数の参照画像部分のそれぞれの参照画像部分との間の類似性を示す。複数の参照画像部分は、画像部分のサイズおよび特定のステップサイズを有するスライディングウィンドウ608を用いて参照領域607から識別され、したがって参照領域内の異なる位置を有すると見なすことができる。例えば、類似性マップ612のセクション614は、特定の参照画像部分616に対応し、参照画像部分616と所与の画像部分606との間の類似性のレベルを示すことができる(例えば、図では0.8として示される)。この類似性は、[0,1]の範囲内の数値で表すことができ、1は最も類似または同一であることを示し、0はそうでないことを示す。上記の代わりに、類似性および/または範囲の他の種類の表現を使用できることが理解されよう。
[0069]セクション614が類似性マップにおいて最良の類似性を有すると仮定すると、参照画像部分616が、所与の参照画像604の参照部分候補として選択される。同様に、残りの参照画像のそれぞれに対して1つの参照部分候補が選択される。参照部分候補のセットから最も一致する参照部分を選択して、最も類似性の高いものとすることができる。
[0070]類似性マップ612は、セクション614などの複数のセクションを含むものとして図示されているが、これは例示のみを目的としていることに留意されたい。ここでのセクションという用語は、物理的な領域を持つセクションに限定されると解釈されるべきではない。類似性マップが特定の参照画像部分に対応する1つまたは複数の類似性表示を提供できる限り、類似性マップおよびそのセクションを表す他の方法を、上記の代わりに使用することができる。例として、類似性マップは、それぞれが参照領域内の特定の画像部分にリンクされた類似性値(すなわち、セクション)のリストまたはベクトルとして実装することができる。
[0071]特に、類似性マップを導出するために類似性モデルが使用される。いくつかの実施形態では、類似性モデルは、機械学習に基づくことができる。例として、類似性モデルは、例えば、類似性DNNなどの類似性深層学習モデルとして実装することができる。類似性DNNは、PMC102の参照部分選択モジュール106に含まれると見なすことができる。DNNアーキテクチャと実装の一般的な説明は上記で詳細に説明されているため、説明を簡潔かつ簡潔にするために、ここでは繰り返さない。
[0072]類似性DNNは、複数の画像部分のセットを含むトレーニングデータセットを使用してトレーニングすることができる。これらの画像部分は、密に登録された画像のセットから抽出される(すなわちグラウンドトゥルース登録)。画像部分の各セットは、画像内の特定部分に向けられている。モデルをトレーニングするための入力として、それぞれ異なる画像からの1対の画像部分が提供される。グラウンドトゥルース登録から計算された2つの部分の重なりが、類似性予測のターゲットとなる。類似性モデルは、各入力ペア内の類似性を(例えば、類似性スコアによって)正確に反映できるようにトレーニングすることができる。
[0073]いくつかの実施形態において、画像部分が車両の機械的構成要素に対応する入力セグメントである場合、ブロック205に関する上記プロセスを、所与のセグメントに最も一致する参照部分を見つけるために依然として適用することができる。さらなる実施形態では、代替のアプローチを使用してもよい。例えば、参照画像のセットが、そこに含まれる機械的構成要素に対応する参照セグメントへと以前にセグメント化されている場合、参照領域は、対応する参照セグメント(基本的に入力セグメントと同じサイズ)として選択することができ、そのような場合に生成される類似性マップは、対応する参照セグメントが入力セグメントにどれほど類似しているかを反映することができる。その類似性に応じて、参照画像のセットから、すべての参照セグメントの中から最も一致する参照セグメントを選択することができる。
[0074]図2のフローチャートに戻ると、各画像部分について最も一致する参照部分が特定されると、比較モデルを使用して、それぞれの所与の画像部分を最も一致する参照部分と比較し(216)、所与の画像部分に対応する差分マップが生成される。この差分マップは、所与の画像部分の関心のある差分(difference of interest:DOI)が存在する確率を示し得る。DOIは、ユーザが関心を持つ差異の種類に関する。いくつかの実施形態では、DOIは、例えば、引っかき傷のような損傷、疑わしいオブジェクトといった異常、色の変化などを含むがこれらに限定されない、車両自体の物理的変化を表し得る。したがって、入力画像の複数の画像部分に対応する複数の差分マップを得ることができる。
[0075]特に、所与の画像部分を対応する最も一致する参照部分と比較する場合、比較モデルが使用される。いくつかの実施形態では、比較モデルは、機械学習に基づくことができる。例として、比較モデルは、例えば、比較DNNなどの比較深層学習モデルとして実装することができる。例えば、比較DNNはシャムニュートラルネットワークとして実装できる。比較DNNは、PMC102の比較モジュール108に含まれていると見なすことができる。DNNアーキテクチャと実装の一般的な説明は上記で詳細に説明されているため、説明を簡略かつ簡潔にするために、ここでは繰り返さない。
[0076]比較DNNは、DOIの差異が事前に同定されているターゲット画像と参照画像をそれぞれ含む画像ペアのセットで構成されるトレーニングデータセットを使用してトレーニングすることができる。このモデルは、DOIを識別し、各画像ペア間で生成された差分マップでFAの差異を除外できるようにトレーニングされている。いくつかの実施形態では、トレーニングプロセスに提供されるターゲット画像は、合成シミュレーション画像を含み得る。このシミュレーション画像は、疑わしいオブジェクトなど、ターゲット画像に埋め込まれる様々な種類のDOIをシミュレートする目的で生成されるため、ランタイムにそのような異常を識別するようにモデルをトレーニングすることができる。
[0077]いくつかの実施形態では、所与の画像部分に対応する差分マップは、所与の画像部分におけるDOIの存在の部分ごとの確率を示すことができる。例として、部分ごとの確率は、所与の画像部分ごとに[0,1]の範囲内の数値で表すことができ、ここで1は所与の画像部分にDOIが存在する可能性が最も高いことを示し、0はそうでない場合を示す。上記の代わりに、確率および/または範囲の他の種類の表現を使用できることが理解されよう。
[0078]いくつかの実施形態では、所与の画像部分に対応する差分マップは、所与の画像部分にDOIが存在するピクセル単位の確率を示すことができる。例として、ピクセル単位の確率は、所与の画像部分の所与のピクセルごとに[0,1]の範囲内の数値で表すことができ、1は所与のピクセルにDOIが存在する可能性が最も高いことを示し、0はそうでない場合を示す。上記の代わりに、確率および/または範囲の他の種類の表現を使用できることが理解されよう。
[0079]入力画像の複数の画像部分に対応する複数の差分マップが生成されると、複数の差分マップの各差分マップは、個別に(例えば、GUI124を介して)ユーザに提示してもよいし、あるいは、複数の差分マップを組み合わせて、入力画像全体にDOIが存在する確率を示す複合差分マップを作成し、この複合差分マップをユーザに提示してもよい。いくつかの実施形態では、複合差分マップ内のピクセルの少なくともいくつかは、異なる参照画像との比較から生じる。
[0080]例示目的のために、入力画像に含まれるものとして5つの画像部分1~5があると仮定する。各画像部分について最も一致する参照部分を選択した後、各画像部分は、その最も一致する参照部分とともに比較モデルに入力され、対応する差分マップが生成される。したがって、5つの画像部分に対して5つの差分マップが生成される。5つの差分マップを組み合わせることによって1つの複合差分画像が生成される。したがって、複合差分マップでは、部分1のピクセルは第1の参照からの最も一致する参照部分との比較から生じる場合があり、部分2のピクセルは第2の参照からの最も一致する参照部分との比較から生じる場合がある。
[0081]図5は、ここに開示する主題の特定の実施形態による、複合差分マップおよび対応する入力画像の例を示す。
[0082]例示的な入力画像504が図2に示されるようにフローを通過した後、画像部分に対応する複数の差分マップが生成され、次いで、1の複合差分マップ502へと結合される。図示のように、2つのDOI506と508を、(二乗された)入力画像内の2つの疑わしいオブジェクトに対応する複合差分マップから識別することができる。
[0083]本説明の比較を参照して例示された例および実施形態は、決してすべての可能な代替案を含むものではなく、非限定的な例のみを例示することを意図していることが理解されよう。
[0084]本発明は、その適用において、本明細書に含まれる、または図面に示される説明に記載される詳細に限定されないことを理解されたい。本発明は、他の実施形態が可能であり、様々な方法で実施および実施することができる。したがって、本明細書で使用される表現および用語は、説明を目的とするものであり、限定的なものと見なされるべきではないことを理解されたい。したがって、当業者は、本開示の基礎となる概念が、ここに開示する主題のいくつかの目的を実行するための他の構造、方法、およびシステムを設計するための基礎として容易に利用できることを理解するであろう。
[0085]本発明によるシステムは、少なくとも部分的に、適切にプログラムされたコンピュータ上に実装され得ることも理解されよう。同様に、本発明は、本発明の方法を実行するためにコンピュータによって読み取り可能であるコンピュータプログラムを企図する。本発明はさらに、本発明の方法を実行するためにコンピュータによって実行可能な命令のプログラムを具体的に体現する非一時的コンピュータ可読メモリまたは記憶媒体を企図する。
[0086]プロセッサに本発明の態様を実行させる非一時的なコンピュータ可読記憶媒体は、命令実行デバイスによって使用するための命令を保持および記憶することができる有形のデバイスであり得る。コンピュータ可読記憶媒体は、例えば、これらに限定されないが、電子記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置、またはこれらの任意の適切な組み合わせであり得る。
[0087]この技術分野の当業者は、添付の特許請求の範囲で規定された範囲から逸脱することなく、前述のように本発明の実施形態に様々な修正および変更を適用できることを容易に理解するであろう。

Claims (31)

  1. 車両画像比較のコンピュータ化された方法であって:
    車両の少なくとも一部をキャプチャする撮像装置によって取得された入力画像を取得するステップであって、前記入力画像は複数の画像部分を含む、ステップと;
    参照画像のセットを取得するステップと;
    前記複数の画像部分のうちの所与の画像部分ごとに、前記参照画像のセット内で最も一致する参照部分を検索するステップであって、
    i)前記参照画像のセットに対応する参照部分候補のセットを取得するステップであって、前記セット内の所与の参照画像ごとに:
    前記入力画像内の所与の画像部分の位置に従って前記所与の参照画像内の参照領域を識別するステップであって、前記参照領域は、前記所与の画像部分よりも小さくないサイズを有する、ステップと;
    前記所与の画像部分および参照領域の類似性モデルを使用して、前記参照領域内の1つまたは複数のそれぞれの位置を有する1つまたは複数の参照画像部分に対応する1つまたは複数のセクションを含む類似性マップを取得するステップであって、前記類似性マップの各セクションは、前記所与の画像部分とそれぞれの参照画像部分との間の類似性を示している、ステップと;
    前記1つまたは複数の参照画像部分から、前記所与の参照画像の参照部分候補として最も類似性の高い参照画像部分を選択するステップとを含む、
    取得するステップと、
    ii)前記参照部分候補のセットから最も一致する参照部分を選択するステップとを含む、
    検索するステップと;
    比較モデルを使用して、前記所与の各画像部分を前記最も一致する参照部分と比較し、前記所与の画像部分に対応する差分マップを生成するステップであって、前記差分マップは、前記所与の画像部分における関心の差(DOI)の存在の確率を示し、これにより、前記入力画像の複数の画像部分に対応する複数の差分マップを得る、ステップとを含む方法。
  2. 請求項1のコンピュータ化された方法において、さらに、前記複数の差分マップを、前記入力画像内の関心のある差分(difference of interest:DOI)の存在の確率を示す複合差分マップへと結合するステップを含む、方法。
  3. 請求項1のコンピュータ化された方法において、前記複数の画像部分は、スライディングウィンドウを用いて取得される、方法。
  4. 請求項1のコンピュータ化された方法において、前記複数の画像部分は、セグメンテーションモデルを使用して、車両の少なくとも一部に含まれる1つまたは複数の機械的構成要素に対応する1つまたは複数の入力セグメントへと前記入力画像をセグメント化することによって取得される、方法。
  5. 請求項1のコンピュータ化された方法において、前記入力画像は、第1の撮像条件で前記撮像装置によって取得され、前記参照画像のセット内の少なくとも1つの参照画像は、前記第1の撮像条件とは異なる第2の撮像条件で取得され、それによって前記第1および第2の撮像条件の違いに起因する、前記入力画像と少なくとも1つの参照画像との間の誤警報(false alarm:FA)の差異が生じる、方法。
  6. 請求項5のコンピュータ化された方法において、前記第1および第2の撮像条件は、車両と撮像装置との間の相対位置、照明状態、および車両の速度のうちの1つまたは複数を含む、方法。
  7. 請求項1のコンピュータ化された方法において、前記参照画像のセットは、前記入力画像内で車両を一意に識別するインスタンス記述子を使用して取得される、方法。
  8. 請求項7のコンピュータ化された方法において、前記参照画像のセットは、車両の同じインスタンスをキャプチャした画像の第1のセットと、車両に類似のインスタンスをキャプチャした画像の第2のセットとを含むグループから選択される、方法。
  9. 請求項8のコンピュータ化された方法において、前記画像の第2のセットは、エンコーディングモデルを使用して前記入力画像および候補参照画像のそれぞれのベクトル表現を取得し、前記入力画像のベクトル表現と各参照画像候補との間の類似性メトリックを使用して前記第2の画像セットを選択することによって選択される、方法。
  10. 請求項1のコンピュータ化された方法において、前記比較モデルは、前記DOIを識別し、各画像ペア間の差分マップで誤警報(false alarm:FA)の差異を除外できるように、それぞれがターゲット画像と参照画像を含む画像ペアのセットを含むトレーニングデータセットを使用してトレーニングされた比較深層学習モデルである、方法。
  11. 請求項1のコンピュータ化された方法において、前記類似性モデルは、見当合わせされた画像から抽出された複数の画像部分のセットを含むトレーニングデータセットを使用してトレーニングされた類似性深層学習モデルであり、前記類似性モデルは、画像部分の複数のセットの各セット内の画像部分の各ペア内の類似性を反映するようにトレーニングされる、方法。
  12. 請求項のコンピュータ化された方法において、前記セグメンテーションモデルは、そこに含まれる機械的構成要素に従って事前にセグメント化された車両画像のセットを含むトレーニングデータセットを使用してトレーニングされたセグメンテーション深層学習モデルである、方法。
  13. 請求項1のコンピュータ化された方法において、前記所与の画像部分に対応する差分マップは、前記所与の画像部分におけるDOIの存在の部分ごとの確率を示す、方法。
  14. 請求項1のコンピュータ化された方法において、前記所与の画像部分に対応する差分マップは、前記所与の画像部分にDOIが存在するピクセル単位の確率を示す、方法。
  15. 請求項2のコンピュータ化された方法において、前記複合差分マップのピクセルの少なくとも一部は、異なる参照画像との比較から生じる、方法。
  16. 車両画像比較のコンピュータ化されたシステムであって、当該システムはI/Oインターフェースに動作可能に接続されたプロセッサおよびメモリ回路(PMC)を具え、
    前記I/Oインターフェースは:
    車両の少なくとも一部をキャプチャする撮像装置によって取得された入力画像を取得し、ここで前記入力画像は複数の画像部分を含んでおり;
    参照画像のセットを検索するように構成されており;
    前記PMCは:
    前記複数の画像部分の所与の画像部分ごとに、前記参照画像のセット内で最も一致する参照部分を検索し、これには
    i)前記参照画像のセットに対応する参照部分候補のセットを取得することであって、前記セット内の所与の参照画像ごとに:
    前記入力画像内の所与の画像部分の位置に従って前記所与の参照画像内の参照領域を識別すること、ここで前記参照領域は、前記所与の画像部分よりも小さくないサイズを有する;
    前記所与の画像部分および参照領域の類似性モデルを使用して、前記参照領域内の1つまたは複数のそれぞれの位置を有する1つまたは複数の参照画像部分に対応する1つまたは複数のセクションを含む類似性マップを取得すること、ここで前記類似性マップの各セクションは、前記所与の画像部分とそれぞれの参照画像部分との間の類似性を示す;および、
    前記1つまたは複数の参照画像部分から、前記所与の参照画像の参照部分候補として最も類似性の高い参照画像部分を選択することと、
    ii)前記参照部分候補のセットから最も一致する参照部分を選択すること;が含まれ、
    比較モデルを使用して、前記所与の各画像部分を最も一致する参照部分と比較し、前記所与の画像部分に対応する差分マップを生じさせ、ここで前記差分マップは、前記所与の画像部分における関心の差(DOI)の存在の確率を示し、これにより、前記入力画像の複数の画像部分に対応する複数の差分マップを生成するように構成される、システム。
  17. 請求項16のコンピュータ化されたシステムにおいて、前記PMCがさらに、前記複数の差分マップを、前記入力画像内の関心のある差分(difference of interest:DOI)の存在の確率を示す複合差分マップへと結合する、システム。
  18. 請求項16のコンピュータ化されたシステムにおいて、前記複数の画像部分は、スライディングウィンドウを用いて取得される、システム。
  19. 請求項16のコンピュータ化されたシステムにおいて、前記複数の画像部分は、セグメンテーションモデルを使用して、車両の少なくとも一部に含まれる1つまたは複数の機械的構成要素に対応する1つまたは複数の入力セグメントへと前記入力画像をセグメント化することによって取得される、システム。
  20. 請求項16のコンピュータ化されたシステムにおいて、前記入力画像は、第1の撮像条件で前記撮像装置によって取得され、前記参照画像のセット内の少なくとも1つの参照画像は、前記第1の撮像条件とは異なる第2の撮像条件で取得され、それによって前記第1および第2の撮像条件の違いに起因する、前記入力画像と少なくとも1つの参照画像との間の誤警報(false alarm:FA)の差異が生じる、システム。
  21. 請求項20のコンピュータ化されたシステムにおいて、前記第1および第2の撮像条件は、車両と撮像装置との間の相対位置、照明状態、および車両の速度のうちの1つまたは複数を含む、システム。
  22. 請求項16のコンピュータ化されたシステムにおいて、前記参照画像のセットは、前記入力画像内で車両を一意に識別するインスタンス記述子を使用して取得される、システム。
  23. 請求項22のコンピュータ化されたシステムにおいて、前記参照画像のセットは、車両の同じインスタンスをキャプチャした画像の第1のセットと、車両に類似のインスタンスをキャプチャした画像の第2のセットとを含むグループから選択される、システム。
  24. 請求項23のコンピュータ化されたシステムにおいて、前記画像の第2のセットは、エンコーディングモデルを使用して前記入力画像および候補参照画像のそれぞれのベクトル表現を取得し、前記入力画像のベクトル表現と各参照画像候補との間の類似性メトリックを使用して前記第2の画像セットを選択することによって選択される、システム。
  25. 請求項16のコンピュータ化されたシステムにおいて、前記比較モデルは、前記DOIを識別し、各画像ペア間の差分マップで誤警報(false alarm:FA)の差異を除外できるように、それぞれがターゲット画像と参照画像を含む画像ペアのセットを含むトレーニングデータセットを使用してトレーニングされた比較深層学習モデルである、システム。
  26. 請求項16のコンピュータ化されたシステムにおいて、前記類似性モデルは、見当合わせされた画像から抽出された複数の画像部分のセットを含むトレーニングデータセットを使用してトレーニングされた類似性深層学習モデルであり、前記類似性モデルは、画像部分の複数のセットの各セット内の画像部分の各ペア内の類似性を反映するようにトレーニングされる、システム。
  27. 請求項19のコンピュータ化されたシステムにおいて、前記セグメンテーションモデルは、そこに含まれる機械的構成要素に従って事前にセグメント化された車両画像のセットを含むトレーニングデータセットを使用してトレーニングされたセグメンテーション深層学習モデルである、システム。
  28. 請求項16のコンピュータ化されたシステムにおいて、前記所与の画像部分に対応する差分マップは、前記所与の画像部分におけるDOIの存在の部分ごとの確率を示す、システム。
  29. 請求項16のコンピュータ化されたシステムにおいて、前記所与の画像部分に対応する差分マップは、前記所与の画像部分にDOIが存在するピクセル単位の確率を示す、システム。
  30. 請求項17のコンピュータ化されたシステムにおいて、前記複合差分マップのピクセルの少なくとも一部は、異なる参照画像との比較から生じる、システム。
  31. コンピュータによって実行されると前記コンピュータに車両画像比較の方法を実行させる命令を含む非一時的コンピュータ可読記憶媒体であって、前記方法が:
    車両の少なくとも一部をキャプチャする撮像装置によって取得された入力画像を取得するステップであって、前記入力画像は複数の画像部分を含む、ステップと;
    参照画像のセットを取得するステップと;
    前記複数の画像部分のうちの所与の画像部分ごとに、前記参照画像のセット内で最も一致する参照部分を検索するステップであって、
    i)前記参照画像のセットに対応する参照部分候補のセットを取得するステップであって、前記セット内の所与の参照画像ごとに:
    前記入力画像内の所与の画像部分の位置に従って前記所与の参照画像内の参照領域を識別するステップであって、前記参照領域は、前記所与の画像部分よりも小さくないサイズを有する、ステップと;
    前記所与の画像部分および参照領域の類似性モデルを使用して、前記参照領域内の1つまたは複数のそれぞれの位置を有する1つまたは複数の参照画像部分に対応する1つまたは複数のセクションを含む類似性マップを取得するステップであって、前記類似性マップの各セクションは、前記所与の画像部分とそれぞれの参照画像部分との間の類似性を示している、ステップと;
    前記1つまたは複数の参照画像部分から、前記所与の参照画像の参照部分候補として最も類似性の高い参照画像部分を選択するステップとを含む、
    取得するステップと、
    ii)前記参照部分候補のセットから最も一致する参照部分を選択するステップとを含む、
    検索するステップと;
    比較モデルを使用して、前記所与の各画像部分を前記最も一致する参照部分と比較し、前記所与の画像部分に対応する差分マップを生成するステップであって、前記差分マップは、前記所与の画像部分における関心の差(DOI)の存在の確率を示し、これにより、前記入力画像の複数の画像部分に対応する複数の差分マップを得る、ステップとを含む非一時的コンピュータ可読記憶媒体。
JP2021501137A 2018-03-29 2019-03-24 車両画像の比較方法とそのシステム Active JP7224603B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/940,142 2018-03-29
US15/940,142 US10643332B2 (en) 2018-03-29 2018-03-29 Method of vehicle image comparison and system thereof
PCT/IL2019/050326 WO2019186530A1 (en) 2018-03-29 2019-03-24 Method of vehicle image comparison and system thereof

Publications (2)

Publication Number Publication Date
JP2021520006A JP2021520006A (ja) 2021-08-12
JP7224603B2 true JP7224603B2 (ja) 2023-02-20

Family

ID=68054563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021501137A Active JP7224603B2 (ja) 2018-03-29 2019-03-24 車両画像の比較方法とそのシステム

Country Status (5)

Country Link
US (1) US10643332B2 (ja)
EP (1) EP3776450A4 (ja)
JP (1) JP7224603B2 (ja)
KR (1) KR102503559B1 (ja)
WO (1) WO2019186530A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11030726B1 (en) * 2019-04-25 2021-06-08 Shutterstock, Inc. Image cropping with lossless resolution for generating enhanced image databases
IL267563A (en) * 2019-06-20 2019-11-28 HYATT Yonatan Establishing a process for visual inspection
CN110766077A (zh) * 2019-10-24 2020-02-07 上海眼控科技股份有限公司 证据链图像中特写图筛选方法、装置和设备
US11048976B2 (en) 2019-11-11 2021-06-29 Midea Group Co., Ltd. Method and system for controlling machines based on object recognition
CN111242951A (zh) * 2020-01-08 2020-06-05 上海眼控科技股份有限公司 车辆检测方法、装置、计算机设备和存储介质
US11386537B2 (en) * 2020-02-27 2022-07-12 Shanghai United Imaging Intelligence Co., Ltd. Abnormality detection within a defined area
CN112218041B (zh) * 2020-09-01 2023-06-16 恒大新能源汽车投资控股集团有限公司 车辆监控方法、系统及车辆
US11921494B2 (en) * 2020-10-08 2024-03-05 Raymond H Scherzer Rapid automation system and method for line clearance
KR20220130398A (ko) * 2021-03-18 2022-09-27 현대자동차주식회사 차량 검사 장치 및 차량의 검사 방법
DE102021116068A1 (de) 2021-06-22 2022-12-22 Zf Cv Systems Global Gmbh Verfahren zum Inspizieren eines Fahrzeuges und Inspektions-System
US11875496B2 (en) * 2021-08-25 2024-01-16 Genpact Luxembourg S.à r.l. II Dimension estimation using duplicate instance identification in a multiview and multiscale system
CN117437624B (zh) * 2023-12-21 2024-03-08 浙江啄云智能科技有限公司 违禁品检测方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114596A (ja) 2011-11-30 2013-06-10 Kddi Corp 画像認識装置及び方法
WO2017056399A1 (ja) 2015-09-30 2017-04-06 パナソニックIpマネジメント株式会社 車種識別装置およびこれを備えた車種識別システムならびに車種識別方法

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10213422A (ja) * 1997-01-29 1998-08-11 Hitachi Ltd パタ−ン検査装置
JP4469476B2 (ja) * 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
JP4035974B2 (ja) * 2001-09-26 2008-01-23 株式会社日立製作所 欠陥観察方法及びその装置
JP3669698B2 (ja) * 2002-09-20 2005-07-13 日東電工株式会社 印刷物の検査方法及び検査装置
JP4403219B2 (ja) 2003-06-19 2010-01-27 株式会社ブロードリーフ 損傷解析支援システム
SG121906A1 (en) * 2004-10-11 2006-05-26 Stratech Systems Ltd Intelligent vehicle access control system
US20060132291A1 (en) * 2004-11-17 2006-06-22 Dourney Charles Jr Automated vehicle check-in inspection method and system with digital image archiving
WO2006075594A1 (ja) * 2005-01-11 2006-07-20 Nec Corporation テンプレートマッチングのための方法、その装置及びそのためのプログラムを記録した記録媒体
US20060171593A1 (en) * 2005-02-01 2006-08-03 Hitachi High-Technologies Corporation Inspection apparatus for inspecting patterns of a substrate
US8019164B2 (en) * 2007-01-29 2011-09-13 Hitachi High-Technologies Corporation Apparatus, method and program product for matching with a template
WO2012012576A1 (en) 2010-07-20 2012-01-26 Lockheed Martin Corporation Image analysis systems using non-linear data processing techniques and methods using same
JP2013536500A (ja) * 2010-07-20 2013-09-19 ロッキード マーティン コーポレイション 非線形データ処理技術を用いる画像解析システムおよびその使用方法
US20130188878A1 (en) * 2010-07-20 2013-07-25 Lockheed Martin Corporation Image analysis systems having image sharpening capabilities and methods using same
JP5840940B2 (ja) * 2011-12-16 2016-01-06 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像領域抽出装置、画像領域抽出方法、および画像領域抽出プログラム
US8995718B2 (en) * 2012-10-11 2015-03-31 Ittiam Systems (P) Ltd. System and method for low complexity change detection in a sequence of images through background estimation
WO2014149197A1 (en) * 2013-02-01 2014-09-25 Kla-Tencor Corporation Detecting defects on a wafer using defect-specific and multi-channel information
JP6362333B2 (ja) * 2013-02-14 2018-07-25 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
EP2911112B1 (en) 2014-02-21 2019-04-17 Wipro Limited Methods for assessing image change and devices thereof
US9153079B1 (en) 2014-03-18 2015-10-06 Robert Bruce Wood System and method of automated 3D scanning for vehicle maintenance
US20150294182A1 (en) * 2014-04-13 2015-10-15 Samsung Electronics Co., Ltd. Systems and methods for estimation of objects from an image
CN105787495A (zh) 2014-12-17 2016-07-20 同方威视技术股份有限公司 具有车辆参考图像检索及比对功能的车辆检查系统和方法
SE538405C2 (en) * 2015-01-07 2016-06-14 Viscando Ab Method and system for categorization of a scene
US9232118B1 (en) * 2015-01-23 2016-01-05 Interra Systems, Inc Methods and systems for detecting video artifacts
EP3176751B1 (en) 2015-12-01 2020-12-30 Ricoh Company, Ltd. Information processing device, information processing method, computer-readable recording medium, and inspection system
CN106991423B (zh) * 2016-01-21 2019-06-07 腾讯科技(深圳)有限公司 识别规格图片中是否包含水印的方法及装置
US9773196B2 (en) 2016-01-25 2017-09-26 Adobe Systems Incorporated Utilizing deep learning for automatic digital image segmentation and stylization
US10692050B2 (en) 2016-04-06 2020-06-23 American International Group, Inc. Automatic assessment of damage and repair costs in vehicles
US10298864B2 (en) * 2016-06-10 2019-05-21 Apple Inc. Mismatched foreign light detection and mitigation in the image fusion of a two-camera system
CN106127747B (zh) 2016-06-17 2018-10-16 史方 基于深度学习的汽车表面损伤分类方法及装置
US10043088B2 (en) * 2016-06-23 2018-08-07 Siemens Healthcare Gmbh Image quality score using a deep generative machine-learning model
WO2018015414A1 (en) * 2016-07-21 2018-01-25 Siemens Healthcare Gmbh Method and system for artificial intelligence based medical image segmentation
JP6694362B2 (ja) * 2016-09-30 2020-05-13 富士フイルム株式会社 画像検査方法及び装置、プログラム並びに画像記録システム
US10282843B2 (en) * 2016-10-27 2019-05-07 International Business Machines Corporation System and method for lesion analysis and recommendation of screening checkpoints for reduced risk of skin cancer
US10628890B2 (en) * 2017-02-23 2020-04-21 International Business Machines Corporation Visual analytics based vehicle insurance anti-fraud detection
US10255526B2 (en) * 2017-06-09 2019-04-09 Uptake Technologies, Inc. Computer system and method for classifying temporal patterns of change in images of an area
US10726307B2 (en) * 2017-06-30 2020-07-28 Ai Systems Co., Ltd. Real-time identification of moving objects in video images
US10445891B2 (en) * 2017-11-03 2019-10-15 Canon Medical Systems Corporation Medical image processing apparatus and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114596A (ja) 2011-11-30 2013-06-10 Kddi Corp 画像認識装置及び方法
WO2017056399A1 (ja) 2015-09-30 2017-04-06 パナソニックIpマネジメント株式会社 車種識別装置およびこれを備えた車種識別システムならびに車種識別方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Feature-Level Change Detection Using Deep Representation and Feature Change Analysis for Multispectral Imagery,IEEE Geoscience and Remote Sensing Letters,2016年11月30日,VOL. 13, NO. 11,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7559716
プラント内の直線を利用した拡張現実感用リローカリゼーション手法の開発,ヒューマンインタフェース学会研究報告集 Vol. 18,No. 3,2016年06月17日

Also Published As

Publication number Publication date
WO2019186530A1 (en) 2019-10-03
EP3776450A4 (en) 2022-01-05
EP3776450A1 (en) 2021-02-17
KR102503559B1 (ko) 2023-02-27
JP2021520006A (ja) 2021-08-12
US10643332B2 (en) 2020-05-05
US20190304099A1 (en) 2019-10-03
KR20210006336A (ko) 2021-01-18

Similar Documents

Publication Publication Date Title
JP7224603B2 (ja) 車両画像の比較方法とそのシステム
JP7130216B2 (ja) 車両画像の比較方法とそのシステム
CN110032949B (zh) 一种基于轻量化卷积神经网络的目标检测与定位方法
CN110222604B (zh) 基于共享卷积神经网络的目标识别方法和装置
CN109271908B (zh) 车损检测方法、装置及设备
CN111046856A (zh) 基于动静态特征提取并行位姿跟踪与地图创建的方法
CN110334622B (zh) 基于自适应特征金字塔的行人检索方法
Yang et al. Learning deep feature correspondence for unsupervised anomaly detection and segmentation
JP7337216B2 (ja) ニューラルネットワークをトレーニングする方法、ニューラルネットワークをトレーニングするシステム、及びニューラルネットワーク
CN115546113A (zh) 掌子面裂隙图像与前方三维结构参数预测方法及系统
Du et al. Dynamic pavement distress image stitching based on fine‐grained feature matching
Shahsavarani et al. Multi-modal image processing pipeline for NDE of structures and industrial assets
Zhang et al. Reading various types of pointer meters under extreme motion blur
Al-Shammri et al. A combined method for object detection under rain conditions using deep learning
Gao et al. A new method for repeated localization and matching of tunnel lining defects
Li et al. Semid: Blind image inpainting with semantic inconsistency detection
JP2023515476A (ja) 知覚システムのための訓練データ候補の自動特定
Kang et al. Image corner detection using Hough transform
US11430143B2 (en) System of depth estimation and method thereof
Wang et al. RiWNet: A moving object instance segmentation network being robust in adverse weather conditions
CN110427796B (zh) 获取动态纹理描述模型的方法及视频异常行为检索法
Olufowobi Towards a Low-cost Vision System for Real-time Pavement Condition Assessment
Dini et al. Detecting Anomalies in Textured Images Using Modified Transformer Masked Autoencoder
Hanel et al. Semantic road scene knowledge for robust self-calibration of environment-observing vehicle cameras
CN116721401A (zh) 一种自动驾驶实时定位动态噪点剔除方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220318

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230131

R150 Certificate of patent or registration of utility model

Ref document number: 7224603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150