JP2024506691A - 2d画像において視認可能な使用形跡を使用した3dモデルの注釈付け - Google Patents

2d画像において視認可能な使用形跡を使用した3dモデルの注釈付け Download PDF

Info

Publication number
JP2024506691A
JP2024506691A JP2023548937A JP2023548937A JP2024506691A JP 2024506691 A JP2024506691 A JP 2024506691A JP 2023548937 A JP2023548937 A JP 2023548937A JP 2023548937 A JP2023548937 A JP 2023548937A JP 2024506691 A JP2024506691 A JP 2024506691A
Authority
JP
Japan
Prior art keywords
view image
evidence
model
relatively narrow
usage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023548937A
Other languages
English (en)
Inventor
コスミン アタナソアエイ コンスタンティン
ミラン リュトゲットマン ダニエル
ザガニディス ディミトリ
ラフモン ジョン
デ グルットラ ミケーレ
Original Assignee
アイエヌエイアイティ エスエイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/190,646 external-priority patent/US11544914B2/en
Application filed by アイエヌエイアイティ エスエイ filed Critical アイエヌエイアイティ エスエイ
Publication of JP2024506691A publication Critical patent/JP2024506691A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

2D画像において視認可能な使用形跡を使用した3Dモデルの注釈付けするためのコンピュータ記憶媒体において符号化されたコンピュータプログラムを含む方法、システム、および装置。一態様において、方法はデータ処理装置により実施される。方法は、比較的広い視野の画像におけるインスタンスのポーズに基づいて、オブジェクトの3Dモデルに、オブジェクトのインスタンスの比較的広い視野の画像における使用形跡を投影することと、比較的広い視野の画像における使用形跡と比較的狭い視野の画像における同じ使用形跡との間のマッチング関係に基づいて、比較的狭い視野の画像におけるオブジェクトのインスタンスの相対ポーズを推定することとを含み得る。【選択図】図1

Description

関連出願の相互参照
本出願は、2021年2月18日に出願されたギリシャ出願第20210100106号、および、2021年3月3日に出願された米国特許出願第17/190,646号の優先権を主張し、それらの出願の内容が本明細書に参照により組み込まれる。
本明細書は、2D画像において視認可能な使用形跡を使用した3Dモデルの注釈付けに関する。
多くの人工オブジェクトが、3Dモデルの助けを受けてコンピュータにおいて仮想的に設計される。例は、自動車、航空機、建築物、消費者向け製品、およびそれらの構成コンポーネントを包含する。3Dモデルは概して、物体の構造上の特徴のサイズ、形状、および配向に関する詳細な情報を含む。幾つかの3Dモデルは、例えば組成物、材料特性、電気的特性などを含む他の特徴に関する情報を更に含む。設計のために使用されることに加えて、3Dモデルは、テストおよび他の目的にも使用され得る。
モデル化されているオブジェクトおよびモデルの使用にかかわらず、モデルは多くの場合、オブジェクトの現実世界のインスタンスの理想化された抽象的なものである。例えば、オブジェクトの現実世界のインスタンスは多くの場合、モデルにキャプチャされていない使用形跡を含む。使用形跡の例は、経時的に発生する通常の摩耗および損傷だけでなく個別の出来事により生じる損傷も含む。損傷の形跡は車両または構造物における変形、かき傷、およびへこみなどを包含する。いずれの場合においても、オブジェクトの現実世界のインスタンスの使用形跡が、オブジェクトの3Dモデル-または更には、同じオブジェクトの別の現実世界のインスタンスの使用形跡-に一致することはまれである。
本明細書は使用形跡を使用した3Dモデルの注釈付けに関連した技術を説明する。3Dモデルの注釈付けは構造化された情報をモデルに加える。この場合において、構造化された情報は使用形跡に関連する。幾つかの例では、使用形跡に関連した構造化された情報は、例えばオブジェクトの3Dモデル変形するために、または別様に変更するために使用され得、したがって、それがオブジェクトの特定のインスタンスに適合する。変更された3Dモデルは、種々のシミュレーションおよび評価工程において使用され得る。
使用形跡は、例えばスマートフォンまたは他の一般的なイメージングデバイスによりキャプチャされた実際の画像といった2D画像においてイメージングされる。概して、特定の最小要求-例えば、使用形跡の十分な分解能および使用形跡に対する適切な観点-が2D画像により満たされることを条件として、3Dモデルは2D画像から適切に注釈付けされ得る。更に、これらの最小要求は概してユーザーの日常生活におけるオブジェクト特徴を認識することに長けている人間のユーザーにとって直感的である。
概して、本明細書において説明されている主題の1つの革新的な態様が、データ処理装置により実施される方法により具現化され得る。方法は、比較的広い視野の画像におけるインスタンスのポーズに基づいて、オブジェクトの3Dモデルに、オブジェクトのインスタンスの比較的広い視野の画像における使用形跡を投影することと、比較的広い視野の画像における使用形跡と比較的狭い視野の画像における同じ使用形跡との間のマッチング関係に基づいて、比較的狭い視野の画像におけるオブジェクトのインスタンスの相対ポーズを推定することとを含み得る。
この実施態様および他の実施態様は、以下の特徴のうちの1つまたは複数を含み得る。本方法は、推定されたポーズと3Dモデルへの使用形跡の投影とを使用して、比較的狭い視野の画像における使用形跡の仮想的な位置を演算することと、仮想的な位置と比較的狭い視野の画像における使用形跡の実際の位置とを比較することと、3Dモデルに不適切に投影された使用形跡の部分集合を比較結果に基づいて特定することとを含み得る。3Dモデルは、3Dモデルに適切に投影された使用形跡の第2の部分集合を使用して変形され得る。
本方法は、比較的狭い視野の画像におけるオブジェクトのインスタンスの相対ポーズに基づいて、オブジェクトの3Dモデルに使用形跡のうちの不適切に投影されたものを投影することを含み得る。3Dモデルに使用形跡のうちの不適切に投影されたものを投影することは、使用形跡のうちの不適切に投影されたもののうちの第1のものを含む比較的狭い視野の画像の領域を特定することと、使用形跡のうちの不適切に投影されたもののうちの第1のものを、比較的広い視野の画像における使用形跡のうちの第1のものとマッチングさせることと、オブジェクトの3Dモデルに比較的広い視野の画像における使用形跡のうちの第1のものを投影することとを含み得る。
使用形跡の不適切に投影されたものの部分集合は、仮想的な位置と比較的狭い視野の画像における使用形跡の実際の位置との間の位置ずれに基づいて特定され得る。本方法は、マッチング関係の適切な部分集合を確立するために、マッチング関係から、3Dモデルに不適切に投影された使用形跡の部分集合をフィルタリングすることと、マッチング関係の部分集合に基づいて、比較的狭い視野の画像におけるオブジェクトのインスタンスの相対ポーズを再度推定することとを含み得る。
3Dモデルに比較的広い視野の画像における使用形跡を投影することは、比較的広い視野の画像のポーズを特定することを含み得る。本方法は、比較的狭い視野の画像におけるオブジェクトのインスタンスの支配的な色を特定することと、支配的な色からずれた、比較的広い視野の画像における、比較的狭い視野の画像における、または比較的広い視野の画像と比較的狭い視野の画像との両方における領域を特定することと、比較的広い視野の画像における使用形跡と比較的狭い視野の画像における使用形跡とをマッチングさせるために、特定された領域をマッチングさせることとを含み得る。
本方法は、比較的狭い視野の画像におけるオブジェクトのインスタンスにおける理想状態からのずれを特定することと、比較的広い視野の画像における使用形跡と比較的狭い視野の画像における使用形跡とをマッチングさせるために、比較的狭い視野の画像におけるずれを比較的広い視野の画像にマッチングさせることとを含み得る。本方法は、複数の比較的狭い視野の画像におけるオブジェクトのインスタンスの相対ポーズを推定することと、推定されたポーズを使用して比較的狭い視野の画像における同じ使用形跡の仮想的な位置を演算することとを含み得る。
別の実施態様では、本明細書において説明されている主題は、データ処理装置により実施される方法により具現化され得る。本方法は、オブジェクトのインスタンスの2つ以上の2D画像からの使用形跡を使用してオブジェクトの3Dモデルに注釈付けすることを含み得る。3Dモデルに注釈付けすることは、3Dモデルと2D画像とを受信することであって、2D画像のうちの第1のものはインスタンスの比較的広い視野の画像であり、2D画像のうちの第2のものはインスタンスの比較的狭い視野の画像である、受信することと、比較的広い視野の画像と比較的狭い視野の画像とにおいて視認可能な使用形跡をマッチングさせることと、オブジェクトの3Dモデルに比較的広い視野の画像における使用形跡を投影することと、3Dモデルへの使用形跡の投影、および、比較的広い視野の画像と比較的狭い視野の画像とにおけるマッチした使用形跡を使用して、比較的狭い視野の画像におけるインスタンスのポーズを推定することと、推定されたポーズと3Dモデルへの使用形跡の投影とを使用して、比較的狭い視野の画像における使用形跡の仮想的な位置を演算することと、使用形跡のうちの不適切に投影されたものを特定するために、仮想的な位置と比較的狭い視野の画像における使用形跡の実際の位置とを比較することと、オブジェクトの3Dモデルへの投影から使用形跡のうちの不適切に投影されたものを除去することとを含み得る。
この実施態様および他の実施態様は、以下の特徴のうちの1つまたは複数を含み得る。本方法は、比較的狭い視野の画像におけるオブジェクトのインスタンスの相対ポーズに基づいて、オブジェクトの3Dモデルに使用形跡のうちの不適切に投影されたものを投影することを含み得る。3Dモデルに使用形跡のうちの不適切に投影されたものを投影することは、使用形跡のうちの不適切に投影されたもののうちの第1のものを含む比較的狭い視野の画像の領域を特定することと、使用形跡のうちの不適切に投影されたもののうちの第1のものを、比較的広い視野の画像における使用形跡のうちの第1のものとマッチングさせることと、オブジェクトの3Dモデルに比較的広い視野の画像における使用形跡のうちの第1のものを投影することとを含み得る。
使用形跡の不適切に投影されたものの部分集合は、仮想的な位置と比較的狭い視野の画像における使用形跡の実際の位置との間の位置ずれに基づいて特定され得る。使用形跡をマッチングさせることは、比較的狭い視野の画像におけるオブジェクトのインスタンスの支配的な色を特定することと、支配的な色からずれた、比較的広い視野の画像における、比較的狭い視野の画像における、または比較的広い視野の画像と比較的狭い視野の画像との両方における領域を特定することとを含み得る。使用形跡をマッチングさせることは、比較的狭い視野の画像におけるオブジェクトのインスタンスにおける理想状態からのずれを特定することと、比較的狭い視野の画像におけるずれを比較的広い視野の画像にマッチングさせることとを含み得る。本方法は、オブジェクトの3Dモデルへの投影から使用形跡のうちの適切に投影されたものを使用して3Dモデルを変形させることを含み得る。
上述の方法の他の実施形態は、方法のアクションを実施するように構成された対応するシステムおよび装置、および、コンピュータプログラムを使用して符号化されたコンピュータ記憶媒体を含み、プログラムは、データ処理装置により実行されたとき、データ処理装置に方法のアクションを実施させる命令を含む。
本明細書において説明されている主題の1つまたは複数の実施形態の詳細事項は、添付図面および以下の説明に記載されている。主題の他の特徴、態様、および利点は説明、図面、および請求項から明らかとなる。
図1は、オブジェクトの異なる画像の集合体の獲得の概略図である。 図2は、1つまたは複数のカメラにより獲得された二次元画像の集合体の概略図である。 図3は、2D画像から使用形跡を使用して3Dモデルに注釈付けするためのコンピュータにより実施される処理のフローチャートである。 図4は、2D画像から使用形跡を使用して3Dモデルに注釈付けするためのコンピュータにより実施される処理の概略表現を含む。
様々な図面における同様の参照符号および名称は類似の要素を示す。
図1は、オブジェクト100の異なる画像の集合体の獲得の概略図である。例示を目的として、オブジェクト100が理想的なマーキングされていない幾何学的パーツ(例えば立方体、多面体、平行六面体など)の組立体として示されている。しかし、現実の用途では、オブジェクトは概して、より複雑な形状をもち、および、テクスチャをもち、または、例えば、基礎となる形状への装飾的デコレーション、摩耗マーク、または他のマーキングを使用して別様にマーキングされている。
(本例ではカメラ105、110、115、120、125として示される)1つまたは複数のイメージングデバイスの集合体が、オブジェクト100の周囲において異なる相対位置に連続的に、または同時に位置し得、および、オブジェクト100に対して異なる相対角度に配向され得る。位置は、オブジェクト100の周囲の三次元空間に分散され得る。配向も3次元で変化し得、すなわち、オイラー角(または、ヨー、ピッチ、およびロール)の全てが変化し得る。オブジェクト100に対するカメラ105、110、115、120、125の相対的配置および配向は相対ポーズと呼ばれ得る。カメラ105、110、115、120、125は異なる相対ポーズをとるので、カメラ105、110、115、120、125の各々がオブジェクト100の異なる画像を獲得する。
例えばオブジェクト100といった簡略化されたオブジェクトでさえ、多くの標識130、131、132、133、134、135、136、…を含む。標識は、オブジェクト100における関心のある位置である。標識は、オブジェクトにおける、または、基礎となる幾何学的形状上のマーキングにおける幾何学的位置に配置され得る。以下で詳細に説明されるように、標識は、オブジェクトのポーズを特定するために使用され得る。標識は、他の種類の画像処理のために、例えば、オブジェクトを分類するために、物体の特徴を抽出するために、オブジェクト(幾何学的構造物またはマーキング)における他の構造物の位置を特定するために、オブジェクトに対する損傷を評価するために、および/または、これらの画像処理技術および他の画像処理技術において測定が行われ得る原点として機能するためにも使用され得る。
図2は、例えばカメラ105、110、115、120、125(図1)といった1つまたは複数のカメラにより獲得された二次元画像の集合体200の概略図である。集合体200における画像は異なる相対ポーズにおけるオブジェクト100を示す。例えば標識130、131、132、133、134、135、136、…といった標識は、仮にそれらが現れるとした場合、異なる画像において異なる位置に現れる。例えば、集合体200のうちの最も左の画像では、標識133、134がオブジェクト100の残りの部分により覆い隠されている。対照的に、最も右の画像210では、標識131、135、137がオブジェクト100の残りの部分により覆い隠されている。
上述のように、3Dモデルは多くの場合、オブジェクトの現実世界のインスタンスの理想化された抽象的なものであり、例えば、それらの現実世界のインスタンスに存在する使用形跡を含まない。しかし、種々のコンテキストにおいて3Dモデルにそれらの使用形跡を含むことが有益である。例えば、オブジェクトの現実世界のインスタンスの機械的な挙動または他の挙動をシミュレーションするために3Dモデルが使用されるとき、使用形跡はシミュレーションの結果に影響を与え得る。別の例として、使用形跡を含む3Dモデルが、使用を減らす、または改善する改善アクションを推定するために使用され得る。例えば、事故による損傷を含む自動車の3Dモデルは、例えば自動車の安全性または修理コストを正確に評価するために使用され得る。更に異なる別の例として、使用形跡を含む3Dモデルは、オブジェクトのインスタンスの故障までの時間または故障メカニズムを推定するために使用され得る。これらのコンテキストおよび他のコンテキストでは、2D画像から使用形跡を使用して3Dモデルに注釈付けすることは、3Dモデルが使用形跡を含むこと、および、現実世界のインスタンスをより正確にモデル化することを可能にする比較的容易な手法を提供し得る。
図3は、2D画像から使用形跡を使用して3Dモデルに注釈付けするためのコンピュータにより実施される処理300のフローチャートである。工程300は、データ処理アクティビティを実施する1つまたは複数のデータ処理デバイスにより実施され得る。工程300のアクティビティは、機械可読命令集合のロジック、ハードウェア組立体、またはこれらの命令および/または他の命令の組み合わせに従って実施され得る。
305では、工程300を実施するデバイスが、i)物理的オブジェクトの3Dモデル、ii)比較的広い視野(FOV)によるオブジェクトのインスタンスの少なくとも1つの画像、および、iii)比較的狭いFOVによるオブジェクトの同じインスタンスの少なくとも1つの画像を受信する。3Dモデルは概して、概して任意の基準座標系から分離された三次元空間においてオブジェクトを表す。3Dモデルは、手動で、アルゴリズムにより(手続き型モデル化)、または実際のオブジェクトをスキャンすることにより生成され得る。例えば、3Dモデルは、コンピュータ支援設計(CAD)ソフトウェアを使用して生成され得る。3Dモデルにおける表面は、テクスチャマッピングを使用して規定され得る。
オブジェクトのインスタンスの比較的狭いFOVの各々はオブジェクトの3Dモデルに注釈付けされる関連する使用形跡を含む。概して、より狭いFOVの画像は十分に詳細にインスタンスを示すので、-より狭いFOVのポーズが特定された後-3Dモデルはより狭いFOVの画像における使用形跡を使用して効果的に注釈付けされ得る。したがって、比較的狭いFOVの画像は関連する使用形跡を「拡大」し得、より広い視野による画像では認識することが困難であり得る形跡に関する詳細を提供し得る。
インスタンスの比較的広いFOVの画像の各々が、インスタンスの関連する使用形跡と別の部分との両方を示す。幾つかの例において、より広いFOVの画像はインスタンスの全景であり、すなわち、インスタンス全体がより広いFOVの画像において視認可能である。概して、インスタンスの他の部分は少なくとも、より広いFOVの画像におけるインスタンスの相対ポーズが正確に特定されることを可能にする十分な特徴を含む。使用形跡に関して、より狭いFOVの画像内において視認可能な形跡のうちの少なくとも幾つかは、より広いFOVの画像でも視認可能であり、隠されない。比較的狭いFOVの画像と比較的広いFOVの画像との両方において同じ使用形跡が視認可能であるが、比較的広いFOVの画像における使用形跡の解像度は、より広いFOVの画像のみに基づいて3Dモデルに注釈付けすることができるほど十分に高い必要はない。実際、比較的広いFOVの画像は必然的にオブジェクトのより大きい部分を含むので、使用形跡は概して3Dモデルの効果的な注釈付けにとっては過度に低い解像度で示される。
より広いFOVの画像においてインスタンスの相対ポーズ-ひいては、より広いFOVにおける特徴と3Dモデルの特徴との対応-を特定することに関して、これは多くの手法により行われ得る。比較的広いFOVの画像において示されるオブジェクトの部分の範囲は、相対ポーズと位置との対応が特定されるアプローチに影響を与え得る。
例えば、幾つかの実施態様では、機械学習モデルが、より広いFOVの画像においてオブジェクトのインスタンスの輪郭を検出するために使用され得る。このような場合において、比較的詳細でない画像が所与のポーズに対するインスタンスの全景であることが概して好ましい。
別の例として、ポーズ推定機械学習モデルが、比較的広いFOVの画像におけるインスタンスのポーズを推定するために使用され得る。このような場合において、ポーズ推定が実行され得るように、比較的広いFOVの画像が十分な数および構成の標識を含む場合に、それが許容可能であり得る。オブジェクトのポーズは、より広いFOVの画像における、検出された標識、それらを隔てる距離、および、それらの相対位置に基づいて推定され得る。標識検出のための例示的な機械学習モデルは、https://github.com/facebookresearch/detectron2において入手可能なdetectron2である。標識検出に依存したポーズ推定部の例は、https://docs.opencv.org/master/d7/d53/tutorial_py_pose.htmlで説明されているOpenCVの機能のSolvePNPである。
更に異なる別の例として、幾つかの実施態様では、比較的広いFOVの画像におけるインスタンスのポーズは、「ANNOTATION OF TWO-DIMENSIONAL IMAGES」を発明の名称とし、2021年2月2日に出願されたギリシャ特許出願番号第20210100068号において説明されているように特定され得、同文献の内容が参照により本明細書に組み込まれる。
更に異なる別の例として、幾つかの実施態様では、比較的広いFOVの画像におけるインスタンスのポーズは、比較的広いFOVの画像とともに外部ソースから受信され得る。例えば、比較的広いFOVの画像は、比較的広いFOVの画像が獲得されたときのインスタンスに対するカメラの相対的配置および配向を指定するメタデータに関連付けられ得る。
310では、必要な場合、工程300を実施するデバイスが、比較的広いFOVの画像におけるオブジェクトのインスタンスのポーズを特定する。ポーズを特定するための例示的なアプローチは既に説明されている。更に上述のように、幾つかの例では、特定は不要であり得、ポーズは外部ソースから受信され得る。
315では、工程300を実施するデバイスが、比較的広いFOVの画像における使用形跡を比較的狭いFOVの画像における使用形跡にマッチングさせる。概して、2つの画像における使用形跡は、ピクセルごとにマッチングさせられ得る。例えば、特徴検出アルゴリズム(例えばスケール不変特徴変換)が、画像のうちのいずれかにおける関心のあるピクセルを特定し、ピクセルの周囲における画像の一部を抽出し、画像のうちの他方においてマッチするピクセルを探し得る。幾つかの実施態様では、画像位置合わせ技術も-単独で、または特徴検出アルゴリズムと組み合わされて-使用され得る。
概して、特徴を検出するための、または画像を位置合わせするための基準は、方法300が実施されるコンテキストに合わせて調整される。例えば、個別の出来事により生じる損傷を特定したとき、色ずれが強調され得るのに対し、摩耗および損傷を特定したとき、理想的な形状(例えば、一様に滑らかな表面または一様な歯をもつギア)からのずれが強調され得る。例示として、自動車に対するかき傷およびへこみが3Dモデルに注釈付けされると仮定する。比較的狭いFOVの画像の支配的な色は、自動車の色となるようにされ得る。ピクセルは、ピクセル色がこの支配的な色にどれほど近いかに従って、より広いFOVの画像、より狭いFOVの画像、またはその両方からフィルタリングされ得る。大きい色ずれを伴うピクセルは、特徴検出アルゴリズムまたは画像位置合わせ技術において関心のあるピクセルとして表され得る。
幾つかの実施態様では、比較的広いFOVの画像の内容はマッチング前に少なくされ得る。例えば、比較的広いFOVの画像におけるオブジェクトのインスタンスの形状が推定され得る。オブジェクトの境界の外部に存在するピクセルは、マッチング関係を含むことから除外され得る。例えば背景におけるオブジェクトを表すピクセルは除外されるので、演算負荷および正しくないマッチング関係の可能性が低減される。
図4は、2D画像から使用形跡を使用して3Dモデルに注釈付けするためのコンピュータにより実施される処理の概略図である。概略表現では、比較的狭いFOVの画像405における使用形跡が比較的広いFOVの画像410における使用形跡とマッチングさせられる。特に、両方の画像405、410が、異なる範囲を含み、多くの場合において異なるレベルの詳細さによるのではあるが、オブジェクトのインスタンス415を示す。画像410はインスタンス415の全景であるのに対し、画像405はインスタンス415における使用形跡のより狭いFOVの画像である。両方の画像405、410が使用形跡を含むが、画像405、410は同じ角度から撮影されている必要はない。例えば、示される例において、画像410を獲得したカメラは、画像415を獲得したカメラに比べてわずかにインスタンス415の右にある。
使用形跡および他の特徴、例えば角および縁部を含む画像405、410における様々な特徴がマッチングさせられている。マッチング関係は破線の集合体420として概略的に示されている。しかし、比較的狭いFOVの画像405はインスタンスの比較的狭い部分しか示さないので、使用形跡ではなくマッチングさせられるために利用可能な特徴の数は比較的少ない。実際、多くの実施態様において、使用形跡のみがマッチングさせられる。
図3に戻ると、320では、工程300を実施するデバイスが、より広いFOVの画像からの使用形跡をオブジェクトの3Dモデルに投影し、3Dモデルにおける使用形跡の3D座標を特定する。投影は-310において判定された、または、外部ソースから受信された-比較的広いFOVの画像におけるオブジェクトのインスタンスのポーズに依存する。投影は例えばより狭いFOVの画像における視野の外部にある特徴といった、より狭いFOVの画像において観測されない、より広いFOVの画像における特徴に依存し得る。更に、投影はこのような特徴に依存するので、より広いFOVの画像から3Dモデルへの投影は、比較的正確である。結果として、使用形跡の座標は、これらの他の特徴の位置を参照することにより3Dモデルにおいて正確に特定され得る。
図4は、3Dモデル425への、より広いFOVの画像410からの使用形跡の投影の概略表現を更に含む。投影は破線の集合体430として概略的に示されている。示されているように、投影は、画像405における視野の外部に存在する縁部および角を含む、比較的狭いFOVの画像405に存在しない比較的広いFOVの画像410における特徴に依存し得る。投影はオブジェクトのインスタンスの比較的大きい部分に依存するので、投影は比較的正確である。基準としてこれらの特徴の位置を使用して、使用形跡の座標も、3Dモデルにおいて正確に特定され得る。
図3に戻ると、325において、工程300を実施するデバイスは、3Dモデルにおける使用形跡の座標を使用して、より狭いFOVの画像におけるオブジェクトのインスタンスのポーズを推定する。特に、より狭いFOVの画像およびより広いFOVの画像における使用形跡の間のマッチング関係、および、より広いFOVの画像からモデルへの使用形跡の投影は、より狭いFOVの画像におけるオブジェクトのインスタンスのポーズが推定されることを可能にする。-より広いFOVの画像に比べて-より狭いFOVの画像は概して、使用形跡についてはより多くの詳細事項を含むが、他の特徴についてはより少ない詳細事項を含むので、より狭いFOVの画像におけるポーズを推定するために使用形跡を使用することは、その画像に存在する特徴を利用する。
330において、300を実施するデバイスは、より狭いFOVの画像の推定されたポーズおよび3Dモデルにおける使用形跡の座標を使用して、より狭いFOVの画像における使用形跡の仮想的な位置を計算する。この計算は、推定されたポーズ、および、グランドトゥルースとしての3Dモデルにおける使用形跡の座標を使用した、より狭いFOVの画像の仮想的な再生成と考えられ得る。多くの場合において、より狭いFOVの画像の全体が再生成されるわけではない。むしろ、実際には、計算は、推定されたポーズと3Dモデルにおける使用形跡の座標とが修正されるという仮定のもとで、より狭いFOVの画像における使用形跡がどこで観測されるかを特定する。
335において、使用形跡の仮想的な位置は、より狭いFOVの画像における使用形跡の実際の位置と比較される。仮想的な位置と実際の位置との間の不十分な対応を伴う個々の特徴が特定され得る。ポーズは多くの特徴に基づいて計算されるので、不十分な対応は、個々の使用形跡が3Dモデルに不適切に投影されることを示す。340において、このような特徴は、315において確立されたマッチング関係からフィルタリングされ得る。
例えば、不十分な対応を特定するための閾値は、例えば全ての特徴の、選択された特徴の、またはその両方の平均的な対応に基づいて確立され得る。例えば、幾つかの実施態様では、全ての特徴の平均的な対応が特定され得る。全ての特徴のこの平均的な対応から実質的にずれている特徴が特定されて、315において確立されたマッチング関係から除外され得る。
別の例として、特徴は、それらの独自性に従って分類され得る。次に、不十分な対応を特定するための閾値が、最も独特な特徴に基づいて確立され得る。例えば、幾つかの実施態様では、315において特徴を検出するために、または画像を位置合わせするために使用される基準は、他の特徴より独特な特徴を特定するために使用され得る。例は、色ずれが存在するエリアにおけるピクセル数、または、理想的な形状からのずれにより包含されるピクセル数を包含する。より独特な特徴の対応は、不十分な対応を伴う特徴を特定するための閾値を確立するために使用され得る。この閾値より大きい特徴が特定され、315において確立されたマッチング関係から除外され得る。
更に異なる別の例として、全ての特徴の平均的な対応は、特徴を通る「第1の経路」において特定され得る。全ての特徴のこの平均的な対応から実質的にずれている特徴は、仮想的な位置と実際の位置との対応の再計算から除外され得る。次に、特徴の部分集合のこの再計算された対応から実質的にずれている他の特徴が特定され、315において確立されたマッチング関係から除外され得る。
図4に戻ると、より狭いFOVの画像405におけるオブジェクトのインスタンスのポーズ435は、3Dモデル425における使用形跡の座標を使用して推定される。このポーズは、より狭いFOVの画像における使用形跡の仮想的な位置を計算するために使用され得る。例示を目的として、この計算は、より狭いFOVの画像の仮想的な再生成440として概略的に表されるが、より狭いFOVの画像における使用形跡の位置しか計算される必要がない。より狭いFOVの画像における使用形跡の実際の位置と使用形跡の計算された仮想的な位置との間の比較445が実施され、その間の対応が特定される。対応は位置ずれ、すなわち、詳細さにおいて劣る画像405における使用形跡の各特徴の実際の二次元位置と、より狭いFOVの画像405の相対ポーズおよび3Dモデル425への使用形跡の投影から計算された同じ特徴の仮想的な位置との間の差の集合体450として概略的に示されている。特定のための閾値455および不十分なマッチング関係のフィルタリングが更に概略的に示されている。示されているように、少なくとも幾つかの位置ずれ460が閾値455の外部にある。位置ずれ460に対応したより狭いFOVの画像405およびより広いFOVの画像410における使用形跡の特徴の位置の間のマッチング関係が特定され、集合体420から除外され得る。
図3に戻ると、全ての不適切なマッチング関係が315において確立されたマッチング関係から除外された後、残りのマッチング関係が、様々な異なる手法により使用され得る。
例えば、幾つかの例では、340ではマッチング関係はほとんど除外されず、および/または、十分な数のマッチング関係が十分に高い対応をもつ。高い対応をもつマッチング関係の3Dモデルへの投影は、例えば、使用を減らす、または改善する改善アクションを推定すること、インスタンスの安全性を正確に評価する、または、インスタンスの故障までの時間を推定することを含む種々の下流の目的のために使用され得る。このような場合において、工程300の示される部分は効果的に終了するが、更なる下流のアクションが想定される。
多くの例において、比較的多数のマッチング関係が除外され、および/または、不十分な数のマッチング関係が、想定される下流の目的のために十分に高い対応をもつ。このような場合において、ほとんどのマッチング関係が除外されなくなり、および/または、十分な数のマッチング関係が十分に高い対応をもつまで、工程300の一部が繰り返し反復され得る。
例えば、幾つかの実施態様では、マッチング関係が除外された元となるより狭いFOVの画像における領域におけるマッチング関係を探すために、工程300の全てのまたは一部が繰り返され得る。これらの領域は、工程300の次の繰り返しにおいて、オブジェクトのインスタンスの更に狭いFOVの画像として取り扱われ得る。いずれか以前の繰り返しからのより広いFOVの画像(例えば図4における画像410)、または、同じより狭いFOVの画像(例えば図4における画像405)が、この次の繰り返しにおいて、より広いFOVの画像として使用され得る。実際には、工程300は複数回実施され得、より狭いFOVの画像の各々は、次第に視野を小さくし、以前の繰り返しにより提供されるポーズ推定結果に依存する。段々小さい視野が使用されるにつれて、3Dモデルへの使用形跡の割り当てが次第により正確になる。幾つかの例では、例えばマッチング関係のパーセンテージまたは数が増えない、または閾量未満しか増加しないとき、工程300のパフォーマンスが停止され得る。
別の例として、325において推定されたポーズは、より広いFOVの画像およびより狭いFOVの画像における使用形跡をより正確にマッチングさせるために使用され得る。例えば、325において推定されたポーズは、工程300の次の繰り返しにおいて、315において非現実的な、または不適切なマッチング関係を特定するために、および破棄するために使用され得る。結果として、この次の繰り返しにおけるマッチング関係の正確さが高まり、同様に、320における3Dモデルへの使用形跡の投影の正確さ、および325におけるポーズ推定の正確さが高まる。幾つかの実施態様では、仮想的な位置と実際の位置との間の不十分な対応を特定するための閾値がより厳格なものにされ得、工程300が繰り返される。幾つかの例では、例えば、不十分な対応を特定するための閾値がより厳格にならない、または、閾量ぶんしかより厳格にならないとき、工程300のパフォーマンスが停止され得る。
更に異なる別の例として、工程300は、
- 315において非現実的な、または不適切なマッチング関係を特定すること、および破棄することにより、325におけるポーズ推定の正確さを高めることと、
- 連続した、すなわち各々がより小さい視野をもつ比較的狭いFOVの画像を使用して工程を実施することにより、マッチング関係のパーセンテージまたは数を増やすことと、
の両方のために繰り返され得る。
例えば、325におけるポーズ推定の正確さは繰り返し高められ得る。次に、より高い正確さのポーズ推定が、同じポーズだがより小さい視野を各々が含む連続した画像におけるマッチング関係を特定するために使用され得る。
幾つかの例では、例えば、それがオブジェクトの特定のインスタンスに適合するように、オブジェクトの3Dモデルを変形するために、または別様に変更するために、使用形跡に関連した構造化された情報が使用され得る。変更された3Dモデルは、種々のシミュレーションおよび評価工程において使用され得る。
3Dモデルを変更するために、より狭いFOVの画像における二次元位置に対応した三次元位置を特定するために様々な異なるアプローチが使用され得る。
例えば、幾つかの実施態様では、工程300は、多様なポーズを伴う複数の画像を使用して複数回実施され得る。例えば、工程300の各パフォーマンスは、同じまたは異なるより広いFOVの画像とともに異なるより狭いFOVの画像を使用し得る。より狭いFOVの画像は、異なるポーズから取得されたが、それらのそれぞれの視野における同じ使用形跡を含み得る。工程300の異なるパフォーマンスにおいて特定された使用形跡の位置の比較は、それらの位置において本来的に伴う視差エラーを特定するために使用され得る。画像の異なるポーズが十分に多様である場合、使用形跡の三次元構造物が特定され、3Dモデルを変形するために、または別様に変更するために使用され得る。
別の例として、三次元深さデータが、オブジェクトのモデルインスタンスから獲得され、使用形跡に付随する三次元構造物を推定するために機械学習モデルを訓練するために画像情報とともに使用され得る。三次元深さデータは、例えば機械的計測プローブ、レーザースキャナ、LIDARセンサーなどを包含する様々な異なる座標測定機械のうちの任意のものを使用して獲得され得る。概して、機械学習モデルは、多様なポーズから複数の画像を使用して訓練され、三次元深さデータを推定するために工程300の複数のパフォーマンスから特定された位置を使用し得る。
別の例として、幾つかの実施態様では、使用形跡は、十分に制約された工程から発生し得る。例は、例えば、ギアの反復的な摩耗、または、シャフトの反復的な荷重を包含する。工程の制約は、工程300において特定された位置に対応した三次元構造物を特定するために使用され得る。
主題の実施形態および本明細書において説明されている動作は、本明細書において開示されている構造物、およびそれらと構造的に同等なものを含むデジタル電子回路において、または、コンピュータソフトウェア、ファームウェア、またはハードウェアにおいて、または、それらのうちの1つまたは複数の組み合わせにより実現され得る。本明細書において説明されている主題の実施形態は、データ処理装置による実行のために、またはデータ処理装置の動作を制御するためにコンピュータ記憶媒体において符号化された、1つまたは複数のコンピュータプログラム、すなわちコンピュータプログラム命令の1つまたは複数のモジュールとして実現され得る。代替的に、または追加的に、プログラム命令は、データ処理装置による実行のための適切な受信器装置への送信のために情報を符号化するために生成された、例えば機械により生成された電気信号、光学信号、または電磁信号といった、人工的に生成された伝播させられる信号上で符号化され得る。コンピュータ記憶媒体は、コンピュータ可読ストレージデバイス、コンピュータ可読ストレージ基材、ランダムまたはシリアルアクセスメモリアレイまたはデバイス、またはそれらのうちの1つまたは複数の組み合わせであり、または、これらに含まれ得る。更に、コンピュータ記憶媒体は伝播させられる信号ではないが、コンピュータ記憶媒体は、人工的に生成された伝播させられる信号において符号化されたコンピュータプログラム命令の源または宛先であり得る。コンピュータ記憶媒体は更に、1つまたは複数の独立した物理的コンポーネントまたは媒体(例えば複数のCD、ディスク、または他のストレージデバイス)であり、または、これらに含まれ得る。
本明細書において説明されている動作は、1つまたは複数のコンピュータ可読ストレージデバイスに記憶された、または他のソースから受信されたデータに対してデータ処理装置により実施される動作として実現され得る。
「データ処理装置」という用語は例えばプログラム可能プロセッサ、コンピュータ、システム・オン・ア・チップ、または、これらのうちの複数のものまたは組み合わせを包含するデータを処理するための全ての種類の装置、デバイス、および機械を包含する。装置は、特定目的用論理回路、例えばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)を包含し得る。装置は、ハードウェアに加えて、問題となっているコンピュータプログラムのための実行環境を生成するコード、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、クロスプラットフォーム実行環境、仮想マシン、またはそれらのうちの1つまたは複数の組み合わせを構成するコードを更に含み得る。装置および実行環境は、様々な異なるコンピューティングモデルインフラストラクチャー、例えば、ウェブサービス、分散型コンピューティングおよびグリッドコンピューティングインフラストラクチャーを実現し得る。
(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、またはコードとしても知られる)コンピュータプログラムは、コンパイルされたまたはインタープリター処理された言語、宣言型または手続き型言語を包含する任意の形態のプログラミング言語により記述され得、それは、スタンドアロンプログラムとして、または、モジュールとして、コンポーネント、サブルーチン、オブジェクト、またはコンピューティング環境における使用に適した他のユニットとして、を包含する任意の形態により配備され得る。コンピュータプログラムは、ファイルシステムにおけるファイルに対応し得るが、必須ではない。プログラムは、他のプログラムまたはデータ(例えばマークアップ言語ドキュメントに記憶された1つまたは複数のスクリプト)を保持したファイルの一部に、問題となっているプログラムに割り当てられた1つのファイルに、または、複数の協調したファイル(例えば、1つまたは複数のモジュール、サブプログラム、またはコードの一部を記憶したファイル)に記憶され得る。コンピュータプログラムは、1つの場所に位置する、または複数の場所にわたって分散された、および通信ネットワークにより相互接続された、1つのコンピュータにおいて、または複数のコンピュータにおいて実行されるように展開され得る。
本明細書において説明されている工程およびロジックフローは、入力データを処理すること、および出力を生成することにより動作を実施するための1つまたは複数のコンピュータプログラムを実行する1つまたは複数のプログラム可能プロセッサにより実施され得る。工程およびロジックフローは、例えばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)といった特定目的用論理回路により更に実施され得、および、装置は、例えばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)といった特定目的用論理回路として更に実現され得る。
コンピュータプログラムの実行に適したプロセッサは、例示として、汎用マイクロプロセッサと特定目的用マイクロプロセッサとの両方、および任意の種類のデジタルコンピュータのうちの任意の1つまたは複数のプロセッサを包含する。概して、プロセッサは、読み出し専用メモリもしくはランダムアクセスメモリ、またはその両方から命令およびデータを受信する。コンピュータの本質的な要素は、命令に従って動作を実施するためのプロセッサ、および、命令およびデータを記憶するための1つまたは複数のメモリデバイスである。概して、コンピュータは、例えば磁気ディスク、光磁気ディスク、または光ディスクといったデータを記憶するための1つまたは複数の大容量ストレージデバイスを更に含み、または、1つまたは複数の大容量ストレージデバイスからデータを受信するように、または、1つまたは複数の大容量ストレージデバイスにデータを伝達するように、またはその両方をするように動作可能に結合される。しかし、コンピュータはこのようなデバイスをもつ必要はない。更に、コンピュータは、例えば、幾つか例示すると、携帯電話、携帯情報端末(PDA)、モバイルオーディオまたはビデオプレーヤー、ゲームコンソール、全地球測位システム(GPS)受信器、またはポータブルストレージデバイス(例えばユニバーサルシリアルバス(USB)フラッシュドライブ)といった別のデバイスに組み込まれ得る。コンピュータプログラム命令およびデータを記憶することに適したデバイスは、例示として、例えばEPROM、EEPROM、およびフラッシュメモリデバイスといった半導体メモリデバイス、例えば内蔵ハードディスクまたは取り外し可能なディスクといった磁気ディスク、光磁気ディスク、およびCD-ROM、およびDVD-ROMディスクを包含する、全ての形態の不揮発性メモリ、媒体、およびメモリデバイスを包含する。プロセッサおよびメモリは、特定目的用論理回路により補完され、または、特定目的用論理回路に組み込まれ得る。
ユーザーとの対話を提供するために、本明細書において説明されている主題の実施形態は、ユーザーに情報を表示するための例えばCRT(ブラウン管)またはLCD(液晶ディスプレイ)モニターといったディスプレイデバイス、およびキーボード、および、ユーザーがコンピュータに入力を提供し得る例えばマウスまたはトラックボールといったポインティングデバイスを含むコンピュータにおいて実現され得る。他の種類のデバイスは、同様にユーザーとの対話を提供するために使用され得、例えば、ユーザーに提供されるフィードバックは、例えば視覚フィードバック、聴覚フィードバック、または触覚フィードバックといった任意の形態の感覚フィードバックであり得、ユーザーからの入力は、音響、発話、または触覚入力を包含する任意の形態により受信され得る。加えて、コンピュータは、ユーザーにより使用されるデバイスにドキュメントを送信すること、および、ユーザーにより使用されるデバイスからドキュメントを受信することにより、例えば、ウェブブラウザから受信された要求に応答して、ユーザーのクライアントデバイスにおけるウェブブラウザにウェブページを送信することにより、ユーザーと対話し得る。
本明細書は多くの特定の実施態様の詳細事項を含むが、これらは、任意の発明の範囲または請求項に記載され得るものに対する限定と解釈されてはならず、むしろ、特定の発明の特定の実施形態に特有な特徴の説明と解釈される。別々の実施形態の文脈において本明細書において説明されている特定の特徴は、更に1つの実施形態において組み合わされて実現され得る。逆に、1つの実施形態の文脈において説明される様々な特徴が、更に複数の実施形態において別々に、または任意の適切な部分的組み合わせにおいて実現され得る。更に、しかし特徴が特定の組み合わせで動作するものとしてここまでに説明されている場合があり、更に最初にそのように請求項に記載されてもいるが、請求項に記載された組み合わせからの1つまたは複数の特徴が、幾つかの例では組み合わせから除外され得、請求項に記載された組み合わせが、部分的組み合わせまたは部分的組み合わせの変形例に関するものであってもよい。
同様に、動作は図面において特定の順序で描かれているが、これは、このような動作が示されている特定の順序により、または順次的な順序により実施されること、または、望ましい結果を得るために全ての示されている動作が実施されることを必要とすると理解されてはならない。特定の状況において、マルチタスク処理および並列処理が有益であり得る。更に、上述の実施形態における様々なシステムコンポーネントの分離は、全ての実施形態においてこのような分離を必要とすると理解されてはならず、説明されているプログラムコンポーネントおよびシステムが概して、1つのソフトウェアプロダクトに一緒に統合され、または複数のソフトウェアプロダクトにパッケージ化され得ることが理解されなければならない。
したがって、主題の特定の実施形態が説明されている。他の実施形態は後述の請求項の範囲内にある。幾つかの例では、特許請求の範囲に記載されているアクションは、異なる順序で実施されてもよく、依然として望ましい結果をもたらす。加えて、添付図面に描かれている工程は、望ましい結果を得るために示されている特定の順序または順番を必要とするとは限らない。特定の実施態様において、マルチタスク処理および並列処理が有益であり得る。

Claims (19)

  1. データ処理装置により実施される方法であって、前記方法が、
    比較的広い視野の画像におけるオブジェクトのインスタンスのポーズに基づいて、前記オブジェクトの3Dモデルに、前記オブジェクトの前記インスタンスの前記比較的広い視野の画像における使用形跡を投影することと、
    前記比較的広い視野の画像における前記使用形跡と比較的狭い視野の画像における同じ使用形跡との間のマッチング関係に基づいて、前記比較的狭い視野の画像における前記オブジェクトの前記インスタンスの相対ポーズを推定することと、
    を含む、方法。
  2. 推定された前記ポーズと前記3Dモデルへの前記使用形跡の投影とを使用して、前記比較的狭い視野の画像における使用形跡の仮想的な位置を演算することと、
    前記仮想的な位置と前記比較的狭い視野の画像における前記使用形跡の実際の位置とを比較することと、
    前記3Dモデルに不適切に投影された前記使用形跡の部分集合を比較結果に基づいて特定することと、
    を更に含む、請求項1に記載の方法。
  3. 前記3Dモデルに適切に投影された前記使用形跡の第2の部分集合を使用して、前記3Dモデルを変形させる、
    を更に含む、請求項2に記載の方法。
  4. 前記比較的狭い視野の画像における前記オブジェクトの前記インスタンスの前記相対ポーズに基づいて、前記オブジェクトの前記3Dモデルに前記使用形跡のうちの不適切に投影されたものを投影することを更に含む、
    請求項2に記載の方法。
  5. 前記3Dモデルに前記使用形跡のうちの前記不適切に投影されたものを投影することが、
    前記使用形跡のうちの前記不適切に投影されたもののうちの第1のものを含む前記比較的狭い視野の画像の領域を特定することと、
    前記使用形跡のうちの前記不適切に投影されたもののうちの前記第1のものを、前記比較的広い視野の画像における前記使用形跡のうちの第1のものとマッチングさせることと、
    前記オブジェクトの前記3Dモデルに前記比較的広い視野の画像における前記使用形跡のうちの前記第1のものを投影することと、
    を含む、
    請求項4に記載の方法。
  6. 前記使用形跡の不適切に投影されたものの前記部分集合が、前記仮想的な位置と前記比較的狭い視野の画像における前記使用形跡の前記実際の位置との間の位置ずれに基づいて特定される、
    請求項2に記載の方法。
  7. 前記方法が、
    前記マッチング関係の適切な部分集合を確立するために、前記マッチング関係から、前記3Dモデルに不適切に投影された前記使用形跡の前記部分集合をフィルタリングすることと、
    前記マッチング関係の部分集合に基づいて、前記比較的狭い視野の画像における前記オブジェクトの前記インスタンスの前記相対ポーズを再度推定することと、
    を含む、請求項2に記載の方法。
  8. 前記3Dモデルに前記比較的広い視野の画像における前記使用形跡を投影することが、前記比較的広い視野の画像のポーズを特定することを含む、
    請求項1に記載の方法。
  9. 前記比較的狭い視野の画像における前記オブジェクトの前記インスタンスの支配的な色を特定することと、
    前記支配的な色からずれた、前記比較的広い視野の画像における、前記比較的狭い視野の画像における、または前記比較的広い視野の画像と前記比較的狭い視野の画像との両方における領域を特定することと、
    前記比較的広い視野の画像における前記使用形跡と前記比較的狭い視野の画像における前記使用形跡とをマッチングさせるために、特定された前記領域をマッチングさせることと、
    を更に含む、請求項1に記載の方法。
  10. 前記比較的狭い視野の画像における前記オブジェクトの前記インスタンスにおける理想状態からのずれを特定することと、
    前記比較的広い視野の画像における前記使用形跡と前記比較的狭い視野の画像における前記使用形跡とをマッチングさせるために、前記比較的狭い視野の画像における前記ずれを前記比較的広い視野の画像にマッチングさせることと、
    を更に含む、請求項1に記載の方法。
  11. 複数の比較的狭い視野の画像における前記オブジェクトの前記インスタンスの相対ポーズを推定することと、
    推定された前記ポーズを使用して前記比較的狭い視野の画像における同じ使用形跡の仮想的な位置を演算することと、
    を含む、請求項1に記載の方法。
  12. データ処理装置により実施される方法であって、前記方法が、
    オブジェクトのインスタンスの2つ以上の2D画像からの使用形跡を使用して、前記オブジェクトの3Dモデルに注釈付けすることを含み、
    前記3Dモデルに注釈付けすることが、
    前記3Dモデルと前記2D画像とを受信することであって、前記2D画像のうちの第1のものが前記インスタンスの比較的広い視野の画像であり、前記2D画像のうちの第2のものが前記インスタンスの比較的狭い視野の画像である、受信することと、
    前記比較的広い視野の画像と前記比較的狭い視野の画像とにおいて視認可能な使用形跡をマッチングさせることと、
    前記オブジェクトの前記3Dモデルに前記比較的広い視野の画像における前記使用形跡を投影することと、
    前記3Dモデルへの前記使用形跡の投影、および、前記比較的広い視野の画像と前記比較的狭い視野の画像とにおけるマッチした前記使用形跡を使用して、前記比較的狭い視野の画像における前記インスタンスのポーズを推定することと、
    推定された前記ポーズと前記3Dモデルへの前記使用形跡の投影とを使用して、前記比較的狭い視野の画像における使用形跡の仮想的な位置を演算することと、
    前記使用形跡のうちの不適切に投影されたものを特定するために、前記仮想的な位置と前記比較的狭い視野の画像における前記使用形跡の実際の位置とを比較することと、
    前記オブジェクトの前記3Dモデルへの投影から前記使用形跡のうちの前記不適切に投影されたものを除去することと、
    を含む、方法。
  13. 比較的狭い視野の画像における前記オブジェクトの前記インスタンスの相対ポーズに基づいて、前記オブジェクトの前記3Dモデルに前記使用形跡のうちの前記不適切に投影されたものを投影することを更に含む、
    請求項12に記載の方法。
  14. 前記3Dモデルに前記使用形跡のうちの前記不適切に投影されたものを投影することが、
    前記使用形跡のうちの前記不適切に投影されたもののうちの第1のものを含む前記比較的狭い視野の画像の領域を特定することと、
    前記使用形跡のうちの前記不適切に投影されたもののうちの前記第1のものを、前記比較的広い視野の画像における前記使用形跡のうちの第1のものとマッチングさせることと、
    前記オブジェクトの前記3Dモデルに前記比較的広い視野の画像における前記使用形跡のうちの前記第1のものを投影することと、
    を含む、
    請求項13に記載の方法。
  15. 前記使用形跡の前記不適切に投影されたものの部分集合が、前記仮想的な位置と前記比較的狭い視野の画像における前記使用形跡の前記実際の位置との間の位置ずれに基づいて特定される、
    請求項12に記載の方法。
  16. 前記使用形跡をマッチングさせることが、
    前記比較的狭い視野の画像における前記オブジェクトの前記インスタンスの支配的な色を特定することと、
    前記支配的な色からずれた、前記比較的広い視野の画像における、前記比較的狭い視野の画像における、または前記比較的広い視野の画像と前記比較的狭い視野の画像との両方における領域を特定することと、
    を含む、
    請求項12に記載の方法。
  17. 前記使用形跡をマッチングさせることが、
    前記比較的狭い視野の画像における前記オブジェクトの前記インスタンスにおける理想状態からのずれを特定することと、
    前記比較的狭い視野の画像における前記ずれを前記比較的広い視野の画像にマッチングさせることと、
    を含む、
    請求項12に記載の方法。
  18. 前記オブジェクトの前記3Dモデルへの投影から前記使用形跡のうちの適切に投影されたものを使用して、前記3Dモデルを変形させることを更に含む、
    請求項12に記載の方法。
  19. 少なくとも1つのプロセッサにより実行されたときに、オブジェクトのインスタンスの2つ以上の2D画像からの使用形跡を使用して前記オブジェクトの3Dモデルに注釈付けするための動作を前記少なくとも1つのプロセッサに実施させる実行可能命令を使用して符号化された少なくとも1つのコンピュータ可読記憶媒体であって、前記3Dモデルに注釈付けすることが、
    前記3Dモデルと前記2D画像とを受信することであって、前記2D画像のうちの第1のものが前記インスタンスの比較的広い視野の画像であり、前記2D画像のうちの第2のものが前記インスタンスの比較的狭い視野の画像である、受信することと、
    前記比較的広い視野の画像と前記比較的狭い視野の画像とにおいて視認可能な使用形跡をマッチングさせることと、
    前記オブジェクトの前記3Dモデルに前記比較的広い視野の画像における前記使用形跡を投影することと、
    前記3Dモデルへの前記使用形跡の投影、および、前記比較的広い視野の画像と前記比較的狭い視野の画像とにおけるマッチした前記使用形跡を使用して、前記比較的狭い視野の画像における前記インスタンスのポーズを推定することと、
    推定された前記ポーズと前記3Dモデルへの前記使用形跡の投影とを使用して、前記比較的狭い視野の画像における使用形跡の仮想的な位置を演算することと、
    前記使用形跡のうちの不適切に投影されたものを特定するために、前記仮想的な位置と前記比較的狭い視野の画像における前記使用形跡の実際の位置とを比較することと、
    前記オブジェクトの前記3Dモデルへの投影から前記使用形跡のうちの前記不適切に投影されたものを除去することと、
    を含む、
    コンピュータ可読記憶媒体。
JP2023548937A 2021-02-18 2022-01-26 2d画像において視認可能な使用形跡を使用した3dモデルの注釈付け Pending JP2024506691A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GR20210100106 2021-02-18
GR20210100106 2021-02-18
US17/190,646 US11544914B2 (en) 2021-02-18 2021-03-03 Annotation of 3D models with signs of use visible in 2D images
US17/190,646 2021-03-03
PCT/EP2022/051811 WO2022175044A1 (en) 2021-02-18 2022-01-26 Annotation of 3d models with signs of use visible in 2d images

Publications (1)

Publication Number Publication Date
JP2024506691A true JP2024506691A (ja) 2024-02-14

Family

ID=80683143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023548937A Pending JP2024506691A (ja) 2021-02-18 2022-01-26 2d画像において視認可能な使用形跡を使用した3dモデルの注釈付け

Country Status (4)

Country Link
US (1) US11983836B2 (ja)
EP (1) EP4295310A1 (ja)
JP (1) JP2024506691A (ja)
WO (1) WO2022175044A1 (ja)

Family Cites Families (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5321784U (ja) 1976-07-30 1978-02-23
JP3243065B2 (ja) 1993-06-30 2002-01-07 株式会社東芝 構造部品の劣化・損傷予測装置
US7426437B2 (en) 1997-10-22 2008-09-16 Intelligent Technologies International, Inc. Accident avoidance systems and methods
JPH0981739A (ja) 1995-09-12 1997-03-28 Toshiba Corp 損害額算出システム及び損傷位置検出装置
US6246954B1 (en) 1999-01-28 2001-06-12 International Business Machines Corporation Time multiplexed global positioning system for control of traffic lights
CA2381585C (en) 1999-06-14 2008-08-05 Escort Inc. Radar warning receiver with position and velocity sensitive functions
US8525723B2 (en) 1999-06-14 2013-09-03 Escort Inc. Radar detector with navigation function
JP2001344463A (ja) 2000-05-30 2001-12-14 System Location Co Ltd 車両再販価格分析システム
US20020007289A1 (en) 2000-07-11 2002-01-17 Malin Mark Elliott Method and apparatus for processing automobile repair data and statistics
US6636792B2 (en) 2000-09-29 2003-10-21 Siemens Vdo Automotive Corporation Weight classification system
JP2002183338A (ja) 2000-12-14 2002-06-28 Hitachi Ltd 損害評価方法および情報処理装置ならびに記憶媒体
US8280345B2 (en) 2000-12-22 2012-10-02 Google Inc. LPRF device wake up using wireless tag
US20110068954A1 (en) 2006-06-20 2011-03-24 Zonar Systems, Inc. Method and apparatus to collect object identification data during operation of a vehicle and analysis of such data
JP2003132170A (ja) 2001-10-29 2003-05-09 Tsubasa System Co Ltd コンピュータを用いた車輌の修理見積システム
JP2003170817A (ja) 2001-12-05 2003-06-17 Tsubasa System Co Ltd 車輌修理見積方法
JP2003196511A (ja) 2001-12-25 2003-07-11 System Kobo M:Kk 車両修理簡易見積りシステム、車両修理簡易見積りサーバおよびプログラム
JP2003226230A (ja) 2002-02-05 2003-08-12 Mazda Motor Corp 製品の修理支援装置、その方法、及び製品の修理支援用プログラムを記録した記録媒体
JP2003346021A (ja) 2002-05-28 2003-12-05 Tsubasa System Co Ltd 車両部品販売支援方法
US8068036B2 (en) 2002-07-22 2011-11-29 Ohanes Ghazarian Intersection vehicle collision avoidance system
US6826301B2 (en) 2002-10-07 2004-11-30 Infocus Corporation Data transmission system and method
US20040113783A1 (en) 2002-12-11 2004-06-17 Millennium Information Systems, Llc Container integrity management system
US20040183673A1 (en) 2003-01-31 2004-09-23 Nageli Hans Peter Portable detachable self-contained tracking unit for two-way satellite communication with a central server
US6969809B2 (en) 2003-09-22 2005-11-29 Cts Corporation Vehicle seat weight sensor
JP2005107722A (ja) 2003-09-29 2005-04-21 Kureo:Kk 見積支援プログラム、合見積支援プログラム、見積支援方法、合見積支援方法、見積支援装置および合見積支援装置
US20050108065A1 (en) 2003-11-18 2005-05-19 Dorfstatter Walter A. Method and system of estimating vehicle damage
IT1337796B1 (it) 2004-05-11 2007-02-20 Fausto Siri Procedimento per il riconoscimento, l'analisi e la valutazione delle deformazioni in particolare in automezzi
US7889931B2 (en) 2004-10-22 2011-02-15 Gb Investments, Inc. Systems and methods for automated vehicle image acquisition, analysis, and reporting
US20060103568A1 (en) 2004-11-18 2006-05-18 Powell Steven W Systems and methods for wirelessly determining vehicle identification, registration, compliance status and location
JP2006164022A (ja) 2004-12-09 2006-06-22 Mitsubishi Electric Corp 維持管理計画システム
CN1658559A (zh) 2005-02-22 2005-08-24 刘波 基于因特网的远程实时监控车辆定损系统及其监控方法
US20060267799A1 (en) 2005-05-09 2006-11-30 Ehud Mendelson Parking detector - a system and method for detecting and navigating to empty parking spaces utilizing a cellular phone application
US7423534B2 (en) 2006-01-13 2008-09-09 Ford Motor Company Electronic method and system for monitoring containers and products
US7701363B1 (en) 2007-01-17 2010-04-20 Milan Zlojutro Vehicle tracking and monitoring system
US20080255887A1 (en) 2007-04-10 2008-10-16 Autoonline Gmbh Informationssysteme Method and system for processing an insurance claim for a damaged vehicle
US20080281658A1 (en) 2007-04-23 2008-11-13 Steven Siessman Systems and methods for creating and reviewing vehicle damage repair estimates, and notifying entities of issues relating to manufacturer's warranty or repair content
WO2008134460A1 (en) 2007-04-25 2008-11-06 Rio Sisa Idea Farm Mobile navigation system with graphic crime-risk display
JP5321784B2 (ja) 2008-03-05 2013-10-23 富士ゼロックス株式会社 故障診断装置およびプログラム
US8103449B2 (en) 2008-10-24 2012-01-24 GM Global Technology Operations LLC Configurable vehicular time to stop warning system
US8587649B2 (en) 2009-04-21 2013-11-19 Create Electronic Optical Co., Ltd. Lane departure warning system
US9536426B2 (en) 2009-04-23 2017-01-03 Omnitracs, Llc Systems and methods for determining a speed limit violation
JP5057183B2 (ja) 2010-03-31 2012-10-24 アイシン・エィ・ダブリュ株式会社 風景マッチング用参照データ生成システム及び位置測位システム
US9489782B2 (en) 2010-07-28 2016-11-08 Hand Held Products, Inc. Collect vehicle performance with a PDT
US8063797B1 (en) 2010-07-31 2011-11-22 ParkMe LLC Parking information collection system and method
US20120029759A1 (en) 2010-08-02 2012-02-02 Suh Peter Jung-Min Method of providing vehicle maintenance information and service
CN102376071B (zh) 2010-08-20 2015-03-25 深圳市安致兰德科技有限公司 保险定损移动查勘系统
WO2013093932A2 (en) 2011-09-29 2013-06-27 Tata Consultancy Services Limited Damage assessment of an object
US9153084B2 (en) 2012-03-14 2015-10-06 Flextronics Ap, Llc Destination and travel information application
US8712893B1 (en) 2012-08-16 2014-04-29 Allstate Insurance Company Enhanced claims damage estimation using aggregate display
US10580075B1 (en) 2012-08-16 2020-03-03 Allstate Insurance Company Application facilitated claims damage estimation
US9002719B2 (en) 2012-10-08 2015-04-07 State Farm Mutual Automobile Insurance Company Device and method for building claim assessment
CN103310223A (zh) 2013-03-13 2013-09-18 四川天翼网络服务有限公司 一种基于图像识别的车辆定损系统及方法
FR3007172B1 (fr) 2013-06-12 2020-12-18 Renault Sas Procede et systeme d'identification d'un degat cause a un vehicule
CN104517442A (zh) 2013-10-06 2015-04-15 青岛联合创新技术服务平台有限公司 智能汽车定损装置及其工作方法
TWM478859U (zh) 2014-01-09 2014-05-21 Han-Wei Chang 人車路交通事故影音自動分析系統
JP6264132B2 (ja) 2014-03-25 2018-01-24 日産自動車株式会社 車体塗装面の検査装置および検査方法
US20150287130A1 (en) 2014-04-04 2015-10-08 Verc, Inc. Systems and methods for assessing damage of rental vehicle
CN106575450B (zh) * 2014-05-13 2019-07-26 河谷控股Ip有限责任公司 通过反照率模型、系统和方法的增强现实内容渲染
CN104268783B (zh) 2014-05-30 2018-10-26 翱特信息系统(中国)有限公司 车辆定损估价的方法、装置和终端设备
US9307234B1 (en) 2014-07-23 2016-04-05 American Express Travel Related Services Company, Inc. Interactive latency control with lossless image optimization
KR20160018944A (ko) 2014-08-07 2016-02-18 주식회사 코리아오토시스템 차량의 사고부위를 인식하여 가견적 리스트를 모바일 장치에서 생성하는 방법
US20160239922A1 (en) 2015-02-17 2016-08-18 Raymond Jimenez System and method of real-time imaging and analysis of real-world objects
US10325204B2 (en) 2015-07-06 2019-06-18 Texas Instruments Incorporated Efficient decision tree traversal in an adaptive boosting (AdaBoost) classifier
US10242293B2 (en) 2015-08-04 2019-03-26 The Asan Foundation Method and program for computing bone age by deep neural network
GB2542118B (en) 2015-09-04 2021-05-19 Toshiba Europe Ltd A method, apparatus, system, and computer readable medium for detecting change to a structure
GB201517462D0 (en) 2015-10-02 2015-11-18 Tractable Ltd Semi-automatic labelling of datasets
CN105488576A (zh) 2015-12-03 2016-04-13 小米科技有限责任公司 汽车维修费用确定方法和装置
CN105678622A (zh) 2016-01-07 2016-06-15 平安科技(深圳)有限公司 车险理赔照片的分析方法及系统
CN105719188B (zh) 2016-01-22 2017-12-26 平安科技(深圳)有限公司 基于多张图片一致性实现保险理赔反欺诈的方法及服务器
US11144889B2 (en) * 2016-04-06 2021-10-12 American International Group, Inc. Automatic assessment of damage and repair costs in vehicles
US10692050B2 (en) 2016-04-06 2020-06-23 American International Group, Inc. Automatic assessment of damage and repair costs in vehicles
CN105956667B (zh) 2016-04-14 2018-09-25 平安科技(深圳)有限公司 车险定损理赔审核方法及系统
US9886771B1 (en) 2016-05-20 2018-02-06 Ccc Information Services Inc. Heat map of vehicle damage
CN106056451A (zh) 2016-05-27 2016-10-26 大连楼兰科技股份有限公司 基于车辆obd传感器的远程无人定损系统
CN106022929A (zh) 2016-05-27 2016-10-12 大连楼兰科技股份有限公司 基于专家系统的碰撞事故定损方法及系统
CN106021548A (zh) 2016-05-27 2016-10-12 大连楼兰科技股份有限公司 基于分布式人工智能图像识别的远程定损方法及系统
US9870609B2 (en) 2016-06-03 2018-01-16 Conduent Business Services, Llc System and method for assessing usability of captured images
CN106127747B (zh) 2016-06-17 2018-10-16 史方 基于深度学习的汽车表面损伤分类方法及装置
CN106250812B (zh) 2016-07-15 2019-08-20 汤一平 一种基于快速r-cnn深度神经网络的车型识别方法
CN106296118A (zh) 2016-08-03 2017-01-04 深圳市永兴元科技有限公司 基于图像识别的车辆定损方法及装置
US20180040039A1 (en) 2016-08-08 2018-02-08 Audatex North America, Inc. Vehicle Component Partitioner
CN106296126A (zh) 2016-08-09 2017-01-04 深圳市永兴元科技有限公司 车险理赔费用预测方法和装置
CN106203644A (zh) 2016-08-09 2016-12-07 深圳市永兴元科技有限公司 车辆定损方法和装置
CN106372651B (zh) 2016-08-22 2018-03-06 平安科技(深圳)有限公司 图片品质的检测方法及装置
CN106370128A (zh) 2016-11-09 2017-02-01 重庆帅邦机械有限公司 一种汽车零部件定损方法
CN106504248B (zh) 2016-12-06 2021-02-26 成都通甲优博科技有限责任公司 基于计算机视觉的车辆损伤判别方法
US10354383B2 (en) * 2016-12-30 2019-07-16 Skinio, Llc Skin abnormality monitoring systems and methods
US10657707B1 (en) 2017-01-09 2020-05-19 State Farm Mutual Automobile Insurance Company Photo deformation techniques for vehicle repair analysis
US10296816B2 (en) 2017-01-11 2019-05-21 Ford Global Technologies, Llc Generating training data for automatic vehicle leak detection
JP6954741B2 (ja) 2017-01-13 2021-10-27 株式会社ブロードリーフ 損傷判断装置、並びにこれを用いた期間・スケジュール演算装置及び修理・補修費用演算装置。
CN107358596B (zh) 2017-04-11 2020-09-18 阿里巴巴集团控股有限公司 一种基于图像的车辆定损方法、装置、电子设备及系统
CN107392218B (zh) 2017-04-11 2020-08-04 创新先进技术有限公司 一种基于图像的车辆定损方法、装置及电子设备
CN107403424B (zh) 2017-04-11 2020-09-18 阿里巴巴集团控股有限公司 一种基于图像的车辆定损方法、装置及电子设备
US10521970B2 (en) * 2018-02-21 2019-12-31 Adobe Inc. Refining local parameterizations for applying two-dimensional images to three-dimensional models
US10949978B2 (en) 2019-01-22 2021-03-16 Fyusion, Inc. Automatic background replacement for single-image and multi-view captures
US20200258309A1 (en) 2019-01-22 2020-08-13 Fyusion, Inc. Live in-camera overlays
US10887582B2 (en) * 2019-01-22 2021-01-05 Fyusion, Inc. Object damage aggregation
US11669155B2 (en) * 2020-11-03 2023-06-06 Light Wand LLC Systems and methods for controlling secondary devices using mixed, virtual or augmented reality
US11544914B2 (en) 2021-02-18 2023-01-03 Inait Sa Annotation of 3D models with signs of use visible in 2D images
US11782271B2 (en) * 2022-01-07 2023-10-10 Brilliant Labs Limited Augmented reality device and methods of use

Also Published As

Publication number Publication date
US20230351713A1 (en) 2023-11-02
EP4295310A1 (en) 2023-12-27
US11983836B2 (en) 2024-05-14
WO2022175044A1 (en) 2022-08-25

Similar Documents

Publication Publication Date Title
Zubizarreta et al. A framework for augmented reality guidance in industry
CN111783820B (zh) 图像标注方法和装置
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
EP3067861B1 (en) Determination of a coordinate conversion parameter
US11455746B2 (en) System and methods for extrinsic calibration of cameras and diffractive optical elements
US10354402B2 (en) Image processing apparatus and image processing method
US9519968B2 (en) Calibrating visual sensors using homography operators
JP6503906B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2011221988A (ja) ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム
JP6464938B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6515039B2 (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
CN109934873B (zh) 标注图像获取方法、装置及设备
US20230351724A1 (en) Systems and Methods for Object Detection Including Pose and Size Estimation
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
WO2021188104A1 (en) Object pose estimation and defect detection
US11189053B2 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
JP5704909B2 (ja) 注目領域検出方法、注目領域検出装置、及びプログラム
JP2009216503A (ja) 三次元位置姿勢計測方法および装置
JP2018195070A (ja) 情報処理装置、情報処理方法、及びプログラム
US11544914B2 (en) Annotation of 3D models with signs of use visible in 2D images
JP7230722B2 (ja) 画像処理装置及び画像処理方法
JP2024506691A (ja) 2d画像において視認可能な使用形跡を使用した3dモデルの注釈付け
Lee et al. Robust multithreaded object tracker through occlusions for spatial augmented reality
CN116897371A (zh) 用在2d图像中可见的使用标记对3d模型的标注
Kim et al. 3D model augmentation using depth information in an AR environment