JP2018508850A - 3d撮像によりシーンの物体を識別および同定する方法 - Google Patents

3d撮像によりシーンの物体を識別および同定する方法 Download PDF

Info

Publication number
JP2018508850A
JP2018508850A JP2017532804A JP2017532804A JP2018508850A JP 2018508850 A JP2018508850 A JP 2018508850A JP 2017532804 A JP2017532804 A JP 2017532804A JP 2017532804 A JP2017532804 A JP 2017532804A JP 2018508850 A JP2018508850 A JP 2018508850A
Authority
JP
Japan
Prior art keywords
identifying
point cloud
optimized
space
intensity threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017532804A
Other languages
English (en)
Other versions
JP6753853B2 (ja
Inventor
ベレッシェ,ステファン
ベレッシェ,イオン
ベレ,ジャン−バティスト
ベルギンツ,ジェラール
Original Assignee
タレス
ユニベルシテ ドゥ ロレーヌ
ユニベルシテ ドゥ ロレーヌ
シスピア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by タレス, ユニベルシテ ドゥ ロレーヌ, ユニベルシテ ドゥ ロレーヌ, シスピア filed Critical タレス
Publication of JP2018508850A publication Critical patent/JP2018508850A/ja
Application granted granted Critical
Publication of JP6753853B2 publication Critical patent/JP6753853B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本発明は、3D撮像により、複雑なシーン内の物体を識別および同定する方法に関する。本方法は、− 複雑なシーンの3Dボクセル空間であって、オペレータにより、投影面からのMIP方式の反復的処理および各反復時にオペレータにより決定される強度閾値を使用して視覚化される3Dボクセル空間から、物体の一連の2D MIP画像を生成するステップと、− 一連の画像から、一連の画像に対応する縮小空間の座標を自動的に抽出するステップと、− 反復中に使用される強度閾値のうちの1つを選択するステップと、− 複雑なシーンの3D空間、座標、および選択された強度閾値から、物体を含む縮小3D空間を自動的に抽出するステップと、− 縮小空間から、強度閾値最適化により、最適化された強度閾値および最適化されたボクセル空間を自動的に生成するステップであって、色が各強度に関連付けられる、ステップと、− 視覚化により物体を同定するステップとを含む。

Description

本発明の分野は、図4に示すような複雑なシーンで隠れている可能性がある任意の物体を識別および同定する分野である。これらの物体は互いを覆っている場合があり、物体の同定および識別が特に困難になる。
異なる種類の三次元視覚化がある。いくつかの視覚化は、深度画像または2.5D画像を提供する。これらの技術は、必ずしも全ての三次元ボクセル(「容積ピクセル」)を復元可能にするものではなく、2つの画像の異なる点間における光または電磁線の進行の差異の最適化に関連付けられた立体視技術に基づいている。この進行の差異は、物体が撮像システムから近い範囲にあれば計算できる。従って、同定は短い距離に限定される。
いくつかの撮像技術は、レーザービームまたは光によるシーン全体の走査を必要とし、一連の測定から3D点群が得られる。三次元情報を得るために異なる視野角で数回の走査を必要とするが、走査システムを含む担体の相対運動により点群毎に歪みが生じ、再整列は複雑であり解像度および同定度が低下する。
いわゆるシルエット技術は、複数のビューから得られたシルエットから、殆ど細部が不明な外部エンベロープを得るものである。物体が影領域を含むか、または物体が別の物体の影に位置する場合、エンベロープの大部分が失われ、そのため2つの物体の同定および識別は不可能である。
スピン画像方式の技術はデータベースを必要とし、先験的な知識なしに複雑なシーンに隠された物体に適用することができない。
等密度面再構成に関連付けられたボクセルグループ化技術により、物体の外面を得ることができるものの、物体に含まれる内部情報は失われる。
知識ベース最適化および弱い信号の抽出に関連付けられた三次元再構成技術の一例が文献「Method for the three−dimensional synthetic reconstruction of objects exposed to an electromagnetic and/or elastic wave」(欧州特許第2929421号明細書または米国特許第8345960号明細書)に示されており、この技術はデータベースを必要とし、最良の三次元再構成を得るには最適化されなければならない。知識ベースは、多くの場合、ファセットによりモデル化できる三次元外面の組のみを使用して物体を表す。透明な構造(ウインドウ等)は十分に考慮されないため、3Dでの物体の完全な表示が大いに損なわれる。これらの技術は知識ベースの利用可能性にも依存する。
MIP(最大強度投影)技術により三次元データの2D視覚化が可能になる。この技術は、ボクセルを投影面に投影する。ボクセルは、投影面に観察点で当たる、強度閾値が設定されたビームにより決定される。2Dの結果から深さおよび距離の値を得ることはできない。回転の錯視および深さの概念を生じさせて、3Dレンダリングを向上させるために、連続する観察角度を有するいくつかの投影面を生成する。
ボクセル強度レンダリング技術は、観察されたシーンの異なる隣接間の識別が困難である、ノイズが多い三次元視覚化を許容する。
ボクセルのカルテシアン座標系への配置により直接得られた3D点群では、弱い識別のみを行うことができ、偽警報を伴うアーチファクトが生じる。
表面補完技術の一例が文献「Method for 3D reconstruction of an object of a scene」(米国特許出願公開第2013/0100131号明細書)に示されており、この技術は外部データベースに依存することなく、物体の完成したデータの組を得る三次元表面生成により不完全な領域を満たすことが可能になる。これらは、表面に不連続箇所がない物体の完全な外面を与えるものであり、透明な物体(例えばウインドウ)の背後にある内部データは再構成されることなく同定処理から排除される。2つの近い物体を識別する処理の実現は、表面の生成が数学的に複雑であり得るためにより困難である。
欧州特許第2,929,421号明細書 米国特許第8,345,960号明細書 米国特許出願公開第2013/0100131号明細書
本発明の目的は、これらの短所を緩和することである。
より具体的には、本発明の主題は、3D撮像により、複雑なシーン内の物体を識別および同定する方法である。本方法は、主に、
− 複雑なシーンの3Dボクセル空間であって、オペレータにより、予め決定され、かつ投影面からのMIP方式の反復的処理および各反復時にオペレータにより決定される強度閾値を使用して視覚化される3Dボクセル空間から、物体の2D MIP画像と呼ばれる一連の画像を生成するステップと、
− 一連の2D MIP画像から、一連の2D MIP画像に対応する縮小空間の座標を自動的に抽出するステップと、
− MIP方式の処理を反復中に使用される強度閾値のうちの1つを選択するステップと、
− 複雑なシーンの3Dボクセル空間、座標、および選択された強度閾値から、物体を含む縮小3Dボクセル空間を自動的に抽出するステップと、
− 縮小空間から、強度閾値最適化により、最適化された強度閾値および最適化されたボクセル空間を自動的に生成するステップであって、色が各強度に関連付けられる、ステップと、
− 視覚化により物体を同定するステップと
を含むことを特徴とする。
本方法は、任意選択的に、縮小3Dボクセル空間および/または最適化されたボクセル空間を視覚化するステップを含む。
本発明の特徴によれば、本発明は、一連の2D MIP画像、座標、および選択された強度閾値から、物体の3D点群(8)を生成するステップを更に含む。
本発明の別の特徴によれば、以下のステップ:
− 複雑なシーンの3D空間および選択された強度閾値から、複雑なシーンの未処理3D点群を生成するステップと、
− 最適化された3D空間および最適化された強度閾値から、物体の最適化された3D点群を生成するステップと、
− シーンの未処理3D点群と、物体の最適化された3D点群と、場合により物体の3D点群との重ね合わせから、複雑なシーンに含まれる物体の最適化された大域的3D点群を生成するステップと、
− 最適化された大域的3D点群を視覚化するステップと
を更に含む。
これらの点群もオペレータにより視覚化できる。
本発明による方法は、物体の識別と、同定と、場合により位置決めとを可能にする。点群の高密度化により物体の細部の正確な表現が可能になり、シーンの物体の同定性を向上させることも可能になる。点の三次元点群により、シーンの異なる物体の分離および識別が可能になり、同定される物体をシーンの他の要素から識別することが可能になる。物体に関連付けられた点群の組は絶対デカルト基準座標系に配置されているため、物体の位置および物体とシーンの他の要素との様々な距離を簡単に計算することが可能になる。物体は、その動作状況に応じて再配置される。
提供する解決策は、既存の各視覚化技術の個々の短所を補う。データ(特に、シーンの他の要素により被覆されているデータ)は暗黙的に存在するため、補完する必要がない。
本発明の他の特徴および利点は、非限定的な例として挙げる以下の詳細な説明を精査すると共に添付図面を参照することで明らかになるであろう。
3D再構成により得られた、異なるボクセルに対応してメッシュ化された3D空間の例を概略的に表す。 本発明による方法の異なるステップのシーケンス決定の例に示す。 3D再構成により得られた、複雑なシーンのメッシュ化されていない3Dボクセル空間の3D視覚化の一例を示す。 複雑なシーンの2D画像の一例を示す。 同定される物体の2D MIP画像のシーケンスの一例を示す。 同定される物体の縮小3D空間の3D視覚化の一例を示す。 同定される物体の最適化された3D空間の3D視覚化の一例を示す。 同定される物体の点の3D MIP点群の3D視覚化の一例を示す。 複雑なシーンの未処理3D点群の3D視覚化の一例を示す。 同定される物体の最適化された3D点群の3D視覚化の一例を示す。 物体として1台の自動車を有する、複雑なシーン内の物体の最適化された大域的3D点群の3D視覚化の一例を示す。 物体として2台の自動車を有する、複雑なシーン内の物体の最適化された大域的3D点群の3D視覚化の一例を示す。
各図において、同一の要素は同一の参照符号により識別される。
本発明による方法は、複雑なシーンの3Dボクセル空間に適用される。このシーンは、従って、3D撮像により既にこの3D空間(1)に変換されており、その一例を図1に示す。
上述の三次元空間は、透過による、または蛍光(光学投影断層撮影、放射線撮像もしくはX線コンピュータ断層撮影)による、または反射(レーザー波の反射もしくは可視帯域(0.4μm〜0.7μm)または近赤外(0.7μm〜1μmもしくは1μm〜3μmのSWIR)の場合には太陽光反射による反射)による、または物体の熱放射(3μm〜5μmおよび8μm〜12μmの熱撮像)を考慮することによる再構成の方法を使用して得られ、この三次元再構成処理は、特許「Optronic system and method for creating three−dimensional identification images」(米国特許第8,836,762号明細書、欧州特許第2333481号明細書)に記述されている。
三次元再構成から得られた全てのボクセルは、付随する強度と合わせて使用され、この再構成は好ましくは反射により得られる。
本発明による識別および同定方法は、図2に示す以下のステップを含む。物体とは、シーンの1つ以上の要素を指す。物体は、図2〜11aの例に示す1台の自動車もしくは図11bの例に示す2台の自動車、またはリム等の自動車部品であってよい。
以下のステップのうちのいくつかは、スクリーン上の視覚化からオペレータの介在を要求し、他は自動的に実行される。
A)複雑なシーンの3Dボクセル空間(1)(図2、3にメッシュ化されていないボクセルで示す)から、オペレータがMIP技術を使用して、例えば(異なる観察角度に対応する)異なる投影面に応じて、およびオペレータの試行錯誤により決定された強度閾値に応じて複雑なシーンをその画面上においてリアルタイムで視覚化し、図4に一例を示すこれらの異なる視覚化を行う間、識別および/または同定しようとする物体を含む解析される空間を粗く分解する。この反復的なMIP方式の処理の終了時点で、同定される物体の一連の2D MIP画像(2)が生成されており、同定される物体を含む縮小3D空間に視覚的に対応しているが、この段階では、この縮小空間は依然として決定されていない。このような一連の3つの2D MIP画像(2)の一例を図2、5に示す。
B1)この一連の2D MIP画像(2)から、同定される物体を含むこの縮小空間の座標(3)を自動的に抽出する。
B2)ステップA)のMIP処理で使用された強度閾値(4)のうちの1つを決定する。この閾値はオペレータの試行錯誤により決定される。
C)複雑なシーンの3Dボクセル空間(1)から、座標(3)および強度閾値(4)を使用して、同定される物体に対応するボクセル空間(5)を自動的に抽出する(換言すれば、この縮小3D空間は座標(3)の関数として決定され、強度に関するそのボクセルは強度閾値(4)の関数として閾値が設定される)。これは、ステップA)の縮小空間に関する。オペレータは、オペレータが望む場合、この縮小空間(5)を図2、6に示すように視覚化することができる。この視覚化により、オペレータは物体を同定できる。
D)ボクセル空間(5)から、各強度が色に関連付けられる強度閾値最適化処理により、
− 最適化閾値(7)と、
− 次いで、この最適化閾値を使用して、同定される物体の最適化された3Dボクセル空間(6)と
を自動的に生成する。
オペレータが図2、7に示すように視覚化して同定できる縮小空間は、従って、閾値による仕分け後に彩色されて得られる。元の3D空間よりもはるかに多くの細部を視覚的に示す3Dボクセル空間が得られる。
上述のステップA〜C中、オペレータはより高い確率で物体を同定することができる。ステップDの終了時点で、オペレータは最も高い確率で物体を同定することができるようになっている。
同定される物体自体を部分物体に分割することができる。自動車の部分物体は、例えば車輪、トランクの蓋等である。次いで上述のステップが各部分物体に適用される。各部分物体に対して、一連の2D MIP画像(2)、縮小3D空間座標(3)、選択された強度閾値(4)、縮小3Dボクセル空間(5)、最適化閾値(7)、および最適化された3D空間(6)が得られる。
ステップDの終了時点で、オペレータが注目するいくつかの要素または部分物体をこの物体が含む場合、これらは識別可能になっている。
以下のステップは、同定された物体の再配置を意図している。
E)任意選択的に、座標(3)および強度閾値(4)を使用して、一連の2D MIP画像(2)から、図2、8に示すようにオペレータが任意選択的に視覚化できる同定される物体の3D点群(8)を自動的に生成する。
F1)一連の2D MIP画像(2)から、強度閾値(4)を使用して、図2、9に示すようにオペレータが任意選択的に視覚化できる、従って同定される物体を含む、複雑なシーンの点の未処理3D点群(9)を自動的に生成する。
F2)最適化された3Dボクセル空間(6)から、強度閾値(7)を使用して、図2、10に示すようにオペレータが任意選択的に視覚化できる同定される物体の最適化された3D点群(10)を自動的に生成するステップ。
G)
− 複雑なシーンの未処理3D点群(9)と、
− 物体を同定可能にする、その細部レベルで高密度を示す物体の最適化された3D点群(10)と、
− 生成されている場合には物体の3D点群(8)と
の重ね合わせにより、複雑なシーンに含まれる物体の最適化された大域的3D点群(11)を自動的に生成する。この点群により、絶対座標を考慮することにより物体を動作状況に応じて配置し、物体を識別し、オペレータが高い確率で同定できるようする。実際、オペレータがこの最適化された大域的点群(11)を視覚化し、図2、11aに1台の自動車を表す物体、または図11bに2台の自動車を表す物体の一例を示す。これにより同定された物体をその動作状況に応じて視覚化することができる。
点群を各種の抽出により、アーチファクトおよびノイズを減らすことができる。
物体に関連付けられた点群の組は絶対デカルト基準座標系に配置されているため、物体の位置および物体とシーンの他の要素との様々な距離を簡単に計算することが可能になる。物体は、その動作状況に応じて再配置される。
部分物体が同定されると、各部分物体から得られた各々の点群を重ね合わせることにより、これらの再配置ステップが適用される。
結果が不満足であるとオペレータが考えた場合、これらの細部を最適に高密度化するために上述のステップA〜Gを繰り返すことができる。
ステップGの終了時点で、物体が互いに識別された複数の要素または部分物体を含む場合、これらは各々の状況に応じて再配置され、互いに相対的な位置をデカルト座標により測定することができる。
本方法により、観察されているシーンの各種の要素をリアルタイムに視覚化することが特に容易である。
本発明によれば、点の三次元点群の高密度化によりシーンの物体の同定性が向上する。
上述の識別および同定方法は、特に、目標の正確な同定および位置特定を要するセキュリティ分野、ならびに腫瘍の同定および位置特定を要する医療分野に応用できる。
本発明は、ハードウェアおよび/またはソフトウェア要素により実装可能である。本発明は、コンピュータ可読媒体上のコンピュータプログラム製品として利用可能であり、このコンピュータプログラムは、識別および同定方法のステップを実行することを可能にするコード命令を含む。媒体は、電子、磁気、光、電磁気、または赤外伝送媒体であってよい。このような媒体は、例えば半導体メモリ(ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、テープ、ディスケット、または磁気もしくは光ディスク(コンパクトディスク読み取り専用メモリ(CD−ROM)、コンパクトディスク読み書き(CD−R/W)、およびDVD))である。
本発明について特定の実施形態に関して記述してきたが、本発明はこれらに決して限定されるものではなく、上述の手段のあらゆる技術的均等物およびその組合せを、それらが本発明の範囲内に含まれる限り包含することは明らかである。

Claims (9)

  1. 3D撮像により、複雑なシーン内の物体を識別および同定する方法において、
    − 前記複雑なシーンの3Dボクセル空間であって、オペレータにより、予め決定(1)され、かつ投影面からの「最大強度投影」方式の反復的処理および各反復時に前記オペレータにより決定される強度閾値を使用して視覚化される3Dボクセル空間から、前記物体の2D MIP画像と呼ばれる一連の画像(2)を生成するステップ(A)と、
    − 前記一連の2D MIP画像から、前記一連の2D MIP画像(2)に対応する縮小空間の座標(3)を自動的に抽出するステップ(B1)と、
    − 前記ステップA)の反復中に使用される前記強度閾値のうちの1つ(4)を選択するステップ(B2)であって、前記選択が前記オペレータにより行われる、ステップ(B2)と、
    − 前記複雑なシーンの前記3Dボクセル空間(1)、前記座標(3)、および前記選択された強度閾値(4)から、前記物体を含む縮小3Dボクセル空間(5)を自動的に抽出するステップ(C)と、
    − 前記縮小空間(5)から、強度閾値最適化により、最適化された強度閾値(7)および最適化されたボクセル空間(6)を自動的に生成するステップ(D)であって、色が各強度に関連付けられる、ステップ(D)と、
    − 視覚化により前記物体を同定するステップと
    を含むことを特徴とする方法。
  2. 前記縮小3Dボクセル空間(5)を視覚化するステップを含むことを特徴とする、請求項1に記載の複雑なシーン内の物体を識別および同定する方法。
  3. 前記最適化されたボクセル空間(6)を視覚化するステップを含むことを特徴とする、請求項1または2に記載の複雑なシーン内の物体を識別および同定する方法。
  4. 前記一連の2D MIP画像(2)、前記座標(3)、および前記選択された強度閾値(4)から、前記物体の3D点群(8)を生成するステップ(E)を更に含むことを特徴とする、請求項1〜3のいずれか一項に記載の複雑なシーン内の物体を識別および同定する方法。
  5. − 前記複雑なシーンの前記3D空間(1)および前記選択された強度閾値(4)から、前記複雑なシーンの未処理3D点群(9)を生成するステップ(F1)と、
    − 前記最適化された3D空間(6)および前記最適化された強度閾値(7)から、前記物体の最適化された3D点群(10)を生成するステップ(F2)と、
    − 前記シーンの前記未処理3D点群(9)と、前記物体の前記最適化された3D点群(10)との重ね合わせから、前記複雑なシーンに含まれる前記物体の最適化された大域的3D点群(11)を生成するステップ(G)と、
    − 前記最適化された大域的3D点群を視覚化するステップと
    を更に含むことを特徴とする、請求項1〜4のいずれか一項に記載の複雑なシーン内の物体を識別および同定する方法。
  6. 前記最適化された大域的点群(11)が、前記シーンの前記未処理3D点群(9)と、前記物体の前記最適化された3D点群(10)と、前記物体の前記3D点群(8)との重ね合わせから生成されることを特徴とする、請求項4または5に記載の複雑なシーン内の物体を識別および同定する方法。
  7. 前記物体の前記3D点群(8)および/または前記シーンの前記3D点群(9)および/または前記物体の前記最適化された3D点群(10)が前記オペレータにより表示されることを特徴とする、請求項4または5に記載の方法。
  8. 前記3Dボクセル空間(1)が、前記複雑なシーン上での可視もしくは赤外光波の反射または前記物体からの熱放射により得られることを特徴とする、請求項1〜7のいずれか一項に記載の方法。
  9. コンピュータプログラム製品であって、コンピュータプログラムが、前記プログラムがコンピュータ上で動作されると、請求項1〜8のいずれか一項に記載の方法のステップを実行することを可能にするコード命令を含む、コンピュータプログラム製品。
JP2017532804A 2014-12-19 2015-12-17 3d撮像によりシーンの物体を識別および同定する方法 Active JP6753853B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1402929A FR3030847B1 (fr) 2014-12-19 2014-12-19 Procede de discrimination et d'identification par imagerie 3d d'objets d'une scene
FR1402929 2014-12-19
PCT/EP2015/080258 WO2016097168A1 (fr) 2014-12-19 2015-12-17 Procede de discrimination et d'identification par imagerie 3d d'objets d'une scene

Publications (2)

Publication Number Publication Date
JP2018508850A true JP2018508850A (ja) 2018-03-29
JP6753853B2 JP6753853B2 (ja) 2020-09-09

Family

ID=53059156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017532804A Active JP6753853B2 (ja) 2014-12-19 2015-12-17 3d撮像によりシーンの物体を識別および同定する方法

Country Status (11)

Country Link
US (1) US10339698B2 (ja)
EP (1) EP3234914B1 (ja)
JP (1) JP6753853B2 (ja)
KR (1) KR102265248B1 (ja)
CA (1) CA2971256A1 (ja)
ES (1) ES2704077T3 (ja)
FR (1) FR3030847B1 (ja)
HK (1) HK1245975B (ja)
IL (1) IL252791B (ja)
SG (1) SG11201704754RA (ja)
WO (1) WO2016097168A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3088530B1 (fr) 2018-11-15 2020-12-04 Thales Sa Systeme d'imagerie 2d et 3d d'un desordre pigmentaire cutane
KR102264744B1 (ko) 2019-10-01 2021-06-14 씨제이올리브네트웍스 주식회사 영상 데이터를 처리하는 방법 및 이를 실행시키기 위한 명령어들이 저장된 컴퓨터 판독 가능한 기록 매체
FR3101988B1 (fr) * 2019-10-10 2021-10-22 Sispia Procede de reconnaissance d'objets a representativite augmentee
KR102533985B1 (ko) * 2021-05-21 2023-05-17 한국항공대학교산학협력단 포인트 클라우드 복원 시스템 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033522A (ja) * 2006-07-27 2008-02-14 Namco Bandai Games Inc プログラム、情報記憶媒体、及び画像生成システム
US20090129641A1 (en) * 2007-11-21 2009-05-21 Siemens Medical Solutions Usa, Inc. System and Method for Additive Spatial/Intensity Decomposition of Medical Images
US20100074532A1 (en) * 2006-11-21 2010-03-25 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
WO2014155715A1 (ja) * 2013-03-29 2014-10-02 株式会社日立製作所 物体認識装置および物体認識方法並びにプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2365062A1 (en) * 2001-12-14 2003-06-14 Cedara Software Corp. Fast review of scanned baggage, and visualization and extraction of 3d objects of interest from the scanned baggage 3d dataset
US7616794B2 (en) * 2004-01-26 2009-11-10 Siemens Medical Solutions Usa, Inc. System and method for automatic bone extraction from a medical image
US20070297560A1 (en) * 2006-03-03 2007-12-27 Telesecurity Sciences, Inc. Method and system for electronic unpacking of baggage and cargo
FR2929421B1 (fr) 2008-03-25 2012-04-27 Thales Sa Procede de reconstruction synthetique tridimensionnelle d'objets exposes a une onde electromagnetique et/ou elastique
FR2953313B1 (fr) 2009-11-27 2012-09-21 Thales Sa Systeme optronique et procede d'elaboration d'images en trois dimensions dedies a l'identification
FR2981772B1 (fr) 2011-10-21 2017-12-22 Thales Sa Procede de reconstruction 3d d'un objet d'une scene
US20140164989A1 (en) 2012-12-10 2014-06-12 Stefan KUHNE Displaying windows on a touchscreen device
US9547838B2 (en) * 2013-11-06 2017-01-17 Oracle International Corporation Automated generation of a three-dimensional space representation and planogram verification

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033522A (ja) * 2006-07-27 2008-02-14 Namco Bandai Games Inc プログラム、情報記憶媒体、及び画像生成システム
US20100074532A1 (en) * 2006-11-21 2010-03-25 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US20090129641A1 (en) * 2007-11-21 2009-05-21 Siemens Medical Solutions Usa, Inc. System and Method for Additive Spatial/Intensity Decomposition of Medical Images
WO2014155715A1 (ja) * 2013-03-29 2014-10-02 株式会社日立製作所 物体認識装置および物体認識方法並びにプログラム

Also Published As

Publication number Publication date
ES2704077T3 (es) 2019-03-14
IL252791B (en) 2021-04-29
FR3030847A1 (fr) 2016-06-24
KR20170120095A (ko) 2017-10-30
WO2016097168A1 (fr) 2016-06-23
HK1245975B (zh) 2019-11-15
US10339698B2 (en) 2019-07-02
SG11201704754RA (en) 2017-07-28
IL252791A0 (en) 2017-08-31
KR102265248B1 (ko) 2021-06-14
JP6753853B2 (ja) 2020-09-09
US20170345204A1 (en) 2017-11-30
CA2971256A1 (en) 2016-06-23
FR3030847B1 (fr) 2017-12-22
EP3234914A1 (fr) 2017-10-25
EP3234914B1 (fr) 2018-10-10

Similar Documents

Publication Publication Date Title
US9870644B2 (en) Apparatus and method for image processing
JP6017631B2 (ja) セキュリティーチェックctシステム及びその方法
EP2600309B1 (en) Foreground subject detection
JP6753853B2 (ja) 3d撮像によりシーンの物体を識別および同定する方法
US20200184617A1 (en) Inspection method for a manufactured article and system for performing same
US9763630B2 (en) Stereoscopic imaging systems and methods
CN110197148A (zh) 目标物体的标注方法、装置、电子设备和存储介质
JP5777070B2 (ja) 領域抽出装置、領域抽出方法および領域抽出プログラム
US9324125B2 (en) Methods and apparatuses for rendering CT image data
EP2874124B1 (en) Method and apparatus for marking an object in a 3D image
JPH0242585A (ja) 空間内の物体の形状及び位置を再構成する方法及び装置
CN203535244U (zh) 人体安全检查设备
EP3343504B1 (en) Producing a segmented image using markov random field optimization
JPH09204532A (ja) 画像認識方法および画像表示方法
JP6599031B2 (ja) 監視装置
JP7054989B2 (ja) 監視装置
CN113316801A (zh) 点云孔洞填充方法、装置和存储介质
Woock et al. Approaches to acoustic and visual underwater sensing
CN113592995A (zh) 一种基于并行单像素成像的多次反射光分离方法
KR20220032562A (ko) 3d 볼륨에서 오브젝트들을 자동으로 검출, 로케이팅 및 식별하기 위한 방법 및 시스템
CN117689725A (zh) 目标姿态估计及运动状态预测方法、介质以及智能设备
Zhao Detections and applications of saliency on 3D surfaces by using retinex theory

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200820

R150 Certificate of patent or registration of utility model

Ref document number: 6753853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250