JP2022536298A - コンピュータビジョンアプリケーションにおける3次元マッピングツールを用いた物体認識のためのシステム及び方法 - Google Patents

コンピュータビジョンアプリケーションにおける3次元マッピングツールを用いた物体認識のためのシステム及び方法 Download PDF

Info

Publication number
JP2022536298A
JP2022536298A JP2021572399A JP2021572399A JP2022536298A JP 2022536298 A JP2022536298 A JP 2022536298A JP 2021572399 A JP2021572399 A JP 2021572399A JP 2021572399 A JP2021572399 A JP 2021572399A JP 2022536298 A JP2022536298 A JP 2022536298A
Authority
JP
Japan
Prior art keywords
scene
pattern
light
emission spectral
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021572399A
Other languages
English (en)
Other versions
JP7225435B2 (ja
Inventor
エムレ クルトグル,ユヌス
イアン チルダース,マシュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BASF Coatings GmbH
Original Assignee
BASF Coatings GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BASF Coatings GmbH filed Critical BASF Coatings GmbH
Publication of JP2022536298A publication Critical patent/JP2022536298A/ja
Application granted granted Critical
Publication of JP7225435B2 publication Critical patent/JP7225435B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、コンピュータビジョンアプリケーションを介した物体認識のためのシステムと方法に関し、前記システムは、少なくとも以下の構成要素:- 認識される物体(130、130’)であって、物体特有の反射スペクトルパターンと発光スペクトルパターンとを有する物体と、- 前記認識される物体を含むシーン(140、140’)に少なくとも1つの光パターンを投影するように構成された光源(110、110’)と、- 前記シーンが前記光源によって照射されたときに、前記物体を含む前記シーンの放射輝度データを測定するように構成されたセンサ(120、121、120’)と、- 適切に割り当てられたそれぞれの物体とともに発光スペクトルパターンを含むデータ記憶ユニットと、- データ処理ユニットであって、前記シーン(140、140’)の放射輝度データから前記認識される物体の物体特有の発光スペクトルパターンを検出し、前記検出された物体特有の発光スペクトルパターンを、前記データ記憶ユニットに記憶されている発光スペクトルパターンとマッチングさせて、ベストマッチングする発光スペクトルパターン、及び、したがって、その割り当てられた物体を識別し、前記センサ(120、121、120’)によって測定された反射特性により、前記シーン(140、140’)内の識別された物体(130、130’)の距離、形状、深度、及び/又は表面情報を計算するように、構成されたデータ処理ユニットと、を備える。【選択図】図1

Description

本開示は、3次元マッピングツールを使用してコンピュータビジョンアプリケーションを介しての物体認識のためのシステム及び方法に関する。
コンピュータビジョンは、(幾つか挙げると)カメラ、LiDARやレーダーなどの距離センサ、構造化光やステレオビジョンに基づく深度カメラシステムなどのセンサを介して周囲の情報を収集できる電子機器の豊富な使用により、急速な発展を遂げている分野である。これらの電子機器は、コンピュータ処理ユニットによって処理され、その結果、人工知能やコンピュータ支援アルゴリズムを用いて環境やシーンの理解を展開する生の画像データを提供する。この環境の理解を如何に展開するかについては多くの方法がある。一般的には、2D又は3Dの画像及び/又はマップが形成され、そして、これらの画像及び/又はマップはシーンとそのシーン内の物体の理解を展開するために分析される。コンピュータビジョンを改善するための1つの見込みは、シーン内の物体の化学的組成の成分を測定することである。2D又は3D画像として取得された環境内の物体の形状と外観は、環境の理解を展開するために使用されることができるが、これらの技術にはいくつかの欠点を有している。
コンピュータビジョン分野の課題の1つは、センサ、計算能力、ライトプローブなどの最小量の資源を用いて、高精度かつ低遅延で各シーン内の可能な限り多くの物体を識別できることにある。物体識別方法は、長年にわたって、リモートセンシング、物体識別、分類、認証又は認識と呼ばれてきた。本開示の範囲では、シーン内の物体を識別するコンピュータビジョンシステムの能力は、「物体認識」と呼ばれる。例えば、コンピュータによって写真を分析し、その写真の中のボールを識別/ラベル付けすることは、時にはボールの種類(バスケットボール、サッカーボール、野球ボール)、ブランド、状況などのさらなる情報を有するとしても、「物体認識」の用語に該当する。
一般に、コンピュータビジョンシステムで物体を認識するために利用される技術は、以下のように分類される。
技術1: 物理タグ(画像ベース):バーコード、QRコード(登録商標)、シリアルナンバー、テキスト、パターン、ホログラムなど。
技術2: 物理タグ(スキャン/密着ベース):視野角依存顔料、アップコンバージョン顔料、メタクロミクス、カラー(赤/緑)、発光材料。
技術3: 電子タグ(パッシブ):RFIDタグなど。電力なしで物体体に取り付けられる装置であって、必ずしも見えなくてもよいが、他の周波数(例えば無線)で作動することができる。
技術4: 電子タグ(アクティブ):無線通信、光、無線、車両から車両、車両から任意のもの(X)など。種々の形で情報を発する対象物体上の電力駆動装置。
技術5: 特徴検出(画像ベース):画像の分析及び識別、例えば、車について側面視で一定の距離にある2つの車輪;顔認識について2つの目と1つの口(この順序で)など。これは、既知の幾何学形状/形に依存する。
技術6: ディープラーニング/CNNベース(画像ベース):車や顔などのラベル付けされた画像の多数の写真によってコンピュータをトレーニングし、該コンピュータが検出すべき特徴決定し、対象物体が新しいエリアに存在する場合に予測する。識別すべき物体の各分類についてトレーニング手順を繰り返す必要がある。
技術7: 物体追跡方法:シーン内のアイテムを特定の順序に整理し、最初に順序付けられた物体にラベルを付けする。その後に、既知の色/幾何学形状/3D座標でシーン内の物体を追跡する。物体がシーンから離れて再び入ってくる場合は、「認識」は失われる。
以下では、上述の技術のいくつかの欠点が示されている。
技術1: 画像内の物体が遮蔽されている場合、又は物体の小さな部分だけが視界にある場合、バーコード、ロゴなどが読めない可能性がある。さらに、可撓性の物品上にあるバーコードなどは、歪む可能性があり、可視性を制限する。物体のすべての側面が、遠距離から見えるために、大きなバーコードを担持しなければならず、さもなければ、物体は近距離で正しい方向に向いている時のみ認識されるだけである。これは、例えば倉庫の棚上の物体のバーコードがスキャンされる場合に、問題となる。シーン全体にわたって操作する場合、技術1は、変化し得る環境光に依存する。
技術2: アップコンバージョン顔料は、それらの低量子収率による低レベルの発光のため、視認距離に限界がある。そのため、強力なライトプローブが必要となる。また、それらは通常不透明で大きい粒子であるため、コーティングの選択肢が限られる。さらに、それらの使用を複雑にしているのは、蛍光と光反射に比べて、アップコンバージョン反応が遅いということである。幾つかの適用は、使用される化合物に依存するこの独特の反応時間を利用するが、これは、該センサ/物体システムの飛行距離時間が予め知られている場合にのみ、可能である。これはコンピュータビジョンアプリケーションでは稀なケースである。これらの理由から、偽造防止センサは、正確さのために、読み取りのためのカバーされた/暗い部分と、プローブとしてのクラス1又は2のレーザと、対象物体への固定された限られた距離とを有している。
同様に視野角依存の顔料システムは、近距離でのみ機能し、複数の角度で見る必要がある。また、視覚的に心地よい効果に関しては、色が均一ではない。正しい測定を行うためには、入射光のスペクトルが管理されなければならない。単一の画像/シーン内では、角度依存のカラーコーティングを施した物体は、サンプルの次元に沿って、カメラに見える色を複数有している。
色ベースの認識は、測定された色が環境光条件に部分的に依存するため、困難である。したがって、シーンごとに基準サンプル及び/又は制御された光条件が必要となる。また、異なるセンサは、異なる色を識別する能力が異なり、また、センサの種類やメーカーによって異なり、センサごとに較正ファイルを必要とする。
環境光下での発光ベースの認識は、物体の反射成分と発光成分が一緒に加算されるため、困難なタスクとなる。一般的に、発光ベースの認識は、代わりに、暗い測定環境と、発光材料の励起領域の事前の知識を利用し、それによって正しいライトプローブ/光源が使用され得る。
技術3: RFIDタグなどの電子タグは、回路、集電装置、アンテナを物体品/物体に取り付ける必要があり、コストを増加させ、設計を複雑化させる。RFIDタグは存在するかどうかの情報を提供するが、シーンにわたって多数のセンサが使用されない限り、正確な位置情報を提供しない。
技術4: これらの能動的な手法では、物体体を電源に接続する必要があり、サッカーボール、シャツ、又はパスタの箱などの単純な物品にはコストがかかりすぎて、したがって実用的ではない。
技術5: 遮蔽や異なる視野角は容易に結果を変化させるため、予測精度は、画像の品質とシーン内でのカメラの位置に大きく依存する。ロゴタイプの画像は、シーン内の複数の場所に存在することができ(すなわち、ロゴがボール、Tシャツ、帽子、又はコーヒーカップに存在し得るなど)、物体認識は推論による。物体の視覚パラメータは、多大な労力をかけて数学パラメータに変換されなければならない。形状を変えることができる柔軟な物体は、それぞれの可能な形がデータベースに含まれなければならないため、問題である。似た形の物体が対象物体と誤認される可能性があるため、常に固有の曖昧さが存在する。
技術6: トレーニング用データセットの質が方法の成功を決定する。認識/分類される各物体のために、多数のトレーニング用画像が必要とされる。技術5についての遮蔽や柔軟な物体の形の制限が適用される。数千以上の画像によって材料の各分類についてトレーニングする必要がある。
技術7: この技術は、シーンがあらかじめ整理されている場合に有効であるが、これは現実的ではない。物体体がシーンから離れたり、完全に遮蔽されたりすると、上記の他の技術と組み合わされていない限り、物体は認識されない。
上記のような既存の技術の欠点の他に、言及すべきいくつかの課題がある。遠距離を見る能力、小さな物体を見る能力、物体を十分に詳細に見る能力は、すべて高解像度画像化システム、すなわち、高解像度カメラ、LiDAR、レーダーなどを必要とする。高解像度の必要性は、関連するセンサのコストを増加させ、処理すべきデータ量を増加させる。
自律走行やセキュリティのように瞬時に応答する必要があるアプリケーションでは、遅延はもう1つの重要な側面である。処理される必要があるデータ量は、エッジコンピューティング又はクラウドコンピューティングが該アプリケーションに適しているか否かを決定し、後者はデータ量が少ない場合にのみ可能である。エッジコンピューティングが重い処理に使用される場合、システムを作動させる機器は大型化し、使用の容易さ、したがって、実装を制限する。
このように、コンピュータビジョンアプリケーションの物体認識能力を向上させるのに適したシステム及び方法に対する要求が存在している。
商業的に重要な新しい分野の1つは、(幾つかを挙げると)人工知能、自律システム、拡張現実などの様々なコンピュータビジョンアプリケーションのための、屋内環境及び屋外環境の3Dマッピングである。現在の議論に関連するマッピング技術のいくつかは、シーンにパルス送信される(時間的)、シーンに部分的に放射される(構造化光)、又はその2つの組み合わせ(ドットマトリックスプロジェクタ、LiDARなど)のいずれかの光プローブを含む。構造化光システムは、カメラ/センサに信号が戻ってくる際の、シーンに導入された光の既知のジオメトリからの偏差を使用し、その歪みを使用して物体の距離/形状を算出することが多い。このようなシステムで使用される光の波長は、スペクトルの紫外領域、可視領域、近赤外領域のどの領域でもよい。ドットプロジェクタ型システムでは、光プローブがシーンにパルス送信され、飛行時間測定が行われてターゲット物体の形状と距離が計算される。一部のバージョンでは、光プローブは、プロジェクタ/センサの視野内に複数の領域を導入し、一方、他のバージョンでは、一度に1つの領域のみを照射し、その手順を繰り返してシーンの様々な領域を時間の経過ととも走査する。どちらのシステムでも、シーンにすでに存在する環境光は、マッピングタスクを実行するために導入された光と区別される。これらのシステムは、プローブが照射し光プローブが作動するスペクトルバンドで読み取る物体の反射特性に厳密に依存している。両方のタイプのシステムは、対象のサイズ及び寸法をコンピュータビジョンシステムに収容させるように設計され、したがって、プローブによって照射される領域の解像度は、測定、マッピング、又は認識される対象物体と同様の長さのスケールを有する。
本開示は、独立請求項の特徴を有するシステム及び方法を提供する。実施形態は、従属請求項ならびに説明及び図面の対象である。
請求項1によれば、コンピュータビジョンアプリケーションを介した物体認識のためのシステムが提供され、該システムは少なくとも以下の構成要素:
- 認識される物体であって、物体特有の反射スペクトルパターンと発光スペクトルパターンとを有する物体と、
- 前記認識される物体を含むシーンに少なくとも1つの光パターンを投影するように構成された光源と、
- 前記シーンが前記光源によって照射されたときに、前記シーンの放射輝度データを測定するように構成されたセンサと、
- 適切に割り当てられたそれぞれの物体とともに発光スペクトルパターンを含むデータ記憶ユニットと、
- データ処理ユニットであって、
・ 前記シーンの放射輝度データから前記認識される物体の物体特有の発光スペクトルパターンを検出/抽出し、前記検出/抽出された物体特有の発光スペクトルパターンを、前記データ記憶ユニットに記憶されている発光スペクトルパターンとマッチングさせて、ベストマッチングする発光スペクトルパターン、及び、したがって、その割り当てられた物体を識別し、
・ 前記センサによって測定された反射特性により、前記シーン内の識別された物体の距離、形状、深度、及び/又は表面情報を計算するように、
構成されたデータ処理ユニットと、
を備える。
反射特性は、時間的要素、例えば反射光(物体特有の反射パターンの一部を形成している)がセンサに戻るのに要する時間の量などの時間的要素、又は空間測定値、例えば放射された空間光パターンの測定歪み、すなわち、物体の表面に当たったときの光パターンの変形による測定歪みなどの空間測定値を含み得る。
反射特性は、既知の物体特有の反射パターンの観点から考慮される。
光源は、シーンに第1の光パターンを投影し、センサの結果に基づいて第2の光パターンを選択し、それをシーンに投影し、その結果を用いて別の第3の光パターンを投影するなどのように構成されることができる。このように、光源は、複数の光パターンを次々とシーンに投影することができる。あるいは、光源は複数の光パターンを同時にシーンに投影することができる。また、光源が最初の時点で異なる光パターンの第1グループをシーンに投影し、その後、第2の時点で異なる光パターンの第2グループを選択してシーンに投影することも可能である。また、同時に又は連続して操作されることができる複数の光源を使用することも可能であり、各光源は、1つの所定の光パターン又は光パターンのグループ又は一連の連続した光パターンをシーンに投影するように構成されている。1つの光源又は複数の光源のそれぞれは、コントローラ、すなわち制御ユニットによって制御されることができる。複数の光源のすべての光源を制御することができ、したがって、複数の光源の操作シーケンスを明確に定義することができる1つの中央コントローラを有してよい。
光源(複数)、制御ユニット(複数)、センサ、データ処理ユニット、及びデータ記憶ユニットは、互いに通信接続されていてよく、すなわち、互いにネットワーク化されていてよい。
本開示の範囲内では、「蛍光性」及び「発光性」という用語は同義的に使用される。「蛍光」及び「発光」という用語についても同様である。本開示の範囲内では、データベースは、データ記憶ユニットの一部であってもよく、データ記憶ユニット自体を表していてもよい。「データベース」及び「データ記憶ユニット」という用語は同義的に使用される。「データ処理ユニット」及び「プロセッサ」という用語は、同義的に使用され、広義に解釈される。
提案されたシステムの一実施形態によれば、光源によってシーンに投影されることができる光パターン又は光パターンの少なくとも1つは、時間的光パターン、空間的光パターン、ならびに時間的及び空間的光パターンからなる群から選択される。
光源が空間的光パターン又は時間的及び空間的光パターンをシーンに投影するように構成されている場合、光パターンの空間的部分は、グリッドとして、水平、垂直及び/又は斜めのバーの配置として、ドットの配列として、又はそれらの組み合わせとして形成される。
光源が時間的光パターン又は時間的及び空間的光パターンをシーンに投影するように構成されている場合、光源は、単一のパルスで光を放射し、このように光パターンの時間的部分を提供するように構成された少なくとも1つのパルス光源を含む。
提案されたシステムのさらなる実施形態によれば、光源は、1つの時点でシーンの1つ又は複数のエリア/セクションに、又は同時に複数のエリア/セクションに光を放射し得る、ドットマトリックスプロジェクタと飛行時間(光)センサの1つとして選択される。飛行時間センサは、構造化光を使用してよい。具体的には、光センサは、LiDARであってよい。
本システムのさらに別の実施形態では、センサはハイパースペクトルカメラ又はマルチスペクトルカメラである。
センサは一般的に、光子カウンティング機能を有する光センサである。より具体的には、センサは、モノクロカメラ、又はRGBカメラ、又はマルチスペクトルカメラ、又はハイパースペクトルカメラであり得る。センサは上記のいずれかの組み合わせであってもよいし、又は、上記のいずれかと例えば特定フィルタを備えたモノクロセンサなどの調整可能又は選択可能なフィルタセットとの組み合わせであってもよい。センサは、シーンの単一のピクセルを測定してもよく、又は一度に多くのピクセルを測定してもよい。光センサは、特定のスペクトル範囲で、特に3つ以上のバンドで、光子をカウントするように構成されてよい。光センサは、広い視野のために、特にすべてのバンドを同時に読み、又は異なる時間に異なるバンドを読む複数の画素を有するカメラであってよい。
マルチスペクトルカメラは、電磁スペクトル上の特定の波長範囲の画像データを取得する。波長は、フィルタで分離されてもよく、赤外線や紫外線などの可視光域を超える周波数の光を含む特定の波長に感度を有する機器を使用することによって分離されてもよい。スペクトルイメージングは、赤、緑、青の受容体によって人間の目では捉えられない追加の情報の抽出を可能にする。マルチスペクトルカメラは、少数(通常3~15)のスペクトルバンドで光を測定する。ハイパースペクトルカメラは、しばしば数百の連続したスペクトルバンドが利用可能であるスペクトルカメラの特別な例である。
システムのさらなる実施形態では、光源は、UV、可視光、及び/又は赤外光中の1つ又は複数のスペクトルバンドを、光パターンで同時に又は異なる時間に放射するように構成されている。
認識される物体は、予め定義された発光材料で提供されてよく、得られる物体の発光スペクトルパターンは既知であり、タグとして用いられる。物体は、予め定義された発光材料でコーティングされていてよい。あるいは、物体が性質上所定の発光材料を本質的に含んでいてよい。
提案されたシステムは、少なくとも識別された物体と、識別された物体の計算された距離、形状、深度及び/又は表面情報とを出力するように構成された出力ユニットをさらに含んでよい。出力ユニットは、少なくとも識別された物体と、識別された物体の計算された距離、形状、深度及び/又は表面情報とを表示するように構成された表示ユニットであってよい。あるいは、出力ユニットは、ラウドスピーカーなどの音響出力ユニット、又はディスプレイとラウドスピーカーの組み合わせであってよい。出力ユニットは、データ処理ユニットと通信接続されている。
提案されたシステムの一部又はすべての技術的構成要素、すなわち、光源、センサ、データ処理ユニット、データ記憶ユニット、制御ユニット、及び/又は出力ユニットは、互いに通信接続されていてよい。構成要素のいずれかの間の通信接続は、有線接続でも無線接続でもよい。それぞれの適切な通信技術を使用することができる。それぞれの構成要素は、それぞれ、互いに通信するための1つ以上の通信インターフェースを含んでよい。このような通信は、ファイバ分散データインタフェース(FDDI)、デジタル加入者線(DSL)、イーサネット、非同期転送モード(ATM)などの有線データ伝送プロトコル、又はその他の有線伝送プロトコルを用いて実行されてよい。あるいは、通信は、汎用パケット無線サービス(GPRS)、ユニバーサル移動体通信システム(UMTS)、符号分割多元接続(CDMA)、長期的進化(Long Term Evolution(LTE))、ワイヤレスユニバーサルシリアルバス(USB)などのさまざまなプロトコル、及び/又はその他の無線プロトコルのいずれかを使用して、無線通信ネットワークを介して無線で行われてよい。それぞれの通信は、無線通信及び有線通信を組み合わせたものであってよい。
本開示はまた、コンピュータビジョンアプリケーションを介した物体認識のための方法にも言及しており、該方法は少なくとも以下のステップ:
- 認識される物体であって、物体特有の反射スペクトルパターンと発光スペクトルパターンを有する物体を提供するステップと、
- 前記認識される物体を含むシーンに少なくとも1つの光パターンを投影するステップと、
- 前記シーンが光源によって照射されたときに、前記物体を含む前記シーンの放射輝度データをセンサによって測定するステップと、
- 適切に割り当てられたそれぞれの物体とともに発光スペクトルパターンを含むデータ記憶ユニットを提供するステップと、
- 前記シーンの放射輝度データから前記認識される物体の物体特有の発光スペクトルパターンを検出/抽出し、前記検出/抽出された物体特有の発光スペクトルパターンを、前記データ記憶ユニットに記憶されている発光スペクトルパターンとマッチングさせ、ベストマッチングする発光スペクトルパターン、及び、したがって、その割り当てられた物体を識別し、前記センサによって測定された反射特性により、前記シーン内の前記識別された物体の距離、形状、深度、及び/又は表面情報を計算するようにプログラムされている、データ処理ユニットを提供するステップと、
を含む。
反射特性は、時間的要素、例えば光(物体特有の反射パターンの一部を形成している)がセンサに戻るのに要する時間の量などの時間的要素、又は空間的測定値、例えば放射された空間光パターンの測定歪み、すなわち、物体の表面に当たったときの光パターンの変形による測定歪みなどの空間測定値を含み得る。
一態様では、認識される物体を提供するステップは、物体に発光材料を付与/提供し、したがってこのようにして物体に物体特有の反射スペクトルパターンと発光スペクトルパターンを提供することを含む。
このように、認識される物体は、発光の化学的性質、すなわち発光スペクトルパターンが既知であり、タグとして使用される所定の表面発光材料(特に発光染料)を提供/付与、例えばコーティングされる。物体の発光の化学的性質をタグとして使用することにより、物体認識は物体の形状又は部分的な遮蔽に関わらず、可能である。
物体は、様々な方法で、発光材料、特に蛍光材料を付与され、すなわち提供されることができる。蛍光材料は、スプレーコーティング、ディップコーティング、コイルコーティング、ロールツーロールコーティング及び他の方法などによって塗布されるコーティング中に分散されてよい。蛍光材料は、物体に印刷されてもよい。蛍光材料を物体中に分散させ、押し出し、成形、又は鋳造してもよい。いくつかの材料及び物体は、自然に蛍光性であり、提案されているシステム及び/又は方法で認識されることができる。いくつかの生物学的材料(野菜、果物、バクテリア、組織、タンパク質など)は、蛍光を発するように遺伝子操作されることができる。いくつかの物体は、本明細書に記載されているいずれかの方法で蛍光タンパク質を添加することにより、蛍光性にすることができる。
膨大な種類の蛍光材料が市販されている。理論的には、識別される物体の蛍光スペクトルパターンは製造後に測定されるため、いずれの蛍光材料でもコンピュータビジョンアプリケーションに適しているはずである。主な制限は、蛍光材料の耐久性と(認識される物体の)ホスト材料との適合性である。蛍光増白剤は、多くの有機ポリマーの黄色を抑えるために物体の調合に含まれることが多い蛍光材料の一種である。それらは目に見えない紫外光を可視の青色光に蛍光発光させ、それによって製造された物体がより白く見えるように機能する。多くの蛍光増白剤が市販されている。物体に蛍光性を付与するステップは、物体に蛍光材料をコーティングするか、又は物体の表面に蛍光を付与することで実現され得る。後者の場合、蛍光は物体全体に分布されてよく、したがって、表面でも検出され得る。
認識される物体に発光材料を提供する技術は、以下の技術の1つ又は組み合わせとして選択されることができる:スプレー、圧延、引き伸ばし、堆積(PVC、CVDなど)、押出成形、フィルム塗布/接着、ガラス成形、成型技術、インクなどの印刷、あらゆる種類のグラビア、インクジェット、付加製造、布/織物処理(染色又は印刷方法)、染料/顔料吸収、描画(手/その他)、ステッカー付与、ラベル付与、タグ付与、化学的表面グラフト化、乾式付与、湿式付与、固体への混合物提供、反応性/非反応性染料の提供。
さらなる態様では、本方法は、出力装置を介して、少なくとも識別された物体と、識別された物体の計算された距離、形状、深度及び/又は表面情報とを出力するステップをさらに含む。出力装置は、データ処理ユニットと結合された(通信接続された)表示装置によって実現されることができる。出力装置は、ラウドスピーカーなどの音響出力装置、又は、視覚及び音響の出力装置であってもよい。
提案された方法のさらに別の実施形態によれば、マッチングステップは、評価される物体特有の発光スペクトルパターンと記憶された発光スペクトルパターンとの間の任意の数のマッチングアルゴリズムを使用することによって、ベストマッチングする発光スペクトルパターンを識別することを含む。該マッチングアルゴリズムは、最低二乗平均平方根誤差、最低平均絶対誤差、最高決定係数、最大波長値のマッチングのうち少なくとも1つを含む群から選択されることができる。一般的に、マッチングアルゴリズムは任意である。
さらに別の態様では、抽出ステップは、測定された放射輝度データを用いて、多段階の最適化方法で、物体の発光スペクトルパターンと反射スペクトルパターンを推定することを含む。
データ処理ユニットは、タッチスクリーン、音声入力、動作入力、マウス、キーパッド入力などの1つ又は複数の入力ユニットを含むか、又はそれらと接続されることができる。さらに、データ処理ユニットは、音声出力、ビデオ出力、スクリーン/ディスプレイ出力及び/又はそれらの類似のものの1つ又は複数の出力ユニットを含むか、又はこれらと通信接続されることができる。
本発明の実施形態は、独立型ユニットであり得るか、又は例えばクラウドに設置された中央コンピュータと例えばインターネットもしくはイントラネットなどのネットワークを介して通信する1つ又は複数の遠隔端末又は装置を含むコンピュータシステムと共に使用されるか、又はコンピュータシステムに組み込まれ得る。このように、本明細書に記載されるデータ処理ユニット及び関連構成要素は、ローカルコンピュータシステム又はリモートコンピュータ又はオンラインシステムの一部であってよく、又はそれらの組み合わせであってもよい。データベース、すなわち本明細書に記載されているデータ記憶ユニット及びソフトウェアは、コンピュータの内部メモリに保存されていてよく、又は非一時的なコンピュータ可読媒体に記憶されていてよい。
本開示は、さらに、コンピュータによって実行可能な命令を有するコンピュータプログラム製品に言及しており、前記命令はマシーンに:
- 認識される物体であって、物体特有の反射スペクトルパターンと発光スペクトルパターンを有する物体を提供させ、
- 前記認識される物体を含むシーンに少なくとも1つの光パターンを投影させ、
- 前記シーンが光源によって照射されたときに、前記物体を含む前記シーンの放射輝度データをセンサによって測定させ、
- 適切に割り当てられたそれぞれの物体とともに発光スペクトルパターンを含むデータ記憶ユニットを提供させ、
- 前記シーンの放射輝度データから前記認識される物体の物体特有の発光スペクトルパターンを抽出させ、
- 前記抽出された物体特有の発光スペクトルパターンを、前記データ記憶ユニットに記憶されている発光スペクトルパターンとマッチングさせ、
- ベストマッチングする発光スペクトルパターン、及び、したがって、その割り当てられた物体を識別させ、
- 前記センサによって測定された反射特性により、前記シーン内の前記識別された物体の距離、形状、深度、及び/又は表面情報を計算させる。
反射特性は、時間的要素、例えば反射光がセンサに戻るのに要する時間の量などの時間的要素、又は空間測定値、例えば放射された空間光パターンの測定歪み、すなわち、物体の表面に当たったときの光パターンの変形による測定歪みなどの空間測定値を含み得る。
本開示はさらに、1つ又は複数のプロセッサによって実行されるときに、マシーンに以下のことを行わせる命令を記憶する非一時的コンピュータ可読媒体に関する。
- 認識される物体であって、物体特有の反射スペクトルパターンと発光スペクトルパターンを有する物体を提供すること、
- 光源によって、前記認識される物体を含むシーンに少なくとも1つの光パターンを投影すること、
- 前記光源によって前記シーンが照射されたときに、センサによって前記物体を含む前記シーンの放射輝度データを測定すること、
- 適切に割り当てられたそれぞれの物体とともに発光スペクトルパターンを含むデータ記憶ユニットを提供すること、
- 前記シーンの前記放射輝度データから前記認識される物体の物体特有の発光スペクトルパターンを抽出すること、
- 前記抽出された物体特有の発光スペクトルパターンを、前記データ記憶ユニットに記憶されている発光スペクトルパターンとマッチングさせること、
- ベストマッチングする発光スペクトルパターン、及び、したがって、その割り当てられた物体を識別すること、
- 前記センサによって測定された反射特性により、前記シーン内の前記識別される物体の距離、形状、深度、及び/又は表面情報を計算すること。
本発明は、以下の実施例でさらに定義される。これらの実施例は、本発明の好ましい実施形態を示すことにより、説明のみのために与えられていることを理解されたい。上述の議論及び実施例から、当業者は、本発明の本質的な特徴を確認することができ、その精神及び範囲から逸脱することなく、本発明を様々な用途及び条件に適合させるために、本発明の様々な変更及び改変を行うことができる。
図1a及び図1bは、提案されたシステムの実施形態を概略的に示す。
図面の詳細な説明
図1a及び図1bは、提案されたシステムの実施形態を概略的に示している。図1aにおいて、システム100は、少なくとも1つの認識される物体130を含む。さらに、システムは、カメラ、特にマルチスペクトルカメラ又はハイパースペクトルカメラなどの画像化装置によって実現され得る2つのセンサ120及び121をそれぞれ含む。システム100は、さらに、光源110を含む。光源110は、異なる個別の発光体で構成され、その数及び性質は、使用される方法に依存する。光源110は、例えば、一般的に入手可能な2つの発光体、又は3つの発光体で構成されてよい。2つの発光体は、カスタムLED発光体として選択されることができる。3つの発光体は、一般的に入手可能な白熱電球、コンパクト蛍光灯、白色光LED電球であり得る。
図1aの光源110は、認識される物体130を含むシーン140に光パターンを投影するように構成されている。シーン140上に光源110によって投影される光パターンは、ここでは空間的光パターン、すなわちグリッドとして選択される。それは、シーン140内のいくつかの点のみが、したがって、認識される物体130のいくつかの点のみが、光源110によって放射された光に当てられることを意味する。
図1aに示されるセンサは、シーン140が光源110によって照射されたときに、物体130を含むシーン140の放射輝度データを測定するように、両方とも構成されている。異なるセンサを選択することが可能であり、すなわち、1つのセンサは放射された構造化光と同じ波長の光のみを測定するように構成される。したがって、周囲の照射条件の影響は最小限に抑えられ、センサは、センサ120、121に反射された光が戻ったときに、シーン140に導入された光の既知のジオメトリからの偏差を明確に測定することができ、したがって、ここに図示されていないデータ処理ユニットはこのような歪みを使用して、認識される物体130の距離、形状、深度及び/又は他の物体情報を計算することができる。このセンサ120,121によって使用される光の波長は、全光スペクトルのうちのUV、可視又は近赤外領域のどこでもよい。第2のセンサ120,121は、全光スペクトルにわたって、又は、物体130の蛍光スペクトルパターンを有する光スペクトルの少なくともその一部にわたって、物体130を含むシーン140の放射輝度データを測定するように構成されたマルチスペクトル又はハイパースペクトルカメラであってよい。このように、第2のセンサ120,121は、物体130の反射応答だけでなく、蛍光応答からも生じる物体130を含むシーン140の放射輝度データを測定するようにも構成されている。データ処理ユニットは、シーン140の放射輝度データから認識される物体130の物体特有の発光スペクトルパターンを抽出し、抽出された物体特有の発光スペクトルパターンをデータ記憶ユニット(ここでは図示せず)に記憶されている発光スペクトルパターンとマッチングさせ、ベストマッチングする発光スペクトルパターン、及び、したがって、その割り当てられた物体を特定するように構成されている。さらに、既に上述したように、データ処理ユニットは、物体130の表面に当たったときの反射光パターンの変形によって、シーン140における識別された物体130の距離、形状、深度及び/又は表面情報を計算するように構成されている。ここに示されるシステム100は、一方では構造化光を用いて、光源110から放射された光が当たったときの物体130の反射応答によって、物体130までの距離又は物体の形状などを計算する。他方では、提案されたシステム100は、認識される物体の物体130の蛍光放射成分と反射成分の分離を利用して、そのスペクトル特徴によって、すなわちその特有の蛍光スペクトルパターンによって、物体130を識別する。このように、提案されたシステム100は、両方の方法、すなわち、その物体特有の蛍光パターンによって物体130を識別する方法と、さらに、構造化光パターンの歪みによる光スペクトルの反射部分を用いて、その距離、形状及びその他の特性を識別する方法とを組み合わせている。データ処理ユニットとデータ記憶ユニットもシステム100の構成要素である。
図1bは、提案されたシステムの代替の実施形態を示している。システム100’は、図1bに示すようなドットマトリックスなどの既知のパターンで、UV、可視又は赤外光を放射するように構成された光源110’を備える。一般に、光源110’は、シーン140’に光のパルスを放射して、したがって、時間的光パターンを生成するか、シーン140’に部分的に光を放射して、空間的光パターンを生成するか、又はその2つの組み合わせを放射するかのように構成されることが可能である。パルス光と空間的に構造化された光の組み合わせは、例えば、ドットマトリックスプロジェクタ、LiDARなどによって放射されることができる。図1bに示されるシステム100’は、さらに、異なる波長範囲で、シーン140’にわたって放射輝度データ/応答を感知/記録するように構成されたセンサ120’を備えている。このことは、認識される物体130’を含むシーン140’の単に反射応答だけが記録されるのではなく、物体130’の蛍光応答も記録されることを意味する。システム100’は、さらに、データ処理ユニットとデータ記憶ユニットとを備えている。データ記憶ユニットは、複数の異なる物体の蛍光スペクトルパターンのデータベースを含んでいる。データ処理ユニットは、データ記憶ユニットと通信接続され、また、センサ120’とも通信接続されている。したがって、データ処理ユニットは、認識される物体130’の発光放射スペクトルを計算し、計算された発光放射スペクトルとのマッチングのためにデータ記憶ユニットのデータベースで検索することができる。このように、データベース内でマッチングするものが見つかれば、認識される物体の物体130’を識別することができる。さらに、光源110’から放射され、シーン140’に投影され、したがって認識される物体130’にも投影された構造化光を用いることにより、センサ120’に反射されて戻ってきた光パターンの測定歪みから、認識される物体130’に関するさらなる情報、例えば物体130’の距離、形状、表面情報などを導き出すことが可能である。つまり、認識される物体からの発光応答に許容するために3Dマッピングツールに一般的に使用されている光源110’を選択し、特定のスペクトル読み取りバンドを有するセンサ120’を利用することによって、提案されたシステム100’は、ベストマッチングのスペクトル発光材料だけでなく、物体130’までの距離又は物体の形状及び物体130’に関する他の3D情報を計算することができる。提案されたシステムは、発光色ベースの物体認識システムと3D空間マッピングツールを同時に使用することを可能にする。つまり、提案されたシステム100’は、シーン140’に投影された光の反射部分によって物体130‘の距離/形状/その他の特性を計算することに加えて、その物体特有の発光スペクトルなどのスペクトル特徴によって物体130’を識別することを可能にする。
さらに、光源が複数の異なる光パターンを次々と放射すること、又は複数の異なる光パターンを同時に放射することも可能であることは述べられるべきである。異なる光パターンを使用することにより、シーンのそれぞれの異なる反射応答、及びシーン内の物体から、物体の形状、深度、距離に関する詳細な情報を導出することが可能である。シーンに投影された複数の光パターンのそれぞれは、物体にその表面の異なる部分/領域で当たるため、各パターンは、それぞれの反射応答から導出される異なる情報を提供する。それらすべての反射応答を記録するセンサと通信接続されたデータ処理ユニットは、異なる光パターンに割り当てられたすべての異なる反射応答を統合することができ、そこから認識される物体の詳細な3D構造を計算することができる。要約すると、提案されたシステムは、物体特有の発光スペクトルパターンの測定により物体を識別することができ、センサまでの物体の距離に関する詳細な情報を提供することができ、さらに、センサに反射される光パターンの歪みによって物体の3D情報を提供することができる。物体のすべての表面部分に当てるために、異なる光のパターンを物体に投影することができるだけでなく、異なる波長範囲の光のパターンを物体に投影することもでき、したがって物体の表面の反射性質及び蛍光の性質に関するさらなる情報を提供することができる。
参照記号の一覧
100,100’ システム
110,110’ 光源
120,121,120’ センサ
130,130’ 認識される物体
140,140’ シーン

Claims (15)

  1. コンピュータビジョンアプリケーションを介した物体認識のためのシステムであって、少なくとも以下の構成要素:
    - 認識される物体(130、130’)であって、物体特有の反射スペクトルパターンと発光スペクトルパターンとを有する物体と、
    - 前記認識される物体を含むシーン(140、140’)に少なくとも1つの光パターンを投影するように構成された光源(110、110’)と、
    - 前記シーンが前記光源によって照射されたときに、前記物体を含む前記シーンの放射輝度データを測定するように構成されたセンサ(120、121、120’)と、
    - 適切に割り当てられたそれぞれの物体とともに発光スペクトルパターンを含むデータ記憶ユニットと、
    - データ処理ユニットであって、
    前記シーン(140、140’)の放射輝度データから前記認識される物体の物体特有の発光スペクトルパターンを検出し、前記検出された物体特有の発光スペクトルパターンを、前記データ記憶ユニットに記憶されている発光スペクトルパターンとマッチングさせて、ベストマッチングする発光スペクトルパターン、及び、したがって、その割り当てられた物体を識別し、
    前記センサ(120、121、120’)によって測定された反射特性により、前記シーン(140、140’)内の識別された物体(130、130’)の距離、形状、深度、及び/又は表面情報を計算するように、
    構成されたデータ処理ユニットと、
    を備える、システム。
  2. 前記少なくとも1つの光パターンが、時間的光パターン、空間的光パターン、又は時間的及び空間的光パターンである、請求項1に記載のシステム。
  3. 前記光源(110、110’)が空間的光パターン又は時間的及び空間的光パターンを前記シーンに投影するように構成されている場合、前記光パターンの空間的部分は、グリッドとして、水平、垂直及び/又は斜めのバーの配置として、ドットの配列として、又はそれらの組み合わせとして形成される、請求項2に記載のシステム。
  4. 前記光源(110、110’)が時間的光パターン又は時間的及び空間的光パターンを前記シーンに投影するように構成されている場合、前記光源は、単一のパルスで光を放射し、このように前記光パターンの時間的部分を提供するように構成されたパルス光源を含む、請求項2又は3に記載のシステム。
  5. 前記光源(110、110’)は、ドットマトリックスプロジェクタと飛行時間センサの1つとして選択される、請求項2~4のいずれか1項に記載のシステム。
  6. 前記センサ(120、121、120’)はハイパースペクトルカメラ又はマルチスペクトルカメラである、請求項1~5のいずれか1項に記載のシステム。
  7. 前記光源(110、110’)は、UV、可視光、及び/又は赤外光中の1つ又は複数のスペクトルバンドを、少なくとも1つの光パターンで同時に又は異なる時間に放射するように構成されている、請求項1~6のいずれか1項に記載のシステム。
  8. 前記認識される物体(130、130’)は予め定義された発光材料で提供され、得られる物体の発光スペクトルパターンは既知であり、タグとして用いられる、請求項1~7のいずれか1項に記載のシステム。
  9. 少なくとも前記識別された物体と、前記識別された物体の計算された距離、形状、深度及び/又は表面情報とを表示するように構成された表示ユニットをさらに備える、請求項1~8のいずれか1項に記載のシステム。
  10. コンピュータビジョンアプリケーションを介した物体認識のための方法であって、少なくとも以下のステップ:
    - 認識される物体であって、物体特有の反射スペクトルパターンと発光スペクトルパターンとを有する物体を提供するステップと、
    - 前記認識される物体を含むシーンに少なくとも1つの光パターンを投影するステップと、
    - 前記シーンが光源によって照射されたときに、前記物体を含む前記シーンの放射輝度データをセンサによって測定するステップと、
    - 適切に割り当てられたそれぞれの物体とともに発光スペクトルパターンを含むデータ記憶ユニットを提供するステップと、
    - 前記シーンの放射輝度データから前記認識される物体の物体特有の発光スペクトルパターンを検出し、前記検出された物体特有の発光スペクトルパターンを、前記データ記憶ユニットに記憶されている発光スペクトルパターンとマッチングさせ、ベストマッチングする発光スペクトルパターン、及び、したがって、その割り当てられた物体を識別し、前記センサによって測定された反射特性により、前記シーン内の前記識別された物体の距離、形状、深度、及び/又は表面情報を計算するようにプログラムされている、データ処理ユニットを提供するステップと、
    を含む、方法。
  11. 前記認識される物体を提供するステップは、前記物体に発光材料を提供し、したがって、前記物体に物体特有の発光スペクトルパターンを提供することを含む、請求項10に記載の方法。
  12. 表示装置を介して少なくとも前記識別された物体と、前記識別された物体の計算された距離、形状、深度及び/又は表面情報とを表示するステップをさらに含む、請求項10又は11に記載の方法。
  13. 前記マッチングステップは、評価される物体特有の発光スペクトルパターンと記憶された発光スペクトルパターンとの間の任意の数のマッチングアルゴリズムを使用することによって、ベストマッチングする発光スペクトルパターンを識別することを含む、請求項10~12のいずれか1項に記載の方法。
  14. 前記検出ステップは、測定された放射輝度データを用いて、多段階の最適化方法で、前記物体の発光スペクトルパターンと反射スペクトルパターンを推定することを含む、請求項10~13のいずれか1項に記載の方法。
  15. 1つ又は複数のプロセッサによって実行されるときに、マシーンに:
    - 認識される物体であって、物体特有の反射スペクトルパターンと発光スペクトルパターンとを有する物体を提供すること、
    - 光源によって、前記認識される物体を含むシーンに少なくとも1つの光パターンを投影すること、
    - 前記シーンが前記光源によって照射されたときに、前記物体を含む前記シーンの放射輝度データをセンサによって測定すること、
    - 適切に割り当てられたそれぞれの物体とともに発光スペクトルパターンを含むデータ記憶ユニットを提供すること、
    - 前記シーンの前記放射輝度データから前記認識される物体の物体特有の発光スペクトルパターンを抽出すること、
    - 前記抽出された物体特有の発光スペクトルパターンを、前記データ記憶ユニットに記憶されている発光スペクトルパターンとマッチングさせること、
    - ベストマッチングする発光スペクトルパターン、及び、したがって、その割り当てられた物体を識別すること、及び
    - 前記センサによって測定された反射特性により、前記シーン内の前記識別される物体の距離、形状、深度、及び/又は表面情報を計算すること、
    を行わせる命令を記憶する非一時的コンピュータ可読媒体。
JP2021572399A 2019-06-07 2020-06-05 コンピュータビジョンアプリケーションにおける3次元マッピングツールを用いた物体認識のためのシステム及び方法 Active JP7225435B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962858355P 2019-06-07 2019-06-07
US62/858,355 2019-06-07
EP19179172 2019-06-07
EP19179172.2 2019-06-07
PCT/EP2020/065748 WO2020245441A1 (en) 2019-06-07 2020-06-05 System and method for object recognition using three dimensional mapping tools in a computer vision application

Publications (2)

Publication Number Publication Date
JP2022536298A true JP2022536298A (ja) 2022-08-15
JP7225435B2 JP7225435B2 (ja) 2023-02-20

Family

ID=70977982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021572399A Active JP7225435B2 (ja) 2019-06-07 2020-06-05 コンピュータビジョンアプリケーションにおける3次元マッピングツールを用いた物体認識のためのシステム及び方法

Country Status (12)

Country Link
US (1) US20220319205A1 (ja)
EP (1) EP3980924A1 (ja)
JP (1) JP7225435B2 (ja)
KR (1) KR20220004735A (ja)
CN (1) CN113811885A (ja)
AU (1) AU2020286971A1 (ja)
BR (1) BR112021019029A2 (ja)
CA (1) CA3140186A1 (ja)
MX (1) MX2021014926A (ja)
SG (1) SG11202113366VA (ja)
TW (1) TW202113674A (ja)
WO (1) WO2020245441A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023180178A1 (en) 2022-03-23 2023-09-28 Basf Coatings Gmbh System and method for object recognition utilizing color identification and/or machine learning
US12118428B2 (en) 2022-08-25 2024-10-15 Omron Corporation Using distance sensor delta to determine when to enter presentation mode
US11960968B2 (en) * 2022-08-25 2024-04-16 Omron Corporation Scanning device utilizing separate light pattern sequences based on target distance
TWI821050B (zh) * 2022-11-28 2023-11-01 中國鋼鐵股份有限公司 泛用型遠端專家擴增實境協作系統

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9234618B1 (en) * 2012-09-27 2016-01-12 Google Inc. Characterizing optically reflective features via hyper-spectral sensor
JP2018514748A (ja) * 2015-02-06 2018-06-07 ザ ユニバーシティ オブ アクロンThe University of Akron 光学撮像システムおよびその方法
JP2019522787A (ja) * 2016-05-27 2019-08-15 ヴェリリー ライフ サイエンシズ エルエルシー 4dハイパースペクトル撮像のためのシステムおよび方法
JP2020526821A (ja) * 2017-07-12 2020-08-31 ガーディアン オプティカル テクノロジーズ リミテッドGuardian Optical Technologies Ltd. 統合撮像装置を使用しての視覚的データ、深さデータ、および微小振動データの抽出

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19858456A1 (de) * 1998-12-18 2000-07-06 Leica Microsystems Verfahren zum Auffinden, zur Aufnahme und gegebenenfalls zur Auswertung von Objektstrukturen
WO2004044557A2 (en) * 2002-11-12 2004-05-27 Argose, Inc. Non-invasive measurement of analytes
US20060118738A1 (en) * 2003-06-26 2006-06-08 Ncr Corporation Security markers for ascertaining navigational information
US9002113B2 (en) * 2006-03-01 2015-04-07 Green Vision Systems Ltd. Processing and analyzing hyper-spectral image data and information via dynamic database updating
US7995196B1 (en) * 2008-04-23 2011-08-09 Tracer Detection Technology Corp. Authentication method and system
US9117133B2 (en) * 2008-06-18 2015-08-25 Spectral Image, Inc. Systems and methods for hyperspectral imaging
US9448110B2 (en) * 2012-09-27 2016-09-20 Northrop Grumman Systems Corporation Three-dimensional hyperspectral imaging systems and methods using a light detection and ranging (LIDAR) focal plane array
EP3265819B1 (en) * 2015-03-06 2020-10-14 Micromass UK Limited Chemically guided ambient ionisation mass spectrometry
US11346949B2 (en) * 2015-10-19 2022-05-31 Skansense S.L.U. Obtaining data from targets using imagery and other remote sensing data
US10482340B2 (en) * 2016-12-06 2019-11-19 Samsung Electronics Co., Ltd. System and method for object recognition and ranging by deformation of projected shapes in a multimodal vision and sensing system for autonomous devices
US11067448B2 (en) * 2018-10-05 2021-07-20 Parsons Corporation Spectral object detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9234618B1 (en) * 2012-09-27 2016-01-12 Google Inc. Characterizing optically reflective features via hyper-spectral sensor
JP2018514748A (ja) * 2015-02-06 2018-06-07 ザ ユニバーシティ オブ アクロンThe University of Akron 光学撮像システムおよびその方法
JP2019522787A (ja) * 2016-05-27 2019-08-15 ヴェリリー ライフ サイエンシズ エルエルシー 4dハイパースペクトル撮像のためのシステムおよび方法
JP2020526821A (ja) * 2017-07-12 2020-08-31 ガーディアン オプティカル テクノロジーズ リミテッドGuardian Optical Technologies Ltd. 統合撮像装置を使用しての視覚的データ、深さデータ、および微小振動データの抽出

Also Published As

Publication number Publication date
EP3980924A1 (en) 2022-04-13
CA3140186A1 (en) 2020-12-10
WO2020245441A1 (en) 2020-12-10
KR20220004735A (ko) 2022-01-11
MX2021014926A (es) 2022-01-24
CN113811885A (zh) 2021-12-17
JP7225435B2 (ja) 2023-02-20
TW202113674A (zh) 2021-04-01
AU2020286971A1 (en) 2022-01-06
SG11202113366VA (en) 2021-12-30
BR112021019029A2 (pt) 2021-12-21
US20220319205A1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
JP7225435B2 (ja) コンピュータビジョンアプリケーションにおける3次元マッピングツールを用いた物体認識のためのシステム及び方法
US11295152B2 (en) Method and system for object recognition via a computer vision application
AU2020230852A1 (en) Method and system for object recognition via a computer vision application
JP7277615B2 (ja) 光の3dマッピングとモデリングを使用した物体認識システム及び方法
US20220319149A1 (en) System and method for object recognition under natural and/or artificial light
KR20220004739A (ko) 형광성 및 반사방지성 표면 구성들을 사용하는 객체 인식을 위한 시스템 및 방법
US20220307981A1 (en) Method and device for detecting a fluid by a computer vision application
US20220230340A1 (en) System and method for object recognition using 3d mapping and modeling of light

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230208

R150 Certificate of patent or registration of utility model

Ref document number: 7225435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150