JP7277615B2 - 光の3dマッピングとモデリングを使用した物体認識システム及び方法 - Google Patents
光の3dマッピングとモデリングを使用した物体認識システム及び方法 Download PDFInfo
- Publication number
- JP7277615B2 JP7277615B2 JP2021572405A JP2021572405A JP7277615B2 JP 7277615 B2 JP7277615 B2 JP 7277615B2 JP 2021572405 A JP2021572405 A JP 2021572405A JP 2021572405 A JP2021572405 A JP 2021572405A JP 7277615 B2 JP7277615 B2 JP 7277615B2
- Authority
- JP
- Japan
- Prior art keywords
- scene
- light
- radiance
- light source
- spectral
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/1434—Special illumination such as grating, reflections or deflections, e.g. for characters with relief
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/18124—Extraction of features or characteristics of the image related to illumination properties, e.g. according to a reflectance or lighting model
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
- 認識される少なくとも1つの物体であって、物体特有の反射スペクトルパターンと物体特有の発光スペクトルパターンとを有する、物体と、
- 周囲光条件下で少なくとも1つの物体を含むシーンを照射するように構成された少なくとも1つの光源であって、前記少なくとも1つの光源は、光源特有の放射輝度値を有している、光源と、
- 前記シーンが前記光源によって照射されたときに、前記少なくとも1つの物体を含む前記シーンの放射輝度データを測定するように構成されたセンサと、
- 前記シーンの少なくとも部分的な3Dマップをレンダリングしているシーンをマッピングするように構成されたシーンマッピングツールと、
- 適切に割り当てられたそれぞれの物体とともに発光スペクトルパターン及び/又は反射スペクトルパターンを含むデータ記憶ユニットと、
- 前記シーンマッピングツールから受信したデータを分析し、前記分析されたデータを前記光源特有の放射輝度値と統合し、それに基づいて、前記シーン内の点、特に前記少なくとも1つの物体上の点における入射光の放射輝度を計算し、前記シーン内の点の入射光の計算された放射輝度を、前記シーン内の点、特に前記少なくとも1つの物体上の点から前記センサに戻る光の測定された放射輝度と組み合わせ、前記シーン内の前記少なくとも1つの物体における光スペクトル分布及び強度のモデルを形成し、前記光スペクトル分布及び強度のモデルから前記認識される少なくとも1つの物体の物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを抽出/検出し、前記抽出/検出された物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを、前記データ記憶ユニットに記憶されている発光スペクトルパターン及び/又は反射スペクトルパターンとマッチングさせ、ベストマッチングする発光スペクトルパターン及び/又は反射スペクトルパターンを識別し、その後、その割り当てられた物体を識別するように構成された、データ処理ユニットと、を備え、
少なくとも前記センサ、前記シーンマッピングツール、前記データ記憶ユニット、及び前記データ処理ユニットは、互いに通信接続され、無線及び/又は有線を介して互いにリンクされ、デフォルトで前記光源と同期し、これにより、統合システムを形成している。
- 認識される少なくとも1つの物体を提供するステップであって、前記物体は、物体特有の反射スペクトルパターンと物体特有の発光スペクトルパターンとを有している、ステップと、
- 少なくとも1つの光源によって、周囲光条件下で前記少なくとも1つの物体を含むシーンを照射するステップであって、前記少なくとも1つの光源は、光源特有の放射輝度値を有している、ステップと、
- 前記シーンが前記光源によって照射されたときに、前記少なくとも1つの物体を含む前記シーンの放射輝度データをセンサによって測定する、ステップと、
- シーンマッピングツールを使用して、前記シーンの少なくとも部分的な3Dマップをレンダリングしているシーンをマッピングする、ステップと、
- 適切に割り当てられたそれぞれの物体とともに発光スペクトルパターン及び/又は反射スペクトルパターンを含むデータ記憶ユニットを提供するステップと、
- 前記シーンマッピングツールから受信したデータを分析し、前記分析したデータを前記光源特有の放射輝度値と統合して、前記シーン内の点、特に前記少なくとも1つの物体上の点における入射光の放射輝度を計算し、前記シーン内の点の入射光の前記計算された放射輝度を、前記シーン内の点、特に前記少なくとも1つの物体上の点から前記センサに戻る光の測定された放射輝度と組み合わせ、これにより、前記シーン内の前記少なくとも1つの物体における光スペクトル分布及び強度のモデルを形成し、前記光スペクトル分布及び強度のモデルから認識される前記少なくとも1つの物体の物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを抽出/検出し、前記抽出/検出された物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを、前記データ記憶ユニットに記憶されている発光スペクトルパターン及び/又は反射スペクトルパターンとマッチングさせ、ベストマッチングする発光スペクトルパターン及び/又は反射スペクトルパターンを識別し、その後、その割り当てられた物体を識別するようにプログラミングされた、データ処理ユニットを提供するステップと、を含み、
前記センサ、前記シーンマッピングツール、前記データ記憶ユニット、及び前記データ処理ユニットは、無線及び/又は有線を介して互いに通信接続され、デフォルトで前記光源と同期し、これにより、統合システムを形成している。
- シーンマッピングツールから受信したデータを分析すること、
- 前記分析したデータを光源特有の放射輝度データと統合させること、
- 前記統合されたデータに基づいて、シーン内の点、特に認識される少なくとも1つの物体の点の入射光の放射輝度を計算すること、
- 前記シーン内の点の入射光の計算された放射輝度を、前記シーン内の点、特に前記少なくとも1つの物体の点からセンサに戻る光の測定された放射輝度と組み合わせ、これにより、前記シーン内の前記少なくとも1つの物体における光スペクトル分布及び強度のモデルを形成すること、
- 前記光スペクトル分布及び強度のモデルから、前記認識される少なくとも1つの物体の物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを抽出すること、
- 前記抽出された前記物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを、前記データ記憶ユニットに記憶されている発光スペクトルパターン及び/又は反射スペクトルパターンとマッチングさせること、及び
- ベストマッチングする発光スペクトルパターン及び/又は反射スペクトルパターン、及び、したがって、その割り当てられた物体を識別すること、を行わせる。
- シーンマッピングツールから受信したデータを分析すること、
- 前記分析したデータを光源特有の放射輝度データと統合させること、
- 前記統合されたデータに基づいて、シーン内の点、特に認識される少なくとも1つの物体の点の入射光の放射輝度を計算すること、
- 前記シーン内の点の入射光の計算された放射輝度を、前記シーン内の点、特に前記少なくとも1つの物体の点からセンサに戻る光の測定された放射輝度と組み合わせ、これにより、前記シーン内の前記少なくとも1つの物体における光スペクトル分布及び強度のモデルを形成すること、
- 前記光スペクトル分布及び強度のモデルから、前記認識される少なくとも1つの物体の物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを抽出すること、
- 前記抽出された前記物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを、前記データ記憶ユニットに記憶されている発光スペクトルパターン及び/又は反射スペクトルパターンとマッチングさせること、及び
- ベストマッチングする発光スペクトルパターン及び/又は反射スペクトルパターン、及び、したがって、その割り当てられた物体を識別すること、を行わせる命令を記憶する非一時的なコンピュータ可読媒体にも関する。
図1は、コンピュータビジョンアプリケーションを介した物体認識のためのシステム100の一実施形態を示す。システム100は、認識される少なくとも1つの物体110を有する。物体110は、物体特有の反射スペクトルパターン及び物体特有の発光スペクトルパターンを有する。物体110はさらに、シーン130内に位置する。システム100は、第1光源121と第2光源122とをさらに有する。両方の光源は、好ましくは周囲光条件下で、少なくとも1つの物体110を含むシーン130を照射するように構成されている。システム100は、シーン130が光源121及び122のうちの少なくとも1つによって照射されたときに、少なくとも1つの物体110を含むシーン130の放射輝度データを測定するように構成されたセンサ140をさらに備えている。ここに示されている場合では、センサ140は、マルチスペクトルカメラ又はハイパースペクトルカメラである。システム100は、シーン130の少なくとも部分的な3Dマップをレンダリングしているシーン130をマッピングするように構成されているシーンマッピングツール150をさらに備えている。さらに示されるのは、適切に割り当てられたそれぞれの物体とともに、発光スペクトルパターン及び/又は反射スペクトルパターンを有するデータ記憶ユニット160である。システム100は、シーンマッピングツール150から受信したデータを分析し、分析されたデータを光源特有の放射パラメータ/値と統合し、シーン130内の点、特に物体110の点の入射光の放射輝度を計算するように構成されたデータ処理ユニット170をさらに備える。シーン130内の特定の点の入射光の放射輝度は、光強度の関数I(x,y,z)を介して定式化されることができ、ここで(x,y,z)はシーン130内の特定の点の空間座標を指定している。関数I(x,y,z)は、最も単純な場合には、特定の点(x,y,z)における第1光源121の光強度I1と第2光源122の光強度I2との重ね合わせによって与えられ得る:I(x,y,z)=I1(x,y,z)+I2(x,y,z)。シーン130内の点の入射光の計算された放射輝度は、シーン内の点、特に物体110の点からカメラ140に戻る光の測定された放射輝度と組み合わされる。このような計算された放射輝度及び測定された放射輝度の組み合わせに基づいて、シーン内の物体110における光スペクトル分布及び強度のモデルが形成される。データ処理ユニット170はさらに、光スペクトル分布及び強度のモデルから、物体110の物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを計算し、物体110の物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを、データ記憶ユニット160に記憶された発光スペクトルパターン及び/又は反射スペクトルパターンとマッチングさせるように構成されている。それにより、ベストマッチングの発光スペクトルパターン及び/又は反射スペクトルパターンを特定することができ、物体110は、このベストマッチングする発光スペクトルパターン及び/又は反射スペクトルパターンにデータベース内で割り当てられている物体として識別される。
110 物体
121,122 光源
130 シーン
131 机
132 椅子
140 センサ/カメラ
150 シーンマッピングツール
160 データ記憶ユニット/データベース
170 データ処理ユニット
Claims (14)
- コンピュータビジョンアプリケーションを介した物体認識のためのシステムであって、少なくとも以下の構成要素:
- 認識される少なくとも1つの物体(110)であって、物体特有の反射スペクトルパターンと物体特有の発光スペクトルパターンとを有する、物体(110)と、
- 周囲光条件下でシーン(130)を照射するように構成された少なくとも1つの光源(121、122)であって、前記シーン(130)は、少なくとも1つの物体(110)を含み、光源特有の放射輝度値を有している、光源(121、122)と、
- 前記シーン(130)が前記光源(121、122)によって照射されたときに、前記シーン(130)の放射輝度データを測定するように構成されたセンサ(140)と、
- 前記シーン(130)の少なくとも部分的な3Dマップをレンダリングしているシーン(130)をマッピングするように構成されたシーンマッピングツール(150)と、
- 適切に割り当てられたそれぞれの物体とともに発光スペクトルパターン及び/又は反射スペクトルパターンを含むデータ記憶ユニット(160)と、
- 前記シーンマッピングツール(150)から受信したデータを分析し、前記分析されたデータを前記光源特有の放射輝度値と統合し、それに基づいて、前記シーン(130)内の点、特に前記少なくとも1つの物体(110)における入射光の放射輝度を計算し、前記シーン(130)内の点の入射光の計算された放射輝度を、前記シーン(130)内の点、特に前記少なくとも1つの物体(110)から前記センサ(140)に戻る光の測定された放射輝度と組み合わせ、したがって、前記シーン(130)内の前記少なくとも1つの物体(110)における光スペクトル分布及び強度のモデルを形成し、前記光スペクトル分布及び強度のモデルから前記認識される少なくとも1つの物体の物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを抽出し、前記抽出された物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを、前記データ記憶ユニット(160)に記憶されている発光スペクトルパターン及び/又は反射スペクトルパターンとマッチングさせ、ベストマッチングする発光スペクトルパターン及び/又は反射スペクトルパターンを識別し、その後、その割り当てられた物体を識別するように構成された、データ処理ユニット(170)と、を備え、
少なくとも前記センサ(140)、前記シーンマッピングツール(150)、前記データ記憶ユニット(160)、及び前記データ処理ユニット(170)は、互いに通信接続され、無線及び/又は有線を介して互いにリンクされ、デフォルトで前記光源(121、122)と同期し、これにより、統合システムを形成している、システム。 - 光源特有の放射輝度値、特にシーン内の少なくとも1つの光源のスペクトル特性、パワー及び/又は放射角度プロファイルを使用し、及び前記少なくとも1つの光源(121、122)から前記シーン(130)内の前記少なくとも1つの物体(110)までの距離をマッピングすることによって、前記シーン(130)内の前記少なくとも1つの物体(110)における前記少なくとも1つの光源(121、122)の放射輝度を計算するように構成された、請求項1に記載のシステム。
- 前記光源(121、122)は、前記シーンマッピングツール(150)、前記データ記憶ユニット(160)、及び/又は前記データ処理ユニット(170)とリンクされている、請求項1又は2に記載のシステム。
- 前記センサ(140)は、マルチスペクトルカメラ又はハイパースペクトルカメラである、請求項1、2又は3のいずれか1項に記載のシステム。
- 前記シーンマッピングツール(150)は、飛行時間(TOF)、ステレオビジョン、構造化光、レーダー及び/又は超音波のうちの少なくとも1つに基づく技術を用いてシーンマッピングを実行するように構成されている、請求項1~4のいずれか1項に記載のシステム。
- 物理的な位置情報、コンパスの方位、時刻、及び/又は気象条件を使用して、前記シーン(130)内の前記少なくとも1つの物体(110)の照射に対する太陽放射の影響をモデル化するように構成されている、請求項1~5のいずれか1項に記載のシステム。
- 前記シーン(130)内の前記少なくとも1つの物体(110)の反射特性及び蛍光特性の情報を使用して、前記シーン(130)全体の反射光及び蛍光光の相互反射を考慮するために双方向反射分布関数(BRDF)及び双方向蛍光分布関数(BFDF)により、シーンの放射輝度マッピングを改善するように構成されている、請求項1~6のいずれか1項に記載のシステム。
- 前記シーン(130)内の少なくとも1つの点に配置された少なくとも1つの白色タイルをさらに備え、前記白色タイルは、前記シーン(130)内の少なくとも1つの点における前記光源(121、122)の放射輝度を測定するために使用されるように構成され、前記シーン(130)内の少なくとも1つの点における前記光源の測定された放射輝度は、前記シーン(130)内の他の点における放射輝度を推定するために、3Dマップ及び前記光源(121、122)の光出力プロファイルと共に使用される、請求項1~7のいずれか1項に記載のシステム。
- コンピュータビジョンアプリケーションを介した物体認識のための方法であって、少なくとも以下のステップ:
- 認識される少なくとも1つの物体を提供するステップであって、前記物体は、物体特有の反射スペクトルパターンと物体特有の発光スペクトルパターンとを有している、ステップと、
- 少なくとも1つの光源によって、周囲光条件下で前記少なくとも1つの物体を含むシーンを照射するステップであって、前記少なくとも1つの光源は、光源特有の放射輝度値を有している、ステップと、
- 前記シーンが前記光源によって照射されたときに、前記少なくとも1つの物体を含む前記シーンの放射輝度データをセンサによって測定する、ステップと、
- シーンマッピングツールを使用して、前記シーンの少なくとも部分的な3Dマップをレンダリングしているシーンをマッピングする、ステップと、
- 適切に割り当てられたそれぞれの物体とともに発光スペクトルパターン及び/又は反射スペクトルパターンを含むデータ記憶ユニットを提供するステップと、
- 前記シーンマッピングツールから受信したデータを分析し、前記分析したデータを前記光源特有の放射輝度値と統合して、前記シーン内の点、特に前記少なくとも1つの物体上の点における入射光の放射輝度を計算し、前記シーン内の点における入射光の前記計算された放射輝度を、前記シーン内の点、特に前記少なくとも1つの物体から前記センサに戻る光の測定された放射輝度と組み合わせ、これにより、前記シーン内の前記少なくとも1つの物体における光スペクトル分布及び強度のモデルを形成し、前記光スペクトル分布及び強度のモデルから認識される前記少なくとも1つの物体の物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを抽出し、前記抽出された物体特有の発光スペクトルパターン及び/又は反射スペクトルパターンを、前記データ記憶ユニットに記憶されている発光スペクトルパターン及び/又は反射スペクトルパターンとマッチングさせ、ベストマッチングする発光スペクトルパターン及び/又は反射スペクトルパターンを識別し、その後、その割り当てられた物体を識別するようにプログラミングされた、データ処理ユニットを提供するステップと、を含み、
前記センサ、前記シーンマッピングツール、前記データ記憶ユニット、及び前記データ処理ユニットは、無線及び/又は有線を介して互いに通信接続され、デフォルトで前記光源と同期し、これにより、統合システムを形成する、方法。 - シーンマッピングは、飛行時間(TOF)、ステレオビジョン、構造化光、レーダー及び/又は超音波のうちの少なくとも1つに基づく技術を用いて実行される、請求項9に記載の方法。
- 前記シーン内の前記少なくとも1つの物体における少なくとも1つの光源の放射輝度は、シーン内の少なくとも1つの光源のスペクトル特性、パワー及び/又は放射角度プロファイルを使用し、及び前記少なくとも1つの光源から前記シーン内の少なくとも1つの物体までの距離をマッピングすることによって計算される、請求項9又は10に記載の方法。
- 物理的な位置、コンパスの方位、時刻、及び/又は気象条件が、前記シーンの照射に対する太陽放射の影響をモデル化することに使用される、請求項9~11のいずれか1項に記載の方法。
- 前記シーン内の前記少なくとも1つの物体の反射特性及び蛍光特性の情報は、前記シーン全体の反射光及び蛍光光の相互反射を考慮するために双方向反射分布関数(BRDF)及び双方向蛍光分布関数(BFDF)を用いて、前記シーンの放射輝度マッピングを改善するように使用される、請求項9~12のいずれか1項に記載の方法。
- 前記光スペクトル分布と強度のモデルは分析され、2Dマップ上又は3Dビューとして表示され得る、請求項9~13のいずれか1項に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962858359P | 2019-06-07 | 2019-06-07 | |
US62/858,359 | 2019-06-07 | ||
EP19179186 | 2019-06-07 | ||
EP19179186.2 | 2019-06-07 | ||
PCT/EP2020/065751 WO2020245444A1 (en) | 2019-06-07 | 2020-06-05 | System and method for object recognition using 3d mapping and modeling of light |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022535888A JP2022535888A (ja) | 2022-08-10 |
JP7277615B2 true JP7277615B2 (ja) | 2023-05-19 |
Family
ID=70977985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021572405A Active JP7277615B2 (ja) | 2019-06-07 | 2020-06-05 | 光の3dマッピングとモデリングを使用した物体認識システム及び方法 |
Country Status (11)
Country | Link |
---|---|
EP (1) | EP3980925A1 (ja) |
JP (1) | JP7277615B2 (ja) |
KR (1) | KR20220004738A (ja) |
CN (1) | CN113811888A (ja) |
AU (1) | AU2020288708A1 (ja) |
BR (1) | BR112021019027A2 (ja) |
CA (1) | CA3140449A1 (ja) |
MX (1) | MX2021014833A (ja) |
SG (1) | SG11202113354UA (ja) |
TW (1) | TW202105330A (ja) |
WO (1) | WO2020245444A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023180178A1 (en) | 2022-03-23 | 2023-09-28 | Basf Coatings Gmbh | System and method for object recognition utilizing color identification and/or machine learning |
KR102649607B1 (ko) | 2023-08-28 | 2024-03-21 | (주)다울 | 3d 센서 기반 실시간 재고 파악 시스템 및 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006105822A (ja) | 2004-10-06 | 2006-04-20 | Canon Inc | 三次元画像処理システム及び三次元データ処理装置 |
JP2015132509A (ja) | 2014-01-10 | 2015-07-23 | 凸版印刷株式会社 | 画像データ取得システム及び画像データ取得方法 |
JP2018514748A (ja) | 2015-02-06 | 2018-06-07 | ザ ユニバーシティ オブ アクロンThe University of Akron | 光学撮像システムおよびその方法 |
JP2019522787A (ja) | 2016-05-27 | 2019-08-15 | ヴェリリー ライフ サイエンシズ エルエルシー | 4dハイパースペクトル撮像のためのシステムおよび方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9234618B1 (en) * | 2012-09-27 | 2016-01-12 | Google Inc. | Characterizing optically reflective features via hyper-spectral sensor |
US9912861B1 (en) * | 2016-03-02 | 2018-03-06 | Amazon Technologies, Inc. | Systems and methods for determining a depth or reflectance of objects |
-
2020
- 2020-06-05 MX MX2021014833A patent/MX2021014833A/es unknown
- 2020-06-05 CA CA3140449A patent/CA3140449A1/en active Pending
- 2020-06-05 JP JP2021572405A patent/JP7277615B2/ja active Active
- 2020-06-05 AU AU2020288708A patent/AU2020288708A1/en not_active Abandoned
- 2020-06-05 SG SG11202113354UA patent/SG11202113354UA/en unknown
- 2020-06-05 BR BR112021019027A patent/BR112021019027A2/pt unknown
- 2020-06-05 WO PCT/EP2020/065751 patent/WO2020245444A1/en active Application Filing
- 2020-06-05 TW TW109119102A patent/TW202105330A/zh unknown
- 2020-06-05 CN CN202080034862.XA patent/CN113811888A/zh active Pending
- 2020-06-05 KR KR1020217039557A patent/KR20220004738A/ko unknown
- 2020-06-05 EP EP20730650.7A patent/EP3980925A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006105822A (ja) | 2004-10-06 | 2006-04-20 | Canon Inc | 三次元画像処理システム及び三次元データ処理装置 |
JP2015132509A (ja) | 2014-01-10 | 2015-07-23 | 凸版印刷株式会社 | 画像データ取得システム及び画像データ取得方法 |
JP2018514748A (ja) | 2015-02-06 | 2018-06-07 | ザ ユニバーシティ オブ アクロンThe University of Akron | 光学撮像システムおよびその方法 |
JP2019522787A (ja) | 2016-05-27 | 2019-08-15 | ヴェリリー ライフ サイエンシズ エルエルシー | 4dハイパースペクトル撮像のためのシステムおよび方法 |
Also Published As
Publication number | Publication date |
---|---|
SG11202113354UA (en) | 2021-12-30 |
CA3140449A1 (en) | 2020-12-10 |
MX2021014833A (es) | 2022-01-18 |
TW202105330A (zh) | 2021-02-01 |
KR20220004738A (ko) | 2022-01-11 |
AU2020288708A1 (en) | 2022-01-06 |
JP2022535888A (ja) | 2022-08-10 |
EP3980925A1 (en) | 2022-04-13 |
WO2020245444A1 (en) | 2020-12-10 |
BR112021019027A2 (pt) | 2021-12-21 |
CN113811888A (zh) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7225435B2 (ja) | コンピュータビジョンアプリケーションにおける3次元マッピングツールを用いた物体認識のためのシステム及び方法 | |
US11295152B2 (en) | Method and system for object recognition via a computer vision application | |
JP7277615B2 (ja) | 光の3dマッピングとモデリングを使用した物体認識システム及び方法 | |
JP2022522822A (ja) | コンピュータビジョンアプリケーションを介する物体認識方法及びシステム | |
US20220319149A1 (en) | System and method for object recognition under natural and/or artificial light | |
US20220245842A1 (en) | System and method for object recognition using fluorescent and antireflective surface constructs | |
US20220230340A1 (en) | System and method for object recognition using 3d mapping and modeling of light | |
US20220307981A1 (en) | Method and device for detecting a fluid by a computer vision application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7277615 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |