JP7402898B2 - 物体認識システムのための少なくとも1つのグラウンドトゥルースデータベースを形成するための装置及び方法 - Google Patents

物体認識システムのための少なくとも1つのグラウンドトゥルースデータベースを形成するための装置及び方法 Download PDF

Info

Publication number
JP7402898B2
JP7402898B2 JP2021572402A JP2021572402A JP7402898B2 JP 7402898 B2 JP7402898 B2 JP 7402898B2 JP 2021572402 A JP2021572402 A JP 2021572402A JP 2021572402 A JP2021572402 A JP 2021572402A JP 7402898 B2 JP7402898 B2 JP 7402898B2
Authority
JP
Japan
Prior art keywords
fluorescence emission
database
spectral shape
emission amount
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021572402A
Other languages
English (en)
Other versions
JP2022535887A (ja
Inventor
エムレ クルトグル,ユヌス
イアン チルダース,マシュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BASF Coatings GmbH
Original Assignee
BASF Coatings GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BASF Coatings GmbH filed Critical BASF Coatings GmbH
Publication of JP2022535887A publication Critical patent/JP2022535887A/ja
Application granted granted Critical
Publication of JP7402898B2 publication Critical patent/JP7402898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10009Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1429Identifying or ignoring parts by sensing at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1914Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries, e.g. user dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Library & Information Science (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Toxicology (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Alarm Systems (AREA)

Description

本開示は、物体認識システムのための少なくとも1つのグラウンドトゥルースデータベースを形成し、少なくとも1つのグラウンドトゥルースデータベースを最新の状態に保つための装置及び方法に関する。
コンピュータビジョンは、幾つか挙げると、カメラ、LiDARやレーダーなどの距離センサ、構造化光やステレオビジョンに基づく深度カメラシステムなどのセンサを介して周囲の情報を収集できる電子機器の豊富な使用により、急速な発展を遂げている分野である。これらの電子機器は、コンピュータ処理ユニットによって処理され、その結果、人工知能及び/又はコンピュータ支援アルゴリズムを用いて環境やシーンの理解を深める生の画像データを提供する。この環境の理解を如何に深めるかについては多くの方法がある。一般的には、2D又は3Dの画像及び/又はマップが形成され、そして、これらの画像及び/又はマップはシーンとそのシーン内の物体の理解を深めるために分析される。コンピュータビジョンを改善するための1つの見込みは、シーン内の物体の化学的組成の成分を測定することである。2D又は3D画像として取得された環境内の物体の形状と外観は、環境の理解を深めるために使用されることができるが、これらの技術にはいくつかの欠点を有している。
コンピュータビジョン分野の課題の1つは、センサ、計算能力、ライトプローブなどの最小量の資源を用いて、高精度かつ低遅延で各シーン内の可能な限り多くの物体を識別できるようにすることにある。物体識別方法は、長年にわたって、リモートセンシング、物体識別、分類、認証又は認識と呼ばれてきた。本開示の範囲では、シーン内の物体を識別するコンピュータビジョンシステムの能力は、「物体認識」と呼ばれる。例えば、コンピュータによって写真を分析し、その写真の中のボールを識別/ラベル付けすることは、時にはボールの種類(バスケットボール、サッカーボール、野球ボール)、ブランド、状況などのさらなる情報を有するとしても、「物体認識」の用語に該当する。
一般に、コンピュータビジョンシステムで物体を認識するために利用される技術は、以下のように分類される。
技術1: 物理タグ(画像ベース):バーコード、QRコード(登録商標)、シリアルナンバー、テキスト、パターン、ホログラムなど。
技術2: 物理タグ(スキャン/密着ベース):視野角依存顔料、アップコンバージョン顔料、メタクロミクス、カラー(赤/緑)、発光材料。
技術3: 電子タグ(パッシブ):RFIDタグなど。電力なしで対象物体に取り付けられる装置であって、必ずしも見えなくてもよいが、他の周波数(例えば無線)で作動することができる。
技術4: 電子タグ(アクティブ):無線通信、光、無線、車両から車両、車両から任意のもの(X)など。種々の形で情報を発する対象物体上の電力駆動装置。
技術5: 特徴検出(画像ベース):画像の分析及び識別、すなわち、車について側面視で一定の距離にある2つの車輪;顔認識について2つの目と1つの鼻及び口(この順序で)など。これは、既知の幾何学形状/形に依存する。
技術6: ディープラーニング/CNNベース(画像ベース):車や顔などのラベル付けされた画像の多数の写真によってコンピュータをトレーニングし、該コンピュータが検出すべき特徴を決定し、対象物体が新しいエリアに存在するか予測する。識別すべき物体の各分類についてトレーニング手順を繰り返す必要がある。
技術7: 物体追跡方法:シーン内の物品を特定の順序に整理し、最初に順序付けられた物体にラベル付けする。その後に、既知の色/幾何学形状/3D座標でシーン内の物体を追跡する。物体がシーンから離れて再び入ってくる場合は、「認識」は失われる。
以下では、上述の技術のいくつかの欠点が示される。
技術1: 画像内の物体が遮蔽されている場合、又は物体の小さな部分だけが視界にある場合、バーコード、ロゴなどが読めない可能性がある。さらに、可撓性の物品上にあるバーコードなどは、歪む可能性があり、可視性を制限する。物体のすべての側面が、遠距離から見えるために、大きなバーコードを担持しなければならず、さもなければ、物体は近距離で正しい方向に向いている時のみ認識されるだけである。これは、例えば倉庫の棚上の物体のバーコードがスキャンされる場合に、問題となる。シーン全体にわたって操作する場合、技術1は、変化し得る周囲光に依存する。
技術2: アップコンバージョン顔料は、それらの低量子収率による低レベルの発光のため、視認距離に限界がある。そのため、強力なライトプローブが必要となる。また、それらは通常不透明で大きい粒子であるため、コーティングの選択肢が限られる。さらに、それらの使用を複雑にしているのは、蛍光と光反射に比べて、アップコンバージョン反応が遅いということである。幾つかの適用は、使用される化合物に依存するこの独特の反応時間を利用するが、これは、該センサ/物体システムの飛行距離時間が予め知られている場合にのみ、可能である。これはコンピュータビジョンアプリケーションではめったにないケースである。これらの理由から、偽造防止センサは、正確さのために、読み取りのためのカバーされた/暗い部分と、プローブとしてのクラス1又は2のレーザと、対象物体への固定された限られた距離とを有している。
同様に視野角依存の顔料システムは、近距離でのみ機能し、複数の角度で見る必要がある。また、視覚的に心地よい効果に関しては、色が均一ではない。正しい測定を行うためには、入射光のスペクトルが管理されなければならない。単一の画像/シーン内では、角度依存のカラーコーティングを施した物体は、サンプルの次元に沿って、カメラに見える色を複数有している。
色ベースの認識は、測定された色が周囲光条件に部分的に依存するため、困難である。したがって、シーンごとに基準サンプル及び/又は制御された光条件が必要となる。また、異なるセンサは、異なる色を識別する能力が異なり、また、センサの種類やメーカーによって異なり、センサごとに較正ファイルを必要とする。
周囲光下での発光ベースの認識は、物体の反射成分と発光成分が合計されるため、困難なタスクとなる。一般的に、発光ベースの認識は、代わりに、暗い測定条件と、発光材料の励起領域の先験的な(a priori)知識を利用し、それによって正しいライトプローブ/光源が使用され得る。
技術3: RFIDタグなどの電子タグは、回路、集電装置、アンテナを物品/対象物体に取り付ける必要があり、コストを増加させ、設計を複雑化させる。RFIDタグは存在するかどうかの情報を提供するが、シーンにわたって多数のセンサが使用されない限り、正確な位置情報を提供しない。
技術4: これらの能動的な手法では、対象物体を電源に接続する必要があり、サッカーボール、シャツ、又はパスタの箱などの単純な物品にはコストがかかりすぎて、したがって実用的ではない。
技術5: 遮蔽や異なる視野角などは容易に結果を変化させるため、予測精度は、画像の品質とシーン内でのカメラの位置に大きく依存する。ロゴタイプの画像は、シーン内の複数の場所に存在することができ(すなわち、ロゴがボール、Tシャツ、帽子、又はコーヒーカップに存在し得るなど)、物体認識は推論による。物体の視覚パラメータは、多大な労力をかけて数学パラメータに変換されなければならない。形状を変えることができる柔軟な物体は、それぞれの可能な形がデータベースに含まれなければならないため、問題である。似た形の物体が対象物体と誤認される可能性があるため、常に固有の曖昧さが存在する。
技術6: トレーニング用データセットの質が方法の成功を決定する。認識/分類される各物体のために、多数のトレーニング用画像が必要とされる。技術5についての遮蔽や柔軟な物体の形の制限が適用される。数千以上の画像によって材料の各分類についてトレーニングする必要がある。
技術7: この技術は、シーンがあらかじめ整理されている場合に有効であるが、これはほとんど現実的ではない。対象物体がシーンから離れたり、完全に遮蔽されたりすると、上記の他の技術と組み合わされていない限り、物体は認識されない。
分類の総数は、それぞれの最終使用ケースによって決定される必要精度に依存する。汎用システム及び一般的システムでは、より多くの分類を認識するために能力が必要であるが、3D位置がコンピュータビジョンシステム自体を使用することなく追跡し続けることが可能な他の動的データベースによって、このような分類のクラスタを用いて動的に更新され得る場合、各シーンで利用可能な分類数を最小化するために、3D位置に基づいて認識される物体をクラスタ化することが可能である。スマートホーム、コンピュータビジョンが可能とされた店舗、製造業、及び同様の管理された環境は、コンピュータビジョン技術以上に、必要とされる分類数を制限するためにこのような情報を提供することができる。
上記のような既存の技術の欠点の他に、言及すべきいくつかの課題がある。遠距離を見る能力、小さな物体を見る能力、又は物体を十分に詳細に見る能力は、すべて高解像度画像化システム、すなわち、高解像度カメラ、LiDAR、レーダーなどを必要とする。高解像度の必要性は、関連するセンサのコストを増加させ、処理すべきデータ量を増加させる。
自律走行やセキュリティのように瞬時に応答する必要があるアプリケーションでは、遅延はもう1つの重要な側面である。処理される必要があるデータ量は、エッジコンピューティング又はクラウドコンピューティングが該アプリケーションに適しているか否かを決定し、後者はデータ量が少ない場合にのみ可能である。エッジコンピューティングが重い処理に使用される場合、システムを作動させる装置は大型化し、使用の容易さ、したがって、実装を制限する。
認識/認証用途における発光材料の使用に関連する1つの課題は、それらの経時的な劣化、特に蛍光材料の経時的な劣化に関する懸念である。このような劣化には2つの潜在的に可能な結果がある:発光は時間の経過とともに減少し、又は、紫外線、水分、pH、温度変化などの環境条件にさらされると、スペクトル空間でシフトすることがある。このような環境条件に対するこのようなシステムの安定化は、UV吸収剤、酸化防止剤、カプセル化技術などで可能であるが、それぞれのこのようなアプローチに関連する限界がある。
このように、特に上述の欠点を考慮して、コンピュータビジョンアプリケーションの物体認識能力を向上させるのに適したシステム及び方法に対する要求が存在している。
したがって、本開示の目的は、物体認識システムのための少なくとも1つのグラウンドトゥルースデータベースを形成し、該少なくとも1つのグラウンドトゥルースデータベースを最新に保つための装置及び方法を提供するであった。
本開示は、独立請求項の特徴を有する装置及び方法を提供する。実施形態は、従属請求項ならびに明細書及び図面の対象である。
したがって、物体認識システムのための少なくとも1つのグラウンドトゥルースデータベースを形成し、該少なくとも1つのグラウンドトゥルースデータベースを最新の状態に保つための装置が提供され、該装置は少なくとも以下の構成要素:
a) 異なる物体の色空間位置/座標及び/又は反射スペクトル及び/又は発光スペクトルを記憶するように構成された少なくとも1つのデータ記憶ユニットと、
b) 前記データ記憶ユニットと通信するようにプログラムされたプロセッサであって、すなわち、前記プロセッサは、前記データ記憶ユニット及び前記物体認識システムと通信接続されており、前記プロセッサは、
- 通信インターフェースを介して、異なる物体の色空間位置/座標及び/又は反射スペクトル及び/又は発光スペクトルを受信し、
- 受信した各色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを、タグとして前記異なる物体の1つに割り当て、
- 前記色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを、前記色空間位置及び/又は反射スペクトル及び/又は発光スペクトルが割り当てられたそれぞれ異なる物体とともに、前記少なくとも1つのデータ記憶ユニットにそれぞれ記憶し、これにより、少なくとも1つのグラウンドトゥルースデータベースを形成し、
- ともに前記プロセッサに接続されている又はプロセッサに一体化されている、少なくとも1つのセンサ及び/又は人工知能ツールを使用することにより、トリガーイベント及び/又は認識イベントの発生に関して、前記異なる物体の少なくともいくつかを含むシーンを監視し、
- 前記トリガーイベント及び/又は認識イベントが発生した場合に、前記それぞれの少なくとも1つのデータベースに記憶されている前記色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを、前記少なくとも1つのグラウンドトゥルースデータベースのうち少なくとも1つにおいて、必要に応じて、動的に更新及び/又は補足し、
- 最新の前記色空間位置及び/又は前記反射スペクトル及び/又は前記発光スペクトルへの即時アクセスを提供する、
ようにプログラムされているプロセッサと、
を備える。
以下では、「トリガーイベント」及び「トリガー及び/又は認識イベント」という用語を同義的に使用する。
装置が、プロセッサと通信接続され、異なる物体の反射スペクトル及び/又は発光スペクトル及び/又は色空間位置を決定/測定するように構成された、分光光度計及び/又はカメラベースの測定装置などの測定装置をさらに備えることは可能である。カメラは、マルチスペクトルカメラ及び/又はハイパースペクトルカメラであってよい。測定装置は、物体認識システムの構成要素であってよい。
監視ステップに関して、装置は、少なくとも1つのセンサ、特に少なくとも1つの視覚センサ、特にカメラ、及び人工知能ツールをさらに備えていてよく、ともにプロセッサに通信接続されているか又はプロセッサに一体化されており、したがって、プロセッサが、センサ手段によってトリガーイベント及び/又は認識イベントを検出し、人工知能ツールによってトリガーイベント及び/又は認識イベントを識別することができる。人工知能ツールは、トリガーイベント及び/又は認識イベントを推定するために、センサ手段、すなわちカメラ、マイク、無線信号などの少なくとも1つのセンサからの入力を使用するようにトレーニング及び構成されている。したがって、プロセッサは、トリガー及び/又は認識イベントの直接的又は間接的な結果として、少なくとも1つのグラウンドトゥルースデータベースの少なくとも1つに追加又は少なくとも1つのグラウンドトゥルースデータベースの少なくとも1つから削除される少なくとも1つの物体を、通知するように構成されている。人工知能ツールは、トリガーイベント及び/又は認識イベント、又は以前にトレーニングされたそれらに関する少なくとも基本的な情報、及び結論のための規則を含むか、又はそれらへのアクセスを有し得る。人工知能ツール及び/又はセンサ手段は、プロセッサに一体化されることができる。人工知能ツールは、適宜トレーニングされたニューラルネットワークを介して実現することができる。
このようなトリガーイベント及び/又は認識イベントは、シーン内に位置する異なる物体の少なくともいくつかについての、新たに測定及び受信されたそれぞれの色空間位置/座標及び/又は反射スペクトル及び/又は発光スペクトルであってよく、したがって、それぞれの物体の小さくて連続的な変化もそれぞれの少なくとも1つのデータベースで追跡されることができる。さらなるトリガーイベントは、それぞれの新しい色空間座標及び/又は反射スペクトル及び/又は発光スペクトルと共にシーンに目に見えて入って来た新しい物体の発生であり得る。このような色空間座標及び/又は反射スペクトル及び/又は発光スペクトルは決定され、特に測定され、それぞれの物体に割り当てられる。さらなるトリガーイベントは、例えば、センサ手段によって受信された異なるデータセットの、人工知能ツールによる統合であってよい。センサ手段によって検出され得る他の任意のアクションはトリガーイベントとして定義されることができる。センサ手段として機能するそれぞれの受信ユニットによって受信されたクレジットカード取引、レシート、電子メール、テキストメッセージなども、少なくとも1つのグラウンドトゥルースデータベースの更新をトリガー/引き起こすことができ、したがって、それぞれのトリガーイベントとして機能する。それぞれに装備されたカメラなどの上記のセンサ手段によって使用可能にされたキッチン内で、食料品を開梱することは、例えば、プロセッサを誘起して、上記の人工知能ツールを使用して開梱動作をトリガーイベントとして認識させる。これは、次に、開梱されたアイテムを少なくとも1つのグラウンドトゥルースデータベースに追加するためのトリガーイベントとなる。アイテムをゴミ箱又はリサイクルボックスに捨てることは、同様に少なくとも1つのグラウンドトゥルースデータベースから削除するようにトリガーし、したがってそれぞれトリガーイベントとして機能する。食料品店のレシート/取引は、購入したアイテム(物体)を少なくとも1つのグラウンドトゥルースデータベースに直接追加することができる。新しい家庭用品のオンライン注文/確認メールは、そのアイテムを少なくとも1つのグラウンドトゥルースデータベースに追加するためのトリガーイベントとなり得る。カメラ(センサ手段として)によって使用可能にされたドアを通って入って来る、目に見える新しいアイテム(物体)は、プロセッサを誘起して入ったことを認識させ、そのアイテムを少なくとも1つのグラウンドトゥルースデータベースに追加させる。同様に、ドアを通って出るアイテム(物体)は、少なくとも1つのグラウンドトゥルースデータベースからそのアイテムを削除するようにトリガーする。スマートスピーカーなどのAI(人工知能)装置のリストに買い物リストアイテムが追加されると、そのアイテムは少なくとも1つのグラウンドデータベースに追加されることができ、すなわち、買い物リストアイテムの追加はトリガーイベントとなる。AI装置は、トリガーイベント及び/又は認識イベントを検出及び/又は識別するのに適したオールインワンデバイスとして機能する。
提案された装置は、表面化学/色ベースの物体認識システムのための少なくとも1つのグラウンドトゥルースデータベースを提供する。本発明は、コンピュータビジョンアプリケーションにおける、化学/色空間ベースの物体認識システムのためのグラウンドトゥルースデータベース形成における色の退色又はシフトに関する問題に対処するものである。発光又は色空間ベースの物体認識技術を利用すること、具体的には、各物体の元の色空間位置とその標準偏差だけでなく、劣化経路と関連する標準偏差を持つ周辺空間を含むように色空間の仕様を具体的に設計することにより、色空間又は対象物体のそれぞれのタグとして使用される反射/発光スペクトルを管理することが提案されている。さらに、提案された装置は、色/化学ベースの認識技術を利用したコンピュータビジョンシステムが、どのように認識性能を向上させるために、グラウンドトゥルースデータベースを動的に更新するために使用され得るかを説明している。
さらに、対象の品物(物体)認識における色のシフトを連続的に監視することによって、物体認識予測の精度を向上させるために対象物体の3D位置クラスタの使用を含むことも可能である。
本開示の範囲内では、「蛍光性」及び「発光性」という用語は同義的に使用される。「蛍光」及び「発光」という用語についても同様である。
さらなる一実施形態によれば、提案された装置は、少なくとも1つのグラウンドトゥルースデータベースとしてマスターデータベースとローカルデータベースとを提供するようにプログラムされたプロセッサを備え、該ローカルデータベースは、マスターデータベースと連携し、すなわち、マスターデータベースと通信接続されている。さらに、ローカルデータベースに記憶された色空間位置及び/又は反射スペクトル及び/又は発光スペクトルは、シーン内の異なる物体について再測定されたそれぞれの色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを物体認識システムから受信することによって、経時的に更新及び/又は補足され、したがって、それぞれの物体の小さくて連続的な変化が、少なくともローカルデータベースにおいて追跡される。
具体的には、ローカルデータベースは、シーン内又はクラウドサーバにローカルに記憶され、ローカルデータベースは、シーン内でローカルに使用される物体認識システムのみがアクセス可能である。マスターデータベースは、提案された装置によって形成されたグラウンドトゥルースデータベースのいずれかを使用するように予約した、すなわち、予約によってそれらのデータベースを使用することを許可された、すべての物体認識システムがアクセス可能である。
さらなる一実施形態によれば、本装置は、それぞれの物体の蛍光放射量及び/又は蛍光放射スペクトル形状の変化を監視することによって、それぞれの物体の小さくて連続的な変化を追跡するようにプログラムされたプロセッサを備えている。
本装置はさらに、物体がシーン内で新しい(新たにシーンに入った)ときに、マスターデータベースを使用して、物体の色空間位置及び/又は反射スペクトル及び/又は発光スペクトルによってローカルデータベースを補足するようにプログラムされたプロセッサをさらに備え、ローカルに使用されている物体認識システムによって測定されたその新しい物体の色空間位置及び/又は反射及び発光スペクトルは、マスターデータベースに記憶された物体の色空間位置及び/又は反射スペクトル及び/又は発光スペクトルとマッチングされ得る。
本装置は、事前に定義された時間間隔内に、又は多数の事前定義されたイベントの1つが発生したときに、シーン内の異なる物体に関してマスターデータベースとローカルデータベースを同期させるようにプログラムされたプロセッサをさらに備える。マスターデータベースは、設定された間隔で、又はマスターデータベースが更新又は改良されたとき、又はローカルデータベースが認識されない物体や新しい物体の購入検出などのトリガーイベントを経験したときなどの設定されていない間隔で、ローカルデータベースと同期することができる。
少なくともローカルデータベースを更新するためのさらなるトリガー及び/又は認識イベントは、「使用終了」認識イベントによって定義される。このような「使用終了」認識イベントは、それぞれのローカルデータベースからそれぞれの物体を速やかに削除することを生じさせ、ローカルデータベースの効率を高める。このような「使用終了」認識イベントは、リサイクル、廃棄、消費、又は認識されるべきそれぞれの物体に適した他の使用終了の定義として挙げられることができる。通常、割り当てられたタグを有する物体は、ローカルデータベースからのみ削除され、マスターデータベースに存続する。設計されたタグを有する物体をマスターデータベースから削除する理由の1つは、すべてのユーザがその物体を認識できないようにするためである。
さらに、それぞれのローカルデータベースに物体のレジストリをトリガーするために、開始認識イベントが、そのような開始認識イベントのいずれかが発生したときに、それに応じてそれぞれのローカルデータベースを更新するためのそれぞれのトリガー及び/又は認識イベントとして定義される。このような開始認識イベントとして、開梱、シーン又は(センサの)視界への進入、チェックアウトイベント(シーンからの退出)、製造品質管理、色マッチング測定などが挙げられる。例えば、ユーザ又は別の自動化されたシステムが、物体が最初に取得されたときに、ローカルデータベースに物体を追加することによって、その物体を「開始」することができる。同様に、物体の耐用年数の終了で廃棄されるときに、ローカルデータベースからそれを削除することにより、物体を「引退」させることができる。代替的又は追加的に、別のデータベースが、リサイクルボックス、ゴミ箱、又は効率的な処理のためリサイクル可能な廃棄物及び/又は種類の異なる廃棄物の分類/分離などの将来のタスクで使用される可能性のあるその他の物理的空間に捨てられた物体の色位置を追跡するために、形成されることができる。
本発明のさらなる実施形態によれば、マスターデータベースは、異なる物体のそれぞれについて、元の物体の色空間位置及び/又は反射スペクトル及び/又は発光スペクトルと、元の物体から経時した少なくとも1つの劣化/老朽化した物体の色空間位置及び/又は反射スペクトル及び/又は発光スペクトルとを含む。
物体には、様々な方法で、発光材料、特に蛍光材料を付与、すなわち備えることができる。蛍光材料は、スプレーコーティング、ディップコーティング、コイルコーティング、ロールツーロールコーティング及び他の方法などによって塗布されるコーティング中に分散されてよい。蛍光材料は、物体に印刷されてもよい。蛍光材料を物体に分散させ、押し出し、成形、又は鋳造してもよい。いくつかの材料および物体は、自然に蛍光を発するものがあり、提案されているシステム及び/又は方法で認識することができる。いくつかの生物学的材料(野菜、果物、バクテリア、組織、タンパク質など)は、蛍光を発するように遺伝子操作されている場合がある。いくつかの物体は、本明細書に記載されているいずれかの方法で蛍光タンパク質を添加することにより、蛍光にすることができる。異なる物体の色位置及び/又は反射スペクトル及び蛍光スペクトルは、少なくとも1つのカメラ及び/又は少なくとも1つの分光光度計又はそれらの組み合わせによって測定され、少なくとも1つのグラウンドトゥルースデータベースを形成するためにプロセッサに提供されることができる。
多くの蛍光材料及び反射材料が、光(特に紫外線)又は酸素にさらされることにより、時間の経過とともに劣化する。これらの材料のほとんどは、その蛍光放射量が減少するが、一部の材料は、その蛍光放射スペクトルの形状、すなわち蛍光スペクトルに変化が生じる場合がある。第1のケースでは、より少量の蛍光放射量を測定することの難しさに加えて、劣化速度の異なる複数の蛍光材料がシーンに存在する場合、データベース内の既知の蛍光スペクトルとのマッチングが困難になり得る。第2のケースでは、変化した蛍光スペクトルを元のスペクトルのデータベースにマッチングさせる問題は明らかである。そこで、マスターデータベースは、元の物体ごとに、元の物体から経時した少なくとも1つの劣化/老朽化した少なくとも物体の色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを含むことが提案される。
本発明は、マスターデータベースと連携した(通信接続した)ローカルデータベースを含むことを提案している。シーン内の新しい物体は、その物体のスペクトルが劣化していないことを前提として、最初に、マスターデータベースで分類される。一度検出されると、物体は、将来におけるより迅速な識別のためにローカルデータベースに含まれ得る。さらに、物体認識システムによって測定された物体のスペクトルは、時間の経過とともに更新されるため、物体の小さくて連続した変化がローカルデータベースで追跡される。物体の耐用年数の終了時(使用終了認識イベント)において、物体は、現在の放射スペクトルがマスターデータベース内の他の物体の元の放射スペクトルと(それまでの間に)よりよくマッチングしているにもかかわらず、ローカルデータベースによって正しく識別されることができる。
物体は常にセンサの視界にある必要はない。例えば、センサは初めて物体が識別されるキッチンのパントリーに設置されていてよい。物体は、一定期間(つまり、夕食の準備期間)除かれた後、戻されてよい。物体はセンサの視界から外れている間もローカルデータベースから削除されず、そのため、戻された時に認識される。物体は、事前に定義された期間、シーンに存在しない場合(センサの視界外)にのみローカルデータベースから削除される。そのような期間は、通常の習慣に関して定義されることができる。
ローカルデータベースは、ローカルに記憶されている必要はなく、クラウドベースであってもよいが、ローカルシーン、すなわちローカルで使用されている物体認識システムのみがアクセスできることを注意されたい。様々な場所/エリアに複数のローカルデータベースが存在してよく、これらのローカルデータベースはいくつかのケースでは重複してよい。
上述したように、提案された装置の別の可能な実施形態は、マスターデータベースがそれぞれの物体の老朽化した/含まれるサンプルを含むことである。マスターデータベースは、最初に、それぞれの物体の元のサンプルにマッチングする。しかし、時間が経過すると、マスターデータベースは、観察された物体のおおよその年数である老朽化/劣化したサンプルとの比較を行う。そのため、ローカルデータベースとマスターデータベースとの間の交換が必要となる。
プロセッサとデータ記憶ユニットの間、プロセッサと物体認識システムの間、プロセッサと測定装置の間、プロセッサとセンサ手段の間、ローカルデータベースとマスターデータベースの間などの上述した構成要素のいずれかの間の各通信接続は、有線接続又は無線接続であってよい。それぞれの適切な通信技術を使用することができる。ローカルデータベースやマスターデータベースなどのそれぞれの構成要素は、それぞれ、互いに通信するための1つ以上の通信インターフェースを含んでよい。このような通信は、ファイバ分散データインタフェース(FDDI)、デジタル加入者線(DSL)、イーサネット、非同期転送モード(ATM)などの有線データ伝送プロトコル、又はその他の有線伝送プロトコルを用いて実行されてよい。あるいは、通信は、汎用パケット無線サービス(GPRS)、ユニバーサル移動体通信システム(UMTS)、符号分割多元接続(CDMA)、長期的進化(Long Term Evolution(LTE))、ワイヤレスユニバーサルシリアルバス(USB)などのさまざまなプロトコル、及び/又はその他の無線プロトコルのいずれかを使用して、無線通信ネットワークを介して無線であってもよい。それぞれの通信は、無線通信及び有線通信を組み合わせたものであってよい。
シーンで観測されたスペクトルと、ローカルデータベース及び/又はマスターデータベースのスペクトルとの間のこのようなマッチングアルゴリズムを実現するために、信頼閾値と誤差閾値が必要である。例えば、シーンで観測されたスペクトルと、ローカルデータベース及び/又はマスターデータベースのスペクトルとの間のマッチングは、測定されたスペクトルに関連する物体の識別を可能にするために、信頼閾値を満たしていなければならない。しかし、1つかつ同じ物体について、測定/観測されたスペクトルと、割り当て/記憶されたスペクトルとの間には、まだなんらかの誤差がある可能性がある。この誤差が誤差閾値よりも大きい場合は、ローカルデータベース及び/又はマスターデータベースのスペクトルを更新する必要がある場合がある。
また、ユーザにプロセッサと結合されたユーザインターフェースを介して、(ローカルデータベース及び/又はマスターデータベースのいずれかで)可能な物体認識/識別から選択するように求めることによって、他の改良が装置に加えられてもよい。ユーザインターフェースは、入力及び出力装置、例えば、グラフィカルユーザインターフェース又は音響インターフェースによって実現されてよい。それぞれの問い合わせを表示するためのディスプレイがあってよい。あるいは、ラウドスピーカーが、ユーザがそこから可能な識別の1つ以上を選択するように求められる任意のセレクションを出力することができる。それぞれのユーザの入力は、GUI及び/又はマイクロフォンを介して実現されることができる。ユーザからのフィードバックは、データベース内、特にローカルデータベース内における将来の識別の精度を向上させるために使用される。あるいは、装置は、ユーザインターフェースを介して、特定の選択された識別が正しいかどうかをユーザに尋ね、そのフィードバックを使用してローカルデータベースでの将来の識別の向上させることができる。
本開示はさらに、物体認識システムのための少なくとも1つのグラウンドトゥルースデータベースを形成し、該少なくとも1つのグラウンドトゥルースデータベースを最新の状態に保つための、コンピュータで実行される方法に言及しており、該方法は少なくとも以下のステップ:
- 通信インターフェースを介して、異なる物体の色空間位置/座標及び/又は反射スペクトル及び/又は発光スペクトルを、例えば少なくとも1つの分光光度計を使用して、提供するステップと、
- プロセッサによって、各色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを、タグとして前記異なる物体の1つに割り当てるステップと、
- 前記プロセッサによって、前記色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを、前記色空間位置及び/又は反射スペクトル及び/又は発光スペクトルが割り当てられたそれぞれの異なる物体とともに、データ記憶ユニットにそれぞれ記憶し、これにより、少なくとも1つのグラウンドトゥルースデータベースを形成するステップと、
- ともに前記プロセッサに通信接続されている少なくとも1つのセンサ及び/又は人工知能ツールを使用することによって、トリガーイベント及び/又は認識イベントの発生に関して、異なる物体の少なくともいくつかを含むシーンを監視するステップと、
- 前記プロセッサによって、必要に応じて動的に、前記少なくとも1つのデータベースのうち少なくとも1つにおいて、前記トリガーイベント及び/又は認識イベントが発生した場合に、前記少なくとも1つのデータベースに記憶されている色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを更新及び/又は補足し、これにより、前記少なくとも1つのデータベース内の少なくとも1つにあるそれぞれの物体の小さな連続した変化を追跡するステップと、
- 最新の色空間位置及び/又は反射スペクトル及び/又は発光スペクトルへの即時アクセスを提供するステップと、
を含む。
提案された方法は、少なくとも1つの分光光度計を使用することによって、異なる物体の色空間位置/座標及び/又は反射スペクトル及び/又は発光スペクトルを測定するステップをさらに含んでよい。少なくとも1つの分光光度計は、物体認識システムの構成要素であってよい。さらに、提案される方法は、異なる物体にそれぞれ蛍光材料を提供するステップを含んでよい。
トリガーイベント及び認識イベントは、シーンに目に見えて入ってくる1つ以上の新しい物体によって、及び/又は、物体認識システムによって再測定された、シーン内に位置する1つ以上の異なる物体の変化されたそれぞれの色空間位置及び/又はスペクトルによって実現されることができる。
監視ステップでは、センサ手段、特にカメラ、及び人工知能ツールが提供されてよく、該センサ手段及び人工知能ツールの両方は、プロセッサと通信可能に接続されているか、又はプロセッサと一体化され、これにより、プロセッサが、センサ手段によってトリガーイベントを検出し、及び、それぞれの人工知能ツールによってトリガーイベントを識別することができる。人工知能ツールは、カメラ、マイク、無線信号などのセンサ手段からの入力を使用して、トリガーイベント及び/又は認識イベントを推定するようにトレーニング及び構成されている。したがって、プロセッサは、トリガー及び/又は認識イベントの直接的又は間接的な結果として、少なくとも1つのグラウンドトゥルースデータベースの少なくとも1つに追加又は少なくとも1つのグラウンドトゥルースデータベースの少なくとも1つから削除される少なくとも1つの物体をアナウンスするように構成される。人工知能ツールは、トリガーイベント及び/又は認識イベント、又は以前にトレーニングされたそれらに関する少なくとも基本的な情報及び結論のためのルールを含むか、又はアクセスを有している。人工知能ツール及び/又はセンサ手段は、プロセッサに一体化されることができる。人工知能ツールは、適宜トレーニングされたニューラルネットワークを介して実現されることができる。
提案された方法の一実施形態によれば、本方法は、少なくとも1つのグラウンドトゥルースデータベースとして、マスターデータベースとローカルデータベースを提供することをさらに含み、該ローカルデータベースは、マスターデータベースと連携している(通信接続されている)。ローカルデータベースに記憶された色空間位置及び/又は反射スペクトル及び/又は発光スペクトルは、物体認識システムによって、シーン内の異なる物体のそれぞれの色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを再測定することによって、又はシーンに入る新しい物体についてシーンを監視することによって、又はさらなるトリガーイベント及び/又は認識イベントの発生を認識することによって、経時的に更新及び/又は補足され、したがって、シーンの小さくて連続的な変化が少なくともローカルデータベースにおいて追跡される。
ローカルデータベースは、シーン内にローカルに又はクラウドサーバに記憶されてよく、該ローカルデータベースは、シーン内でローカルに使用される物体認識システムのみがアクセスすることができる。
提案された方法のさらなる実施形態によれば、それぞれの物体の小さくて連続的な変化は、それぞれの物体の蛍光放射量/振幅及び/又は蛍光放射スペクトルの形状の変化を監視することにより追跡される。
ローカルデータベースは、物体がシーン内で新しいときに、マスターデータベースを使用することによって、物体の色空間位置及び/又は反射スペクトル及び/又は発光スペクトルによって補足され得、ローカルで使用される物体認識システムによって測定された新しい物体の色空間位置及び/又は反射スペクトル及び/又は発光スペクトルは、マスターデータベースに記憶されている物体の色空間位置及び/又は反射スペクトル及び/又は発光スペクトルとマッチングさせることができる。
マスターデータベースとローカルデータベースは、事前に定義された時間間隔内で、又はいくつかの事前定義されたイベントのうち少なくとも1つが発生したときに、シーン内の異なる物体に関して同期される。このような更新のための時間間隔は、物体に応じて、数時間、数日、数週間、数ヶ月とすることができる。
マスターデータベースは、異なる物体のそれぞれについて、元の物体の色空間位置及び/又は反射スペクトル及び/又は発光スペクトルと、元の物体から経時した少なくとも1つの劣化/老朽化した物体の色空間位置及び/又は反射スペクトル及び/又は発光スペクトルとを含む。
本開示はさらに、1つ以上のプロセッサによって実行されるときに、マシーンに:
- 通信インターフェースを介して、異なる物体の色空間位置/座標及び/又は反射スペクトル及び/又は発光スペクトルを受信し、
- 前記色空間位置及び/又は反射スペクトル及び/又は発光スペクトルをそれぞれ、タグとして異なる物体の1つに割り当て、
- 前記色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを、前記色空間位置及び/又は反射スペクトル及び/又は発光スペクトルが割り当てられたそれぞれの異なる物体とともに、データ記憶ユニットにそれぞれ記憶し、これにより、少なくとも1つのグラウンドトゥルースデータベースを形成し、
- 少なくとも1つのセンサ及び/又は人工知能ツールを使用することによって、トリガーイベント及び/又は認識イベントの発生に関して、異なる物体の少なくともいくつかを含むシーンを監視し、
- 必要に応じて動的に、前記少なくとも1つのデータベースのうち少なくとも1つにおいて、前記トリガーイベント及び/又は認識イベントが発生した場合に、前記少なくとも1つのデータベースに記憶されている前記色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを更新及び/又は補足し、これにより、少なくとも1つのデータベースの少なくとも1つにおいて前記シーン内の小さな連続した変化を追跡し、
- 最新の色位置及び/又は反射スペクトル及び/又は発光スペクトルへの即時アクセスを提供する、ことを行わせる命令を記憶する非一時的なコンピュータ可読媒体に言及する。
このようなトリガーイベント及び/又は認識イベントは、シーンに目に見えて入る新しい物体によって、及び/又はシーン内に位置する異なる物体のそれぞれの再測定された色位置及び/又はスペクトルを受信することによって与えられることができる。
さらに、1つ以上のプロセッサによって実行可能な命令を有するそれぞれのコンピュータプログラム製品が提供され、その命令は、マシーンに上述の方法ステップを実行させる。
プロセッサは、タッチスクリーン、音声入力、動作入力、マウス、キーパッド入力などの1つ以上の入力ユニットを含むか、又はそれらと接続され、すなわち通信接続されてよい。さらに、プロセッサは、音声出力、ビデオ出力、スクリーン/ディスプレイ出力などの1つ以上の出力ユニットを含むか、又はそれらと通信接続されてよい。
本発明の実施形態は、独立型ユニットであり得るか、又は例えばクラウドに設置された中央コンピュータと例えばインターネットもしくはイントラネットなどのネットワークを介して通信する1つ以上の遠隔端末又は装置を含むコンピュータシステムと共に使用されるか、又はコンピュータシステムに組み込まれ得る。このように、本明細書に記載されているデータ処理ユニット/プロセッサ及び関連構成要素は、ローカルコンピュータシステム又はリモートコンピュータ又はオンラインシステムの一部であってよく、又はそれらの組み合わせであってもよい。データベース、すなわち本明細書に記載されているデータ記憶ユニット及びソフトウェアは、コンピュータの内部メモリに記憶されていてよく、又は非一時的なコンピュータ可読媒体に記憶されていてよい。
本発明は、以下の実施例でさらに定義される。これらの実施例は、本発明の好ましい実施形態を示すことにより、説明のみのために与えられていることを理解されたい。上述の議論及び実施例から、当業者は、本発明の本質的な特徴を確認することができ、その精神及び範囲から逸脱することなく、本発明を様々な用途及び条件に適合させるために、本発明の様々な変更及び改変を行うことができる。
提案される装置及び/又は提案された方法の一実施形態を使用して形成及び更新される少なくとも1つのグラウンドトゥルースデータベースを使用する物体認識の方法のフローチャートを概略的に示す図である。 提案されるコンピュータ可読媒体の一実施形態の命令のフローチャートを概略的に示す図である。
図面の詳細な説明
図1は、本開示によって提案される方法の一実施形態を使用して形成され、最新の状態に保たれるグラウンドトゥルースデータベースを使用して、シーン内の物体を物体認識システムによって認識する方法のフローチャートを概略的に示している。
ここで説明する例では、物体認識システムが提供され、該物体認識システムは、シーン内に存在する物体の反射スペクトル及び/又は発光スペクトルを、例えば分光光度計などのセンサを介して感知/測定することによって、及び、測定された蛍光スペクトルを用いて、物体認識システムによってアクセス可能なそれぞれのグラウンドトゥルースデータベースにタグとして特定の蛍光スペクトルが記憶されている特定の物体を識別することによって、シーン内の物体を認識するために使用される。
シーン内の物体を認識するために使用される物体認識システムは、データ記憶ユニットに記憶された少なくともローカルデータベースへのアクセスを有し、ローカルデータベースは、それぞれのシーン内でローカルに位置する、又は位置された物体の蛍光スペクトルを記憶している。このようなローカルデータベースの他に、データ記憶ユニットは、ローカルデータベースと通信接続され、ローカルに測定された物体だけではない蛍光スペクトルを記憶するマスターデータベースをホストすることもできる。したがって、マスターデータベースには、シーン内で物体をローカルに認識するためにローカルに使用される物体認識システムのみではない物体認識システムがアクセスすることができる。マスターデータベースは、ローカルデータベースを記憶するデータ記憶ユニットと通信接続された、さらなるデータ記憶ユニットに記憶されることもできる。
ローカルデータベースを記憶するデータ記憶ユニット、及びマスターデータベースを記憶するデータ記憶ユニットは、単独の独立型サーバ及び/又はクラウドサーバによって実現されることができる。ローカルデータベースとマスターデータベースの両方はクラウド上に記憶されることができる。
物体認識システムのためのローカルデータベース及びマスターデータベースを形成し、ローカルデータベース及びマスターデータベースを最新の状態に保つための提案された装置は、既に述べた少なくとも1つのデータ記憶ユニットの他に、データ記憶ユニット及び物体認識システムとの通信のためにプログラムされたプロセッサを備えている。前記プロセッサは:
- 通信インターフェースを介して、異なる物体の色空間位置/座標及び/又は反射スペクトル及び/又は発光スペクトルを受信し、
- 前記色空間位置及び/又は反射スペクトル及び/又は発光スペクトルをそれぞれ、タグとして異なる物体の1つに割り当て、
- 前記色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを、前記色空間位置及び/又は反射スペクトル及び/又は発光スペクトルが割り当てられたそれぞれの異なる物体とともに、データ記憶ユニットにそれぞれ記憶し、これにより、少なくとも1つのグラウンドトゥルースデータベース、すなわちローカルデータベース及び/又はマスターデータベースを形成し、
- 少なくとも1つのセンサ及び/又は人工知能ツールを使用することによって、トリガーイベント及び/又は認識イベントの発生に関して、異なる物体の少なくともいくつかを含むシーンを監視し、
- 前記トリガーイベント及び/又は認識イベントについて、前記シーンを連続的に監視することによって、前記ローカルデータベース及び前記マスターデータベースの少なくとも1つにおいて、前記色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを動的に更新及び/又は補足し、これにより、それぞれのデータベース内で前記シーンの小さくて連続した変化を追跡する、
ようにプログラムされている。
このような方法ステップは、図2に示すような命令を含む提案された非一時的なコンピュータ可読媒体の実施形態が使用/ロードされたときに、プロセッサによって実行されることができる。
トリガーイベント及び/又は認識イベントは、シーンに入り、したがって、シーン内の新しい反射スペクトル及び/又は発光スペクトルの測定を誘発/開始する新しい物体であり得る。更なるトリガー及び/又は認識イベントは、シーン内に既に存在しているが経時的に劣化した物体の新たに測定された色空間位置及び/又は反射スペクトル及び/又は発光スペクトルを受信することによって与えられ得る。
ステップ101では、反射スペクトル及び蛍光スペクトルが、シーン内の物体を認識するためにローカルで使用される物体認識システムによって、感知/測定される。物体認識システムは、例えば、認識/識別される物体の特定の蛍光スペクトルを提供する。したがって、これまでにシーン内で特定されたすべての物体の蛍光スペクトルを記憶しているローカルデータベースが、マッチングする蛍光スペクトルについて検索される。方法ステップ102でマッチングするものが見つかった場合、識別された蛍光スペクトルが記憶されている蛍光スペクトルから逸脱しているが、それでも測定された蛍光スペクトルに基づいて識別を可能にするための信頼閾値を依然として満たしているために、ローカルデータベースで見つかったスペクトルを更新する必要があるかどうかがさらに検討される。通常、ローカルデータベースを実装するためには、信頼閾値と誤差閾値が必要である。例えば、シーン内で観察された蛍光スペクトルと、ローカルデータベース内の蛍光スペクトルとの間のマッチングは、識別を可能にするために信頼閾値を満たさなければならない。しかし、観測された蛍光スペクトルと割り当てられた蛍光スペクトルの間には、それでもなんらかの誤差が存在し得る。この誤差が矢印103で示される誤差閾値よりも大きい場合、ステップ104でローカルデータベースに記憶された蛍光スペクトルが更新される。ステップ105において、観測された蛍光スペクトルとローカルデータベースに記憶された蛍光スペクトルが誤差閾値を満たしていると示された場合、ステップ106において、ローカルデータベースを更新することなく、物体が識別される。測定された蛍光スペクトルについて、ステップ107において、ローカルデータベースにマッチングする結果が見つからない場合、マスターデータベースは、感知/測定された蛍光スペクトルにマッチングする蛍光スペクトルについて、ステップ108で検索される。ステップ109でマスターデータベースでマッチングするものが見つかった場合、ステップ110で物体が識別され、識別された物体のマッチングする蛍光スペクトルは、その割り当てられた物体とともにローカルデータベースに追加され、それぞれの物体が現在シーンに位置していることを示し、したがって、それぞれのシーンに割り当て可能なローカルデータベースが適切に更新される。ステップ111でマスターデータベースでマッチングするものが見つからない場合は、ステップ112でマッチングするものが検出されないことが示され、物体が認識できない。
さらに、ディスプレイなどの出力ユニットを介して、可能性のある物体のセレクションを出力し、ユーザに、タッチスクリーンなどのユーザインターフェースを介して、ローカルデータベース又はマスターデータベースのいずれかにおいて可能な物体識別のこのようなセレクションから選択するよう求め、ユーザのフィードバックを使用してローカルデータベース内の将来の識別の精度を向上させることも可能である。つまり、物体認識システムは、ユーザのフィードバックによって動的にトレーニングされ、その結果、予測が動的に改善される。通信インターフェースを介してユーザに識別が正しいかどうかを尋ね、そのフィードバックをローカルデータベース内の将来の識別を改善するために使用することも可能である。さらに、ローカルデータベースにもマスターデータベースにもマッチングするものがない場合は、該物体はユーザによって手動で識別される必要があり、新たに測定した蛍光スペクトルはそれぞれの物体と一緒にローカルデータベースとマスターデータベースの両方に記憶されることができる。ユーザだけでなく、他の自動化システムも、物体が最初に取得されたときにローカルデータベースに追加することによって、その物体を「開始」することができる。同様に、物体は、その耐用年数が終了して廃棄されるときに、ローカルデータベースから(必要に応じてマスターデータベースからも)削除することによって、「引退」させることができる。
物体認識の手順は、特定の物体の蛍光スペクトルを例に挙げて説明したが、それぞれのグラウンドトゥルースデータベースが物体の反射スペクトル及び/又は色座標を含んでいれば、認識される物体の反射スペクトル及び/又は色座標を使用して同様の手順を実行することができる。
通常、物体認識システムは、物体識別の方法として、特有の蛍光放射スペクトル及び反射スペクトルを使用することによって作動され得る。これは、未知の物体が比較される既知又は測定された蛍光スペクトル及び/又は反射スペクトルのデータベースを有すること、及びそれぞれのデータベースからベストマッチングするものを選択することを必要とする。本開示は、物体認識に使用される多くの蛍光材料及び/又は反射材料が、光又は酸素への曝露とともに経時的に劣化することを考慮している。これらの材料のほとんどはそれらの蛍光放射の量が減少するが、いくつかはそれらの蛍光放射のスペクトル形状、すなわちその蛍光スペクトルの変化を受ける可能性がある。そこで、本開示は、マスターデータベースと連携したローカルデータベースを含むことを提案している。シーンに入る新しい物体は、物体が劣化していない反射スペクトル及び/又は発光スペクトルを有するという前提で、マスターデータベースで最初に分類される。一度検出されると、物体は将来のより迅速な識別のためにローカルデータベースに含まれる。ローカルデータベースには、それぞれのシーンでローカルに使用されている物体認識システムのみがアクセスすることができる。さらに、物体認識システムによって測定された物体の蛍光スペクトルと反射スペクトルは、経時的に更新されるので、物体の小さな連続した変化がローカルデータベースで追跡されることができる。物体の耐用年数が終了した時点では、物体は、その物体の現在の放射スペクトルがマスターデータベース内の別の物体の元の放射スペクトルとよりよくマッチングしているのにもかかわらず、ローカルデータベースによって正しく識別され得る。信頼閾値と誤差閾値が定義されている。シーンで観測されたスペクトルとローカルデータベースのスペクトルのマッチングは、識別を可能にするために信頼閾値を満たさなければならない。しかし、基礎となる蛍光材料及び反射材料が経時的に劣化する可能性があるため、観測及び割り当てられた反射スペクトル及び/又は蛍光スペクトの間には、まだなんらかの誤差がある可能性がある。この誤差が誤差閾値よりも大きい場合、ローカルデータベース内の物体のそれぞれのスペクトルを更新する必要があり、したがって、ローカルデータベース内の物体の小さな変化を連続的にチェックすることができる。これにより、物体の蛍光材料及び/又は反射材料が経時的に変化しても、その物体を識別することができる。マッチングするものがない場合には、ユーザに、通信インターフェースを介して、スペクトルが信頼閾値を超えているが、まだ識別可能な領域内にあるローカルデータベース又はマスターデータベースのいずれかにおいて、可能な物体識別のセレクションを提供し、ユーザに、そのような提供されたセレクションから選択するように求め、そのようなユーザフィードバックを使用して、ローカルデータベース内の将来の識別の精度を向上させることが可能である。あるいは、ユーザは、識別が正しいかどうかを尋ねられることも可能であり、このようなフィードバックを使用して、ローカルデータベース内の将来の識別の改善に利用することも可能である。このようなユーザインタラクションを開始するために、提案される装置は、ユーザがいくつかの入力を行うことができるユーザインターフェース、すなわち通信インターフェースを提供する。このようなユーザインターフェースは、プロセッサに直接接続され、プロセッサを介して各データベースにも接続される。ユーザインターフェースは、ユーザに入力装置を提供する独立型のコンピュータ装置によって実現されることもできる。すべての適切な既知の技術が可能である。

Claims (13)

  1. 物体認識システムのための少なくとも1つのグラウンドトゥルースデータベースを形成し、前記少なくとも1つのグラウンドトゥルースデータベースを最新の状態に保つための装置であって、少なくとも以下の構成要素:
    a) 異なる物体の蛍光放射量及び/又は蛍光放射スペクトル形状を記憶するように構成されたデータ記憶ユニットと、
    b) 前記データ記憶ユニット及び前記物体認識システムと通信接続されたプロセッサであって、
    - 通信インターフェースを介して、前記異なる物体の測定された蛍光放射量及び/又は蛍光放射スペクトル形状を受信し、
    - 各蛍光放射量及び/又は蛍光放射スペクトル形状を、タグとして前記異なる物体の1つに割り当て、
    - 前記蛍光放射量及び/又は蛍光放射スペクトル形状を、前記蛍光放射量及び/又は蛍光放射スペクトル形状が割り当てられた前記それぞれの異なる物体とともに、前記データ記憶ユニットにそれぞれ記憶し、これにより、少なくとも1つのグラウンドトゥルースデータベースを形成し、
    - 少なくとも1つのセンサ及び/又は人工知能ツールを使用することにより、トリガーイベント及び/又は認識イベントの発生に関して、前記異なる物体の少なくともいくつかを含むシーンを監視し、
    - 前記トリガーイベント及び/又は認識イベントが発生した場合に、前記それぞれの少なくとも1つのデータベースに記憶されている前記蛍光放射量及び/又は蛍光放射スペクトル形状を、前記少なくとも1つのデータベースの少なくとも1つにおいて、動的に更新及び/又は補足し、
    - 最新の前記蛍光放射量及び/又は蛍光放射スペクトル形状への即時アクセスを提供する、
    ようにプログラムされたプロセッサと、
    それぞれの前記物体の蛍光放射量及び/又は蛍光放射スペクトル形状の変化を監視することによって、前記異なる物体の小さくて連続的な変化を追跡するようにプログラムされたプロセッサと、
    を備える、装置。
  2. 前記少なくとも1つのグラウンドトゥルースデータベースとしてマスターデータベースとローカルデータベースとを提供し、前記ローカルデータベースは前記マスターデータベースと連携し、前記ローカルデータベースに記憶された前記蛍光放射量及び/又は蛍光放射スペクトル形状は、前記物体認識システムから前記シーン内の前記異なる物体の少なくともいくつかの再測定されたそれぞれの蛍光放射量及び/又は蛍光放射スペクトル形状を受信することによって、経時的に更新及び/又は補足され、これにより、それぞれの前記物体の小さくて連続的な変化が、少なくとも前記ローカルデータベースにおいて追跡されるようにプログラムされたプロセッサをさらに含む、請求項1に記載の装置。
  3. 前記ローカルデータベースは、ローカルに前記シーン内に又はクラウドサーバに記憶され、前記ローカルデータベースは、前記シーン内でローカルに使用される前記物体認識システムのみがアクセス可能である、請求項2に記載の装置。
  4. 物体が前記シーン内で新しいときに、前記マスターデータベースを使用して、物体の蛍光放射量及び/又は蛍光放射スペクトル形状によって前記ローカルデータベースを補足するようにプログラムされたプロセッサをさらに有し、前記ローカルに使用されている物体認識システムによって測定された前記新しい物体の蛍光放射量及び/又は蛍光放射スペクトル形状が、前記マスターデータベースに記憶された物体の蛍光放射量及び/又は蛍光放射スペクトル形状とマッチングされ得る、請求項2または3に記載の装置。
  5. 前記シーン内の前記異なる物体に関して前記マスターデータベースと前記ローカルデータベースを同期させるようにプログラムされたプロセッサをさらに備える、請求項2~のいずれか1項に記載の装置。
  6. 前記マスターデータベースは、前記異なる物体のそれぞれについて、元の物体の蛍光放射量及び/又は蛍光放射スペクトル形状と、前記元の物体から経時した少なくとも1つの劣化/老朽化した物体の蛍光放射量及び/又は蛍光放射スペクトル形状とを含む、請求項2~のいずれか1項に記載の装置。
  7. 物体認識システムのための少なくとも1つのグラウンドトゥルースデータベースを形成し、前記少なくとも1つのグラウンドトゥルースデータベースを最新の状態に保つための、コンピュータで実行される方法であって、少なくとも以下のステップ:
    - 通信インターフェースを介して、異なる物体の蛍光放射量及び/又は蛍光放射スペクトル形状を提供するステップと、
    - プロセッサによって、各蛍光放射量及び/又は蛍光放射スペクトル形状を、タグとして前記異なる物体の1つに割り当てるステップと、
    - 前記蛍光放射量及び/又は蛍光放射スペクトル形状を、前記蛍光放射量及び/又は蛍光放射スペクトル形状が割り当てられた前記それぞれの異なる物体とともに、データ記憶ユニットにそれぞれ記憶し、これにより、前記少なくとも1つのグラウンドトゥルースデータベースを形成するステップと、
    - 少なくとも1つのセンサ及び/又は人工知能ツールを使用することによって、トリガーイベント及び/又は認識イベントの発生に関して、前記異なる物体の少なくともいくつかを含むシーンを監視するステップと、
    - 前記トリガーイベント及び/又は認識イベントが発生した場合に、前記少なくとも1つのデータベースのうち少なくとも1つにおいて、前記少なくとも1つのデータベースに記憶されている前記蛍光放射量及び/又は蛍光放射スペクトル形状を動的に更新及び/又は補足するステップと、
    - 前記最新の蛍光放射量及び/又は蛍光放射スペクトル形状への即時アクセスを提供するステップと、
    を含
    前記異なる物体の小さくて連続的な変化は、前記それぞれの物体の蛍光放射量及び/又は蛍光放射スペクトルの形状の変化を監視することにより追跡される、方法。
  8. マスターデータベースとローカルデータベースを提供することをさらに含み、前記ローカルデータベースは、前記マスターデータベースと連携し、前記ローカルデータベースに記憶された蛍光放射量及び/又は蛍光放射スペクトル形状は、前記物体認識システムによって前記異なる物体のそれぞれの蛍光放射量及び/又は蛍光放射スペクトル形状を再測定することにより、経時的に更新及び/又は補足され、したがって、前記それぞれの物体の小さくて連続的な変化が少なくとも前記ローカルデータベースにおいて追跡される、請求項に記載の方法。
  9. 前記ローカルデータベースは、前記シーン内にローカルに又はクラウドサーバに記憶され、前記ローカルデータベースは、前記シーン内でローカルに使用される前記物体認識システムのみがアクセスすることができる、請求項に記載の方法。
  10. 前記ローカルデータベースは、前記物体が前記シーン内で新しいときに、前記マスターデータベースを使用して、物体の蛍光放射量及び/又は蛍光放射スペクトル形状によって補足され、前記ローカルに使用されている物体認識システムによって測定された前記新しい物体の蛍光放射量及び/又は蛍光放射スペクトル形状は、前記マスターデータベースに記憶された物体の蛍光放射量及び/又は蛍光放射スペクトル形状とマッチングされ得る、請求項8または9に記載の方法。
  11. 前記マスターデータベースと前記ローカルデータベースは、いくつかの事前定義されたイベントのうち少なくとも1つが発生したときに、前記シーン内の前記異なる物体に関して同期される、請求項10のいずれか1項に記載の方法。
  12. 前記マスターデータベースは、前記異なる物体のそれぞれについて、元の物体の蛍光放射量及び/又は蛍光放射スペクトル形状と、前記元の物体から経時した少なくとも1つの劣化/老朽化した物体の蛍光放射量及び/又は蛍光放射スペクトル形状とを含む、請求項11に記載の方法。
  13. 1つ又は複数のプロセッサによって実行されるときに、マシーンに:
    - 通信インターフェースを介して、異なる物体の蛍光放射量及び/又は蛍光放射スペクトル形状を受信し、
    - それぞれの蛍光放射量及び/又は蛍光放射スペクトル形状を、タグとして前記異なる物体の1つに割り当て、
    - 前記蛍光放射量及び/又は蛍光放射スペクトル形状を、前記蛍光放射量及び/又は蛍光放射スペクトル形状が割り当てられたそれぞれの異なる物体とともに、データ記憶ユニットにそれぞれ記憶し、これにより、少なくとも1つのグラウンドトゥルースデータベースを形成し、
    - 少なくとも1つのセンサ及び/又は人工知能ツールを使用することによって、トリガーイベント及び/又は認識イベントの発生に関して、前記異なる物体の少なくともいくつかを含むシーンを監視し、
    - 前記少なくとも1つのデータベースのうち少なくとも1つにおいて、前記トリガーイベント及び/又は認識イベントが発生した場合に、前記少なくとも1つのデータベースに記憶されている前記蛍光放射量及び/又は蛍光放射スペクトル形状を動的に更新及び/又は補足し、
    - 前記最新の蛍光放射量及び/又は蛍光放射スペクトル形状への即時アクセスを提供することを行わせる命令を記憶し、
    前記異なる物体の小さくて連続的な変化は、前記それぞれの物体の蛍光放射量及び/又は蛍光放射スペクトルの形状の変化を監視することにより追跡される、非一時的なコンピュータ可読媒体。
JP2021572402A 2019-06-07 2020-06-05 物体認識システムのための少なくとも1つのグラウンドトゥルースデータベースを形成するための装置及び方法 Active JP7402898B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962858354P 2019-06-07 2019-06-07
EP19179166.4 2019-06-07
EP19179166 2019-06-07
US62/858,354 2019-06-07
PCT/EP2020/065747 WO2020245440A1 (en) 2019-06-07 2020-06-05 Device and method for forming at least one ground truth database for an object recognition system

Publications (2)

Publication Number Publication Date
JP2022535887A JP2022535887A (ja) 2022-08-10
JP7402898B2 true JP7402898B2 (ja) 2023-12-21

Family

ID=70977981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021572402A Active JP7402898B2 (ja) 2019-06-07 2020-06-05 物体認識システムのための少なくとも1つのグラウンドトゥルースデータベースを形成するための装置及び方法

Country Status (12)

Country Link
US (1) US20220309766A1 (ja)
EP (1) EP3980940A1 (ja)
JP (1) JP7402898B2 (ja)
KR (1) KR20220004741A (ja)
CN (1) CN113811880A (ja)
AU (1) AU2020286660A1 (ja)
BR (1) BR112021019024A2 (ja)
CA (1) CA3140446A1 (ja)
MX (1) MX2021014924A (ja)
SG (1) SG11202113368YA (ja)
TW (1) TW202113681A (ja)
WO (1) WO2020245440A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023180178A1 (en) * 2022-03-23 2023-09-28 Basf Coatings Gmbh System and method for object recognition utilizing color identification and/or machine learning

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000048211A (ja) 1998-07-31 2000-02-18 Matsushita Electric Ind Co Ltd 移動物体追跡装置
JP2010147560A (ja) 2008-12-16 2010-07-01 Victor Co Of Japan Ltd 目標追尾装置
JP2010251849A (ja) 2009-04-10 2010-11-04 Victor Co Of Japan Ltd 目標追尾装置、目標追尾方法
JP2010267232A (ja) 2009-05-18 2010-11-25 Canon Inc 位置姿勢推定方法および装置
JP2011514994A (ja) 2008-02-28 2011-05-12 センサーマティック・エレクトロニクス・エルエルシー パターン分類システムと集団学習法
US20140082854A1 (en) 2011-03-21 2014-03-27 Coloright Ltd. Systems for custom coloration
JP2014122894A (ja) 2012-12-19 2014-07-03 Toyota Motor Engineering & Manufacturing North America Inc 車両のための装置及び方法、及び、その方法を実行するための命令を含む記憶媒体
US20150036138A1 (en) 2013-08-05 2015-02-05 TellSpec Inc. Analyzing and correlating spectra, identifying samples and their ingredients, and displaying related personalized information
JP2015064761A (ja) 2013-09-25 2015-04-09 日本電信電話株式会社 マッチング処理装置およびマッチング方法
JP2015127910A (ja) 2013-12-27 2015-07-09 株式会社Jvcケンウッド 色変化検出装置、色変化検出方法及び色変化検出プログラム
JP5901824B1 (ja) 2015-06-01 2016-04-13 ナレッジスイート株式会社 顔認証システム及び顔認証プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6633043B2 (en) * 2002-01-30 2003-10-14 Ezzat M. Hegazi Method for characterization of petroleum oils using normalized time-resolved fluorescence spectra
US7496228B2 (en) * 2003-06-13 2009-02-24 Landwehr Val R Method and system for detecting and classifying objects in images, such as insects and other arthropods
US9122929B2 (en) * 2012-08-17 2015-09-01 Ge Aviation Systems, Llc Method of identifying a tracked object for use in processing hyperspectral data
US10113910B2 (en) * 2014-08-26 2018-10-30 Digimarc Corporation Sensor-synchronized spectrally-structured-light imaging
DE102014222331B4 (de) * 2014-10-31 2021-01-28 Hochschule Für Angewandte Wissenschaften Coburg Verfahren zur Quantifizierung der Oxidationsstabilität und/oder des Alterungsgrades eines Kraftstoffes
GB2532075A (en) * 2014-11-10 2016-05-11 Lego As System and method for toy recognition and detection based on convolutional neural networks
CN105136742A (zh) * 2015-08-21 2015-12-09 董海萍 基于云端光谱数据库的微型光谱仪及光谱检测方法
US10664722B1 (en) * 2016-10-05 2020-05-26 Digimarc Corporation Image processing arrangements
CN108254351B (zh) * 2016-12-29 2023-08-01 同方威视技术股份有限公司 用于物品查验的拉曼光谱检测方法
US20180232689A1 (en) * 2017-02-13 2018-08-16 Iceberg Luxembourg S.A.R.L. Computer Vision Based Food System And Method
CN108662842A (zh) * 2017-03-27 2018-10-16 青岛海尔智能技术研发有限公司 冰箱内食物的检测系统与冰箱

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000048211A (ja) 1998-07-31 2000-02-18 Matsushita Electric Ind Co Ltd 移動物体追跡装置
JP2011514994A (ja) 2008-02-28 2011-05-12 センサーマティック・エレクトロニクス・エルエルシー パターン分類システムと集団学習法
JP2010147560A (ja) 2008-12-16 2010-07-01 Victor Co Of Japan Ltd 目標追尾装置
JP2010251849A (ja) 2009-04-10 2010-11-04 Victor Co Of Japan Ltd 目標追尾装置、目標追尾方法
JP2010267232A (ja) 2009-05-18 2010-11-25 Canon Inc 位置姿勢推定方法および装置
US20140082854A1 (en) 2011-03-21 2014-03-27 Coloright Ltd. Systems for custom coloration
JP2014122894A (ja) 2012-12-19 2014-07-03 Toyota Motor Engineering & Manufacturing North America Inc 車両のための装置及び方法、及び、その方法を実行するための命令を含む記憶媒体
US20150036138A1 (en) 2013-08-05 2015-02-05 TellSpec Inc. Analyzing and correlating spectra, identifying samples and their ingredients, and displaying related personalized information
JP2015064761A (ja) 2013-09-25 2015-04-09 日本電信電話株式会社 マッチング処理装置およびマッチング方法
JP2015127910A (ja) 2013-12-27 2015-07-09 株式会社Jvcケンウッド 色変化検出装置、色変化検出方法及び色変化検出プログラム
JP5901824B1 (ja) 2015-06-01 2016-04-13 ナレッジスイート株式会社 顔認証システム及び顔認証プログラム

Also Published As

Publication number Publication date
SG11202113368YA (en) 2021-12-30
AU2020286660A1 (en) 2022-01-06
EP3980940A1 (en) 2022-04-13
JP2022535887A (ja) 2022-08-10
BR112021019024A2 (pt) 2021-12-21
TW202113681A (zh) 2021-04-01
WO2020245440A1 (en) 2020-12-10
MX2021014924A (es) 2022-01-24
CN113811880A (zh) 2021-12-17
US20220309766A1 (en) 2022-09-29
KR20220004741A (ko) 2022-01-11
CA3140446A1 (en) 2020-12-10

Similar Documents

Publication Publication Date Title
EP3910608B1 (en) Article identification method and system, and electronic device
US11087130B2 (en) Simultaneous object localization and attribute classification using multitask deep neural networks
US10614514B2 (en) Computer vision system and method for automatic checkout
JP7351861B2 (ja) ユーザ識別子を指定するシステム及びその方法
CN110622173A (zh) 贴错标签的产品的检测
US10346659B1 (en) System for reading tags
US11922259B2 (en) Universal product labeling for vision-based commerce
John et al. Fusion of thermal and visible cameras for the application of pedestrian detection
JP7225435B2 (ja) コンピュータビジョンアプリケーションにおける3次元マッピングツールを用いた物体認識のためのシステム及び方法
KR102476496B1 (ko) 인공지능 기반의 바코드 복원을 통한 상품 식별 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
CN111222870A (zh) 结算方法、装置和系统
CN118097519B (zh) 基于商品轨迹分析的智能购物车购物行为分析方法及系统
Gothai et al. Design features of grocery product recognition using deep learning
AU2017231602A1 (en) Method and system for visitor tracking at a POS area
JP7402898B2 (ja) 物体認識システムのための少なくとも1つのグラウンドトゥルースデータベースを形成するための装置及び方法
US20230129779A1 (en) Method, control device and registration terminal for computer-supported detection of the empty state of a transport container
KR102469015B1 (ko) 서로 다른 파장 범위를 갖는 복수의 카메라를 이용한 상품 식별 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102476498B1 (ko) 인공지능 기반의 복합 인식을 통한 상품 식별 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102476493B1 (ko) 상품 식별 장치 및 이를 이용한 상품 식별 방법
US20240257380A1 (en) Systems and methods for detecting support members of product storage structures at product storage facilities
CN117523273A (zh) 一种确定物品空间位置的方法、装置及电子设备
CN116580509A (zh) 一种智能超市购物收银结算方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230614

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231211

R150 Certificate of patent or registration of utility model

Ref document number: 7402898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150