JP2013528869A - オブジェクトを認識する手続き - Google Patents

オブジェクトを認識する手続き Download PDF

Info

Publication number
JP2013528869A
JP2013528869A JP2013512949A JP2013512949A JP2013528869A JP 2013528869 A JP2013528869 A JP 2013528869A JP 2013512949 A JP2013512949 A JP 2013512949A JP 2013512949 A JP2013512949 A JP 2013512949A JP 2013528869 A JP2013528869 A JP 2013528869A
Authority
JP
Japan
Prior art keywords
module
recognition
procedure
storage module
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013512949A
Other languages
English (en)
Inventor
ピカソ モントヤ カルロス
Original Assignee
ミレニウム エスパシオ ソフト,ソシエダ アノニマ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミレニウム エスパシオ ソフト,ソシエダ アノニマ filed Critical ミレニウム エスパシオ ソフト,ソシエダ アノニマ
Publication of JP2013528869A publication Critical patent/JP2013528869A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Marketing (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Operations Research (AREA)
  • Databases & Information Systems (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Computing Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】キャプチャされた画像とパターンとの間のいくつかの一致点を発見する手続きにおいて、認識されたオブジェクトが目標オブジェクトのセットの1つでありえるような、目標オブジェクトの位置と方向を認識すること。
【解決手段】デジタル・カメラでキャプチャされたデジタル画像から、目標オブジェクトに関連付けられたパターンごとの幅広い種々の重要な特徴をデジタル的に格納することなく、種々の位置における格納された目的オブジェクトの位置と方向を同定する認識及び配置手続き。
【選択図】なし

Description

本願発明は、一般に、倉庫モジュールにおける自動的なオブジェクトの認識および配置に関する。
従来技術において、倉庫の棚に格納されるオブジェクトの認識手続きを使う技術が知られており、それはデジタル・カメラでデジタル画像をキャプチャすることを含み、そのキャプチャされた画像は、倉庫の棚に格納されたオブジェクトの特性または重要な特徴を認識するタスクを実行するアルゴリズムで処理される。
この手続きは、識別されるオブジェクトに対して、格納メモリまたはデータベースに格納されるパターンのセットあるいは単一のパターンをつくることを含む。各々のパターンは、認識と配置の目標とされるオブジェクトの重要な特性を含む。
キャプチャされたデータ画像パターンは、棚乗せモジュールの上の認識と配置の目標とされるオブジェクトのセットに対応する各々のパターンと比較される。
その手続きが、キャプチャされた画像とパターンとの間のいくつかの一致点を発見する状況において、その手続きは、棚乗せモジュールにおいて、認識されたオブジェクトを示す出力信号を生成する。
上記の認識手続きの1つの弱点は、そのオブジェクトが目標オブジェクトのセットの1つでありえるような、目標オブジェクトの位置と方向を認識することである。
認識の目標とされるオブジェクトの位置の種々の可能性が、その認識を難しくする。たとえば、オブジェクトは、主たる面すなわち表の面と異なる二次的な面すなわち反対の面を持つことができ、それは、目標オブジェクトのパターンを作ることを難しくする。コンピュータのデータ記憶容量に制限があるからである。
従って、パターンに、関連オブジェクトの異なる方向とスケールを含むことを避ける必要がある。
一般に、大量のデータ含むデータベースの使用は、発展性がなく、非実用的である。
本願発明は、本願請求項において規定した格納モジュールにおけるオブジェクトの認識と配置のための方法によって、上で明らかにした弱点の1つ以上を解決するか、縮小しようとするものである。
1つの実施形態において、認識と配置手続きは、デジタル・カメラでキャプチャされた画像化されたデジタルから、目標オブジェクトに関連付けられたパターンごとの幅広い種々の重要な特徴をデジタル的に格納することなく、種々の位置における格納された目的オブジェクトの位置と方向を識別する。
すなわち、その手続きは、キャプチャされたデジタル画像に関連するデジタル・データ・マトリクスの間で一致点、及び、位置と方向において、減少した数の重要な特徴または特性を備えるパターンを捜すことによって、カメラに関して既知の位置と方向に目標オブジェクトを認識し配置する。
オブジェクトは、与えられた格納されたパターンに関して回転することができること、
そのオブジェクトの方向を決定することが認識手続きのゴールでなく、むしろ、棚のモジュールにおける目標オブジェクトの認識と配置であることに留意しなければならない。
縮小パターンにおける一致点の検索は、より少ない時間で行うことができ、その結果、データ・マトリクスを目標オブジェクトのパターンと比較するために必要な演算時間は、非常に減少する。
その手続きの1つの実施形態において、販売時点における労働者すなわちオペレータは、格納棚のモジュールに格納された目標オブジェクトのデジタル画像を、その格納棚にそれらを認識して、配置するために、キャプチャする。
そのオペレータは、たとえば、デジタル・カメラのような画像キャプチャ・デバイスによって画像をキャプチャする。オペレータは、そのモジュールから予め定められた距離で、対象となっているモジュールの前に自身を位置し、すなわち、画像キャプチャは、ズームを使用することなく、また、デジタル・カメラの追加的な内部や外部の光なしで、すなわち、棚乗せモジュールの位置における既存の周囲照明で、棚乗せモジュールの正面の視点から実行される。
カメラは、およそ5メガピクセルの解像度でデジタル画像をキャプチャすることができなければならない。また、その結果、デジタル画像は、ピクセルのマトリックスとなる。
対象となっているモジュールの物理的な大きさに従って、対象となっているモジュールの全部をカバーするように、連続していくつかのデジタル画像をキャプチャしなければならない可能性がある。
もちろん、デジタル画像のシーケンスは、対象となっている棚のモジュールに対応するデジタル画像の全てに関連するデジタル情報からその後に単一の画像マトリックスをつくるように予めセットされたシーケンスに従って、キャプチャされなければならない。
さらにまた、画像をキャプチャするための手段は、例えばマイクロプロセッサなど、キャプチャされた画像が、所定の焦点と輝度など技術的な特徴または最小限の品質要求のセットを満たすことを確かめるようにプログラム化された一般的な使用処理モジュールを備える。
一旦、モジュールに関連した画像のセットがキャプチャされると、マイクロプロセッサが、キャプチャされた画像の1つ1つが、最小限の品質要求を満たすことを検証するために、内蔵プログラムを実行する。検証がポジティブである場合には、マイクロプロセッサは、キャプチャされた画像の適合性を示すために、第1の出力メッセージを生成し、反対の状況では、第2のメッセージが、棚乗せモジュールまたはその一部に対応する第2の画像をキャプチャする適合性を示すために生成される。その場合には、第1の画像は、自動認識と配置プロセスの次のステップで使用可能でない。
一旦、棚乗せモジュールの画像の全ての適合性が、モジュールをキャプチャするマイクロプロセッサで、対象となっている検証されると、キャプチャされて保存されたデジタル画像の全てが、キャプチャ・モジュールから、第1の入出力モジュールによって、第1の応用モジュールまたはアプリケーションサーバの方へ、たとえば、無線通信システムに関連するエアーインタフェースを介して、送られる。
一旦、キャプチャされた画像、対象となっている棚乗せモジュールに関連したピクセル・マトリックスが、サーバの第2の入出力モジュールによって受信されると、それらは、そのサーバに接続している第1の格納モジュールに保存される。
次に、そのサーバは、保存された画像の認知分析を行うようにプログラム化された一般的用途のコンピュータを備えるコンピュータ・ユニットに接続される。
そのコンピュータは、第2の中央演算処理装置と、マルチメディア・スクリーンと、第1のメモリに保存された画像を入力するためのキーボードを備える。
第2のプロセッサは、キャプチャされた画像の認識分析を行うようにプログラムされている。
第2のプロセッサが実行する第1のステップは、対象となっている棚乗せモジュールのキャプチャされるピクセルイメージに関連するマトリックスの要素を備えるデジタル・データの単一のマトリクスを生成するステップである。このために、第2のプロセッサは、販売時点においてオペレータによってキャプチャされた、対象となるモジュールに関連する各々のピクセル・マトリックスに共通して存在する点に関連する技術的な特徴を識別するために、サブルーチンを実行する。
前述のステップを実行するためには、順番にキャプチャされる画像の間で共通する少なくとも1つの点を確立することができるような方法で画像キャプチャするための数セットの基準に従って、キャプチャ画像はキャプチャされなければならないことに留意しなければならない。
その共通する点は、たとえば、棚乗せモジュールに対応する棚の端であることができる。1つの画像において、その端が画像の右側にある場合には、隣接したキャプチャされた画像において、次のキャプチャされた画像の左側に同一の端を見ることができるようにである。
共通する点は、カメラに関して既知の位置と方向で棚に格納されたオブジェクトでもありえる。
従って、カメラに関して既知の位置と方向において、一組のオブジェクトを備える画像マトリクスのセットから生成されたグローバルなピクセル・マトリクスから、棚乗せモジュールの中の目標オブジェクトは、予めセットされた認識と配置コマンドを実行することによって認識され、配置されなければならない。
第2のプロセッサは、手続きの前のステップにおいて生成された所定の格納されたパターンが、デジタル・データ・マトリクスの要素のサブセットと比較されるように、棚乗せモジュールにおいて認識されて、配置されたオブジェクトに関連する、保存されたパターンのサブセットのデータベースからの選択を含む認識手続きを実行する。その比較の結果が、目標オブジェクトに関連するマトリクスの要素のサブセットと、目標オブジェクトに結びついた格納されたパターンとの間の一致点の存在を識別することになる。
第1のメモリに格納された各々のパターンは、目標オブジェクトのデジタル画像から得られた差分の、あるいは、不変は特徴のセットを含む。制御された設定において、キャプチャされた画像から始めて、格納されたパターンが生成される。
結果として、ピクセル・マトリクスは、棚に格納された目標オブジェクトの1つのカメラに関して位置と方向における重要な特徴または特性を備えるデータ・マトリクスに変換された。
もちろん、オブジェクトに関連する各々の格納されたパターンは、そのデータ・マトリクスにおいて探索することができる重要な特徴を備える。
したがって、一旦第2のプロセッサが認識および配置命令を実行すると、目標オブジェクトに関連するグローバル・マトリクスの要素のセットと、同一のオブジェクトの格納されたパターンとの間のいくつかの一致点を検出することができる。
第2のプロセッサは、格納されたパターンと比較されるマトリクスの要素を、最低に減らすように、認識命令を実行する。すなわち、第2のプロセッサが、製品がないと決定する格納モジュールの中におけるそれらの領域を廃棄してもよいようにするために、ストアにおいてキャプチャされたデジタル画像から生成されたマトリックスの上で調整プロセスを実行する。このように、第2のプロセッサは、非常に高い規則性があるそれらの領域を廃棄する、そして、結果として、マトリクスのその要素は、特徴または詳細において変化が検出されないとすると、たとえば、完全に白い表面または非常に暗い地域を持っているモジュールのバックパネルなど、そこに製品がある可能性がない領域に関連する。
すると、目標が存在しない領域が廃棄される。すなわち、第2のプロセッサが実行を継続する比較のステップと重要な特徴の抽出を行うステップを実行するために、グローバル・マトリクスの要素は、廃棄される。
このように、目標オブジェクトが格納されたパターンと比較される。このために、パターンの重要な特徴が抽出され、そのオブジェクトに関連するマトリクスの要素と比較される。マトリクス要素とパターンとの間に一致点が検出される場合には、その要素は、目標が存在することができるモジュールの領域に関連しており、次に、第2のプロセッサは、一致点が検出されたマトリクスの要素のまわりのパターンの他の重要な特徴について、検索を行う。
認識命令は、目標オブジェクトのラベルに関連するセマンティック認識サブルーチンを含む。
第2のプロセッサが、目標オブジェクトと格納されたパターンの重要な特性との間において、一致点の最小数を見つける場合には、識別された目標オブジェクトと、その棚乗せモジュールでの位置を示す第3の出力メッセージを生成する。
パターンは、それが関連するオブジェクトのタイプによっていくつかの重要な特徴を備えることができる。すなわち、例えば、そのオブジェクトの物理的な形状や大きさの特徴パラメータなど、別のオブジェクトからそのオブジェクトを区別することができる特徴、そのオブジェクトのラベルに結びついた特徴などである。
第3の出力メッセージの生成は、所定のパターンの重要な特徴とターゲットオブジェクトとの間において一致点の所定の最小数が認識される場合だけ生成される一致点を示している。一致点の数が一致点の規定された閾値より少ない場合には、所定のオブジェクトを認識することができないことを意味する。
しかしながら、第2のプロセッサは、第1のオブジェクトに隣接したオブジェクトの重要な特徴と、隣接したオブジェクトが、隣接したオブジェクトとの識別された一致点の閾値を越える数の重要な特徴を備えるか否かを認識するための格納されたパターンとの間の一致点を見出すように認識命令のサブルーチンを実行する。そして、さらに、一致点の閾値を越えない識別された一致点の間にそのオブジェクトの重要な特徴がある場合には、認識命令は、両方の隣接したオブジェクトが同一の格納されたパターンと一致すると決定する。第2のプロセッサは、分析されたターゲットオブジェクトの1つが、保存されたパターンに関して回転しており、その隣接したオブジェクトは、同一のパターンに関して回転をまったく示していないことを確定する。
上に記載されたシナリオは、たとえば、同一の棚に、同一の製品のいくつかのオブジェクトが並べられて格納されている・大きな表面がつながっている場合に、顧客が、それらの1つを取り上げ、そして、すぐに、その最初位置にそのオブジェクトを返したが、しかし、その最初の位置に関して回転したようなケースに見つけることができる。しかしながら、残りの隣接したオブジェクトは、まだ、オブジェクトのそのタイプに関連するパターンと最大数の一致点を持つ位置と方向に対応する、それらの最初の位置にある。
前のステップは、スーパーマーケットの棚には、同一の棚、及び上下で直接に隣接した棚にいくつかの同一のオブジェクトが保管しているとすると、分析されたオブジェクトと格納されたパターンとの間の重要な特徴のいくつかの一致点が識別される間数回、繰り返されることができることに留意しなければならない。
一旦、データ・マトリクスの位置の全てが、目標オブジェクトに関連する格納されたパターンとの一致点を認識するために、第2のプロセッサで実行される認識命令によって分析されると、次に、第2のプロセッサは、検出される一致点の数によっていくつかのメッセージを生成する。そのメッセージから得られた結果を、棚乗せモジュールの画像が目標オブジェクトとその位置が、望ましい位置に配置された望ましいオブジェクトを有する棚乗せモジュールの画像と一緒に識別されたように見えるようにレポートにまとめることができる。
一列のオブジェクトを取り替えるとき、業者が、不適切なやり方で棚乗せモジュールを補充すること、すなわち、不適当な棚にオブジェクトを配布することがありえたことに留意しなければならない。
たとえば、若い人向けの目標オブジェクト、例えばポップコーンは、たとえば、棚乗せモジュールの低い棚に置かれなければならない。
したがって、一致点についてのメッセージに基づいて、その命令は、正確に、そのオブジェクトが置かれなければならなかったように、分析されたショーケースの各々の棚の目標オブジェクトの配置を示すために、図を生成する。
図またはプラノグラムは、製品のカテゴリーが、どのように、一列に、ゴンドラまたは展示ケースで展示されるかという視覚的描写である。これらのプラノグラムで、以降の分析を、販売時点情報管理で起こる主な変数から、例えば各々のストアに存在するストック、各々の製品のストックに与えられたスペースのパーセンテージ、製品毎の面の数、隣接した製品、利用されたスペースの原則など、から、実行することができ、商品をどのように置かれなければならないかという目標プラノグラムと比較することができる。
一旦、プラノグラムは生成されると、それらは、後の分析、及び個人または総合レベル上での販売時点情報管理での所定の時点に生成される主な変数の状況を示すレポートの生成のためにデータベースに入れなければならない。
製品の販売時点で格納モジュールに格納されるオブジェクトの認識の手続きは、入出力装置による、また、プロセッサ・ユニット付きのコンピュータの内蔵メモリの上へロード可能なコンピュータで実行することができる。
この目的のために、コンピュータ・プログラムは、コンピュータで実行されるときに、前述のプロセスのステップを実行するために構成されたコードを備える。さらにまた、その実行コードは、コンピュータの中に読み込み可能なキャリア媒体によって保存することができる。

Claims (6)

  1. 製品の販売の際に格納モジュールに格納されたオブジェクトを認識する手続きであって、
    所定のキャプチャ・シーケンスに従う画像キャプチャのためのモジュールによって、対象となる格納モジュールの少なくとも1つのデジタル画像を取得するステップと、
    第1の処理ユニットによって前のステップにおいてキャプチャされた前記画像を検証するステップと、
    前記検証されたデジタル画像を、画像をキャプチャするための前記モジュールの第1の入出力モジュールを通して、サービス応用モジュールの第2の入出力の方へテレコミュニケーション・ネットワークを介して伝送するステップと、
    前記サーバにおいて検証され、受信された前記デジタル画像を、第1の格納モジュールに格納するステップと、
    第2の処理ユニットによって保存されたデジタル画像のセットから始まるグローバル・デジタル・データ・マトリクスを生成するステップと、
    前記グローバル・マトリックスの要素を、販売時点において発見することができるオブジェクトの格納された関連付けられたパターンの特徴と、比較するステップと、
    一致する重要な特徴について所定の最小数が抽出される場合に、格納モジュールにおける目的オブジェクトの認識と配置の出力メッセージを生成するために、一致する特徴を抽出するステップと、
    のステップを含むことを特徴とする、手続き。
  2. 一致点の数が重要な特徴の所与の最小数より少ない場合には、隣接オブジェクトの重要な特徴と、前に認識手続きに提出されたたオブジェクトの重要な特徴との間の一致点を見出すための認識サブルーチンを実行するステップを更に含むことを特徴とする請求項1に記載の手続き。
  3. 一致する重要な特徴の数が、一致点の閾値より大きいか否かに基づいて、前記格納モジュールにおいて前記オブジェクトに隣接する、続いて分析される目的オブジェクトに対する認識と配置の出力メッセージが生成された場合には、一致する重要な特徴の所与の最小数より少ない一致点の数を有するオブジェクトの認識と配置の出力メッセージを生成するステップを更に含むことを特徴とする請求項2に記載の手続き。
  4. 前記モジュール内の前記認識された目的オブジェクトとその配置が表現されている前記格納モジュールからのデジタル画像の出力メッセージに基づいて、生成するステップを更に含むことを特徴とする請求項3に記載の手続き。
  5. 製品の販売時点情報管理で格納モジュールに保存されるオブジェクトの認識手続きを実行するように構成されたコンピュータに命令を与えるコンピュータ可読のコードを備えるコンピュータ可読手段であって、
    前記認識手続きが、
    所定のキャプチャ・シーケンスに従って画像キャプチャのモジュールによって、対象となる前記格納モジュールの少なくとも1つのデジタル画像を取得するステップと、
    第1の処理ユニットによって前のステップにおいてキャプチャされた前記画像を検証するステップと、
    前記検証されたデジタル画像を、画像をキャプチャするための前記モジュールの第1の入出力モジュールを通して、サービス応用モジュールの第2の入出力の方へテレコミュニケーション・ネットワークを介して伝送するステップと、
    前記サーバにおいて検証され、受信された前記デジタル画像を第1の格納モジュールに格納するステップと、
    第2の処理ユニットによって保存されたデジタル画像のセットから始まるグローバル・デジタル・データ・マトリクスを生成するステップと、
    前記グローバル・マトリックスの要素を、販売時点において発見することができるオブジェクトの格納された関連付けられたパターンの特徴と、比較するステップと、
    一致する重要な特徴について所定の最小数が抽出される場合に、格納モジュールにおける目的オブジェクトの認識と配置の出力メッセージを生成するために、一致する特徴を抽出するステップと、
    のステップを含むことを特徴とする、コンピュータ可読手段。
  6. 入力及び出力ユニットと、メモリ・ユニットと、プロセッサ・ユニットとを備えるコンピュータにロードすることができるコンピュータ・プログラムであって、
    該コンピュータは、コンピュータで実行されたときに、請求項1ないし4のいずれか1項に記載のオブジェクトの認識手続きのステップを実行するように構成された実行可能コードを備える、コンピュータ・プログラム。
JP2013512949A 2010-06-01 2010-06-01 オブジェクトを認識する手続き Pending JP2013528869A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/ES2010/070369 WO2011151477A1 (es) 2010-06-01 2010-06-01 Procedimiento de reconocimiento de objetos

Publications (1)

Publication Number Publication Date
JP2013528869A true JP2013528869A (ja) 2013-07-11

Family

ID=45066209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013512949A Pending JP2013528869A (ja) 2010-06-01 2010-06-01 オブジェクトを認識する手続き

Country Status (6)

Country Link
US (1) US20120170809A1 (ja)
EP (1) EP2579209A4 (ja)
JP (1) JP2013528869A (ja)
BR (1) BR112012008408A2 (ja)
MX (1) MX337257B (ja)
WO (1) WO2011151477A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013212333A1 (de) * 2013-06-26 2014-12-31 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Überwachung einer Teileentnahme, Teilebereitstellungssystem, Verwendung eines Vibrationsalarmgeräts
WO2016149577A1 (en) 2015-03-18 2016-09-22 United Parcel Service Of America, Inc. Systems and methods for verifying the contents of a shipment
EP3284037A1 (en) 2015-04-16 2018-02-21 United Parcel Service Of America, Inc. Enhanced multi-layer cargo screening system, computer program product, and method of using the same
US11109065B2 (en) * 2018-09-26 2021-08-31 Google Llc Video encoding by providing geometric proxies
CN109919040B (zh) * 2019-02-15 2022-04-19 北京清瞳时代科技有限公司 货物的品规信息识别方法及装置
US10867190B1 (en) * 2019-11-27 2020-12-15 Aimotive Kft. Method and system for lane detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2004A (en) * 1841-03-12 Improvement in the manner of constructing and propelling steam-vessels
JP2007034872A (ja) * 2005-07-29 2007-02-08 Matsushita Electric Ind Co Ltd 顔認証装置および顔認証システムならびに顔認証方法
JP2009187482A (ja) * 2008-02-08 2009-08-20 Nippon Sogo System Kk 棚割再現方法、棚割再現プログラム、棚割評価方法、棚割評価プログラム及び記録媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4414685A (en) * 1979-09-10 1983-11-08 Sternberg Stanley R Method and apparatus for pattern recognition and detection
JP3849385B2 (ja) * 2000-02-03 2006-11-22 コニカミノルタホールディングス株式会社 画像処理装置、画像処理方法および画像処理プログラムを記録したコンピュータ読取可能な記録媒体
US7106885B2 (en) * 2000-09-08 2006-09-12 Carecord Technologies, Inc. Method and apparatus for subject physical position and security determination
WO2007117368A2 (en) * 2006-04-12 2007-10-18 Store Eyes, Inc. Method for measuring retail display and compliance
WO2007130688A2 (en) * 2006-05-10 2007-11-15 Evolution Robotics, Inc. Mobile computing device with imaging capability
US7711157B2 (en) * 2006-08-01 2010-05-04 California Institute Of Technology Artificial intelligence systems for identifying objects
RU2395787C2 (ru) * 2008-05-19 2010-07-27 Государственный Научный Центр России "Государственное Научное Учреждение "Центральный Научно-Исследовательский И Опытно-Конструкторский Институт Робототехники И Технической Кибернетики"(Цнии Ртк) Способ обнаружения объектов
US9147174B2 (en) * 2008-08-08 2015-09-29 Snap-On Incorporated Image-based inventory control system using advanced image recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2004A (en) * 1841-03-12 Improvement in the manner of constructing and propelling steam-vessels
JP2007034872A (ja) * 2005-07-29 2007-02-08 Matsushita Electric Ind Co Ltd 顔認証装置および顔認証システムならびに顔認証方法
JP2009187482A (ja) * 2008-02-08 2009-08-20 Nippon Sogo System Kk 棚割再現方法、棚割再現プログラム、棚割評価方法、棚割評価プログラム及び記録媒体

Also Published As

Publication number Publication date
MX2012003092A (es) 2012-04-23
BR112012008408A2 (pt) 2016-03-29
MX337257B (es) 2014-09-23
EP2579209A4 (en) 2014-01-15
US20120170809A1 (en) 2012-07-05
EP2579209A1 (en) 2013-04-10
WO2011151477A1 (es) 2011-12-08

Similar Documents

Publication Publication Date Title
US11900316B2 (en) Information processing apparatus, control method, and program
US11853347B2 (en) Product auditing in point-of-sale images
US11887051B1 (en) Identifying user-item interactions in an automated facility
US10217083B2 (en) Apparatus, method, and program for managing articles
JP2013528869A (ja) オブジェクトを認識する手続き
JP2024019591A (ja) 情報処理装置、情報処理システム、制御方法、及びプログラム
CN109116129B (zh) 终端检测方法、检测设备、系统及存储介质
US11640709B2 (en) Merchandise specification systems and programs
US10891561B2 (en) Image processing for item recognition
CN112307864A (zh) 用于确定目标对象的方法、装置、人机交互系统
US20210182566A1 (en) Image pre-processing method, apparatus, and computer program
US11238401B1 (en) Identifying user-item interactions in an automated facility
CN109213397B (zh) 数据处理方法、装置和用户端
JP2021119475A (ja) 絞込処理システム
US10929697B2 (en) Image processing for identifying individuals
CN112232295B (zh) 一种新增目标船只的确认方法、装置及电子设备
WO2019181441A1 (ja) 情報処理装置、制御方法、及びプログラム
US11494729B1 (en) Identifying user-item interactions in an automated facility
KR20080022333A (ko) 화상 인식이 가능한 디지털 기기, 그 인식방법 및 그인식방법을 이용한 부가서비스 제공방법
CN111091118A (zh) 图像的识别方法、装置及电子设备和存储介质
WO2023130450A1 (zh) 标准图像取得方法、标准图像取得装置以及货架分配推测方法
US20230274227A1 (en) Retail shelf image processing and inventory tracking system
CN110674863B (zh) 汉明码识别方法、装置及电子设备
US20230274410A1 (en) Retail shelf image processing and inventory tracking system
US11556729B2 (en) Information processing apparatus, control method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140402

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141125