JP7313901B2 - 物品認識装置および物品認識方法 - Google Patents

物品認識装置および物品認識方法 Download PDF

Info

Publication number
JP7313901B2
JP7313901B2 JP2019095404A JP2019095404A JP7313901B2 JP 7313901 B2 JP7313901 B2 JP 7313901B2 JP 2019095404 A JP2019095404 A JP 2019095404A JP 2019095404 A JP2019095404 A JP 2019095404A JP 7313901 B2 JP7313901 B2 JP 7313901B2
Authority
JP
Japan
Prior art keywords
article
image
placement surface
camera
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019095404A
Other languages
English (en)
Other versions
JP2020190887A (ja
Inventor
哲也 信岡
徳政 有賀
真明 安永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2019095404A priority Critical patent/JP7313901B2/ja
Priority to US16/708,519 priority patent/US20200372279A1/en
Priority to CN201911301562.9A priority patent/CN111985290B/zh
Priority to EP20159033.8A priority patent/EP3742335A1/en
Publication of JP2020190887A publication Critical patent/JP2020190887A/ja
Application granted granted Critical
Publication of JP7313901B2 publication Critical patent/JP7313901B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Cash Registers Or Receiving Machines (AREA)

Description

本発明の実施形態は、物品認識装置および物品認識方法に関する。
カメラが撮影した撮影画像から複数の物品(対象物)を認識する物品認識装置が実用化されている。物品認識装置は、一般的に、テンプレートマッチング(画素マッチング)、あるいは、局所的な特徴(局所特徴量等)の比較などによって物品を認識する。物品認識装置は、前処理として認識対象とする領域を限定するために物品の領域を特定する処理を行うことがある。
従来、画像における物品の領域を特定する技術としては、奥行情報、または、背景差分等によって物品領域を特定する方法がある。しかしながら、奥行情報から物品領域を特定する方法は、一般に物体のエッジ付近で奥行きの測定精度が低下してしまうことから領域特定の精度が下がる可能性がある。また、背景差分によって物品領域を特定する方法は、背景の画像と物品の画像との差が小さい場合には物品領域を特定する精度が低下する。また、背景差分によって物品領域を特定する方法は、一般的に背景変動に弱く、外光や照明環境が変わってしまうと物品の領域特定の精度が下がる可能性もある。
特開2017-162217号公報
上記した課題を解決するために、物品の認識精度を向上できる物品認識装置および物品認識方法を提供する。
実施形態によれば、物品認識装置は、第1のインターフェースと、第2のインターフェースと、プロセッサとを備える。第1のインターフェースは、認識対象とする物品を載置する載置面を含む領域を撮影領域とするカメラが撮影した画像を取得する。第2のインターフェースは、載置面に画像を表示する表示装置へ表示用の画像を出力する。プロセッサは、第1のインターフェースで取得するカメラが撮影した第1の画像から前記載置面に載置されている物品と区別できる直線で構成するパターンによって前記載置面に表示する背景画像を生成し、第2のインターフェースから表示用の画像として出力する背景画像を表示装置によって載置面に表示した状態においてカメラが撮影する第2の画像を第1のインターフェースにより取得し、前記第2の画像から前記載置面に載置されている物品の領域を特定する。
図1は、実施形態に係る物品認識装置の外観構成例を概略的に示す図である。 図2は、実施形態に係る物品認識装置の物品載置台に物品を載置した状態を示す図である。 図3は、実施形態に係る物品認識装置の制御系の構成例を示すブロック図である。 図4は、第1実施形態に係る物品認識装置による物品認識処理の流れを説明するためのフローチャートである。 図5は、第1実施形態に係る物品認識装置による画像に対する色分析の例を説明するための図である。 図6は、第2実施形態に係る物品認識装置が認識対象とする物品の例を示す図である。 図7は、第2実施形態に係る物品認識装置における物品を載置する載置面に複数の領域ごとに異なる画像を表示した例を模式的に示す図である。 図8は、第2実施形態に係る物品認識装置による物品認識処理の流れを説明するためのフローチャートである。 図9は、第2実施形態に係る物品認識装置における各領域の画像に対する色分析の他の例を説明するための図である。 図10は、第3実施形態に係る物品認識装置による物品認識処理の流れを説明するためのフローチャートである。 図11は、第3実施形態に係る物品認識装置が認識対象とする物品の例を示す図である。 図12は、第3実施形態に係る物品認識装置が載置面に載置された物品の撮影画像から検出する直線の例を示す図である。 図13は、第3実施形態に係る物品認識装置が載置面に背景として表示するパターンの例を示す図である。 図14は、第3実施形態に係る物品認識装置が載置面に表示するパターンとしての直線の方向を決定する処理例を説明するための図である。 図15は、第3実施形態に係る物品認識装置が載置面に背景として表示するパターンの他の例を示す図である。 図16は、第3実施形態に係る物品認識装置が載置面に背景として表示するパターンの他の例を示す図である。 図17は、第3実施形態に係る物品認識装置が載置面に背景として表示するパターンの他の例を示す図である。
以下、第1、第2および第3実施形態について、図面を参照して説明する。
以下に説明する各実施形態に係る物品認識装置は、カメラが撮影する撮影画像から物品(商品)を検出する。実施形態に係る物品認識装置は、例えば、撮影画像から決済対象とする商品の領域(物品領域)を検出し、特定した物品領域から商品を認識するものに適用される。また、物品認識装置は、物品の数を計数するために撮影画像に存在する個々の物品を特定するための物品領域を検出するものであっても良い。
(第1実施形態)
まず、第1実施形態について説明する。
図1は、第1実施形態に係る物品認識装置1の外観の構成例を概略的に示す図である。
図1に示すように、物品認識装置1は、筐体2、物品載置台(ディスプレイ)3、カメラ4、および操作パネル5を有する。物品認識装置1は、認識対象となる物品の領域を特定し、特定した物品領域から物品を認識する。物品認識装置1は、例えば、物品の一例としての商品を販売する店舗などに設置される決済装置に搭載される。また、物品認識装置1が搭載される決済装置は、利用者が自ら操作するセルフレジであっても良い。また、物品認識装置1が搭載される決済装置は、店舗の店員が操作するレジであっても良い。
筐体2は、物品認識装置1の外形を形成する。筐体2は、各部を設置できる形状であれば良く、特定の形状に限定されるものではない。図1が示す例において、筐体2は、物品載置台3の上方にカメラ4が設置される形状を有する。また、筐体2は、プロセッサ、記憶部及び各種のインターフェース等を有する処理部20(図3参照)を含む計算機(コンピュータ)を格納する。例えば、筐体2内に格納される計算機としての処理部が物品認識装置1としての物品認識処理などの処理を実現する。
物品載置台3は、認識対象とする物品を載置する載置面を有する。物品載置台3は、表示装置(ディスプレイ)3aを具備する。物品載置台3は、載置面が表示装置3aの表示画面となるように構成する。すなわち、物品載置台3の物品Mを載置する載置面は、表示装置3aの表示画面となっている。
図2は、物品Mを載置した物品載置台3の載置面を上方(カメラ4の設置)から見た例を示す図である。
物品載置台3の載置面としての表示画面は、図2に示すように、認識対象とする物品Mが配置できるように構成する。物品載置台3の載置面は、認識対象とする複数の物品を載置しても良い。
また、図2に示すような物品載置台3の載置面は、カメラ4の撮影範囲に入るように設定される。表示装置3aは、物品を載置する載置面(表示画面)に表示用の画像を表示する。表示装置3aは、物品を載置する載置面を表示画面とし、物品載置台3の上方のカメラから撮影できるのであれば良く、特定の形状に限定されるものではない。例えば、表示装置3aは、物品が載置可能な表示画面をカメラ4(上方)に向けて筐体2に直接設置しても良い。また、表示装置3aは、筐体2に内蔵し、載置面となるアクリルなどの透明板等の下方に設置しても良い。
物品載置台3の表示装置3aは、後述する処理部20から供給される表示用の画像を表示画面に表示する。物品載置台3の表示装置3aが載置面に表示する画像は、載置面上の物品Mを上方から撮影するカメラ4の撮影画像において物品Mに対する背景画像となる。表示装置3aが載置面に表示する画像(背景画像)は、後述の各実施形態で説明するように、選択された色の画像、分割した領域毎に色が設定された画像、或いは特定の模様からなる画像などである。
カメラ4は、物品載置台3の載置面を含む領域を撮影範囲として撮影する。図1が示す構成例において、カメラ4は、図2に示すように物品載置台3の載置面を上方から撮影するように設置する。カメラ4は、物品載置台3における載置面としての表示画面に表示する画像とともに載置面上に置かれた物品Mを撮影できるものであれば良い。例えば、カメラ4は、CCDカメラなどで構成する。また、カメラ4は、複数個のカメラであっても良い。カメラ4は、特定の構成に限定されるものではない。
操作パネル5は、表示装置(ディスプレイ)と操作装置とを含む。例えば、操作パネル5は、操作装置としてのタッチパネルを具備する表示装置である。また、操作パネル5は、表示装置と共に、キーボードおよびテンキーなどを設けたものであっても良い。さらに、操作パネル5は、利用者からジェスチャーの入力を受け付けるものであっても良い。操作パネル5は、任意の位置に設置して良い。
ここでは、操作パネル5が、タッチパネルを具備する表示装置であることを想定するものとする。この場合、操作パネル5の表示装置は、液晶ディスプレイあるいは有機ELディスプレイなどの表示パネルと表示パネルに画像を表示させる駆動回路とを備える。操作パネル5の操作装置は、操作者が種々の操作指示を入力するためのユーザインターフェースである。操作パネル7は、操作者が入力する操作指示を示す情報を処理部へ送信する。
なお、物品認識装置1は、物品として認識する商品を決済する決済部を具備する決済装置として実現しても良い。物品認識装置1としての決済装置に具備する決済部は、商品の代金などを決済できるものであれば良い。この場合、決済部は、クレジットカードを処理するものであっても良いし、携帯端末あるいはICカード等の電子機器が有する電子マネーで金額を決済するものであっても良い。また、決済部は、現金を処理するものであっても良い。
また、物品認識装置1は、物品載置台3に商品が載置されたことを検知する検知部を有しても良い。例えば、物品認識装置1は、物品載置台3の載置面に商品が載置されたことを検知部が検知した場合に物品認識処理を開始するようにしても良い。
次に、物品認識装置1の制御系の構成例について説明する。
図3は、物品認識装置1の制御系の構成例を示すブロック図である。
図3が示すように、物品認識装置1は、処理部20に、表示装置3a、カメラ4および操作パネル5が接続される構成を有する。処理部20は、プロセッサ21、ROM22、RAM23、不揮発性メモリ24、カメラI/F(第1のインターフェース)25、表示I/F(第2のインターフェース)26、パネルI/F(第3のインターフェース)27などを有する。
プロセッサ21は、物品認識装置1全体の制御を司る。プロセッサ21は、例えば、CPUである。プロセッサ21は、ROM22或は不揮発性メモリ24が記憶するプログラムおよび制御データに基づいて種々の処理を実現する。例えば、プロセッサ21は、ROM22が記憶するプログラムを実行することにより、物品認識装置1の動作制御および物品認識処理などの種々の処理を行う。
なお、後述するプロセッサ21が実現する各種の機能のうちの一部は、ハードウエアにより実現しても良い。
ROM22は、予め制御用のプログラム及び制御データなどを記憶する不揮発性のメモリである。ROM22は、製造段階で制御プログラム及び制御データなどを記憶した状態で物品認識装置1に組み込まれる。即ち、ROM22に記憶される制御プログラム及び制御データは、予め物品認識装置1の仕様に応じて組み込まれる。
RAM23は、揮発性のメモリである。RAM23は、ワーキングメモリとして機能する。RAM23は、例えば、プロセッサ21が処理中のデータを一時的に格納する。RAM23は、プロセッサ21からの命令に基づきアプリケーションプログラムを格納する。また、RAM23は、アプリケーションプログラムの実行に必要なデータおよびアプリケーションプログラムの実行結果などを格納してもよい。
不揮発性メモリ24は、データの書き込み及び書換えが可能な不揮発性のメモリにより構成される。例えば、不揮発性メモリ24は、HDD(ハードディスクドライブ)、SSD(ソリッドステートドライブ)、EEPROM(登録商標)あるいはフラッシュROMなどで構成される。不揮発性メモリ24は、物品認識装置1の運用用途に応じた制御プログラム、アプリケーション、および、種々のデータを格納する。
また、不揮発性メモリ24は、物品を認識するための情報を記憶する物品データベース(DB)を有する。物品DBは、物品認識処理の対象となる物品に関する情報を記憶する。なお、物品DBは、通信インターフェースを介して通信可能な外部装置に設けても良い。物品DBは、例えば、認識対象とする物品ごとに、物品コード、物品名、物品区分などの物品情報と物品認識処理に用いる物品特定情報とを記憶する。物品特定情報は、撮影画像から物品を認識するための特徴情報、物品の外形(輪郭)を示す情報(外形情報)、および、物品の高さを示す情報(高さ情報)などで構成する。外形情報は、例えば、物品の矩形の面に対する4隅の座標であっても良い。また、外形情報は、物品載置台3の載置面に置いた物品を上方から見た場合における物品の輪郭の形状を示す情報であっても良い。また、外形情報は、物品載置台3の載置面に置いた物品を上方から見た場合の面積を示す情報であっても良い。
カメラインターフェース(I/F)25は、カメラ4と処理部20とを接続するためのインターフェースである。プロセッサ21とカメラ4とは、カメラI/F25を介してデータを入出力する。カメラI/F25は、カメラ4が撮影した撮影画像を取得する画像取得部として機能する。例えば、プロセッサ21は、カメラI/F25を介して、カメラ4に画像の撮影を指示し、カメラ4が撮影した画像を取得する。
表示インターフェース(I/F)26は、物品載置台3が具備する表示装置3aと処理部20とを接続するためのインターフェースである。プロセッサ21と表示装置3aとは、表示I/F26を介してデータを入出力する。表示I/F26は、プロセッサ21が表示装置3aに対して表示画面に表示する表示用の画像を供給するためのインターフェースとして機能する。例えば、プロセッサ21は、表示I/F26を介して、表示装置3aに表示画面に表示する色を指示するようにしても良い。また、プロセッサ21は、表示I/F26を介して、表示装置3aに表示画面に表示する模様などのパターンを指示するようにしても良い。
パネルインターフェース(I/F)27は、操作パネル5と処理部20とを接続するためのインターフェースである。操作パネル5が表示装置と操作装置とを含む場合、パネルI/F27は、プロセッサ21と表示装置とを接続するためのインターフェースとプロセッサ21と操作装置とを接続するためのインターフェースとを含む。操作パネル5の表示装置は、パネルI/F27を介してプロセッサ21から供給される表示制御に基づいて画面を表示する。タッチパネルなどの操作パネル5の操作装置は、入力された情報をパネルI/F27を介してプロセッサ21へ供給する。
なお、物品認識装置1は、警告などを報知するための音を発するスピーカを設けても良い。この場合、処理部20には、スピーカを接続するためのインターフェースが設けられる。スピーカは、インターフェースを介して接続されるプロセッサ21からの制御に基づいて音を発するようにすれば良い。
次に、第1実施形態に係る物品認識装置1の動作について説明する。
図4は、第1実施形態に係る物品認識装置1の動作例を説明するためのフローチャートである。
待機状態において、処理部20のプロセッサ21は、物品認識処理の開始を指示を受け付ける(ACT11)。例えば、プロセッサ21は、物品認識処理の開始を指示するスタートボタンへの受け付ける。スタートボタンは、物品載置台3の載置面に載置された物品に対する物品認識処理の開始を指示するボタンである。
例えば、スタートボタンは、操作パネル5の表示装置が表示するアイコンであるものとする。操作パネル5のタッチパネルは、アイコンとして表示したスタートボタンへの入力を検知する。スタートボタンは、他の操作方法で指示するものであっても良い。また、物品認識処理の開始の指示は、スタートボタンへの入力以外の操作であっても良い。例えば、プロセッサ21は、センサなどの検知器によって物品載置台3の載置面に物品が載置されたことを検知した場合に物品認識処理を開始するようにしても良い。
物品認識処理の開始が指示されなければ(ACT11、NO)、処理部20のプロセッサ21は、物品認識処理の開始の指示を受け付けた状態のままで待機する。物品認識処理の開始が指示された場合(ACT11、YES)、プロセッサ21は、カメラ4が撮影する撮影画像を第1の画像としてカメラインターフェース25を介して取得する(ACT12)。例えば、プロセッサ21は、物品載置台3の表示装置3aによる画像の表示をオフとした状態でカメラ4に第1の画像としての画像の撮影を指示する。カメラ4は、プロセッサ21からの指示に応じて物品載置台3の載置面(表示画面)を含む撮影範囲の画像を撮影する。カメラ4は、撮影した画像を第1の画像としてカメラインターフェース25を介して処理部20へ供給する。
なお、カメラ4が第1の画像を撮影する場合、プロセッサ21は、物品載置台3の表示装置3aが載置面としての表示画面全体に所定の色(例えば、白、黒)を表示するように制御しても良い。つまり、プロセッサ21は、カメラ4が撮影する第1の画像から載置面上に載置された物品が持つ色を判定できるように物品載置台3の表示装置3aを制御すれば良い。
第1の画像を取得すると、処理部20のプロセッサ21は、取得した第1の画像における色(画素値)を分析する(ACT13)。プロセッサ21は、第1の画像における色の分析結果に基づいて背景として表示する色を選択する(ACT14)。例えば、プロセッサ21は、色の分析として、第1の画像から画像内に存在しない色を示す画素値を探索する。第1の画像は、載置面に載置した物品の画像を含むものである。従って、第1の画像内に存在しない色は、載置面に載置された物品が持たない色である。第1の画像内に存在しない色を示す画素値を探索する方法(色の分析方法)としては、当該画像に存在する各色を示す画素値をカウントする方法がある。
図5は、画像内における色の分析方法の一例を説明するための図である。
図5に示す例では、プロセッサ21は、第1の画像に存在する各色を示す画素値をカウントすることでヒストグラムを作成する。プロセッサ21は、作成したヒストグラムにおいて度数が0となる色を示す画素値を探索(選択)する。例えば、度数0となる色を示す画素値は、図5に示すような度数0の区間Aあるいは度数0の区間Bの中からランダムで選択しても良い。また、度数0となる色を示す画素値は、ヒストグラムにおいて最も長い度数0の区間(図5に示す度数0の区間A)における中央の色を示す画素値を選択しても良い。これにより、プロセッサ21は、第1の画像から画像内に存在しない色を示す画素値を探索できる。
また、背景として表示する色は、上述の方法とは別の方法によって選択するようにしても良い。例えば、背景として表示する色は、第1の画像における代表色に対して色相環で補色(反対色)となる色を選択するようにしても良い。この場合、色分析としては、第1の画像における代表色を特定する処理を行うものとなる。なお、画像の代表色を特定する処理および代表色の補色(反対色)となる色を選択する処理については、第2実施形態で説明する処理が適用できるものとする。
第1の画像に基づいて背景として表示する色(画素値)を選択すると、プロセッサ21は、選択した色で構成する画像(背景画像)を生成し、生成した画像を物品載置台3の表示装置3aに表示させる(ACT15)。例えば、プロセッサ21は、第1の画像に存在しない色として選択した色で構成する背景画像を表示用の画像として表示I/F26を介して表示装置3aへ供給する。これに応じて、表示装置3aは、載置面としての表示画面全体に処理部20から供給される背景画像を表示する。
プロセッサ21は、第1の画像に基づいて選択した色で載置面を表示した状態でカメラ4が撮影する撮影画像を第2の画像としてカメラインターフェース25を介して取得する(ACT16)。例えば、プロセッサ21は、物品載置台3の表示装置3aにより載置面(表示画面)を第1の画像に基づいて選択した色で表示させる。プロセッサ21は、載置面を第1の画像に基づいて選択した色で表示させた状態でカメラ4に画像の撮影を指示する。カメラ4は、プロセッサ21からの指示に応じて第1の画像に基づいて選択した色が表示された載置面を含む撮影範囲の画像を第2の画像として撮影する。カメラ4は、選択した色が表示された載置面を表示した状態で撮影した画像を第2の画像としてカメラインターフェース25を介して処理部20へ供給する。
第2の画像を取得すると、処理部20のプロセッサ21は、取得した第2の画像から物品領域を特定する(ACT17)。例えば、プロセッサ21は、第2の画像から表示装置3aにより載置面に表示した色以外の画像を抽出することで、物品領域を抽出する。第2の画像は、第1の画像に基づいて選択した色で載置面を表示した状態で撮影した画像であるから、載置面に表示した色以外の領域が背景以外の領域(つまり、物品領域)となる。また、物品領域を特定する方法は、背景色と物品領域の色が異なるので、濃度差を利用した特定方法、Deep Learningを利用した特定を行っても良い。また、物品領域を特定する方法は、いくつかの方式を併用しても良く、特定の方式に限定されるものではない。
物品領域を特定すると、プロセッサ21は、特定した物品領域に対して物品を認識する認識処理を実行する(ACT18)。プロセッサ21は、認識処理として、物品領域の画像から物品を認識するための画像情報を抽出し、抽出した画像情報に基づいて物品を認識する。画像情報は、認識に用いる画像の特徴を示す特徴量を含む。例えば、画像情報は、画像の局所的な特徴を示す局所特徴量とその位置を示す特徴点の座標情報とを有する。また、画像情報には、その他の情報を有していても良い。また、画像の特徴を示す特徴量としては、物品の濃度勾配あるいはテクスチャのパターン等でも良い。また、画像の特徴を示す特徴量は、Deep Learningを利用して特徴抽出を行っても良く、特定の方式に限定されるものではない。
また、認識処理において物品を認識(識別)するための物品の認識方法は、上記した画像情報としての局所特徴量を利用した局所特徴量方式が適用できる。また、物品の認識方法は、テクスチャパターン等を利用したオブジェクト認識方式、Deep Learning方式を利用した認識方法であっても良い。さらに、物品の認識方法は、画像から高周波成分の強い領域を検出することでバーコード領域(バーコード)を取得し、取得したバーコードをデコードするものであっても良い。この場合、プロセッサ21は、バーコードをデコードして得る物品コードと物品データベースに登録した物品コードとを照合することで物品を認識できる。また、物品の認識方法は、特定の方式に限定されるものでは無く、いくつかの方式を併用しても良い。
上記のように、第1実施形態に係る物品認識装置は、物品を載置する載置面に画像を表示する表示装置を有する。第1実施形態において、物品認識装置は、載置面を含む撮影領域を撮影するカメラから取得する第1の画像に対する色分析によって選択(探索)する色で構成した背景画像を生成する。物品認識装置は、第1の画像に基づいて選択した色で構成した背景画像を載置面に表示した状態でカメラが撮影する第2の画像から物品領域を特定する。物品認識装置は、特定した物品領域の画像情報を用いて物品を認識する。
これにより、背景と似た輝度あるいは色情報を持つ物品であっても物品を載置する載置面に表示する背景を変化させることで物品領域を確実に特定することが可能となる。この結果、第1実施形態によれば、認識精度および処理速度を向上することができる物品認識装置を提供できる。
(第2実施形態)
次に、第2実施形態について説明する。
第2実施形態は、第1実施形態で説明した図1乃至図3に示す構成の物品認識装置1において実現されるものとする。このため、第2実施形態では、物品認識装置1の構成についての詳細な説明を省略するものとする。第2実施形態に係る物品認識装置1は、物品を載置する載置面となる表示装置3aの表示画面を複数の領域に分割し、分割した領域毎に選択した画像を表示する。
図6は、認識対象とする物品M´の一例を示す図である。
図6に示す物品M´は、異なる色の複数の領域からなる外観を有するものである。つまり、物品M´は、撮影される被撮影面において異なる色からなる複数の領域が混在する。このため、物品M´を載置する載置面における背景全体を1つの色とすると、カメラ4が撮影する撮影画像から物品M´の領域を特定するのが難しい場合がありうる。このため、第2実施形態では、表示装置3aが画像を表示する載置面の領域(物品の載置領域、背景画像の表示領域)を複数の領域に分割し、分割した領域ごとに表示する色を選択する。これにより、異なる色からなる複数の領域を外観に有する物品M´であっても、撮影画像から物品領域を特定しやすくするものである。
図7は、表示装置3aが画像(背景画像)を表示する載置面の領域を3分割し、3分割した領域ごとに異なる色を表示した例を示す図である。
図7に示すように、物品M´が載置される載置面上の表示領域を3分割する場合、物品認識装置1は、3分割した領域R1、R2、R3ごとに選択(設定)した色を表示する。各領域に表示する色は、第1実施形態と同様な色分析によって選択して良い。例えば、第1の画像を3分割し、領域ごとに画像に存在しない色を探索し、探索した色を各領域の背景として表示する図7に示すような背景画像を生成する。
また、各領域に背景として表示する色は、分割した各領域において物品の画像と背景とが区別しやすい色であれば良い。従って、各領域に背景として表示する色は、第1実施形態で説明した色分析とは異なる方法で選択するようにしても良い。
また、図7に示す例は、領域を3分割する例を示したが、分割する領域は、運用形態あるいは認識対象とする物品などに応じて適宜設定して良い。例えば、分割する領域は、図7に示すような3分割よりも更に細かく設定しても良い。分割する領域を細かく設定すればするほど、複数商品あるいは複雑な色構成の外観を有する物品であっても物品領域の特定が確実に行える。
次に、第2実施形態に係る物品認識装置1の動作について説明する。
図8は、第2実施形態に係る物品認識装置1の動作例を説明するためのフローチャートである。
第2実施形態において、物品認識装置1のプロセッサ21は、第1実施形態で説明したACT11と同様に、物品認識処理の開始の指示を受け付ける(ACT21)。物品認識処理の開始の指示が入力されなければ(ACT21、NO)、プロセッサ21は、物品認識処理の開始の指示を受け付けた状態のままで待機する。物品認識処理の開始の指示が入力されると(ACT21、YES)、プロセッサ21は、カメラ4が撮影する撮影画像を第1の画像としてカメラインターフェース25を介して取得する(ACT22)。ACT22の処理は、第1実施形態で説明したACT12と同様な処理で実現できる。
第1の画像を取得すると、プロセッサ21は、第1の画像を複数の領域に分割し、分割した領域ごとに色(画素値)を分析する(ACT23)。プロセッサ21は、各領域に対する色の分析結果に基づいて載置面における各領域に背景として表示する色を選択する(ACT24)。例えば、プロセッサ21は、第1実施形態のACT13と同様な処理を各領域に適用することにより各領域の画像における色を分析しても良い。この場合、プロセッサ21は、各領域の画像に対する色の分析結果から各領域に背景として表示する色を示す画素値を選択する。
また、各領域に対する色の分析としては、第1実施形態で説明したような画像に存在しない色を探索するものに限定されるものではない。例えば、各領域に背景として表示する色は、各領域における代表色に対して色相環で反対付近を示す色(補色、反対色)を選択するようにしても良い。この場合、各領域に対する色の分析としては、第1の画像において分割した各領域における代表色を特定(探索)する処理を行う。これにより、物品の画像(色)と背景画像との差を大きくすることができ、精度良く物品領域を特定することが可能となる。
図9は、画像から代表色を探索するためのヒストグラムの例を示す図である。
図9に示す例において、代表色とする色(画素値)としては、分割した領域の画像におけるヒストグラムの度数から極大値となる値を選択する。また、代表色とする色(画素値)は、図9に示すように、分割した領域の画像におけるヒストグラムの度数平均値を選択するようにしても良い。
なお、各領域に背景として表示する色は、第1の画像において分割した領域内でエッジ検出を行い、検出したエッジの色に基づいて選択するようにしても良い。
分割した領域毎に背景として表示する色を選択すると、プロセッサ21は、各領域を選択した色で表示する画像(背景画像)を生成する(ACT25)。背景画像を生成すると、プロセッサ21は、表示インターフェース26を介して背景画像を表示用の画像として表示装置3aへ供給する。これに応じて、表示装置3aは、分割した領域ごとに色が設定された背景画像を載置面となる表示画面に表示する(ACT26)。
プロセッサ21は、領域毎に選択した色からなる背景画像を載置面に表示した状態でカメラ4が撮影する撮影画像を第2の画像としてカメラI/F25を介して取得する(ACT27)。例えば、プロセッサ21は、載置面(表示画面)に領域毎に選択した色からなる背景画像を表示させた状態でカメラ4に画像の撮影を指示する。カメラ4は、プロセッサ21からの指示に応じて載置面(表示画面)を含む撮影範囲の画像を第2の画像として撮影する。カメラ4は、撮影した画像を第2の画像としてカメラインターフェース25を介して処理部20へ供給する。
第2の画像を取得すると、処理部20のプロセッサ21は、取得した第2の画像から物品領域を特定する(ACT28)。例えば、プロセッサ21は、第2の画像と領域毎に選択した色からなる背景画像との差分から物品領域を抽出する。また、物品領域を特定する方法は、濃度差を利用した特定方法、Deep Learningを利用した特定を行っても良い。また、物品領域を特定する方法は、いくつかの方式を併用しても良く、特定の方式に限定されるものではない。
物品領域を特定すると、プロセッサ21は、特定した物品領域に対して物品を認識する認識処理を実行する(ACT29)。物品領域の画像から物品を認識する認識処理としては、第1実施形態で説明した処理を適用できる。例えば、プロセッサ21は、認識処理として、物品領域の画像から物品を認識するための画像情報を抽出し、抽出した画像情報に基づいて物品を認識する。
上記のように、第2実施形態に係る物品認識装置は、物品を載置する載置面に画像を表示する表示装置を有する。第2実施形態において、物品認識装置は、載置面を含む撮影領域を撮影するカメラから取得する第1の画像に基づいて複数に分割した領域毎に背景として表示する色を選択し、各領域を選択した色で表示する背景画像を生成する。物品認識装置は、領域毎に選択した色からなる背景画像を表示した状態でカメラが撮影する第2の画像と当該背景画像とから物品領域を特定する。物品認識装置は、特定した物品領域の画像情報を用いて物品を認識する。
これにより、色の領域が混在する物品であっても載置面に表示する背景の色を分割する領域ごとを変化させることで物品領域を確実に特定することが可能となる。この結果、第2実施形態によれば、物品の認識精度を向上でき、物品認識処理の処理速度も向上することができる物品認識装置を提供できる。
(第3実施形態)
次に、第3実施形態について説明する。
第3実施形態は、第1実施形態で説明した図1乃至図3に示す構成の物品認識装置1において実現されるものとする。このため、第3実施形態では、物品認識装置1の構成についての詳細な説明は省略するものとする。
第3実施形態に係る物品認識装置1は、物品を載置する載置面となる表示装置3aの表示画面に表示する背景画像を一定のパターン(模様)するものである。例えば、物品認識装置1は、カメラ4が撮影した撮影画像から画像中に存在しないパターンを特定する。物品認識装置1は、特定したパターンで構成した画像を背景画像として載置面となる表示画面に表示する。物品認識装置1は、背景画像として表示するパターンを示す領域とそれ以外の領域(物品領域)とを分離することで物品領域を特定する。
次に、第3実施形態に係る物品認識装置1の動作について説明する。
図10は、第2実施形態に係る物品認識装置1の動作例を説明するためのフローチャートである。
第2実施形態において、物品認識装置1のプロセッサ21は、第1実施形態で説明したACT11と同様に、物品認識処理の開始の指示を受け付ける(ACT31)。物品認識処理の開始の指示がなければ(ACT31、NO)、プロセッサ21は、物品認識処理の開始の指示を入力待ちの状態で待機する。物品認識処理の開始が指示されると(ACT31、YES)、プロセッサ21は、カメラ4が撮影する撮影画像を第1の画像としてカメラインターフェース25を介して取得する(ACT32)。ACT32の処理は、第1実施形態で説明したACT12と同様な処理で実現できる。
第1の画像を取得すると、プロセッサ21は、第1の画像におけるパターン(模様)の分析を行う(ACT33)。プロセッサ21は、第1の画像に対するパターンの分析結果に基づいて載置面に背景として表示するパターンを決定する(ACT34)。パターンの分析は、第1の画像に存在する物品が持つパターンを特定する処理である。例えば、パターンの分析としては、第1の画像に存在する物品が持つパターンを構成する直線を検出する処理を行う。
図11は、物品載置台3の載置面に載置された認識対象となる物品M´´の例を示す図である。また、図12は、図11に示す物品M´´を撮影した撮影画像から検出される直線sの例を示す図である。
例えば、プロセッサ21は、図11に示すような撮影画像(第1の画像)に対して直線を検出する処理を施す。プロセッサ21は、第1の画像としての撮影画像から直線を検出する処理によって、図12に示すような複数の直線sを検出する。ここで、画像から直線を検出する方法は、ハフ変換などの画像処理を適用することで実現できる。ただし、画像から直線を検出する方法は、特定の方法に限定されるものではない。
図13は、図12に示すように検出した直線sに基づいて決定するパターンからなる背景画像の例を示す図である。
図13は、図12に示すような検出した直線方向以外の方向となる直線からなるパターンで構成する画像(背景画像)を背景として表示した状態を示す。つまり、図13は、背景として表示するパターンを、図12に示す第1の画像から検出した直線方向以外の方向となる直線からなるパターンとした例を示す。図13に示す背景画像は、図12に示す物品M´´に含まれる直線と一致する方向の直線を含まない。これにより、物品M´´の物品領域は、図13に示す背景画像とを確実に区分けできる。
ここで、背景として表示するパターンを構成する直線の方向は、第1の画像から検出した直線方向以外の方向からランダムで選択しても良い。
また、第1の画像から複数方向の直線が検出された場合、検出した各直線方向のなす角などに応じて、背景として表示するパターンを構成する直線の方向を決めても良い。
図14は、第1の画像から3つの方向の直線が検出された場合に、背景として表示するパターンを構成する直線の方向の決め方の例を示す図である。
図14に示すように、第1の画像から3つの方向の直線(直線方向s1、s2、s3)を検出した場合、検出した3つの直線方向のなす角などから背景のパターンとして表示する直線の方向を決めても良い。図14に示すように、3つの直線方向s1,s2,s3を基準点(原点)で交差させた場合、隣り合う直線方向のうちなす角が最も広い(角度に差がある)2つの直線方向の中間方向spが決定できる。図14に示す例では、直線方向s2と直線方向s3とが最も広くなるため、直線方向s2と直線方向s3との中間方向spの直線を背景として表示するパターンとして決定する。
また、背景として表示するパターンは、図13に示すような直線からなるパターンに限定されるものではない。背景として表示するパターンは、第1の画像に存在する物品の画像と区別し易いパターンであれば良い。
図15、図16および図17は、背景として表示するパターンの他の例を示す図である。
図15は、第1の画像から同一方向の直線が複数検出される場合、最も多く検出した直線smの方向に対して直行する方向の直線soを背景として表示するパターンとする例である。
この場合、プロセッサは、例えば、第1の画像から検出した直線の数を方向ごとにカウントし、最も検出数が多い直線の方向smを特定する。最も検出数が多い直線の方向smを特定すると、プロセッサは、最も検出数が多い直線の方向smに直行する方向の直線soを背景として表示するパターンとする。プロセッサ21は、背景として表示するパターンとする直線の方向を決定すると、決定した方向の直線soで構成する背景画像を生成する。
図16は、背景として表示するパータンを楕円からなるパターンとした場合の背景画像の例を示す図である。
この場合、プロセッサ21は、例えば、第1の画像に存在しない形状の楕円を特定する。第1の画像に存在しない楕円を特定すると、プロセッサ21は、特定した楕円を背景として表示するパターンとする。プロセッサ21は、背景として表示するパターンとする楕円を決定すると、決定した楕円で構成する背景画像を生成する。
また、図17は、背景として表示するパータンを長方形からなる格子状のパターンとして場合の背景画像の例を示す図である。
この場合、プロセッサ21は、第1の画像に存在しない縦横比の長方形を特定する。第1の画像に存在しない長方形を特定すると、プロセッサ21は、特定した長方形を背景として表示するパータンとする。プロセッサ21は、背景として表示するパターンとする長方形で構成する背景画像を生成する。図17に示す例では、背景として表示するパターンとする長方形を格子状にならべた画像を背景画像としている。
なお、第3実施形態は、第2実施形態と組み合わせて実施しても良い。すなわち、第2実施形態で説明したように分割した領域ごとに背景とするパターンを決定し、領域ごとに設定したパターンで背景画像を生成しても良い。
背景として表示するパターンを決定すると、プロセッサ21は、決定したパターンを背景として表示するための画像(背景画像)を生成する(ACT35)。背景画像を生成すると、プロセッサ21は、生成した背景画像を表示用の画像として表示インターフェース26を介して表示装置3aへ供給する(ACT36)。これに応じて、表示装置3aは、第1の画像に基づいて決定されたパターンで構成した背景画像を物品を載置する載置面となる表示画面に表示する。
プロセッサ21は、第1の画像に基づいて決定したパターンからなる背景画像を載置面に表示した状態でカメラ4が撮影する撮影画像をカメラI/F25を介して取得する(ACT37)。例えば、プロセッサ21は、第1の画像に基づいて決定したパターンからなる背景画像を載置面に表示し、カメラ4に画像の撮影を指示する。カメラ4は、プロセッサ21からの指示に応じて載置面を含む撮影範囲の画像を第2の画像として撮影する。カメラ4は、撮影した画像を第2の画像としてカメラインターフェース25を介して処理部20へ供給する。
第2の画像を取得すると、処理部20のプロセッサ21は、取得した第2の画像から物品領域を特定する(ACT38)。例えば、プロセッサ21は、第2の画像と背景画像との差分から物品領域を抽出する。
物品領域を特定すると、プロセッサ21は、特定した物品領域に対して物品を認識する認識処理を実行する(ACT39)。プロセッサ21は、第1実施形態で説明したような認識処理によって物品領域の画像から物品を認識する。
上記のように、第3実施形態に係る物品認識装置は、物品を載置する載置面に画像を表示する表示装置を有する。第3実施形態において、物品認識装置は、載置面を含む撮影領域を撮影するカメラから取得する第1の画像に基づいて背景として表示するパターンを決定する。物品認識装置は、決定したパターンで構成した背景画像を表示した状態でカメラが撮影する第2の画像と当該背景画像とから物品領域を特定する。物品認識装置は、特定した物品領域に対して物品の認識処理を実行する。
これにより、多様なパターンを持つ物品であっても物品を載置する載置面に表示するパターンを変化させることで物品領域を確実に特定することが可能となる。この結果、第3実施形態によれば、物品認識処理の精度を向上でき、物品認識処理の処理速度を向上することができる物品認識装置を提供できる。
以上のように、各実施形態に係る物品認識装置は、物品載置台が表示装置を有し、表示装置の表示画面上を物品を載置する載置面とする。物品認識装置は、表示装置が表示する画像(色或いはパターンなど)を制御して撮影した画像から物品領域の特定処理を行う。これにより、実施形態に係る物品認識装置は、撮影画像から背景と物品とを確実に切り分けることができ、物品を認識する前処理として物品領域を精度良く特定できる。この結果として、物品認識装置は、物品の認識精度を向上できるだけでなく、物品認識の処理速度も向上できる。
さらに、各実施形態に係る物品認識装置は、撮影画像に基づいて物品載置台の表示装置が表示する画像を制御した後に撮影する撮影画像から物品領域の特定処理を行う。これにより、物品認識装置は、背景と似た輝度または色またはパターンを持つ物品でも確実に物品の領域を特定することができる。この結果、物品認識装置は、物品の認識精度を向上できる。
なお、上述した実施形態では、装置内のメモリにプロセッサが実行するプログラムが予め記憶されている場合で説明をした。しかし、プロセッサが実行するプログラムは、ネットワークから装置にダウンロードしても良いし、記憶媒体から装置にインストールしてもよい。記憶媒体としては、CD-ROM等のプログラムを記憶でき、かつ装置が読み取り可能な記憶媒体であれば良い。また、予めインストールやダウンロードにより得る機能は、装置内部のOS(オペレーティング・システム)等と協働して実現させるものであってもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下、本願の出願当初の特許請求の範囲に記載した内容を付記する。
[1]
認識対象とする物品を載置する載置面を含む領域を撮影領域とするカメラが撮影した画像を取得する第1のインターフェースと、
前記載置面に画像を表示する表示装置へ表示用の画像を出力する第2のインターフェースと、
前記第1のインターフェースで取得する前記カメラが撮影した第1の画像に基づいて前記載置面に表示する背景画像を生成し、
前記第2のインターフェースから表示用の画像として出力する前記背景画像を前記表示装置によって前記載置面に表示した状態において前記カメラが撮影する第2の画像を前記第1のインターフェースにより取得し、
前記第2の画像から前記載置面に載置されている物品の領域を特定する、
プロセッサと、
を備える物品認識装置。
[2]
前記プロセッサは、
前記第1の画像から前記載置面に載置されている物品と区別できる色を探索し、探索した色によって前記載置面に表示する背景画像を生成する、
[1]に記載の物品認識装置。
[3]
前記プロセッサは、
前記第1の画像を複数の領域に分割し、分割した領域ごとに選択した色によって前記載置面に表示する背景画像を生成する、
[1]に記載の物品認識装置。
[4]
前記プロセッサは、
前記第1の画像から前記載置面に載置されている物品と区別できるパターンを決定し、決定したパターンによって前記載置面に表示する背景画像を生成する、
[1]に記載の物品認識装置。
[5]
認識対象とする物品を載置する載置面を含む領域を撮影領域とするカメラが撮影する第1の画像を取得し、
前記カメラが撮影した第1の画像に基づいて前記載置面に表示する背景画像を生成し、 前記背景画像を前記載置面に表示し、
前記載置面に前記背景画像を表示した状態において前記カメラが撮影する第2の画像を取得し、
前記第2の画像から前記載置面に載置されている物品の領域を特定する、
物品認識方法。
1…物品認識装置、3…物品載置台、3a…表示装置、4…カメラ、5…操作パネル、20…処理部、21…プロセッサ、25…カメラインターフェース(第1のインターフェース)、26…表示インターフェース(第2のインターフェース)。

Claims (5)

  1. 認識対象とする物品を載置する載置面を含む領域を撮影領域とするカメラが撮影した画像を取得する第1のインターフェースと、
    前記載置面に画像を表示する表示装置へ表示用の画像を出力する第2のインターフェースと、
    前記第1のインターフェースで取得する前記カメラが撮影した第1の画像から前記載置面に載置されている物品と区別できる直線で構成するパターンによって前記載置面に表示する背景画像を生成し、
    前記第2のインターフェースから表示用の画像として出力する前記背景画像を前記表示装置によって前記載置面に表示した状態において前記カメラが撮影する第2の画像を前記第1のインターフェースにより取得し、
    前記第2の画像から前記載置面に載置されている物品の領域を特定する、
    プロセッサと、
    を備える物品認識装置。
  2. 前記プロセッサは、
    前記第1の画像から検出する直線とは異なる方向の直線で構成するパターンを決定する、
    請求項1に記載の物品認識装置。
  3. 前記プロセッサは、
    前記第1の画像から検出する複数の直線のなす角に応じた向きの直線で構成するパターンを決定する、
    請求項2に記載の物品認識装置。
  4. 認識対象とする物品を載置する載置面を含む領域を撮影領域とするカメラが撮影した画像を取得する第1のインターフェースと、
    前記載置面に画像を表示する表示装置へ表示用の画像を出力する第2のインターフェースと、
    前記第1のインターフェースで取得する前記カメラが撮影した第1の画像から前記載置面に載置されている物品に存在しない形状の図形で構成するパターンによって前記載置面に表示する背景画像を生成し、
    前記第2のインターフェースから表示用の画像として出力する前記背景画像を前記表示装置によって前記載置面に表示した状態において前記カメラが撮影する第2の画像を前記第1のインターフェースにより取得し、
    前記第2の画像から前記載置面に載置されている物品の領域を特定する、
    プロセッサと、
    を備える物品認識装置。
  5. 認識対象とする物品を載置する載置面を含む領域を撮影領域とするカメラが撮影する第1の画像を取得し、
    前記カメラが撮影した第1の画像から前記載置面に載置されている物品と区別できる直線で構成するパターンによって前記載置面に表示する背景画像を生成し、
    前記背景画像を前記載置面に表示し、
    前記載置面に前記背景画像を表示した状態において前記カメラが撮影する第2の画像を取得し、
    前記第2の画像から前記載置面に載置されている物品の領域を特定する、
    物品認識方法。
JP2019095404A 2019-05-21 2019-05-21 物品認識装置および物品認識方法 Active JP7313901B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019095404A JP7313901B2 (ja) 2019-05-21 2019-05-21 物品認識装置および物品認識方法
US16/708,519 US20200372279A1 (en) 2019-05-21 2019-12-10 Commodity recognition device and commodity recognition method
CN201911301562.9A CN111985290B (zh) 2019-05-21 2019-12-17 物品识别装置和物品识别方法
EP20159033.8A EP3742335A1 (en) 2019-05-21 2020-02-24 Commodity recognition device and commodity recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019095404A JP7313901B2 (ja) 2019-05-21 2019-05-21 物品認識装置および物品認識方法

Publications (2)

Publication Number Publication Date
JP2020190887A JP2020190887A (ja) 2020-11-26
JP7313901B2 true JP7313901B2 (ja) 2023-07-25

Family

ID=69804457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019095404A Active JP7313901B2 (ja) 2019-05-21 2019-05-21 物品認識装置および物品認識方法

Country Status (4)

Country Link
US (1) US20200372279A1 (ja)
EP (1) EP3742335A1 (ja)
JP (1) JP7313901B2 (ja)
CN (1) CN111985290B (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213124A (ja) 2009-03-11 2010-09-24 Nippon Telegr & Teleph Corp <Ntt> 画像撮影・表示方法、画像撮影・表示装置、プログラムおよび記録媒体
JP2017010535A (ja) 2015-06-25 2017-01-12 東芝テック株式会社 物品認識装置および画像処理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101907414B1 (ko) * 2011-12-13 2018-10-15 삼성전자주식회사 촬영 이미지 기반의 문자 인식 장치 및 방법
US9774793B2 (en) * 2014-08-01 2017-09-26 Adobe Systems Incorporated Image segmentation for a live camera feed
US9558553B2 (en) * 2014-11-17 2017-01-31 Ricoh Company, Ltd. Image acquisition and management using a reference image
JP6813310B2 (ja) * 2016-09-02 2021-01-13 東芝テック株式会社 物品読取装置およびプログラム
JP2018041261A (ja) * 2016-09-07 2018-03-15 東芝テック株式会社 情報処理装置及びプログラム
KR102267397B1 (ko) * 2016-10-25 2021-06-21 삼성전자주식회사 전자 장치 및 이의 제어 방법
JP2018137627A (ja) * 2017-02-22 2018-08-30 キヤノン株式会社 表示装置とその制御方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213124A (ja) 2009-03-11 2010-09-24 Nippon Telegr & Teleph Corp <Ntt> 画像撮影・表示方法、画像撮影・表示装置、プログラムおよび記録媒体
JP2017010535A (ja) 2015-06-25 2017-01-12 東芝テック株式会社 物品認識装置および画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤川貴史他,屋内照明環境下におけるインタラクティブディスプレイ上の物体検出,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2011年01月13日,第110巻 第382号,pp.417-422

Also Published As

Publication number Publication date
CN111985290A (zh) 2020-11-24
EP3742335A1 (en) 2020-11-25
CN111985290B (zh) 2024-04-12
US20200372279A1 (en) 2020-11-26
JP2020190887A (ja) 2020-11-26

Similar Documents

Publication Publication Date Title
CN111476227B (zh) 基于ocr的目标字段识别方法、装置及存储介质
US9256775B1 (en) Image recognition apparatus and commodity information processing apparatus
US11699283B2 (en) System and method for finding and classifying lines in an image with a vision system
EP3038015A2 (en) Image recognition apparatus and commodity information processing apparatus
JP2021057054A (ja) 画像認識装置
US9792480B2 (en) Image recognition apparatus, commodity information processing apparatus and image recognition method
JP5799817B2 (ja) 指位置検出装置、指位置検出方法及び指位置検出用コンピュータプログラム
US20140355838A1 (en) Recognition dictionary creation apparatus and method for creating recognition dictionary by the same
US10853611B1 (en) Method for scanning multiple barcodes and system thereof
JP2018133071A (ja) 物品認識装置、決済装置および物品認識方法
US20240078801A1 (en) System and method for finding and classifying lines in an image with a vision system
US20230049798A1 (en) Individual object identification system, individual object identification program, and recording medium
JP2019046461A (ja) 物品認識装置、物品認識方法及び非一時的可読記憶媒体
KR20240058827A (ko) 비전 시스템을 이용하여 이미지에서 라인들을 찾고 분류하기 위한 시스템 및 방법
JP7313901B2 (ja) 物品認識装置および物品認識方法
JP6156740B2 (ja) 情報表示装置及び入力情報補正プログラム並びに入力情報補正方法
US20210209409A1 (en) Article recognition device
JP7322945B2 (ja) 処理装置、処理方法及びプログラム
CN112241639B (zh) 多条码扫描方法及其系统
JP6947283B2 (ja) 店舗装置、店舗システム、画像取得方法、およびプログラム
US20190328157A1 (en) Inspection system, information collection apparatus, inspection method, information collection method, and non-transitory storage medium
CN110766671A (zh) 一种基于机器视觉软件的图像处理方法
EP3038016A1 (en) Image recognition apparatus, commodity information processing apparatus and image recognition method
US20210049574A1 (en) Image identification register apparatus, image identification register system, checkout processing method, and program
US20190347504A1 (en) Article recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220510

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R150 Certificate of patent or registration of utility model

Ref document number: 7313901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150