JP2018067307A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2018067307A
JP2018067307A JP2017193400A JP2017193400A JP2018067307A JP 2018067307 A JP2018067307 A JP 2018067307A JP 2017193400 A JP2017193400 A JP 2017193400A JP 2017193400 A JP2017193400 A JP 2017193400A JP 2018067307 A JP2018067307 A JP 2018067307A
Authority
JP
Japan
Prior art keywords
product
screen
cpu
image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017193400A
Other languages
English (en)
Other versions
JP6957300B2 (ja
Inventor
哲也 信岡
Tetsuya Nobuoka
哲也 信岡
真明 安永
Masaaki Yasunaga
真明 安永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Publication of JP2018067307A publication Critical patent/JP2018067307A/ja
Application granted granted Critical
Publication of JP6957300B2 publication Critical patent/JP6957300B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/0036Checkout procedures
    • G07G1/0045Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader
    • G07G1/0054Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles
    • G07G1/0063Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles with means for detecting the geometric dimensions of the article of which the code is read, such as its size or height, for the verification of the registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/208Input by product or record sensing, e.g. weighing or scanner processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • G06V2201/121Acquisition of 3D measurements of objects using special illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Cash Registers Or Receiving Machines (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象物が重なっている場合に認識に失敗したことを提示することができる画像読取装置及び画像読取方法を提供する。【解決手段】実施形態によれば、スクリーンと、カメラと、距離センサと、プロセッサと、を備える。スクリーンは、一方の面に対象物を配置する。カメラは、撮影画像として前記スクリーンの他方の面から画像を撮影する。距離センサは、前記スクリーンの前記一方の面から距離を測定し、前記距離を示す距離情報を生成する。プロセッサは、前記撮影画像から対象物の領域を抽出し、前記対象物の領域の画像から対象物を特定し、特定された前記対象物に予め設定された外寸を取得し、前記距離情報に基づいて前記スクリーンの前記一方の面に配置される前記対象物の、前記スクリーンからの長さを算出し、前記外寸と、前記対象物の前記長さとが一致しない場合に、アラートを出力する。【選択図】図1

Description

本発明の実施形態は、画像処理装置及び画像処理方法に関する。
決済装置には、スクリーン上に配置される商品を下方から撮影した画像に基づいて商品を認識する画像処理装置を備え認識結果に基づいて商品決済を行うものがある。画像処理装置は、画像から商品がある商品領域を特定し、商品領域からバーコードなどを読み取って商品を認識する。
従来、画像処理装置は、複数の商品が重ねて設置される場合に、商品の認識に失敗したと判定することができないという課題がある。
国際公開2015/140855号
上記の課題を解決するために、対象物が重なっている場合に認識に失敗したと判定することができる画像処理装置及び画像処理方法を提供する。
実施形態によれば、スクリーンと、カメラと、距離センサと、プロセッサと、を備える。スクリーンは、一方の面に対象物を配置する。カメラは、撮影画像として前記スクリーンの他方の面から画像を撮影する。距離センサは、前記スクリーンの前記一方の面から距離を測定し、前記距離を示す距離情報を生成する。プロセッサは、前記撮影画像から対象物の領域を抽出し、前記対象物の領域の画像から対象物を特定し、特定された前記対象物に予め設定された外寸を取得し、前記距離情報に基づいて前記スクリーンの前記一方の面に配置される前記対象物の、前記スクリーンからの高さを算出し、前記外寸と、前記対象物の前記長さとが一致しない場合に、アラートを出力する。
図1は、第1実施形態に係る決済装置の構成例を概略的に示す図である。 図2は、第1実施形態に係る決済装置の構成例を示すブロック図である。 図3は、第1実施形態に係る商品領域の例を示す図である。 図4は、第1実施形態に係る重なった商品の例を示す図である。 図5は、第1実施形態に係る決済装置の表示例を示す図である。 図6は、第1実施形態に係る決済装置の動作例を示すフローチャートである。 図7は、第1実施形態に係る決済装置の動作例を示すフローチャートである。 図8は、第2実施形態に係る決済装置の構成例を概略的に示す図である。 図9は、第2実施形態に係る決済装置の構成例を示すブロック図である。
以下、実施形態について、図面を参照して説明する。
(第1実施形態)
まず、第1実施形態に係る決済装置(画像処理装置)について説明する。
図1は、第1実施形態に係る決済装置1の構成例を概略的に示す。
決済装置1は、スクリーン12上の商品2について決済処理する。決済装置1は、商品を販売する店舗などに設置される。たとえば、決済装置1は、所定の操作を受け付けた場合に、スクリーン12上の商品について決済処理を実行する。決済装置1は、利用者が自ら決済処理を行うセルフレジとして設置されてもよい。また、決済装置1は、店舗の店員が決済処理をする通常のレジとして設置されてもよい。
図1が示すように、決済装置1は、筐体11、スクリーン12、カメラ13、距離センサ14、ディスプレイ15、操作部16及びカードリーダ17などを備える。
筐体11は、決済装置1の外形を形成するフレームである。筐体11は、スクリーン12及びカメラ13などを保持する。
筐体11は、支柱11aを備える。支柱11aは、垂直に上方に伸び所定の位置から水平に伸びる。支柱11aの先端は、スクリーン12の上方に形成される。支柱11aは、距離センサ14、ディスプレイ15及び操作部16を保持する。
スクリーン12は、筐体11の上面に設置される。スクリーン12は、照明光を透過する部材で構成する。たとえば、スクリーン12は、透明又は半透明なガラス又はプラスチックなどで構成する。スクリーン12は、決済対象となる商品2が置かれる台である。即ち、スクリーン12は、決済対象の商品2をセットする所定領域となる。商品2は、被撮影面が下向きになるように、スクリーン12の上面(一方の面)に置かれる。即ち、商品2は、被撮影面がスクリーン12に対向するように、スクリーン12にセットされる。被撮影面が下向きでスクリーン12上にセットされた商品2は、被撮影面がスクリーン12の下側(他方の面)から撮影できる状態となる。
カメラ13は、スクリーン12の下方に上向きで設置される。カメラ13は、スクリーン12の下側からスクリーン12上の撮影領域の画像(スクリーン12の他方の面を撮影範囲とした画像)を撮影する。カメラ13は、スクリーン12上に置かれた商品2の被撮影面の画像を含む撮影画像を撮影する。また、カメラ13は、近赤外線などの不可視光の画像を撮影するものであってもよい。
また、カメラ13は、スクリーン12の上面(スクリーン12上に置かれた商品2の少なくとも一部が接する面)付近にフォーカスを合わせる。これにより、カメラ13は、少なくとも一部がスクリーン12の上面に接する商品2の被撮影面にフォーカスを合わせた状態で撮影ができる。たとえば、スクリーン12上に複数の商品を置いた場合であっても、各商品の形状に依らず、各商品の被撮影面がスクリーン12の上面に近接する。このため、スクリーン12の上面にフォーカスを合わせたカメラ13は、各商品の被撮影面にピントが合った状態で画像(商品の画像)を撮影しやすくなる。
距離センサ14は、スクリーン12の上方に下向きで設置される。たとえば、距離センサ14は、カメラ13の位置に対してスクリーン12を中心に対向する位置に設置される。たとえば、距離センサ14は、カメラ13からスクリーン12に対して直角に伸びる線の延長線上に設置される。図1が示す例では、距離センサ14は、支柱11aの先端に設置される。
距離センサ14は、基準点又は基準面からの距離(たとえば、距離センサ14からの距離又は距離センサ14に水平な面からの距離)を測定する。たとえば、距離センサ14は、基準点又は基準面から商品2及びスクリーン12までの距離を測定する。
距離センサ14は、スクリーン12上の各部における基準点又は基準面からの距離を示す距離情報を生成する。距離情報は、スクリーン12までの距離又は商品2までの距離を示す。たとえば、距離情報は、距離に応じて色が異なる距離画像であってもよい。
距離センサ14は、たとえば、光源から照射される光(可視光又は不可視光)の反射光に基づいて距離を測定する。たとえば、距離センサ14は、照射された光が測定対象で反射し距離センサ14に届くまでの時間に基づいて当該測定対象との距離を測定するToF(Time−fo−Flight)方式を行ってもよい。なお、距離センサ14が距離を測定する方法は、特定の方法に限定されるものではない。
なお、決済装置1は、複数の距離センサを備えてもよい。
ディスプレイ15は、後述するCPU21が出力する画像を表示する表示装置である。ディスプレイ15は、たとえば、液晶モニタなどである。
操作部16は、決済装置1の利用者によって、種々の操作指示が入力される。操作部16は、操作者に入力された操作指示のデータをCPU21へ送信する。操作部16は、たとえば、キーボード、テンキー、及び、タッチパネルなどである。また、操作部16は、利用者からジェスチャーの入力を受け付けてもよい。
ここでは、操作部16は、タッチパネルであり、ディスプレイ15と一体的に形成されているものとする。
カードリーダ17は、ユーザが所持するカードから種々の情報を取得する。たとえば、カードリーダ17は、接触又は非接触でICチップとデータを送受信するものである。また、カードリーダ17は、カードから磁気を読み取るものであってもよい。
たとえば、カードリーダ17は、ユーザが所持するカードからクレジット情報又はSF(Stored Fare)情報などを取得する。
なお、カードリーダ17は、カードに対してデータを書き込むことができるものであってもよい。
次に、決済装置1の制御系の構成例について説明する。
図2は、決済装置1の制御系の構成例を示すブロック図である。
図2が示すように、決済装置1は、カメラ13、距離センサ14、ディスプレイ15、操作部16、CPU21、ROM22、RAM23、NVM24、カメラインターフェース25及び距離センサインターフェース26などを備える。これらの各部は、データバスを介して互いに接続される。なお、決済装置1は、図2が示すような構成の他に必要に応じた構成を具備したり、特定の構成を除外したりしてもよい。
カメラ13、距離センサ14、ディスプレイ15及び操作部16は、前述の通りである。
CPU21は、決済装置1全体の動作を制御する機能を有する。CPU21は、内部キャッシュおよび各種のインターフェースなどを備えても良い。CPU21は、内部メモリ又はNVM24などに予め記憶したプログラムを実行することにより種々の処理を実現する。CPU21は、たとえば、プロセッサである。
なお、CPU21がプログラムを実行することにより実現する各種の機能のうちの一部は、ハードウエア回路により実現されるものであっても良い。この場合、CPU21は、ハードウエア回路により実行される機能を制御する。
ROM22は、予め制御用のプログラム及び制御データなどを記憶する不揮発性のメモリである。ROM22は、製造段階で制御プログラム及び制御データなどを記憶した状態で決済装置1に組み込まれる。即ち、ROM22に記憶される制御プログラム及び制御データは、予め決済装置1の仕様に応じて組み込まれる。
RAM23は、揮発性のメモリである。RAM23は、CPU21の処理中のデータなどを一時的に格納する。RAM23は、CPU21からの命令に基づき種々のアプリケーションプログラムを格納している。また、RAM23は、アプリケーションプログラムの実行に必要なデータ及びアプリケーションプログラムの実行結果などを格納してもよい。
NVM24(格納部)は、例えば、EEPROM(登録商標)あるいはフラッシュROMなどのデータの書き込み及び書換えが可能な不揮発性のメモリにより構成される。NVM24は、決済装置1の運用用途に応じて制御プログラム、アプリケーション、及び種々のデータを格納する。例えば、NVM24では、プログラムファイル及びデータファイルなどが作成される。作成された各ファイルは、制御プログラム及び種々のデータなどが書き込まれる。
NVM24は、商品情報を格納する。商品情報は、商品に関する情報である。商品情報は、商品コードと商品の外寸と対応付けて格納する。
商品コードは、商品を特定する情報である。たとえば、商品コードは、数字、文字、記号又はそれらの組合せである。
商品の外寸は、商品の所定面からの高さである。たとえば、商品情報は、商品の外寸として、バーコードが印字される面からの高さを備える。また、商品情報は、商品の外寸として、各面からの高さを備えてもよい。
なお、商品情報は、さらに、商品名及び価格などを備えてもよい。商品情報の構成は、特定の構成に限定されるものではない。
カメラインターフェース25は、CPU21がカメラ13と通信するためのインターフェースである。たとえば、CPU21は、カメラインターフェース25を通じて、カメラ13に画像を取得させる信号を送信する。また、CPU21は、カメラインターフェース25を通じて撮影のためのカメラパラメータをカメラ13に設定してもよい。
また、カメラインターフェース25は、カメラ13が撮影した画像(撮影画像)を取得する。カメラインターフェース25は、取得した画像をCPU21へ送信する。CPU21は、カメラインターフェース25からカメラ13が撮影した画像を取得する。
距離センサインターフェース26は、CPU21が距離センサ14と通信するためのインターフェースである。たとえば、距離センサインターフェース26は、距離センサ14から距離情報を取得する。たとえば、CPU21は、距離センサインターフェース26から距離情報を取得する。
次に、CPU21が実現する機能について説明する。
まず、CPU21は、カメラ13から商品2を含む撮影画像を取得する機能を有する。
たとえば、CPU21は、カメラ13に対して撮影を行う信号を送信する。CPU21は、カメラ13から撮影画像を取得する。なお、CPU21は、撮影画像を撮影するために、撮影パラメータをカメラ13に設定してもよい。
なお、CPU21は、外部装置から撮影画像を取得してもよい。
また、CPU21は、距離センサ14から距離情報を取得する機能を有する。
たとえば、CPU21は、距離センサ14に対して距離の測定を行う信号を送信する。CPU21は、距離センサ14から距離情報を取得する。
また、CPU21は、撮影画像から商品(対象物)が写る商品領域を抽出する機能を有する。
たとえば、CPU21は、撮影画像と距離情報と基づいて商品領域を特定する。たとえば、CPU21は、距離情報に基づいて商品領域の位置を特定する。商品2が配置される領域(商品領域)は、商品の高さの分だけ基準点又は基準面に近づく。従って、CPU21は、スクリーン12までの距離よりも近い距離にある領域を商品領域として特定する。
また、CPU21は、同一の距離にある領域を商品領域と特定してもよい。
また、CPU21は、距離情報に基づいて特定した商品領域を撮影画像に基づいて修正する。たとえば、距離センサ14は商品の陰となる領域については距離を測定することができないため、距離情報に基づいて特定した商品領域はエッジがぼやけやすい。そのため、CPU21は、撮影画像に基づいて商品領域のエッジを補正する。
なお、CPU21は、距離情報と撮影画像との座標値を互いに対応するように位置合わせを行ってもよい。たとえば、CPU21は、カメラ13の角度並びに視野角、及び、距離センサ14の角度並びに測定領域などから距離情報又は撮影画像の座標値を補正してもよい。
なお、CPU21が商品領域を特定する方法は、特定の方法に限定されるものではない。
図3は、CPU21が特定した商品領域の例を示す。
図3(a)は、スクリーン12上に配置される商品A及び商品Bを示す。商品Aの高さは、商品Bの高さよりも低い。そのため、CPU21は、距離情報に基づいて商品Aの商品領域と商品Bの商品領域とを特定することができる。
図3(b)は、撮影画像上に設定される商品領域を示す。図3(b)が示すように、CPU21は、商品Aの商品領域として商品領域31aを設定する。また、CPU21は、商品Bの商品領域として商品領域31bを設定する。
また、CPU21は、商品画像から商品を特定する機能を有する。
たとえば、商品が自身を特定する識別情報を備える場合、CPU21は、識別情報に基づいて商品を特定する。たとえば、識別情報は、バーコード、QRコード(登録商標)、文字、数字又はマークなどである。CPU21は、商品画像から識別情報を検索し、発見した識別情報を読み取る。CPU21は、読取結果に基づいて、商品画像の商品を示す商品コードを取得する。
また、CPU21は、オブジェクト認識で商品を特定してもよい。たとえば、CPU21は、NVM24などが格納する各商品の画像又は画像の特徴量と商品画像又は商品画像の特徴量とを比較する。CPU21は、画像又は画像の特徴量がマッチする商品の商品コードを、商品画像の商品を示す商品コードとして特定する。たとえば、特徴量は、濃度勾配又は色ヒストグラムなどである。
なお、CPU21が商品を特定する方法は、特定の方法に限定されるものではない。
また、CPU21は、特定された商品に予め設定された外寸を取得する機能を有する。
たとえば、CPU21は、NVM24から、特定された商品の商品コードを含む商品情報を取得する。CPU21は、取得した商品情報が含む外寸を予め設定された外寸として取得する。なお、CPU21は、外部装置から商品の外寸を取得してもよい。
また、CPU21は、商品領域における商品の高さ(スクリーン12からの長さ)と、当該商品の外寸とが一致するか判定する機能を有する。
たとえば、CPU21は、スクリーン12まで距離と商品領域まで距離との差を算出して、商品領域に置かれた商品の高さを算出する。
CPU21は、商品の高さと外寸とを比較する。たとえば、バーコードを読み取って商品を特定した場合、CPU21は、外寸として商品のバーコード面からの高さを取得する。CPU21は、商品の高さと、バーコード面からの高さとを比較する。
また、オブジェクト認識で商品を特定した場合、CPU21は、外寸としてオブジェクト認識を行った商品の面からの高さを取得する。CPU21は、商品の高さと、当該面からの高さとを比較する。
また、CPU21は、商品の高さと外寸とが一定の範囲内にある場合には、両者が一致すると判定してもよい。
CPU21は、商品の高さと外寸とが一致したと判定すると、当該商品領域において商品の認識に成功したと判定する。
また、CPU21は、商品の高さと外寸とが一致しないと判定すると、当該商品領域において商品の認識に失敗したと判定する。
CPU21は、商品の高さと外寸とが一致しない判定すると、当該商品領域に対して商品の認識に失敗したことを示す警告フラグを設定する。
図4は、商品の高さと外寸とが一致しない例について説明するための図である。
図4(a)は、スクリーン12上に重ねて配置される商品C及び商品Dを示す。図4(a)が示す例では、商品Dの上に商品Cが配置される。
図4(b)は、距離情報の例である。ここでは、距離情報は、距離画像である。図4(b)が示すように、商品Cのある領域は、商品Dの高さよりも高い。また、撮影画像は、下方からの画像であるため、商品Dを含む。従って、CPU21は、撮影画像から商品Dを特定する。
CPU21は、商品Dの外寸と商品Dの商品領域の高さとを比較する。商品Dの上には商品Cが重なっているため、当該商品領域の高さは、商品Dの外寸よりも大きい。従って、CPU21は、商品領域における商品の高さと特定された商品の外寸とが一致しないと判定する。
また、CPU21は、商品の特定に成功した商品領域と、商品の認識に失敗した商品領域(警告フラグがセットされた商品領域)とを表示する機能を有する。
たとえば、CPU21は、ディスプレイ15の所定の領域に、撮影画像を表示する。CPU21は、撮影画像上において、商品の認識に成功した商品領域の周囲に実線枠(読取成功を示す情報)を表示する。即ち、CPU21は、商品の認識に成功した商品領域の周囲に実線枠を表示することで、当該商品領域において商品の認識に成功したことを提示する。
また、CPU21は、撮影画像上において、商品の認識に失敗した商品領域の周囲に破線枠(認識失敗を示す情報)を表示する。即ち、CPU21は、商品の認識に失敗した商品領域の周囲に破線枠を表示することで、当該商品領域において商品の認識に失敗したことを提示する。
なお、CPU21が商品の特定に成功した商品領域と、商品の認識に失敗した商品領域とを表示する方法は、特定の方法に限定されるものではない。
次に、CPU21が一部の商品領域において商品の認識に失敗した場合のディスプレイ15の表示例について説明する。
図5は、CPU21が一部の商品領域において商品の認識に失敗した場合のディスプレイ15の表示例(出力画像)を示す。ここでは、商品画像は、商品Eと商品Fとを写すものとする。また、CPU21は、商品Eが写る領域と商品Fが写る領域とにそれぞれ商品領域32a及び32bを設定しているものとする。
図5が示すように、CPU21は、ディスプレイ15内に実線枠15a及び破線枠15bを表示する。
実線枠15aは、商品Eの商品領域32aを囲っている。従って、CPU21は、商品Eの商品領域32aにおいて商品の認識に成功したことを示す。
破線枠15bは、商品Fの商品領域32bを囲っている。従って、CPU21は、商品Fの商品領域32bにおいて商品の認識に失敗したことを示す。
また、CPU21は、各商品領域において商品の認識に成功した場合、商品の代金を決済する機能を有する。
たとえば、CPU21は、認識した商品の商品情報から価格を取得する。CPU21は、各商品の価格を合算して商品の代金を算出する。
また、CPU21は、商品を購入する購入者のクレジット情報を取得する。たとえば、CPU21は、購入者が所持するカードからカードリーダ17を通じてクレジット情報の入力を受け付けてもよい。また、CPU21は、カメラなどを用いて購入者の画像を取得し、当該画像に対応するクレジット情報を取得してもよい。
CPU21は、取得したクレジット情報に基づいて商品の代金を決済する。たとえば、CPU21は、クレジット情報と商品の代金とをクレジットサーバなどへ送信する。
なお、CPU21は、現金処理部などを備えて、購入者から現金を受領してもよい。また、CPU21は、カードからSF情報を取得し、当該SF情報に基づいて商品の代金を決済してもよい。
また、CPU21は、商品の認識に失敗した商品領域(警告フラグがセットされた商品領域)がある場合にアラートを出力する機能を有する。
たとえば、CPU21は、外部装置に対して商品の認識に失敗したことを示すアラートを出力する。また、CPU21は、スピーカなどを備え、音声でアラートを出力してもよい。また、CPU21は、商品の認識に失敗した商品領域を示すアラートを出力してもよい。また、CPU21は、商品の認識に失敗した商品領域があることを示す情報を外部装置に送信してもよい。CPU21が出力するアラートは、特定の構成に限定されるものではない。
次に、CPU21の動作例について説明する。
図6及び7は、CPU21の動作例について説明するためのフローチャートである。
まず、CPU21は、商品認識処理を開始するか判定する(ACT11)。たとえば、CPU21は、操作部16を通じて商品認識処理を開始する操作を受け付けたか判定する。また、CPU21は、スクリーン12上に商品が配置されたか判定してもよい。商品認識処理を開始しないと判定すると(ACT11、NO)、CPU21は、ACT11に戻る。
商品認識処理を開始すると判定すると(ACT11、YES)、CPU21は、カメラ13を通じて撮影画像を取得する(ACT12)。撮影画像を取得すると、CPU21は、距離センサ14を通じて距離情報を取得する(ACT13)。
距離情報を取得すると、CPU21は、撮影画像から商品領域を抽出する(ACT14)。商品領域を抽出すると、CPU21は、1つの商品領域から商品を特定する(ACT15)。
商品を特定すると、CPU21は、特定した商品の外寸を取得する(ACT16)。外寸を取得すると、CPU21は、当該商品領域の高さが商品の外寸と一致するか判定する(ACT17)。
当該商品領域の高さが商品の外寸と一致しないと判定すると(ACT17、NO)、CPU21は、当該商品領域に警告フラグをセットする(ACT18)。
当該商品領域の高さが商品の外寸と一致すると判定した場合(ACT17、YES)、又は、当該商品領域に警告フラグをセットした場合(ACT18)、CPU21は、他に商品を特定していない商品領域があるか判定する(ACT19)。
他に商品を特定していない商品領域があると判定すると(ACT19、YES)、CPU21は、ACT15に戻る。
他に商品を特定していない商品領域がないと判定すると(ACT19、NO)、CPU21は、商品の特定に成功した商品領域と商品の特定に失敗した商品領域とをディスプレイ15に表示する(ACT20)。
両商品領域を表示すると、CPU21は、警告フラグがセットされた商品領域があるか判定する(ACT21)。警告フラグがセットされた商品領域があると判定すると(ACT21、YES)、CPU21は、アラートを出力する(ACT22)。
警告フラグがセットされた商品領域がないと判定すると(ACT21、NO)、CPU21は、決済処理を行う(ACT23)。なお、CPU21は、操作部16を通じて決済処理を行う処理を受け付けた場合に、決済処理を行ってもよい。
アラートを出力した場合(ACT22)、又は、決済処理を行った場合(ACT23)、CPU21は、動作を終了する。
なお、CPU21は、ACT13を行ってからACT12を行ってもよい。また、CPU21は、ACT12及びACT13を同時並行で行ってもよい。
また、CPU21は、ACT15で商品領域から商品の特定に失敗した場合、当該商品領域に警告フラグをセットしてもよい。
また、CPU21は、警告フラグがセットされた商品領域がある場合、商品の置きなおしを促すメッセージなどをディスプレイ15に表示してもよい。その場合、CPU21は、再度ACT12以降を実行してもよい。
以上のように構成された決済装置は、カメラで下方からスクリーン上の商品を撮影する。そのため、決済装置は、形状の異なる複数の商品を上側から撮影する場合に比べて、スクリーン上の各商品の被撮影面にカメラのピントを合わせことが容易である。従って、決済装置は、カメラの被写界深度が狭くても良く、撮影距離を近接させて十分に高い解像度で撮影することが可能となる。その結果、決済装置は、小型化することが可能となる。
また、決済装置は、撮影画像及び距離情報に基づいて商品領域を抽出する。そのため、決済装置は、高さの異なる領域を異なる商品領域として抽出することができる。その結果、決済装置は、複数の商品が隣接してスクリーン上に配置された場合であっても、商品ごとに商品領域を特定することができる。
また、決済装置は、商品領域の高さと、商品領域から特定された商品の外寸とを比較する。決済装置は、両者が一致しない場合には、商品領域において商品の認識に失敗したものと判定する。そのため、決済装置は、商品が重なって配置されている場合に商品の認識に失敗したものと判定することができる。その結果、決済装置は、不正な決済処理を防止することができる。
また、決済装置は、カメラと距離センサとをスクリーンを挟んで対向する位置に設置する。その結果、決済装置は、カメラから取得した撮影画像と距離センサから取得した距離情報とを容易にマッチさせることができる。たとえば、決済装置は、アフィン変換などの座標変換を行わずに、両者をマッチさせることができる。
(第2実施形態)
次に、第2実施形態に係る決済装置について説明する。
第2実施形態に係る決済装置1’は、照明と反射体とを備える点で第1実施形態に係る決済装置1と異なる。従って、同一の構成については、同一の符号を付して詳細な説明を省略する。
図8は、第1実施形態に係る決済装置1’の構成例を概略的に示す。
図8が示すように、決済装置1’は、さらに、照明18及び反射体19などを備える。
照明18は、カメラ13が撮影する商品の被撮影面を十分な照度とするための光を発光する。ここでは、照明18は、照明18a及び照明18bから構成される。
照明18は、出射する照明光による光沢反射を避けるために、商品2の被撮影面に直接光が入射しないように配置される。図8が示すように、照明18は、反射体19側に光を出射するように配置される。照明18は、可視光を照射するものであってもよいし、不可視光を照射するものであってもよい。また、照明18は、可視光及び不可視光を照射するものであってもよい。
反射体19は、照明18からの光をスクリーン12上の商品の被撮影面に導く。反射体19は、例えば、拡散反射体である。図8が示す例では、反射体19は、スクリーン12側に開放した碗上に形成される。反射体19は、スクリーン12の下側(他方の面側)に設置される。反射体19は、照明18からの光を反射して、スクリーン12の下側からスクリーン12に照射させる。照明18が発光する光(照明光)は、反射体19を介してスクリーン12上の商品2の被撮影面に照射される。即ち、反射体19からの反射光は、拡散された照明光として商品2の被撮影面をスクリーン12越しに照明する。
照明18および反射体19は、カメラ13の撮影視野を遮らないよう取り付けられる。
次に、決済装置1’の制御系の構成例について説明する。
図9は、決済装置1’の制御系の構成例を示すブロック図である。
図9が示すように、決済装置1’は、さらに照明18を備える。照明18は、データバスを介してCPU21に接続される。
CPU21は、カメラ13が画像を撮影する際に、照明18を点灯する。たとえば、CPU21は、所定のタイミングで照明18を点灯する。CPU21は、照明18が点灯している間にカメラ13に画像を撮影させる。なお、CPU21は、距離センサ14に距離を測定させるタイミングでは、照明18をオフにしてもよい。
また、照明18から出射する光(照明光)は、反射体19で反射されてスクリーン12を照明する。反射体19で反射された照明光は、商品2が置かれていない部分では、スクリーン12を通して上方へ照射される。このため、照明光を白色光などの可視光とすると、決済装置1を操作する利用者は、スクリーン12が眩しく感じる可能性がある。このため、照明18は、照明光として、可視光の波長領域を外れた光(不可視光)を用いても良い。例えば、照明18は、照明光として、700nm以上の近赤外光を用いる。照明18が出射する照明光が近赤外光であれば、利用者は、照明光を直視しても眩しく感じなくなる。
照明18が不可視光を照射する場合、スクリーン12は、可視光を透過させないフィルムを備えてもよい。また、カメラ13は、当該不可視光を用いて画像を撮影する。当該フィルムにより、カメラ13は、外部からの可視光の影響を受けにくくなる。その結果、撮影画像では、商品の被写体面が明るくなり、商品以外は比較的暗くなる。そのため、CPU21は、撮影画像からの商品領域の抽出が安易になる。
また、照明18また、不可視光と可視光では透過する物質が異なる為、画像の特性が異なり、認識精度に影響する場合も考えられる。たとえば、照明18は、可視光と不可視光とを照射する構成であってもよい。カメラ13は、可視光と不可視光とを用いて画像を撮影する。
CPU21は、不可視光で取得した撮影画像から商品領域を特定し、さらに、可視光照明で取得した撮影画像を用いて各商品の画像領域を特定してもよい。上記の仕組みで各商品の商品領域を抽出した際、第1実施形態にあるように距離情報から商品領域を抽出するよりも、特に商品のエッジ付近の画素に関しては精度が高くなる。そのため、CPU21は、双方で取得した各商品領域を照合し位置補正などを行っても良い。
以上のように構成された決済装置は、スクリーンの下部から照明で商品の被撮影面を照らす。その結果、決済装置は、十分な照度の撮影画像を取得することができる。従って、決済装置は、精度よく商品領域の抽出及び商品の特定を行うことができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…決済装置、11…筐体、12…スクリーン、13…カメラ、14…距離センサ、15…ディスプレイ、16…操作部、18…照明、19…反射体、21…CPU、25…カメラインターフェース、26…距離センサインターフェース。

Claims (5)

  1. 一方の面に対象物を配置するスクリーンと、
    撮影画像として前記スクリーンの他方の面から画像を撮影するカメラと、
    前記スクリーンの前記一方の面から距離を測定し、前記距離を示す距離情報を生成する距離センサと、
    前記撮影画像から対象物の領域を抽出し、
    前記対象物の領域の画像から対象物を特定し、
    特定された前記対象物に予め設定された外寸を取得し、
    前記距離情報に基づいて前記スクリーンの前記一方の面に配置される前記対象物の、前記スクリーンからの長さを算出し、
    前記外寸と、前記対象物の前記長さとが一致しない場合に、アラートを出力する、
    プロセッサと、
    を備える画像処理装置。
  2. 前記プロセッサは、
    前記外寸と前記対象物の前記長さとが一致しない場合に、前記対象物の領域の画像と前記対象物の認識失敗を示す情報とを含む出力画像を出力する、
    前記請求項1に記載の画像処理装置。
  3. 前記プロセッサは、
    前記距離情報に基づいて前記対象物の領域を抽出する、
    前記請求項1又は2に記載の画像処理装置。
  4. 前記対象物は、商品である、
    前記請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 撮影画像として一方の面に対象物を配置するスクリーンの他方の面から画像を撮影し、
    前記スクリーンの前記一方の面から距離を測定し、前記距離を示す距離情報を生成し、
    前記撮影画像から対象物の領域を抽出し、
    前記対象物の領域の画像から対象物を特定し、
    特定された前記対象物に予め設定された外寸を取得し、
    前記距離情報に基づいて前記スクリーンの前記一方の面に配置される前記対象物の、前記スクリーンからの長さを算出し、
    前記外寸と、前記対象物の前記長さとが一致しない場合に、アラートを出力する、
    画像処理方法。
JP2017193400A 2016-10-21 2017-10-03 画像処理装置及び画像処理方法 Active JP6957300B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/331,201 US10674054B2 (en) 2016-10-21 2016-10-21 Image processing apparatus and image processing method
US15/331,201 2016-10-21

Publications (2)

Publication Number Publication Date
JP2018067307A true JP2018067307A (ja) 2018-04-26
JP6957300B2 JP6957300B2 (ja) 2021-11-02

Family

ID=61970560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017193400A Active JP6957300B2 (ja) 2016-10-21 2017-10-03 画像処理装置及び画像処理方法

Country Status (2)

Country Link
US (1) US10674054B2 (ja)
JP (1) JP6957300B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197316A (ja) * 2018-05-08 2019-11-14 東芝テック株式会社 物品認識装置
WO2020203380A1 (ja) * 2019-03-29 2020-10-08 パナソニックIpマネジメント株式会社 精算決済装置および無人店舗システム
JP2021019285A (ja) * 2019-07-19 2021-02-15 江利子 瀧澤 ラベル情報表示システム
WO2021220713A1 (ja) * 2020-04-28 2021-11-04 パナソニックIpマネジメント株式会社 精算決済装置および精算決済システム
JP2022106808A (ja) * 2018-05-08 2022-07-20 東芝テック株式会社 物品認識装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229154A (ja) * 2013-05-24 2014-12-08 株式会社ブレイン 物品識別システムとそのプログラム
JP2017010535A (ja) * 2015-06-25 2017-01-12 東芝テック株式会社 物品認識装置および画像処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012155104A1 (en) * 2011-05-11 2012-11-15 Proiam, Llc Enrollment apparatus, system, and method featuring three dimensional camera
JP6222345B2 (ja) 2014-03-20 2017-11-01 日本電気株式会社 Pos端末装置、posシステム、画像処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229154A (ja) * 2013-05-24 2014-12-08 株式会社ブレイン 物品識別システムとそのプログラム
JP2017010535A (ja) * 2015-06-25 2017-01-12 東芝テック株式会社 物品認識装置および画像処理方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197316A (ja) * 2018-05-08 2019-11-14 東芝テック株式会社 物品認識装置
JP7062507B2 (ja) 2018-05-08 2022-05-16 東芝テック株式会社 物品認識装置
JP2022106808A (ja) * 2018-05-08 2022-07-20 東芝テック株式会社 物品認識装置
JP7274644B2 (ja) 2018-05-08 2023-05-16 東芝テック株式会社 物品認識装置
WO2020203380A1 (ja) * 2019-03-29 2020-10-08 パナソニックIpマネジメント株式会社 精算決済装置および無人店舗システム
JP2020166640A (ja) * 2019-03-29 2020-10-08 パナソニックIpマネジメント株式会社 精算決済装置および無人店舗システム
JP7373729B2 (ja) 2019-03-29 2023-11-06 パナソニックIpマネジメント株式会社 精算決済装置および無人店舗システム
JP2021019285A (ja) * 2019-07-19 2021-02-15 江利子 瀧澤 ラベル情報表示システム
WO2021220713A1 (ja) * 2020-04-28 2021-11-04 パナソニックIpマネジメント株式会社 精算決済装置および精算決済システム

Also Published As

Publication number Publication date
JP6957300B2 (ja) 2021-11-02
US10674054B2 (en) 2020-06-02
US20180115690A1 (en) 2018-04-26

Similar Documents

Publication Publication Date Title
JP6957300B2 (ja) 画像処理装置及び画像処理方法
JP6999404B2 (ja) 物品認識装置及び物品認識方法
US10049249B2 (en) Indicia reader safety
US9256775B1 (en) Image recognition apparatus and commodity information processing apparatus
EP3392796B1 (en) Multifunction point of sale system
EP3038015A2 (en) Image recognition apparatus and commodity information processing apparatus
JP2021057054A (ja) 画像認識装置
EP2897110A1 (en) Commodity reading apparatus, sales data processing apparatus having the same and method for recognizing commodity
JP2016119053A (ja) 画像認識装置、商品情報処理装置及び画像認識方法
US20190073880A1 (en) Article recognition apparatus, article recognition method, and non-transitory readable storage medium
JP6971755B2 (ja) 画像処理装置及び画像処理方法
JP6967981B2 (ja) 物品認識装置及び商品決済装置
US11651663B2 (en) Article recognition device
JP7274644B2 (ja) 物品認識装置
US10977512B2 (en) Article recognition device
US10963726B2 (en) Article recognition device
US20240104964A1 (en) Person authentication support system, person authentication support method, and non-transitory storage medium
US20230353388A1 (en) Information processing device, information processingmethod, and recording medium
JP2018129037A (ja) 物品認識装置及び物品認識方法
EP2842489A1 (en) Biometric authentication apparatus
JP2019219854A (ja) 物品認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211006

R150 Certificate of patent or registration of utility model

Ref document number: 6957300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150