JP2017059208A - チェックアウト装置 - Google Patents

チェックアウト装置 Download PDF

Info

Publication number
JP2017059208A
JP2017059208A JP2016101423A JP2016101423A JP2017059208A JP 2017059208 A JP2017059208 A JP 2017059208A JP 2016101423 A JP2016101423 A JP 2016101423A JP 2016101423 A JP2016101423 A JP 2016101423A JP 2017059208 A JP2017059208 A JP 2017059208A
Authority
JP
Japan
Prior art keywords
product
image
processor
screen
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016101423A
Other languages
English (en)
Inventor
平 和樹
Kazuki Taira
和樹 平
徳政 有賀
Norimasa Ariga
徳政 有賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Publication of JP2017059208A publication Critical patent/JP2017059208A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/0036Checkout procedures
    • G07G1/0045Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader
    • G07G1/0054Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles
    • G07G1/0063Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles with means for detecting the geometric dimensions of the article of which the code is read, such as its size or height, for the verification of the registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/201Price look-up processing, e.g. updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/202Interconnection or interaction of plural electronic cash registers [ECR] or to host computer, e.g. network details, transfer of information from host to ECR or from ECR to ECR
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/208Input by product or record sensing, e.g. weighing or scanner processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/209Specified transaction journal output feature, e.g. printed receipt or voice output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4014Identity check for transactions
    • G06Q20/40145Biometric identity checks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Computer Security & Cryptography (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Cash Registers Or Receiving Machines (AREA)
  • Image Input (AREA)

Abstract

【課題】 複数の商品を高精度で認識できるチェックアウト装置を提供する。【解決手段】 実施形態によれば、チェックアウト装置は、スクリーンと、撮像部と、商品識別部と、表示部と、操作部と、決済処理部と、を有する。スクリーンは、光を透過する。撮像部は、スクリーンを通して商品の画像を取得する。商品識別部は、撮像部が取得した画像から決済対象の全ての商品を識別し、識別した各商品を決済するための情報を取得する。表示部は、商品識別部により識別した各商品の決済に関する情報を表示する。操作部は、表示部が表示した決済に関する情報に対する決済の可否が入力される。決済処理部は、操作部により決済可が入力された場合、商品識別部が識別した各商品の決済処理を行う。【選択図】図1

Description

本発明の実施形態は、チェックアウト装置に関する。
従来、チェックアウト装置には、様々な方式で決済対象の商品を認識するシステムがある。例えば、商品上に特殊インキで形成したバーコードを立体スキャナがX線(又は超音波、電磁波)を照射して読み取るシステムがある。このシステムは、X線(又は超音波、電磁波)に対する安全管理が必要で、装置が大型化し、特殊インキで商品にバーコードを印刷するためのコストがかかる。また、各商品に取り付けたRFIDタグから商品情報を読み取るシステムもある。このシステムは、RFIDタグを各商品に付与するためのコストがかかる。さらに、商品上のバーコードを光学スキャナで読み取るシステムもある。このシステムは、ランダムに配置された複数の商品から一括してバーコードの画像を読み取ることが難しい。
特開平10−302021号公報
本発明が解決しようとする課題は、複数の商品を高精度で認識できるチェックアウト装置を提供することにある。
実施形態によれば、チェックアウト装置は、スクリーンと、撮像部と、商品識別部と、表示部と、操作部と、決済処理部と、を有する。スクリーンは、光を透過する。撮像部は、スクリーンを通して商品の画像を取得する。商品識別部は、撮像部が取得した画像から決済対象の全ての商品を識別し、識別した各商品を決済するための情報を取得する。表示部は、商品識別部により識別した各商品の決済に関する情報を表示する。操作部は、表示部が表示した決済に関する情報に対する決済の可否が入力される。決済処理部は、操作部により決済可が入力された場合、商品識別部が識別した各商品の決済処理を行う。
図1は、各実施形態に係るセルフチェックアウト端末(チェックアウト装置)1の基本的な機能の構成を示す図である。 図2は、各実施形態に係るセルフチェックアウト端末の外観構成例を示す図である。 図3は、第1の実施形態に係るセルフチェックアウト端末の制御系の構成例を示すブロック図である。 図4は、第1の実施形態に係るセルフチェックアウト端末における画像取得部の構成例を示す図である。 図5は、第1の実施形態に係るセルフチェックアウト端末における画像取得部の構成例を示す斜視図である。 図6は、第1の実施形態に係るセルフチェックアウト端末における照明の構成例を示す図である。 図7は、第1の実施形態に係るセルフチェックアウト端末における画像取得部のカメラの構成例を示す図である。 図8は、第1の実施形態に係るセルフチェックアウト端末における画像取得部におけるカメラの撮像素子の感度特性と照明の各光源の発光スペクトルとの例を示す図である。 図9は、第1の実施形態に係るセルフチェックアウト端末における画像取得部におけるカメラのフィルタにおける透過特性を示す図である。 図10は、第1の実施形態に係るセルフチェックアウト端末におけるユーザインターフェースにおける表示例を示す。 図11は、第1の実施形態に係るセルフチェックアウト端末における基本的な処理の流れを概略的に示す状態遷移図である。 図12は、第1の実施形態に係るセルフチェックアウト端末のプロセッサが実行する処理の流れを説明するためのフローチャートである。 図13は、第2実施形態に係るセルフチェックアウト端末の構成例を示すブロック図である。 図14は、第2実施形態に係るセルフチェックアウト端末のプロセッサが実現する処理の流れを説明するためのフローチャートである。 図15は、第3実施形態に係るセルフチェックアウト端末の構成例を示すブロック図である。 図16は、第3実施形態に係るセルフチェックアウト端末のユーザインターフェース構成例を示す図である。 図17は、第3実施形態に係るセルフチェックアウト端末における決済処理の例を説明するためのフローチャートである。 図18は、第4実施形態に係るセルフチェックアウト端末の構成例を示すブロック図である。 図19は、第4実施形態に係るセルフチェックアウト端末における画像取得部の第1の構成例を示す図である。 図20は、第4実施形態に係るセルフチェックアウト端末における画像取得部の第2の構成例を示す図である。
以下、各実施形態について、図面を参照して説明する。
まず、各実施形態に係るセルフチェックアウト端末(チェックアウト装置、決済装置)1について説明する。
各実施形態に係るセルフチェックアウト端末は、所定領域にセットされた決済対象の全商品をそれぞれ識別し、識別した全商品に対する決済処理を行う装置である。セルフチェックアウト端末1は、例えば、商品を販売する店舗などに設置される。セルフチェックアウト端末1は、利用者が自ら操作するセルフレジ(セルフチェックアウト装置)として設置しても良い。また、セルフチェックアウト端末1Aは、店舗の店員が操作するレジとして運用しても良い。なお、後述する各実施形態に係るセルフチェックアウト端末は、利用者自身が所定領域に決済対象の全商品をセットする運用形態を想定するものとする。
図1は、各実施形態に係るセルフチェックアウト端末(チェックアウト装置)1の基本的な機能の構成を示す図である。
図1に示すように、セルフチェックアウト端末1は、本体2とユーザインターフェース(UI)3とを有する。セルフチェックアウト端末1は、画像取得部11、商品識別部12、決済処理部13、表示部15、操作部16、および、入力部17を有する。図1に示す例において、画像取得部11、商品識別部12および決済処理部13は、本体2が有する機能である。また、表示部15、操作部16および入力部17は、ユーザインターフェース3が有する機能である。
画像取得部11は、撮像部18およびスクリーン21を有する。撮像部18は、決済対象とする1又は複数の商品の画像を含む2次元の画像を取得する。撮像部18は、スクリーン21を通して商品の画像を光学的に撮影する。画像取得部11は、商品識別部12が個々の商品を識別するための画像情報を撮影するものであれば良い。例えば、画像取得部11は、近赤外光により画像を読み取るものであっても良い。画像取得部11は、撮像部18が撮影した画像を商品識別部12へ供給する。
商品識別部12は、画像取得部11から供給される画像(取得画像)に含まれる1又は複数の商品をそれぞれ識別する。商品識別部12は、画像処理部を有する。商品識別部12は、画像処理部を用いて取得画像から各商品を特定するための手掛かりとなる情報を抽出する。例えば、商品識別部12は、取得画像から各商品に印刷されているバーコードの画像を抽出する。商品識別部12は、取得画像から抽出した各商品の情報により取得画像に存在する全ての商品を識別する。商品識別部12は、識別した商品を示す情報(商品情報)を決済処理部13へ供給する。
なお、商品識別部12は、商品をバーコードの画像により識別するものに限定されるものではない。商品識別部12は、取得画像から個々の商品を識別できるものであれば良い。例えば、商品識別部12は、商品の画像から抽出する画像特徴量から商品を識別しても良い。
決済処理部13は、商品識別部12が特定した全商品の代金を決済する。決済処理部13は、ユーザインターフェース3によりユーザが入力する情報に応じて全商品の決済処理を行う。例えば、決済処理部13は、決済に関する情報を表示部15に表示しつつ、ユーザが操作部16により入力する情報に応じて全商品の決済処理を実行する。また、決済処理部13は、入力部17が取得する決済に関する情報により決済を行う。
表示部15は、本体2から供給される表示情報を表示する。例えば、表示部15は、商品に関する情報、決済に関する情報、入力案内、或いは、操作ガイドなどの情報を表示する。
操作部16は、利用者(操作者)が情報を入力する。操作部16は、表示部15の表示画面上に設けたタッチスクリーン(タッチパネル)であっても良いし、テンキー又はキーボードなどのボタンであっても良い。操作部16は、入力された情報を決済処理部13へ通知する。
入力部17は、決済に関する情報を入力する。例えば、入力部17は、利用者が提示するカード又は携帯端末などの記録媒体から決済処理に用いる情報を読み取る。なお、入力部17は、カード読取装置等に限定されるものではなく、決済に関する情報を入力するものであれば良い。入力部17は、入力された情報を決済処理部13へ供給する。
図2は、各実施形態に係るセルフチェックアウト端末1の外観構成例を示す図である。
図2に示すように、セルフチェックアウト端末1は、本体2とユーザインターフェース3とを有する。本体2は、上面にスクリーン21を有する。スクリーン21は、決済対象とする商品20をセットする領域となる。スクリーン21には、決済対象とする全ての商品20が載置される。本体2は、図1に示す画像取得部11、商品識別部12および決済処理部13としての機能を有する。
ユーザインターフェース3は、ディスプレイ25、タッチスクリーン26、および、カード処理部27などを有する。ディスプレイ25は、図1に示す表示部15として機能する。タッチスクリーン26は、図1に示す操作部16として機能する。カード処理部27は、入力部17として機能する。
以下、セルフチェックアウト端末1の具体的な構成例としての各実施形態についてさらに詳細に説明する。
(第1の実施形態)
図3は、第1の実施形態に係るセルフチェックアウト端末1Aの制御系の構成例を示すブロック図である。
本体2Aは、照明31、カメラ32、プロセッサ33、ROM34、RAM35、不揮発性メモリ36、通信部37、各種インターフェース(I/F)38(38a、38b、38c)を有する。ユーザインターフェース3Aは、ディスプレイ25、タッチスクリーン26、および、カード処理部27を有する。
照明31は、スクリーン21上の商品に照射する光を発光する。カメラ32は、スクリーン21上の商品の画像を取得する。すなわち、カメラ32は、照明31からの光があてられるスクリーン21を含む撮影範囲の画像を取得する撮像部18である。カメラ32は、照明31が発光する光に応じて感度特性を有する2次元イメージセンサを有する。
照明31及びカメラ32は、セルフチェックアウト端末1Aにおける画像取得部11Aを構成する。照明31及びカメラ32は、プロセッサ33により動作が制御される。第1の実施形態に係るセルフチェックアウト端末1Aにおける照明31及びカメラ32を含む画像取得部11Aの構成例については、後で詳細に説明する。
プロセッサ33は、例えば、CPUである。プロセッサ33は、ROM34又は不揮発性メモリ36に記憶したプログラムを実行することにより各種の制御および処理機能を実現する。たとえば、プロセッサ33は、ROM34又は不揮発性メモリ36に記憶したプログラムを実行することにより各部を制御するコントローラとして機能する。また、プロセッサ33は、ROM34又は不揮発性メモリ36に記憶したプログラムを実行することにより各種の処理機能(例えば、商品識別部、決済処理部)を実現する。
ROM34は、プロセッサ33が実行するプログラム及び制御データなどを記憶する不揮発性のメモリである。RAM35は、ワーキングメモリとして機能する揮発性のメモリである。RAM35は、作業用のデータなどを一時的に記憶する。例えば、RAM35は、カメラ32が撮影した取得画像を記憶する。不揮発性メモリ36は、書換え可能な不揮発性のメモリである。不揮発性メモリ36は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)などである。
また、不揮発性メモリ36は、商品に関する情報を記憶する商品情報データベース36aを有する。商品情報データベース36aは、商品に関する情報を記憶する記憶領域である。商品情報データベース36aは、例えば、各商品の識別情報(例えば、JANコード)に対応づけて代金などの情報を記憶する。商品情報データベース36aは、少なくとも商品の決済代金を決定するための情報を記憶する。なお、商品情報データベース36aは、通信部37を介して通信可能な外部装置に設けても良い。
通信部37は、外部の機器と通信する通信インターフェースである。I/F38(38a、38b、38c)は、ユーザインターフェース3の各部を接続するインターフェースである。例えば、I/F38aは、ディスプレイ25に接続するインターフェースである。I/F38bは、タッチスクリーン26に接続するインターフェースである。I/F38cは、カード処理部27に接続するインターフェースである。
ディスプレイ25は、I/F38aを介してプロセッサ33から与えられる制御信号に従って画面に情報を表示する。例えば、ディスプレイ25は、利用者に対する操作案内などを表示する。
タッチスクリーン26は、ディスプレイ25の表示画面上において人がタッチした位置を検知する。タッチスクリーン26は、I/F38bを介して人がタッチした位置を示す信号をプロセッサ33へ出力する。
カード処理部27は、カードを処理する。例えば、カード処理部27は、ICカード(スマートカード)のリーダライタである。カード処理部27は、クレジットカードなどのカードから決済情報を取得する。カード処理部27は、I/F38cを介してプロセッサ33から与えられる制御命令に応じて動作する。カード処理部27は、I/F38cを介してカードから読み取った情報(例えば、決済に関する情報)をプロセッサ33へ供給する。
次に、第1の実施形態に係るセルフチェックアウト端末1Aにおける画像取得部11Aの構成について説明する。
図4は、第1の実施形態に係るセルフチェックアウト端末1Aにおける画像取得部11Aの構成例を示す図である。
図4に示すように、画像取得部11Aは、本体2A内に設けられる。画像取得部11Aは、スクリーン21、照明31、カメラ32および反射体40を有する。
スクリーン21は、本体2Aの上面に設置する。照明31は、スクリーン21の下側(一方の面側)からスクリーン21上の商品20を照明する光(照明光)が出射する。反射体40は、照明31からの光を下側からスクリーン21へ向けて反射するように配置する。カメラ32は、スクリーン21の下側からスクリーン21へ向けて設置する。カメラ32は、スクリーン21の下側からスクリーン21を通して商品(スクリーン上にある商品)の画像を取得する。
スクリーン21は、照明光を透過する部材で構成する。例えば、スクリーン21は、透明あるいは半透明なガラス又はブラスチックなどで構成する。スクリーン21は、決済対象となる商品20が置かれる台である。言い換えると、スクリーン21は、決済対象の商品20をセットする所定領域となる。商品20は、被撮影面が下向きになるように、スクリーン21の上面に置かれる。言い換えると、商品20は、被撮影面がスクリーン21に対向するように、スクリーン21の他方の面にセットされる。スクリーン21上にセットされた商品20は、被撮影面がスクリーン21の下側(一方の面)から画像が取得できる状態となる。
照明31は、カメラ32が撮影する商品の被撮影面を十分な照度とするための光を発光する。反射体40は、照明31からの光をスクリーン21上の商品の被撮影面に導く。反射体40は、例えば、拡散反射体である。照明31が発光する光(照明光)は、反射体40を介してスクリーン21上の商品20の被撮影面に照射される。
照明31は、出射する照明光による光沢反射を避けるために商品20の被撮影面に直接入射しないように、反射体40側に出射する光学的な配置となる。反射体40からの反射光は、拡散された照明光として商品20の被撮影面をスクリーン21越しに照明する。照明31および反射体40は、カメラ32の撮影視野を遮らないよう取り付けられる。
また、照明31から出射する光(照明光)は、反射体40で反射されてスクリーン21の全面を照明する。反射体40で反射された照明光は、商品20が置かれていない部分では、スクリーン21を通して上方へ照射される。このため、照明光を白色光などの可視光とすると、セルフチェックアウト端末1Aを操作する利用者は、スクリーン21が眩しく感じる可能性がある。このため、照明31は、照明光として、可視光の波長領域を外れた光を用いても良い。例えば、照明31は、照明光として、700nm以上の近赤外光を用いる。照明31が出射する照明光が近赤外光であれば、利用者は、照明光を直視しても眩しく感じなくなる。
カメラ32は、スクリーン21の下側からスクリーン21を通して画像を取得する。カメラ32は、スクリーン21上に置かれた商品20の被撮影面の画像を含む取得画像を取得する。カメラ32は、取得した画像(取得画像)を本体2のRAM35に記憶する。本体2内の商品識別部12として機能するプロセッサ33は、RAM35に記憶した取得画像に対して画像処理を行う。また、カメラ32は、照明光を照射した商品の画像を取得するため、照明光として近赤外光を用いる場合には近赤外光の画像を取得するものとする。
また、カメラ32は、スクリーン21の上面(スクリーン21上に置かれた商品20の少なくとも一部が接する面)付近にフォーカスを合わせる。これにより、カメラ32は、少なくとも一部がスクリーン21の上面に接する商品20の被撮影面にフォーカスを合わせた状態で画像を取得ができる。例えば、スクリーン21上に複数の商品を置いた場合であっても、各商品の形状に依らず、各商品の被撮影面がスクリーン21の上面に近接する。このため、スクリーン21の上面にフォーカスを合わせたカメラ32は、全商品の被撮影面にピントが合った状態で画像(商品の画像)を取得しやすくなる。
言い換えると、平面に置いた形状の異なる複数の商品を上側から画像を取得する場合に比べて、カメラ32は、スクリーン21上の全商品の被撮影面にピントを合わせことが容易である。従って、カメラ32は、被写界深度が狭くても良く、撮影距離を近接させて十分に高い解像度で画像を取得することが可能となる。また、カメラ32の撮影距離を近接させることが可能なため、セルフチェックアウト端末自体も小型化することが可能となる。
次に、画像取得部11Aの具体的な構成例について説明する。
図5は、画像取得部11Aの構成例を示す斜視図である。図6は、照明31の構成例を示す図である。なお、図6は、図5に示す照明31の下側(図5に示す面とは反対側の面)の構成を示すものであり、照明光を上側に照射する状態で図示している。
図5及び図6に示す構成例において、照明31は、円環状に配置した複数の光源31aを有する。各光源31aは、例えば、LED(Light Emitting Diode)光源により構成する。各光源31aは、近赤外光を発光する。各光源31aは、反射体40に向かって近赤外光を出射するように配置する。
反射体40は、半球ドーム状を成しており、スクリーン21に向かって各光源31aからの光(照明光)を拡散して反射する。反射体40の中央部には、開口部40aがある。カメラ32は、反射体40の開口部40aを通してスクリーン21の上面を含む撮影範囲Rにおける画像を取得する。
図7は、カメラ32の構成例を示す図である。
図7に示す構成例において、カメラ32は、撮像素子32a、フィルタ32b、および、レンズ群32cを有する。レンズ群32cは、撮影範囲Rからの光を集光し、集光した光を撮像素子32aに照射する。レンズ群32cは、複数のレンズなどにより構成する。フィルタ32bは、レンズ群32cから撮像素子32aに照射する光にフィルタをかける。フィルタ32bは、例えば、迷光の原因となる光を排除する。撮像素子32aは、光電変換素子などを有する二次元イメージセンサである。撮像素子32aは、例えば、CCD(Charged−Coupled Devices)あるいはCMOS(Complementary Metal−Oxide−Semiconductor)などで構成する。撮像素子32aは、照明31が発光する光の特性に応じて感度特性を有する。例えば、照明31からの照明光が近赤外光である場合、撮像素子32aは、感度特性が可視光の波長域から近赤外の波長領域に亘っている。この場合、フィルタ32bが迷光の原因となる可視光を排除する。これにより、撮像素子32aは、高精度で画像情報を取得できる。
図8は、カメラ32の撮像素子32aにおける感度特性と照明31の各光源31aにおける発光スペクトルとの例を示す。図9は、カメラ32のフィルタ32bにおける透過特性を示す図である。
図8によれば、撮像素子32aは、可視光波長領域となる400〜700nmと近赤外領域となる700〜1000nm双方の波長領域に感度特性を有する。また、図8に示す例では、光源31aの発光スペクトルは940nm付近にピークを有し、近赤外の波長領域にのみ発光強度を持つ。フィルタ32bは、図9に示すように、800nm以上を透過する特性を持つ。これにより、フィルタ32bは、端末の外部から入射する可視光領域の迷光をカットし、光源31aからの光により照明された成分のみに限定して撮影できる。
なお、スクリーン21にフィルタ32bと同様の特性を持たせても良い。この場合も、端末内に混入する外部光をカットすることが可能となり、同様の効果を得ることが可能となる。また、フィルタ32bとスクリーン21との双方に図9に示す透過特性(波長フィルタリング機能)を持たせることにより、迷光分離を更に高めることも可能である。
上記のように、画像取得部11Aは、照明31が発光する照明光の波長を近赤外領域に設定し、カメラ32が画像を取得する手前で可視光をカットするフィルタ32bを設ける。これにより、セルフチェックアウト端末1Aは、利用者(操作者)が照明光に対して眩しさを感じることなく、また迷光の原因となる端末の外部からの照明光を効率良く分離できる。この結果、セルフチェックアウト端末1Aの画像取得部11Aは、明るく画像品位の良い取得画像を得ることが可能となる。
次に、セルフチェックアウト端末1Aにおけるユーザインターフェース3Aの表示例について説明する。
図10は、ユーザインターフェース3Aのディスプレイ25における表示例を示す。
ユーザインターフェース3Aにおいて、ディスプレイ25は、決済対象となる商品に関する情報(商品情報)、決済に関する情報(決済情報)、および、操作に関する情報(操作情報)などの情報を表示する。例えば、ディスプレイ25は、商品情報として、決済対象とする商品名、単価、商品の点数、小計額を表示する。また、ディスプレイ25は、決済情報として、決済のための合計金額を表示する。また、ディスプレイ25は、操作情報として、選択メニューなどを表示する。ディスプレイ25は、操作情報としての選択メニューにおいて、タッチスクリーン26で選択可能なボタン(アイコン)を表示できる。
例えば、図10に示す表示例において、ディスプレイ25は、「はい」と表示するアイコンと「いいえ」と表示するアイコンとを表示する。利用者は、「はい」と表示するアイコンか「いいえ」と表示するアイコンの何れかを選択する。利用者は、表示された商品情報及び決済情報が満足する内容であれば、「はい」と表示された部位に触れる。利用者は、表示された商品情報及び決済情報が満足する内容でなければ(修正が必要である場合)、「いいえ」と表示された部位に触れる。
利用者が「はい」と表示された部位に触れると、タッチスクリーン26は、「はい」アイコンへの入力を示す検知信号をプロセッサ33へ通知する。これにより、プロセッサ33は、「はい」が選択されたことを検出する。「はい」が選択されると、プロセッサ33は、決済処理を開始する。
また、利用者が「いいえ」と表示された部位に触れると、タッチスクリーン26は、「いいえ」アイコンへの入力を示す検知信号をプロセッサ33へ通知する。これにより、プロセッサ33は、「いいえ」が選択されたことを検出する。「いいえ」が選択されると、プロセッサ33は、決済を中止する処理、又は、商品情報或いは決済情報を修正するための処理を実行する。
次に、第1の実施形態に係るセルフチェックアウト端末1Aにおける処理の流れについて説明する。
図11は、セルフチェックアウト端末1Aにおける基本的な処理の流れを概略的に示す状態遷移図である。
利用者は、決済対象となる全ての商品をスクリーン21上にセットする(ACT11)。商品をスクリーン21上にセットした後、利用者は、ユーザインターフェース3のタッチスクリーン26によりチェックアウト処理の開始を指示する(ACT12)。タッチスクリーン26は、利用者が入力したチェックアウト処理の開始指示を検知し(ACT12)、プロセッサ33へ通知する。
プロセッサ33は、タッチスクリーン26に入力されたチェックアウト処理の開始指示に応じてチェックアウト処理を開始する。例えば、プロセッサ33は、タッチスクリーン26により選択可能な処理開始を指示するボタン(アイコン)をディスプレイ25に表示しても良い。この場合、プロセッサ33は、処理開始を指示するアイコンへのタッチの検知に応じて処理を開始する。また、プロセッサ33は、利用者が提示するカードをカード処理部27が読み取った場合に、チェックアウト処理を開始しても良い。
プロセッサ33は、チェックアウト処理を開始すると、画像取得部11Aによる画像の取得を実行する(ACT13)。画像取得部11Aは、プロセッサ33からの制御指示に応じて、照明31を点灯させ、カメラ32によるスクリーン21を含む撮影範囲の撮影を行う。カメラ32は、取得した画像(取得画像)をRAM35に記憶する。
カメラ32が画像を取得した後、プロセッサ33は、カメラ32が取得した画像に対して商品識別部12の画像処理機能により画像処理を実行する(ACT14)。プロセッサ33は、画像処理機能により、取得画像から商品を特定する手掛かりとなる画像情報を抽出する。例えば、プロセッサ33は、取得画像から各商品を特定するための画像情報としてバーコードを検出する。プロセッサ33は、取得画像から検出するバーコードにより各商品を識別するための識別情報を特定する。各商品の識別情報を特定すると、プロセッサ33は、各商品の識別情報を基に商品データベースから各商品の商品情報を取得する(ACT15)。
各商品の商品情報を取得すると、プロセッサ33は、決済処理機能により各商品の商品情報をまとめ、購入する全商品に対する決済内容を決定する(ACT16)。例えば、プロセッサ33は、全商品の合計金額を算出し、決済内容を決定する。決済内容を決定すると、プロセッサ33は、ディスプレイ25に決済内容を示す決済情報を含む決済メニュー画面を表示する(ACT17)。例えば、プロセッサ33は、決済メニュー画面として、図10に示すような案内をディスプレイ25に表示させる。
決済メニュー画面を表示した後、プロセッサ33は、利用者による決済の可否を示す入力待ちの状態となる。利用者は、決済メニュー画面により決済内容を確認する。利用者は、決済内容の確認結果として決済可と判断した場合(ACT18、決済可)、決済可をタッチスクリーン26により入力する。また、利用者は、決済不可と判断した場合(ACT18、決済不可)、決済不可をタッチスクリーン26により入力する。
タッチスクリーン26に決済可が入力された場合(ACT19)、プロセッサ33は、決済内容に対する決済処理を実行する(ACT20)。例えば、プロセッサ33は、決済額を利用者がカード処理部27に提示するカードにより決済する。決済が完了すると、プロセッサ33は、決済完了(チェックアウトの正常終了)を示す案内をディスプレイ25に表示し(ACT21)、処理を終了する。
また、タッチスクリーン26に決済不可が入力された場合(ACT22)、プロセッサ33は、修正メニュー画面をディスプレイ25に表示させる(ACT23)。例えば、修正メニューは、チェックアウト処理の中止、商品の再セット、商品画像の再取得、商品識別処理の再実行などを利用者に選択させるもので良い。利用者は、修正メニュー画面を表示した状態においてタッチスクリーン26により修正内容を入力する(ACT24)。プロセッサ33は、利用者が入力する修正内容に応じて処理の再実行又は処理の中止を行う。
例えば、修正メニューにおいて処理中止の指示が入力された場合、プロセッサ33は、処理を中止する。また、商品の再セットの指示が入力された場合、プロセッサ33は、スクリーン21上への商品のセット案内をディスプレイ25に表示し、ACT11からの処理を再実行する。商品画像の再取得の指示が入力された場合、プロセッサ33は、ACT13へ戻り、画像取得部11Aによる画像の再取得を実行する。商品識別処理の再実行の指示が入力された場合、プロセッサ33は、ACT14へ戻り、画像処理及び商品情報の照会処理を再実行する。
次に、第1の実施形態に係るセルフチェックアウト端末1Aの本体2A内における処理について詳細に説明する。
図12は、セルフチェックアウト端末1Aのプロセッサ33が実行する処理の流れを説明するためのフローチャートである。図12に示す処理例は、バーコードにより商品を識別する画像処理と識別した商品の商品情報を取得する処理とを含む処理である。
プロセッサ33は、商品20がセットされるスクリーン21を含む撮影範囲Rの画像を画像取得部11Aにより取得する(ACT31)。例えば、プロセッサ33は、処理開始の指示に応じて、照明31に照明光を発光させ、カメラ32に画像を撮影させる。画像取得部11Aのカメラ32は、取得した画像をRAM35等のメモリ上に記憶する。RAM35に取得画像を保持すると、プロセッサ33は、取得画像に対して商品識別部12の画像処理機能としての画像処理を実行する。
取得画像を取得すると、プロセッサ33は、取得画像中における各商品の画像領域を抽出する(ACT32)。例えば、プロセッサ33は、取得画像における各商品の画像領域として、各商品のパッケージの画像領域を検出する。商品のパッケージの画像領域を抽出する毎に、プロセッサ33は、抽出した商品数をカウントする(ACT33)。取得画像内における商品の総数Nのカウント(全商品の画像領域の抽出)が終了すると、プロセッサ33は、抽出した各商品を識別する処理を行う。
第1実施形態においては、決済対象となる商品20のパッケージには、バーコードが印刷されているものとする。また、商品20は、バーコードが印刷された面(バーコードの印刷面)の画像をカメラ32が取得できるようにスクリーン21上にセットされるものとする。商品20がバーコードの印刷面をカメラ32に向けてスクリーン21上にセットされた状態であれば、カメラ32は、バーコードを含む商品のパッケージの画像を取得できる。
商品20がスクリーン21上に正しくセットされた状態でカメラ32が取得した画像は、商品20のパッケージの外周を示す商品パッケージの画像領域を含む。さらに、当該取得画像中の商品パッケージの画像領域は、バーコードの画像領域を含む。従って、プロセッサ33は、画像処理として、取得画像から商品のパッケージの画像領域を抽出し、商品パッケージの画像領域の中から更にバーコードの画像領域を抽出する。
プロセッサ33は、スクリーン21上に複数の商品がある場合、各商品のパッケージの画像領域毎に、バーコードの画像領域を抽出する処理を行う。このため、プロセッサ33は、処理した商品数をカウントするための変数nを初期化(n=0)する(ACT34)。プロセッサ33は、変数nを初期化した後、n=n+1とし(ACT35)、n個目の商品に対する商品識別処理を行う。
図12に示す処理例では、プロセッサ33は、商品識別処理として、商品毎のパッケージ領域からバーコードに関連する画像特徴を抽出し(ACT36)、バーコードの画像領域の候補を絞り込む(ACT37)。プロセッサ33は、バーコードの画像領域の候補を絞り込むと、絞り込んだ画像領域がバーコードであるか否かを判定する(ACT38)。プロセッサ33は、絞り込んだ画像領域がバーコードであると判定した場合(ACT38、YES)、当該バーコードをデコードする(ACT39)。
プロセッサ33は、バーコードをデコードした情報をバーコードシンボルに対応する商品の識別情報としてのJANコードに変換する。プロセッサ33は、バーコードから得たJANコードに基づいて商品データベース(DB)36aを検索(照会)することにより、当該商品の商品情報を取得する(ACT40)。プロセッサ33は、取得した商品の商品情報から商品の価格などの決済に必要な情報を抽出する。プロセッサ33は、例えば、決済に必要な情報として抽出した情報をRAM35などのメモリに保持する。
プロセッサ33は、n個目の商品に関する決済に必要な情報を抽出(保持)すると、識別処理した商品数nがカウントした商品総数Nに達したか否かを判断する(ACT41)。プロセッサ33は、識別した商品数nが商品総数Nに達していないと判断した場合(ACT41、NO)、上記ACT35へ戻り、次の商品の画像領域(パッケージ領域)に対する識別処理を実行する。
また、プロセッサ33は、識別処理した商品数nが商品総数Nに達したと判断した場合(ACT41、YES)、抽出した各商品の情報をまとめて全商品に対する決済処理を実行する(ACT42)。例えば、プロセッサ33は、決済内容を確定し、確定した決済内容に対する利用者の確認が得られた場合、利用者が提示するカードを用いた決済処理を実行する。
なお、プロセッサ33は、商品の画像領域からバーコードを検出できないと判定した場合(ACT38、NO)、例外処理を行う(ACT43)。例えば、プロセッサ33は、当該商品のパッケージ領域に対する商品の識別が不能と判断してエラー処理を実行する。エラー処理としては、ACT31、ACT32、又はACT36からの処理を再実行するものであっても良いし、一連の処理を中止するものであっても良い。また、プロセッサ33は、例外処理として、バーコードによる商品識別処理以外の処理により商品を識別するようにしても良い。
上記のように、第1実施形態に係るセルフチェックアウト端末は、スクリーンの下側に設置したカメラで、スクリーン上に置かれた商品の被撮影面の画像を取得する。このような構成により、セルフチェックアウト端末は、商品の形状及びサイズに依らず、カメラから商品の被撮影面(スクリーンに接する側の面)までの撮影距離をほぼ一定に保つことができる。この結果、セルフチェックアウト端末は、カメラの性能に依らず、商品のパッケージ表面にピントの合った画像を容易に得ることができる。例えば、セルフチェックアウト端末は、近距離から撮影可能なため、解像度の低い安価なカメラを利用できる。また、セルフチェックアウト端末は、カメラから商品までの距離を短くすることができるため、装置自体を小型化することが可能となる。
また、第1実施形態に係るセルフチェックアウト端末は、スクリーン上の商品の被撮影面に照射する近赤外光を発光する照明と近赤外光の画像を取得するカメラとを有する。これにより、セルフチェックアウト端末は、スクリーンの下側から照射する照明光によって利用者に眩しさを感じさせないようにできる。
また、第1実施形態に係るセルフチェックアウト端末は、照明光を近赤外光とし、カメラの撮像デバイスに入射する光に対して可視光の波長成分をカットするフィルタを設ける。これにより、セルフチェックアウト端末は、装置外部の照明環境からの影響を受けにくく、高精度な取得画像を取得できる。
(第2実施形態)
次に、第2実施形態に係るセルフチェックアウト端末について説明する。
図13は、第2実施形態に係るセルフチェックアウト端末1Bの構成例を示すブロック図である。
セルフチェックアウト端末1Bは、第1実施形態で説明したセルフチェックアウト端末1Aと同様な機能を有し、さらに商品の画像自体から商品を識別する機能を有する。すなわち、セルフチェックアウト端末1Bは、取得する画像中のバーコードの画像で商品を識別するだけでなく、それ以外の処理でも商品を識別する機能を有する。例えば、商品識別部12としてのプロセッサ33は、取得画像に含まれる商品の画像(商品のパッケージ画像)に対する認識処理により商品を識別する機能を有する。以下、セルフチェックアウト端末1Bは、バーコードで識別ができなかった商品を当該商品の画像に対する認識処理により識別するものとする。
なお、図13に示す構成については、セルフチェックアウト端末1Aと同様な構成で実現できるものについては同一符号を付して詳細な説明を省略する。例えば、セルフチェックアウト端末1Bの画像取得部、決済処理部及びユーザインターフェース等は、セルフチェックアウト端末1Aと同様なもので実現できる。
図13に示すように、第2の実施形態に係るセルフチェックアウト端末1Bは、本体2Bとユーザインターフェース3Bとを有する。本体2Bは、照明31、カメラ32、プロセッサ33、ROM34、RAM35、不揮発性メモリ36、通信部37、各種インターフェース(I/F)38(38a、38b、38c)を有する。ユーザインターフェース3Bは、ディスプレイ25、タッチスクリーン26およびカード処理部27を有する。なお、ユーザインターフェース3Bは、第1実施形態で説明したユーザインターフェース3Bと同様な構成により実現できる。
プロセッサ33は、ROM34又は不揮発性メモリ36に記憶したプログラムを実行することにより各種の制御および処理機能を実現する。セルフチェックアウト端末1Bのプロセッサ33は、セルフチェックアウト端末1Aで説明した処理機能に加えて、商品の画像により商品を識別する処理機能(画像認識機能)を有する。プロセッサ33は、ROM34又は不揮発性メモリ36が記憶するプログラムを実行することにより画像認識機能を実現する。
また、不揮発性メモリ36は、さらに商品の画像に関する情報を記憶する商品画像データベース(DB)36bを有する。商品画像DB36bは、商品の画像(商品のパッケージの画像)に関する情報を記憶する記憶領域である。商品画像DB36bは、個々の商品毎に、商品を様々な方向から撮影した画像(スクリーン上に様々な向きで置いた状態で撮影した画像)から商品を識別するための情報を記憶する。商品画像DB36bは、例えば、各商品の画像から抽出可能な画像特徴と各商品の識別情報(例えば、JANコード)とを対応づけた情報を記憶する。なお、商品画像DB36bは、通信部38を介して通信可能な外部装置に設けても良い。
例えば、商品画像DB36bは、バーコードをデコードすることにより得られるJANコードと同等な識別情報を、各商品の画像特徴に対応づけて記憶する。商品画像DB36bは、各商品のパッケージの取得画像に対する画像特徴の抽出処理で得られる画像特徴(画像特徴量)と各商品のJANコードとを対応づけてデータベース形式で保存する。画像特徴は、例えば、パッケージ面の模様、色、文字のロゴなど商品のパッケージデザインに依存する画像情報から形成される。また、各商品の画像特徴は、バーコードの印刷面だけでは無く、スクリーン21上に商品20が置かれる可能性がある各向きの取得画像毎に抽出される。
次に、第2の実施形態に係るセルフチェックアウト端末1Bの本体2B内における処理例について詳細に説明する。なお、セルフチェックアウト端末1Bにおける基本的な処理の流れは、図11に示す処理と同様で良い。
図14は、セルフチェックアウト端末1Bのプロセッサ33が実現する処理の流れを説明するためのフローチャートである。
図14に示す処理例は、図12に示す処理に加えて、バーコードで識別ができなかった商品を、商品の画像(パッケージ画像)の認識処理により識別する処理を含む処理例である。このため、図14に示すACT51−62、65の各処理は、図12に示すACT31−43の各処理と同様な処理であっても良い。
すなわち、プロセッサ33は、スクリーン21を含む撮影範囲Rの画像を画像取得部11Aにより取得する(ACT51)。画像取得部が画像を取得すると、プロセッサ33は、取得画像中における各商品の画像領域を抽出する(ACT52)。例えば、プロセッサ33は、取得画像における各商品の画像領域として、各商品のパッケージの画像領域を検出する。商品のパッケージの画像領域を抽出する毎に、プロセッサ33は、抽出した商品数をカウントする(ACT53)。取得画像内における商品の総数Nのカウント(全商品の画像領域の抽出)が終了すると、プロセッサ33は、抽出した各商品を識別する処理を行う。
プロセッサ33は、スクリーン21上に複数の商品がある場合、各商品のパッケージの画像領域毎に、バーコードの画像領域を抽出する処理を行う。このため、プロセッサ33は、処理した商品数をカウントするための変数nを初期化(n=0)する(ACT54)。プロセッサ33は、変数nを初期化した後、n=n+1とし(ACT55)、n個目の商品に対する商品識別処理を行う。
図14に示す例において、プロセッサ33は、商品識別処理として、商品毎のパッケージ領域からバーコードに関連する画像特徴を抽出し(ACT56)、バーコードの画像領域の候補を絞り込む(ACT57)。プロセッサ33は、絞り込んだ画像領域がバーコードであるか否かを判定する(ACT58)。プロセッサ33は、絞り込んだ画像領域がバーコードであると判定した場合(ACT58、YES)、当該バーコードをデコードする(ACT59)。プロセッサ33は、バーコードをデコードした情報をバーコードシンボルに対応する商品の識別情報としてのJANコードに変換する。
プロセッサ33は、バーコードから得たJANコードに基づいて商品データベース(DB)を検索(照会)することにより、当該商品の商品情報を取得する(ACT60)。プロセッサ33は、取得した商品の商品情報から商品の価格などの決済に必要な情報をRAM35などのメモリに保持する。1つの商品の決済に必要な情報を抽出(保持)した後、プロセッサ33は、識別処理した商品数nが商品総数Nに達していなければ(ACT61、NO)、上記ACT54へ戻る。また、プロセッサ33は、識別処理した商品数nが商品総数Nに達した場合(ACT61、YES)、抽出した各商品の情報をまとめて全商品に対する決済処理を実行する(ACT62)。
さらに、プロセッサ33は、取得画像から抽出した商品の画像領域からバーコードが検出できなかった場合(ACT58、NO)、商品の画像により商品を識別する画像認識(パッケージ認識)処理を行う(ACT63)。すなわち、プロセッサ33は、画像認識処理において、取得画像における商品の画像(商品のパッケージの画像)から画像特徴を抽出する。プロセッサ33は、ACT56の処理において商品の画像領域から画像認識に用いる画像特徴を抽出し、抽出した画像特徴をメモリに保持しておくようにしても良い。プロセッサ33は、商品の画像領域から抽出した画像特徴と商品画像DB36bが記憶する各商品の画像特徴とのマッチングにより商品を識別する。
例えば、プロセッサ33は、商品の画像領域から抽出した画像特徴と商品画像DB36bが記憶する各商品の画像特徴との類似度を判定する。プロセッサ33は、商品の画像領域から抽出した画像特徴とDB36bが記憶する画像特徴との類似度が最大となるものを特定する。プロセッサ33は、最大の類似度が所定の閾値以上であれば、当該画像領域の商品が最大の類似度となる画像特徴に対応する商品であると判定する。また、プロセッサ33は、最大の類似度が所定の閾値未満である場合、当該商品の画像領域に対する画像認識処理が失敗した(画像認識による商品の識別が不可)と判断しても良い。
画像認識による商品の識別が成功した場合(ACT64、YES)、プロセッサ33は、当該商品の識別情報としてのJANコードを商品画像DB36bから取得する。プロセッサ33は、画像認識により得たJANコードに基づいて商品情報DB36aを検索(照会)することにより、当該商品の決済に必要な情報を取得する(ACT60)。プロセッサ33は、当該商品の決済に必要な情報をRAM35などのメモリに保持し、ACT61へ進む。
また、画像認識による商品の識別が失敗した場合(ACT64、NO)、プロセッサ33は、例外処理を行う(ACT65)。プロセッサ33は、例外処理として、当該商品のパッケージ領域に対する商品の識別が不能と判断してエラー処理を実行する。エラー処理としては、ACT51、ACT52、又はACT56からの処理を再実行するものであっても良いし、一連の処理を中止するものであっても良い。また、プロセッサ33は、例外処理として、バーコードによる商品識別処理および画像認識による商品識別処理以外の処理により商品を識別するようにしても良い。
上記のような第2実施形態に係るセルフチェックアウト端末は、取得画像からバーコードが抽出できない場合、商品の画像の特徴から商品を特定する機能を有する。これにより、セルフチェックアウト端末は、取得画像からバーコードが認識できない商品(バーコードの印刷面がスクリーン21側に向けて置かれていない商品)であっても、商品の画像自体(パッケージの画像特徴)から商品を識別できる。つまり、第2実施形態に係るセルフチェックアウト端末は、利用者が任意の向きで置いた決済対象の各商品を特定することが可能となる。この結果、セルフチェックアウト端末は、利用者が商品を置く向きを気にすることなくチェックアウト処理を行える。さらに、セルフチェックアウト端末は、商品を識別する処理のエラーによる中止、或いは、商品を識別する処理のやり直し回数が減るため、利用者の利便性が向上する。
(第3実施形態)
次に、第3実施形態に係るセルフチェックアウト端末について説明する。
図15は、第3実施形態に係るセルフチェックアウト端末1Cの構成例を示すブロック図である。
第3実施形態に係るセルフチェックアウト端末1Cは、生体認証を用いた決済処理を行うものである。ここでは、第1実施形態で説明したセルフチェックアウト端末に生体認識による決済処理を追加したセルフチェックアウト端末1Cについて説明する。なお、第3実施形態に係るセルフチェックアウト端末は、第2実施形態に係るセルフチェックアウト端末1Bに生体認証による決済処理を追加することにより実現しても良い。
図15は、第3実施形態に係るセルフチェックアウト端末1Cの構成例を示すブロック図である。
セルフチェックアウト端末1Cは、第1実施形態で説明したセルフチェックアウト端末1Aと同様な機能を有し、さらに個人認証として生体認証を行う機能を有する。すなわち、セルフチェックアウト端末1Cは、生体認証を用いることにより利用者自身の操作による決済処理を実現する。
なお、図15に示す構成については、セルフチェックアウト端末1Aと同様な構成で実現できるものについては同一符号を付して詳細な説明を省略する。セルフチェックアウト端末1Cの画像取得部等の構成は、第1実施形態で説明したセルフチェックアウト端末1Aと同様なものであっても良い。
図15に示すように、第3実施形態に係るセルフチェックアウト端末1Cは、本体2Cとユーザインターフェース3Cとを有する。本体2Cは、照明31、カメラ32、プロセッサ33、ROM34、RAM35、不揮発性メモリ36、通信部37、各種インターフェース(I/F)38(38a、38b、38c、38d、38e)を有する。
プロセッサ33は、ROM34又は不揮発性メモリ36に記憶したプログラムを実行することにより各種の制御および処理機能を実現する。セルフチェックアウト端末1Cのプロセッサ33は、セルフチェックアウト端末1Aで説明した処理機能に加えて、生体認証、および認証結果に応じた決済処理機能を有する。また、セルフチェックアウト端末1Cのプロセッサ33は、生体認証としての顔認証を行う処理機能を有し、生体認証部として機能する。
また、不揮発性メモリ36は、さらに会員に関する情報を記憶する会員情報データベース(DB)36cを有する。会員情報DB36cは、各会員に対する認証情報を含む会員に関する情報を記憶する記憶領域である。会員情報DB36cは、各会員の識別情報と各会員に対する認証情報(生体情報およびパスワードを含む認証情報)とを対応づけた会員情報を記憶する。会員情報DB36cは、各会員の認証情報として、各会員の顔認証用の辞書データを記憶する顔データベースと各会員の指紋認証用の辞書データを記憶する指紋データベースとを有する。顔データベースは、顔認証の辞書データとして、各会員の顔の特徴量を記憶する。また、顔データベースは、各会員の登録用の顔画像を記憶しても良い。指紋データベースは、指紋認証の辞書データとして、各会員の指紋の特徴量を記憶する。指紋データベースは、各会員の登録用の指紋画像を記憶しても良い。
また、会員情報DB36cは、各会員に対する決済に関連する情報を記憶する。例えば、会員情報DB36cは、各会員が決済に用いるカード(クレジットカード等)に関する情報を記憶する。また、会員情報DB36cは、決済額等に応じて付与されるポイント情報を会員ごとに記憶しても良い。また、会員情報DB36cは、各会員が決済した商品に関する情報(例えば購入履歴情報)を記憶しても良い。なお、会員情報DB36cは、通信部38を介して通信可能な外部装置に設けても良い。
また、図16は、ユーザインターフェース3Cの外観構成例と表示例とを示す図である。
図15及び図16に示すように、ユーザインターフェース3Cは、ディスプレイ25、タッチスクリーン26、カード処理部27、カメラ41および指紋センサ42を有する。なお、ディスプレイ25、タッチスクリーン26及びカード処理部27は、第1実施形態で説明したセルフチェックアウト端末1Aと同様な構成で実現できる。
カメラ41は、利用者の顔を撮影する。カメラ41は、利用者(決済者)の生体情報としての顔画像を取得する生体情報取得部として機能する。カメラ41は、タッチスクリーン26を操作する利用者の顔が撮影できるように設置する。カメラ41は、本体2Cのインターフェース(I/F)38dに接続する。カメラ41は、撮影した画像をI/F38dを介して本体2Cへ供給する。また、カメラ41は、I/F38dを介して接続されるプロセッサ33により制御される。
指紋センサ42は、利用者の指紋を撮像(検知)する。指紋センサ42は、利用者の指が翳される検知部を有する。例えば、指紋センサ42は、検知部により利用者の指の指紋をスキャンする。指紋センサ42は、本体2Cのインターフェース(I/F)38eに接続する。指紋センサ42は、撮影した画像をI/F38eを介して本体2Cへ供給する。また、指紋センサ42は、I/F38eを介して接続されるプロセッサ33により制御される。
また、図16に示す例において、ディスプレイ25は、暗証番号(パスワード)の入力、又は、指紋の読取りの案内を表示する。暗証番号は、ディスプレイ25に表示したキーをタッチスクリーン26で選択することにより入力される。また、指紋は、指紋センサで読み取る。この状態においてカメラ41が利用者の顔を撮影することにより、パスワードの入力又は指紋の読取りを実行している利用者の顔画像が撮影できる。
すなわち、本体2Cのプロセッサ33は、図16に示す表示画面を表示した状態において、利用者の顔画像と共に、パスワード又は指紋画像の何れかを取得する。言い換えると、プロセッサ33は、カメラ41が撮影する顔画像による生体認証の結果に応じて、パスワード又は指紋画像の何れかを取得するようにできる。
次に、上記のように構成されるセルフチェックアウト端末1Cにおける決済処理について説明する。
図17は、セルフチェックアウト端末1Cにおける決済処理の例を説明するためのフローチャートである。
決済処理が開始されると、プロセッサ33は、カメラ41により利用者の顔を撮影する(ACT72)。カメラ41は、プロセッサ33からの指示に応じて撮影を行い、撮影した画像をプロセッサ33へ供給する。プロセッサ33は、カメラ41が撮影した撮影画像を取得し、顔認証処理(生体認証処理)を実行する(ACT73)。なお、カメラ41は、ACT72において生体認証取得部として機能し、プロセッサ33は、ACT73において生体認証部として機能する。
プロセッサ33は、顔認証処理として、カメラ41が撮影した撮影画像から利用者の顔の画像領域(顔画像)を検出する。なお、カメラ41は、撮影した画像から顔の画像領域(顔画像)を検出し、検出できた顔画像をプロセッサ33へ供給するようにしても良い。カメラ41の撮影画像から顔画像が検出できた場合、プロセッサ33は、検出した顔画像から顔の特徴量を抽出する。プロセッサ33は、撮影画像から検出した顔の特徴量と会員情報DB36cの顔DBに登録されている各会員の顔の特徴量とのマッチングを行う。
例えば、プロセッサ33は、撮影画像から検出した顔の特徴量と顔DBに登録されている各会員の顔の特徴量との類似度を判定する。プロセッサ33は、各会員との類似度のうち最大の類似度を特定する。プロセッサ33は、最大の類似度が所定の閾値以上であるかを判定する。最大の類似度が閾値以上である場合、プロセッサ33は、利用者が最大の類似度となった会員であると同定する。プロセッサ33は、顔認証の結果として、当該会員の識別情報(例えば、会員ID)を決定する。また、最大の類似度が閾値未満である場合、プロセッサ33は、顔認証では利用者が会員と同定できなかったものとする。
なお、上述の処理では、決済処理を開始した後に顔認証を行うものとしたが、顔認証処理は、決済処理の開始よりも先に開始しても良い。例えば、プロセッサ33は、商品を識別する処理と並行して顔の撮影及び顔認証処理を実施しても良い。また、プロセッサ33は、利用者を検知するセンサを設け、当該センサが利用者を検知すると直に顔の撮影と顔認証処理を実施しても良い。また、プロセッサ33は、カメラ41により所定の周期で継続的に撮影を行って、撮影画像から顔を検出すると直に顔認証処理を実施するようにしても良い。
また、上述した処理例では、第1の認証処理として顔認証を行う処理例について説明したが、顔認証に代えて他の生体認証を行っても良い。例えば、第1の認証処理は、声紋、目の虹彩、手の静脈パターン、目の網膜、或いは、目の瞬きなどによる生体認証を用いても良い。
顔認証により利用者が特定の会員と同定できた場合(ACT74、YES)、プロセッサ33は、利用者が顔認証で特定した会員であることを確認する会員認証を行う。プロセッサ33は、会員認証を行うため、第2の認証情報としての指紋又はパスワードの入力案内をディスプレイ25に表示する(ACT75)。利用者が指紋又はパスワードを入力した場合、プロセッサ33は、指紋又はパスワードによる本人認証処理(第2の認証処理)を行う(ACT76)。ここで、プロセッサ33は、顔認証で特定された会員の認証情報(パスワード又は指紋情報)を会員情報DB36cから取得する。プロセッサ33は、会員情報DB36cから取得する登録済みのパスワード(登録パスワード)又は登録済みの指紋情報(登録指紋情報)と、利用者が入力するパスワード又は指紋とを照合する。
例えば、タッチスクリーン26により利用者が入力したパスワードを取得した場合、プロセッサ33は、入力されたパスワードと顔認証で特定した会員の登録パスワードとを照合する。また、指紋センサ42により利用者の指紋を読み取った場合、プロセッサ33は、指紋センサ42が読み取った指紋情報(入力された指紋情報)と顔認証で特定した会員の登録指紋情報とを照合する。
入力されたパスワード又は指紋と顔認証で特定した会員の認証情報とが一致した場合、プロセッサ33は、利用者が顔認証で特定した会員であることが確認できたものとする。会員であることが確認できた場合(会員認証が成功した場合)(ACT77、YES)、プロセッサ33は、会員情報DB36cに登録されている当該会員の会員情報を用いて決済処理を実行する(ACT78)。例えば、プロセッサ33は、会員情報DB36cに登録されている当該会員のカードに関する情報を用いて決済処理を実行する。
また、会員であることが確認できなかった場合(会員認証が失敗した場合)(ACT77、NO)、プロセッサ33は、利用者が会員に登録されていないと見做し、非会員に対する決済処理を実行する(ACT79、80)。例えば、プロセッサ33は、非会員に対する決済処理として、カード処理部27により利用者が提示するカードを読み取る(ACT79)。プロセッサ33は、利用者が提示するカードから読み取った情報による決済処理を実行する(ACT80)。
上記のように、第3実施形態に係るセルフチェックアウト端末は、生体認証により利用者が会員であるかをチェックする。セルフチェックアウト端末は、生体認証により会員であることが確認できた場合、会員情報を用いて当該利用者(会員)に対する決済処理を行う。これにより、会員は、カードなどを必要とせずに、登録済みの会員情報を用いて決済処理が可能となる。この結果、カードなどを持参することなく、手ぶらで決済処理を行うことができ、利便性の向上を図ることができる。
また、第3実施形態に係るセルフチェックアウト端末は、生体認証を用いて会員確認を確実に行うことができる。また、生体認証として顔認証を用いるセルフチェックアウト端末は、カメラが決済処理を行う利用者の顔画像を撮影する。このため、顔認証を用いたセルフチェックアウト端末は、利用者の操作負担が少なく、利用者に対するさらなる利便性の向上が期待できる。
さらに、第3実施形態に係るセルフチェックアウト端末は、顔認証を用いて会員を特定した後、パスワード認証又は指紋認証などの別の認証方法により特定した会員であるかを確認する。これにより、利用者が顔認証で特定した会員であることを確実に確認できるため、登録済みの会員情報を用いた決済処理を安全に行うことができる。
(第4実施形態)
次に、第4実施形態に係るセルフチェックアウト端末について説明する。
図18は、第4実施形態に係るセルフチェックアウト端末1Dの構成例を示すブロック図である。
第4実施形態に係るセルフチェックアウト端末1Dは、第1実施形態で説明したセルフチェックアウト端末1Aにおける画像取得部11Aを画像取得部11D、11D´に置き換えたものである。すなわち、セルフチェックアウト端末1Dにおける画像取得部以外の構成は、セルフチェックアウト端末1Aと同様なもので実現できる。なお、第4実施形態で説明した画像取得部11D、11D´は、第1実施形態に係るセルフチェックアウト端末だけではなく、第2又は第3実施形態で説明したセルフチェックアウト端末1における画像取得部に適用しても良い。
図18に示す構成については、セルフチェックアウト端末1Aと同様な構成で実現できるものについては同一符号を付して詳細な説明を省略するものとする。
図18に示すように、第4実施形態に係るセルフチェックアウト端末1Dの本体2Dは、照明51、移動機構52および撮像部53を含む画像取得部11Dを有する。
照明51は、スクリーン21全体を含む撮影範囲に照射する照明光を発光する。照明51は、撮像部53が撮影可能な照明光を発光するものであれば良い。例えば、照明51は、近赤外領域に発光スペクトルを有する近赤外光を発光するLED光源を採用する。これにより、照明光がスクリーン21を介して利用者に照射されても、利用者が眩しくなることを抑制できる。
移動機構52は、撮影範囲をスキャン走査するための機構である。移動機構52は、照明51と撮像部53とを搭載したキャリッジ、又は、照明51を搭載したキャリッジを走査方向に移動させる。例えば、撮像部53が主走査方向の1ライン分のラインイメージセンサを有する構成である場合、移動機構52は、キャリッジを副走査方向に移動させる。
撮像部53は、入射する光を画像情報に変換する撮像装置である。撮像部53は、例えば、主走査方向における1ライン分の光電変換素子などで構成する撮像素子53aを有する。撮像部53は、移動機構52により副走査方向に移動するスキャン位置からの光を画像情報に変換することにより撮影範囲全体の画像を取得する。
また、撮像部53は、撮像素子53aに入射する不要な光をカットするためのフィルタ53bを有する。照明51が近赤外光を発光する構成とした場合、撮像部53は、撮像素子53aに入射する光における可視光をカットするフィルタ53bを有する。これにより、撮像部53は、明るく迷光によるノイズの少ない取得画像を得ることが可能となる。
図19は、セルフチェックアウト端末1Dにおける画像取得部11Dの第1の構成例を示す図である。
図19に示す画像取得部11Dは、照明51と撮像部53とが移動する(スキャン走査)することにより撮影範囲の画像を取得する。画像取得部11Dは、照明51と撮像部53とを搭載したキャリッジ60を有する。画像を取得する場合、キャリッジ60が移動機構52により一次元方向(副走査方向)に移動する。照明51が光を照射する位置(スキャン位置)は、キャリッジ60の移動に伴って副走査方向に移動する。
撮像部53は、照明51が光を照射する位置における主走査方向の1ライン分の画像情報を撮像する。例えば、撮像部53は、撮像素子53aに密着型(CIS:Contact Image Sensor)一次元イメージセンサを用いる。撮像部53は、キャリッジ60の移動に伴って副走査方向に移動するスキャン位置の画像を順次取得する。これにより、撮像部53は、スクリーン21を含む撮影範囲全体の画像を取得する。
図19に示す第1の構成例では、画像取得部11Dは、照明光を反射させるための反射体などを省略することが可能なため、画像取得部11Dを小型化することが可能となる。この結果として、セルフチェックアウト端末1Dは、本体2D全体としても小型化が可能となる。また、照明51は、スキャン位置に近い位置に配置される。このため、照明51が発光する光の光量も削減することが可能となり、低消費電力での動作が可能となる。
また、照明51は、近赤外領域に発光スペクトルを有する近赤外光を発光するものとして良い。この場合、撮像部53は、撮像素子53aの前段に可視光をカットするフィルタ53bを有する。フィルタ53bは、近赤外光を透過し、外光などの可視光の成分をカットする。これにより、画像取得部11Dは、利用者にとって眩しくない照明光を採用し、かつ、明るく迷光によるノイズの少ない取得画像を得ることが可能となる。
図20は、セルフチェックアウト端末1Dにおける画像取得部11D´の第2の構成例を示す図である。
図20に示す第2の構成例の画像取得部11D´は、図19に示す画像取得部11Dと同様に、スキャン位置を副走査方向に走査することにより撮影範囲の画像を取得する。画像取得部11D´は、第1キャリッジ71と第2キャリッジ72とを有する。第1キャリッジ71は、照明51と第1ミラー73とを搭載する。第2キャリッジ72は、第2ミラー74及び第3ミラー75を搭載する。第1乃至第3ミラー73−75は、スキャン位置からの光を撮像部53へ導く光学系を形成する。第1キャリッジ71は、移動機構52により副走査方向に移動する。第2キャリッジ72は、第1キャリッジ71の1/2の速度で第1キャリッジと同方向に移動する。第1乃至第3ミラー73−75により形成されるスキャン位置から撮像部53までの光路は一定に保たれる。つまり、画像取得部11D´における光学系は、縮小光学系を形成する。
撮像部53は、撮像素子53aとフィルタ53bとレンズ群53cとを有する。撮像素子53aは、光学系により入射されるスキャン位置からの光を主走査方向の1ライン分の画像情報として撮像する。撮像部53は、例えば、撮像素子53aとしてCCDラインイメージセンサを有する。レンズ群53cは、第1乃至第3ミラー73−75によりスキャン位置から導かれた光を撮像素子53aへ入射させる。フィルタ53bは、照明51が照射する近赤外光以外の可視光をカットするフィルタである。これらの構成により、図20に示す撮像部53は、明るくノイズの少ない取得画像を得ることが可能となる。
上記のような第4実施形態に係るセルフチェックアウト端末は、一次元ラインイメージセンサからなる撮像素子を有する撮像部とスキャン位置を副走査方向に走査させる機構とを含む画像取得部を有する。これにより、第4実施形態に係るセルフチェックアウト端末は、画像取得部を小型化できる。また、第4実施形態に係るセルフチェックアウト端末は、照明をスキャン位置に近い位置に配置できるため、照明の消費電力で低減できる。
なお、上述した各実施形態では、装置内のメモリにプロセッサが実行するプログラムが予め記憶されている場合で説明をした。しかし、プロセッサが実行するプログラムは、ネットワークから装置にダウンロードしても良いし、記憶媒体から装置にインストールしてもよい。記憶媒体としては、CD−ROM等のプログラムを記憶でき、かつ装置が読み取り可能な記憶媒体であれば良い。また、予めインストールやダウンロードにより得る機能は、装置内部のOS(オペレーティング・システム)等と協働して実現させるものであってもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1(1A、1B、1C、1D)…セルフチェックアウト端末(チェックアウト装置、決済装置)、11(11A、11D)…画像取得部、12…商品識別部、13…決済処理部、15…表示部、16…操作部、17…入力部、18…撮像部、21…スクリーン、25…ディスプレイ、26…タッチスクリーン、27…カード処理部、31…照明、32…カメラ、32a…撮像素子、32b…フィルタ、32c…レンズ群、33…プロセッサ、36a…商品情報データベース、37…通信部、40…反射体、41…カメラ、42…指紋センサ、51…照明、52…移動機構、53…撮像部。

Claims (5)

  1. 光を透過するスクリーンと、
    前記スクリーンを通して商品の画像を取得する撮像部と、
    前記撮像部が取得した画像から決済対象の全ての商品を識別し、識別した各商品を決済するための情報を取得する商品識別部と、
    前記商品識別部が識別した各商品の決済処理を行う決済処理部と、
    を有するチェックアウト装置。
  2. さらに、前記スクリーンの一方の面側からスクリーンに向けて照射する照明光として近赤外光を発光する照明を有し、
    前記撮像部は、前記照明が発光する近赤外光に対して感度特性を有するイメージセンサを含む、
    請求項1に記載のチェックアウト装置。
  3. 前記撮像部と前記スクリーンを挟んで前記スクリーンの他方の面側にある商品との間の光路上に設置した可視光成分をカットするフィルタを有する、
    請求項2に記載のチェックアウト装置。
  4. 前記撮像部は、主走査方向の1ライン分の画像を取得する1次元イメージセンサを具備し、
    さらに、前記1次元イメージセンサが取得する位置を副走査方向に移動させる移動機構を有する、
    請求項1に記載のチェックアウト装置。
  5. 前記商品識別部は、取得画像から各商品の画像領域を抽出し、各商品の画像領域から得られる画像特徴により商品を識別する、
    請求項1に記載のチェックアウト装置。
JP2016101423A 2015-09-17 2016-05-20 チェックアウト装置 Pending JP2017059208A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/857,190 US20170083892A1 (en) 2015-09-17 2015-09-17 Checkout apparatus
US14/857,190 2015-09-17

Publications (1)

Publication Number Publication Date
JP2017059208A true JP2017059208A (ja) 2017-03-23

Family

ID=56740816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016101423A Pending JP2017059208A (ja) 2015-09-17 2016-05-20 チェックアウト装置

Country Status (3)

Country Link
US (1) US20170083892A1 (ja)
EP (1) EP3147877A1 (ja)
JP (1) JP2017059208A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018174245A1 (ja) 2017-03-24 2018-09-27 テルモ株式会社 チューブ接合装置
JP2019192105A (ja) * 2018-04-27 2019-10-31 日本電気株式会社 商品登録装置、商品登録方法及びプログラム
WO2020170963A1 (ja) * 2019-02-20 2020-08-27 日本電気株式会社 処理装置、処理方法及びプログラム
JPWO2020194892A1 (ja) * 2019-03-22 2020-10-01
JP2020166642A (ja) * 2019-03-29 2020-10-08 パナソニックIpマネジメント株式会社 精算決済装置および無人店舗システム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2952775C (en) * 2015-12-23 2020-04-14 Raysecur Inc. Mail screening apparatus
US10740566B2 (en) 2018-03-23 2020-08-11 Servicenow, Inc. Method and system for automated intent mining, classification and disposition
US11468238B2 (en) 2019-11-06 2022-10-11 ServiceNow Inc. Data processing systems and methods
US11455357B2 (en) 2019-11-06 2022-09-27 Servicenow, Inc. Data processing systems and methods
US11481417B2 (en) 2019-11-06 2022-10-25 Servicenow, Inc. Generation and utilization of vector indexes for data processing systems and methods
JP2022187268A (ja) * 2021-06-07 2022-12-19 東芝テック株式会社 情報処理システム、情報処理装置及びその制御プログラム
US11681997B2 (en) * 2021-09-30 2023-06-20 Toshiba Global Commerce Solutions Holdings Corporation Computer vision grouping recognition system
CN116542674B (zh) * 2023-07-06 2023-09-26 鲁担(山东)数据科技有限公司 一种基于大数据的风险分析评估方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6145049B2 (ja) * 2014-01-09 2017-06-07 東芝テック株式会社 読取装置、商品販売データ処理装置、及びそのプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018174245A1 (ja) 2017-03-24 2018-09-27 テルモ株式会社 チューブ接合装置
JP2019192105A (ja) * 2018-04-27 2019-10-31 日本電気株式会社 商品登録装置、商品登録方法及びプログラム
JP7218984B2 (ja) 2018-04-27 2023-02-07 日本電気株式会社 商品登録装置、商品登録方法及びプログラム
US11568360B2 (en) 2018-04-27 2023-01-31 Nec Corporation Product registration apparatus, product registration method, and non-transitory storage medium
US11055660B2 (en) 2018-04-27 2021-07-06 Nec Corporation Product registration apparatus, product registration method, and non-transitory storage medium
JPWO2020170963A1 (ja) * 2019-02-20 2021-12-16 日本電気株式会社 処理装置、商品登録装置、処理方法及びプログラム
WO2020170963A1 (ja) * 2019-02-20 2020-08-27 日本電気株式会社 処理装置、処理方法及びプログラム
JP7322945B2 (ja) 2019-02-20 2023-08-08 日本電気株式会社 処理装置、処理方法及びプログラム
JPWO2020194892A1 (ja) * 2019-03-22 2020-10-01
WO2020194892A1 (ja) * 2019-03-22 2020-10-01 沖電気工業株式会社 画像処理装置、画像処理方法、画像処理システム
JP7351333B2 (ja) 2019-03-22 2023-09-27 沖電気工業株式会社 画像処理装置、画像処理方法、画像処理システム
WO2020203381A1 (ja) * 2019-03-29 2020-10-08 パナソニックIpマネジメント株式会社 精算決済装置および無人店舗システム
JP2020166642A (ja) * 2019-03-29 2020-10-08 パナソニックIpマネジメント株式会社 精算決済装置および無人店舗システム
JP7361262B2 (ja) 2019-03-29 2023-10-16 パナソニックIpマネジメント株式会社 精算決済装置および無人店舗システム

Also Published As

Publication number Publication date
EP3147877A1 (en) 2017-03-29
US20170083892A1 (en) 2017-03-23

Similar Documents

Publication Publication Date Title
JP2017059208A (ja) チェックアウト装置
US10896304B2 (en) Indicia reader having a filtered multifunction image sensor
US10049249B2 (en) Indicia reader safety
US9659198B2 (en) System and method of determining if a surface is printed or a mobile device screen
US20160042241A1 (en) Interactive indicia reader
JP5034359B2 (ja) 画像認証装置、画像認証方法、画像認証プログラム、記録媒体及び電子機器
US6913199B2 (en) System and method for verifying optical character recognition of optical code reads
US7559473B2 (en) Sensor for activating an aiming pattern of a handheld scanner
US7583822B2 (en) Method for identifying persons and system for carrying out said method
KR101120932B1 (ko) 촬상 장치, 촬상 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체, 촬상 방법, 인증 장치, 인증 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체 및 인증 방법
TWI403960B (zh) 用來鑑定使用者之成像設備及方法
JP2018156674A (ja) 画像認識装置及び商品情報処理装置
US20160350563A1 (en) Arrangement for and method of switching between hands-free and handheld modes of operation in an imaging reader
CN108038479B (zh) 指纹识别装置及识别方法
CN107256373B (zh) 具有可配置操作特性的标记读取终端
US8947745B2 (en) Apparatus and method for scanning and decoding information in an identified location in a document
US9959442B2 (en) Extended depth of field in imaging machine-readable symbol reader using image side telecentric lens
WO2015061406A1 (en) Point-of-sale scanner
US8977009B2 (en) Biometric authentication device, biometric authentication program, and biometric authentication method
CN112286374A (zh) 使用与增强现实平视显示器配对的标准条形码扫描仪与用户界面交互的替代方法
US7180643B2 (en) Live print scanner with holographic imaging a different magnifications
US20140144978A1 (en) System for, and method of, configuring electro-optical reader as a keyboard device having a selected keyboard layout
US11868842B2 (en) Point-of-sale scanner signaling to a camera
US8702002B2 (en) Method, apparatus and system for scanning optical codes
JP2016224602A (ja) 情報読取装置