JP2016066384A - Commodity recognition device and commodity recognition program - Google Patents

Commodity recognition device and commodity recognition program Download PDF

Info

Publication number
JP2016066384A
JP2016066384A JP2016010945A JP2016010945A JP2016066384A JP 2016066384 A JP2016066384 A JP 2016066384A JP 2016010945 A JP2016010945 A JP 2016010945A JP 2016010945 A JP2016010945 A JP 2016010945A JP 2016066384 A JP2016066384 A JP 2016066384A
Authority
JP
Japan
Prior art keywords
frame
product
candidate
image
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016010945A
Other languages
Japanese (ja)
Other versions
JP6116717B2 (en
JP2016066384A5 (en
Inventor
洋二 角田
Yoji Tsunoda
洋二 角田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2016010945A priority Critical patent/JP6116717B2/en
Publication of JP2016066384A publication Critical patent/JP2016066384A/en
Publication of JP2016066384A5 publication Critical patent/JP2016066384A5/ja
Application granted granted Critical
Publication of JP6116717B2 publication Critical patent/JP6116717B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To recognize a commodity from a taken image.SOLUTION: A commodity recognition device displays a frame for enclosing a commodity on an image taken by an imaging unit. The commodity recognition device recognizes a candidate of the commodity displayed in the frame on the basis of the feature amount of the image in an area enclosed by the frame to output a piece of information relevant to a commodity of the most likelihood candidate. When receiving a candidate change instruction, the commodity recognition device outputs a piece of information relevant to a commodity other than the most likelihood candidate selected from the candidates.SELECTED DRAWING: Figure 14

Description

本発明の実施形態は、カフェテリア形式の食堂施設等で利用される商品認識装置及びコンピュータを当該商品認識装置として機能させるための商品認識プログラムに関する。   Embodiments described herein relate generally to a product recognition apparatus and a product recognition program for causing a computer to function as the product recognition apparatus.

カフェテリア形式の食堂施設では、予め用意された料理を利用者自身がトレイに盛り付け、若しくは給仕員に盛り付けてもらい、最後に会計を行う。会計は、通常、キャッシャがトレイに盛られた料理を1品ずつ金銭登録装置に登録して行う。このため、カフェテリア形式の食堂施設では会計に時間を要するという問題があり、この問題を解決するために様々な提案がなされている。しかしながら、従来提案されている認識装置は、商品(料理)が盛り付けられた容器を認識する。このため、容器は認識装置で認識可能なものに制約される。このように容器に自由度がないため、運用しづらい。   In a cafeteria-style cafeteria facility, the user prepares dishes prepared in advance on a tray, or asks a waiter to serve them, and finally performs accounting. The accounting is usually performed by registering the dishes on the tray with the cashier one by one in the cash registering device. For this reason, cafeteria-style cafeteria facilities have a problem of requiring time for accounting, and various proposals have been made to solve this problem. However, a conventionally proposed recognition device recognizes a container in which products (dishes) are arranged. For this reason, a container is restrict | limited to what can be recognized with a recognition apparatus. In this way, it is difficult to operate because there is no degree of freedom in the container.

特開平8−180099号公報JP-A-8-180099 特開2001−216571号公報JP 2001-216571 A

本発明の実施形態が解決しようとする課題は、効率よく運用され、認識結果に誤りがあった場合でも、簡単な操作で容易に訂正することができる商品認識装置及び商品認識プログラムを提供することである。   A problem to be solved by an embodiment of the present invention is to provide a product recognition apparatus and a product recognition program that can be efficiently operated and can be easily corrected with a simple operation even when there is an error in the recognition result. It is.

一実施形態において、商品認識装置は、画像表示手段、枠表示手段、認識手段、第1の出力手段、変更受付手段及び第2の出力手段を含む。画像表示手段は、撮像部で撮影された画像を表示部に表示させる。枠表示手段は、表示部に表示される画像上の任意の1乃至複数箇所に商品を囲うための枠を表示させる。認識手段は、枠によって囲われた領域内の画像の特徴量から枠内に映し出されている商品の候補を認識する。第1の出力手段は、認識手段により認識された商品の候補のなかで最有力候補の商品に係る情報を出力する。変更受付手段は、候補の変更指示を受け付ける。第2の出力手段は、候補の変更指示を受け付けると、候補の中から選出された最有力候補以外の商品に係る情報を出力する。   In one embodiment, the product recognition apparatus includes image display means, frame display means, recognition means, first output means, change acceptance means, and second output means. The image display means displays an image photographed by the imaging unit on the display unit. The frame display means displays a frame for enclosing the product at any one or a plurality of locations on the image displayed on the display unit. The recognizing unit recognizes the candidate for the product displayed in the frame from the feature amount of the image in the area surrounded by the frame. The first output means outputs information relating to the most likely candidate product among the product candidates recognized by the recognition means. The change accepting unit accepts a candidate change instruction. When the second output means receives the candidate change instruction, the second output means outputs information relating to a product other than the most promising candidate selected from the candidates.

商品認識装置の一実施形態を示す外観図。The external view which shows one Embodiment of a goods recognition apparatus. 同商品認識装置の要部構成を示すブロック図。The block diagram which shows the principal part structure of the goods recognition apparatus. 認識辞書ファイルのデータ構造を示す模式図。The schematic diagram which shows the data structure of a recognition dictionary file. 同商品認識装置の機能ブロック図。The functional block diagram of the goods recognition apparatus. 同商品認識装置のRAMに形成される主要なメモリエリアを示す模式図。The schematic diagram which shows the main memory areas formed in RAM of the goods recognition apparatus. 同商品認識装置のCPUが商品認識プログラムに従って実行する情報処理手順の要部を示す流れ図。The flowchart which shows the principal part of the information processing procedure which CPU of the goods recognition apparatus performs according to a goods recognition program. 図6における画像認識処理の手順を具体的に示す流れ図。7 is a flowchart specifically showing a procedure of image recognition processing in FIG. 図6の判断ブロックAct13にてYESと判断された後の情報処理手順の示す流れ図。The flowchart which shows the information processing procedure after being judged as YES in judgment block Act13 of FIG. 図6の判断ブロックAct14にてYESと判断された後の情報処理手順の示す流れ図。The flowchart which shows the information processing procedure after being judged as YES in judgment block Act14 of FIG. 図6の判断ブロックAct7にてYESと判断された後の情報処理手順の示す流れ図。The flowchart which shows the information processing procedure after being judged as YES in judgment block Act7 of FIG. 商品認識装置のパネル表示部に表示される画面の一例を示す模式図。The schematic diagram which shows an example of the screen displayed on the panel display part of a goods recognition apparatus. 図11に示す画面から料理品目がタッチされた後の画面例を示す模式図。The schematic diagram which shows the example of a screen after a dish item is touched from the screen shown in FIG. 図12に示す画面から料理品目が認識された後の画面例を示す模式図。The schematic diagram which shows the example of a screen after a cooking item is recognized from the screen shown in FIG. 図13に示す画面から別の料理品目がタッチされた後の画面例を示す模式図。The schematic diagram which shows the example of a screen after another cooking item is touched from the screen shown in FIG. 図14に示す画面から料理品目が認識された後の画面例を示す模式図。The schematic diagram which shows the example of a screen after a cooking item is recognized from the screen shown in FIG. 図15に示す画面から枠内がタッチされた後の画面例を示す模式図。The schematic diagram which shows the example of a screen after the inside of a frame is touched from the screen shown in FIG. 図16に示す画面から料理品目が認識された後の画面例を示す模式図。The schematic diagram which shows the example of a screen after a cooking item is recognized from the screen shown in FIG.

以下、商品認識装置の実施形態について説明する。
なお、本実施形態は、社員食堂や学生食堂のようにカフェテリア形式の食堂施設に設置される場合である。
Hereinafter, an embodiment of a product recognition device will be described.
This embodiment is a case where it is installed in a cafeteria-style cafeteria facility such as an employee cafeteria or a student cafeteria.

はじめに、本実施形態の商品認識装置は、一般物体認識(generic object recognition)の技術を採用する。一般物体認識とは、対象となる物品(オブジェクト)をカメラで撮像した画像データから当該物品の種別等を認識する技術である。コンピュータは、画像データからこの画像に含まれる物品の外観特徴量を抽出する。そしてコンピュータは、認識辞書ファイルに登録された基準画像の特徴量データと照合して類似度を算出し、この類似度に基づいて当該物品の種別等を認識する。画像中に含まれる物品を認識する技術については、下記の文献に解説されている。
柳井 啓司,“一般物体認識の現状と今後”,情報処理学会論文誌,Vol.48,No.SIG16[平成22年8月10日検索],インターネット< URL: http://mm.cs.uec.ac.jp/IPSJ-TCVIM-Yanai.pdf >
また、画像をオブジェクト毎に領域分割することによって一般物体認識を行う技術については、下記の文献に解説されている。
Jamie Shottonら,“Semantic Texton Forests for Image Categorization and Segmentation”,[平成22年8月10日検索],インターネット< URL: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.145.3036&rep=repl&type=pdf >
図1は、本実施形態に係る商品認識装置1の外観図である。会計カウンタ2の卓面2A上に設置される商品認識装置1は、板状のボディ部11Aと庇部11Bとを含む。ボディ部11Aは、正面が手前側を向くように卓面2Aの奥側の縁に沿って立設される。庇部11Bは、ボディ部11Aの正面上端部から、上記正面に対して略直交する方向に突出する。このため庇部11Bの下面は、卓面2Aと対向する。
First, the product recognition apparatus of the present embodiment employs a generic object recognition technique. General object recognition is a technique for recognizing the type of an article or the like from image data obtained by capturing the object (object) as a target. The computer extracts the appearance feature amount of the article included in the image from the image data. The computer compares the feature amount data of the reference image registered in the recognition dictionary file to calculate the similarity, and recognizes the type of the article based on the similarity. Techniques for recognizing articles included in images are described in the following documents.
Keiji Yanai, “Current Status and Future of General Object Recognition”, IPSJ Journal, Vol. 48, no. SIG16 [Search August 10, 2010], Internet <URL: http://mm.cs.uec.ac.jp/IPSJ-TCVIM-Yanai.pdf>
Further, techniques for performing general object recognition by dividing an image into regions for each object are described in the following documents.
Jamie Shotton et al., “Semantic Texton Forests for Image Categorization and Segmentation”, [Search August 10, 2010], Internet <URL: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1. 1.145.3036 & rep = repl & type = pdf>
FIG. 1 is an external view of a product recognition apparatus 1 according to this embodiment. The product recognition device 1 installed on the desk surface 2A of the accounting counter 2 includes a plate-like body portion 11A and a collar portion 11B. The body portion 11A is erected along the edge on the back side of the table surface 2A so that the front surface faces the front side. The flange portion 11B protrudes from a front upper end portion of the body portion 11A in a direction substantially orthogonal to the front surface. For this reason, the lower surface of the collar part 11B opposes the table surface 2A.

庇部11Bは、撮像部12を内蔵する。また庇部11Bは、下面に読取窓(不図示)を形成する。撮像部12は、エリアイメージセンサであるCCD(Charge Coupled Device)撮像素子及びその駆動回路と、撮像領域の画像をCCD撮像素子に結像させるための撮像レンズとを備える。撮像領域とは、上記読取窓から撮像レンズを通してCCD撮像素子のエリアに結像する画像の領域を指す。撮像部12は、撮像レンズを通ってCCD撮像素子に結像した撮像領域の画像を出力する。なお、撮像部12は、CCD撮像素子を用いたものに限定されるものではなく、例えばCMOS(complementary metal oxide semiconductor)イメージセンサを用いたものであってもよい。   The collar unit 11 </ b> B incorporates the imaging unit 12. Further, the flange portion 11B forms a reading window (not shown) on the lower surface. The imaging unit 12 includes a CCD (Charge Coupled Device) imaging device that is an area image sensor and its drive circuit, and an imaging lens for forming an image of the imaging region on the CCD imaging device. The imaging region refers to a region of an image that forms an image on the area of the CCD imaging device from the reading window through the imaging lens. The imaging unit 12 outputs an image of the imaging region formed on the CCD imaging device through the imaging lens. Note that the imaging unit 12 is not limited to the one using a CCD imaging device, and may be, for example, a CMOS (complementary metal oxide semiconductor) image sensor.

商品認識装置1は、さらに操作パネル13とICカードリーダ・ライタ(以下、カードRWと略称する)18とを含む。操作パネル13は、ボディ部11Aの頂部に取り付けられる。操作パネル13は、ボディ部11Aの正面側を操作面とする。そして操作パネル13は、上記操作面に、キーボード14、タッチパネル15及びレシート発行口16を配置する。レシート発行口16は、操作パネル13内に内蔵されたレシートプリンタ17で印字されたレシートを発行する。   The merchandise recognition apparatus 1 further includes an operation panel 13 and an IC card reader / writer (hereinafter abbreviated as a card RW) 18. The operation panel 13 is attached to the top of the body portion 11A. The operation panel 13 uses the front side of the body portion 11A as an operation surface. And the operation panel 13 arrange | positions the keyboard 14, the touchscreen 15, and the receipt issuing port 16 on the said operation surface. The receipt issuing port 16 issues a receipt printed by a receipt printer 17 incorporated in the operation panel 13.

カードRW18は、操作パネル13の一側面に取り付けられる。カードRW18は、ICカードに対してデータの読み取り及び書き込みを実施する。ICカードは、固有のユーザIDと電子マネーデータとを記憶する。すなわちICカードは、ユーザID機能と電子マネー機能とを有する。食堂施設を利用するユーザ(社員、学生等)は、自己のICカードを所持する。   The card RW 18 is attached to one side surface of the operation panel 13. The card RW 18 reads and writes data with respect to the IC card. The IC card stores a unique user ID and electronic money data. That is, the IC card has a user ID function and an electronic money function. Users (employees, students, etc.) who use the cafeteria facility have their own IC cards.

卓面2Aにおけるボディ部11Aの手前側の領域2Bは、商品である料理が盛り付けられた容器3を載置するためのスペースとなる。この領域2Bは、前記撮像部12の撮像領域に含まれる。すなわち撮像部12は、料理が盛り付けられた容器3を撮影する。なお、図1では容器3として楕円状の1枚のトレイを例示しているが、容器3の形状や数は特に限定されるものではない。要は、食堂施設の利用者が予め用意された料理を盛り付けて会計カウンタ2まで持ってくることができる食器またはトレイであり、かつ、領域2Bの範囲内に置くことができればよい。   A region 2B on the front side of the body portion 11A on the table surface 2A is a space for placing a container 3 on which a dish serving as a product is placed. This area 2B is included in the imaging area of the imaging unit 12. That is, the imaging unit 12 photographs the container 3 in which dishes are arranged. In FIG. 1, an elliptical tray is illustrated as the container 3, but the shape and number of the containers 3 are not particularly limited. The point is that it is a tableware or tray that a user of the cafeteria facility can prepare dishes prepared in advance and bring them to the accounting counter 2 and can be placed within the area 2B.

図2は、商品認識装置1の要部構成を示すブロック図である。商品認識装置1は、CPU(Central Processing Unit)21、ROM(Read Only Memory)22、RAM(Random Access Memory)23及び補助記憶デバイス24を備える。そして商品認識装置1は、アドレスバス,データバス等のバスライン25を介して、CPU21と、ROM22、RAM23及び補助記憶デバイス24とを接続する。   FIG. 2 is a block diagram showing a main configuration of the product recognition apparatus 1. The commodity recognition apparatus 1 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, and an auxiliary storage device 24. The merchandise recognition apparatus 1 connects the CPU 21 to the ROM 22, the RAM 23, and the auxiliary storage device 24 via a bus line 25 such as an address bus or a data bus.

CPU21は、コンピュータの中枢部分に相当する。CPU21は、オペレーティングシステムやアプリケーションプログラムに従って、商品認識装置1としての各種の機能を実現するべく各部を制御する。   The CPU 21 corresponds to the central part of the computer. CPU21 controls each part in order to implement | achieve the various functions as the goods recognition apparatus 1 according to an operating system or an application program.

ROM22は、上記コンピュータの主記憶部分に相当する。ROM22は、上記のオペレーティングシステムやアプリケーションプログラムを記憶する。ROM22は、CPU21が各種の処理を実行する上で必要なデータを記憶する場合もある。   The ROM 22 corresponds to a main storage part of the computer. The ROM 22 stores the above operating system and application programs. The ROM 22 may store data necessary for the CPU 21 to execute various processes.

RAM23は、上記コンピュータの主記憶部分に相当する。RAM23は、CPU21が各種の処理を実行する上で必要なデータを必要に応じて記憶する。またRAM23は、CPU21が各種の処理を行う際のワークエリアとしても利用される。   The RAM 23 corresponds to a main storage part of the computer. The RAM 23 stores data necessary for the CPU 21 to execute various processes as necessary. The RAM 23 is also used as a work area when the CPU 21 performs various processes.

補助記憶デバイス24は、上記コンピュータの補助記憶部分に相当する。補助記憶デバイス24は、例えばEEPROM(electric erasable programmable read-only memory)、ハードディスクドライブ、あるいはSSD(solid state drive)などである。補助記憶デバイス24は、CPU21が各種の処理を行う上で使用するデータや、CPU21での処理によって生成されたデータを保存する。補助記憶デバイス11は、上記のアプリケーションプログラムを記憶する場合もある。   The auxiliary storage device 24 corresponds to the auxiliary storage portion of the computer. The auxiliary storage device 24 is, for example, an EEPROM (electrically erasable programmable read-only memory), a hard disk drive, or an SSD (solid state drive). The auxiliary storage device 24 stores data used when the CPU 21 performs various processes and data generated by the processes performed by the CPU 21. The auxiliary storage device 11 may store the above application program.

商品認識装置1は、バスライン25に通信インターフェース26を接続する。そして商品認識装置1は、この通信インターフェース26を介してデータベースサーバ41にアクセスする。データベースサーバ41は、ユーザデータベース40を備える。ユーザデータベース40は、各ユーザのユーザIDに関連付けて、性別,年齢等の個人情報や、当該食堂施設の利用履歴に関する情報等を記憶する。   The merchandise recognition device 1 connects a communication interface 26 to the bus line 25. Then, the merchandise recognition apparatus 1 accesses the database server 41 via the communication interface 26. The database server 41 includes a user database 40. The user database 40 stores personal information such as sex and age, information related to the use history of the cafeteria facility, and the like in association with the user ID of each user.

商品認識装置1は、図示しない入出力回路を介して、撮像部12、キーボード14、タッチパネル15、レシートプリンタ17及びカードRW18を接続する。タッチパネル15は、パネル表示部151と、このパネル表示部151の画面上に重ねて配置されたタッチパネルセンサ152とからなる。   The merchandise recognition device 1 connects the imaging unit 12, the keyboard 14, the touch panel 15, the receipt printer 17, and the card RW 18 via an input / output circuit (not shown). The touch panel 15 includes a panel display unit 151 and a touch panel sensor 152 that is arranged on the screen of the panel display unit 151.

かかる構成の商品認識装置1は、認識辞書ファイル50を有する。認識辞書ファイル50は、補助記憶デバイス24に保存される。なお、認識辞書ファイル50の保存先は、補助記憶デバイス24に限定されるものではない。例えばRAM23であってもよい。あるいは、通信インターフェース26を介して接続される外部機器の記憶装置に保存されていてもよい。   The product recognition apparatus 1 having such a configuration has a recognition dictionary file 50. The recognition dictionary file 50 is stored in the auxiliary storage device 24. Note that the storage destination of the recognition dictionary file 50 is not limited to the auxiliary storage device 24. For example, the RAM 23 may be used. Alternatively, it may be stored in a storage device of an external device connected via the communication interface 26.

図3は、認識辞書ファイル50のデータ構造を示す模式図である。認識辞書ファイル50は、当該食堂施設でユーザに提供される料理品目毎の認識辞書データを記憶する。認識辞書データは、メニューID、メニュー名称、価格、熱量及び外観特徴パラメータの各項目を含む。メニューIDは、料理品目を個々に識別するコードである。メニュー名称は、対応するメニューIDで識別される料理品目の固有名称である。価格は、対応するメニューIDで識別される料理品目の1単位量当たりの販売価格(円)である。熱量は、対応するメニューIDで識別される料理品目の標準分量に対して導出されるパラメータである。外観特徴パラメータは、対応するメニューIDで識別される料理品目の標準的な形状、表面の色合い、模様、凹凸状況等の外観の特徴をパラメータ化したものである。   FIG. 3 is a schematic diagram showing the data structure of the recognition dictionary file 50. The recognition dictionary file 50 stores recognition dictionary data for each cooking item provided to the user at the cafeteria facility. The recognition dictionary data includes items of menu ID, menu name, price, amount of heat, and appearance feature parameter. The menu ID is a code for individually identifying the cooking item. The menu name is a unique name of the cooking item identified by the corresponding menu ID. The price is the selling price (yen) per unit amount of the cooking item identified by the corresponding menu ID. The amount of heat is a parameter derived for the standard amount of the cooking item identified by the corresponding menu ID. The appearance feature parameter is a parameterization of appearance features such as the standard shape, surface color, pattern, and unevenness of the cooking item identified by the corresponding menu ID.

かかる構成の商品認識装置1は、図4に示すように、取込手段61、画像表示手段62、枠表示手段63、認識手段64、第1の出力手段65、変更受付手段66、第2の出力手段67、入力受付手段68及び判定手段69を含む。   As shown in FIG. 4, the product recognition apparatus 1 having such a configuration includes a capture unit 61, an image display unit 62, a frame display unit 63, a recognition unit 64, a first output unit 65, a change reception unit 66, and a second reception unit. An output unit 67, an input reception unit 68, and a determination unit 69 are included.

取込手段61は、撮像部12で撮影された画像を取り込む。画像表示手段62は、取込手段61により取り込んだ画像を表示部であるタッチパネル15に表示させる。枠表示手段63は、タッチパネル15に表示される画像上の任意の1乃至複数箇所に商品(料理)を囲うための枠を表示させる。認識手段64は、枠によって囲われた領域内の画像の特徴量から枠内に映し出されている商品の候補を認識する。第1の出力手段65は、認識手段64により認識された商品の候補のなかで最有力候補の商品に係る情報を出力する。変更受付手段66は、第1の出力手段65で出力された商品の候補の変更指示を受け付ける。第2の出力手段67は、変更受付手段66による商品の候補の変更指示を受け付けると、商品の候補の中から選出された最有力候補以外の商品に係る情報を出力する。入力受付手段68は、タッチパネル15に表示される画像上の任意の箇所への指示入力を受け付ける。判定手段69は、入力受付手段68により指示入力を受付けた箇所が、枠表示手段63により表示された枠の内側か否かを判定する。そして、枠の外側と判定された場合には枠表示手段63が動作し、枠の内側と判定された場合には変更受付手段66が動作する。   The capturing unit 61 captures an image captured by the imaging unit 12. The image display unit 62 displays the image captured by the capture unit 61 on the touch panel 15 that is a display unit. The frame display means 63 displays a frame for enclosing a product (dish) at any one or a plurality of locations on the image displayed on the touch panel 15. The recognizing means 64 recognizes the product candidates displayed in the frame from the feature amount of the image in the area surrounded by the frame. The first output means 65 outputs information related to the most likely candidate product among the product candidates recognized by the recognition means 64. The change accepting unit 66 accepts a product candidate change instruction output by the first output unit 65. When the second output unit 67 receives an instruction to change a product candidate from the change receiving unit 66, the second output unit 67 outputs information related to a product other than the most promising candidate selected from the product candidates. The input receiving unit 68 receives an instruction input to an arbitrary location on the image displayed on the touch panel 15. The determination unit 69 determines whether or not the place where the instruction input is received by the input reception unit 68 is inside the frame displayed by the frame display unit 63. When it is determined that the frame is outside the frame, the frame display unit 63 operates. When it is determined that the frame is inside the frame, the change receiving unit 66 operates.

かかる機能を実現するために、商品認識装置1は、ROM22または補助記憶デバイス24に商品認識プログラムを記憶する。また商品認識装置1は、図5に示すように、カウント値nの品数カウンタ71と、候補メモリ72と、明細メモリ73とを、RAM23に形成する。   In order to realize such a function, the product recognition apparatus 1 stores a product recognition program in the ROM 22 or the auxiliary storage device 24. Further, as shown in FIG. 5, the merchandise recognition apparatus 1 forms a product number counter 71 with a count value n, a candidate memory 72, and a detail memory 73 in the RAM 23.

候補メモリ72は、枠番号の順に、後述する画像認識処理により第1候補から第4候補まで認識されたメニュー品目のメニューIDを格納する領域721と、候補番号mを格納する領域722とを有する。   The candidate memory 72 has an area 721 for storing menu IDs of menu items recognized from the first candidate to the fourth candidate by an image recognition process to be described later, and an area 722 for storing the candidate number m, in the order of frame numbers. .

明細メモリ73は、枠番号の順に、削除マーク座標(X0,Y0)、メニューID、メニュー名称、価格、熱量からなる明細レコードを格納する領域731と、合計価格及び合計熱量を格納する領域732とを有する。各項目については、後述する。   The detail memory 73 includes an area 731 for storing a detail record including deletion mark coordinates (X0, Y0), menu ID, menu name, price, and heat amount in the order of frame numbers, and an area 732 for storing the total price and the total heat amount. Have Each item will be described later.

商品認識プログラムが起動すると、CPU21は、図6〜図10の流れ図に示す手順の処理を開始する。なお、図6〜図10に示すとともに以下に説明する処理の内容は一例であって、同様な結果を得ることが可能な様々な処理を適宜に利用できる。   When the merchandise recognition program is activated, the CPU 21 starts processing according to the procedure shown in the flowcharts of FIGS. The contents of the processes illustrated in FIGS. 6 to 10 and described below are merely examples, and various processes capable of obtaining similar results can be used as appropriate.

CPU21は、カードRW18で前記ICカードが読み取られるのを待機する(Act1)。ICカードが読み取られるまでは(Act1にてNO)、Act2の処理に進まない。ICカードが読み取られると(Act1にてYES)、CPU21は、Act2の処理に進む。すなわちCPU21は、品数カウンタ71を“0”にリセットする(Act2)。   The CPU 21 waits for the IC card to be read by the card RW18 (Act1). Until the IC card is read (NO in Act 1), the process does not proceed to Act 2. When the IC card is read (YES in Act1), the CPU 21 proceeds to the process of Act2. That is, the CPU 21 resets the product number counter 71 to “0” (Act 2).

CPU21は、撮像部12で撮影されている画像(フレーム画像)を取り込む(Act3:取込手段61)。そしてCPU21は、この撮影画像をタッチパネル15のパネル表示部151に表示させる(Act4:画像表示手段62)。   The CPU 21 captures an image (frame image) captured by the imaging unit 12 (Act3: capture means 61). And CPU21 displays this picked-up image on the panel display part 151 of the touch panel 15 (Act4: Image display means 62).

図11は、撮影画像81が表示されたパネル表示部151の一画面例である。図示するように画面には、撮影画像81の他に、合計金額欄82、総カロリー欄83、確定ボタン84及び取消ボタン85が表示される。   FIG. 11 is an example of one screen of the panel display unit 151 on which the captured image 81 is displayed. As shown in the figure, in addition to the captured image 81, a total amount column 82, a total calorie column 83, a confirmation button 84, and a cancel button 85 are displayed.

パネル表示部151の画面に撮影画像81が表示されると、CPU21は、その画面がタッチされたか否かを確認する(Act5)。画面がタッチされていない場合(Act5にてNO)、CPU21は、品数カウンタ71を調べる(Act6)。品数カウンタ71が“0”にリセットされていた場合(Act6にてNO)、CPU21は、Act3の処理に戻る。すなわちCPU21は、撮像部12から次の撮影画像を取込み(Act3)、パネル表示部151に表示させる(Act4)。   When the captured image 81 is displayed on the screen of the panel display unit 151, the CPU 21 checks whether or not the screen is touched (Act5). When the screen is not touched (NO in Act 5), the CPU 21 checks the product counter 71 (Act 6). If the product counter 71 has been reset to “0” (NO in Act 6), the CPU 21 returns to the processing in Act 3. That is, the CPU 21 captures the next captured image from the imaging unit 12 (Act 3) and displays it on the panel display unit 151 (Act 4).

CPU21は、画面がタッチされるまで撮影画像の取込みと表示とを繰り返す。画面がタッチされると(Act5にてYES)、CPU21は、画面のどの領域がタッチされたかを調べる(Act7,Act8)。確定ボタン84または取消ボタン85の領域ではなく(Act7にてNO)、撮影画像81の領域でもない場合(Act8にてNO)、CPU21は、Act5の処理に戻る。すなわち、タッチ入力は無視される。   The CPU 21 repeats capturing and displaying of the captured image until the screen is touched. When the screen is touched (YES at Act5), the CPU 21 checks which area of the screen is touched (Act7, Act8). If the area is not the area of the confirm button 84 or the cancel button 85 (NO in Act 7) and is not the area of the captured image 81 (NO in Act 8), the CPU 21 returns to the process of Act 5. That is, touch input is ignored.

撮影画像81の領域がタッチされた場合(Act8にてYES)、CPU21は、タッチ位置の座標(X,Y)を検出する(Act9:入力受付手段68)。座標(X,Y)は、基準点、例えば撮影画像81の領域の左下角を二次元座標の原点(0,0)とし、この原点(0,0)から右方向をX方向、上方向をY方向と定義する。そしてCPU21は、原点(0,0)からタッチ位置までのX方向の距離とY方向の距離とを求め、座標(X,Y)に変換する。   When the area of the captured image 81 is touched (YES in Act 8), the CPU 21 detects the coordinates (X, Y) of the touch position (Act 9: input receiving means 68). For coordinates (X, Y), the lower left corner of the reference point, for example, the area of the photographed image 81 is the origin (0, 0) of the two-dimensional coordinates, and the right direction from this origin (0, 0) is the X direction and the upper direction is the upper direction. It is defined as the Y direction. Then, the CPU 21 obtains the distance in the X direction and the distance in the Y direction from the origin (0, 0) to the touch position, and converts them into coordinates (X, Y).

CPU21は、品数カウンタ71を調べる(Act10)。品数カウンタ71が“0”にリセットされている場合(Act10にてNO)、CPU21は、画像の認識領域を決定し、その領域を囲う枠91を撮影画像81の領域内に表示する。すなわちCPU21は、図12に示すように、タッチ位置座標(X,Y)を中心として、縦の長さがaで横の長さがbの四角形の枠91を表示させる(Act11:枠表示手段63)。このときの枠91の色は、デフォルトの色、例えば黒とする。   The CPU 21 checks the product number counter 71 (Act10). When the product counter 71 is reset to “0” (NO in Act 10), the CPU 21 determines a recognition area of the image, and displays a frame 91 surrounding the area in the area of the captured image 81. That is, as shown in FIG. 12, the CPU 21 displays a rectangular frame 91 having a vertical length a and a horizontal length b with the touch position coordinate (X, Y) as the center (Act11: frame display means). 63). The color of the frame 91 at this time is a default color, for example, black.

CPU21は、画像認識処理を実行する(Act12)。図7は、画像認識処理の具体的手順を示す流れ図である。先ず、CPU21は、品数カウンタ71を“1”だけカウントアップする(Act21)。また、CPU21は、枠91で囲われた画像から、輪郭形状、表面の色合い、模様、凹凸状況等の外観特徴量を抽出する(Act22)。そしてCPU21は、認識辞書ファイル50に登録されている全てのメニュー品目のレコードについて、上記特徴量が当該レコードの外観特徴パラメータとどの程度類似しているかを示す類似度を算出する(Act23)。   The CPU 21 executes image recognition processing (Act 12). FIG. 7 is a flowchart showing a specific procedure of image recognition processing. First, the CPU 21 counts up the product counter 71 by “1” (Act 21). Further, the CPU 21 extracts appearance feature amounts such as a contour shape, a surface shade, a pattern, and an uneven state from the image surrounded by the frame 91 (Act 22). Then, the CPU 21 calculates, for all menu item records registered in the recognition dictionary file 50, a similarity indicating how much the feature amount is similar to the appearance feature parameter of the record (Act23).

全メニュー品目に対して類似度を算出したならば、CPU21は、類似度の高い順に1位から4位までのメニュー品目を選択する。そしてこれら1位から4位までのメニュー品目のメニューIDを、候補メモリ72における枠番号n(nは、品数カウンタ71のカウント値)の第1候補から第4候補までの領域721に順次格納する(Act24:認識手段64)。すなわち、類似度が最も高いメニュー品目のメニューIDを第1候補の領域に格納し、2番目に高いメニュー品目のメニューIDを第2候補の領域に格納する。以下、3番目に高いメニュー品目のメニューIDを第3候補の領域に格納し、4番目に高いメニュー品目のメニューIDを第4候補の領域に格納する。   If the similarity is calculated for all menu items, the CPU 21 selects the menu items from the first to the fourth in descending order of similarity. The menu IDs of the first to fourth menu items are sequentially stored in the area 721 from the first candidate to the fourth candidate of the frame number n (n is the count value of the product counter 71) in the candidate memory 72. (Act24: recognition means 64). That is, the menu ID of the menu item with the highest similarity is stored in the first candidate area, and the menu ID of the second highest menu item is stored in the second candidate area. Hereinafter, the menu ID of the third highest menu item is stored in the third candidate area, and the menu ID of the fourth highest menu item is stored in the fourth candidate area.

CPU21は、候補メモリ72における枠番号nの候補番号mを“1”とする(Act25)。そしてCPU21は、第m候補(mは候補番号)のメニューIDで特定されるメニュー品目の情報(メニューID、メニュー名称、価格及び熱量)を認識辞書ファイル50から取得する(Act26)。またCPU21は、枠91の右上角の座標を削除マーク座標(X0,Y0)として算出する(Act27)。   The CPU 21 sets the candidate number m of the frame number n in the candidate memory 72 to “1” (Act 25). Then, the CPU 21 acquires information (menu ID, menu name, price, and heat amount) of the menu item specified by the menu ID of the mth candidate (m is a candidate number) from the recognition dictionary file 50 (Act26). The CPU 21 calculates the coordinates of the upper right corner of the frame 91 as the deletion mark coordinates (X0, Y0) (Act27).

CPU21は、明細メモリ73の枠番号nの明細レコードに、上記削除マーク座標(X0,Y0)とメニュー品目情報とをセットする(Act28)。次いでCPU21は、図13に示すように、削除マーク座標(X0,Y0)のポジションに削除マーク92を表示させる。また、CPU21は、枠91内に当該メニュー品目情報のメニュー名称、価格及び熱量を表示させる(Act29:第1の出力手段65)。さらにCPU21は、明細メモリ73のデータから合計金額と合計熱量とを算出し、画面の合計金額欄82と総カロリー欄83とにそれぞれ表示させる(Act30)。以上で、画像認識処理は終了する。   The CPU 21 sets the deletion mark coordinates (X0, Y0) and the menu item information in the detail record of the frame number n in the detail memory 73 (Act 28). Next, as shown in FIG. 13, the CPU 21 displays a deletion mark 92 at the position of the deletion mark coordinates (X0, Y0). Further, the CPU 21 displays the menu name, price, and heat amount of the menu item information in the frame 91 (Act 29: first output means 65). Further, the CPU 21 calculates the total amount and the total heat amount from the data in the detail memory 73, and displays them in the total amount column 82 and the total calorie column 83 on the screen (Act 30). Thus, the image recognition process ends.

画像認識処理が終了すると、CPU21は、Act5の処理に戻る。すなわちCPU21は、パネル表示部151の画面がタッチされたか否かを確認する(Act5)。そして、画面がタッチされていない場合には(Act5にてNO)、CPU21は、品数カウンタ71を調べる(Act6)。   When the image recognition process ends, the CPU 21 returns to the process of Act5. That is, the CPU 21 checks whether or not the screen of the panel display unit 151 is touched (Act 5). If the screen is not touched (NO in Act 5), the CPU 21 checks the product counter 71 (Act 6).

このとき、品数カウンタ71はカウントアップされているので(Act6にてYES)、CPU21は、Act5の処理に戻る。したがってCPU21は、撮影画像の取り込みを行わない。その結果、パネル表示部151には、前回取り込んだ撮影画像がそのまま静止画として表示される。   At this time, since the product counter 71 has been counted up (YES in Act 6), the CPU 21 returns to the processing of Act 5. Therefore, the CPU 21 does not capture a captured image. As a result, the previously captured image is displayed as a still image on the panel display 151 as it is.

画面がタッチされた場合(Act5にてYES)、CPU21は、画面のどの領域がタッチされたかを調べる(Act7,Act8)。ここで、再び撮影画像81の領域がタッチされた場合(Act8にてYES)、CPU21は、タッチ位置の座標(X,Y)を検出する(Act9)。このとき、品数カウンタ71はカウントアップされている。したがって、Act10の処理では“YES”に進む。すなわちCPU21は、削除マーク92がタッチされたのか、認識領域の枠91内がタッチされたのか、枠91外がタッチされたのかを判断する(Act13,14:判定手段69)。   When the screen is touched (YES at Act5), the CPU 21 checks which area of the screen is touched (Act7, Act8). If the area of the captured image 81 is touched again (YES in Act 8), the CPU 21 detects the coordinates (X, Y) of the touch position (Act 9). At this time, the product number counter 71 is incremented. Therefore, the process proceeds to “YES” in the process of Act10. That is, the CPU 21 determines whether the deletion mark 92 has been touched, whether the inside of the recognition area frame 91 has been touched, or the outside of the frame 91 has been touched (Act 13, 14: determination means 69).

具体的にCPU21は、タッチ位置座標(X,Y)を明細メモリ73に格納されている各明細レコードの削除マーク座標(X0,Y0)と照合する。そして、タッチ位置座標(X,Y)と略一致する削除マーク座標(X0,Y0)が存在する場合には、削除マーク92がタッチされたと判断する。また、タッチ位置座標(X,Y)がいずれかの枠91の領域内の座標と一致する場合には、枠91内がタッチされたと判断する。タッチ位置座標(X,Y)が上記のいずれでもない場合には、枠91外がタッチされたと判断する。   Specifically, the CPU 21 collates the touch position coordinates (X, Y) with the deletion mark coordinates (X0, Y0) of each detail record stored in the detail memory 73. If there is a deletion mark coordinate (X0, Y0) that substantially matches the touch position coordinate (X, Y), it is determined that the deletion mark 92 has been touched. If the touch position coordinates (X, Y) match the coordinates in the area of any of the frames 91, it is determined that the inside of the frame 91 has been touched. If the touch position coordinates (X, Y) are not any of the above, it is determined that the outside of the frame 91 has been touched.

枠91外がタッチされたと判断された場合(Act13,14にてNO)、CPU21は、Act11の処理に進む。すなわちCPU21は、図14に示すように、そのタッチ位置座標(X,Y)を中心として、縦の長さがaで横の長さがbの四角形の枠91aを表示させる(Act11:枠表示手段63)。そしてCPU21は、この枠91a内の画像認識処理を実行する。その結果、品番カウンタnがさらにカウントアップされる。そして、候補メモリ72の枠番号nの第1候補から第4候補までの領域721に、類似度の高い順に1位から4位までのメニュー品目のメニューIDが格納される。また、明細メモリ73の枠番号nの明細レコードに、削除マーク座標(X0,Y0)とともに第1候補(類似度1位)のメニュー品目の情報がセットされる。そして、図15に示すように、枠91a内に当該メニュー品目情報のメニュー名称、価格及び熱量が表示される。また、合計金額と合計熱量とが更新される。   If it is determined that the outside of the frame 91 has been touched (NO in Acts 13 and 14), the CPU 21 proceeds to the process of Act11. That is, as shown in FIG. 14, the CPU 21 displays a rectangular frame 91a having a vertical length a and a horizontal length b with the touch position coordinate (X, Y) as the center (Act11: frame display). Means 63). Then, the CPU 21 executes image recognition processing within the frame 91a. As a result, the product number counter n is further counted up. In the area 721 from the first candidate to the fourth candidate of the frame number n in the candidate memory 72, the menu IDs of the menu items from the first place to the fourth place are stored in descending order of similarity. In addition, in the detail record with the frame number n in the detail memory 73, the information of the menu item of the first candidate (first similarity) is set together with the deletion mark coordinates (X0, Y0). And as shown in FIG. 15, the menu name of the said menu item information, a price, and a calorie | heat amount are displayed in the frame 91a. Further, the total amount and the total amount of heat are updated.

削除マーク92がタッチされたと判断された場合(Act13にてYES)、CPU21は、図8の流れ図に示す処理に進む。すなわちCPU21は、タッチ位置座標(X,Y)と略一致する削除マーク座標(X0,Y0)を含む明細レコードから、枠番号Pを検出する(Act41)。そしてCPU21は、この枠番号Pで識別される枠91を画面から消去する(Act42:消去手段68)。またCPU21は、明細メモリ73から当該枠番号Pのレコードを消去する(Act43)。さらにCPU21は、明細メモリ73のデータから合計金額と合計熱量とを再計算し、合計金額欄82と総カロリー欄83の表示を更新する(Act44)。   If it is determined that delete mark 92 has been touched (YES in Act 13), CPU 21 proceeds to the process shown in the flowchart of FIG. That is, the CPU 21 detects the frame number P from the detail record including the deletion mark coordinates (X0, Y0) that substantially match the touch position coordinates (X, Y) (Act 41). Then, the CPU 21 erases the frame 91 identified by the frame number P from the screen (Act 42: erasing means 68). Further, the CPU 21 deletes the record of the frame number P from the detail memory 73 (Act 43). Further, the CPU 21 recalculates the total amount and the total amount of heat from the data in the detailed memory 73, and updates the display of the total amount column 82 and the total calorie column 83 (Act 44).

しかる後、CPU21は、品数カウンタ71を“1”だけカウントダウンする(Act45)。そしてCPU21は、品数カウンタ71のカウント値nが“0”であるか否かを確認する(Act46)。カウント値nが“0”でない場合(Act46にてNO)、CPU21は、Act5の処理に戻る。カウント値nが“0”になった場合には(Act46にてYES)、CPU21は、Act3の処理に戻る。   Thereafter, the CPU 21 counts down the product counter 71 by “1” (Act 45). Then, the CPU 21 checks whether or not the count value n of the product counter 71 is “0” (Act 46). When the count value n is not “0” (NO in Act 46), the CPU 21 returns to the process of Act 5. When count value n becomes “0” (YES in Act 46), CPU 21 returns to the processing in Act 3.

したがって、カウント値nが“0”でない場合には、CPU21は、新たな撮影画像の取り込みを行わない。このためパネル表示部151に表示されている撮影画像は変化しない。しかし、カウント値nが“0”になった場合には、CPU21は、撮影画像の取り込みを再開する。このため、パネル表示部151に表示される撮影画像が最新の画像に更新される。   Therefore, when the count value n is not “0”, the CPU 21 does not capture a new captured image. For this reason, the captured image displayed on the panel display unit 151 does not change. However, when the count value n becomes “0”, the CPU 21 resumes capturing of the captured image. Therefore, the captured image displayed on the panel display unit 151 is updated to the latest image.

枠91内がタッチされたと判断された場合(Act13にてNO、Act14にてYES:変更受付手段66)、図9の流れ図に示す処理に進む。すなわちCPU21は、タッチ位置座標(X,Y)が存在する枠91を形成する削除マーク座標(X0,Y0)を含む明細レコードから、枠番号Qを検出する(Act51)。そしてCPU21は、候補メモリ72の当該枠番号Qに対応した候補番号mを“1”だけ加算する(Act52)。   If it is determined that the inside of the frame 91 has been touched (NO in Act 13, YES in Act 14: change accepting means 66), the process proceeds to the process shown in the flowchart of FIG. That is, the CPU 21 detects the frame number Q from the detail record including the deletion mark coordinates (X0, Y0) that form the frame 91 in which the touch position coordinates (X, Y) exist (Act 51). Then, the CPU 21 adds “1” to the candidate number m corresponding to the frame number Q in the candidate memory 72 (Act 52).

CPU21は、候補番号mが候補数の最大値M(本実施形態では”4”)を超えたか否かを判断する(Act53)。そして候補番号mが最大値Mを超えた場合(Act53にてYES)、CPU21は、候補番号mを“1”に戻す(Act54)。候補番号mが最大値Mを超えない場合には(Act53にてNO)、候補番号mは変更しない。   The CPU 21 determines whether or not the candidate number m has exceeded the maximum number M of candidates (“4” in this embodiment) (Act 53). If candidate number m exceeds maximum value M (YES in Act 53), CPU 21 returns candidate number m to “1” (Act 54). If candidate number m does not exceed maximum value M (NO in Act 53), candidate number m is not changed.

CPU21は、第m候補(mは候補番号)のメニューIDで特定されるメニュー品目の情報(メニューID、メニュー名称、価格及び熱量)を認識辞書ファイル50から取得する(Act55)。そしてCPU21は、明細メモリ73の枠番号nの明細レコードにおけるメニュー品目情報を今回のメニュー品目情報に書き換える(Act56:第2の出力手段67)。またCPU21は、枠番号Qの枠91内に表示されているメニュー名称、価格及び熱量を、今回のメニュー品目情報に変更する(Act57)。そしてCPU21は、明細メモリ73のデータから合計金額と合計熱量とを再算出し、合計金額欄82と総カロリー欄83の値を更新する(Act58)。さらにCPU21は、枠番号Qの枠91の色を第m候補に対応した色に変更する(Act59)。すなわち本実施形態では、枠91の色として少なくとも4種類を用意しており、この枠91内に表示されるメニュー品目の候補順位に応じて、枠91の色を変更する。しかる後、CPU21は、Act21の処理に戻る。   The CPU 21 acquires information (menu ID, menu name, price, and heat amount) of the menu item specified by the menu ID of the m-th candidate (m is a candidate number) from the recognition dictionary file 50 (Act 55). Then, the CPU 21 rewrites the menu item information in the detail record of the frame number n in the detail memory 73 to the current menu item information (Act 56: second output means 67). Further, the CPU 21 changes the menu name, price, and amount of heat displayed in the frame 91 of the frame number Q to the current menu item information (Act 57). Then, the CPU 21 recalculates the total amount and the total amount of heat from the data in the detailed memory 73, and updates the values in the total amount column 82 and the total calorie column 83 (Act 58). Further, the CPU 21 changes the color of the frame 91 with the frame number Q to a color corresponding to the m-th candidate (Act 59). That is, in the present embodiment, at least four types of colors are prepared for the frame 91, and the color of the frame 91 is changed according to the menu item candidate rank displayed in the frame 91. Thereafter, the CPU 21 returns to the processing of Act 21.

したがって、ユーザが枠91内をタッチする毎に、その枠内のメニュー品目情報が、候補順位1位から順に下位のメニュー品目の情報に切り替わる。そして候補順位が最下位のメニュー品目情報が表示された枠内をさらにタッチすると、枠内のメニュー品目情報は候補順位1位のメニュー品目の情報に戻る。   Therefore, each time the user touches the inside of the frame 91, the menu item information in the frame is switched to the information of the lower menu item in order from the first candidate ranking. When the inside of the frame in which the menu item information with the lowest candidate ranking is displayed is further touched, the menu item information in the frame returns to the information of the menu item with the highest candidate ranking.

ボタン画像がタッチされた場合(Act7にてYES)、CPU21は、確定ボタン84または取消ボタン85のどちらがタッチされたかを確認する(Act61)。確定ボタン84がタッチされた場合(Act31にて「確定」)、CPU21は、Act62〜Act64の各処理を実行する。   When the button image is touched (YES in Act 7), the CPU 21 confirms which of the confirm button 84 or the cancel button 85 is touched (Act 61). When the confirm button 84 is touched (“Confirm” in Act 31), the CPU 21 executes each process of Act 62 to Act 64.

Act62では、CPU21は、電子マネーによる決済処理を実行する。すなわちCPU21は、カードRW18を介してICカードの電子マネーデータから合計価格分のデータを減じる。Act63では、CPU21は、明細メモリ73のデータに基づいてレシートデータを編集する。そしてCPU21は、レシートデータをプリンタ17に出力して、レシートの発行を制御する。Act64では、CPU21は、明細メモリ73のデータとICカードのユーザIDとでユーザ履歴情報を編集する。そしてCPU21は、通信インターフェース26を介してユーザ履歴情報をデータベースサーバ41に送信する。データベースサーバ41では、ユーザデータベース40にユーザ履歴情報がユーザID別に蓄積される。   In Act 62, the CPU 21 executes settlement processing using electronic money. That is, the CPU 21 subtracts the data for the total price from the electronic money data of the IC card via the card RW18. In Act 63, the CPU 21 edits the receipt data based on the data in the detail memory 73. Then, the CPU 21 outputs receipt data to the printer 17 and controls the issuance of receipts. In Act 64, the CPU 21 edits the user history information with the data in the detailed memory 73 and the IC card user ID. Then, the CPU 21 transmits user history information to the database server 41 via the communication interface 26. In the database server 41, user history information is stored in the user database 40 for each user ID.

Act62〜Act64の処理が終了すると、CPU21は、パネル表示部151の画面を初期化する(Act65)。またCPU21は、候補メモリ72と明細メモリ73とをクリアする(Act66)。   When the processing of Act 62 to Act 64 is completed, the CPU 21 initializes the screen of the panel display unit 151 (Act 65). Further, the CPU 21 clears the candidate memory 72 and the detail memory 73 (Act 66).

これに対し、取消ボタン85がタッチされた場合には(Act61にて「取消」)、CPU21は、上記Act62〜Act64の処理を実行しない。CPU21は、パネル表示部151の画面を初期化する(Act65)。またCPU21は、候補メモリ72と明細メモリ73とをクリアする(Act66)。以上で、1ユーザに対する商品認識プログラムの処理が終了する。   On the other hand, when the cancel button 85 is touched (“Cancel” in Act 61), the CPU 21 does not execute the processes of Act62 to Act64. The CPU 21 initializes the screen of the panel display unit 151 (Act 65). Further, the CPU 21 clears the candidate memory 72 and the detail memory 73 (Act 66). This completes the process of the product recognition program for one user.

本実施形態の商品認識装置1が設置されたカフェテリア形式の食堂施設では、ユーザは、料理が盛り付けられた容器3を会計カウンタ2の領域2B内に置く。そしてユーザは、自らのICカードのデータをカードRW18に読み取らせる。そうすると、図11に示すように、タッチパネル15の画面に撮影画像81が表示されるので、ユーザは、容器3に盛り付けられた料理の画像に1品ずつタッチする。   In the cafeteria-style cafeteria facility in which the product recognition apparatus 1 of the present embodiment is installed, the user places the container 3 on which the dish is placed in the area 2B of the accounting counter 2. Then, the user causes the card RW 18 to read the data of his / her IC card. Then, as shown in FIG. 11, since the captured image 81 is displayed on the screen of the touch panel 15, the user touches the dish images arranged on the container 3 one by one.

今、ユーザが容器3の左上に盛られた料理の画像にタッチしたとする。そうすると、図12に示すように、タッチ位置座標(X,Y)を中心とする枠91が撮影画像81上に表示される。そして商品認識装置1では、この枠91内の料理の認識処理が実行されて、類似度が高い順に候補順位1位から4位までのメニュー品目が選択される。そして、図13に示すように、候補順位1位のメニュー品目の名称、価格、熱量が枠91内に表示される。また、枠91には削除マーク92が表示される。認識された料理の合計金額及び総カロリーも表示される。   Now, suppose that the user touches the cooking image displayed on the upper left of the container 3. Then, a frame 91 centered on the touch position coordinates (X, Y) is displayed on the captured image 81 as shown in FIG. In the product recognition apparatus 1, the dish recognition process in the frame 91 is executed, and the menu items from the first candidate rank to the fourth rank are selected in descending order of similarity. Then, as shown in FIG. 13, the name, price, and heat quantity of the menu item with the highest candidate ranking are displayed in a frame 91. In addition, a delete mark 92 is displayed in the frame 91. The total amount and total calories of recognized dishes are also displayed.

次に、ユーザが容器3の中央上側に盛られた料理の画像にタッチしたとする。そうすると、図14に示すように、タッチ位置座標(X,Y)を中心とする枠91aが撮影画像81上に表示される。そして商品認識装置1では、この枠91a内の料理の認識処理が実行されて、類似度が高い順に候補順位1位から4位までのメニュー品目が選択される。そして、図15に示すように、候補順位1位のメニュー品目の名称、価格、熱量が枠91a内に表示される。また、枠91aには削除マーク92が表示される。認識された料理の合計金額及び総カロリーも合算される。   Next, it is assumed that the user touches an image of a dish placed on the upper center side of the container 3. Then, as shown in FIG. 14, a frame 91 a centered on the touch position coordinates (X, Y) is displayed on the captured image 81. In the product recognition apparatus 1, the dish recognition process in the frame 91a is executed, and the menu items from the candidate rank 1 to the 4th rank are selected in descending order of similarity. Then, as shown in FIG. 15, the name, price, and amount of heat of the menu item ranked first in the candidate ranking are displayed in the frame 91a. In addition, a deletion mark 92 is displayed in the frame 91a. The total amount of food recognized and the total calories are also combined.

ここでユーザが、枠91内に表示されたメニュー品目の情報が容器3の左上に盛られた料理の情報ではないと気付いたとする。その場合、枠91の削除マーク92にタッチして、画像の認識処理をやり直す方法と、枠91内をタッチして候補順位が下位のメニュー品目の情報を表示させる方法とがある。   Here, it is assumed that the user notices that the information on the menu item displayed in the frame 91 is not the information on the dish displayed on the upper left of the container 3. In that case, there are a method of touching the deletion mark 92 in the frame 91 and redoing the image recognition process, and a method of touching the inside of the frame 91 and displaying information on the menu item having a lower candidate order.

削除マーク92にタッチした場合、枠91が消去される。そこでユーザは、料理画像の別の箇所をタッチして、認識処理をやり直す。そうすると、タッチ位置座標(X,Y)を中心とする枠91が撮影画像81上に再び表示される。そして商品認識装置1では、この枠91内の料理の認識処理が実行されて、類似度が高い順に候補順位1位から4位までのメニュー品目が選択され、候補順位1位のメニュー品目の名称、価格、熱量が枠91内に表示される。タッチ位置の違いにより認識画像の領域が異なるため、再度の認識処理によって、料理画像からメニュー品目が正しく認識される可能性は高い。   When the deletion mark 92 is touched, the frame 91 is deleted. Therefore, the user touches another part of the dish image and repeats the recognition process. Then, the frame 91 centered on the touch position coordinates (X, Y) is displayed again on the captured image 81. Then, the product recognition apparatus 1 executes the recognition process of the dishes in the frame 91, selects the menu items from the first candidate rank to the fourth rank in order of similarity, and names the menu items ranked first in the candidate rank. The price and the amount of heat are displayed in the frame 91. Since the area of the recognition image differs depending on the touch position, the menu item is highly likely to be correctly recognized from the dish image by the re-recognition process.

一方、図16に示すように、枠91内をタッチした場合には、図17に示すように、枠91内の表示内容が、候補順位が下位のメニュー品目の情報に切り替わる。また、認識された料理の合計金額及び総カロリーも更新される。したがって、正しいメニュー品目が候補順位2位以下で認識されていた場合には、簡単な操作で枠91内の情報を正しいメニュー品目の情報に訂正することができる。   On the other hand, as shown in FIG. 16, when the inside of the frame 91 is touched, as shown in FIG. 17, the display content in the frame 91 is switched to the information of the menu item with the lower candidate rank. In addition, the total amount and total calories of the recognized dishes are also updated. Accordingly, when the correct menu item is recognized at the second or lower candidate rank, the information in the frame 91 can be corrected to the correct menu item information by a simple operation.

ユーザは、容器3に盛り付けられた全ての料理が正しく認識されるまで、上述したタッチ操作を繰り返す。そして、全ての料理が認識されたならば、ユーザは確定ボタン84にタッチする。そうすると、容器3に盛り付けられた料理に対して電子マネーによる決済処理が実行され、レシート発行口16からレシートが発行される。また、商品認識装置1からデータベースサーバ41にユーザ履歴情報が送信されて、データベース40に保存されている当該ユーザの利用履歴情報が更新される。   The user repeats the touch operation described above until all dishes arranged in the container 3 are correctly recognized. When all the dishes are recognized, the user touches the confirmation button 84. Then, a payment process using electronic money is performed on the dish arranged in the container 3, and a receipt is issued from the receipt issuing port 16. Further, the user history information is transmitted from the product recognition apparatus 1 to the database server 41, and the usage history information of the user stored in the database 40 is updated.

このように商品認識装置1は、料理が盛り付けられた容器3を認識するのではなく、容器3に盛り付けられた料理を1品目ずつ認識する。したがって、容器3と料理とを1対1で対応させたり、容器3に格別な情報媒体を付したりする等の制約が不要となるため、カフェテリア形式の食堂施設が効率よく運用される。   Thus, the merchandise recognition apparatus 1 does not recognize the container 3 in which dishes are arranged, but recognizes the dishes arranged in the containers 3 one by one. Therefore, since there is no need for a restriction such as a one-to-one correspondence between the container 3 and the dish or a special information medium attached to the container 3, a cafeteria-style cafeteria facility is efficiently operated.

また、商品認識装置1は、容器に盛られた料理を認識するだけでなく、その料理の価格を合計して合計金額を算出する。そして商品認識装置1は、カードRW18で読み取ったICカードの電子マネーデータを用いて、認識された料理の代金を自動精算する。したがって、料理の認識だけでなく代金の精算まで含めて、カフェテリア形式の食堂施設が効率よく運用される。   Moreover, the merchandise recognition apparatus 1 not only recognizes the dishes stacked in the container, but also calculates the total amount by summing the prices of the dishes. The merchandise recognition apparatus 1 automatically settles the price of the recognized dish using the electronic money data of the IC card read by the card RW18. Therefore, cafeteria-style cafeteria facilities are operated efficiently, including not only recognition of dishes but also payment of prices.

また、商品認識装置1の認識結果に誤りがあった場合でも、簡単な操作で容易に訂正することができる。   Moreover, even if there is an error in the recognition result of the merchandise recognition device 1, it can be easily corrected by a simple operation.

なお、本発明は、前記実施形態に限定されるものではない。
例えば前記実施形態では、変更受付手段66により候補の変更指示を受付けると、今より1段階下位のメニュー品目に係る情報を表示出力したが、今より下位の全てのメニュー品目に係る情報を表示出力し、そのなかからユーザが適宜選択した情報を枠91内に表示出力させるようにしてもよい。
The present invention is not limited to the above embodiment.
For example, in the above-described embodiment, when a candidate change instruction is received by the change accepting unit 66, information related to the menu item one level lower than that is displayed, but information related to all menu items lower than the current level is displayed and output. Then, information appropriately selected by the user may be displayed and output in the frame 91.

また前記実施形態では、電子マネー決済に対応した商品認識装置1を例示したが、決済方法は特に限定されるものではなく、クレジットカード決済や現金決済に対応したものであってもよい。あるいは、商品認識装置1から決済機能を省略してもよい。この場合、商品認識装置1は、POS(Point Of Sales)端末等の決済端末を通信回線で接続する。そして商品認識装置1は、認識された料理品目の情報をPOS端末に送信出力すればよい。   In the above embodiment, the merchandise recognition apparatus 1 corresponding to electronic money payment is exemplified, but the payment method is not particularly limited, and may be applicable to credit card payment or cash payment. Alternatively, the settlement function may be omitted from the merchandise recognition device 1. In this case, the merchandise recognition apparatus 1 connects a payment terminal such as a POS (Point Of Sales) terminal via a communication line. And the merchandise recognition apparatus 1 should just transmit and output the information of the recognized cooking item to a POS terminal.

また、前記実施形態では、商品認識装置1の補助記憶デバイス24にて認識辞書ファイル50を記憶したが、認識辞書ファイル50の記憶場所は補助記憶デバイス24に限定されるものではない。例えば、商品認識装置1に外付けされた記憶装置に認識辞書ファイル50を記憶させ、必要に応じてCPU21が記憶装置にアクセスすることで、認識辞書ファイル50のデータを検索してもよい。   In the embodiment, the recognition dictionary file 50 is stored in the auxiliary storage device 24 of the product recognition apparatus 1. However, the storage location of the recognition dictionary file 50 is not limited to the auxiliary storage device 24. For example, the recognition dictionary file 50 may be stored in a storage device externally attached to the merchandise recognition device 1, and the data in the recognition dictionary file 50 may be retrieved by the CPU 21 accessing the storage device as necessary.

また、前記実施形態では、枠91を縦の長さがaで横の長さがbの四角形としたが、枠91のサイズ及び形状は特に限定されるものではない。また、パネル表示部151に表示された枠のサイズや大きさを、変更する機能を付加してもよい。この機能を持たせることにより、料理の画像を正しく枠で囲うことができるので、認識率が高まる効果を期待できる。   Moreover, in the said embodiment, although the frame 91 was made into the quadrangle whose vertical length is a and horizontal length is b, the size and shape of the frame 91 are not specifically limited. A function for changing the size and size of the frame displayed on the panel display unit 151 may be added. By providing this function, the dish image can be correctly surrounded by a frame, so that an effect of increasing the recognition rate can be expected.

また、前記実施形態では、画像がタッチされる毎にその画像からメニュー品目を認識するようにプログラムしたが、必ずしもこれに限定されるものではない。例えばタッチされた位置の座標を順次記憶し、認識開始の操作入力があったならば、各座標で特定される領域内の画像からメニュー品目を順次認識するようにプログラムしてもよい。こうすることにより、ユーザが複数の料理をタッチしてから画像認識が行われるようになる。   Moreover, in the said embodiment, it programmed so that a menu item might be recognized from the image whenever it touches, but it is not necessarily limited to this. For example, the coordinates of the touched position may be sequentially stored, and if there is an operation input for starting recognition, the menu item may be sequentially recognized from the image in the area specified by each coordinate. By doing so, image recognition is performed after the user touches a plurality of dishes.

また、前記実施形態では、容器に盛り付けられた料理を認識する場合を示したが、料理以外のパン等の商品を認識対象としてもよい。また、前記実施形態では、商品の標準分量に対して導出されるパラメータとして熱量を例示したが、パラメータは熱量に限定されるものではない。例えばたんぱく質、脂質、カルシウム等の栄養成分等であってもよい。   Moreover, in the said embodiment, although the case where the dish arranged in the container was recognized was shown, goods, such as bread other than a dish, may be made into recognition object. Moreover, in the said embodiment, although the calorie | heat amount was illustrated as a parameter derived | led-out with respect to the standard amount of goods, a parameter is not limited to a calorie | heat amount. For example, nutrient components such as proteins, lipids, and calcium may be used.

なお前記実施形態は、装置内部のプログラム記憶部であるROM22または補助記憶デバイス24に発明の機能を実現させる制御プログラムが予め記録されているものとした。しかしこれに限らず、同様のプログラムがネットワークから装置にダウンロードされてもよい。あるいは、記録媒体に記録された同様のプログラムが、装置にインストールされてもよい。記録媒体は、CD−ROM,メモリカード等のようにプログラムを記憶でき、かつ装置が読み取り可能であれば、その形態は問わない。また、プログラムのインストールやダウンロードにより得る機能は、装置内部のOS(オペレーティング・システム)等と協働してその機能を実現させるものであってもよい。また、本実施形態のプログラムを、通信機能を有する携帯電話やいわゆるPDAのような携帯情報端末に組み込んで、その機能を実現させるものであってもよい。   In the above-described embodiment, the control program for realizing the functions of the invention is recorded in advance in the ROM 22 or the auxiliary storage device 24 which is a program storage unit in the apparatus. However, the present invention is not limited to this, and a similar program may be downloaded from the network to the apparatus. Alternatively, a similar program recorded on the recording medium may be installed in the apparatus. The recording medium may be in any form as long as it can store a program such as a CD-ROM or a memory card and can be read by the apparatus. Further, the function obtained by installing or downloading the program may be realized in cooperation with an OS (operating system) in the apparatus. Moreover, the program of this embodiment may be incorporated in a portable information terminal such as a mobile phone having a communication function or a so-called PDA to realize the function.

この他、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although several embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…情報認識装置、12…撮像部、13…操作パネル、15…タッチパネル、17…レシート発行口、18…カードRW、21…CPU、50…認識辞書ファイル、71…品数カウンタ、72…候補メモリ、3…明細メモリ。   DESCRIPTION OF SYMBOLS 1 ... Information recognition apparatus, 12 ... Imaging part, 13 ... Operation panel, 15 ... Touch panel, 17 ... Receipt issue port, 18 ... Card RW, 21 ... CPU, 50 ... Recognition dictionary file, 71 ... Item number counter, 72 ... Candidate memory 3 ... Detail memory.

Claims (6)

撮像部で撮影された画像を表示部に表示させる画像表示手段と、
前記表示部に表示される画像上の任意の1乃至複数箇所に商品を囲うための枠を表示させる枠表示手段と、
前記枠によって囲われた領域内の画像の特徴量から前記枠内に映し出されている商品の候補を認識する認識手段と、
この認識手段により認識された商品の候補のなかで最有力候補の商品に係る情報を出力する第1の出力手段と、
前記第1の出力手段で出力された候補の変更指示を受け付ける変更受付手段と、
前記変更指示手段が商品の候補の変更指示を受け付けると、前記候補の中から選出された最有力候補以外の商品に係る情報を出力する第2の出力手段と、を具備したことを特徴とする商品認識装置。
Image display means for displaying an image captured by the imaging unit on the display unit;
Frame display means for displaying a frame for enclosing the product at any one or a plurality of locations on the image displayed on the display unit;
Recognizing means for recognizing product candidates displayed in the frame from the feature amount of the image in the area surrounded by the frame;
A first output means for outputting information related to the most likely candidate product among the candidate products recognized by the recognition means;
Change accepting means for accepting change instructions for candidates output by the first output means;
And a second output unit that outputs information relating to a product other than the most promising candidate selected from the candidates when the change instruction unit accepts a product candidate change instruction. Product recognition device.
前記認識手段は、各商品の外観特徴量を示すパラメータと前記枠線によって囲われた領域内の画像の特徴量との類似度を商品毎に算出して類似度の高い順に候補を認識し、
前記第1の出力手段は、最も類似度が高い商品を最有力候補の商品として当該商品に係る情報を出力し、
前記第2の出力手段は、前記変更受付手段により変更指示を受付ける毎に類似度が低くなる下位の候補の商品を順次選出して当該商品に係る情報を出力する、ことを特徴とする請求項1記載の商品認識装置。
The recognition means calculates the similarity between the parameter indicating the appearance feature amount of each product and the feature amount of the image in the region surrounded by the frame line for each product, and recognizes candidates in descending order of similarity.
The first output means outputs information related to the product with the product having the highest similarity as the most likely candidate product,
The second output unit sequentially selects a lower candidate product having a low similarity every time a change instruction is received by the change receiving unit, and outputs information related to the product. The product recognition apparatus according to 1.
前記表示部に表示される画像上の任意の箇所への指示入力を受け付ける入力受付手段、をさらに具備し、
前記枠表示手段は、前記入力受付手段により指示入力を受け付けた箇所を中心に前記枠を表示させることを特徴とする請求項1または2記載の商品認識装置。
Input receiving means for receiving an instruction input to an arbitrary location on the image displayed on the display unit;
The product recognition apparatus according to claim 1, wherein the frame display unit displays the frame around a place where an instruction input is received by the input reception unit.
前記入力受付手段により指示入力を受付けた箇所が、前記枠表示手段により表示された枠の内側か否かを判定する判定手段、をさらに具備し、
前記枠の外側と判定された場合には前記枠表示手段が動作し、前記枠の内側と判定された場合には前記変更受付手段が動作することを特徴とする請求項3記載の商品認識装置。
A determination means for determining whether or not the place where the instruction input is received by the input reception means is inside the frame displayed by the frame display means;
4. The product recognition apparatus according to claim 3, wherein the frame display means operates when it is determined to be outside the frame, and the change reception means operates when it is determined to be inside the frame. .
前記第1,第2の出力手段は、それぞれ商品に係る情報を前記枠内に表示出力する手段であり、かつ、
前記第2の出力手段は、前記枠の表示形態を前記第1の出力手段で前記商品に係る情報が内部に表示出力される枠と異ならせることを特徴とする請求項1乃至4のうちいずれか1に記載の商品認識装置。
Each of the first and second output means is means for displaying and outputting information relating to a product in the frame; and
The said 2nd output means makes the display form of the said frame differ from the frame in which the information which concerns on the said product is displayed and output by the said 1st output means inside any one of Claim 1 thru | or 4 characterized by the above-mentioned. The product recognition apparatus according to claim 1.
撮像部と表示部とを接続してなるコンピュータに、
前記撮像部で撮影された画像を前記表示部に表示させる機能と、
前記表示部に表示される画像上の任意の1乃至複数箇所に商品を囲うための枠を表示させる機能と、
前記枠によって囲われた領域内の画像の特徴量から前記枠内に映し出されている商品の候補を認識する機能と、
認識された商品のなかで最有力候補の商品に係る情報を出力する機能と、
候補の変更指示を受け付ける機能と、
前記候補の変更指示を受け付けると、前記候補の中から選出された最有力候補以外の商品に係る情報を出力する機能と、を実現させるための商品認識プログラム。
To a computer that connects the imaging unit and the display unit,
A function of displaying an image captured by the imaging unit on the display unit;
A function of displaying a frame for enclosing a product at any one or a plurality of locations on the image displayed on the display unit;
A function of recognizing product candidates displayed in the frame from the feature amount of the image in the area surrounded by the frame;
A function to output information on the most likely candidate product among the recognized products;
The ability to accept candidate change instructions;
A product recognition program for realizing a function of outputting information relating to a product other than the most promising candidate selected from the candidates when receiving the candidate change instruction.
JP2016010945A 2016-01-22 2016-01-22 Product recognition apparatus and product recognition program Active JP6116717B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016010945A JP6116717B2 (en) 2016-01-22 2016-01-22 Product recognition apparatus and product recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016010945A JP6116717B2 (en) 2016-01-22 2016-01-22 Product recognition apparatus and product recognition program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013146821A Division JP5927147B2 (en) 2013-07-12 2013-07-12 Product recognition apparatus and product recognition program

Publications (3)

Publication Number Publication Date
JP2016066384A true JP2016066384A (en) 2016-04-28
JP2016066384A5 JP2016066384A5 (en) 2016-06-16
JP6116717B2 JP6116717B2 (en) 2017-04-19

Family

ID=55805621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016010945A Active JP6116717B2 (en) 2016-01-22 2016-01-22 Product recognition apparatus and product recognition program

Country Status (1)

Country Link
JP (1) JP6116717B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020160816A (en) * 2019-03-27 2020-10-01 株式会社ブレイン Meal identification system and identification program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012069092A (en) * 2010-08-23 2012-04-05 Toshiba Tec Corp Store system and program
JP2013089090A (en) * 2011-10-19 2013-05-13 Toshiba Tec Corp Information processor and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012069092A (en) * 2010-08-23 2012-04-05 Toshiba Tec Corp Store system and program
JP2013089090A (en) * 2011-10-19 2013-05-13 Toshiba Tec Corp Information processor and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020160816A (en) * 2019-03-27 2020-10-01 株式会社ブレイン Meal identification system and identification program
JP7250275B2 (en) 2019-03-27 2023-04-03 株式会社ブレイン Meal identification systems and identification programs

Also Published As

Publication number Publication date
JP6116717B2 (en) 2017-04-19

Similar Documents

Publication Publication Date Title
JP5927147B2 (en) Product recognition apparatus and product recognition program
JP6244484B2 (en) Product recognition apparatus and product recognition program
JP6999404B2 (en) Article recognition device and article recognition method
US20150278591A1 (en) Commodity recognition apparatus and commodity recognition method
US20150213425A1 (en) Commodity data registration apparatus, checkout system and checkout data transmission method
US10497017B2 (en) Method and system for distributing and tracking effectiveness of product recommendations
US20110073645A1 (en) Article sales data processing apparatus and transaction display method
US20190043033A1 (en) Point-of-sale terminal
JP5572651B2 (en) Product reading apparatus and product reading program
US10956729B2 (en) Data processing apparatus and method, and non-transitory computer readable medium
JP6329840B2 (en) Recognition dictionary management device and program
US9355395B2 (en) POS terminal apparatus and commodity specification method
JP6116717B2 (en) Product recognition apparatus and product recognition program
JP2009134479A (en) Article sales data processor and computer program
CN112154488A (en) Information processing apparatus, control method, and program
JP2017027498A (en) Settlement device, settlement system, and program
JP2022118266A (en) Information processing device and program
JP6734949B1 (en) Self-checkout system
US11580566B2 (en) Store system, information processing apparatus, and information processing method therefor
JP7172060B2 (en) Information processing device, information processing method and program
JP6916341B2 (en) Touch panel input device and control program
JP2022118930A (en) Sales data processor and program
JP2021157205A (en) Processing device, processing method and program
WO2017126245A1 (en) Information processing device, control method, and program
JP2013069221A (en) Merchandise sales data processor

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160411

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170321

R150 Certificate of patent or registration of utility model

Ref document number: 6116717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150