JP7106331B2 - Product reading system - Google Patents

Product reading system Download PDF

Info

Publication number
JP7106331B2
JP7106331B2 JP2018077898A JP2018077898A JP7106331B2 JP 7106331 B2 JP7106331 B2 JP 7106331B2 JP 2018077898 A JP2018077898 A JP 2018077898A JP 2018077898 A JP2018077898 A JP 2018077898A JP 7106331 B2 JP7106331 B2 JP 7106331B2
Authority
JP
Japan
Prior art keywords
product
arm
processor
scanner
reading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018077898A
Other languages
Japanese (ja)
Other versions
JP2019185561A (en
Inventor
嘉幸 平原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2018077898A priority Critical patent/JP7106331B2/en
Publication of JP2019185561A publication Critical patent/JP2019185561A/en
Application granted granted Critical
Publication of JP7106331B2 publication Critical patent/JP7106331B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、商品読取システムに関する。 Embodiments of the present invention relate to merchandise reading systems.

従来、コンビニエンスストアやスーパーマーケットなどの小売店では、精算装置にバーコードなどの商品特定情報を読み取らせてから当該商品の精算処理を実施している。精算装置は、小売店の係員が操作し、係員の手作業によって商品に印刷されているバーコードを読取るものが多い。近年では、人手不足などから精算装置が精算の対象とする商品を読み取らせる作業(商品読取業務)を省力化することが要望されている。 2. Description of the Related Art Conventionally, retail stores such as convenience stores and supermarkets perform checkout processing for the product after making the checkout device read product specific information such as a bar code. Most of the checkout devices are operated by retail store clerks and read barcodes printed on merchandise manually by the clerks. In recent years, due to labor shortages, etc., there is a demand for labor-saving work (merchandise reading work) for the settlement device to read the merchandise to be settled.

従来の技術としては、商品などの物品を把持するためのロボットアームを備える装置が提案されている。しかしながら、従来の装置が備えるロボットアームは、把持した物品を所定の場所に移動させたり、把持した物品を袋や箱などの収納部に入れたりするものである。このため、従来の技術では、商品のバーコードなどを読み取る商品読取業務を省力化することはできない。 As a conventional technique, a device provided with a robot arm for gripping an article such as a product has been proposed. However, a robot arm provided in a conventional device moves a gripped article to a predetermined location or puts the gripped article into a storage section such as a bag or a box. For this reason, with the conventional technology, it is not possible to save labor in the product reading work of reading the bar code of the product.

特開2016-167246号公報JP 2016-167246 A

本発明は、上記した課題を解決するために、商品にある商品特定情報を読み取る作業を省力化することができる商品読取システムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a product reading system capable of saving labor in reading product identification information on products.

実施形態によれば、商品読取システムは、カメラと、アーム装置と、スキャナと、コントローラとを有する。カメラは、商品が置かれる台を上方から撮影する。アーム装置と、前記台に置かれた商品を把持する。スキャナは、読取位置にある前記商品の外観に存在する商品特定情報を読み取る。コントローラは、前記カメラが撮影した画像から検出される前記商品の形状に応じて異なるアルゴリズムを用いた把持設定で前記アーム装置に前記商品を把持させ、前記アーム装置が把持する前記商品を前記スキャナの読取位置で回転させて前記スキャナに商品特定情報を読み取らせる。 According to an embodiment, a product reading system has a camera, an arm device, a scanner, and a controller. The camera shoots the table on which the product is placed from above. The arm device grips the product placed on the table. The scanner reads product identification information present on the exterior of the product at the reading position. The controller causes the arm device to grip the product with grip settings that use different algorithms according to the shape of the product detected from the image captured by the camera, and the product gripped by the arm device is transferred to the scanner. Rotate at the reading position to cause the scanner to read the product identification information.

図1は、実施形態に係る商品読取システム(商品読取の支援システム)の外観構成を概略的に示す模式図である。FIG. 1 is a schematic diagram schematically showing the external configuration of a product reading system (product reading support system) according to an embodiment. 図2は、実施形態に係る商品読取システムとしてのロボット1の制御系の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the control system of the robot 1 as the commodity reading system according to the embodiment. 図3は、実施形態に係る商品読取システムとしてのロボットの動作例を説明するためのフローチャートである。FIG. 3 is a flowchart for explaining an operation example of the robot as the commodity reading system according to the embodiment. 図4は、実施形態に係る商品読取システムとしてのロボットの動作例を説明するためのフローチャートである。FIG. 4 is a flowchart for explaining an operation example of the robot as the commodity reading system according to the embodiment. 図5は、実施形態に係る商品読取システムが袋状の商品をアームで把持する場合の動作例を説明するための図である。FIG. 5 is a diagram for explaining an operation example when the product reading system according to the embodiment grips a bag-like product with an arm. 図6は、実施形態に係る商品読取システムが箱状の商品をアームで把持した状態の例を説明するための図である。FIG. 6 is a diagram for explaining an example of a state in which the product reading system according to the embodiment grips a box-shaped product with an arm; 図7は、実施形態に係る商品読取システムにおけるアームスキャナによるバーコードの読取処理の動作例を説明するためのフローチャートである。FIG. 7 is a flowchart for explaining an operation example of barcode reading processing by an arm scanner in the product reading system according to the embodiment. 図8は、実施形態に係る商品読取システムにおいて筒状の商品の高さが所定高以内である場合のアームスキャナの動作例を説明するための図である。FIG. 8 is a diagram for explaining an operation example of the arm scanner when the height of the tubular product is within a predetermined height in the product reading system according to the embodiment. 図9は、実施形態に係る商品読取システムにおいて筒状の商品の高さが所定高を超える場合のアームスキャナの動作例を説明するための図である。FIG. 9 is a diagram for explaining an operation example of an arm scanner when the height of a cylindrical product exceeds a predetermined height in the product reading system according to the embodiment; 図10は、実施形態に係る商品読取システムにおけるカメラの撮影画像に対する商品認識処理の動作例を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining an operation example of product recognition processing for an image captured by a camera in the product reading system according to the embodiment.

以下、図面を参照しながら実施形態について説明する。
図1は、実施形態に係る商品読取システムとしての商品読取の支援システム(ロボット)1の外観構成を概略的に示す模式図である。
商品読取の支援システム(以下、単にロボットとも称する)1は、商品を特定する情報(商品特定情報)を取得(読取)するための装置である。図1に示す構成例において、ロボット1は、精算装置(レジ)2で代金を精算すべき商品を特定する情報を取得するレジ業務を支援する。たとえば、ロボット1は、利用者が利用しやすいように、人物の上半身を模した人型の外観を有する。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a schematic diagram schematically showing the external configuration of a product reading support system (robot) 1 as a product reading system according to an embodiment.
A product reading support system (hereinafter also simply referred to as a robot) 1 is a device for acquiring (reading) information for specifying a product (product specific information). In the configuration example shown in FIG. 1, the robot 1 assists the cash register operation of acquiring information specifying the product for which payment is to be made at the checkout device (cash register) 2 . For example, the robot 1 has a humanoid appearance that imitates the upper body of a person so that the user can easily use it.

ロボット1は、商品の代金などを精算する精算装置2に接続する。ロボット1と精算装置2とは、商品の精算業務を行う取引システムを構成する。ロボット1および精算装置2を含む取引システムは、たとえば、コンビニエンスストアやスーバーマーケットなどの小売店などに設置される。取引システムにおいて、ロボット1は、精算装置2を設置する精算用のレジ台3の近傍に設ける。利用者は、ロボット1の手前にあるレジ台3に精算装置2で代金を精算する精算対象の商品を置く。ロボット1は、利用者がレジ台3に置いた商品から商品特定情報を読み取り、読取った商品特定情報を精算装置2へ供給する。 The robot 1 is connected to a settlement device 2 that settles the price of goods. The robot 1 and the settlement device 2 constitute a transaction system for performing commodity settlement operations. A transaction system including the robot 1 and the settlement device 2 is installed, for example, in retail stores such as convenience stores and supermarkets. In a transaction system, a robot 1 is provided near a checkout table 3 for settlement on which a settlement device 2 is installed. A user puts a product to be settled on a cash register table 3 in front of a robot 1 by using a settlement device 2. - 特許庁The robot 1 reads product specific information from the product placed on the register table 3 by the user, and supplies the read product specific information to the settlement device 2 .

商品特定情報は、商品の外観から読み取れる情報であれば良い。商品特定情報は、商品のパッケージに印刷されているバーコードである。また、商品特定情報は、商品を識別可能な数字や文字などの文字列でも良いし、商品に添付されたラベルの画像でも良いし、商品全体のシルエットなどであっても良い。ロボット1は、商品の外観にあるバーコードなどの商品特定情報がスキャナやカメラで読み取れるように、レジ台3上の商品を持ち上げて動かす。また、ロボット1は、持ち上げられない商品に沿ってスキャナを動かしてバーコードなどの商品特定情報を読み取る機能も有する。 The product identification information may be any information that can be read from the appearance of the product. The product identification information is a barcode printed on the package of the product. Further, the product identification information may be a character string such as numbers and characters that can identify the product, an image of a label attached to the product, or a silhouette of the product as a whole. A robot 1 lifts and moves a commodity on a register table 3 so that commodity specifying information such as a bar code on the appearance of the commodity can be read by a scanner or a camera. The robot 1 also has a function of moving the scanner along the product that cannot be lifted to read product specific information such as a bar code.

図1に示す構成例において、ロボット(本体)1は、センサ11、カメラ12、スキャナ13、第1アーム14、第2アーム15、アームスキャナ16、スピーカ17、マイク18、表示器19などを有する。
センサ11は、レジ台3に接近してきた人物、または、レジ台3に商品が置かれたことを検知するセンサである。たとえば、センサ11は、赤外線を用いて人物または商品を検知する赤外線センサである。センサ11は、人物または商品の有無を検知できるセンサであれば良い。
In the configuration example shown in FIG. 1, a robot (main body) 1 has a sensor 11, a camera 12, a scanner 13, a first arm 14, a second arm 15, an arm scanner 16, a speaker 17, a microphone 18, a display 19, and the like. .
The sensor 11 is a sensor that detects a person approaching the cash register table 3 or that a product is placed on the cash register table 3 . For example, the sensor 11 is an infrared sensor that uses infrared rays to detect people or goods. The sensor 11 may be any sensor that can detect the presence or absence of a person or a product.

カメラ12は、レジ台3周辺の画像を撮影する。カメラ12は、撮影方向あるいは撮影距離などを調整することにより撮影領域を変更する機能を有する。たとえば、カメラ12は、レジ2を利用者する人物(又はレジ台3に商品を置いた人物)を撮影するための撮影領域を設定し、レジ台3の近傍にいる人物を撮影する機能を有する。また、カメラ12は、レジ台3に置かれた商品を撮影するための撮影領域を設定し、レジ台3上の画像を撮影する機能も有する。 A camera 12 captures an image around the register table 3 . The camera 12 has a function of changing the photographing area by adjusting the photographing direction or the photographing distance. For example, the camera 12 has a function of setting a photographing area for photographing a person using the cash register 2 (or a person placing an item on the cash register table 3) and photographing a person near the cash register table 3. . The camera 12 also has a function of setting a photographing area for photographing the product placed on the cash register table 3 and photographing an image on the cash register table 3 .

スキャナ13は、商品の外観から商品特定情報を読み取る。本実施形態において、スキャナ13は、商品特定情報として、商品のパッケージの一部に印刷されたバーコードを読取るバーコードスキャナであるものとする。なお、スキャナ13は、商品の外観から商品特定情報であれば良く、2次元バーコードや文字列などを読み取るビデオカメラなどで構成しても良い。 The scanner 13 reads product identification information from the appearance of the product. In this embodiment, the scanner 13 is assumed to be a bar code scanner that reads a bar code printed on a part of the product package as the product identification information. Note that the scanner 13 may be any product specific information from the appearance of the product, and may be configured with a video camera or the like for reading two-dimensional bar codes, character strings, and the like.

第1アーム14および第2アーム15は、レジ台3に置かれた商品に対して相対的に動作する。第1アーム14および第2アーム15は、アーム部14a、15aと把持機構14b、15bとを有する。アーム部14a、15aは、ロボット1本体に取り付けられた多関節のロボットアームである。把持機構14b、15bは、商品を把持する機構である。アーム部14a、15aは、把持機構14b、15bによる把持位置を3次元的に自在に移動させるものであれば良い。たとえば、第1アーム14および第2アーム15において、把持機構14b、15bは、それぞれアーム部14a、15aの先端部分に設けられる。すなわち、第1アーム14および第2アーム15は、把持機構14b、15bで商品を把持した状態でアーム部14a、15aを動かして当該商品を持ち上げたり、回転させたりする。 The first arm 14 and the second arm 15 move relative to the product placed on the register table 3 . The first arm 14 and the second arm 15 have arm portions 14a, 15a and gripping mechanisms 14b, 15b. The arm portions 14a and 15a are articulated robot arms attached to the main body of the robot 1 . The gripping mechanisms 14b and 15b are mechanisms for gripping products. The arm portions 14a and 15a may be any device that allows the gripping positions of the gripping mechanisms 14b and 15b to move freely three-dimensionally. For example, in the first arm 14 and the second arm 15, the grasping mechanisms 14b and 15b are provided at the tip portions of the arm portions 14a and 15a, respectively. That is, the first arm 14 and the second arm 15 lift or rotate the product by moving the arm portions 14a and 15a while the product is gripped by the gripping mechanisms 14b and 15b.

把持機構14b、15bは、レジ台3上の商品を挟持したり摘まんだり吸着したりするように構成する。たとえば、把持機構14b、15bは、複数の指(2つの挟持部材、又は3~5本の指など)で構成される。また、把持機構14b、15bは、複数の指で構成するものに限定されるものではなく、商品の一部を吸着させる機構であっても良い。また、把持機構14b、15bは、複数の指、挟持部材、および、吸着させる機構などを組み合わせて構成しても良い。 The gripping mechanisms 14b and 15b are configured to pinch, pinch, or suck the merchandise on the register table 3. As shown in FIG. For example, the gripping mechanisms 14b, 15b are composed of multiple fingers (such as two clamping members or three to five fingers). Moreover, the gripping mechanisms 14b and 15b are not limited to those configured by a plurality of fingers, and may be a mechanism for sucking a part of the product. Also, the gripping mechanisms 14b and 15b may be configured by combining a plurality of fingers, a holding member, a mechanism for attracting, and the like.

また、アームスキャナ16は、第1アーム14の動作によって読取位置が移動するスキャナである。たとえば、アームスキャナ16は、第1アーム14の先端部分に設けられ、第1アーム14の動作によって読取位置が移動する。本実施形態において、アームスキャナ16は、第1アーム14によって移動される読取位置において商品の外観から商品特定情報としてのバーコードを読み取るものとする。なお、アームスキャナ16は、第2アーム15に設けても良いし、第1アーム14および第2アーム15の両方に設けても良い。また、アームスキャナ16は、第1アーム14および第2アーム15とは別に設けても良い。 Also, the arm scanner 16 is a scanner whose reading position is moved by the operation of the first arm 14 . For example, the arm scanner 16 is provided at the tip of the first arm 14, and the reading position is moved by the operation of the first arm 14. FIG. In this embodiment, the arm scanner 16 is assumed to read the bar code as the product identification information from the appearance of the product at the reading position moved by the first arm 14 . Note that the arm scanner 16 may be provided on the second arm 15 or may be provided on both the first arm 14 and the second arm 15 . Also, the arm scanner 16 may be provided separately from the first arm 14 and the second arm 15 .

スピーカ17は、音声を出力する。スピーカ17は、利用者に対して案内などの音声を出力する。マイク18は、音声を入力する。マイク18は、利用者が発した音声を入力する。スピーカ17およびマイク18は、利用者と対話形式で音声の入出力を行う対話装置を構成するものとしても良い。表示器19は、画像を表示する。たとえば、表示器19は、画像またはテキストなどによる利用者に対する案内を表示する。スピーカ17、マイク18および表示器19は、ユーザインターフェースとして機能する。 The speaker 17 outputs sound. The speaker 17 outputs voice such as guidance to the user. A microphone 18 inputs voice. The microphone 18 inputs voice uttered by the user. The speaker 17 and the microphone 18 may constitute an interactive device for inputting/outputting voices interactively with the user. The display 19 displays images. For example, the display 19 displays guidance to the user by means of images or text. Speaker 17, microphone 18 and display 19 function as a user interface.

次に、実施形態に係る商品読取装置としてのロボット1における制御系の構成について説明する。
図2は、実施形態に係る商品読取システム(商品読取の支援システム)としてのロボット1の制御系の構成例を示すブロック図である。
ロボット1は、システムコントローラ(制御装置)21、商品読取装置(商品リーダ)22、アーム装置23、対話装置(ユーザインターフェース)24、通信装置(通信モジュール)25などを有する。
Next, the configuration of the control system in the robot 1 as the product reading device according to the embodiment will be described.
FIG. 2 is a block diagram showing a configuration example of a control system of the robot 1 as a product reading system (a product reading support system) according to the embodiment.
The robot 1 has a system controller (control device) 21, a product reading device (product reader) 22, an arm device 23, a dialogue device (user interface) 24, a communication device (communication module) 25, and the like.

システムコントローラ21は、ロボットにおける各装置を統括的に制御する。図2に示す構成例において、システムコントローラ21は、プロセッサ31、メモリ32、インターフェース(I/F)33を有する。
プロセッサ31は、プログラムを実行することにより各種の処理を実現する。プロセッサ31は、たとえば、CPUである。メモリ32は、ROM、RAMおよび書換え可能な不揮発性メモリなどのメモリで構成する。たとえば、メモリ32は、プログラムおよび制御データなどを記憶する不揮発性のメモリを含む。また、メモリ32は、データを一時的に格納するためのRAMなどのワーキングメモリを含む。
The system controller 21 comprehensively controls each device in the robot. In the configuration example shown in FIG. 2 , the system controller 21 has a processor 31 , a memory 32 and an interface (I/F) 33 .
The processor 31 implements various processes by executing programs. Processor 31 is, for example, a CPU. The memory 32 is composed of memories such as ROM, RAM, and rewritable non-volatile memory. For example, memory 32 includes non-volatile memory that stores programs, control data, and the like. The memory 32 also includes working memory such as RAM for temporarily storing data.

メモリ32が記憶するプログラムには、基本プログラム(OS)の他、各種のアプリケーションプログラムが含まれる。アプリケーションプログラムには、後述する各種の処理を実行するためのプログラムなどが含まれる。プロセッサ31は、メモリ32が記憶する各種のプログラムを実行することにより後述する各種の処理を実現する。 Programs stored in the memory 32 include a basic program (OS) and various application programs. The application programs include programs for executing various processes described later. The processor 31 implements various processes described later by executing various programs stored in the memory 32 .

インターフェース(I/F)33は、ロボット1にける各装置と通信するためのインターフェースである。
プロセッサ31は、インターフェース33を介して各装置に制御指示を与えたり、各装置からの情報を取得したりする。たとえば、プロセッサ31は、商品読取装置22から商品特定情報の読取結果や人物の検知結果などを示す情報を取得する。また、プロセッサ31は、第1アーム14および第2アーム15を用いて商品を把持することをアーム装置23へ指示する。
An interface (I/F) 33 is an interface for communicating with each device in the robot 1 .
The processor 31 gives control instructions to each device and acquires information from each device via the interface 33 . For example, the processor 31 acquires information indicating the reading result of the product identification information, the detection result of the person, and the like from the product reading device 22 . The processor 31 also instructs the arm device 23 to grip the product using the first arm 14 and the second arm 15 .

次に、商品読取装置22の制御系の構成例について説明する。
商品読取装置22は、商品から商品特定情報を読み取るものである。また、商品読取装置22は、人物や商品などを検知する機能を有する。図2に示す構成例において、商品読取装置22は、プロセッサ41、メモリ42、インターフェース(I/F)43、画像メモリ44、カメラ駆動機構45、センサ11、カメラ12およびスキャナ13などを有する。
Next, a configuration example of the control system of the commodity reading device 22 will be described.
The product reading device 22 reads product identification information from products. The commodity reading device 22 also has a function of detecting a person, a commodity, and the like. In the configuration example shown in FIG. 2, the product reading device 22 has a processor 41, a memory 42, an interface (I/F) 43, an image memory 44, a camera driving mechanism 45, a sensor 11, a camera 12, a scanner 13, and the like.

プロセッサ41は、プログラムを実行することにより各種の処理を実現する。プロセッサ41は、たとえば、CPUである。メモリ42は、ROM、RAMおよび書換え可能な不揮発性メモリなどのメモリで構成する。たとえば、メモリ42は、プログラムおよび制御データなどを記憶する不揮発性のメモリを含む。また、メモリ42は、データを一時的に格納するためのRAMなどのワーキングメモリを含む。 The processor 41 implements various processes by executing programs. Processor 41 is, for example, a CPU. The memory 42 is composed of memories such as ROM, RAM, and rewritable non-volatile memory. For example, memory 42 includes non-volatile memory that stores programs, control data, and the like. The memory 42 also includes working memory such as RAM for temporarily storing data.

インターフェース(I/F)43は、システムコントローラ21と通信するためのインターフェースである。
画像メモリ44は、カメラ12が撮影した画像を記憶する。カメラ駆動機構45は、カメラ12を制御する。カメラ駆動機構45は、カメラ12の向きなどを移動させてカメラ12が撮影する領域を制御するようにしても良い。
An interface (I/F) 43 is an interface for communicating with the system controller 21 .
The image memory 44 stores images captured by the camera 12 . A camera driving mechanism 45 controls the camera 12 . The camera drive mechanism 45 may control the area captured by the camera 12 by moving the orientation of the camera 12 .

プロセッサ41は、メモリ42の記憶領域42a~42eに記憶するプログラムを実行することにより種々の処理を実現する。たとえば、記憶領域42aは、人物および物を特定する処理を実行するためのプログラムを格納するものとする。プロセッサ41は、記憶領域42aが記憶するプログラムを実行することにより、人物特定部あるいは物特定部として機能する。たとえば、プロセッサ41は、人物特定部として、カメラ12が撮影した画像を用いて利用者がレジ2の前(レジ台3の前)にいるかを確認する。また、プロセッサ41は、カメラ12が撮影した画像から利用者の特徴(性別、年齢など)を推測するようにしても良い。また、プロセッサ41は、物特定部として、レジ台3の上に商品があるかを確認するようにしても良い。 The processor 41 implements various processes by executing programs stored in storage areas 42 a to 42 e of the memory 42 . For example, storage area 42a stores a program for executing processing for identifying persons and objects. The processor 41 functions as a person identifying section or an object identifying section by executing a program stored in the storage area 42a. For example, the processor 41, as a person identification unit, uses an image captured by the camera 12 to confirm whether the user is in front of the cash register 2 (in front of the cash register table 3). Also, the processor 41 may estimate the user's features (gender, age, etc.) from the image captured by the camera 12 . Moreover, the processor 41 may check whether there is any product on the cash register table 3 as the product identification unit.

記憶領域42bは、物品の大きさおよび形状などを認識する処理を行うためのプログラムを格納するものとする。プロセッサ41は、記憶領域42bが記憶するプログラムを実行することにより、物の大きさおよび形状などを認識する外観認識部として機能する。たとえば、プロセッサ41は、カメラ12が撮影した画像から、レジ台3上にある商品の大きさおよび形状などの特徴を示す情報を認識する。本実施形態において、プロセッサ41は、外観認識部として、商品が袋状の商品か箱状の形状を有する商品か、筒状の形状を有する商品か、袋状の外観を有する商品かを確認する。 The storage area 42b stores a program for recognizing the size and shape of an article. The processor 41 functions as an appearance recognition unit that recognizes the size and shape of an object by executing a program stored in the storage area 42b. For example, the processor 41 recognizes information indicating characteristics such as the size and shape of the product on the cash register table 3 from the image captured by the camera 12 . In this embodiment, the processor 41, as an appearance recognition unit, confirms whether the product is a bag-shaped product, a box-shaped product, a cylindrical product, or a bag-shaped product. .

記憶領域42cは、位置を検出する処理を実行するためのプログラムを格納するものとする。プロセッサ41は、記憶領域42cが記憶するプログラムを実行することにより、位置を検出する位置検出部として機能する。たとえば、プロセッサ41は、カメラ12が撮影した画像に基づいてレジ台3上にある商品の位置を検出する。 The storage area 42c is assumed to store a program for executing the process of detecting the position. The processor 41 functions as a position detector that detects a position by executing a program stored in the storage area 42c. For example, processor 41 detects the position of the product on checkout table 3 based on the image captured by camera 12 .

記憶領域42dは、商品特定情報としてのバーコードを検出する処理を実行するためのプログラムを格納するものとする。プロセッサ41は、記憶領域42dが記憶するプログラムを実行することにより商品に付されているバーコードを検出するバーコード検出部として機能する。たとえば、プロセッサ41は、スキャナ13またはアームスキャナ16が読取る画像からレジ台3上にある商品に付されたバーコードを検出する。 The storage area 42d is assumed to store a program for executing processing for detecting a bar code as product identification information. The processor 41 functions as a barcode detector that detects the barcode attached to the product by executing the program stored in the storage area 42d. For example, the processor 41 detects the barcode attached to the product on the cash register table 3 from the image read by the scanner 13 or the arm scanner 16 .

記憶領域42eは、商品特定情報としての文字を認識する処理を実行するためのプログラムを格納するものとする。プロセッサ41は、記憶領域42eが記憶するプログラムを実行することにより商品に付されている文字を認識する文字認識部(OCR処理部)として機能する。たとえば、プロセッサ41は、カメラ12が撮影する画像からレジ台3上にある商品に付された商品特定情報としての文字を認識する。 The storage area 42e stores a program for executing processing for recognizing characters as product identification information. The processor 41 functions as a character recognition section (OCR processing section) that recognizes characters attached to products by executing a program stored in the storage area 42e. For example, the processor 41 recognizes characters as product identification information attached to the product on the cash register table 3 from the image captured by the camera 12 .

次に、アーム装置23の制御系の構成例について説明する。
アーム装置23は、第1アーム14および第2アーム15を動作させるものである。図2に示す構成例において、アーム装置23は、プロセッサ51、メモリ52、インターフェース(I/F)53、アーム駆動機構54、第1アーム14、第2アーム15およびアームスキャナ16などを有する。
Next, a configuration example of the control system of the arm device 23 will be described.
The arm device 23 operates the first arm 14 and the second arm 15 . In the configuration example shown in FIG. 2, arm device 23 has processor 51, memory 52, interface (I/F) 53, arm drive mechanism 54, first arm 14, second arm 15, arm scanner 16, and the like.

プロセッサ51は、プログラムを実行することにより各種の処理を実現する。プロセッサ51は、たとえば、CPUである。メモリ52は、ROM、RAMおよび書換え可能な不揮発性メモリなどのメモリで構成する。たとえば、メモリ52は、プログラムおよび制御データなどを記憶する不揮発性のメモリを含む。また、メモリ52は、データを一時的に格納するためのRAMなどのワーキングメモリを含む。
インターフェース(I/F)53は、システムコントローラ21と通信するためのインターフェースである。
The processor 51 implements various processes by executing programs. Processor 51 is, for example, a CPU. The memory 52 is composed of memories such as ROM, RAM, and rewritable non-volatile memory. For example, memory 52 includes non-volatile memory that stores programs, control data, and the like. The memory 52 also includes working memory such as RAM for temporarily storing data.
An interface (I/F) 53 is an interface for communicating with the system controller 21 .

アーム駆動機構54は、第1アーム14および第2アーム15の動きを制御する。たとえば、アーム駆動機構54は、システムコントローラ21からの動作指示に応じて第1アーム14および第2アーム15をそれぞれ動かす。たとえば、アーム駆動機構54は、システムコントローラ21からの指示に応じてレジ台3上にある商品を把持する。また、アーム駆動機構54は、指示に応じて把持した商品を動かす。さらに、アーム駆動機構54は、指示に応じて第1アーム14を動かしてアームスキャナ16による読取位置を移動させる。 The arm drive mechanism 54 controls movements of the first arm 14 and the second arm 15 . For example, the arm drive mechanism 54 moves the first arm 14 and the second arm 15 according to operation instructions from the system controller 21 . For example, the arm driving mechanism 54 grips the product on the cash register table 3 according to an instruction from the system controller 21 . In addition, the arm drive mechanism 54 moves the gripped product according to the instruction. Further, the arm drive mechanism 54 moves the first arm 14 according to the instruction to move the reading position of the arm scanner 16 .

次に、対話装置24の制御系の構成例について説明する。
対話装置24は、ユーザインターフェースとして機能する。対話装置24は、ユーザに音声や画像などで情報を提供する。また、対話装置24は、ユーザからの情報を入力し、入力した情報に対する応答としての情報を出力する。図2に示す構成例において、対話装置24は、プロセッサ61、メモリ62、インターフェース(I/F)63、スピーカ17、マイク18、表示器19などを有する。
Next, a configuration example of the control system of the interactive device 24 will be described.
Dialog device 24 functions as a user interface. The interactive device 24 provides information to the user by means of sounds, images, and the like. Further, the interactive device 24 inputs information from the user and outputs information as a response to the input information. In the configuration example shown in FIG. 2, the interactive device 24 has a processor 61, a memory 62, an interface (I/F) 63, a speaker 17, a microphone 18, a display 19, and the like.

プロセッサ61は、プログラムを実行することにより各種の処理を実現する。プロセッサ61は、たとえば、CPUである。メモリ62は、ROM、RAMおよび書換え可能な不揮発性メモリなどのメモリで構成する。インターフェース(I/F)63は、システムコントローラ21と通信するためのインターフェースである。 The processor 61 implements various processes by executing programs. Processor 61 is, for example, a CPU. The memory 62 is composed of memories such as ROM, RAM, and rewritable non-volatile memory. An interface (I/F) 63 is an interface for communicating with the system controller 21 .

プロセッサ61は、システムコントローラ21からの指示などに応じてスピーカ17から音声を出力する。また、プロセッサ61は、マイク18に入力された音声情報をシステムコントローラ21へ供給する。これにより、プロセッサ61は、スピーカ17およびマイク18を用いて利用者との対話形式による音声の入出力を行う。また、プロセッサ61は、システムコントローラ21からの指示などに応じて表示器19に情報を表示する。 The processor 61 outputs sound from the speaker 17 according to instructions from the system controller 21 or the like. The processor 61 also supplies the audio information input to the microphone 18 to the system controller 21 . As a result, the processor 61 uses the speaker 17 and the microphone 18 to input and output voice in an interactive manner with the user. In addition, the processor 61 displays information on the display 19 according to instructions from the system controller 21 or the like.

次に、通信装置25の制御系の構成例について説明する。
通信装置25は、外部装置と通信するための通信インターフェースである。本実施形態において、通信装置25は、精算装置2と通信する。図2に示す構成例において、通信装置25は、プロセッサ71、メモリ72、インターフェース(I/F)73、通信部74などを有する。
Next, a configuration example of the control system of the communication device 25 will be described.
The communication device 25 is a communication interface for communicating with external devices. In this embodiment, the communication device 25 communicates with the settlement device 2 . In the configuration example shown in FIG. 2, the communication device 25 has a processor 71, a memory 72, an interface (I/F) 73, a communication section 74, and the like.

プロセッサ71は、プログラムを実行することにより各種の処理を実現する。プロセッサ71は、たとえば、CPUである。メモリ72は、ROM、RAMおよび書換え可能な不揮発性メモリなどのメモリで構成する。インターフェース(I/F)73は、システムコントローラ21と通信するためのインターフェースである。通信部74は、外部装置と通信するためのインターフェースである。図2に示す構成例では、通信部74は、精算装置2と通信するためのインターフェースを含む。 The processor 71 implements various processes by executing programs. Processor 71 is, for example, a CPU. The memory 72 is composed of memories such as ROM, RAM, and rewritable non-volatile memory. An interface (I/F) 73 is an interface for communicating with the system controller 21 . The communication unit 74 is an interface for communicating with an external device. In the configuration example shown in FIG. 2 , the communication unit 74 includes an interface for communicating with the settlement device 2 .

なお、商品読取システムとしてのロボット1は、精算装置2と一体的に構成しても良い。また、ロボット1には、商品の代金を精算する機能を具備しても良い。たとえば、ロボット1には、クレジットカードあるいは電子マネーなどでの決済機能を設けても良い。この場合、ロボット1は、商品特定情報の読取りだけでなく、商品特定情報に基づくクレジットカードあるいは電子マネー等での決済も可能となる。 In addition, the robot 1 as a product reading system may be configured integrally with the checkout device 2 . In addition, the robot 1 may be equipped with a function of adjusting the price of the product. For example, the robot 1 may be provided with a settlement function using a credit card or electronic money. In this case, the robot 1 can not only read the product specific information, but also make payments with a credit card or electronic money based on the product specific information.

次に、実施形態に係る商品読取装置としてのロボット1による商品読取業務の支援処理(商品読取処理)の動作について説明する。
図3及び図4は、実施形態に係るロボット1の動作例を説明するためのフローチャートである。
待機状態において、商品読取装置22のプロセッサ41は、レジ台3の近傍を検知範囲として人物を検知するセンサ11を用いて人物の有無を監視する(ACT11)。センサ11が人物を検知すると(ACT11、YES)、プロセッサ41は、撮影領域をレジ台3の近傍となる人物検出用の撮影領域にセットしたカメラ12で画像を撮影する(ACT12)。人物検出用の撮影領域は、センサ11が検知した人物、あるいは、商品の精算などでレジ台3の手前に現れた人物を撮影できるような撮影領域であれば良い。
Next, operation of support processing (product reading processing) for product reading work by the robot 1 as the product reading apparatus according to the embodiment will be described.
3 and 4 are flowcharts for explaining an operation example of the robot 1 according to the embodiment.
In the standby state, the processor 41 of the product reading device 22 monitors the presence or absence of a person using the sensor 11 for detecting a person with the detection range near the register table 3 (ACT 11). When the sensor 11 detects a person (ACT 11, YES), the processor 41 shoots an image with the camera 12 set in the person detection shooting area near the cash register 3 (ACT 12). The photographing area for person detection may be any photographing area that can photograph a person detected by the sensor 11 or a person appearing in front of the cashier table 3 at the checkout of a product or the like.

たとえば、プロセッサ41は、カメラ駆動機構45によりレジ台3の手前の空間を含む領域を人物検出用の撮影範囲としてカメラ12に設定する。また、プロセッサ41は、センサ11が検知した人物の位置を推定し、推定した人物の位置に応じてカメラ12の向きや位置などを制御しても良い。なお、プロセッサ41は、カメラ12が撮影した画像を画像メモリ44に保存する。また、プロセッサ41は、連続的に複数の画像をカメラ12で撮影し、撮影した複数の画像を画像メモリ44に保存しても良い。 For example, the processor 41 uses the camera driving mechanism 45 to set the area including the space in front of the cash register table 3 to the camera 12 as the photographing range for person detection. The processor 41 may also estimate the position of the person detected by the sensor 11 and control the orientation and position of the camera 12 according to the estimated position of the person. Note that the processor 41 stores the image captured by the camera 12 in the image memory 44 . Alternatively, the processor 41 may continuously capture a plurality of images with the camera 12 and store the captured images in the image memory 44 .

カメラ12によりレジ台3近傍の画像を撮影すると、プロセッサ41は、カメラ12が撮影した撮影画像に人物が存在するかを判断する(ACT13)。これにより、プロセッサ41は、カメラ12が撮影する撮影画像からレジ台3の近傍にいる人物(利用者)を検出できる。プロセッサ41は、撮影画像からの人物の検出結果に基づいてレジ台3の近傍に利用者がいるか否かを判断する。利用者がいると判断できない場合(ACT13、NO)、プロセッサ41は、ACT11へ戻り、上述の処理を再度実行する。 When the camera 12 captures an image near the register table 3, the processor 41 determines whether a person is present in the captured image captured by the camera 12 (ACT 13). Thereby, the processor 41 can detect a person (user) in the vicinity of the cash register table 3 from the captured image captured by the camera 12 . The processor 41 determines whether or not there is a user near the register table 3 based on the detection result of the person from the photographed image. If it cannot be determined that there is a user (ACT13, NO), the processor 41 returns to ACT11 and executes the above process again.

利用者がいると判断した場合(ACT13、YES)、プロセッサ41は、コントローラ21へ利用者を検知した旨を通知する。利用者を検知した旨の通知を受けると、システムコントローラ21は、対話装置24を用いた当該利用者に対する案内を行う(ACT14)。たとえば、システムコントローラ21は、対話装置24に対して音声指示を出力することにより、スピーカ17から「いらっしゃいませ」などの挨拶の音声を出力する。また、システムコントローラ21は、音声案内とともに表示器19に案内を表示するようにしても良い。 When determining that there is a user (ACT13, YES), the processor 41 notifies the controller 21 that the user has been detected. Upon receiving the notification that the user has been detected, the system controller 21 guides the user using the interactive device 24 (ACT 14). For example, the system controller 21 outputs a greeting voice such as “Welcome” from the speaker 17 by outputting a voice instruction to the interactive device 24 . Also, the system controller 21 may display the guidance on the display 19 together with the voice guidance.

また、利用者を検知した場合、プロセッサ41は、撮影領域としてレジ台3上の商品配置位置を含む商品検出用の撮影領域をセットしたカメラ12で画像を撮影する(ACT15)。商品検出用の撮影領域は、レジ台3上に置かれた精算(登録)対象の商品が置かれる領域を含むものであれば良い。たとえば、商品検出用の撮影領域は、レジ台3上の商品が載置可能な領域、あるいは、レジ台3上に設けた商品の配置位置を含む領域であっても良い。ここで、プロセッサ41は、カメラ12が撮影する商品検出用の撮影領域の画像を画像メモリ44に保存するようにしても良い。 When the user is detected, the processor 41 captures an image with the camera 12 in which the product detection image capturing region including the product placement position on the register table 3 is set as the image capturing region (ACT 15). The photographing area for product detection may include an area where the product to be settled (registered) placed on the cash register table 3 is placed. For example, the photographing area for product detection may be an area where the product can be placed on the cash register table 3 or an area including the arrangement position of the product provided on the cash register table 3 . Here, the processor 41 may store in the image memory 44 the image of the product detection imaging area captured by the camera 12 .

カメラ12により商品検出用の撮影領域を撮影すると、プロセッサ41は、カメラ12が撮影した画像(商品検出用の撮影画像)に商品が存在するかを判断する(ACT16)。これにより、商品読取装置22は、レジ台3上に置かれた商品を検出できる。なお、プロセッサ41は、カメラ12の撮影画像から商品を検出する手法以外の手法でレジ台3上の商品の有無を判断するようにしても良い。 When the photographing area for product detection is photographed by the camera 12, the processor 41 determines whether the product is present in the image photographed by the camera 12 (photographed image for product detection) (ACT 16). Thereby, the commodity reading device 22 can detect the commodity placed on the register table 3 . Note that the processor 41 may use a method other than the method of detecting the product from the captured image of the camera 12 to determine the presence or absence of the product on the register table 3 .

レジ台3上に商品がないと判断した場合(ACT16、NO)、プロセッサ41は、ACT15へ戻り、上述の処理を再度実行する。すなわち、商品が検出できなければ、プロセッサ41は、対話装置24を用いてレジ台3に商品を置くことを促す案内を音声や表示などで行う。たとえば、プロセッサ41は、対話装置24のスピーカ17から「商品をレジ台の上に置いて下さい」と発話するようにしても良い。このような案内と共に、プロセッサ41は、レジ台3上の画像撮影と商品検出とを繰り返し実行する。 If it is determined that there is no product on the register table 3 (ACT16, NO), the processor 41 returns to ACT15 and executes the above-described processing again. In other words, if the product cannot be detected, the processor 41 uses the interactive device 24 to provide voice or display guidance to prompt the user to place the product on the register table 3 . For example, the processor 41 may utter "Please place the product on the cash register" from the speaker 17 of the interactive device 24. FIG. Along with such guidance, the processor 41 repeatedly executes image capturing and product detection on the register table 3 .

レジ台3上に商品があると判断した場合(ACT16、YES)、プロセッサ41は、レジ台3上にある商品がアーム装置23で把持すべきものであるかを判定する。すなわち、プロセッサ41は、レジ台3上にある商品の形状を特定する(ACT17)。本実施形態において、プロセッサ41は、商品の形状が、袋状、箱状、筒状の何れであるかを特定するものとする。 If it is determined that there is a product on the cash register table 3 (ACT 16 , YES), the processor 41 determines whether the product on the cash register table 3 should be gripped by the arm device 23 . That is, the processor 41 identifies the shape of the product on the cash register table 3 (ACT 17). In this embodiment, the processor 41 specifies whether the shape of the product is bag-like, box-like, or cylindrical.

ここで、袋状の商品とは、所定の把持サイズ以内であれば、アーム装置23が把持できるものであり、外観の形状が変形するものとする。袋状の商品は、所定の大きさ以内であれば、アーム装置23が把持した状態で持ち上げたり回転させたりできる形状であれば良い。また、箱状の商品とは、所定の把持サイズ以内であれば、アーム装置23が把持できる形状を有する固形の物品であるものとする。箱状の商品は、6面体の形状に限定されるものではなく、所定の大きさ以内であれば、アーム装置23が把持した状態で持ち上げたり回転させたりできる形状であれば良い。 Here, the bag-shaped product is one that can be gripped by the arm device 23 as long as it is within a predetermined gripping size, and the shape of the exterior is deformed. As long as the size of the bag-like product is within a predetermined size, it may be of a shape that allows the arm device 23 to lift or rotate the product in a gripped state. A box-shaped product is a solid product having a shape that can be gripped by the arm device 23 as long as it is within a predetermined gripping size. The box-shaped product is not limited to a hexahedral shape, and any shape that can be lifted or rotated while being held by the arm device 23 can be used as long as it is within a predetermined size.

なお、袋状の商品または箱状の商品が把持できるか否かは、把持サイズではなく、当該商品の重さで判定しても良い。この場合、レジ台3上の商品の重さは、レジ台3に設けた重量センサなどで計測するようにすれば良い。 Whether or not a bag-shaped product or a box-shaped product can be gripped may be determined based on the weight of the product instead of the grip size. In this case, the weight of the product on the cash register table 3 may be measured by a weight sensor or the like provided on the cash register table 3 .

また、筒状の商品とは、袋状および箱状以外のものであり、アーム装置23で把持できない(把持すべきでない)形状を有する物品であるものとする。筒状の商品としては、円筒形状の物品に限らず、多角柱、円錐、角錐などのアーム装置23で把持できない形状の物品も含むものとする。たとえば、筒状の商品は、ペットボトル、缶、瓶、カップなどの物品を想定する。 In addition, a cylindrical product is an item other than bag-like or box-like, and has a shape that cannot be (should not be) gripped by the arm device 23 . Cylindrical products are not limited to cylindrical products, and include products with shapes that cannot be gripped by the arm device 23, such as polygonal prisms, cones, and pyramids. For example, cylindrical products are assumed to be articles such as PET bottles, cans, bottles, and cups.

レジ台3上にある商品の形状が袋状であると判断した場合(ACT18、YES)、プロセッサ41は、当該商品のサイズが袋の把持サイズ以内であるかを判断する(ACT19)。本実施形態において、アーム装置23は、袋の把持サイズを超えるサイズの袋状の商品を把持できない(把持すべきでない)ものとする。なお、袋状の商品が把持できるか否かは、当該商品の重さで判定するようにしても良い。 When determining that the shape of the product on the register table 3 is bag-like (ACT18, YES), the processor 41 determines whether the size of the product is within the size of the bag to be gripped (ACT19). In this embodiment, it is assumed that the arm device 23 cannot (should not) grip a bag-like product having a size exceeding the gripping size of the bag. It should be noted that whether or not a bag-shaped product can be gripped may be determined based on the weight of the product.

商品が袋状であると判断した場合、プロセッサ41は、当該商品を把持するか(把持できるか)どうかを当該商品の大きさで判断する。プロセッサ41は、レジ台3上を撮影した画像(商品検出用の撮影画像)における当該商品の画像領域から当該商品の大きさを特定(推定)する。本実施形態において、袋状の商品の大きさは、商品検出用の撮影画像において検出する当該商品のエッジ位置から特定する対角線の長さとする。ただし、袋状の商品の大きさは、当該商品の画像領域の画素数や当該商品の画像領域の面積の推定値などで定義しても良い。 When determining that the product is bag-shaped, the processor 41 determines whether the product can be gripped (whether it can be gripped) based on the size of the product. The processor 41 identifies (estimates) the size of the product from the image area of the product in the image of the cash register table 3 (the photographed image for product detection). In the present embodiment, the size of the bag-like product is the length of the diagonal specified from the edge position of the product detected in the photographed image for product detection. However, the size of the bag-shaped product may be defined by the number of pixels of the image area of the product, an estimated area of the image area of the product, or the like.

たとえば、プロセッサ41は、商品検出用の撮影画像において当該商品の画像領域とする矩形領域のエッジとなる4点を検出する。プロセッサ41は、検出した4点からなる矩形の対角線の長さを当該商品の大きさとする。この場合、袋の把持サイズとしては、2つのアーム14,15で両端を摘まんで持ち上げられる商品の大きさ(対角線の長さ)の最大値が設定される。たとえば、袋の把持サイズを500mmすれば、プロセッサ41は、撮影画像における商品のエッジから特定する対角線の長さが500mm以内であるか否かを判定する。 For example, the processor 41 detects four points that are edges of a rectangular area that is the image area of the product in the photographed image for product detection. The processor 41 determines the length of the diagonal line of the detected four-point rectangle as the size of the product. In this case, as the size of the bag to be gripped, the maximum value of the size (diagonal length) of the product that can be lifted by pinching both ends with the two arms 14 and 15 is set. For example, if the gripping size of the bag is 500 mm, the processor 41 determines whether the length of the diagonal line specified from the edge of the product in the photographed image is within 500 mm.

袋状と判定した当該商品の大きさが袋の把持サイズを超えると判断した場合(ACT19、NO)、プロセッサ41は、当該商品をアーム装置23で把持できないと判断する。当該商品をアーム装置23で把持できないと判断した場合、プロセッサ41は、ACT24へ進み、アームスキャナ16による商品特定情報の読取処理を行う。 When determining that the size of the product determined to be bag-like exceeds the grip size of the bag (ACT 19 , NO), the processor 41 determines that the arm device 23 cannot grip the product. If it is determined that the product cannot be gripped by the arm device 23, the processor 41 proceeds to ACT 24 and performs reading processing of the product specific information by the arm scanner 16. FIG.

袋状と判定した当該商品が袋の把持サイズ以内であると判断した場合(ACT19、YES)、プロセッサ41は、当該商品をアーム装置23で把持することをシステムコントローラ21に指示する。当該商品をアーム装置23で把持することをシステムコントローラ21に指示する。プロセッサ41は、レジ台3上を撮影した撮影画像に基づき、当該商品の位置を示す位置情報と、形状、大きさ、中心、向き等の当該商品の形状を示す形状情報とを特定する。プロセッサ41は、撮影画像から特定した商品の位置情報および形状情報を当該商品が把持対象である旨とともにシステムコントローラ21へ通知する。 If it is determined that the bag-shaped product is within the gripping size of the bag (ACT 19 , YES), the processor 41 instructs the system controller 21 to grip the product with the arm device 23 . The system controller 21 is instructed to grip the product with the arm device 23 . The processor 41 identifies position information indicating the position of the product and shape information indicating the shape of the product, such as shape, size, center, and direction, based on the photographed image of the register table 3 . The processor 41 notifies the system controller 21 of the position information and shape information of the product specified from the photographed image, together with the fact that the product is to be gripped.

システムコントローラ21のプロセッサ31は、商品読取装置22からの情報に基づいて当該商品をアーム装置23で把持するための把持設定を行う(ACT20)。当該商品が袋状である場合、プロセッサ31は、袋状の商品を把持するためのアルゴリズムと当該商品の位置情報と形状情報とに基づいて当該商品に対する把持設定を行う。ここで、プロセッサ31は、2つのアーム14,15が袋状の商品の両端を摘まむように把持するようにアーム装置23に対する把持設定を行うものとする。 The processor 31 of the system controller 21 performs gripping settings for gripping the product with the arm device 23 based on the information from the product reading device 22 (ACT 20). If the product is bag-shaped, the processor 31 performs gripping settings for the product based on an algorithm for gripping the bag-shaped product and the position information and shape information of the product. Here, it is assumed that the processor 31 sets the gripping setting for the arm device 23 so that the two arms 14 and 15 grip both ends of the bag-shaped product.

図5は、袋状の商品P1を2つのアーム14および15で把持する場合の動作例を説明するための図である。
アーム装置23は、各アーム部14a,15aの先端部に設けた把持機構14b,15bが袋状の商品の両端をそれぞれ摘まむように各アーム14,15を動かす。各アーム14,15は、把持機構14b、15bが商品の両端の外側から商品の中心に向かって商品と平行にレジ台3の上面をこするように動かす。アーム装置23は、一方のアーム14(15)の把持機構14b(15b)が商品の長手方向の一端を摘まんだ後、他方のアーム15(14)の把持機構15b(14b)が当該商品の長手方向の反対側の一端を摘まむように動かす。
FIG. 5 is a diagram for explaining an operation example when the two arms 14 and 15 grip the bag-shaped product P1.
The arm device 23 moves the arms 14 and 15 so that the gripping mechanisms 14b and 15b provided at the ends of the arms 14a and 15a grip both ends of the bag-shaped product. The arms 14 and 15 are moved so that the gripping mechanisms 14b and 15b scrape the upper surface of the register table 3 parallel to the merchandise from the outside of both ends of the merchandise toward the center of the merchandise. In the arm device 23, after the gripping mechanism 14b (15b) of one arm 14 (15) grips one end of the product in the longitudinal direction, the gripping mechanism 15b (14b) of the other arm 15 (14) grips the product. Move so as to pinch one end on the opposite side in the longitudinal direction.

図5に示す例では、第1アーム14が把持機構14bで商品P1の一端を摘まんだ後、第2アーム15が、把持機構15bを矢印a方向に動かす。第2アーム15は、把持機構15bの把持位置が当該商品の端部に到達すると、把持機構15bが当該商品の端部を摘まむ。これにより、把持機構14bと15bとは、商品の長手方向における両端を摘まむことができる。
システムコントローラ21のプロセッサ31は、アーム装置23を上述の動作で商品の両端を把持できるように当該商品の位置情報および形状情報に応じて把持設定を行う。
In the example shown in FIG. 5, after the first arm 14 grips one end of the product P1 with the gripping mechanism 14b, the second arm 15 moves the gripping mechanism 15b in the direction of arrow a. In the second arm 15, when the gripping position of the gripping mechanism 15b reaches the end of the product, the gripping mechanism 15b grips the end of the product. Thereby, the gripping mechanisms 14b and 15b can grip both ends of the product in the longitudinal direction.
The processor 31 of the system controller 21 performs gripping settings according to the position information and shape information of the product so that the arm device 23 can grip both ends of the product by the above-described operation.

また、レジ台3上にある商品の形状が箱状であると判断した場合(ACT21、YES)、プロセッサ41は、箱状の商品のサイズが箱の把持サイズ以内であるかを判断する(ACT22)。本実施形態において、アーム装置23は、箱の把持サイズを超える幅を有する箱状の商品を把持できない(把持すべきでない)ものとする。すなわち、商品が箱状であると判断した場合、プロセッサ41は、当該商品を把持するか(把持できるか)どうかを当該商品の幅で判断する。 When determining that the product on the cash register table 3 is box-shaped (ACT 21, YES), the processor 41 determines whether the size of the box-shaped product is within the gripping size of the box (ACT 22). ). In this embodiment, it is assumed that the arm device 23 cannot (should not) grip a box-shaped product having a width exceeding the gripping size of the box. That is, when determining that the product is box-shaped, the processor 41 determines whether or not the product can be gripped (whether it can be gripped) based on the width of the product.

たとえば、プロセッサ41は、レジ台3上を撮影した画像(商品検出用の撮影画像)から当該商品の幅を特定(推定)する。商品検出用の撮影画像はレジ台3を上方から撮影した画像であるので、商品検出用の撮影画像にはレジ台3上に置かれた箱状の商品が矩形の画像として撮影される。プロセッサ41は、商品検出用の撮影画像における当該商品の矩形領域のエッジとなる4点を検出する。また、箱状と判定した商品が完全な矩形の画像として撮影されない場合、プロセッサ41は、当該商品の画像領域に外接する矩形領域のエッジとなる4点を検出しても良い。 For example, the processor 41 identifies (estimates) the width of the product from an image of the cash register table 3 (photographed image for product detection). Since the photographed image for product detection is an image of the register table 3 photographed from above, the box-shaped product placed on the register table 3 is photographed as a rectangular image in the photographed image for product detection. The processor 41 detects four points that are the edges of the rectangular area of the product in the photographed image for product detection. In addition, when a product determined to be box-shaped is not captured as a perfect rectangular image, the processor 41 may detect four points that are edges of a rectangular area circumscribing the image area of the product.

プロセッサ41は、商品検出用の撮影画像から検出した当該商品の矩形領域のエッジとする4点から当該商品の幅を推定する。商品の幅は、把持機構14b、15bが把持する部分の幅であるものとする。この場合、箱の把持サイズとしては、アーム14、15の把持機構14b、15bが商品の側面から挟持できる商品の幅の最大値が設定される。たとえば、箱の把持サイズを100mmすれば、プロセッサ41は、商品検出用の撮影画像から検出した箱状の商品の幅が100mm以内であるか否かを判定する。なお、箱状の商品が把持できるか否かは、当該商品の重さで判定するようにしても良い。 The processor 41 estimates the width of the product from the four edges of the rectangular area of the product detected from the photographed image for product detection. The width of the product is assumed to be the width of the portion gripped by the gripping mechanisms 14b and 15b. In this case, as the gripping size of the box, the maximum width of the product that can be gripped from the sides of the product by the gripping mechanisms 14b and 15b of the arms 14 and 15 is set. For example, if the gripping size of the box is 100 mm, the processor 41 determines whether the width of the box-shaped product detected from the photographed image for product detection is within 100 mm. It should be noted that whether or not a box-shaped product can be gripped may be determined based on the weight of the product.

プロセッサ41は、レジ台3上にある箱状の商品の幅が箱の把持サイズを超えると判断した場合(ACT22、NO)、当該商品をアーム装置23で把持できないと判断する。当該商品を把持できないと判断した場合、プロセッサ41は、ACT24へ進み、アームスキャナ16を用いた商品特定情報の読取処理を行う。 When the processor 41 determines that the width of the box-shaped product on the cash register table 3 exceeds the gripping size of the box (ACT 22 , NO), it determines that the arm device 23 cannot grip the product. If it is determined that the product cannot be gripped, the processor 41 advances to ACT 24 and performs reading processing of product specific information using the arm scanner 16 .

当該商品の幅が箱の把持サイズ以内であると判断した場合(ACT22、YES)、プロセッサ41は、当該商品をアーム装置23で把持することをシステムコントローラ21に指示する。プロセッサ41は、レジ台3上を撮影した撮影画像に基づき、当該商品の位置を示す位置情報と、形状、大きさ、中心、向き等の当該商品の形状を示す形状情報とを特定する。プロセッサ41は、当該商品の位置情報および形状情報を当該商品が把持対象である旨とともにシステムコントローラ21へ通知する。 When determining that the width of the product is within the gripping size of the box (ACT 22 , YES), the processor 41 instructs the system controller 21 to grip the product with the arm device 23 . The processor 41 identifies position information indicating the position of the product and shape information indicating the shape of the product, such as shape, size, center, and direction, based on the photographed image of the register table 3 . The processor 41 notifies the system controller 21 of the position information and shape information of the product, together with the fact that the product is to be gripped.

システムコントローラ21のプロセッサ31は、商品読取装置22からの情報に基づいて、当該商品をアーム装置23で把持するための把持設定を行う(ACT22)。当該商品が箱状である場合、プロセッサ31は、箱状の商品を把持するためのアルゴリズムと当該商品の位置情報と形状情報とに基づいて当該商品に対する把持設定を行う。 Based on the information from the product reading device 22, the processor 31 of the system controller 21 performs gripping settings for gripping the product with the arm device 23 (ACT 22). If the product is box-shaped, the processor 31 performs gripping settings for the product based on an algorithm for gripping a box-shaped product and position information and shape information of the product.

図6は、箱状の商品P2を2つのアーム14および15で把持した状態の例を説明するための図である。
図6に示す例において、アーム装置23は、各アーム部14a、15aの先端部に設けた把持機構14b、15bで箱状の商品の両側を把持するものとする。たとえば、アーム装置23は、商品に対して垂直方向の上方からレジ台3に向かって各アーム部14a、15aの先端部(把持機構14b、15b)を動かして商品の両側を把持する。プロセッサ31は、アーム装置23が上述したような動作で商品の両側を把持できるように、当該商品の位置情報および形状情報に応じた把持設定を行う。
FIG. 6 is a diagram for explaining an example of a state in which a box-shaped product P2 is gripped by two arms 14 and 15. As shown in FIG.
In the example shown in FIG. 6, the arm device 23 grips both sides of a box-shaped product with gripping mechanisms 14b and 15b provided at the tip portions of the respective arm portions 14a and 15a. For example, the arm device 23 moves the tips of the arms 14a and 15a (grasping mechanisms 14b and 15b) toward the cash register table 3 from above in the direction perpendicular to the product to grip both sides of the product. The processor 31 performs gripping settings according to the position information and shape information of the product so that the arm device 23 can grip both sides of the product by the above-described operation.

また、レジ台3上にある商品の形状が筒状であると判断した場合(ACT21、NO)、プロセッサ41は、当該商品をアーム装置23で把持できない形状であると判断する。当該商品をアーム装置23で把持できないと判断した場合、プロセッサ41は、ACT24へ進み、アームスキャナ16による商品特定情報の読取処理を行う。 When determining that the shape of the product on the cash register table 3 is cylindrical (ACT 21 , NO), the processor 41 determines that the shape of the product cannot be gripped by the arm device 23 . If it is determined that the product cannot be gripped by the arm device 23, the processor 41 proceeds to ACT 24 and performs reading processing of the product specific information by the arm scanner 16. FIG.

システムコントローラ21による商品の把持設定が実施されると、アーム装置23のプロセッサ51は、把持設定に従って各アーム14.15を駆動させて商品を把持する(ACT30)。
たとえば、袋状の商品を把持する場合、プロセッサ51は、把持設定に従って把持機構14bを商品の外側から当該商品の中心に向かって動かして商品の一端を摘まむ。把持機構14bが商品の一端を摘まんだ後、プロセッサ51は、図5に示すように、第2アーム15を把持設定に従って動かして把持機構15bで当該商品の反対側の一端を摘まむ。これにより、アーム装置23は、2つのアーム14、15で商品の両端を摘まむように把持する。
When the system controller 21 implements the product gripping settings, the processor 51 of the arm device 23 drives the arms 14 and 15 according to the gripping settings to grip the product (ACT 30).
For example, when gripping a bag-shaped product, the processor 51 moves the gripping mechanism 14b from the outside of the product toward the center of the product according to the grip setting to pick up one end of the product. After the gripping mechanism 14b picks one end of the product, the processor 51 moves the second arm 15 according to the gripping setting to pick up the opposite end of the product with the gripping mechanism 15b, as shown in FIG. As a result, the arm device 23 grips both ends of the product with the two arms 14 and 15 .

また、箱状の商品を把持する場合、プロセッサ51は、把持設定で指定される位置に基づいてアーム14、15の先端部(把持機構)をレジ台3の上方から当該商品の両側に動かす。プロセッサ51は、アーム14で商品の一端部を上から把持し、アーム15で当該商品の他端部を把持する。これにより、アーム装置23は、図6に示すように、2つのアーム14、15で商品の両側をそれぞれ把持する。 When gripping a box-shaped product, the processor 51 moves the tip portions (gripping mechanisms) of the arms 14 and 15 from above the cash register table 3 to both sides of the product based on the position designated by the grip setting. The processor 51 grips one end of the product with the arm 14 and grips the other end of the product with the arm 15 . Thereby, the arm device 23 grips both sides of the product with the two arms 14 and 15, respectively, as shown in FIG.

アーム14、15が商品を把持すると、プロセッサ51は、システムコントローラ21の指示に応じて、把持した商品を持ち上げてスキャナ13の読取位置までに移動させる(ACT31)。持ち上げた商品をスキャナ13の読取位置まで移動させると、プロセッサ51は、当該商品をスキャナ13の読取位置において所定の方向および角度で回転させる(ACT32)。プロセッサ51は、システムコントローラ21が指定する回転手順でアーム14、15が把持する商品を回転させる。 When the arms 14 and 15 grip the product, the processor 51 lifts the gripped product and moves it to the reading position of the scanner 13 according to instructions from the system controller 21 (ACT 31). When the lifted product is moved to the reading position of the scanner 13, the processor 51 rotates the product in a predetermined direction and angle at the reading position of the scanner 13 (ACT32). The processor 51 rotates the product gripped by the arms 14 and 15 according to the rotation procedure designated by the system controller 21 .

たとえば、プロセッサ51は、商品を前方向(スキャナ13に向かって下方向)に90回転させた後、前方向とは逆の後方向に180℃回転させる。なお、商品が箱状であれば、システムコントローラ21は、箱の側面がスキャナ13で読み取れるように前方向及び後方向とは直交する横方向に回転させても良い。 For example, the processor 51 rotates the item forward (downward toward the scanner 13) 90 degrees, and then rotates the item backward 180°. If the product is box-shaped, the system controller 21 may rotate the box in a lateral direction orthogonal to the forward and backward directions so that the scanner 13 can read the sides of the box.

アーム装置23により商品を回転させるとともに、システムコントローラ21のプロセッサ31は、当該商品の商品特定情報(バーコード)の読取りを商品読取装置22へ指示する。これに応じて、商品読取装置22のプロセッサ41は、スキャナ13を用いてアーム装置23が回転させる商品からバーコードを読み取る読取処理を行う(ACT33)。本実施形態では、スキャナ13が読取る商品特定情報がバーコードであるものとしている。 While the product is rotated by the arm device 23, the processor 31 of the system controller 21 instructs the product reading device 22 to read the product identification information (barcode) of the product. In response to this, the processor 41 of the product reading device 22 uses the scanner 13 to read the barcode from the product rotated by the arm device 23 (ACT 33). In this embodiment, the product identification information read by the scanner 13 is assumed to be a bar code.

すなわち、プロセッサ41は、アーム装置23が商品の回転させている間、スキャナ13によるバーコードの読取処理を実行する。スキャナ13は、アーム14、15によって読取位置で回転される商品の外観からバーコードを読取る。これにより、プロセッサ41は、スキャナ13が商品特定情報としてのバーコードを読取ったか否かを判断する(ACT34)。 That is, the processor 41 executes the barcode reading process by the scanner 13 while the arm device 23 rotates the product. The scanner 13 reads the bar code from the exterior of the product rotated to the reading position by the arms 14,15. Thereby, the processor 41 determines whether or not the scanner 13 has read the bar code as the product identification information (ACT34).

スキャナ13によりバーコードが読取れた場合(ACT34、YES)、プロセッサ41は、バーコードとして読取った商品特定情報を読取結果として出力する(ACT43)。たとえば、商品からバーコードが読取ると、プロセッサ41は、スキャナ13で読取ったバーコードで特定される商品を示す情報を通信装置25を介して精算装置2へ出力する。 If the barcode is read by the scanner 13 (ACT34, YES), the processor 41 outputs the product identification information read as the barcode as a read result (ACT43). For example, when a barcode is read from a product, processor 41 outputs information indicating the product specified by the barcode read by scanner 13 to settlement device 2 via communication device 25 .

また、スキャナ13によりバーコードが読み取れなかった場合(ACT34、NO)、プロセッサ41は、所定の条件に基づいてバーコードの読取処理をリトライするか否かを判断する(ACT35)。たとえば、プロセッサ41は、上述したアーム装置23による商品の回転を2回実行し、バーコードの読取りを試みるものとする。
スキャナ13によるバーコードの読取処理をリトライすると判断した場合(ACT35、YES)、プロセッサ41は、ACT32へ戻り、上述した処理を繰り返す。
If the barcode cannot be read by the scanner 13 (ACT34, NO), the processor 41 determines whether or not to retry the barcode reading process based on a predetermined condition (ACT35). For example, the processor 41 rotates the product by the arm device 23 described above twice and attempts to read the bar code.
When determining to retry the bar code reading process by the scanner 13 (ACT35, YES), the processor 41 returns to ACT32 and repeats the above-described process.

また、リトライしないと判断した場合(ACT35、NO)、プロセッサ41は、商品のパッケージを引き伸ばした状態でスキャナ13による商品特定情報(パーコード)の読取処理(引き伸ばし状態での読取処理)を実行するか否かを判断する(ACT36)。商品のパッケージを引き伸ばした状態とは、当該商品の両端を把持している2つのアーム14、15が把持位置間を引っ張った状態である。 If it is determined not to retry (ACT 35, NO), the processor 41 executes the process of reading the product identification information (parcode) by the scanner 13 while the package of the product is stretched (reading process in the stretched state). (ACT 36). The state in which the product package is stretched is a state in which the two arms 14 and 15 gripping both ends of the product are pulled between gripping positions.

商品パッケージの引き伸ばしは、商品のパッケージにおける折れやしわ等が原因でパッケージに印刷されているバーコードが読取れない場合であることを想定している。つまり、パッケージの両端(2つのアームによる把持位置間)を引っ張ってバーコードが読取れる可能性がある商品が引き伸ばしの対象となる。本実施形態では、袋状の商品に対して、引き伸ばし状態でのバーコードの読取処理を実行するものとする。この場合、プロセッサ41は、当該商品が袋状あるか否かにより、当該商品に対して引き伸ばし状態での読取処理を行うか否かを判断する。 Enlarging the product package assumes that the barcode printed on the package cannot be read due to folds, wrinkles, or the like in the product package. In other words, products whose barcodes can be read by pulling both ends of the package (between the gripping positions of the two arms) are subject to stretching. In the present embodiment, it is assumed that barcode reading processing is executed in a stretched state for bag-shaped products. In this case, the processor 41 determines whether or not to perform the reading process for the product in the stretched state based on whether the product is bag-shaped or not.

引き伸ばし状態での読取処理を実行すると判断した場合(ACT36、YES)、プロセッサ41は、システムコントローラ21に対して引き伸ばし状態での読取処理を実行する旨を指示する。引き伸ばし状態の読取処理の指示を受けると、システムコントローラ21のプロセッサ31は、アーム装置23に対して当該商品のパッケージを引き伸ばす指示を送る(ACT37)。 If the processor 41 determines to execute the reading process in the enlarged state (ACT36, YES), the processor 41 instructs the system controller 21 to execute the reading process in the enlarged state. Upon receiving the instruction to read the stretched state, the processor 31 of the system controller 21 sends an instruction to stretch the product package to the arm device 23 (ACT 37).

アーム装置23は、システムコントローラ21からの指示に応じて、両アーム14、15が把持している商品の両端を互いに引っ張るように動作させる。ここで、第1アーム14の把持機構14bと第2アーム15の把持機構15bとは、それぞれ商品の両端を把持している。このため、プロセッサ51は、把持機構14b(第1アーム14の把持位置)と把持機構15b(第2アーム15の把持位置)とを互いに反対向きに一定の動力で動かすように制御する。つまり、プロセッサ51は、各アーム14、15の把持位置間を一定の力で引っ張るように、アーム駆動機構54でアーム部14aとアーム部15aとを動作させる。把持位置間を一定の力で引っ張ると、アーム14、15は、商品のパッケージを引き伸ばした状態で当該商品の両端を把持するものとなる。 The arm device 23 operates according to an instruction from the system controller 21 so as to mutually pull both ends of the product gripped by the arms 14 and 15 . Here, the gripping mechanism 14b of the first arm 14 and the gripping mechanism 15b of the second arm 15 respectively grip both ends of the product. Therefore, the processor 51 controls the gripping mechanism 14b (gripping position of the first arm 14) and the gripping mechanism 15b (gripping position of the second arm 15) to move in mutually opposite directions with constant power. That is, the processor 51 causes the arm drive mechanism 54 to operate the arm portions 14a and 15a so as to pull the arms 14 and 15 between the gripping positions with a constant force. When the arms 14 and 15 are pulled between the gripping positions with a constant force, the arms 14 and 15 grip both ends of the product while the package of the product is stretched.

把持位置間を引っ張ると、プロセッサ51は、把持位置間を引っ張った状態(パッケージを引き伸ばした状態)のままで把持する商品をスキャナ13の読取位置で回転させる(ACT38)。たとえば、アーム装置23のプロセッサ51は、把持位置間を引っ張った状態で当該商品をスキャナ13の読取位置に持ち上げる。スキャナ13の読取位置に当該商品を持ち上げた後、プロセッサ51は、当該商品をスキャナ13の読取位置において所定の方向および角度で回転させる。アーム14、15が引っ張った状態で把持する商品を回転させる回転手順は、上記ACT32と同様な手順であっても良い。 When the product is pulled between the gripping positions, the processor 51 rotates the gripped product to the reading position of the scanner 13 while the product is pulled between the gripping positions (the package is stretched) (ACT38). For example, the processor 51 of the arm device 23 lifts the product to the reading position of the scanner 13 while pulling the product between the gripping positions. After lifting the product to the reading position of the scanner 13, the processor 51 rotates the product at the reading position of the scanner 13 in a predetermined direction and angle. The rotation procedure for rotating the product to be gripped while being pulled by the arms 14 and 15 may be the same procedure as in ACT 32 described above.

アーム装置23に引き伸ばした状態の商品を回転させるとともに、システムコントローラ21のプロセッサ31は、当該商品のバーコード(商品特定情報)の読取りを商品読取装置22へ指示する。これに応じて、商品読取装置22のプロセッサ41は、スキャナ13を用いてアーム装置23が回転させる商品から商品特定情報としてのバーコードを読み取る処理を行う(ACT39)。 While the arm device 23 rotates the stretched product, the processor 31 of the system controller 21 instructs the product reading device 22 to read the bar code (product specific information) of the product. In response to this, the processor 41 of the product reading device 22 uses the scanner 13 to read the bar code as product identification information from the product rotated by the arm device 23 (ACT 39).

すなわち、プロセッサ41は、アーム装置23が引き伸ばした状態の商品の回転させている間、スキャナ13によるバーコードの読取処理を実行する。スキャナ13は、アーム14、15によって読取位置で回転される商品の外観からバーコードを読取る。これにより、プロセッサ41は、スキャナ13が商品特定情報としてのバーコードを読取ったか否かを判断する(ACT40)。 That is, the processor 41 executes the bar code reading process by the scanner 13 while the arm device 23 rotates the stretched product. The scanner 13 reads the bar code from the exterior of the product rotated to the reading position by the arms 14,15. Thereby, the processor 41 determines whether or not the scanner 13 has read the bar code as the product identification information (ACT 40).

スキャナ13によりバーコードが読取れた場合(ACT40、YES)、プロセッサ41は、バーコードとして読取った商品特定情報を読取結果として出力する(ACT43)。たとえば、商品からバーコードを読取ると、プロセッサ41は、スキャナ13で読取ったバーコードで特定される商品を示す情報を通信装置25を介して精算装置2へ出力する。 If the barcode is read by the scanner 13 (ACT 40, YES), the processor 41 outputs the product identification information read as the barcode as a read result (ACT 43). For example, when a barcode is read from a product, processor 41 outputs information indicating the product specified by the barcode read by scanner 13 to settlement device 2 via communication device 25 .

また、スキャナ13が商品特定情報を読み取れなかった場合(ACT40、NO)、プロセッサ41は、所定の条件に基づいて引き伸ばした状態での読取処理をリトライするか否かを判断する(ACT41)。引き伸ばした状態でのバーコードの読取処理をリトライすると判断した場合(ACT35、YES)、プロセッサ41は、ACT38へ戻り、上述した処理を繰り返す。 If the scanner 13 fails to read the product identification information (ACT 40, NO), the processor 41 determines whether or not to retry the reading process in the stretched state based on a predetermined condition (ACT 41). If it is determined to retry the process of reading the bar code in the stretched state (ACT35, YES), the processor 41 returns to ACT38 and repeats the above-described process.

リトライしないと判断した場合(ACT41、NO)、プロセッサ41は、カメラ12が撮影する撮影画像による商品認識処理(商品特定情報の読取処理)を実行する(ACT42)。カメラ12の撮影画像による商品認識処理は、汚れなどでバーコードが読取れなかった商品を処理対象として想定する。商品認識処理において、プロセッサ41は、アーム装置23が把持する商品をカメラ12で撮影し、カメラ12が撮影した撮影画像から商品を認識する。商品認識処理については、後で詳細説明するものとする。 If it is determined not to retry (ACT41, NO), the processor 41 executes product recognition processing (reading processing of product identification information) using the image captured by the camera 12 (ACT42). Product recognition processing based on images captured by the camera 12 assumes products whose barcodes cannot be read due to dirt or the like to be processed. In product recognition processing, the processor 41 captures an image of the product gripped by the arm device 23 with the camera 12 and recognizes the product from the captured image captured by the camera 12 . The product recognition processing will be described later in detail.

プロセッサ41は、商品認識処理による認識結果を商品特定情報の読取結果として出力する(ACT43)。たとえば、商品認識処理で商品が認識できなかった場合、プロセッサ41は、通信装置25を介して商品特定情報が読取れなった旨を精算装置2へ出力する。商品認識処理で商品が認識できた場合、プロセッサ41は、通信装置25を介して認識した商品を示す情報を精算装置2へ出力する。 The processor 41 outputs the recognition result of the product recognition process as the reading result of the product specifying information (ACT43). For example, if the product cannot be recognized in the product recognition process, the processor 41 outputs to the settlement device 2 via the communication device 25 that the product specifying information could not be read. When the product is recognized by the product recognition process, the processor 41 outputs information indicating the recognized product to the settlement device 2 via the communication device 25 .

次に、アームスキャナ16によるバーコードの読取処理について説明する。
図7は、アームスキャナ16によるバーコードの読取処理の動作例を説明するためのフローチャートである。
上述した動作例によれば、本システムは、形状が袋状又は箱状でない商品、或は、サイズが規定値を超える商品をアームスキャナ16による読取処理の対象とする。アームスキャナ16は、アーム14の先端部に設けられ、アーム14の移動によって読取位置が動作する。アームスキャナ16による読取処理では、レジ台3に置かれた商品に沿ってアーム14の先端部を動かすことによりアームスキャナ16で商品面をスキャンする。
Next, barcode reading processing by the arm scanner 16 will be described.
FIG. 7 is a flowchart for explaining an operation example of barcode reading processing by the arm scanner 16 .
According to the operation example described above, the present system targets products that are not bag-shaped or box-shaped, or products that exceed a specified size for reading processing by the arm scanner 16 . The arm scanner 16 is provided at the tip of the arm 14, and the reading position moves as the arm 14 moves. In the reading process by the arm scanner 16 , the product surface is scanned by the arm scanner 16 by moving the tip of the arm 14 along the product placed on the register table 3 .

商品読取装置22のプロセッサ41は、商品がアームスキャナ16による読取処理の対象と判断すると、システムコントローラ21へアームスキャナ16による読取処理を要求する。また、プロセッサ41は、カメラ12が撮影した商品検出用の画像から特定した種々の情報(商品の形状、商品の中心位置、商品のエッジ位置など)をシステムコントローラ21へ供給する。アームスキャナ16による読取処理を実行する場合、システムコントローラ21のプロセッサ31は、当該商品の形状を確認する。 When the processor 41 of the product reading device 22 determines that the product is to be read by the arm scanner 16 , it requests the system controller 21 to read the product by the arm scanner 16 . The processor 41 also supplies the system controller 21 with various types of information (product shape, product center position, product edge position, etc.) specified from the image for product detection captured by the camera 12 . When executing reading processing by the arm scanner 16, the processor 31 of the system controller 21 confirms the shape of the product.

当該商品が袋状と判断した場合(ACT61、YES)、システムコントローラ21のプロセッサ31は、商品の上面をスキャナするようにアームスキャナ16を動かすことをアーム装置23へ指示する。たとえば、プロセッサ31は、当該商品のエッジ位置に基づいてアームスキャナ16がスキャンする位置(移動経路)を決定する。 When determining that the product is bag-shaped (ACT61, YES), the processor 31 of the system controller 21 instructs the arm device 23 to move the arm scanner 16 so as to scan the upper surface of the product. For example, the processor 31 determines the position (moving path) to be scanned by the arm scanner 16 based on the edge position of the product.

たとえば、プロセッサ31は、当該商品の4隅と推定される4つのエッジを結ぶようにロの字型にアームスキャナ16を移動させる第1経路を設定する。さらに、プロセッサ31は、第1経路でバーコードが読取れなかった場合に4つのエッジからなる対角線に沿ってアームスキャナ16を移動させる第2経路を設定する。これにより、アームスキャナ16は、レジ台3上に置かれた商品の上面を全体的にスキャナすることが可能となる。また、第1経路と第2経路とを設定することで、アームスキャナ16は、第1経路で商品の外周付近を先にスキャナした後に第2経路で商品全体をスキャナできる。 For example, the processor 31 sets the first path for moving the arm scanner 16 in a square shape so as to connect the four edges presumed to be the four corners of the product. Further, the processor 31 sets a second path along which the arm scanner 16 is moved along a diagonal line consisting of four edges if the bar code cannot be read on the first path. As a result, the arm scanner 16 can scan the entire top surface of the product placed on the cash register table 3 . Further, by setting the first path and the second path, the arm scanner 16 can first scan the vicinity of the periphery of the product on the first path and then scan the entire product on the second path.

アーム装置23のプロセッサ51は、システムコントローラ21からの指示に従ってアームスキャナ16を移動させて袋状の商品の上面をスキャンする(ACT62)。プロセッサ51は、アーム駆動機構54によりシステムコントローラ21から指示される経路をアームスキャナ16が移動するようにアーム14を駆動させる。アームスキャナ16は、アーム14によってスキャン位置を移動しながらレジ台3上に置かれた袋状の商品の上面からバーコードをスキャンする。 The processor 51 of the arm device 23 moves the arm scanner 16 according to the instruction from the system controller 21 to scan the upper surface of the bag-shaped product (ACT62). The processor 51 drives the arm 14 so that the arm scanner 16 moves along the path instructed by the system controller 21 by the arm drive mechanism 54 . The arm scanner 16 scans the bar code from the upper surface of the bag-like product placed on the register table 3 while moving the scanning position by the arm 14 .

アーム装置23のプロセッサ51は、アームスキャナ16による読取り結果をシステムコントローラ21へ供給する。システムコントローラ21のプロセッサ31は、アーム装置23からのバーコードの読取結果を商品特定情報の読取結果として通信装置25を介して精算装置2へ出力する。 The processor 51 of the arm device 23 supplies the result of reading by the arm scanner 16 to the system controller 21 . The processor 31 of the system controller 21 outputs the reading result of the bar code from the arm device 23 to the settlement device 2 via the communication device 25 as the reading result of the commodity specifying information.

また、当該商品が箱状と判断した場合(ACT63、YES)、システムコントローラ21のプロセッサ31は、商品の上面をスキャナするようにアームスキャナ16を動かすことをアーム装置23へ指示する。たとえば、プロセッサ31は、当該商品のエッジ位置に基づいてアームスキャナ16がスキャンする位置(移動経路)を決定する。たとえば、プロセッサ31は、上述した例と同様、商品の4隅と推定される4つのエッジを結ぶロの字型の第1経路と4つのエッジの対角線に沿う第2経路とを設定する。 If the product is box-shaped (ACT63, YES), the processor 31 of the system controller 21 instructs the arm device 23 to move the arm scanner 16 so as to scan the upper surface of the product. For example, the processor 31 determines the position (moving path) to be scanned by the arm scanner 16 based on the edge position of the product. For example, the processor 31 sets the square-shaped first route connecting the four edges presumed to be the four corners of the product and the second route along the diagonals of the four edges, as in the above example.

アーム装置23のプロセッサ51は、システムコントローラ21からの指示に従ってアームスキャナ16を移動させて箱状の商品の上面をスキャンする(ACT64)。プロセッサ51は、アーム駆動機構54によりシステムコントローラ21から指示される経路をアームスキャナ16が移動するようにアーム14を駆動させる。アームスキャナ16は、アーム14によってスキャン位置を移動しながらレジ台3上に置かれた箱状の商品の上面からバーコードをスキャンする。 The processor 51 of the arm device 23 moves the arm scanner 16 according to the instruction from the system controller 21 to scan the upper surface of the box-shaped product (ACT64). The processor 51 drives the arm 14 so that the arm scanner 16 moves along the path instructed by the system controller 21 by the arm drive mechanism 54 . The arm scanner 16 scans the bar code from the upper surface of the box-shaped product placed on the register table 3 while moving the scanning position by the arm 14 .

アーム装置23のプロセッサ51は、アームスキャナ16によるバーコードの読取結果をシステムコントローラ21へ供給する。システムコントローラ21のプロセッサ31は、アーム装置23からの読取結果によってアームスキャナ16が当該商品の上面からバーコードを読み取れたか否かを判断する(ACT65)。商品の上面からバーコードが読取れた場合(ACT65、NO)、プロセッサ31は、バーコードの読取結果を通信装置25を介して精算装置2へ出力する。 The processor 51 of the arm device 23 supplies the result of reading the bar code by the arm scanner 16 to the system controller 21 . The processor 31 of the system controller 21 determines whether or not the arm scanner 16 has read the bar code from the upper surface of the product based on the reading result from the arm device 23 (ACT65). If the barcode is read from the upper surface of the product (ACT65, NO), the processor 31 outputs the barcode reading result to the settlement device 2 via the communication device 25 .

商品の上面からバーコードが読取れなかった場合(ACT65、YES)、プロセッサ31は、当該商品の側面をアームスキャナ16でスキャンすることをアーム装置23へ指示する。たとえば、プロセッサ31は、当該商品のエッジ位置に基づいてアームスキャナ16が当該商品の側面をスキャンするための経路を設定する。 If the barcode cannot be read from the upper surface of the product (ACT65, YES), the processor 31 instructs the arm device 23 to scan the side surface of the product with the arm scanner 16 . For example, processor 31 sets a path for arm scanner 16 to scan the sides of the item based on the edge position of the item.

アーム装置23のプロセッサ51は、システムコントローラ21からの指示に従ってアームスキャナ16を移動させて箱状の商品の側面をスキャンする(ACT66)。プロセッサ51は、アーム駆動機構54によりアームスキャナ16をレジ台3上の商品の側面に沿って移動させながら当該商品の側面からバーコードをスキャンする。システムコントローラ21のプロセッサ31は、アーム装置23からのバーコードの読取結果を商品特定情報の読取結果として通信装置25を介して精算装置2へ出力する。 The processor 51 of the arm device 23 moves the arm scanner 16 according to the instruction from the system controller 21 to scan the sides of the box-shaped product (ACT66). The processor 51 moves the arm scanner 16 along the side of the product on the register table 3 by the arm drive mechanism 54 and scans the bar code from the side of the product. The processor 31 of the system controller 21 outputs the reading result of the bar code from the arm device 23 to the settlement device 2 via the communication device 25 as the reading result of the commodity specifying information.

当該商品が筒状(袋状でも箱状でもない)と判断した場合(ACT63、NO)、システムコントローラ21のプロセッサ31は、レジ台3上の商品の高さが所定高(たとえば、高さ100mm)以内であるか否かを判断する(ACT70)。ここで、商品の高さとは、レジ台3の上面(商品の載置面)からレジ台3に置かれた状態の商品の最上部までの高さである。商品の高さは、たとえば、カメラ12が撮影する撮影画像から推定する。また、商品の高さを検知する高さ検知用のセンサを設けても良い。所定高は、アーム14を商品の上方で動かせるかを判断する閾値である。つまり、アーム14は、所定高よりも低い位置では自在に動くことができ、所定高以上の高さでは自在に動けないものとする。 When it is determined that the product is cylindrical (neither bag-like nor box-like) (ACT 63, NO), the processor 31 of the system controller 21 determines that the height of the product on the register table 3 is a predetermined height (for example, 100 mm). ) is determined (ACT70). Here, the height of the product is the height from the upper surface of the register table 3 (the surface on which the product is placed) to the top of the product placed on the register table 3 . The height of the product is estimated, for example, from the captured image captured by the camera 12 . Also, a height detection sensor for detecting the height of the product may be provided. The predetermined height is a threshold for determining whether the arm 14 can be moved above the product. In other words, the arm 14 can move freely at a position lower than a predetermined height, and cannot move freely at a height higher than the predetermined height.

商品の高さが所定高以内である場合(ACT70、YES)、プロセッサ31は、アーム14を商品の上方で動かすことによりアームスキャナ16で商品の周面からバーコードを読取る(ACT71)。すなわち、筒状の高さが所定高以内の商品に対しては、アーム部14aを商品の上方で円を描くように動かしてアームスキャナ16で商品の周面を読取る。 If the height of the product is within the predetermined height (ACT70, YES), the processor 31 moves the arm 14 above the product to read the bar code from the peripheral surface of the product with the arm scanner 16 (ACT71). That is, for products whose cylindrical height is within a predetermined height, the arm portion 14a is moved in a circle above the product, and the arm scanner 16 reads the peripheral surface of the product.

図8は、筒状の商品P3の高さが所定高以内である場合のアームスキャナ16の動作例を説明するための図である。
本実施形態において、アーム14は、所定高以内の低い位置では自在に動くことができるものとしている。このため、商品の高さが所定高以内であれば、アーム14は、商品の上方を自在に移動できる。この結果、アーム部14aを商品の上方で動かして商品の上方から延びるアーム部14aの先端部に設けたアームスキャナ16が商品の周面を自在に移動できることとなる。図8に示す例では、アーム部14aは、商品の上方を含む空間において、矢印b1で示すように動かす。アーム部14aの先端部に設けたアームスキャナ16は、矢印b2で示すように、商品の上方を含む空間を動くアーム部14aの動作に伴って商品の周面に沿って移動する。
FIG. 8 is a diagram for explaining an operation example of the arm scanner 16 when the height of the cylindrical product P3 is within a predetermined height.
In this embodiment, the arm 14 can freely move at a low position within a predetermined height. Therefore, if the height of the product is within a predetermined height, the arm 14 can freely move above the product. As a result, the arm portion 14a is moved above the product so that the arm scanner 16 provided at the tip of the arm portion 14a extending from above the product can freely move along the peripheral surface of the product. In the example shown in FIG. 8, the arm portion 14a is moved as indicated by an arrow b1 in a space including above the product. The arm scanner 16 provided at the tip of the arm portion 14a moves along the peripheral surface of the product as the arm portion 14a moves in the space including above the product, as indicated by the arrow b2.

システムコントローラ21のプロセッサ31は、アームスキャナ16を商品の周面において所定の角度分(たとえば360度)動かてばバーコードをスキャンするようアーム装置23に指示する。ただし、商品の周面においてスキャナ13に対向する面のバーコードは、スキャナ13が読取れるものとしても良い。この場合、アームスキャナ16は、商品の周面に沿って270度程度移動するものとしても良い。 The processor 31 of the system controller 21 instructs the arm device 23 to scan the barcode when the arm scanner 16 is moved by a predetermined angle (for example, 360 degrees) on the peripheral surface of the product. However, the bar code on the peripheral surface of the product facing the scanner 13 may be read by the scanner 13 . In this case, the arm scanner 16 may move about 270 degrees along the peripheral surface of the product.

アーム装置23のプロセッサ51は、システムコントローラ21からの指示に従ってアームスキャナ16が商品の周面に沿って移動するようにアーム駆動機構54によりアーム14を駆動させる。これにより、アームスキャナ16は、レジ台3上に置かれた商品の周面に沿って移動しながら商品の周面に印刷されているバーコードをスキャンする。 The processor 51 of the arm device 23 drives the arm 14 by the arm driving mechanism 54 so that the arm scanner 16 moves along the peripheral surface of the product according to the instruction from the system controller 21 . Thereby, the arm scanner 16 scans the bar code printed on the peripheral surface of the product while moving along the peripheral surface of the product placed on the cash register table 3 .

アーム装置23のプロセッサ51は、アームスキャナ16によるバーコードの読取結果をシステムコントローラ21へ供給する。システムコントローラ21のプロセッサ31は、アーム装置23からのバーコードの読取結果を当該商品の商品特定情報として通信装置25を介して精算装置2へ出力する。 The processor 51 of the arm device 23 supplies the result of reading the bar code by the arm scanner 16 to the system controller 21 . The processor 31 of the system controller 21 outputs the reading result of the bar code from the arm device 23 to the settlement device 2 via the communication device 25 as product identification information of the product.

また、商品の高さが所定高を超える場合(ACT70、YES)、プロセッサ31は、アーム14を商品の側方で動かすことによりアームスキャナ16で商品の周面からバーコードを読取る。アーム14を商品の側方で動かす場合、アームスキャナ16を360度回転させることは難しい。このため、プロセッサ31は、商品の周面を幾つかの領域ごとに分けてバーコードのスキャンを実施する。本実施形態では、商品を上部と下部とに分けて下部および上部をそれぞれ半周分ずつスキャンする動作例について説明する。 If the height of the product exceeds the predetermined height (ACT70, YES), the processor 31 causes the arm scanner 16 to read the bar code from the peripheral surface of the product by moving the arm 14 to the side of the product. It is difficult to rotate the arm scanner 16 360 degrees when moving the arm 14 to the side of the product. Therefore, the processor 31 divides the circumferential surface of the product into several areas and scans the barcode. In the present embodiment, an operation example will be described in which a product is divided into an upper portion and a lower portion, and the lower portion and the upper portion are each scanned by half the circumference.

図9は、筒状の商品P4の高さが所定高を超える場合のアームスキャナ16の動作例を説明するための図である。
図9に示す例では、アーム14の先端に設けたアームスキャナ16で、筒状の商品P4の下部の周面と上部の周面とを半周分ずつスキャンする様子を示す。たとえば、アームスキャナ16は、矢印c1に示すように、商品P4の下部の初期位置から時計まわりに周面を半周してバーコードをスキャンする。これでバーコードが読取れなければ、アームスキャナ16は、矢印c2に示すように、商品P4の上部の初期位置へ移動して商品の周面を時計まわりに半周してバーコードをスキャンする。
FIG. 9 is a diagram for explaining an operation example of the arm scanner 16 when the height of the cylindrical product P4 exceeds a predetermined height.
In the example shown in FIG. 9, the arm scanner 16 provided at the tip of the arm 14 scans the lower peripheral surface and the upper peripheral surface of a cylindrical product P4 by half the circumference. For example, the arm scanner 16 scans the bar code clockwise from the initial position at the bottom of the article P4, as indicated by an arrow c1. If the barcode cannot be read, the arm scanner 16 moves to the initial position above the product P4 and rotates the peripheral surface of the product clockwise halfway to scan the barcode, as indicated by an arrow c2.

これでもバーコードが読取れなければ、アームスキャナ16は、再度、商品P4の下部の初期位置へ移動して商品P4の周面を反時計まわり(点線の矢印c3)に半周してバーコードをスキャンする。これでもバーコードが読取れなければ、アームスキャナ16は、再度、商品P4の上部の初期位置へ移動して商品P4の周面を反時計まわりに半周してバーコードをスキャンする。これらの動作によって、アーム14は、商品P4の側方からアームスキャナ16を動かすことで、商品P4の周面全体をアームスキャナ16でスキャンする。 If the barcode is still unreadable, the arm scanner 16 moves again to the initial position under the product P4, rotates the peripheral surface of the product P4 halfway counterclockwise (dotted arrow c3), and scans the barcode. to scan. If the barcode is still unreadable, the arm scanner 16 moves again to the initial position above the product P4 and rotates counterclockwise halfway around the peripheral surface of the product P4 to scan the barcode. By these operations, the arm 14 moves the arm scanner 16 from the side of the product P4, thereby scanning the entire circumferential surface of the product P4 with the arm scanner 16.

まず、プロセッサ31は、アームスキャナ16を商品の下部の初期位置から商品の周面に沿って時計周りに半周分移動させてバーコードをスキャンすることをアーム装置23へ指示する。アーム装置23のプロセッサ51は、アーム14を動作させてアームスキャナ16を商品の下部の初期位置へ移動させる。アームスキャナ16を商品の下部の初期位置に移動させると、プロセッサ51は、アーム14を当該商品の側方で動作させてアームスキャナ16を商品の周面に沿って時計周りに半周分移動させる(ACT72)。これにより、アームスキャナ16は、商品の下部における半周分の周面にあるバーコードをスキャンする。 First, the processor 31 instructs the arm device 23 to scan the bar code by moving the arm scanner 16 clockwise halfway along the circumference of the product from the initial position under the product. The processor 51 of the arm device 23 operates the arm 14 to move the arm scanner 16 to the initial position below the product. When the arm scanner 16 is moved to the initial position under the product, the processor 51 moves the arm 14 to the side of the product to move the arm scanner 16 half clockwise along the peripheral surface of the product ( ACT 72). Thereby, the arm scanner 16 scans the bar code on the lower half of the peripheral surface of the product.

商品の下部における半周分の周面からバーコードが読取れなかった場合(ACT73、YES)、プロセッサ31は、商品の上部の半周面を時計周りにスキャンすることをアーム装置23へ指示する。アーム装置23のプロセッサ51は、システムコントローラ21からの指示に応じてアーム14を動作させてアームスキャナ16を商品の上部の初期位置へ移動させる。アームスキャナ16が商品の上部の初期位置に移動すると、プロセッサ51は、アーム14を商品の側方で動作させることで、アームスキャナ16を商品の周面に沿って時計周りに半周分移動させる(ACT74)。これにより、アームスキャナ16は、商品の上部における半周分の周面にあるバーコードをスキャンする。 If the barcode cannot be read from the lower half circumference of the product (ACT73, YES), the processor 31 instructs the arm device 23 to scan the upper half circumference of the product clockwise. The processor 51 of the arm device 23 operates the arm 14 according to the instruction from the system controller 21 to move the arm scanner 16 to the initial position above the product. When the arm scanner 16 moves to the initial position above the product, the processor 51 moves the arm scanner 16 along the peripheral surface of the product by moving the arm 14 to the side of the product by a half clockwise rotation ( ACT 74). Thereby, the arm scanner 16 scans the bar code on the upper half circumference of the product.

商品の上部における半周分の周面からバーコードが読取れなかった場合(ACT75、YES)、プロセッサ31は、商品の下部の残りの半周面をスキャンすることをアーム装置23へ指示する。アーム装置23のプロセッサ51は、システムコントローラ21からの指示に応じてアーム14を動作させてアームスキャナ16を商品の下部の初期位置へ移動させる。アームスキャナ16が商品の下部の初期位置に移動すると、プロセッサ51は、アーム14を商品の側方で動作させることで、アームスキャナ16を商品の周面に沿って反時計周りに半周分移動させる(ACT76)。これにより、アームスキャナ16は、商品の下部における残りの半周分の周面にあるバーコードをスキャンする。 If the barcode cannot be read from the upper half circumference of the product (ACT75, YES), the processor 31 instructs the arm device 23 to scan the remaining lower half circumference of the product. The processor 51 of the arm device 23 operates the arm 14 according to an instruction from the system controller 21 to move the arm scanner 16 to the initial position below the product. When the arm scanner 16 moves to the initial position under the product, the processor 51 moves the arm scanner 16 along the peripheral surface of the product counterclockwise halfway by operating the arm 14 on the side of the product. (ACT 76). Thereby, the arm scanner 16 scans the bar code on the remaining half circumference of the lower part of the product.

商品の下部における残りの半周分の周面からもバーコードが読取れなかった場合(ACT77、YES)、プロセッサ31は、商品の上部の残りの半周面をスキャンすることをアーム装置23へ指示する。アーム装置23のプロセッサ51は、システムコントローラ21からの指示に応じてアーム14を動作させてアームスキャナ16を商品の上部の初期位置へ移動させる。アームスキャナ16が商品の上部の初期位置に移動すると、プロセッサ51は、アーム14を商品の側方で動作させることで、アームスキャナ16を商品の周面に沿って反時計周りに半周分移動させる(ACT78)。これにより、アームスキャナ16は、商品の上部における残りの半周分の周面にあるバーコードをスキャンする。 If the barcode cannot be read from the remaining half of the circumference of the lower part of the product (ACT77, YES), the processor 31 instructs the arm device 23 to scan the remaining half of the upper part of the product. . The processor 51 of the arm device 23 operates the arm 14 according to the instruction from the system controller 21 to move the arm scanner 16 to the initial position above the product. When the arm scanner 16 moves to the initial position above the product, the processor 51 moves the arm 14 to the side of the product, thereby moving the arm scanner 16 counterclockwise halfway around the product. (ACT78). Thereby, the arm scanner 16 scans the bar code on the remaining half circumference of the upper part of the product.

システムコントローラ21のプロセッサ31は、上記のように動作させるアーム装置23からアームスキャナ16によるバーコードの読取結果を取得する。システムコントローラ21のプロセッサ31は、アーム装置23からのバーコードの読取結果を当該商品の商品特定情報として通信装置25を介して精算装置2へ出力する。 The processor 31 of the system controller 21 acquires the reading result of the bar code by the arm scanner 16 from the arm device 23 operated as described above. The processor 31 of the system controller 21 outputs the reading result of the bar code from the arm device 23 to the settlement device 2 via the communication device 25 as product identification information of the product.

次に、カメラ12が撮影する撮影画像に対する商品認識処理について説明する。
図10は、カメラ12が撮影する撮影画像に対する商品認識処理の動作例を説明するためのフローチャートである。
上述した図3及び図4に示す動作例において、システムコントローラ21は、スキャナ13でバーコードが読取れない場合にカメラ12の撮影画像による商品認識処理を実行する。システムコントローラ21は、カメラ12の撮影画像による商品認識処理を行う場合、カメラ12の撮影位置へ商品を移動するようにアーム装置23へ指示する。アーム装置23のプロセッサ51は、システムコントローラ21からの指示に従ってアーム14、15が把持する商品をカメラ12の撮影位置へ移動させる(ACT81)。
Next, description will be given of product recognition processing for a captured image captured by the camera 12. FIG.
FIG. 10 is a flow chart for explaining an operation example of product recognition processing for a captured image captured by the camera 12 .
In the operation examples shown in FIGS. 3 and 4 described above, the system controller 21 executes product recognition processing based on the image captured by the camera 12 when the barcode cannot be read by the scanner 13 . The system controller 21 instructs the arm device 23 to move the product to the photographing position of the camera 12 when product recognition processing is performed using the image captured by the camera 12 . The processor 51 of the arm device 23 moves the product gripped by the arms 14 and 15 to the photographing position of the camera 12 according to the instruction from the system controller 21 (ACT81).

商品がカメラ12の撮影位置へ移動すると、システムコントローラ21は、商品特定情報を含む画像を撮影するため、アーム14、15が把持する商品を回転させる。システムコントローラ21は、アーム装置23で商品を回転させながら商品読取装置22でカメラ12が撮影する撮影画像から商品特定情報の画像を検出するものとする。 When the product moves to the photographing position of the camera 12, the system controller 21 rotates the product gripped by the arms 14 and 15 in order to photograph the image containing the product specific information. It is assumed that the system controller 21 detects the image of the product identification information from the image captured by the camera 12 of the product reading device 22 while rotating the product with the arm device 23 .

本実施形態では、商品をカメラ12に向かって前後方向(前方(手前)とその逆の後方)に所定角度(たとえば、15度)ずつ回転させてカメラ12が撮影する画像から商品特定情報の画像を検出するものとする。また、本実施形態では、汚れ等によってスキャナ13でバーコードが読取れなかった場合を想定し、バーコード領域においてバーコードの下側に付記される数字列によって商品を認識するものとする。このため、以下の処理では、商品読取装置は、商品特定情報の画像としてバーコード領域の画像(バーコード画像)を検出し、バーコード画像における数字列から商品を認識するものとする。 In this embodiment, the product is rotated by a predetermined angle (for example, 15 degrees) in the front-rear direction (forward (front) and backward) toward the camera 12, and the image of the product-specific information is obtained from the image captured by the camera 12. shall be detected. In this embodiment, assuming that the barcode cannot be read by the scanner 13 due to dirt or the like, the commodity is recognized by the number string appended below the barcode in the barcode area. Therefore, in the following processing, the product reading device detects the image of the barcode area (barcode image) as the image of the product identification information, and recognizes the product from the number string in the barcode image.

すなわち、システムコントローラ21は、アーム14、15が把持する商品の回転させる角度を決定し、決定した角度での商品の回転をアーム装置23へ指示する。アーム装置23は、システムコントローラ21からの指示に応じてアーム14、15が把持する商品を回転させる(ACT82)。たとえば、システムコントローラ21は、商品を前方(手前)に所定角度(たとえば、15度)ずつ回転させる。前方への回転角度が90度に達すると、システムコントローラ21は、当該商品を後方に所定角度(たとえば、15度)ずつ回転させ、後方への回転角度が180度に達するまで商品を回転させる。 That is, the system controller 21 determines the angle to rotate the product gripped by the arms 14 and 15, and instructs the arm device 23 to rotate the product at the determined angle. The arm device 23 rotates the product gripped by the arms 14 and 15 according to the instruction from the system controller 21 (ACT82). For example, the system controller 21 rotates the product forward (front) by a predetermined angle (for example, 15 degrees). When the forward rotation angle reaches 90 degrees, the system controller 21 rotates the product backward by a predetermined angle (for example, 15 degrees) until the backward rotation angle reaches 180 degrees.

アーム装置23が商品を回転させると、システムコントローラ21は、商品読取装置22にカメラ12による撮影画像からの商品特定情報の画像(バーコード画像)の検出を指示する。商品読取装置22のプロセッサ41は、システムコントローラ21からの指示に応じてカメラ12により画像を撮影する(ACT83)。カメラ12が画像を撮影すると、商品読取装置22のプロセッサ41は、カメラ12が撮影した撮影画像からバーコード画像を検出する(ACT84)。商品読取装置22のプロセッサ41は、バーコード画像の検出の有無を示す情報をシステムコントローラ21へ通知する。 When the arm device 23 rotates the product, the system controller 21 instructs the product reading device 22 to detect an image (barcode image) of product specifying information from the image captured by the camera 12 . The processor 41 of the commodity reading device 22 takes an image with the camera 12 according to the instruction from the system controller 21 (ACT83). When the camera 12 takes an image, the processor 41 of the commodity reading device 22 detects the barcode image from the image taken by the camera 12 (ACT84). The processor 41 of the product reading device 22 notifies the system controller 21 of information indicating whether or not the barcode image has been detected.

カメラ12の撮影画像からバーコード画像が検出されなかった場合(ACT85、NO)、システムコントローラ21は、さらに商品を回転させてバーコード画像の検出を行うかを判断する(ACT86)。さらに商品を回転させてバーコード画像を検出すると判断した場合(ACT86、NO)、システムコントローラ21は、ACT82へ戻り、上述した処理を再度実行する。バーコード画像の検出を終了すると判断した場合(ACT86、YES)、システムコントローラ21は、カメラ12の撮影画像による商品認識が失敗したものとし、処理を終了する。 If the barcode image is not detected from the image captured by the camera 12 (ACT85, NO), the system controller 21 determines whether to further rotate the product and detect the barcode image (ACT86). If it is determined to further rotate the product and detect the barcode image (ACT86, NO), the system controller 21 returns to ACT82 and executes the above-described processing again. If the system controller 21 determines to end the detection of the barcode image (ACT86, YES), the system controller 21 assumes that the product recognition based on the image captured by the camera 12 has failed, and ends the process.

また、カメラ12の撮影画像からバーコード画像が検出できた場合(ACT85、NO)、システムコントローラ21は、商品の向きを調整して商品認識処理用の画像をカメラ12で撮影する。たとえば、システムコントローラ21は、商品をカメラ12に向かって左右方向に所定角度(たとえば、5度)ずつ回転させた(傾けた)状態でカメラ12が撮影する撮影画像を取得する。この場合、システムコントローラ21は、アーム14、15が把持する商品を右に5度ずつ回転させてカメラ12で画像を撮影させる。右への回転角が45度になると、システムコントローラ21は、商品を元の角度に戻した後、商品を左に5度ずつ回転させてカメラ12で画像を撮影させる。左への回転角が45度になると、システムコントローラ21は、各角度で撮影した撮影画像に基づく商品認識を商品読取装置22に実行させる。 Also, if the barcode image can be detected from the image captured by the camera 12 (ACT85, NO), the system controller 21 adjusts the orientation of the product and captures an image for product recognition processing with the camera 12 . For example, the system controller 21 acquires a photographed image photographed by the camera 12 in a state in which the product is rotated (tilted) by a predetermined angle (for example, 5 degrees) in the horizontal direction toward the camera 12 . In this case, the system controller 21 rotates the product gripped by the arms 14 and 15 clockwise by 5 degrees and causes the camera 12 to take an image. When the rotation angle to the right reaches 45 degrees, the system controller 21 returns the product to its original angle, rotates the product to the left by 5 degrees, and causes the camera 12 to take an image. When the rotation angle to the left reaches 45 degrees, the system controller 21 causes the product reading device 22 to perform product recognition based on the photographed images photographed at each angle.

すなわち、システムコントローラ21は、アーム14、15が把持する商品の向きを決定し、決定した商品の向きをアーム装置23へ指示する。アーム装置23は、システムコントローラ21からの指示に応じてアーム14、15が把持する商品の向きを調整させる(ACT87)。たとえば、システムコントローラ21は、右への回転角度が45度に達するまで、商品を右に5度回転させることをアーム装置23に指示する。また、システムコントローラ21は、右への回転角度が45度に達すると、商品を元の角度に戻した後に商品を左に5度回転させることをアーム装置23に指示する。 That is, the system controller 21 determines the orientation of the product gripped by the arms 14 and 15 and instructs the arm device 23 of the determined orientation of the product. The arm device 23 adjusts the orientation of the product gripped by the arms 14 and 15 according to the instruction from the system controller 21 (ACT87). For example, the system controller 21 instructs the arm device 23 to rotate the product 5 degrees to the right until the rotation angle to the right reaches 45 degrees. Further, when the rotation angle to the right reaches 45 degrees, the system controller 21 instructs the arm device 23 to rotate the product to the left by 5 degrees after returning the product to its original angle.

アーム装置23が商品の向きを調整すると、システムコントローラ21は、商品読取装置22に商品認識用の画像の撮影を指示する。商品読取装置22は、システムコントローラ21からの指示に応じてカメラ12により画像を撮影する(ACT88)。商品読取装置22は、カメラ12が撮影した撮影画像を商品認識用の画像として画像メモリ44に保存する(ACT89)。 When the arm device 23 adjusts the orientation of the product, the system controller 21 instructs the product reading device 22 to capture an image for product recognition. The product reading device 22 takes an image with the camera 12 according to the instruction from the system controller 21 (ACT88). The product reading device 22 stores the captured image captured by the camera 12 in the image memory 44 as an image for product recognition (ACT89).

カメラ12で撮影した画像を商品認識用の画像として保存すると、システムコントローラ21は、カメラ12による商品認識用の画像の撮影を終了するか否かを判断する(ACT90)。カメラ12による撮影を終了しないと判断した場合(ACT90、NO)、システムコントローラ21は、ACT87へ戻り、上述した処理を再度実行する。 When the image captured by the camera 12 is saved as the product recognition image, the system controller 21 determines whether or not to end the capturing of the product recognition image by the camera 12 (ACT90). If the system controller 21 determines not to finish photographing with the camera 12 (ACT 90, NO), the system controller 21 returns to ACT 87 and executes the above-described processing again.

カメラ12による撮影を終了すると判断した場合(ACT90、NO)、システムコントローラ21は、画像処理による商品認識を商品読取装置22へ指示する。商品読取装置22のプロセッサ41は、画像メモリ44に保存したカメラ12の撮影画像(商品認識処理用の画像)に基づいて商品認識処理を実行する(ACT91)。商品読取装置22のプロセッサ41は、文字認識用のプログラムを実行することにより、カメラ12による複数の撮影画像を元にバーコード下にある数字を認識する。 When it is determined that the photographing by the camera 12 is finished (ACT 90, NO), the system controller 21 instructs the product reading device 22 to recognize the product by image processing. The processor 41 of the product reading device 22 executes product recognition processing based on the image captured by the camera 12 (image for product recognition processing) stored in the image memory 44 (ACT91). The processor 41 of the product reading device 22 recognizes numbers under the barcode based on a plurality of images captured by the camera 12 by executing a character recognition program.

たとえば、プロセッサ41は、各撮影画像からバーコード画像を抽出し、バーコード画像からバーコードの下にある数字を検出する。バーコードの下にある全ての数字を検出すると、プロセッサ41は、検出した数字を認識し、認識した数字を並べた数字情報を商品認識結果とする。プロセッサ41は、商品認識結果をシステムコントローラ21へ通知する。システムコントローラ21は、商品認識装置からの商品認識結果を通信装置25を介して精算装置2へ送信する。精算装置2は、バーコードの下の数字情報から当該商品を識別し、当該商品の精算処理を実行する。 For example, the processor 41 extracts the barcode image from each captured image and detects the numbers under the barcode from the barcode image. When all the numbers under the bar code are detected, the processor 41 recognizes the detected numbers, and uses numerical information in which the recognized numbers are arranged as the product recognition result. The processor 41 notifies the system controller 21 of the product recognition result. The system controller 21 transmits the product recognition result from the product recognition device to the settlement device 2 via the communication device 25 . The settlement device 2 identifies the product from the numerical information under the barcode, and executes settlement processing for the product.

以上のように、本実施形態に係る商品読取システムは、カメラ、アーム装置、バーコードを読取るスキャナ、プロセッサ、および、コントローラなどを有する。カメラは、レジ台に置かれた商品を撮影する。プロセッサはカメラが撮影した画像から当該商品の形状を特定する。コントローラは、当該商品の形状に応じてアーム装置が商品を把持するための把持設定を行う。アーム装置は、把持設定に従って当該商品を把持し、把持した商品をスキャナの読取位置で回転させる。スキャナは、アーム装置が読取位置で回転させる商品から商品特定情報としてのバーコードを読取る。これにより、本実施形態に係る商品読取システムは、形状に応じた把持設定で商品を確実に把持することができ、スキャナの読取位置でバーコードが読取り易いように当該商品を回転させることができる。 As described above, the product reading system according to this embodiment includes a camera, an arm device, a scanner for reading barcodes, a processor, a controller, and the like. The camera shoots the product placed on the cash register table. The processor identifies the shape of the product from the image taken by the camera. The controller performs gripping settings for the arm device to grip the product according to the shape of the product. The arm device grips the item according to the grip setting, and rotates the gripped item at the reading position of the scanner. The scanner reads a bar code as product identification information from the product rotated at the reading position by the arm device. As a result, the product reading system according to the present embodiment can reliably grip the product with the grip setting according to the shape, and can rotate the product so that the barcode can be easily read at the reading position of the scanner. .

また、実施形態に係る商品読取システムのコントローラは、商品が袋状である場合、第1アームで商品の第1端部を摘まみ、第2アームで前記第1端部とは商品を挟んで反対側にある第2端部を摘まむ。これにより、商品読取システムは、袋状の商品の両端部を確実に摘まむことができ、袋状の商品におけるバーコードをスキャナが読取り易いように動かすことができる。 In addition, when the product is bag-shaped, the controller of the product reading system according to the embodiment picks up the first end of the product with the first arm and sandwiches the product with the first end with the second arm. Pinch the second end on the opposite side. As a result, the commodity reading system can reliably pick up both ends of the bag-shaped commodity and move the bar code of the bag-shaped commodity so that the scanner can easily read it.

また、実施形態に係る商品読取システムのコントローラは、商品が箱状である場合、第1アームの把持機構と第2アームの把持機構とで当該商品の両端を挟持するように把持させる。これにより、商品読取システムは、箱状の商品の両端部を確実に挟持することでき、箱状の商品におけるバーコードをスキャナに読取り易いように動かすことができる。 Further, when the product is box-shaped, the controller of the product reading system according to the embodiment grips the product so that both ends of the product are sandwiched between the gripping mechanism of the first arm and the gripping mechanism of the second arm. As a result, the product reading system can reliably hold both ends of the box-shaped product, and move the bar code of the box-shaped product so that the scanner can easily read it.

また、実施形態に係る商品読取システムは、コントローラは、スキャナで前記商品の商品特定情報を読み取れない場合、アーム装置が把持する商品をカメラの撮影領域において回転させてカメラに画像を撮影させる。プロセッサは、カメラが撮影する画像に対する文字認識によって商品特定情報を認識する。これにより、商品読取システムは、スキャナでバーコードが読取れない商品であっても、アームが把持する当該商品を動かしながらカメラで撮影する画像に対する画像認識によって商品特定情報を特定することができる。 Further, in the product reading system according to the embodiment, when the product identification information of the product cannot be read by the scanner, the controller rotates the product gripped by the arm device within the imaging area of the camera and causes the camera to capture an image. The processor recognizes the product identification information by character recognition on the image captured by the camera. As a result, the product reading system can specify the product identification information by recognizing images captured by the camera while moving the product gripped by the arm, even for products whose barcode cannot be read by the scanner.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下、本願の出願当初の特許請求の範囲に記載した内容を付記する。
[1]
商品が置かれる台を上方から撮影するカメラと、
前記台に置かれた商品を把持するアーム装置と、
読取位置にある前記商品の外観に存在する商品特定情報を読み取るスキャナと、
前記カメラが撮影した画像から検出される前記商品の形状に応じた把持設定で前記アーム装置に前記商品を把持させ、前記アーム装置が把持する前記商品を前記スキャナの読取位置で回転させて前記スキャナに商品特定情報を読み取らせるコントローラと、
を有する商品読取システム。
[2]
前記アーム装置は、それぞれに把持機構を設けた第1アームと第2アームとを有し、 前記コントローラは、前記商品の形状が袋状である場合、前記第1アームに設けた把持機構で前記商品の第1端部を把持し、前記第2アームに設けた把持機構で前記第1端部とは前記台上の前記商品を挟んで反対側にある第2端部を把持する把持設定とする、
[1]に記載の商品読取システム。
[3]
前記コントローラは、前記商品の形状が箱状である場合、前記第1アームに設けた把持機構と前記前記第2アームに設けた把持機構とがそれぞれ前記商品の両端を把持する把持設定とする、
[2]に記載の商品読取システム。
[4]
前記カメラが撮影した画像に対する画像認識によって商品特定情報を認識するプロセッサを有し、
前記コントローラは、前記スキャナが前記商品の商品特定情報を読み取れない場合、前記アーム装置が把持する前記商品を前記カメラの撮影領域において回転させて前記カメラが撮影する画像に基づいて前記プロセッサに前記商品の商品特定情報を認識させる、
[1]乃至[3]の何れか1つに記載の商品読取システム。
[5]
前記アーム装置が把持する前記商品の商品特定情報を前記商品の精算処理を行う精算装置へ出力する通信装置を有する、
[1]乃至[4]の何れか1つに記載の商品読取システム。
While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.
The content described in the scope of claims as originally filed for this application will be added below.
[1]
A camera that shoots the table on which the product is placed from above,
an arm device for gripping the product placed on the table;
a scanner for reading product-specific information present on the exterior of the product at a reading position;
The product is gripped by the arm device with a grip setting corresponding to the shape of the product detected from the image captured by the camera, and the product gripped by the arm device is rotated at a reading position of the scanner to cause the scanner to rotate. a controller that causes the to read product-specific information;
A product reading system having a
[2]
The arm device has a first arm and a second arm each provided with a gripping mechanism, and the controller controls the gripping mechanism provided on the first arm when the product is bag-shaped. a gripping setting for gripping a first end of the product, and gripping a second end of the product on the table opposite to the first end with a gripping mechanism provided on the second arm; do,
The product reading system according to [1].
[3]
When the shape of the product is box-shaped, the controller sets a gripping setting such that the gripping mechanism provided on the first arm and the gripping mechanism provided on the second arm respectively grip both ends of the product.
The product reading system according to [2].
[4]
a processor that recognizes product-specific information by image recognition of an image captured by the camera;
When the scanner cannot read the product identification information of the product, the controller rotates the product gripped by the arm device in the photographing area of the camera, and transmits the product to the processor based on the image photographed by the camera. to recognize the product specific information of
The commodity reading system according to any one of [1] to [3].
[5]
a communication device that outputs product identification information of the product gripped by the arm device to a checkout device that performs checkout processing for the product;
The product reading system according to any one of [1] to [4].

1…商品読取システム(ロボット)、2…精算装置(レジ)、3…レジ台(台)、11…センサ、12…カメラ、13…スキャナ(固定スキャナ)、14…第1アーム、15…第2アーム、14b、15b…把持機構、16…アームスキャナ、21…システムコントローラ(制御装置)、22…商品読取装置(商品リーダ)、23…アーム装置、25…通信装置、31、41、51、61、71…プロセッサ。 DESCRIPTION OF SYMBOLS 1... Commodity reading system (robot), 2... Settlement apparatus (cash register), 3... Cash register stand (stand), 11... Sensor, 12... Camera, 13... Scanner (fixed scanner), 14... First arm, 15... Second 2 arms, 14b, 15b... grasping mechanism, 16... arm scanner, 21... system controller (control device), 22... product reader (product reader), 23... arm device, 25... communication device, 31, 41, 51, 61, 71... Processors.

Claims (5)

商品が置かれる台を上方から撮影するカメラと、
前記台に置かれた商品を把持するアーム装置と、
読取位置にある前記商品の外観に存在する商品特定情報を読み取るスキャナと、
前記カメラが撮影した画像から検出される前記商品の形状に応じて異なるアルゴリズムを用いた把持設定で前記アーム装置に前記商品を把持させ、前記アーム装置が把持する前記商品を前記スキャナの読取位置で回転させて前記スキャナに商品特定情報を読み取らせるコントローラと、
を有する商品読取システム。
A camera that shoots the table on which the product is placed from above,
an arm device for gripping the product placed on the table;
a scanner for reading product-specific information present on the exterior of the product at a reading position;
The arm device is caused to grip the product with a grip setting using a different algorithm according to the shape of the product detected from the image captured by the camera, and the product gripped by the arm device is positioned at the reading position of the scanner. a controller that rotates to cause the scanner to read product identification information;
A product reading system having a
前記アーム装置は、それぞれに把持機構を設けた第1アームと第2アームとを有し、
前記コントローラは、前記商品の形状が袋状である場合、前記第1アームに設けた把持機構と前記第2アームに設けた把持機構とを前記台における商品の載置面に沿って移動させ、前記第1アームに設けた把持機構で前記商品の第1端部を把持し、前記第2アームに設けた把持機構で前記第1端部とは前記台上の前記商品を挟んで反対側にある第2端部を把持する把持設定とする、
請求項1に記載の商品読取システム。
The arm device has a first arm and a second arm each provided with a gripping mechanism,
When the product has a bag shape, the controller moves the gripping mechanism provided on the first arm and the gripping mechanism provided on the second arm along the placement surface of the product on the table, The gripping mechanism provided on the first arm grips the first end of the product, and the gripping mechanism provided on the second arm grips the product on the side opposite to the first end across the product on the table. With a gripping setting that grips a certain second end,
The commodity reading system according to claim 1.
前記コントローラは、前記商品の形状が箱状である場合、前記第1アームに設けた把持機構と前記第2アームに設けた把持機構とがそれぞれ前記商品の両端を上方から把持する把持設定とする、
請求項2に記載の商品読取システム。
When the shape of the product is box-shaped, the controller sets the gripping setting such that the gripping mechanism provided on the first arm and the gripping mechanism provided on the second arm respectively grip both ends of the product from above . ,
The commodity reading system according to claim 2.
前記カメラが撮影した画像に対する画像認識によって商品特定情報を認識するプロセッサを有し、
前記コントローラは、前記スキャナが前記商品の商品特定情報を読み取れない場合、前記アーム装置が把持する前記商品を前記カメラの撮影領域において回転させて前記カメラが撮影する画像に基づいて前記プロセッサに前記商品の商品特定情報を認識させる、
請求項1乃至3の何れか1項に記載の商品読取システム。
a processor that recognizes product-specific information by image recognition of an image captured by the camera;
When the scanner cannot read the product identification information of the product, the controller rotates the product gripped by the arm device in the photographing area of the camera, and transmits the product to the processor based on the image photographed by the camera. to recognize the product specific information of
The product reading system according to any one of claims 1 to 3.
前記アーム装置が把持する前記商品の商品特定情報を前記商品の精算処理を行う精算装置へ出力する通信装置を有する、
請求項1乃至4の何れか1項に記載の商品読取システム。
a communication device that outputs product identification information of the product gripped by the arm device to a checkout device that performs checkout processing for the product;
The product reading system according to any one of claims 1 to 4.
JP2018077898A 2018-04-13 2018-04-13 Product reading system Active JP7106331B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018077898A JP7106331B2 (en) 2018-04-13 2018-04-13 Product reading system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018077898A JP7106331B2 (en) 2018-04-13 2018-04-13 Product reading system

Publications (2)

Publication Number Publication Date
JP2019185561A JP2019185561A (en) 2019-10-24
JP7106331B2 true JP7106331B2 (en) 2022-07-26

Family

ID=68341431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018077898A Active JP7106331B2 (en) 2018-04-13 2018-04-13 Product reading system

Country Status (1)

Country Link
JP (1) JP7106331B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114275505A (en) * 2020-12-21 2022-04-05 星猿哲科技(上海)有限公司 Multi-surface code scanning system
JP7398399B2 (en) * 2021-02-09 2023-12-14 東レエンジニアリング株式会社 Identification code reader

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012232749A (en) 2011-04-28 2012-11-29 Yamaki Co Ltd Packaging bag, and seal inspection method
JP2013100118A (en) 2011-11-08 2013-05-23 Yaskawa Electric Corp Unpacking device, and unpacked content manufacturing method
JP2014109924A (en) 2012-12-03 2014-06-12 Toshiba Tec Corp Commodity recognition device and commodity recognition program
JP2016175162A (en) 2015-03-20 2016-10-06 セイコーエプソン株式会社 Robot, control device, and control method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05217014A (en) * 1992-02-07 1993-08-27 Fujitsu Ltd Method for reading out bar code
JP3123202B2 (en) * 1992-04-27 2001-01-09 オムロン株式会社 Article code reader

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012232749A (en) 2011-04-28 2012-11-29 Yamaki Co Ltd Packaging bag, and seal inspection method
JP2013100118A (en) 2011-11-08 2013-05-23 Yaskawa Electric Corp Unpacking device, and unpacked content manufacturing method
JP2014109924A (en) 2012-12-03 2014-06-12 Toshiba Tec Corp Commodity recognition device and commodity recognition program
JP2016175162A (en) 2015-03-20 2016-10-06 セイコーエプソン株式会社 Robot, control device, and control method

Also Published As

Publication number Publication date
JP2019185561A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
US9033238B2 (en) Methods and arrangements for sensing identification information from objects
EP2751748B1 (en) Methods and arrangements for identifying objects
US8439259B2 (en) Code reading apparatus, sales registration processing apparatus, and code reading method
US8505817B2 (en) Code reading apparatus and code reading method
EP3533686B1 (en) Handcart
US20160188942A1 (en) Point-of-sale (pos) code sensing apparatus
WO2019019525A1 (en) Convolutional neural network-based method and device for settlement of image recognition technology
JP7106331B2 (en) Product reading system
US20130015242A1 (en) Tri-Optic Scanner
CA3082445A1 (en) Object measurement system
US11375827B2 (en) Vision-based frictionless self-checkouts for small baskets
JP2004127013A (en) Point-of-sale information managing device
JP7023778B2 (en) Product reading system
JP7005418B2 (en) Product reading system
JP7009291B2 (en) Product reading system
US20200147814A1 (en) Commodity take-out apparatus
TW202004619A (en) Self-checkout system, method thereof and device therefor
AU2015355532B2 (en) System for and method of stitching barcode fragments of a barcode symbol to be read in an imaging-based presentation workstation
JP7156916B2 (en) Goods take-out device
JP2023077805A (en) Settling person monitoring device, program thereof, and settling person monitoring method
JP7214967B2 (en) Product information acquisition device, product information acquisition method, and program
KR20220056443A (en) Unmanned checkout counter
US11417025B2 (en) Information processing apparatus, article identification apparatus, and article identification system
CN115139325B (en) Object grasping system
JP6708775B2 (en) Product reading device, store accounting system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220713

R150 Certificate of patent or registration of utility model

Ref document number: 7106331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150