JP7005418B2 - Product reading system - Google Patents

Product reading system Download PDF

Info

Publication number
JP7005418B2
JP7005418B2 JP2018077899A JP2018077899A JP7005418B2 JP 7005418 B2 JP7005418 B2 JP 7005418B2 JP 2018077899 A JP2018077899 A JP 2018077899A JP 2018077899 A JP2018077899 A JP 2018077899A JP 7005418 B2 JP7005418 B2 JP 7005418B2
Authority
JP
Japan
Prior art keywords
product
arm
processor
scanner
barcode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018077899A
Other languages
Japanese (ja)
Other versions
JP2019185562A (en
Inventor
嘉幸 平原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2018077899A priority Critical patent/JP7005418B2/en
Publication of JP2019185562A publication Critical patent/JP2019185562A/en
Application granted granted Critical
Publication of JP7005418B2 publication Critical patent/JP7005418B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Cash Registers Or Receiving Machines (AREA)

Description

本発明の実施形態は、商品読取システムに関する。 Embodiments of the present invention relate to a product reading system.

従来、コンビニエンスストアやスーパーマーケットなどの小売店では、精算装置にバーコードなどの商品特定情報を読み取らせてから当該商品の精算処理を実施している。精算装置は、小売店の係員が操作し、係員の手作業によって商品に印刷されているバーコードを読取るものが多い。近年では、人手不足などから精算装置が精算の対象とする商品を読み取らせる作業(商品読取業務)を省力化することが要望されている。 Conventionally, in retail stores such as convenience stores and supermarkets, the payment process of the product is performed after the payment device is made to read the product specific information such as a barcode. Many of the checkout devices are operated by retail store staff and manually read the barcode printed on the product. In recent years, there has been a demand for labor saving in the work (product reading work) of having the settlement device read the product to be settled due to labor shortage.

従来の技術としては、商品などの物品を把持するためのロボットアームを備える装置が提案されている。しかしながら、従来の装置が備えるロボットアームは、把持した物品を所定の場所に移動させたり、把持した物品を袋や箱などの収納部に入れたりするものである。このため、従来の技術では、商品のバーコードなどを読み取る商品読取業務を省力化することはできない。 As a conventional technique, a device provided with a robot arm for gripping an article such as a product has been proposed. However, the robot arm provided in the conventional device moves the grasped article to a predetermined place, or puts the grasped article in a storage part such as a bag or a box. Therefore, with the conventional technology, it is not possible to save labor in reading a product such as a barcode of the product.

特開2016-167246号公報Japanese Unexamined Patent Publication No. 2016-167246

本発明は、上記した課題を解決するために、商品にある商品特定情報を読み取る作業を省力化することができる商品読取システムを提供することを目的とする。 An object of the present invention is to provide a product reading system capable of saving labor in reading product specific information in a product in order to solve the above-mentioned problems.

実施形態によれば、商品読取システムは、カメラと、アーム装置と、スキャナと、コントローラとを有する。カメラは、商品が置かれる台を上方から撮影する。アーム装置は、それぞれに把持機構を設けた第1アームと第2アームとを有する。スキャナは、読取位置にある前記商品の外観に存在する商品特定情報を読み取る。コントローラは、前記カメラが撮影した画像から検出される前記商品の形状が袋状である場合、前記第1アームの把持機構と前記第2アームの把持機構とにそれぞれ前記商品の両端を把持させ、前記第1アームの把持位置と前記第2アームの把持位置とを互いに引っ張った状態で前記商品を前記スキャナの読取位置に移動させる。 According to the embodiment, the product reading system includes a camera, an arm device, a scanner, and a controller. The camera takes a picture of the table on which the product is placed from above. The arm device has a first arm and a second arm, each of which is provided with a gripping mechanism. The scanner reads the product identification information existing in the appearance of the product at the reading position. When the shape of the product detected from the image taken by the camera is bag-shaped, the controller causes the gripping mechanism of the first arm and the gripping mechanism of the second arm to grip both ends of the product, respectively. The product is moved to the reading position of the scanner while the gripping position of the first arm and the gripping position of the second arm are pulled from each other.

図1は、実施形態に係る商品読取システム(商品読取の支援システム)の外観構成を概略的に示す模式図である。FIG. 1 is a schematic diagram schematically showing an external configuration of a product reading system (product reading support system) according to an embodiment. 図2は、実施形態に係る商品読取システムとしてのロボット1の制御系の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of a control system of the robot 1 as a product reading system according to an embodiment. 図3は、実施形態に係る商品読取システムとしてのロボットの動作例を説明するためのフローチャートである。FIG. 3 is a flowchart for explaining an operation example of the robot as the product reading system according to the embodiment. 図4は、実施形態に係る商品読取システムとしてのロボットの動作例を説明するためのフローチャートである。FIG. 4 is a flowchart for explaining an operation example of the robot as the product reading system according to the embodiment. 図5は、実施形態に係る商品読取システムが袋状の商品をアームで把持する場合の動作例を説明するための図である。FIG. 5 is a diagram for explaining an operation example when the product reading system according to the embodiment grips a bag-shaped product with an arm. 図6は、実施形態に係る商品読取システムが箱状の商品をアームで把持した状態の例を説明するための図である。FIG. 6 is a diagram for explaining an example of a state in which the product reading system according to the embodiment holds a box-shaped product with an arm. 図7は、実施形態に係る商品読取システムにおけるアームスキャナによるバーコードの読取処理の動作例を説明するためのフローチャートである。FIG. 7 is a flowchart for explaining an operation example of a barcode reading process by an arm scanner in the product reading system according to the embodiment. 図8は、実施形態に係る商品読取システムにおいて筒状の商品の高さが所定高以内である場合のアームスキャナの動作例を説明するための図である。FIG. 8 is a diagram for explaining an operation example of the arm scanner when the height of the cylindrical product is within a predetermined height in the product reading system according to the embodiment. 図9は、実施形態に係る商品読取システムにおいて筒状の商品の高さが所定高を超える場合のアームスキャナの動作例を説明するための図である。FIG. 9 is a diagram for explaining an operation example of the arm scanner when the height of the cylindrical product exceeds a predetermined height in the product reading system according to the embodiment. 図10は、実施形態に係る商品読取システムにおけるカメラの撮影画像に対する商品認識処理の動作例を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining an operation example of the product recognition process for the image taken by the camera in the product reading system according to the embodiment.

以下、図面を参照しながら実施形態について説明する。
図1は、実施形態に係る商品読取システムとしての商品読取の支援システム(ロボット)1の外観構成を概略的に示す模式図である。
商品読取の支援システム(以下、単にロボットとも称する)1は、商品を特定する情報(商品特定情報)を取得(読取)するための装置である。図1に示す構成例において、ロボット1は、精算装置(レジ)2で代金を精算すべき商品を特定する情報を取得するレジ業務を支援する。たとえば、ロボット1は、利用者が利用しやすいように、人物の上半身を模した人型の外観を有する。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a schematic diagram schematically showing an external configuration of a product reading support system (robot) 1 as a product reading system according to an embodiment.
The product reading support system (hereinafter, also simply referred to as a robot) 1 is a device for acquiring (reading) information (product specific information) for specifying a product. In the configuration example shown in FIG. 1, the robot 1 supports the cash register business of acquiring information specifying a product for which the price should be settled by the checkout device (register) 2. For example, the robot 1 has a humanoid appearance that imitates the upper body of a person so that it can be easily used by the user.

ロボット1は、商品の代金などを精算する精算装置2に接続する。ロボット1と精算装置2とは、商品の精算業務を行う取引システムを構成する。ロボット1および精算装置2を含む取引システムは、たとえば、コンビニエンスストアやスーバーマーケットなどの小売店などに設置される。取引システムにおいて、ロボット1は、精算装置2を設置する精算用のレジ台3の近傍に設ける。利用者は、ロボット1の手前にあるレジ台3に精算装置2で代金を精算する精算対象の商品を置く。ロボット1は、利用者がレジ台3に置いた商品から商品特定情報を読み取り、読取った商品特定情報を精算装置2へ供給する。 The robot 1 is connected to a settlement device 2 that setstles the price of a product or the like. The robot 1 and the settlement device 2 constitute a transaction system for performing settlement operations of goods. The transaction system including the robot 1 and the checkout device 2 is installed in a retail store such as a convenience store or a supermarket, for example. In the transaction system, the robot 1 is provided in the vicinity of the checkout table 3 on which the checkout device 2 is installed. The user places a product to be settled on the checkout table 3 in front of the robot 1 with the checkout device 2. The robot 1 reads the product identification information from the product placed on the cash register table 3 by the user, and supplies the read product identification information to the settlement device 2.

商品特定情報は、商品の外観から読み取れる情報であれば良い。商品特定情報は、商品のパッケージに印刷されているバーコードである。また、商品特定情報は、商品を識別可能な数字や文字などの文字列でも良いし、商品に添付されたラベルの画像でも良いし、商品全体のシルエットなどであっても良い。ロボット1は、商品の外観にあるバーコードなどの商品特定情報がスキャナやカメラで読み取れるように、レジ台3上の商品を持ち上げて動かす。また、ロボット1は、持ち上げられない商品に沿ってスキャナを動かしてバーコードなどの商品特定情報を読み取る機能も有する。 The product specific information may be any information that can be read from the appearance of the product. The product identification information is a barcode printed on the product package. Further, the product identification information may be a character string such as a number or a character that can identify the product, an image of a label attached to the product, or a silhouette of the entire product. The robot 1 lifts and moves the product on the cash register table 3 so that the product identification information such as the barcode on the appearance of the product can be read by a scanner or a camera. The robot 1 also has a function of moving a scanner along a product that cannot be lifted to read product identification information such as a barcode.

図1に示す構成例において、ロボット(本体)1は、センサ11、カメラ12、スキャナ13、第1アーム14、第2アーム15、アームスキャナ16、スピーカ17、マイク18、表示器19などを有する。
センサ11は、レジ台3に接近してきた人物、または、レジ台3に商品が置かれたことを検知するセンサである。たとえば、センサ11は、赤外線を用いて人物または商品を検知する赤外線センサである。センサ11は、人物または商品の有無を検知できるセンサであれば良い。
In the configuration example shown in FIG. 1, the robot (main body) 1 has a sensor 11, a camera 12, a scanner 13, a first arm 14, a second arm 15, an arm scanner 16, a speaker 17, a microphone 18, a display 19, and the like. ..
The sensor 11 is a sensor that detects a person approaching the cash register table 3 or a product placed on the cash register table 3. For example, the sensor 11 is an infrared sensor that detects a person or a product using infrared rays. The sensor 11 may be any sensor that can detect the presence or absence of a person or a product.

カメラ12は、レジ台3周辺の画像を撮影する。カメラ12は、撮影方向あるいは撮影距離などを調整することにより撮影領域を変更する機能を有する。たとえば、カメラ12は、レジ2を利用者する人物(又はレジ台3に商品を置いた人物)を撮影するための撮影領域を設定し、レジ台3の近傍にいる人物を撮影する機能を有する。また、カメラ12は、レジ台3に置かれた商品を撮影するための撮影領域を設定し、レジ台3上の画像を撮影する機能も有する。 The camera 12 captures an image around the cash register table 3. The camera 12 has a function of changing the shooting area by adjusting the shooting direction, the shooting distance, and the like. For example, the camera 12 has a function of setting a shooting area for shooting a person who uses the cash register 2 (or a person who puts a product on the cash register table 3) and shooting a person in the vicinity of the cash register table 3. .. Further, the camera 12 also has a function of setting a shooting area for shooting a product placed on the cash register table 3 and shooting an image on the cash register table 3.

スキャナ13は、商品の外観から商品特定情報を読み取る。本実施形態において、スキャナ13は、商品特定情報として、商品のパッケージの一部に印刷されたバーコードを読取るバーコードスキャナであるものとする。なお、スキャナ13は、商品の外観から商品特定情報であれば良く、2次元バーコードや文字列などを読み取るビデオカメラなどで構成しても良い。 The scanner 13 reads the product specific information from the appearance of the product. In the present embodiment, the scanner 13 is a barcode scanner that reads a barcode printed on a part of a product package as product identification information. The scanner 13 may be configured as long as it is product-specific information from the appearance of the product, and may be configured by a video camera or the like that reads a two-dimensional bar code, a character string, or the like.

第1アーム14および第2アーム15は、レジ台3に置かれた商品に対して相対的に動作する。第1アーム14および第2アーム15は、アーム部14a、15aと把持機構14b、15bとを有する。アーム部14a、15aは、ロボット1本体に取り付けられた多関節のロボットアームである。把持機構14b、15bは、商品を把持する機構である。アーム部14a、15aは、把持機構14b、15bによる把持位置を3次元的に自在に移動させるものであれば良い。たとえば、第1アーム14および第2アーム15において、把持機構14b、15bは、それぞれアーム部14a、15aの先端部分に設けられる。すなわち、第1アーム14および第2アーム15は、把持機構14b、15bで商品を把持した状態でアーム部14a、15aを動かして当該商品を持ち上げたり、回転させたりする。 The first arm 14 and the second arm 15 operate relative to the goods placed on the cash register table 3. The first arm 14 and the second arm 15 have arm portions 14a and 15a and gripping mechanisms 14b and 15b. The arm portions 14a and 15a are articulated robot arms attached to the robot 1 main body. The gripping mechanisms 14b and 15b are mechanisms for gripping the product. The arm portions 14a and 15a may be any as long as they can freely move the gripping position by the gripping mechanisms 14b and 15b in three dimensions. For example, in the first arm 14 and the second arm 15, the gripping mechanisms 14b and 15b are provided at the tip portions of the arm portions 14a and 15a, respectively. That is, the first arm 14 and the second arm 15 move the arm portions 14a and 15a in a state where the product is gripped by the gripping mechanisms 14b and 15b to lift or rotate the product.

把持機構14b、15bは、レジ台3上の商品を挟持したり摘まんだり吸着したりするように構成する。たとえば、把持機構14b、15bは、複数の指(2つの挟持部材、又は3~5本の指など)で構成される。また、把持機構14b、15bは、複数の指で構成するものに限定されるものではなく、商品の一部を吸着させる機構であっても良い。また、把持機構14b、15bは、複数の指、挟持部材、および、吸着させる機構などを組み合わせて構成しても良い。 The gripping mechanisms 14b and 15b are configured to pinch, pinch, and suck the product on the cash register table 3. For example, the gripping mechanisms 14b and 15b are composed of a plurality of fingers (two holding members, three to five fingers, and the like). Further, the gripping mechanisms 14b and 15b are not limited to those composed of a plurality of fingers, and may be a mechanism for adsorbing a part of the product. Further, the gripping mechanisms 14b and 15b may be configured by combining a plurality of fingers, a holding member, a suction mechanism, and the like.

また、アームスキャナ16は、第1アーム14の動作によって読取位置が移動するスキャナである。たとえば、アームスキャナ16は、第1アーム14の先端部分に設けられ、第1アーム14の動作によって読取位置が移動する。本実施形態において、アームスキャナ16は、第1アーム14によって移動される読取位置において商品の外観から商品特定情報としてのバーコードを読み取るものとする。なお、アームスキャナ16は、第2アーム15に設けても良いし、第1アーム14および第2アーム15の両方に設けても良い。また、アームスキャナ16は、第1アーム14および第2アーム15とは別に設けても良い。 Further, the arm scanner 16 is a scanner whose reading position is moved by the operation of the first arm 14. For example, the arm scanner 16 is provided at the tip end portion of the first arm 14, and the reading position is moved by the operation of the first arm 14. In the present embodiment, the arm scanner 16 reads a barcode as product identification information from the appearance of the product at the reading position moved by the first arm 14. The arm scanner 16 may be provided on the second arm 15 or on both the first arm 14 and the second arm 15. Further, the arm scanner 16 may be provided separately from the first arm 14 and the second arm 15.

スピーカ17は、音声を出力する。スピーカ17は、利用者に対して案内などの音声を出力する。マイク18は、音声を入力する。マイク18は、利用者が発した音声を入力する。スピーカ17およびマイク18は、利用者と対話形式で音声の入出力を行う対話装置を構成するものとしても良い。表示器19は、画像を表示する。たとえば、表示器19は、画像またはテキストなどによる利用者に対する案内を表示する。スピーカ17、マイク18および表示器19は、ユーザインターフェースとして機能する。 The speaker 17 outputs sound. The speaker 17 outputs a voice such as guidance to the user. The microphone 18 inputs voice. The microphone 18 inputs the voice emitted by the user. The speaker 17 and the microphone 18 may constitute a dialogue device that interactively inputs and outputs voice with the user. The display 19 displays an image. For example, the display 19 displays a guide to the user by an image, text, or the like. The speaker 17, microphone 18, and display 19 function as a user interface.

次に、実施形態に係る商品読取装置としてのロボット1における制御系の構成について説明する。
図2は、実施形態に係る商品読取システム(商品読取の支援システム)としてのロボット1の制御系の構成例を示すブロック図である。
ロボット1は、システムコントローラ(制御装置)21、商品読取装置(商品リーダ)22、アーム装置23、対話装置(ユーザインターフェース)24、通信装置(通信モジュール)25などを有する。
Next, the configuration of the control system in the robot 1 as the product reading device according to the embodiment will be described.
FIG. 2 is a block diagram showing a configuration example of a control system of the robot 1 as a product reading system (product reading support system) according to an embodiment.
The robot 1 includes a system controller (control device) 21, a product reading device (product reader) 22, an arm device 23, a dialogue device (user interface) 24, a communication device (communication module) 25, and the like.

システムコントローラ21は、ロボットにおける各装置を統括的に制御する。図2に示す構成例において、システムコントローラ21は、プロセッサ31、メモリ32、インターフェース(I/F)33を有する。
プロセッサ31は、プログラムを実行することにより各種の処理を実現する。プロセッサ31は、たとえば、CPUである。メモリ32は、ROM、RAMおよび書換え可能な不揮発性メモリなどのメモリで構成する。たとえば、メモリ32は、プログラムおよび制御データなどを記憶する不揮発性のメモリを含む。また、メモリ32は、データを一時的に格納するためのRAMなどのワーキングメモリを含む。
The system controller 21 comprehensively controls each device in the robot. In the configuration example shown in FIG. 2, the system controller 21 has a processor 31, a memory 32, and an interface (I / F) 33.
The processor 31 realizes various processes by executing a program. The processor 31 is, for example, a CPU. The memory 32 is composed of a memory such as a ROM, a RAM, and a rewritable non-volatile memory. For example, the memory 32 includes a non-volatile memory for storing programs, control data, and the like. Further, the memory 32 includes a working memory such as a RAM for temporarily storing data.

メモリ32が記憶するプログラムには、基本プログラム(OS)の他、各種のアプリケーションプログラムが含まれる。アプリケーションプログラムには、後述する各種の処理を実行するためのプログラムなどが含まれる。プロセッサ31は、メモリ32が記憶する各種のプログラムを実行することにより後述する各種の処理を実現する。 The program stored in the memory 32 includes various application programs in addition to the basic program (OS). The application program includes a program for executing various processes described later. The processor 31 realizes various processes described later by executing various programs stored in the memory 32.

インターフェース(I/F)33は、ロボット1にける各装置と通信するためのインターフェースである。
プロセッサ31は、インターフェース33を介して各装置に制御指示を与えたり、各装置からの情報を取得したりする。たとえば、プロセッサ31は、商品読取装置22から商品特定情報の読取結果や人物の検知結果などを示す情報を取得する。また、プロセッサ31は、第1アーム14および第2アーム15を用いて商品を把持することをアーム装置23へ指示する。
The interface (I / F) 33 is an interface for communicating with each device in the robot 1.
The processor 31 gives a control instruction to each device and acquires information from each device via the interface 33. For example, the processor 31 acquires information indicating a reading result of product specific information, a detection result of a person, and the like from the product reading device 22. Further, the processor 31 instructs the arm device 23 to grip the product by using the first arm 14 and the second arm 15.

次に、商品読取装置22の制御系の構成例について説明する。
商品読取装置22は、商品から商品特定情報を読み取るものである。また、商品読取装置22は、人物や商品などを検知する機能を有する。図2に示す構成例において、商品読取装置22は、プロセッサ41、メモリ42、インターフェース(I/F)43、画像メモリ44、カメラ駆動機構45、センサ11、カメラ12およびスキャナ13などを有する。
Next, a configuration example of the control system of the product reading device 22 will be described.
The product reading device 22 reads product specific information from the product. Further, the product reading device 22 has a function of detecting a person, a product, or the like. In the configuration example shown in FIG. 2, the product reading device 22 includes a processor 41, a memory 42, an interface (I / F) 43, an image memory 44, a camera driving mechanism 45, a sensor 11, a camera 12, a scanner 13, and the like.

プロセッサ41は、プログラムを実行することにより各種の処理を実現する。プロセッサ41は、たとえば、CPUである。メモリ42は、ROM、RAMおよび書換え可能な不揮発性メモリなどのメモリで構成する。たとえば、メモリ42は、プログラムおよび制御データなどを記憶する不揮発性のメモリを含む。また、メモリ42は、データを一時的に格納するためのRAMなどのワーキングメモリを含む。 The processor 41 realizes various processes by executing a program. The processor 41 is, for example, a CPU. The memory 42 is composed of a memory such as a ROM, a RAM, and a rewritable non-volatile memory. For example, the memory 42 includes a non-volatile memory for storing programs, control data, and the like. Further, the memory 42 includes a working memory such as a RAM for temporarily storing data.

インターフェース(I/F)43は、システムコントローラ21と通信するためのインターフェースである。
画像メモリ44は、カメラ12が撮影した画像を記憶する。カメラ駆動機構45は、カメラ12を制御する。カメラ駆動機構45は、カメラ12の向きなどを移動させてカメラ12が撮影する領域を制御するようにしても良い。
The interface (I / F) 43 is an interface for communicating with the system controller 21.
The image memory 44 stores an image taken by the camera 12. The camera drive mechanism 45 controls the camera 12. The camera drive mechanism 45 may move the direction of the camera 12 or the like to control the area to be photographed by the camera 12.

プロセッサ41は、メモリ42の記憶領域42a~42eに記憶するプログラムを実行することにより種々の処理を実現する。たとえば、記憶領域42aは、人物および物を特定する処理を実行するためのプログラムを格納するものとする。プロセッサ41は、記憶領域42aが記憶するプログラムを実行することにより、人物特定部あるいは物特定部として機能する。たとえば、プロセッサ41は、人物特定部として、カメラ12が撮影した画像を用いて利用者がレジ2の前(レジ台3の前)にいるかを確認する。また、プロセッサ41は、カメラ12が撮影した画像から利用者の特徴(性別、年齢など)を推測するようにしても良い。また、プロセッサ41は、物特定部として、レジ台3の上に商品があるかを確認するようにしても良い。 The processor 41 realizes various processes by executing a program stored in the storage areas 42a to 42e of the memory 42. For example, the storage area 42a shall store a program for executing a process for identifying a person and an object. The processor 41 functions as a person identification unit or an object identification unit by executing a program stored in the storage area 42a. For example, the processor 41 confirms whether the user is in front of the cash register 2 (in front of the cash register table 3) by using an image taken by the camera 12 as a person identification unit. Further, the processor 41 may infer the characteristics (gender, age, etc.) of the user from the image taken by the camera 12. Further, the processor 41 may confirm whether or not the product is on the cash register table 3 as the object identification unit.

記憶領域42bは、物品の大きさおよび形状などを認識する処理を行うためのプログラムを格納するものとする。プロセッサ41は、記憶領域42bが記憶するプログラムを実行することにより、物の大きさおよび形状などを認識する外観認識部として機能する。たとえば、プロセッサ41は、カメラ12が撮影した画像から、レジ台3上にある商品の大きさおよび形状などの特徴を示す情報を認識する。本実施形態において、プロセッサ41は、外観認識部として、商品が袋状の商品か箱状の形状を有する商品か、筒状の形状を有する商品か、袋状の外観を有する商品かを確認する。 The storage area 42b shall store a program for performing a process of recognizing the size and shape of the article. The processor 41 functions as an appearance recognition unit that recognizes the size and shape of an object by executing a program stored in the storage area 42b. For example, the processor 41 recognizes information indicating features such as the size and shape of the product on the cash register table 3 from the image taken by the camera 12. In the present embodiment, as an appearance recognition unit, the processor 41 confirms whether the product is a bag-shaped product, a box-shaped product, a tubular-shaped product, or a bag-shaped product. ..

記憶領域42cは、位置を検出する処理を実行するためのプログラムを格納するものとする。プロセッサ41は、記憶領域42cが記憶するプログラムを実行することにより、位置を検出する位置検出部として機能する。たとえば、プロセッサ41は、カメラ12が撮影した画像に基づいてレジ台3上にある商品の位置を検出する。 The storage area 42c shall store a program for executing a process of detecting a position. The processor 41 functions as a position detection unit for detecting a position by executing a program stored in the storage area 42c. For example, the processor 41 detects the position of the product on the cash register table 3 based on the image taken by the camera 12.

記憶領域42dは、商品特定情報としてのバーコードを検出する処理を実行するためのプログラムを格納するものとする。プロセッサ41は、記憶領域42dが記憶するプログラムを実行することにより商品に付されているバーコードを検出するバーコード検出部として機能する。たとえば、プロセッサ41は、スキャナ13またはアームスキャナ16が読取る画像からレジ台3上にある商品に付されたバーコードを検出する。 The storage area 42d shall store a program for executing a process of detecting a barcode as product identification information. The processor 41 functions as a barcode detection unit that detects a barcode attached to a product by executing a program stored in the storage area 42d. For example, the processor 41 detects a barcode attached to a product on the checkout table 3 from an image read by the scanner 13 or the arm scanner 16.

記憶領域42eは、商品特定情報としての文字を認識する処理を実行するためのプログラムを格納するものとする。プロセッサ41は、記憶領域42eが記憶するプログラムを実行することにより商品に付されている文字を認識する文字認識部(OCR処理部)として機能する。たとえば、プロセッサ41は、カメラ12が撮影する画像からレジ台3上にある商品に付された商品特定情報としての文字を認識する。 The storage area 42e shall store a program for executing a process of recognizing characters as product-specific information. The processor 41 functions as a character recognition unit (OCR processing unit) that recognizes characters attached to a product by executing a program stored in the storage area 42e. For example, the processor 41 recognizes characters as product identification information attached to a product on the cash register table 3 from an image taken by the camera 12.

次に、アーム装置23の制御系の構成例について説明する。
アーム装置23は、第1アーム14および第2アーム15を動作させるものである。図2に示す構成例において、アーム装置23は、プロセッサ51、メモリ52、インターフェース(I/F)53、アーム駆動機構54、第1アーム14、第2アーム15およびアームスキャナ16などを有する。
Next, a configuration example of the control system of the arm device 23 will be described.
The arm device 23 operates the first arm 14 and the second arm 15. In the configuration example shown in FIG. 2, the arm device 23 includes a processor 51, a memory 52, an interface (I / F) 53, an arm drive mechanism 54, a first arm 14, a second arm 15, an arm scanner 16, and the like.

プロセッサ51は、プログラムを実行することにより各種の処理を実現する。プロセッサ51は、たとえば、CPUである。メモリ52は、ROM、RAMおよび書換え可能な不揮発性メモリなどのメモリで構成する。たとえば、メモリ52は、プログラムおよび制御データなどを記憶する不揮発性のメモリを含む。また、メモリ52は、データを一時的に格納するためのRAMなどのワーキングメモリを含む。
インターフェース(I/F)53は、システムコントローラ21と通信するためのインターフェースである。
The processor 51 realizes various processes by executing a program. The processor 51 is, for example, a CPU. The memory 52 is composed of a memory such as a ROM, a RAM, and a rewritable non-volatile memory. For example, the memory 52 includes a non-volatile memory for storing programs, control data, and the like. Further, the memory 52 includes a working memory such as a RAM for temporarily storing data.
The interface (I / F) 53 is an interface for communicating with the system controller 21.

アーム駆動機構54は、第1アーム14および第2アーム15の動きを制御する。たとえば、アーム駆動機構54は、システムコントローラ21からの動作指示に応じて第1アーム14および第2アーム15をそれぞれ動かす。たとえば、アーム駆動機構54は、システムコントローラ21からの指示に応じてレジ台3上にある商品を把持する。また、アーム駆動機構54は、指示に応じて把持した商品を動かす。さらに、アーム駆動機構54は、指示に応じて第1アーム14を動かしてアームスキャナ16による読取位置を移動させる。 The arm drive mechanism 54 controls the movements of the first arm 14 and the second arm 15. For example, the arm drive mechanism 54 moves the first arm 14 and the second arm 15, respectively, in response to an operation instruction from the system controller 21. For example, the arm drive mechanism 54 grips the product on the cash register table 3 in response to an instruction from the system controller 21. Further, the arm drive mechanism 54 moves the gripped product according to the instruction. Further, the arm drive mechanism 54 moves the first arm 14 in response to an instruction to move the reading position by the arm scanner 16.

次に、対話装置24の制御系の構成例について説明する。
対話装置24は、ユーザインターフェースとして機能する。対話装置24は、ユーザに音声や画像などで情報を提供する。また、対話装置24は、ユーザからの情報を入力し、入力した情報に対する応答としての情報を出力する。図2に示す構成例において、対話装置24は、プロセッサ61、メモリ62、インターフェース(I/F)63、スピーカ17、マイク18、表示器19などを有する。
Next, a configuration example of the control system of the dialogue device 24 will be described.
The dialogue device 24 functions as a user interface. The dialogue device 24 provides information to the user by voice, image, or the like. Further, the dialogue device 24 inputs information from the user and outputs information as a response to the input information. In the configuration example shown in FIG. 2, the dialogue device 24 includes a processor 61, a memory 62, an interface (I / F) 63, a speaker 17, a microphone 18, a display 19, and the like.

プロセッサ61は、プログラムを実行することにより各種の処理を実現する。プロセッサ61は、たとえば、CPUである。メモリ62は、ROM、RAMおよび書換え可能な不揮発性メモリなどのメモリで構成する。インターフェース(I/F)63は、システムコントローラ21と通信するためのインターフェースである。 The processor 61 realizes various processes by executing a program. The processor 61 is, for example, a CPU. The memory 62 is composed of a memory such as a ROM, a RAM, and a rewritable non-volatile memory. The interface (I / F) 63 is an interface for communicating with the system controller 21.

プロセッサ61は、システムコントローラ21からの指示などに応じてスピーカ17から音声を出力する。また、プロセッサ61は、マイク18に入力された音声情報をシステムコントローラ21へ供給する。これにより、プロセッサ61は、スピーカ17およびマイク18を用いて利用者との対話形式による音声の入出力を行う。また、プロセッサ61は、システムコントローラ21からの指示などに応じて表示器19に情報を表示する。 The processor 61 outputs sound from the speaker 17 in response to an instruction from the system controller 21 or the like. Further, the processor 61 supplies the voice information input to the microphone 18 to the system controller 21. As a result, the processor 61 performs interactive voice input / output with the user using the speaker 17 and the microphone 18. Further, the processor 61 displays information on the display 19 in response to an instruction from the system controller 21 or the like.

次に、通信装置25の制御系の構成例について説明する。
通信装置25は、外部装置と通信するための通信インターフェースである。本実施形態において、通信装置25は、精算装置2と通信する。図2に示す構成例において、通信装置25は、プロセッサ71、メモリ72、インターフェース(I/F)73、通信部74などを有する。
Next, a configuration example of the control system of the communication device 25 will be described.
The communication device 25 is a communication interface for communicating with an external device. In the present embodiment, the communication device 25 communicates with the settlement device 2. In the configuration example shown in FIG. 2, the communication device 25 includes a processor 71, a memory 72, an interface (I / F) 73, a communication unit 74, and the like.

プロセッサ71は、プログラムを実行することにより各種の処理を実現する。プロセッサ71は、たとえば、CPUである。メモリ72は、ROM、RAMおよび書換え可能な不揮発性メモリなどのメモリで構成する。インターフェース(I/F)73は、システムコントローラ21と通信するためのインターフェースである。通信部74は、外部装置と通信するためのインターフェースである。図2に示す構成例では、通信部74は、精算装置2と通信するためのインターフェースを含む。 The processor 71 realizes various processes by executing a program. The processor 71 is, for example, a CPU. The memory 72 is composed of a memory such as a ROM, a RAM, and a rewritable non-volatile memory. The interface (I / F) 73 is an interface for communicating with the system controller 21. The communication unit 74 is an interface for communicating with an external device. In the configuration example shown in FIG. 2, the communication unit 74 includes an interface for communicating with the settlement device 2.

なお、商品読取システムとしてのロボット1は、精算装置2と一体的に構成しても良い。また、ロボット1には、商品の代金を精算する機能を具備しても良い。たとえば、ロボット1には、クレジットカードあるいは電子マネーなどでの決済機能を設けても良い。この場合、ロボット1は、商品特定情報の読取りだけでなく、商品特定情報に基づくクレジットカードあるいは電子マネー等での決済も可能となる。 The robot 1 as a product reading system may be integrally configured with the settlement device 2. Further, the robot 1 may be provided with a function of settling the price of the product. For example, the robot 1 may be provided with a payment function using a credit card, electronic money, or the like. In this case, the robot 1 can not only read the product specific information but also make a payment with a credit card, electronic money, or the like based on the product specific information.

次に、実施形態に係る商品読取装置としてのロボット1による商品読取業務の支援処理(商品読取処理)の動作について説明する。
図3及び図4は、実施形態に係るロボット1の動作例を説明するためのフローチャートである。
待機状態において、商品読取装置22のプロセッサ41は、レジ台3の近傍を検知範囲として人物を検知するセンサ11を用いて人物の有無を監視する(ACT11)。センサ11が人物を検知すると(ACT11、YES)、プロセッサ41は、撮影領域をレジ台3の近傍となる人物検出用の撮影領域にセットしたカメラ12で画像を撮影する(ACT12)。人物検出用の撮影領域は、センサ11が検知した人物、あるいは、商品の精算などでレジ台3の手前に現れた人物を撮影できるような撮影領域であれば良い。
Next, the operation of the product reading business support process (product reading process) by the robot 1 as the product reading device according to the embodiment will be described.
3 and 4 are flowcharts for explaining an operation example of the robot 1 according to the embodiment.
In the standby state, the processor 41 of the product reading device 22 monitors the presence or absence of a person by using the sensor 11 that detects a person with the vicinity of the cash register table 3 as the detection range (ACT 11). When the sensor 11 detects a person (ACT11, YES), the processor 41 takes an image with the camera 12 in which the shooting area is set in the shooting area for detecting a person near the cash register table 3 (ACT12). The shooting area for detecting a person may be any shooting area as long as it can shoot a person detected by the sensor 11 or a person who appears in front of the cash register table 3 due to payment of products or the like.

たとえば、プロセッサ41は、カメラ駆動機構45によりレジ台3の手前の空間を含む領域を人物検出用の撮影範囲としてカメラ12に設定する。また、プロセッサ41は、センサ11が検知した人物の位置を推定し、推定した人物の位置に応じてカメラ12の向きや位置などを制御しても良い。なお、プロセッサ41は、カメラ12が撮影した画像を画像メモリ44に保存する。また、プロセッサ41は、連続的に複数の画像をカメラ12で撮影し、撮影した複数の画像を画像メモリ44に保存しても良い。 For example, the processor 41 sets the area including the space in front of the cash register table 3 in the camera 12 as a shooting range for person detection by the camera drive mechanism 45. Further, the processor 41 may estimate the position of the person detected by the sensor 11 and control the direction and position of the camera 12 according to the estimated position of the person. The processor 41 stores the image taken by the camera 12 in the image memory 44. Further, the processor 41 may continuously capture a plurality of images with the camera 12 and store the captured plurality of images in the image memory 44.

カメラ12によりレジ台3近傍の画像を撮影すると、プロセッサ41は、カメラ12が撮影した撮影画像に人物が存在するかを判断する(ACT13)。これにより、プロセッサ41は、カメラ12が撮影する撮影画像からレジ台3の近傍にいる人物(利用者)を検出できる。プロセッサ41は、撮影画像からの人物の検出結果に基づいてレジ台3の近傍に利用者がいるか否かを判断する。利用者がいると判断できない場合(ACT13、NO)、プロセッサ41は、ACT11へ戻り、上述の処理を再度実行する。 When the camera 12 captures an image in the vicinity of the cash register table 3, the processor 41 determines whether or not a person is present in the captured image captured by the camera 12 (ACT 13). As a result, the processor 41 can detect a person (user) in the vicinity of the cash register table 3 from the captured image captured by the camera 12. The processor 41 determines whether or not there is a user in the vicinity of the cash register table 3 based on the detection result of a person from the captured image. If it cannot be determined that there is a user (ACT 13, NO), the processor 41 returns to ACT 11 and executes the above process again.

利用者がいると判断した場合(ACT13、YES)、プロセッサ41は、コントローラ21へ利用者を検知した旨を通知する。利用者を検知した旨の通知を受けると、システムコントローラ21は、対話装置24を用いた当該利用者に対する案内を行う(ACT14)。たとえば、システムコントローラ21は、対話装置24に対して音声指示を出力することにより、スピーカ17から「いらっしゃいませ」などの挨拶の音声を出力する。また、システムコントローラ21は、音声案内とともに表示器19に案内を表示するようにしても良い。 When it is determined that there is a user (ACT 13, YES), the processor 41 notifies the controller 21 that the user has been detected. Upon receiving the notification that the user has been detected, the system controller 21 provides guidance to the user using the dialogue device 24 (ACT 14). For example, the system controller 21 outputs a voice instruction such as "Welcome" from the speaker 17 by outputting a voice instruction to the dialogue device 24. Further, the system controller 21 may display the guidance on the display 19 together with the voice guidance.

また、利用者を検知した場合、プロセッサ41は、撮影領域としてレジ台3上の商品配置位置を含む商品検出用の撮影領域をセットしたカメラ12で画像を撮影する(ACT15)。商品検出用の撮影領域は、レジ台3上に置かれた精算(登録)対象の商品が置かれる領域を含むものであれば良い。たとえば、商品検出用の撮影領域は、レジ台3上の商品が載置可能な領域、あるいは、レジ台3上に設けた商品の配置位置を含む領域であっても良い。ここで、プロセッサ41は、カメラ12が撮影する商品検出用の撮影領域の画像を画像メモリ44に保存するようにしても良い。 When a user is detected, the processor 41 captures an image with a camera 12 in which a shooting area for product detection including a product placement position on the cash register table 3 is set as a shooting area (ACT 15). The photographing area for product detection may be any area including the area where the product to be settled (registered) placed on the cash register table 3 is placed. For example, the photographing area for product detection may be an area on which the product can be placed on the cash register table 3 or an area including an arrangement position of the product provided on the cash register table 3. Here, the processor 41 may store the image of the shooting area for product detection shot by the camera 12 in the image memory 44.

カメラ12により商品検出用の撮影領域を撮影すると、プロセッサ41は、カメラ12が撮影した画像(商品検出用の撮影画像)に商品が存在するかを判断する(ACT16)。これにより、商品読取装置22は、レジ台3上に置かれた商品を検出できる。なお、プロセッサ41は、カメラ12の撮影画像から商品を検出する手法以外の手法でレジ台3上の商品の有無を判断するようにしても良い。 When the shooting area for product detection is photographed by the camera 12, the processor 41 determines whether or not the product exists in the image (photographed image for product detection) captured by the camera 12 (ACT 16). As a result, the product reading device 22 can detect the product placed on the cash register table 3. The processor 41 may determine the presence or absence of the product on the cash register table 3 by a method other than the method of detecting the product from the image taken by the camera 12.

レジ台3上に商品がないと判断した場合(ACT16、NO)、プロセッサ41は、ACT15へ戻り、上述の処理を再度実行する。すなわち、商品が検出できなければ、プロセッサ41は、対話装置24を用いてレジ台3に商品を置くことを促す案内を音声や表示などで行う。たとえば、プロセッサ41は、対話装置24のスピーカ17から「商品をレジ台の上に置いて下さい」と発話するようにしても良い。このような案内と共に、プロセッサ41は、レジ台3上の画像撮影と商品検出とを繰り返し実行する。 When it is determined that there is no product on the cash register table 3 (ACT16, NO), the processor 41 returns to ACT15 and executes the above process again. That is, if the product cannot be detected, the processor 41 uses the dialogue device 24 to provide guidance by voice or display to urge the product to be placed on the cash register table 3. For example, the processor 41 may utter "Please put the product on the checkout table" from the speaker 17 of the dialogue device 24. Along with such guidance, the processor 41 repeatedly executes image shooting and product detection on the cash register table 3.

レジ台3上に商品があると判断した場合(ACT16、YES)、プロセッサ41は、レジ台3上にある商品がアーム装置23で把持すべきものであるかを判定する。すなわち、プロセッサ41は、レジ台3上にある商品の形状を特定する(ACT17)。本実施形態において、プロセッサ41は、商品の形状が、袋状、箱状、筒状の何れであるかを特定するものとする。 When it is determined that the product is on the cash register table 3 (ACT16, YES), the processor 41 determines whether the product on the cash register table 3 should be gripped by the arm device 23. That is, the processor 41 identifies the shape of the product on the cash register table 3 (ACT 17). In the present embodiment, the processor 41 specifies whether the shape of the product is a bag shape, a box shape, or a cylindrical shape.

ここで、袋状の商品とは、所定の把持サイズ以内であれば、アーム装置23が把持できるものであり、外観の形状が変形するものとする。袋状の商品は、所定の大きさ以内であれば、アーム装置23が把持した状態で持ち上げたり回転させたりできる形状であれば良い。また、箱状の商品とは、所定の把持サイズ以内であれば、アーム装置23が把持できる形状を有する固形の物品であるものとする。箱状の商品は、6面体の形状に限定されるものではなく、所定の大きさ以内であれば、アーム装置23が把持した状態で持ち上げたり回転させたりできる形状であれば良い。 Here, the bag-shaped product is one that can be gripped by the arm device 23 as long as it is within a predetermined gripping size, and the shape of the appearance is deformed. The bag-shaped product may have a shape that can be lifted or rotated while being held by the arm device 23, as long as it is within a predetermined size. Further, the box-shaped product is a solid article having a shape that can be gripped by the arm device 23 as long as it is within a predetermined gripping size. The box-shaped product is not limited to the shape of a hexahedron, and may be any shape as long as it is within a predetermined size and can be lifted or rotated while being gripped by the arm device 23.

なお、袋状の商品または箱状の商品が把持できるか否かは、把持サイズではなく、当該商品の重さで判定しても良い。この場合、レジ台3上の商品の重さは、レジ台3に設けた重量センサなどで計測するようにすれば良い。 Whether or not a bag-shaped product or a box-shaped product can be gripped may be determined not by the gripping size but by the weight of the product. In this case, the weight of the product on the cash register table 3 may be measured by a weight sensor or the like provided on the cash register table 3.

また、筒状の商品とは、袋状および箱状以外のものであり、アーム装置23で把持できない(把持すべきでない)形状を有する物品であるものとする。筒状の商品としては、円筒形状の物品に限らず、多角柱、円錐、角錐などのアーム装置23で把持できない形状の物品も含むものとする。たとえば、筒状の商品は、ペットボトル、缶、瓶、カップなどの物品を想定する。 Further, the tubular product is a product other than a bag shape and a box shape, and has a shape that cannot be gripped (should not be gripped) by the arm device 23. The tubular product is not limited to a cylindrical article, but also includes an article having a shape that cannot be grasped by the arm device 23, such as a polygonal column, a cone, and a pyramid. For example, a cylindrical product is assumed to be an item such as a PET bottle, a can, a bottle, or a cup.

レジ台3上にある商品の形状が袋状であると判断した場合(ACT18、YES)、プロセッサ41は、当該商品のサイズが袋の把持サイズ以内であるかを判断する(ACT19)。本実施形態において、アーム装置23は、袋の把持サイズを超えるサイズの袋状の商品を把持できない(把持すべきでない)ものとする。なお、袋状の商品が把持できるか否かは、当該商品の重さで判定するようにしても良い。 When it is determined that the shape of the product on the cash register 3 is bag-shaped (ACT18, YES), the processor 41 determines whether the size of the product is within the gripping size of the bag (ACT19). In the present embodiment, the arm device 23 cannot (should not) grip a bag-shaped product having a size larger than the grip size of the bag. Whether or not the bag-shaped product can be gripped may be determined by the weight of the product.

商品が袋状であると判断した場合、プロセッサ41は、当該商品を把持するか(把持できるか)どうかを当該商品の大きさで判断する。プロセッサ41は、レジ台3上を撮影した画像(商品検出用の撮影画像)における当該商品の画像領域から当該商品の大きさを特定(推定)する。本実施形態において、袋状の商品の大きさは、商品検出用の撮影画像において検出する当該商品のエッジ位置から特定する対角線の長さとする。ただし、袋状の商品の大きさは、当該商品の画像領域の画素数や当該商品の画像領域の面積の推定値などで定義しても良い。 When it is determined that the product is bag-shaped, the processor 41 determines whether or not to grip the product (whether it can be gripped) based on the size of the product. The processor 41 specifies (estimates) the size of the product from the image area of the product in the image (photographed image for product detection) captured on the cash register table 3. In the present embodiment, the size of the bag-shaped product is the length of the diagonal line specified from the edge position of the product detected in the captured image for product detection. However, the size of the bag-shaped product may be defined by the number of pixels in the image area of the product, an estimated value of the area of the image area of the product, or the like.

たとえば、プロセッサ41は、商品検出用の撮影画像において当該商品の画像領域とする矩形領域のエッジとなる4点を検出する。プロセッサ41は、検出した4点からなる矩形の対角線の長さを当該商品の大きさとする。この場合、袋の把持サイズとしては、2つのアーム14,15で両端を摘まんで持ち上げられる商品の大きさ(対角線の長さ)の最大値が設定される。たとえば、袋の把持サイズを500mmすれば、プロセッサ41は、撮影画像における商品のエッジから特定する対角線の長さが500mm以内であるか否かを判定する。 For example, the processor 41 detects four points that are edges of a rectangular region that is an image region of the product in the captured image for product detection. The processor 41 uses the length of the diagonal line of the rectangle consisting of the detected four points as the size of the product. In this case, as the gripping size of the bag, the maximum value of the size (diagonal length) of the product that can be lifted by pinching both ends with the two arms 14 and 15 is set. For example, if the grip size of the bag is 500 mm, the processor 41 determines whether or not the length of the diagonal line specified from the edge of the product in the captured image is within 500 mm.

袋状と判定した当該商品の大きさが袋の把持サイズを超えると判断した場合(ACT19、NO)、プロセッサ41は、当該商品をアーム装置23で把持できないと判断する。当該商品をアーム装置23で把持できないと判断した場合、プロセッサ41は、ACT24へ進み、アームスキャナ16による商品特定情報の読取処理を行う。 When it is determined that the size of the product determined to be bag-shaped exceeds the gripping size of the bag (ACT19, NO), the processor 41 determines that the product cannot be gripped by the arm device 23. If it is determined that the product cannot be gripped by the arm device 23, the processor 41 proceeds to the ACT 24 and performs a product identification information reading process by the arm scanner 16.

袋状と判定した当該商品が袋の把持サイズ以内であると判断した場合(ACT19、YES)、プロセッサ41は、当該商品をアーム装置23で把持することをシステムコントローラ21に指示する。当該商品をアーム装置23で把持することをシステムコントローラ21に指示する。プロセッサ41は、レジ台3上を撮影した撮影画像に基づき、当該商品の位置を示す位置情報と、形状、大きさ、中心、向き等の当該商品の形状を示す形状情報とを特定する。プロセッサ41は、撮影画像から特定した商品の位置情報および形状情報を当該商品が把持対象である旨とともにシステムコントローラ21へ通知する。 When it is determined that the product determined to be bag-shaped is within the bag gripping size (ACT 19, YES), the processor 41 instructs the system controller 21 to grip the product with the arm device 23. Instruct the system controller 21 to grip the product with the arm device 23. The processor 41 specifies position information indicating the position of the product and shape information indicating the shape of the product such as shape, size, center, and orientation, based on a photographed image taken on the cash register table 3. The processor 41 notifies the system controller 21 of the position information and the shape information of the product specified from the captured image together with the fact that the product is the gripping target.

システムコントローラ21のプロセッサ31は、商品読取装置22からの情報に基づいて当該商品をアーム装置23で把持するための把持設定を行う(ACT20)。当該商品が袋状である場合、プロセッサ31は、袋状の商品を把持するためのアルゴリズムと当該商品の位置情報と形状情報とに基づいて当該商品に対する把持設定を行う。ここで、プロセッサ31は、2つのアーム14,15が袋状の商品の両端を摘まむように把持するようにアーム装置23に対する把持設定を行うものとする。 The processor 31 of the system controller 21 sets the grip for gripping the product by the arm device 23 based on the information from the product reading device 22 (ACT 20). When the product is bag-shaped, the processor 31 performs gripping settings for the product based on an algorithm for gripping the bag-shaped product and the position information and shape information of the product. Here, it is assumed that the processor 31 sets the grip on the arm device 23 so that the two arms 14 and 15 grip both ends of the bag-shaped product.

図5は、袋状の商品P1を2つのアーム14および15で把持する場合の動作例を説明するための図である。
アーム装置23は、各アーム部14a,15aの先端部に設けた把持機構14b,15bが袋状の商品の両端をそれぞれ摘まむように各アーム14,15を動かす。各アーム14,15は、把持機構14b、15bが商品の両端の外側から商品の中心に向かって商品と平行にレジ台3の上面をこするように動かす。アーム装置23は、一方のアーム14(15)の把持機構14b(15b)が商品の長手方向の一端を摘まんだ後、他方のアーム15(14)の把持機構15b(14b)が当該商品の長手方向の反対側の一端を摘まむように動かす。
FIG. 5 is a diagram for explaining an operation example when the bag-shaped product P1 is gripped by the two arms 14 and 15.
The arm device 23 moves the arms 14 and 15 so that the gripping mechanisms 14b and 15b provided at the tips of the arm portions 14a and 15a pinch both ends of the bag-shaped product. The arms 14 and 15 are moved so that the gripping mechanisms 14b and 15b rub the upper surface of the cash register table 3 from the outside of both ends of the product toward the center of the product in parallel with the product. In the arm device 23, after the gripping mechanism 14b (15b) of one arm 14 (15) has pinched one end in the longitudinal direction of the product, the gripping mechanism 15b (14b) of the other arm 15 (14) is the product. Move to pinch the opposite end in the longitudinal direction.

図5に示す例では、第1アーム14が把持機構14bで商品P1の一端を摘まんだ後、第2アーム15が、把持機構15bを矢印a方向に動かす。第2アーム15は、把持機構15bの把持位置が当該商品の端部に到達すると、把持機構15bが当該商品の端部を摘まむ。これにより、把持機構14bと15bとは、商品の長手方向における両端を摘まむことができる。
システムコントローラ21のプロセッサ31は、アーム装置23を上述の動作で商品の両端を把持できるように当該商品の位置情報および形状情報に応じて把持設定を行う。
In the example shown in FIG. 5, after the first arm 14 picks one end of the product P1 with the gripping mechanism 14b, the second arm 15 moves the gripping mechanism 15b in the direction of the arrow a. When the gripping position of the gripping mechanism 15b reaches the end of the product, the second arm 15 picks the end of the product. Thereby, the gripping mechanisms 14b and 15b can pinch both ends in the longitudinal direction of the product.
The processor 31 of the system controller 21 sets the grip according to the position information and the shape information of the product so that the arm device 23 can grip both ends of the product by the above-mentioned operation.

また、レジ台3上にある商品の形状が箱状であると判断した場合(ACT21、YES)、プロセッサ41は、箱状の商品のサイズが箱の把持サイズ以内であるかを判断する(ACT22)。本実施形態において、アーム装置23は、箱の把持サイズを超える幅を有する箱状の商品を把持できない(把持すべきでない)ものとする。すなわち、商品が箱状であると判断した場合、プロセッサ41は、当該商品を把持するか(把持できるか)どうかを当該商品の幅で判断する。 When it is determined that the shape of the product on the cash register table 3 is box-shaped (ACT21, YES), the processor 41 determines whether the size of the box-shaped product is within the gripping size of the box (ACT22). ). In the present embodiment, the arm device 23 cannot (should not) grip a box-shaped product having a width exceeding the gripping size of the box. That is, when it is determined that the product is box-shaped, the processor 41 determines whether or not the product is gripped (whether it can be gripped) based on the width of the product.

たとえば、プロセッサ41は、レジ台3上を撮影した画像(商品検出用の撮影画像)から当該商品の幅を特定(推定)する。商品検出用の撮影画像はレジ台3を上方から撮影した画像であるので、商品検出用の撮影画像にはレジ台3上に置かれた箱状の商品が矩形の画像として撮影される。プロセッサ41は、商品検出用の撮影画像における当該商品の矩形領域のエッジとなる4点を検出する。また、箱状と判定した商品が完全な矩形の画像として撮影されない場合、プロセッサ41は、当該商品の画像領域に外接する矩形領域のエッジとなる4点を検出しても良い。 For example, the processor 41 specifies (estimates) the width of the product from the image (photographed image for product detection) taken on the cash register table 3. Since the photographed image for product detection is an image of the cash register table 3 taken from above, the box-shaped product placed on the cash register table 3 is photographed as a rectangular image in the photographed image for product detection. The processor 41 detects four points that are edges of the rectangular region of the product in the captured image for product detection. Further, when the product determined to be box-shaped is not captured as a completely rectangular image, the processor 41 may detect four points that are edges of the rectangular region circumscribing the image region of the product.

プロセッサ41は、商品検出用の撮影画像から検出した当該商品の矩形領域のエッジとする4点から当該商品の幅を推定する。商品の幅は、把持機構14b、15bが把持する部分の幅であるものとする。この場合、箱の把持サイズとしては、アーム14、15の把持機構14b、15bが商品の側面から挟持できる商品の幅の最大値が設定される。たとえば、箱の把持サイズを100mmすれば、プロセッサ41は、商品検出用の撮影画像から検出した箱状の商品の幅が100mm以内であるか否かを判定する。なお、箱状の商品が把持できるか否かは、当該商品の重さで判定するようにしても良い。 The processor 41 estimates the width of the product from four points which are the edges of the rectangular region of the product detected from the captured image for product detection. The width of the product shall be the width of the portion gripped by the gripping mechanisms 14b and 15b. In this case, as the gripping size of the box, the maximum value of the width of the product that the gripping mechanisms 14b and 15b of the arms 14 and 15 can hold from the side surface of the product is set. For example, if the grip size of the box is 100 mm, the processor 41 determines whether or not the width of the box-shaped product detected from the captured image for product detection is within 100 mm. Whether or not the box-shaped product can be gripped may be determined by the weight of the product.

プロセッサ41は、レジ台3上にある箱状の商品の幅が箱の把持サイズを超えると判断した場合(ACT22、NO)、当該商品をアーム装置23で把持できないと判断する。当該商品を把持できないと判断した場合、プロセッサ41は、ACT24へ進み、アームスキャナ16を用いた商品特定情報の読取処理を行う。 When the processor 41 determines that the width of the box-shaped product on the cash register table 3 exceeds the gripping size of the box (ACT22, NO), the processor 41 determines that the product cannot be gripped by the arm device 23. If it is determined that the product cannot be gripped, the processor 41 proceeds to the ACT 24 and performs a product identification information reading process using the arm scanner 16.

当該商品の幅が箱の把持サイズ以内であると判断した場合(ACT22、YES)、プロセッサ41は、当該商品をアーム装置23で把持することをシステムコントローラ21に指示する。プロセッサ41は、レジ台3上を撮影した撮影画像に基づき、当該商品の位置を示す位置情報と、形状、大きさ、中心、向き等の当該商品の形状を示す形状情報とを特定する。プロセッサ41は、当該商品の位置情報および形状情報を当該商品が把持対象である旨とともにシステムコントローラ21へ通知する。 When it is determined that the width of the product is within the gripping size of the box (ACT22, YES), the processor 41 instructs the system controller 21 to grip the product by the arm device 23. The processor 41 specifies position information indicating the position of the product and shape information indicating the shape of the product such as shape, size, center, and orientation, based on a photographed image taken on the cash register table 3. The processor 41 notifies the system controller 21 of the position information and the shape information of the product together with the fact that the product is the gripping target.

システムコントローラ21のプロセッサ31は、商品読取装置22からの情報に基づいて、当該商品をアーム装置23で把持するための把持設定を行う(ACT22)。当該商品が箱状である場合、プロセッサ31は、箱状の商品を把持するためのアルゴリズムと当該商品の位置情報と形状情報とに基づいて当該商品に対する把持設定を行う。 The processor 31 of the system controller 21 sets the grip for gripping the product by the arm device 23 based on the information from the product reading device 22 (ACT 22). When the product is box-shaped, the processor 31 performs gripping settings for the product based on an algorithm for gripping the box-shaped product and the position information and shape information of the product.

図6は、箱状の商品P2を2つのアーム14および15で把持した状態の例を説明するための図である。
図6に示す例において、アーム装置23は、各アーム部14a、15aの先端部に設けた把持機構14b、15bで箱状の商品の両側を把持するものとする。たとえば、アーム装置23は、商品に対して垂直方向の上方からレジ台3に向かって各アーム部14a、15aの先端部(把持機構14b、15b)を動かして商品の両側を把持する。プロセッサ31は、アーム装置23が上述したような動作で商品の両側を把持できるように、当該商品の位置情報および形状情報に応じた把持設定を行う。
FIG. 6 is a diagram for explaining an example of a state in which the box-shaped product P2 is gripped by the two arms 14 and 15.
In the example shown in FIG. 6, the arm device 23 shall grip both sides of the box-shaped product by the gripping mechanisms 14b and 15b provided at the tip portions of the arm portions 14a and 15a. For example, the arm device 23 moves both ends of the arm portions 14a and 15a (grip mechanisms 14b and 15b) from above in the direction perpendicular to the product toward the cash register table 3 to grip both sides of the product. The processor 31 performs gripping settings according to the position information and shape information of the product so that the arm device 23 can grip both sides of the product by the operation as described above.

また、レジ台3上にある商品の形状が筒状であると判断した場合(ACT21、NO)、プロセッサ41は、当該商品をアーム装置23で把持できない形状であると判断する。当該商品をアーム装置23で把持できないと判断した場合、プロセッサ41は、ACT24へ進み、アームスキャナ16による商品特定情報の読取処理を行う。 Further, when it is determined that the shape of the product on the cash register table 3 is cylindrical (ACT21, NO), the processor 41 determines that the product cannot be gripped by the arm device 23. If it is determined that the product cannot be gripped by the arm device 23, the processor 41 proceeds to the ACT 24 and performs a product identification information reading process by the arm scanner 16.

システムコントローラ21による商品の把持設定が実施されると、アーム装置23のプロセッサ51は、把持設定に従って各アーム14.15を駆動させて商品を把持する(ACT30)。
たとえば、袋状の商品を把持する場合、プロセッサ51は、把持設定に従って把持機構14bを商品の外側から当該商品の中心に向かって動かして商品の一端を摘まむ。把持機構14bが商品の一端を摘まんだ後、プロセッサ51は、図5に示すように、第2アーム15を把持設定に従って動かして把持機構15bで当該商品の反対側の一端を摘まむ。これにより、アーム装置23は、2つのアーム14、15で商品の両端を摘まむように把持する。
When the product grip setting is performed by the system controller 21, the processor 51 of the arm device 23 drives each arm 14.15 according to the grip setting to grip the product (ACT30).
For example, when gripping a bag-shaped product, the processor 51 moves the gripping mechanism 14b from the outside of the product toward the center of the product according to the grip setting to pinch one end of the product. After the gripping mechanism 14b has pinched one end of the product, the processor 51 moves the second arm 15 according to the gripping setting to pinch the other end of the product with the gripping mechanism 15b, as shown in FIG. As a result, the arm device 23 grips the two arms 14 and 15 so as to pinch both ends of the product.

また、箱状の商品を把持する場合、プロセッサ51は、把持設定で指定される位置に基づいてアーム14、15の先端部(把持機構)をレジ台3の上方から当該商品の両側に動かす。プロセッサ51は、アーム14で商品の一端部を上から把持し、アーム15で当該商品の他端部を把持する。これにより、アーム装置23は、図6に示すように、2つのアーム14、15で商品の両側をそれぞれ把持する。 When gripping a box-shaped product, the processor 51 moves the tip portions (grip mechanism) of the arms 14 and 15 from above the cash register table 3 to both sides of the product based on the position specified in the grip setting. The processor 51 grips one end of the product from above with the arm 14, and grips the other end of the product with the arm 15. As a result, as shown in FIG. 6, the arm device 23 grips both sides of the product with the two arms 14 and 15, respectively.

アーム14、15が商品を把持すると、プロセッサ51は、システムコントローラ21の指示に応じて、把持した商品を持ち上げてスキャナ13の読取位置までに移動させる(ACT31)。持ち上げた商品をスキャナ13の読取位置まで移動させると、プロセッサ51は、当該商品をスキャナ13の読取位置において所定の方向および角度で回転させる(ACT32)。プロセッサ51は、システムコントローラ21が指定する回転手順でアーム14、15が把持する商品を回転させる。 When the arms 14 and 15 grip the product, the processor 51 lifts the gripped product and moves it to the reading position of the scanner 13 in response to an instruction from the system controller 21 (ACT 31). When the lifted product is moved to the reading position of the scanner 13, the processor 51 rotates the product at the reading position of the scanner 13 in a predetermined direction and angle (ACT 32). The processor 51 rotates the product held by the arms 14 and 15 in the rotation procedure specified by the system controller 21.

たとえば、プロセッサ51は、商品を前方向(スキャナ13に向かって下方向)に90回転させた後、前方向とは逆の後方向に180℃回転させる。なお、商品が箱状であれば、システムコントローラ21は、箱の側面がスキャナ13で読み取れるように前方向及び後方向とは直交する横方向に回転させても良い。 For example, the processor 51 rotates the product 90 times in the forward direction (downward toward the scanner 13) and then rotates 180 ° C. in the reverse direction opposite to the front direction. If the product is box-shaped, the system controller 21 may be rotated in the lateral direction orthogonal to the front direction and the rear direction so that the side surface of the box can be read by the scanner 13.

アーム装置23により商品を回転させるとともに、システムコントローラ21のプロセッサ31は、当該商品の商品特定情報(バーコード)の読取りを商品読取装置22へ指示する。これに応じて、商品読取装置22のプロセッサ41は、スキャナ13を用いてアーム装置23が回転させる商品からバーコードを読み取る読取処理を行う(ACT33)。本実施形態では、スキャナ13が読取る商品特定情報がバーコードであるものとしている。 The product is rotated by the arm device 23, and the processor 31 of the system controller 21 instructs the product reading device 22 to read the product identification information (bar code) of the product. In response to this, the processor 41 of the product reading device 22 performs a reading process of reading a barcode from the product rotated by the arm device 23 using the scanner 13 (ACT 33). In the present embodiment, it is assumed that the product identification information read by the scanner 13 is a barcode.

すなわち、プロセッサ41は、アーム装置23が商品の回転させている間、スキャナ13によるバーコードの読取処理を実行する。スキャナ13は、アーム14、15によって読取位置で回転される商品の外観からバーコードを読取る。これにより、プロセッサ41は、スキャナ13が商品特定情報としてのバーコードを読取ったか否かを判断する(ACT34)。 That is, the processor 41 executes the barcode reading process by the scanner 13 while the arm device 23 rotates the product. The scanner 13 reads the barcode from the appearance of the product rotated at the reading position by the arms 14 and 15. As a result, the processor 41 determines whether or not the scanner 13 has read the barcode as the product identification information (ACT 34).

スキャナ13によりバーコードが読取れた場合(ACT34、YES)、プロセッサ41は、バーコードとして読取った商品特定情報を読取結果として出力する(ACT43)。たとえば、商品からバーコードが読取ると、プロセッサ41は、スキャナ13で読取ったバーコードで特定される商品を示す情報を通信装置25を介して精算装置2へ出力する。 When the barcode is read by the scanner 13 (ACT34, YES), the processor 41 outputs the product identification information read as the barcode as a reading result (ACT43). For example, when a bar code is read from a product, the processor 41 outputs information indicating the product specified by the bar code read by the scanner 13 to the checkout device 2 via the communication device 25.

また、スキャナ13によりバーコードが読み取れなかった場合(ACT34、NO)、プロセッサ41は、所定の条件に基づいてバーコードの読取処理をリトライするか否かを判断する(ACT35)。たとえば、プロセッサ41は、上述したアーム装置23による商品の回転を2回実行し、バーコードの読取りを試みるものとする。
スキャナ13によるバーコードの読取処理をリトライすると判断した場合(ACT35、YES)、プロセッサ41は、ACT32へ戻り、上述した処理を繰り返す。
Further, when the barcode cannot be read by the scanner 13 (ACT 34, NO), the processor 41 determines whether or not to retry the barcode reading process based on a predetermined condition (ACT 35). For example, it is assumed that the processor 41 executes the rotation of the product by the arm device 23 described above twice and attempts to read the barcode.
When it is determined that the barcode reading process by the scanner 13 is to be retried (ACT35, YES), the processor 41 returns to the ACT 32 and repeats the above-mentioned process.

また、リトライしないと判断した場合(ACT35、NO)、プロセッサ41は、商品のパッケージを引き伸ばした状態でスキャナ13による商品特定情報(パーコード)の読取処理(引き伸ばし状態での読取処理)を実行するか否かを判断する(ACT36)。商品のパッケージを引き伸ばした状態とは、当該商品の両端を把持している2つのアーム14、15が把持位置間を引っ張った状態である。 If it is determined not to retry (ACT35, NO), the processor 41 executes the product identification information (percode) reading process (reading process in the stretched state) by the scanner 13 in a state where the product package is stretched. Whether or not it is determined (ACT36). The stretched state of the product package is a state in which the two arms 14 and 15 gripping both ends of the product are pulled between the gripping positions.

商品パッケージの引き伸ばしは、商品のパッケージにおける折れやしわ等が原因でパッケージに印刷されているバーコードが読取れない場合であることを想定している。つまり、パッケージの両端(2つのアームによる把持位置間)を引っ張ってバーコードが読取れる可能性がある商品が引き伸ばしの対象となる。本実施形態では、袋状の商品に対して、引き伸ばし状態でのバーコードの読取処理を実行するものとする。この場合、プロセッサ41は、当該商品が袋状あるか否かにより、当該商品に対して引き伸ばし状態での読取処理を行うか否かを判断する。 The enlargement of the product package assumes that the barcode printed on the package cannot be read due to creases or wrinkles in the product package. That is, a product whose barcode can be read by pulling both ends of the package (between the gripping positions by the two arms) is the target of stretching. In the present embodiment, it is assumed that the bar code reading process in the stretched state is executed for the bag-shaped product. In this case, the processor 41 determines whether or not to perform the reading process in the stretched state for the product, depending on whether or not the product is in the shape of a bag.

引き伸ばし状態での読取処理を実行すると判断した場合(ACT36、YES)、プロセッサ41は、システムコントローラ21に対して引き伸ばし状態での読取処理を実行する旨を指示する。引き伸ばし状態の読取処理の指示を受けると、システムコントローラ21のプロセッサ31は、アーム装置23に対して当該商品のパッケージを引き伸ばす指示を送る(ACT37)。 When it is determined to execute the reading process in the stretched state (ACT36, YES), the processor 41 instructs the system controller 21 to execute the reading process in the stretched state. Upon receiving an instruction to read the stretched state, the processor 31 of the system controller 21 sends an instruction to stretch the package of the product to the arm device 23 (ACT37).

アーム装置23は、システムコントローラ21からの指示に応じて、両アーム14、15が把持している商品の両端を互いに引っ張るように動作させる。ここで、第1アーム14の把持機構14bと第2アーム15の把持機構15bとは、それぞれ商品の両端を把持している。このため、プロセッサ51は、把持機構14b(第1アーム14の把持位置)と把持機構15b(第2アーム15の把持位置)とを互いに反対向きに一定の動力で動かすように制御する。つまり、プロセッサ51は、各アーム14、15の把持位置間を一定の力で引っ張るように、アーム駆動機構54でアーム部14aとアーム部15aとを動作させる。把持位置間を一定の力で引っ張ると、アーム14、15は、商品のパッケージを引き伸ばした状態で当該商品の両端を把持するものとなる。 The arm device 23 operates so as to pull both ends of the product held by both arms 14 and 15 from each other in response to an instruction from the system controller 21. Here, the gripping mechanism 14b of the first arm 14 and the gripping mechanism 15b of the second arm 15 grip both ends of the product, respectively. Therefore, the processor 51 controls the gripping mechanism 14b (the gripping position of the first arm 14) and the gripping mechanism 15b (the gripping position of the second arm 15) to move in opposite directions with a constant power. That is, the processor 51 operates the arm portion 14a and the arm portion 15a by the arm drive mechanism 54 so as to pull between the gripping positions of the arms 14 and 15 with a constant force. When the arms 14 and 15 are pulled with a constant force between the gripping positions, the arms 14 and 15 grip both ends of the product in a stretched state.

把持位置間を引っ張ると、プロセッサ51は、把持位置間を引っ張った状態(パッケージを引き伸ばした状態)のままで把持する商品をスキャナ13の読取位置で回転させる(ACT38)。たとえば、アーム装置23のプロセッサ51は、把持位置間を引っ張った状態で当該商品をスキャナ13の読取位置に持ち上げる。スキャナ13の読取位置に当該商品を持ち上げた後、プロセッサ51は、当該商品をスキャナ13の読取位置において所定の方向および角度で回転させる。アーム14、15が引っ張った状態で把持する商品を回転させる回転手順は、上記ACT32と同様な手順であっても良い。 When the product is pulled between the gripping positions, the processor 51 rotates the product to be gripped in the state of being pulled between the gripping positions (the state in which the package is stretched) at the reading position of the scanner 13 (ACT38). For example, the processor 51 of the arm device 23 lifts the product to the reading position of the scanner 13 while pulling between the gripping positions. After lifting the product to the reading position of the scanner 13, the processor 51 rotates the product at the reading position of the scanner 13 in a predetermined direction and angle. The rotation procedure for rotating the product to be gripped while the arms 14 and 15 are pulled may be the same procedure as that for the ACT 32.

アーム装置23に引き伸ばした状態の商品を回転させるとともに、システムコントローラ21のプロセッサ31は、当該商品のバーコード(商品特定情報)の読取りを商品読取装置22へ指示する。これに応じて、商品読取装置22のプロセッサ41は、スキャナ13を用いてアーム装置23が回転させる商品から商品特定情報としてのバーコードを読み取る処理を行う(ACT39)。 While rotating the stretched product on the arm device 23, the processor 31 of the system controller 21 instructs the product reading device 22 to read the barcode (product specific information) of the product. In response to this, the processor 41 of the product reading device 22 performs a process of reading a barcode as product identification information from the product rotated by the arm device 23 using the scanner 13 (ACT 39).

すなわち、プロセッサ41は、アーム装置23が引き伸ばした状態の商品の回転させている間、スキャナ13によるバーコードの読取処理を実行する。スキャナ13は、アーム14、15によって読取位置で回転される商品の外観からバーコードを読取る。これにより、プロセッサ41は、スキャナ13が商品特定情報としてのバーコードを読取ったか否かを判断する(ACT40)。 That is, the processor 41 executes the barcode reading process by the scanner 13 while the arm device 23 rotates the product in the stretched state. The scanner 13 reads the barcode from the appearance of the product rotated at the reading position by the arms 14 and 15. As a result, the processor 41 determines whether or not the scanner 13 has read the barcode as the product identification information (ACT 40).

スキャナ13によりバーコードが読取れた場合(ACT40、YES)、プロセッサ41は、バーコードとして読取った商品特定情報を読取結果として出力する(ACT43)。たとえば、商品からバーコードを読取ると、プロセッサ41は、スキャナ13で読取ったバーコードで特定される商品を示す情報を通信装置25を介して精算装置2へ出力する。 When the barcode is read by the scanner 13 (ACT 40, YES), the processor 41 outputs the product identification information read as the barcode as a reading result (ACT 43). For example, when a bar code is read from a product, the processor 41 outputs information indicating the product specified by the bar code read by the scanner 13 to the settlement device 2 via the communication device 25.

また、スキャナ13が商品特定情報を読み取れなかった場合(ACT40、NO)、プロセッサ41は、所定の条件に基づいて引き伸ばした状態での読取処理をリトライするか否かを判断する(ACT41)。引き伸ばした状態でのバーコードの読取処理をリトライすると判断した場合(ACT35、YES)、プロセッサ41は、ACT38へ戻り、上述した処理を繰り返す。 Further, when the scanner 13 cannot read the product specific information (ACT 40, NO), the processor 41 determines whether or not to retry the reading process in the stretched state based on a predetermined condition (ACT 41). When it is determined to retry the barcode reading process in the stretched state (ACT35, YES), the processor 41 returns to the ACT 38 and repeats the above-mentioned process.

リトライしないと判断した場合(ACT41、NO)、プロセッサ41は、カメラ12が撮影する撮影画像による商品認識処理(商品特定情報の読取処理)を実行する(ACT42)。カメラ12の撮影画像による商品認識処理は、汚れなどでバーコードが読取れなかった商品を処理対象として想定する。商品認識処理において、プロセッサ41は、アーム装置23が把持する商品をカメラ12で撮影し、カメラ12が撮影した撮影画像から商品を認識する。商品認識処理については、後で詳細説明するものとする。 When it is determined not to retry (ACT 41, NO), the processor 41 executes a product recognition process (reading process of product specific information) based on the captured image captured by the camera 12 (ACT 42). In the product recognition process based on the captured image of the camera 12, it is assumed that the product whose barcode cannot be read due to dirt or the like is the processing target. In the product recognition process, the processor 41 photographs the product held by the arm device 23 with the camera 12, and recognizes the product from the captured image captured by the camera 12. The product recognition process will be described in detail later.

プロセッサ41は、商品認識処理による認識結果を商品特定情報の読取結果として出力する(ACT43)。たとえば、商品認識処理で商品が認識できなかった場合、プロセッサ41は、通信装置25を介して商品特定情報が読取れなった旨を精算装置2へ出力する。商品認識処理で商品が認識できた場合、プロセッサ41は、通信装置25を介して認識した商品を示す情報を精算装置2へ出力する。 The processor 41 outputs the recognition result by the product recognition process as the reading result of the product identification information (ACT43). For example, when the product cannot be recognized by the product recognition process, the processor 41 outputs to the settlement device 2 that the product identification information cannot be read via the communication device 25. When the product can be recognized by the product recognition process, the processor 41 outputs the information indicating the recognized product to the settlement device 2 via the communication device 25.

次に、アームスキャナ16によるバーコードの読取処理について説明する。
図7は、アームスキャナ16によるバーコードの読取処理の動作例を説明するためのフローチャートである。
上述した動作例によれば、本システムは、形状が袋状又は箱状でない商品、或は、サイズが規定値を超える商品をアームスキャナ16による読取処理の対象とする。アームスキャナ16は、アーム14の先端部に設けられ、アーム14の移動によって読取位置が動作する。アームスキャナ16による読取処理では、レジ台3に置かれた商品に沿ってアーム14の先端部を動かすことによりアームスキャナ16で商品面をスキャンする。
Next, the barcode reading process by the arm scanner 16 will be described.
FIG. 7 is a flowchart for explaining an operation example of the barcode reading process by the arm scanner 16.
According to the above-mentioned operation example, the system targets a product whose shape is not bag-shaped or box-shaped, or a product whose size exceeds a specified value, to be read by the arm scanner 16. The arm scanner 16 is provided at the tip of the arm 14, and the reading position is operated by the movement of the arm 14. In the reading process by the arm scanner 16, the product surface is scanned by the arm scanner 16 by moving the tip of the arm 14 along the product placed on the cash register table 3.

商品読取装置22のプロセッサ41は、商品がアームスキャナ16による読取処理の対象と判断すると、システムコントローラ21へアームスキャナ16による読取処理を要求する。また、プロセッサ41は、カメラ12が撮影した商品検出用の画像から特定した種々の情報(商品の形状、商品の中心位置、商品のエッジ位置など)をシステムコントローラ21へ供給する。アームスキャナ16による読取処理を実行する場合、システムコントローラ21のプロセッサ31は、当該商品の形状を確認する。 When the processor 41 of the product reading device 22 determines that the product is the target of the reading process by the arm scanner 16, the processor 41 requests the system controller 21 to perform the reading process by the arm scanner 16. Further, the processor 41 supplies various information (the shape of the product, the center position of the product, the edge position of the product, etc.) specified from the image for product detection taken by the camera 12 to the system controller 21. When the reading process by the arm scanner 16 is executed, the processor 31 of the system controller 21 confirms the shape of the product.

当該商品が袋状と判断した場合(ACT61、YES)、システムコントローラ21のプロセッサ31は、商品の上面をスキャナするようにアームスキャナ16を動かすことをアーム装置23へ指示する。たとえば、プロセッサ31は、当該商品のエッジ位置に基づいてアームスキャナ16がスキャンする位置(移動経路)を決定する。 When the product is determined to be bag-shaped (ACT61, YES), the processor 31 of the system controller 21 instructs the arm device 23 to move the arm scanner 16 so as to scan the upper surface of the product. For example, the processor 31 determines a position (movement path) to be scanned by the arm scanner 16 based on the edge position of the product.

たとえば、プロセッサ31は、当該商品の4隅と推定される4つのエッジを結ぶようにロの字型にアームスキャナ16を移動させる第1経路を設定する。さらに、プロセッサ31は、第1経路でバーコードが読取れなかった場合に4つのエッジからなる対角線に沿ってアームスキャナ16を移動させる第2経路を設定する。これにより、アームスキャナ16は、レジ台3上に置かれた商品の上面を全体的にスキャナすることが可能となる。また、第1経路と第2経路とを設定することで、アームスキャナ16は、第1経路で商品の外周付近を先にスキャナした後に第2経路で商品全体をスキャナできる。 For example, the processor 31 sets a first path for moving the arm scanner 16 in a square shape so as to connect the four edges presumed to be the four corners of the product. Further, the processor 31 sets a second path for moving the arm scanner 16 along a diagonal line consisting of four edges when the barcode cannot be read in the first path. As a result, the arm scanner 16 can scan the entire upper surface of the product placed on the cash register table 3. Further, by setting the first path and the second path, the arm scanner 16 can scan the entire product in the second path after first scanning the vicinity of the outer periphery of the product in the first path.

アーム装置23のプロセッサ51は、システムコントローラ21からの指示に従ってアームスキャナ16を移動させて袋状の商品の上面をスキャンする(ACT62)。プロセッサ51は、アーム駆動機構54によりシステムコントローラ21から指示される経路をアームスキャナ16が移動するようにアーム14を駆動させる。アームスキャナ16は、アーム14によってスキャン位置を移動しながらレジ台3上に置かれた袋状の商品の上面からバーコードをスキャンする。 The processor 51 of the arm device 23 moves the arm scanner 16 according to the instruction from the system controller 21 to scan the upper surface of the bag-shaped product (ACT 62). The processor 51 drives the arm 14 so that the arm scanner 16 moves along the path instructed by the system controller 21 by the arm drive mechanism 54. The arm scanner 16 scans a barcode from the upper surface of a bag-shaped product placed on the cash register table 3 while moving the scan position by the arm 14.

アーム装置23のプロセッサ51は、アームスキャナ16による読取り結果をシステムコントローラ21へ供給する。システムコントローラ21のプロセッサ31は、アーム装置23からのバーコードの読取結果を商品特定情報の読取結果として通信装置25を介して精算装置2へ出力する。 The processor 51 of the arm device 23 supplies the reading result by the arm scanner 16 to the system controller 21. The processor 31 of the system controller 21 outputs the reading result of the barcode from the arm device 23 to the settlement device 2 via the communication device 25 as the reading result of the product identification information.

また、当該商品が箱状と判断した場合(ACT63、YES)、システムコントローラ21のプロセッサ31は、商品の上面をスキャナするようにアームスキャナ16を動かすことをアーム装置23へ指示する。たとえば、プロセッサ31は、当該商品のエッジ位置に基づいてアームスキャナ16がスキャンする位置(移動経路)を決定する。たとえば、プロセッサ31は、上述した例と同様、商品の4隅と推定される4つのエッジを結ぶロの字型の第1経路と4つのエッジの対角線に沿う第2経路とを設定する。 If the product is determined to be box-shaped (ACT63, YES), the processor 31 of the system controller 21 instructs the arm device 23 to move the arm scanner 16 so as to scan the upper surface of the product. For example, the processor 31 determines a position (movement path) to be scanned by the arm scanner 16 based on the edge position of the product. For example, the processor 31 sets a square-shaped first path connecting the four edges presumed to be the four corners of the product and a second path along the diagonal of the four edges, as in the above example.

アーム装置23のプロセッサ51は、システムコントローラ21からの指示に従ってアームスキャナ16を移動させて箱状の商品の上面をスキャンする(ACT64)。プロセッサ51は、アーム駆動機構54によりシステムコントローラ21から指示される経路をアームスキャナ16が移動するようにアーム14を駆動させる。アームスキャナ16は、アーム14によってスキャン位置を移動しながらレジ台3上に置かれた箱状の商品の上面からバーコードをスキャンする。 The processor 51 of the arm device 23 moves the arm scanner 16 according to the instruction from the system controller 21 to scan the upper surface of the box-shaped product (ACT64). The processor 51 drives the arm 14 so that the arm scanner 16 moves along the path instructed by the system controller 21 by the arm drive mechanism 54. The arm scanner 16 scans the barcode from the upper surface of the box-shaped product placed on the cash register table 3 while moving the scanning position by the arm 14.

アーム装置23のプロセッサ51は、アームスキャナ16によるバーコードの読取結果をシステムコントローラ21へ供給する。システムコントローラ21のプロセッサ31は、アーム装置23からの読取結果によってアームスキャナ16が当該商品の上面からバーコードを読み取れたか否かを判断する(ACT65)。商品の上面からバーコードが読取れた場合(ACT65、NO)、プロセッサ31は、バーコードの読取結果を通信装置25を介して精算装置2へ出力する。 The processor 51 of the arm device 23 supplies the reading result of the barcode by the arm scanner 16 to the system controller 21. The processor 31 of the system controller 21 determines whether or not the arm scanner 16 can read the barcode from the upper surface of the product based on the reading result from the arm device 23 (ACT65). When the barcode is read from the upper surface of the product (ACT65, NO), the processor 31 outputs the barcode reading result to the settlement device 2 via the communication device 25.

商品の上面からバーコードが読取れなかった場合(ACT65、YES)、プロセッサ31は、当該商品の側面をアームスキャナ16でスキャンすることをアーム装置23へ指示する。たとえば、プロセッサ31は、当該商品のエッジ位置に基づいてアームスキャナ16が当該商品の側面をスキャンするための経路を設定する。 If the barcode cannot be read from the top surface of the product (ACT65, YES), the processor 31 instructs the arm device 23 to scan the side surface of the product with the arm scanner 16. For example, the processor 31 sets a path for the arm scanner 16 to scan the side surface of the product based on the edge position of the product.

アーム装置23のプロセッサ51は、システムコントローラ21からの指示に従ってアームスキャナ16を移動させて箱状の商品の側面をスキャンする(ACT66)。プロセッサ51は、アーム駆動機構54によりアームスキャナ16をレジ台3上の商品の側面に沿って移動させながら当該商品の側面からバーコードをスキャンする。システムコントローラ21のプロセッサ31は、アーム装置23からのバーコードの読取結果を商品特定情報の読取結果として通信装置25を介して精算装置2へ出力する。 The processor 51 of the arm device 23 moves the arm scanner 16 according to the instruction from the system controller 21 to scan the side surface of the box-shaped product (ACT66). The processor 51 scans the barcode from the side surface of the product while moving the arm scanner 16 along the side surface of the product on the cash register table 3 by the arm drive mechanism 54. The processor 31 of the system controller 21 outputs the reading result of the barcode from the arm device 23 to the settlement device 2 via the communication device 25 as the reading result of the product identification information.

当該商品が筒状(袋状でも箱状でもない)と判断した場合(ACT63、NO)、システムコントローラ21のプロセッサ31は、レジ台3上の商品の高さが所定高(たとえば、高さ100mm)以内であるか否かを判断する(ACT70)。ここで、商品の高さとは、レジ台3の上面(商品の載置面)からレジ台3に置かれた状態の商品の最上部までの高さである。商品の高さは、たとえば、カメラ12が撮影する撮影画像から推定する。また、商品の高さを検知する高さ検知用のセンサを設けても良い。所定高は、アーム14を商品の上方で動かせるかを判断する閾値である。つまり、アーム14は、所定高よりも低い位置では自在に動くことができ、所定高以上の高さでは自在に動けないものとする。 When it is determined that the product is tubular (neither bag-shaped nor box-shaped) (ACT63, NO), the processor 31 of the system controller 21 has a predetermined height (for example, height 100 mm) of the product on the cash register table 3. ) Is within (ACT70). Here, the height of the product is the height from the upper surface of the cash register table 3 (the surface on which the product is placed) to the top of the product placed on the cash register table 3. The height of the product is estimated from, for example, a photographed image taken by the camera 12. Further, a height detection sensor for detecting the height of the product may be provided. The predetermined height is a threshold value for determining whether the arm 14 can be moved above the product. That is, the arm 14 can move freely at a position lower than the predetermined height, and cannot move freely at a height higher than the predetermined height.

商品の高さが所定高以内である場合(ACT70、YES)、プロセッサ31は、アーム14を商品の上方で動かすことによりアームスキャナ16で商品の周面からバーコードを読取る(ACT71)。すなわち、筒状の高さが所定高以内の商品に対しては、アーム部14aを商品の上方で円を描くように動かしてアームスキャナ16で商品の周面を読取る。 When the height of the product is within the predetermined height (ACT70, YES), the processor 31 reads the barcode from the peripheral surface of the product with the arm scanner 16 by moving the arm 14 above the product (ACT71). That is, for a product whose tubular height is within a predetermined height, the arm portion 14a is moved above the product in a circular motion to read the peripheral surface of the product with the arm scanner 16.

図8は、筒状の商品P3の高さが所定高以内である場合のアームスキャナ16の動作例を説明するための図である。
本実施形態において、アーム14は、所定高以内の低い位置では自在に動くことができるものとしている。このため、商品の高さが所定高以内であれば、アーム14は、商品の上方を自在に移動できる。この結果、アーム部14aを商品の上方で動かして商品の上方から延びるアーム部14aの先端部に設けたアームスキャナ16が商品の周面を自在に移動できることとなる。図8に示す例では、アーム部14aは、商品の上方を含む空間において、矢印b1で示すように動かす。アーム部14aの先端部に設けたアームスキャナ16は、矢印b2で示すように、商品の上方を含む空間を動くアーム部14aの動作に伴って商品の周面に沿って移動する。
FIG. 8 is a diagram for explaining an operation example of the arm scanner 16 when the height of the cylindrical product P3 is within a predetermined height.
In the present embodiment, the arm 14 can move freely at a low position within a predetermined height. Therefore, if the height of the product is within the predetermined height, the arm 14 can freely move above the product. As a result, the arm scanner 16 provided at the tip of the arm portion 14a extending from above the product by moving the arm portion 14a above the product can freely move around the peripheral surface of the product. In the example shown in FIG. 8, the arm portion 14a is moved as shown by the arrow b1 in the space including the upper part of the product. As shown by the arrow b2, the arm scanner 16 provided at the tip of the arm portion 14a moves along the peripheral surface of the product as the arm portion 14a moves in the space including the upper part of the product.

システムコントローラ21のプロセッサ31は、アームスキャナ16を商品の周面において所定の角度分(たとえば360度)動かてばバーコードをスキャンするようアーム装置23に指示する。ただし、商品の周面においてスキャナ13に対向する面のバーコードは、スキャナ13が読取れるものとしても良い。この場合、アームスキャナ16は、商品の周面に沿って270度程度移動するものとしても良い。 The processor 31 of the system controller 21 instructs the arm device 23 to scan the barcode by moving the arm scanner 16 on the peripheral surface of the product by a predetermined angle (for example, 360 degrees). However, the bar code on the peripheral surface of the product facing the scanner 13 may be readable by the scanner 13. In this case, the arm scanner 16 may move about 270 degrees along the peripheral surface of the product.

アーム装置23のプロセッサ51は、システムコントローラ21からの指示に従ってアームスキャナ16が商品の周面に沿って移動するようにアーム駆動機構54によりアーム14を駆動させる。これにより、アームスキャナ16は、レジ台3上に置かれた商品の周面に沿って移動しながら商品の周面に印刷されているバーコードをスキャンする。 The processor 51 of the arm device 23 drives the arm 14 by the arm drive mechanism 54 so that the arm scanner 16 moves along the peripheral surface of the product according to the instruction from the system controller 21. As a result, the arm scanner 16 scans the barcode printed on the peripheral surface of the product while moving along the peripheral surface of the product placed on the cash register table 3.

アーム装置23のプロセッサ51は、アームスキャナ16によるバーコードの読取結果をシステムコントローラ21へ供給する。システムコントローラ21のプロセッサ31は、アーム装置23からのバーコードの読取結果を当該商品の商品特定情報として通信装置25を介して精算装置2へ出力する。 The processor 51 of the arm device 23 supplies the reading result of the barcode by the arm scanner 16 to the system controller 21. The processor 31 of the system controller 21 outputs the reading result of the barcode from the arm device 23 to the settlement device 2 via the communication device 25 as the product identification information of the product.

また、商品の高さが所定高を超える場合(ACT70、YES)、プロセッサ31は、アーム14を商品の側方で動かすことによりアームスキャナ16で商品の周面からバーコードを読取る。アーム14を商品の側方で動かす場合、アームスキャナ16を360度回転させることは難しい。このため、プロセッサ31は、商品の周面を幾つかの領域ごとに分けてバーコードのスキャンを実施する。本実施形態では、商品を上部と下部とに分けて下部および上部をそれぞれ半周分ずつスキャンする動作例について説明する。 When the height of the product exceeds a predetermined height (ACT70, YES), the processor 31 reads the barcode from the peripheral surface of the product with the arm scanner 16 by moving the arm 14 to the side of the product. When moving the arm 14 to the side of the product, it is difficult to rotate the arm scanner 16 360 degrees. Therefore, the processor 31 divides the peripheral surface of the product into several areas and scans the barcode. In the present embodiment, an operation example in which the product is divided into an upper part and a lower part and the lower part and the upper part are scanned for half a circumference will be described.

図9は、筒状の商品P4の高さが所定高を超える場合のアームスキャナ16の動作例を説明するための図である。
図9に示す例では、アーム14の先端に設けたアームスキャナ16で、筒状の商品P4の下部の周面と上部の周面とを半周分ずつスキャンする様子を示す。たとえば、アームスキャナ16は、矢印c1に示すように、商品P4の下部の初期位置から時計まわりに周面を半周してバーコードをスキャンする。これでバーコードが読取れなければ、アームスキャナ16は、矢印c2に示すように、商品P4の上部の初期位置へ移動して商品の周面を時計まわりに半周してバーコードをスキャンする。
FIG. 9 is a diagram for explaining an operation example of the arm scanner 16 when the height of the tubular product P4 exceeds a predetermined height.
In the example shown in FIG. 9, the arm scanner 16 provided at the tip of the arm 14 scans the lower peripheral surface and the upper peripheral surface of the cylindrical product P4 by half a circumference. For example, as shown by the arrow c1, the arm scanner 16 scans the barcode by making a half turn clockwise from the initial position of the lower part of the product P4. If the barcode cannot be read by this, the arm scanner 16 moves to the initial position of the upper part of the product P4 and scans the barcode by making a half turn clockwise around the peripheral surface of the product, as shown by the arrow c2.

これでもバーコードが読取れなければ、アームスキャナ16は、再度、商品P4の下部の初期位置へ移動して商品P4の周面を反時計まわり(点線の矢印c3)に半周してバーコードをスキャンする。これでもバーコードが読取れなければ、アームスキャナ16は、再度、商品P4の上部の初期位置へ移動して商品P4の周面を反時計まわりに半周してバーコードをスキャンする。これらの動作によって、アーム14は、商品P4の側方からアームスキャナ16を動かすことで、商品P4の周面全体をアームスキャナ16でスキャンする。 If the barcode cannot be read even after this, the arm scanner 16 moves to the initial position at the bottom of the product P4 again, and makes a half turn counterclockwise (dotted arrow c3) around the peripheral surface of the product P4 to read the barcode. to scan. If the barcode cannot be read even after this, the arm scanner 16 moves to the initial position of the upper part of the product P4 again, makes a half turn counterclockwise around the peripheral surface of the product P4, and scans the barcode. By these operations, the arm 14 moves the arm scanner 16 from the side of the product P4, so that the entire peripheral surface of the product P4 is scanned by the arm scanner 16.

まず、プロセッサ31は、アームスキャナ16を商品の下部の初期位置から商品の周面に沿って時計周りに半周分移動させてバーコードをスキャンすることをアーム装置23へ指示する。アーム装置23のプロセッサ51は、アーム14を動作させてアームスキャナ16を商品の下部の初期位置へ移動させる。アームスキャナ16を商品の下部の初期位置に移動させると、プロセッサ51は、アーム14を当該商品の側方で動作させてアームスキャナ16を商品の周面に沿って時計周りに半周分移動させる(ACT72)。これにより、アームスキャナ16は、商品の下部における半周分の周面にあるバーコードをスキャンする。 First, the processor 31 instructs the arm device 23 to move the arm scanner 16 from the initial position of the lower part of the product by half a turn clockwise along the peripheral surface of the product to scan the barcode. The processor 51 of the arm device 23 operates the arm 14 to move the arm scanner 16 to the initial position at the bottom of the product. When the arm scanner 16 is moved to the initial position at the bottom of the product, the processor 51 operates the arm 14 on the side of the product to move the arm scanner 16 clockwise along the peripheral surface of the product by half a turn ( ACT72). As a result, the arm scanner 16 scans the barcode on the peripheral surface of the lower half of the product.

商品の下部における半周分の周面からバーコードが読取れなかった場合(ACT73、YES)、プロセッサ31は、商品の上部の半周面を時計周りにスキャンすることをアーム装置23へ指示する。アーム装置23のプロセッサ51は、システムコントローラ21からの指示に応じてアーム14を動作させてアームスキャナ16を商品の上部の初期位置へ移動させる。アームスキャナ16が商品の上部の初期位置に移動すると、プロセッサ51は、アーム14を商品の側方で動作させることで、アームスキャナ16を商品の周面に沿って時計周りに半周分移動させる(ACT74)。これにより、アームスキャナ16は、商品の上部における半周分の周面にあるバーコードをスキャンする。 If the barcode cannot be read from the peripheral surface of the lower half of the product (ACT73, YES), the processor 31 instructs the arm device 23 to scan the upper half of the product clockwise. The processor 51 of the arm device 23 operates the arm 14 in response to an instruction from the system controller 21 to move the arm scanner 16 to the initial position on the upper part of the product. When the arm scanner 16 moves to the initial position on the upper part of the product, the processor 51 moves the arm scanner 16 clockwise along the peripheral surface of the product by half a turn by operating the arm 14 on the side of the product ( ACT74). As a result, the arm scanner 16 scans the barcode on the peripheral surface of the upper half of the product.

商品の上部における半周分の周面からバーコードが読取れなかった場合(ACT75、YES)、プロセッサ31は、商品の下部の残りの半周面をスキャンすることをアーム装置23へ指示する。アーム装置23のプロセッサ51は、システムコントローラ21からの指示に応じてアーム14を動作させてアームスキャナ16を商品の下部の初期位置へ移動させる。アームスキャナ16が商品の下部の初期位置に移動すると、プロセッサ51は、アーム14を商品の側方で動作させることで、アームスキャナ16を商品の周面に沿って反時計周りに半周分移動させる(ACT76)。これにより、アームスキャナ16は、商品の下部における残りの半周分の周面にあるバーコードをスキャンする。 If the barcode cannot be read from the peripheral surface of the upper half of the product (ACT75, YES), the processor 31 instructs the arm device 23 to scan the remaining half of the peripheral surface of the lower part of the product. The processor 51 of the arm device 23 operates the arm 14 in response to an instruction from the system controller 21 to move the arm scanner 16 to the initial position at the bottom of the product. When the arm scanner 16 moves to the initial position at the bottom of the product, the processor 51 operates the arm 14 on the side of the product to move the arm scanner 16 counterclockwise by half a turn along the peripheral surface of the product. (ACT76). As a result, the arm scanner 16 scans the barcode on the peripheral surface of the remaining half circumference at the bottom of the product.

商品の下部における残りの半周分の周面からもバーコードが読取れなかった場合(ACT77、YES)、プロセッサ31は、商品の上部の残りの半周面をスキャンすることをアーム装置23へ指示する。アーム装置23のプロセッサ51は、システムコントローラ21からの指示に応じてアーム14を動作させてアームスキャナ16を商品の上部の初期位置へ移動させる。アームスキャナ16が商品の上部の初期位置に移動すると、プロセッサ51は、アーム14を商品の側方で動作させることで、アームスキャナ16を商品の周面に沿って反時計周りに半周分移動させる(ACT78)。これにより、アームスキャナ16は、商品の上部における残りの半周分の周面にあるバーコードをスキャンする。 If the barcode cannot be read from the remaining half-circumferential surface at the bottom of the product (ACT77, YES), the processor 31 instructs the arm device 23 to scan the remaining half-circumferential surface at the top of the product. .. The processor 51 of the arm device 23 operates the arm 14 in response to an instruction from the system controller 21 to move the arm scanner 16 to the initial position on the upper part of the product. When the arm scanner 16 moves to the initial position at the top of the product, the processor 51 moves the arm 14 to the side of the product to move the arm scanner 16 counterclockwise by half a turn along the peripheral surface of the product. (ACT78). As a result, the arm scanner 16 scans the barcode on the peripheral surface of the remaining half circumference at the top of the product.

システムコントローラ21のプロセッサ31は、上記のように動作させるアーム装置23からアームスキャナ16によるバーコードの読取結果を取得する。システムコントローラ21のプロセッサ31は、アーム装置23からのバーコードの読取結果を当該商品の商品特定情報として通信装置25を介して精算装置2へ出力する。 The processor 31 of the system controller 21 acquires the reading result of the barcode by the arm scanner 16 from the arm device 23 operated as described above. The processor 31 of the system controller 21 outputs the reading result of the barcode from the arm device 23 to the settlement device 2 via the communication device 25 as the product identification information of the product.

次に、カメラ12が撮影する撮影画像に対する商品認識処理について説明する。
図10は、カメラ12が撮影する撮影画像に対する商品認識処理の動作例を説明するためのフローチャートである。
上述した図3及び図4に示す動作例において、システムコントローラ21は、スキャナ13でバーコードが読取れない場合にカメラ12の撮影画像による商品認識処理を実行する。システムコントローラ21は、カメラ12の撮影画像による商品認識処理を行う場合、カメラ12の撮影位置へ商品を移動するようにアーム装置23へ指示する。アーム装置23のプロセッサ51は、システムコントローラ21からの指示に従ってアーム14、15が把持する商品をカメラ12の撮影位置へ移動させる(ACT81)。
Next, the product recognition process for the captured image captured by the camera 12 will be described.
FIG. 10 is a flowchart for explaining an operation example of the product recognition process for the captured image captured by the camera 12.
In the operation example shown in FIGS. 3 and 4 described above, the system controller 21 executes the product recognition process based on the captured image of the camera 12 when the barcode cannot be read by the scanner 13. The system controller 21 instructs the arm device 23 to move the product to the shooting position of the camera 12 when performing the product recognition process based on the captured image of the camera 12. The processor 51 of the arm device 23 moves the product held by the arms 14 and 15 to the shooting position of the camera 12 according to the instruction from the system controller 21 (ACT81).

商品がカメラ12の撮影位置へ移動すると、システムコントローラ21は、商品特定情報を含む画像を撮影するため、アーム14、15が把持する商品を回転させる。システムコントローラ21は、アーム装置23で商品を回転させながら商品読取装置22でカメラ12が撮影する撮影画像から商品特定情報の画像を検出するものとする。 When the product moves to the shooting position of the camera 12, the system controller 21 rotates the product held by the arms 14 and 15 in order to shoot an image including the product identification information. It is assumed that the system controller 21 detects the image of the product identification information from the captured image taken by the camera 12 by the product reading device 22 while rotating the product by the arm device 23.

本実施形態では、商品をカメラ12に向かって前後方向(前方(手前)とその逆の後方)に所定角度(たとえば、15度)ずつ回転させてカメラ12が撮影する画像から商品特定情報の画像を検出するものとする。また、本実施形態では、汚れ等によってスキャナ13でバーコードが読取れなかった場合を想定し、バーコード領域においてバーコードの下側に付記される数字列によって商品を認識するものとする。このため、以下の処理では、商品読取装置は、商品特定情報の画像としてバーコード領域の画像(バーコード画像)を検出し、バーコード画像における数字列から商品を認識するものとする。 In the present embodiment, the product is rotated toward the camera 12 in the front-back direction (front (front) and vice versa) by a predetermined angle (for example, 15 degrees), and the image of the product identification information is taken from the image taken by the camera 12. Shall be detected. Further, in the present embodiment, it is assumed that the barcode cannot be read by the scanner 13 due to dirt or the like, and the product is recognized by the numerical string attached to the lower side of the barcode in the barcode area. Therefore, in the following processing, the product reading device detects the image of the barcode region (bar code image) as the image of the product identification information, and recognizes the product from the number string in the barcode image.

すなわち、システムコントローラ21は、アーム14、15が把持する商品の回転させる角度を決定し、決定した角度での商品の回転をアーム装置23へ指示する。アーム装置23は、システムコントローラ21からの指示に応じてアーム14、15が把持する商品を回転させる(ACT82)。たとえば、システムコントローラ21は、商品を前方(手前)に所定角度(たとえば、15度)ずつ回転させる。前方への回転角度が90度に達すると、システムコントローラ21は、当該商品を後方に所定角度(たとえば、15度)ずつ回転させ、後方への回転角度が180度に達するまで商品を回転させる。 That is, the system controller 21 determines the rotation angle of the product held by the arms 14 and 15, and instructs the arm device 23 to rotate the product at the determined angle. The arm device 23 rotates the product held by the arms 14 and 15 in response to an instruction from the system controller 21 (ACT 82). For example, the system controller 21 rotates the product forward (front) by a predetermined angle (for example, 15 degrees). When the forward rotation angle reaches 90 degrees, the system controller 21 rotates the product backward by a predetermined angle (for example, 15 degrees), and rotates the product until the backward rotation angle reaches 180 degrees.

アーム装置23が商品を回転させると、システムコントローラ21は、商品読取装置22にカメラ12による撮影画像からの商品特定情報の画像(バーコード画像)の検出を指示する。商品読取装置22のプロセッサ41は、システムコントローラ21からの指示に応じてカメラ12により画像を撮影する(ACT83)。カメラ12が画像を撮影すると、商品読取装置22のプロセッサ41は、カメラ12が撮影した撮影画像からバーコード画像を検出する(ACT84)。商品読取装置22のプロセッサ41は、バーコード画像の検出の有無を示す情報をシステムコントローラ21へ通知する。 When the arm device 23 rotates the product, the system controller 21 instructs the product reading device 22 to detect an image (bar code image) of the product identification information from the image taken by the camera 12. The processor 41 of the product reading device 22 captures an image by the camera 12 in response to an instruction from the system controller 21 (ACT83). When the camera 12 captures an image, the processor 41 of the product reading device 22 detects a barcode image from the captured image captured by the camera 12 (ACT 84). The processor 41 of the product reading device 22 notifies the system controller 21 of information indicating whether or not the barcode image is detected.

カメラ12の撮影画像からバーコード画像が検出されなかった場合(ACT85、NO)、システムコントローラ21は、さらに商品を回転させてバーコード画像の検出を行うかを判断する(ACT86)。さらに商品を回転させてバーコード画像を検出すると判断した場合(ACT86、NO)、システムコントローラ21は、ACT82へ戻り、上述した処理を再度実行する。バーコード画像の検出を終了すると判断した場合(ACT86、YES)、システムコントローラ21は、カメラ12の撮影画像による商品認識が失敗したものとし、処理を終了する。 When the barcode image is not detected from the captured image of the camera 12 (ACT85, NO), the system controller 21 further rotates the product to determine whether to detect the barcode image (ACT86). When it is determined that the bar code image is detected by further rotating the product (ACT86, NO), the system controller 21 returns to the ACT 82 and executes the above-mentioned process again. When it is determined that the detection of the barcode image is finished (ACT86, YES), the system controller 21 assumes that the product recognition by the captured image of the camera 12 has failed, and ends the process.

また、カメラ12の撮影画像からバーコード画像が検出できた場合(ACT85、NO)、システムコントローラ21は、商品の向きを調整して商品認識処理用の画像をカメラ12で撮影する。たとえば、システムコントローラ21は、商品をカメラ12に向かって左右方向に所定角度(たとえば、5度)ずつ回転させた(傾けた)状態でカメラ12が撮影する撮影画像を取得する。この場合、システムコントローラ21は、アーム14、15が把持する商品を右に5度ずつ回転させてカメラ12で画像を撮影させる。右への回転角が45度になると、システムコントローラ21は、商品を元の角度に戻した後、商品を左に5度ずつ回転させてカメラ12で画像を撮影させる。左への回転角が45度になると、システムコントローラ21は、各角度で撮影した撮影画像に基づく商品認識を商品読取装置22に実行させる。 When the barcode image can be detected from the captured image of the camera 12 (ACT85, NO), the system controller 21 adjusts the orientation of the product and captures the image for product recognition processing with the camera 12. For example, the system controller 21 acquires a photographed image taken by the camera 12 in a state where the product is rotated (tilted) by a predetermined angle (for example, 5 degrees) in the left-right direction toward the camera 12. In this case, the system controller 21 rotates the product held by the arms 14 and 15 to the right by 5 degrees, and causes the camera 12 to take an image. When the rotation angle to the right reaches 45 degrees, the system controller 21 returns the product to the original angle, then rotates the product to the left by 5 degrees, and causes the camera 12 to take an image. When the rotation angle to the left reaches 45 degrees, the system controller 21 causes the product reading device 22 to perform product recognition based on the captured images taken at each angle.

すなわち、システムコントローラ21は、アーム14、15が把持する商品の向きを決定し、決定した商品の向きをアーム装置23へ指示する。アーム装置23は、システムコントローラ21からの指示に応じてアーム14、15が把持する商品の向きを調整させる(ACT87)。たとえば、システムコントローラ21は、右への回転角度が45度に達するまで、商品を右に5度回転させることをアーム装置23に指示する。また、システムコントローラ21は、右への回転角度が45度に達すると、商品を元の角度に戻した後に商品を左に5度回転させることをアーム装置23に指示する。 That is, the system controller 21 determines the orientation of the product held by the arms 14 and 15, and instructs the arm device 23 of the determined orientation of the product. The arm device 23 adjusts the orientation of the product gripped by the arms 14 and 15 in response to an instruction from the system controller 21 (ACT87). For example, the system controller 21 instructs the arm device 23 to rotate the product 5 degrees to the right until the rotation angle to the right reaches 45 degrees. Further, when the rotation angle to the right reaches 45 degrees, the system controller 21 instructs the arm device 23 to rotate the product to the left by 5 degrees after returning the product to the original angle.

アーム装置23が商品の向きを調整すると、システムコントローラ21は、商品読取装置22に商品認識用の画像の撮影を指示する。商品読取装置22は、システムコントローラ21からの指示に応じてカメラ12により画像を撮影する(ACT88)。商品読取装置22は、カメラ12が撮影した撮影画像を商品認識用の画像として画像メモリ44に保存する(ACT89)。 When the arm device 23 adjusts the orientation of the product, the system controller 21 instructs the product reading device 22 to take an image for product recognition. The product reading device 22 captures an image with the camera 12 in response to an instruction from the system controller 21 (ACT88). The product reading device 22 stores the captured image taken by the camera 12 in the image memory 44 as an image for product recognition (ACT 89).

カメラ12で撮影した画像を商品認識用の画像として保存すると、システムコントローラ21は、カメラ12による商品認識用の画像の撮影を終了するか否かを判断する(ACT90)。カメラ12による撮影を終了しないと判断した場合(ACT90、NO)、システムコントローラ21は、ACT87へ戻り、上述した処理を再度実行する。 When the image taken by the camera 12 is saved as the image for product recognition, the system controller 21 determines whether or not to end the shooting of the image for product recognition by the camera 12 (ACT90). When it is determined that the shooting by the camera 12 is not completed (ACT 90, NO), the system controller 21 returns to the ACT 87 and executes the above-mentioned process again.

カメラ12による撮影を終了すると判断した場合(ACT90、NO)、システムコントローラ21は、画像処理による商品認識を商品読取装置22へ指示する。商品読取装置22のプロセッサ41は、画像メモリ44に保存したカメラ12の撮影画像(商品認識処理用の画像)に基づいて商品認識処理を実行する(ACT91)。商品読取装置22のプロセッサ41は、文字認識用のプログラムを実行することにより、カメラ12による複数の撮影画像を元にバーコード下にある数字を認識する。 When it is determined that the shooting by the camera 12 is finished (ACT90, NO), the system controller 21 instructs the product reading device 22 to recognize the product by image processing. The processor 41 of the product reading device 22 executes the product recognition process based on the captured image (image for the product recognition process) of the camera 12 stored in the image memory 44 (ACT91). The processor 41 of the product reading device 22 recognizes the numbers under the barcode based on the plurality of images taken by the camera 12 by executing the character recognition program.

たとえば、プロセッサ41は、各撮影画像からバーコード画像を抽出し、バーコード画像からバーコードの下にある数字を検出する。バーコードの下にある全ての数字を検出すると、プロセッサ41は、検出した数字を認識し、認識した数字を並べた数字情報を商品認識結果とする。プロセッサ41は、商品認識結果をシステムコントローラ21へ通知する。システムコントローラ21は、商品認識装置からの商品認識結果を通信装置25を介して精算装置2へ送信する。精算装置2は、バーコードの下の数字情報から当該商品を識別し、当該商品の精算処理を実行する。 For example, the processor 41 extracts a barcode image from each captured image and detects a number under the barcode from the barcode image. When all the numbers under the barcode are detected, the processor 41 recognizes the detected numbers and uses the numerical information in which the recognized numbers are arranged as the product recognition result. The processor 41 notifies the system controller 21 of the product recognition result. The system controller 21 transmits the product recognition result from the product recognition device to the settlement device 2 via the communication device 25. The settlement device 2 identifies the product from the numerical information under the barcode and executes the settlement process of the product.

以上のように、本実施形態に係る商品読取システムは、カメラ、アーム装置、バーコードを読取るスキャナ、プロセッサ、および、コントローラなどを有する。カメラは、レジ台に置かれた商品を撮影する。プロセッサはカメラが撮影した画像から当該商品が袋状であるか否かを判定する。コントローラは、商品が袋状である場合、前記第1アームの把持機構と前記第2アームの把持機構とにそれぞれ前記商品の両端を把持させ、前記第1アームの把持位置と前記第2アームの把持位置とを互いに引っ張った状態で前記商品を前記スキャナの読取位置に移動させる。アーム装置は、前記第1アームの把持機構と前記第2アームの把持機構とで商品の両端を把持し、2つの把持機構が把持する商品の両端を互いに引っ張った状態で当該商品をスキャナの読取位置に掲げる。スキャナは、アーム装置が両端を引っ張った状態で把持する商品から商品特定情報としてのバーコードを読取る。 As described above, the product reading system according to the present embodiment includes a camera, an arm device, a scanner for reading a barcode, a processor, a controller, and the like. The camera takes a picture of the product placed on the cash register. The processor determines whether or not the product is bag-shaped from the image taken by the camera. When the product is bag-shaped, the controller causes the gripping mechanism of the first arm and the gripping mechanism of the second arm to grip both ends of the product, respectively, and the gripping position of the first arm and the gripping mechanism of the second arm. The product is moved to the reading position of the scanner while the gripping position is pulled from each other. The arm device grips both ends of the product by the gripping mechanism of the first arm and the gripping mechanism of the second arm, and reads the product in a state where both ends of the product gripped by the two gripping mechanisms are pulled from each other. Put up in position. The scanner reads a barcode as product identification information from a product that the arm device grips with both ends pulled.

これにより、本実施形態に係る商品読取システムは、商品のパッケージを両端方向に張った状態でバーコードを読取ることができる。この結果、パッケージにしわや折れなどがある商品であっても、スキャナがパッケージに印刷されたバーコードを読取り易い状態にすることができ、スキャナによるバーコードの読取りを確実に行うことができる。 As a result, the product reading system according to the present embodiment can read the barcode with the product package stretched in both directions. As a result, even if the product has wrinkles or creases in the package, the scanner can make the barcode printed on the package easy to read, and the scanner can reliably read the barcode.

また、本実施形態に係る商品読取システムのコントローラは、第1アームの把持位置と前記第2アームの把持位置とを互いに引っ張った状態で把持する商品を前記スキャナの読取位置において回転させる。これにより、本実施形態に係る商品読取システムは、パッケージにしわや折れなどがある商品であっても、パッケージに印刷されたバーコードを確実にスキャナに読み取らせることができる。 Further, the controller of the product reading system according to the present embodiment rotates the product to be gripped in a state where the gripping position of the first arm and the gripping position of the second arm are pulled from each other at the reading position of the scanner. As a result, the product reading system according to the present embodiment can reliably read the barcode printed on the package by the scanner even if the product has wrinkles or folds on the package.

また、本実施形態に係る商品読取システムのコントローラは、スキャナが商品のバーコードを読み取れない場合、前記アームが把持する前記商品を前記カメラの撮影領域において回転させてカメラに画像を撮影させる。プロセッサは、回転する商品をカメラで撮影した画像に対する画像認識によって商品特定情報を認識する。これにより、商品読取システムは、両端を引っ張った状態でもバーコードが読取れない商品に対してはアームが把持する商品を動かしながらカメラで撮影する画像に対する画像認識によって商品特定情報を特定することができる。 Further, when the scanner cannot read the barcode of the product, the controller of the product reading system according to the present embodiment rotates the product held by the arm in the shooting area of the camera to cause the camera to shoot an image. The processor recognizes the product identification information by image recognition for the image of the rotating product taken by the camera. As a result, the product reading system can specify the product identification information by image recognition for the image taken by the camera while moving the product held by the arm for the product whose barcode cannot be read even when both ends are pulled. can.

また、本実施形態に係る商品読取システムのコントローラは、前記スキャナが商品特定情報としてバーコードを読取り、前記プロセッサが、前記カメラが撮影した画像からバーコード画像を抽出し、バーコードの下に記された数字の文字認識によって商品特定情報を認識する。これにより、商品読取システムは、両端を引っ張った状態でもバーコードが読取れない商品に対してはアームが把持する当該商品を動かしながらカメラで撮影する画像においてバーコードの下に記された数字の文字認識によって商品特定情報を特定することができる。 Further, in the controller of the product reading system according to the present embodiment, the scanner reads the barcode as the product identification information, the processor extracts the barcode image from the image taken by the camera, and writes it under the barcode. The product identification information is recognized by the character recognition of the displayed number. As a result, the product reading system can read the barcode even when both ends are pulled. For the product, the number written under the barcode in the image taken by the camera while moving the product held by the arm. Product specific information can be specified by character recognition.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

1…商品読取システム(ロボット)、2…精算装置(レジ)、3…レジ台(台)、11…センサ、12…カメラ、13…スキャナ(固定スキャナ)、14…第1アーム、15…第2アーム、14b、15b…把持機構、16…アームスキャナ、21…システムコントローラ(制御装置)、22…商品読取装置(商品リーダ)、23…アーム装置、25…通信装置、31、41、51、61、71…プロセッサ。 1 ... Product reading system (robot), 2 ... Settlement device (registration), 3 ... Cash register stand (table), 11 ... Sensor, 12 ... Camera, 13 ... Scanner (fixed scanner), 14 ... 1st arm, 15 ... No. 2 arms, 14b, 15b ... gripping mechanism, 16 ... arm scanner, 21 ... system controller (control device), 22 ... product reading device (product reader), 23 ... arm device, 25 ... communication device, 31, 41, 51, 61, 71 ... Processor.

Claims (5)

商品が置かれる台を上方から撮影するカメラと、
それぞれに把持機構を設けた第1アームと第2アームとを有するアーム装置と、
読取位置にある前記商品の外観に存在する商品特定情報を読み取るスキャナと、
前記カメラが撮影した画像から検出される前記商品の形状が袋状である場合、前記第1アームの把持機構と前記第2アームの把持機構とにそれぞれ前記商品の両端を把持させ、前記第1アームの把持位置と前記第2アームの把持位置とを互いに引っ張った状態で前記商品を前記スキャナの読取位置に移動させるコントローラと、
を有する商品読取システム。
A camera that shoots the table on which the product is placed from above,
An arm device having a first arm and a second arm, each provided with a gripping mechanism, and
A scanner that reads the product specific information that exists in the appearance of the product at the reading position,
When the shape of the product detected from the image taken by the camera is bag-shaped, both ends of the product are gripped by the gripping mechanism of the first arm and the gripping mechanism of the second arm, respectively, and the first. A controller that moves the product to the reading position of the scanner while pulling the gripping position of the arm and the gripping position of the second arm to each other.
Product reading system with.
前記コントローラは、前記第1アームの把持位置と前記第2アームの把持位置とを互いに引っ張った状態で把持する前記商品を前記スキャナの読取位置において回転させる、
請求項1に記載の商品読取システム。
The controller rotates the product that grips the gripping position of the first arm and the gripping position of the second arm while pulling each other at the reading position of the scanner.
The product reading system according to claim 1.
前記カメラが撮影する画像に対する画像認識によって商品特定情報を認識するプロセッサを有し、
前記コントローラは、前記スキャナが前記商品の商品特定情報を読み取れない場合、前記第1及び第2アームが把持する前記商品を前記カメラの撮影領域において回転させて前記カメラが撮影する画像に基づいて前記プロセッサに前記商品の商品特定情報を認識させる、
請求項1又は2の何れか1項に記載の商品読取システム。
It has a processor that recognizes product specific information by image recognition for an image taken by the camera.
When the scanner cannot read the product identification information of the product, the controller rotates the product held by the first and second arms in the shooting area of the camera, and the controller is based on an image taken by the camera. Make the processor recognize the product specific information of the product,
The product reading system according to any one of claims 1 or 2.
前記スキャナは、商品特定情報としてバーコードを読取り、
前記プロセッサは、前記カメラが撮影した画像からバーコード画像を抽出し、前記バーコードの下に記された数字の文字認識によって商品特定情報を認識する、
請求項3に記載の商品読取システム。
The scanner reads the barcode as product identification information and
The processor extracts a barcode image from an image taken by the camera, and recognizes product identification information by character recognition of a number written under the barcode.
The product reading system according to claim 3.
前記第1及び第2アームが把持する前記商品の商品特定情報を前記商品の精算処理を行う精算装置へ出力する通信装置を有する、
請求項1乃至4の何れか1項に記載の商品読取システム。
A communication device having a communication device that outputs product identification information of the product held by the first and second arms to a payment device that performs payment processing of the product.
The product reading system according to any one of claims 1 to 4.
JP2018077899A 2018-04-13 2018-04-13 Product reading system Active JP7005418B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018077899A JP7005418B2 (en) 2018-04-13 2018-04-13 Product reading system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018077899A JP7005418B2 (en) 2018-04-13 2018-04-13 Product reading system

Publications (2)

Publication Number Publication Date
JP2019185562A JP2019185562A (en) 2019-10-24
JP7005418B2 true JP7005418B2 (en) 2022-01-21

Family

ID=68341437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018077899A Active JP7005418B2 (en) 2018-04-13 2018-04-13 Product reading system

Country Status (1)

Country Link
JP (1) JP7005418B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102333971B1 (en) * 2021-09-28 2021-12-03 이현 System for cashing product using automatic barcode scanning

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012232749A (en) 2011-04-28 2012-11-29 Yamaki Co Ltd Packaging bag, and seal inspection method
JP2013100118A (en) 2011-11-08 2013-05-23 Yaskawa Electric Corp Unpacking device, and unpacked content manufacturing method
JP5217014B2 (en) 2008-01-15 2013-06-19 日産自動車株式会社 Power conversion device and manufacturing method thereof
JP5303660B2 (en) 2010-01-22 2013-10-02 シャープ株式会社 Lighting device, display device, and television receiver
JP2014109924A (en) 2012-12-03 2014-06-12 Toshiba Tec Corp Commodity recognition device and commodity recognition program
JP2016175162A (en) 2015-03-20 2016-10-06 セイコーエプソン株式会社 Robot, control device, and control method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05217014A (en) * 1992-02-07 1993-08-27 Fujitsu Ltd Method for reading out bar code
JP3123202B2 (en) * 1992-04-27 2001-01-09 オムロン株式会社 Article code reader

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5217014B2 (en) 2008-01-15 2013-06-19 日産自動車株式会社 Power conversion device and manufacturing method thereof
JP5303660B2 (en) 2010-01-22 2013-10-02 シャープ株式会社 Lighting device, display device, and television receiver
JP2012232749A (en) 2011-04-28 2012-11-29 Yamaki Co Ltd Packaging bag, and seal inspection method
JP2013100118A (en) 2011-11-08 2013-05-23 Yaskawa Electric Corp Unpacking device, and unpacked content manufacturing method
JP2014109924A (en) 2012-12-03 2014-06-12 Toshiba Tec Corp Commodity recognition device and commodity recognition program
JP2016175162A (en) 2015-03-20 2016-10-06 セイコーエプソン株式会社 Robot, control device, and control method

Also Published As

Publication number Publication date
JP2019185562A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
US9033238B2 (en) Methods and arrangements for sensing identification information from objects
US7706918B2 (en) Article holding system, robot, and method of controlling robot
JP4646943B2 (en) robot
US8439259B2 (en) Code reading apparatus, sales registration processing apparatus, and code reading method
US20190099891A1 (en) Information processing apparatus, method, and robot system
EP3533686B1 (en) Handcart
JP7023778B2 (en) Product reading system
JP2019509559A (en) Box location, separation, and picking using a sensor-guided robot
CA3082445A1 (en) Object measurement system
CN108349083A (en) The sorting system and method for sorting for providing various objects
JP2019217608A (en) Information processing device, information processing method and program
EP2751748A1 (en) Methods and arrangements for identifying objects
JP7106331B2 (en) Product reading system
US11541537B2 (en) Article posture changing device and article posture changing method
JP6528325B2 (en) Packing device
JP7005418B2 (en) Product reading system
CN110936386A (en) Robot system for handling objects and method for packaging and handling the same
JP7009291B2 (en) Product reading system
JP6881268B2 (en) Gripping device, grip determination method and grip determination program
Xu et al. A vision-guided robot manipulator for surgical instrument singulation in a cluttered environment
EP3654304A1 (en) Commodity take-out apparatus
AU2015355532B2 (en) System for and method of stitching barcode fragments of a barcode symbol to be read in an imaging-based presentation workstation
JP7163116B2 (en) Information processing equipment and picking system
US11417025B2 (en) Information processing apparatus, article identification apparatus, and article identification system
CN115139325B (en) Object grasping system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210119

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220105

R150 Certificate of patent or registration of utility model

Ref document number: 7005418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150