JP2021128798A - Information processing device, system, image processing method and program - Google Patents

Information processing device, system, image processing method and program Download PDF

Info

Publication number
JP2021128798A
JP2021128798A JP2021089390A JP2021089390A JP2021128798A JP 2021128798 A JP2021128798 A JP 2021128798A JP 2021089390 A JP2021089390 A JP 2021089390A JP 2021089390 A JP2021089390 A JP 2021089390A JP 2021128798 A JP2021128798 A JP 2021128798A
Authority
JP
Japan
Prior art keywords
product
image
distance
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021089390A
Other languages
Japanese (ja)
Other versions
JP7201020B2 (en
Inventor
準 小林
Jun Kobayashi
準 小林
英路 村松
Eiji Muramatsu
英路 村松
哲夫 井下
Tetsuo Ishita
哲夫 井下
浩太 岩元
Kota Iwamoto
浩太 岩元
壮馬 白石
Soma Shiraishi
壮馬 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2021089390A priority Critical patent/JP7201020B2/en
Publication of JP2021128798A publication Critical patent/JP2021128798A/en
Application granted granted Critical
Publication of JP7201020B2 publication Critical patent/JP7201020B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cash Registers Or Receiving Machines (AREA)
  • Image Analysis (AREA)

Abstract

To provide a device capable of extracting an image of a commodity from among images captured by imaging means for contribution to improvement in a recognition ratio of a commodity.SOLUTION: An information processing device includes: imaging means for generating an image of an object; distance measurement means for measuring a distant to the object; extraction means for extracting as an image of a commodity a region in which the measured distance is equal to or less than a predetermined value, from the generated images; and commodity recognition means for recognizing a commodity on the basis of the extracted image.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、システム、画像処理方法及びプログラムに関する。 The present invention relates to information processing devices, systems, image processing methods and programs.

スーパマーケットや量販店等の決済場所(料金支払所:レジ)に設置するPOS(Point Of Sales)端末においては、バーコードの付いた商品については、店員がバーコード入力装置によって入力を行い、バーコードの付けられない商品については、店員がキーボードによって商品のデータを入力している。このため、店員の熟練度により、バーコードが付けられていない商品の入力時間に大きな差が生じる。店員が、バーコードが付されていない商品に予め店舗用のバーコードを付すことも行われているが、作業時間の増大につながっている。さらに、近年は、顧客が自分で直接POS端末装置を操作するセルフレジも増加している。顧客は、商品のどの位置にバーコードが付されているかの判断に時間がかかるため、POS端末装置の操作に要する時間はさらに増大する。 At POS (Point Of Sales) terminals installed at payment locations (payment offices: cashiers) such as supermarkets and mass retailers, the clerk inputs the products with barcodes using the barcode input device, and the bar For products that cannot be coded, the clerk inputs the product data using the keyboard. Therefore, depending on the skill level of the clerk, there is a large difference in the input time of the product without the barcode. It is also practiced for a clerk to attach a barcode for a store to a product without a barcode in advance, which leads to an increase in working time. Furthermore, in recent years, self-checkouts in which customers directly operate POS terminal devices by themselves are increasing. Since it takes time for the customer to determine the position of the bar code on the product, the time required to operate the POS terminal device is further increased.

そのため、POS端末装置に内蔵されたカメラ等で商品を撮像して、得られた画像データから、画像認識技術を用いて商品を認識する技術が提案されている。ここで、カメラで商品を撮影する際、商品の画像だけでなく背景の画像も撮影されてしまう。商品の認識処理において、背景の画像は不要なノイズとなる。したがって、商品の認識処理をするためには、背景の画像を除去する必要がある。背景の画像を除去する技術として、特許文献1には、予め撮影しておいた背景画像と、被写体が撮影された入力画像との差分をとることによって、入力画像から背景画像を除去する技術が開示されている。 Therefore, a technique has been proposed in which a product is imaged by a camera or the like built in a POS terminal device, and the product is recognized by using an image recognition technique from the obtained image data. Here, when the product is photographed with the camera, not only the image of the product but also the background image is photographed. In the product recognition process, the background image becomes unnecessary noise. Therefore, it is necessary to remove the background image in order to perform the product recognition process. As a technique for removing a background image, Patent Document 1 describes a technique for removing a background image from an input image by taking a difference between a background image taken in advance and an input image in which the subject is taken. It is disclosed.

特開2001− 52177号公報Japanese Unexamined Patent Publication No. 2001-52177

特許文献1のような、予め撮影しておいた背景画像と、被写体が撮影された入力画像との差分によって背景の画像(背景画像)を除去する技術には、以下のような問題がある。POS端末装置のカメラで商品を撮影したときに、商品以外の物体が写りこむことがある。例えば、カメラで商品を撮影するときに、商品を持つ人の体が写りこむことがある。このような場合、背景画像との差分として、商品以外の物体(例えば商品を持つ人の体)も抽出されてしまう。そのため、商品の画像に、商品以外の物体(例えば商品を持つ人の体)の画像も含まれてしまう。また、例えば外光(例えば夕日)等の影響により背景の色合いが変化した場合等、背景画像を予め撮影したときとは背景自体が異なることがある。そのような場合、背景は差分と認識されるので、背景画像が除去されず、商品の画像に商品以外の物体の画像が含まれてしまう。このように、商品の画像に商品以外の物体の画像が含まれると、その商品以外の物体の画像を含んだ状態で商品認識を行う。このような場合、商品認識の精度が悪化するため、商品の認識率が悪化するおそれがあった。 The technique of removing the background image (background image) by the difference between the background image taken in advance and the input image in which the subject is taken, as in Patent Document 1, has the following problems. When a product is photographed with the camera of the POS terminal device, an object other than the product may be reflected. For example, when taking a picture of a product with a camera, the body of the person holding the product may be reflected. In such a case, an object other than the product (for example, the body of a person holding the product) is also extracted as a difference from the background image. Therefore, the image of the product also includes an image of an object other than the product (for example, the body of a person holding the product). In addition, the background itself may be different from when the background image is taken in advance, for example, when the color of the background changes due to the influence of external light (for example, sunset). In such a case, since the background is recognized as a difference, the background image is not removed, and the image of the product includes an image of an object other than the product. In this way, when the image of the product includes an image of an object other than the product, the product is recognized with the image of the object other than the product included. In such a case, the accuracy of product recognition deteriorates, so that the product recognition rate may deteriorate.

本発明は、このような課題を解決するためになされたものであり、商品の認識率の向上に寄与するために、撮像手段によって撮影された画像から商品の画像を抽出することが可能なPOS端末装置、POSシステム、画像処理方法及びプログラムを提供することにある。 The present invention has been made to solve such a problem, and in order to contribute to the improvement of the recognition rate of the product, the POS capable of extracting the image of the product from the image taken by the imaging means. The purpose of the present invention is to provide a terminal device, a POS system, an image processing method and a program.

本発明にかかる情報処理装置は、物体の画像を生成する撮像手段と、前記物体までの距離を計測する距離計測手段と、前記生成された画像のうち、前記計測された距離が所定値以下である領域を商品の画像として抽出する抽出手段と、前記抽出された画像に基づいて商品の認識を行う商品認識手段と、を有する。 The information processing apparatus according to the present invention includes an imaging means for generating an image of an object, a distance measuring means for measuring the distance to the object, and the measured distance of the generated images when the measured distance is a predetermined value or less. It has an extraction means for extracting a certain area as an image of a product, and a product recognition means for recognizing a product based on the extracted image.

また、本発明にかかるシステムは、情報処理装置と、前記情報処理装置と通信を行う管理装置とを有する。 Further, the system according to the present invention includes an information processing device and a management device that communicates with the information processing device.

また、本発明にかかる画像処理方法は、物体の画像を生成し、前記物体までの距離を計測し、前記生成された画像のうち、前記計測された距離が所定値以下である領域を商品の画像として抽出し、前記抽出された画像に基づいて商品の認識を行う。 Further, in the image processing method according to the present invention, an image of an object is generated, a distance to the object is measured, and a region of the generated image in which the measured distance is equal to or less than a predetermined value is used as a product. It is extracted as an image, and the product is recognized based on the extracted image.

また、本発明にかかるプログラムは、物体の画像を生成するステップと、前記物体までの距離を計測するステップと、前記生成された画像のうち、前記計測された距離が所定値以下である領域を商品の画像として抽出するステップと、前記抽出された画像に基づいて商品の認識を行うステップと、をコンピュータに実行させる。 Further, the program according to the present invention includes a step of generating an image of an object, a step of measuring a distance to the object, and a region of the generated image in which the measured distance is equal to or less than a predetermined value. A computer is made to execute a step of extracting as an image of a product and a step of recognizing a product based on the extracted image.

本発明によれば、商品の認識率の向上に寄与するために、撮像手段によって撮影された画像から商品の画像を抽出することが可能なPOS端末装置、POSシステム、画像処理方法及びプログラムを提供できる。 According to the present invention, in order to contribute to the improvement of the recognition rate of a product, a POS terminal device, a POS system, an image processing method and a program capable of extracting an image of the product from an image taken by an imaging means are provided. can.

本発明の実施の形態にかかるPOS端末装置の概要を示す図である。It is a figure which shows the outline of the POS terminal apparatus which concerns on embodiment of this invention. 実施の形態1にかかるPOS端末装置の外観を示す側面図である。It is a side view which shows the appearance of the POS terminal apparatus which concerns on Embodiment 1. FIG. 実施の形態1にかかるPOS端末装置のハードウェア構成を示す図である。It is a figure which shows the hardware composition of the POS terminal apparatus which concerns on Embodiment 1. FIG. 実施の形態1にかかるPOS端末装置の機能ブロック図である。It is a functional block diagram of the POS terminal apparatus which concerns on Embodiment 1. FIG. 実施の形態1にかかる開始制御部の処理を示すフローチャートである。It is a flowchart which shows the process of the start control part which concerns on Embodiment 1. FIG. 実施の形態1にかかる認識処理部の処理を示すフローチャートである。It is a flowchart which shows the processing of the recognition processing part which concerns on Embodiment 1. 実施の形態1にかかる商品画像抽出部の処理を説明するための図である。It is a figure for demonstrating the process of the product image extraction part which concerns on Embodiment 1. FIG. 形状及びパッケージが同じであっても、サイズが異なる商品を例示する図である。It is a figure which illustrates the product which has the same shape and package but different size. 実施の形態2にかかるPOSシステムを示す図である。It is a figure which shows the POS system which concerns on Embodiment 2. 実施の形態2にかかる管理装置のハードウェア構成を示す図である。It is a figure which shows the hardware configuration of the management apparatus which concerns on Embodiment 2. FIG. 実施の形態2にかかるPOS端末装置の機能ブロック図である。It is a functional block diagram of the POS terminal apparatus which concerns on Embodiment 2. FIG. 実施の形態2にかかる管理装置の機能ブロック図である。It is a functional block diagram of the management apparatus which concerns on Embodiment 2. FIG.

(本発明にかかる実施の形態の概要)
実施の形態の説明に先立って、本発明にかかる実施の形態の概要を説明する。図1は、本発明の実施の形態にかかるPOS端末装置1の概要を示す図である。図1に示すように、POS端末装置1は、撮像部2と、距離計測部4と、商品画像抽出部6とを有する。
(Overview of Embodiments of the present invention)
Prior to the description of the embodiment, the outline of the embodiment according to the present invention will be described. FIG. 1 is a diagram showing an outline of a POS terminal device 1 according to an embodiment of the present invention. As shown in FIG. 1, the POS terminal device 1 includes an image pickup unit 2, a distance measurement unit 4, and a product image extraction unit 6.

撮像部2は、物体を撮像して画像を生成する。距離計測部4は、撮像部2によって生成された画像に対応する物体の位置までの距離を計測する。商品画像抽出部6は、撮像部2によって生成された画像から、距離計測部4によって計測された距離が予め定められた第1の範囲内にある位置に対応する画像区域を、商品の画像として抽出する。本発明の実施の形態にかかるPOS端末装置1は、商品の認識率の向上に寄与するために、撮像部2によって撮影された画像から商品の画像を抽出することが可能となる。 The image pickup unit 2 takes an image of an object and generates an image. The distance measuring unit 4 measures the distance to the position of the object corresponding to the image generated by the imaging unit 2. The product image extraction unit 6 uses an image area corresponding to a position where the distance measured by the distance measurement unit 4 is within a predetermined first range from the image generated by the image pickup unit 2 as an image of the product. Extract. The POS terminal device 1 according to the embodiment of the present invention can extract an image of a product from an image taken by the imaging unit 2 in order to contribute to an improvement in the recognition rate of the product.

(実施の形態1)
以下、図面を参照して本発明の実施の形態について説明する。
図2は、実施の形態1にかかるPOS端末装置100の外観を示す側面図である。また、図3は、実施の形態1にかかるPOS端末装置100のハードウェア構成を示す図である。POS端末装置100は、店員用表示操作部102と、顧客用表示部104と、情報処理装置110と、商品読取装置120とを有する。POS端末装置100は、例えばカウンタ台(図示せず)に載置され、POS端末装置100を挟んで、図2の左側に顧客が、右側に店員が対峙する。
(Embodiment 1)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 2 is a side view showing the appearance of the POS terminal device 100 according to the first embodiment. Further, FIG. 3 is a diagram showing a hardware configuration of the POS terminal device 100 according to the first embodiment. The POS terminal device 100 includes a store clerk display operation unit 102, a customer display unit 104, an information processing device 110, and a product reading device 120. The POS terminal device 100 is placed on, for example, a counter stand (not shown), and the customer faces the left side of FIG. 2 and the clerk faces the right side of the POS terminal device 100.

店員用表示操作部102は、例えばタッチパネル、LCD(Liquid Crystal Display)、又はキーボード等である。店員用表示操作部102は、情報処理装置110の制御によって、店員に必要な情報を表示し、店員の操作を受け付ける。 The display operation unit 102 for a clerk is, for example, a touch panel, an LCD (Liquid Crystal Display), a keyboard, or the like. The store clerk display operation unit 102 displays necessary information for the store clerk under the control of the information processing device 110, and accepts the store clerk's operation.

顧客用表示部104は、例えばタッチパネル又はLCD等である。顧客用表示部104は、情報処理装置110の制御によって、顧客に必要な情報を表示する。また、顧客用表示部104は、入力装置を有してもよく、必要に応じて顧客の操作を受け付けてもよい。 The customer display unit 104 is, for example, a touch panel or an LCD. The customer display unit 104 displays information necessary for the customer under the control of the information processing device 110. Further, the customer display unit 104 may have an input device, and may accept customer operations as needed.

情報処理装置110は、例えばコンピュータである。情報処理装置110は、例えばCPU(Central Processing Unit)等の制御部112と、例えばメモリ又はハードディスク等の記憶部114と、通信装置116とを有する。情報処理装置110は、店員用表示操作部102、顧客用表示部104及び商品読取装置120の動作を制御する。また、情報処理装置110は、店員用表示操作部102によって受け付けられた操作に応じて必要な処理を行う。また、情報処理装置110は、商品読取装置120によって読み取られた画像情報に応じて、画像処理等の必要な処理を行う。通信装置116は、ネットワークを介して接続されたサーバ等の管理装置と通信を行うために必要な処理を行う。 The information processing device 110 is, for example, a computer. The information processing device 110 includes, for example, a control unit 112 such as a CPU (Central Processing Unit), a storage unit 114 such as a memory or a hard disk, and a communication device 116. The information processing device 110 controls the operations of the store clerk display operation unit 102, the customer display unit 104, and the product reading device 120. In addition, the information processing device 110 performs necessary processing according to the operation received by the store clerk display operation unit 102. Further, the information processing device 110 performs necessary processing such as image processing according to the image information read by the product reading device 120. The communication device 116 performs processing necessary for communicating with a management device such as a server connected via a network.

商品読取装置120は、筐体122と、光透過性の素材で形成された商品読取面124と、3次元カメラ130とを有する。商品読取面124は、筐体122の店員側の面に設けられており、商品を撮像させる(読み取らせる)ときに当該商品が向けられる。3次元カメラ130は、筐体122の内部の、商品読取面124とは反対側に設けられている。店員が顧客から受け取った商品を商品読取面124に向けると、3次元カメラ130が商品の画像を読み取る。これによって、POS端末装置100は、商品の認識処理を行う。詳しくは後述する。 The product reading device 120 has a housing 122, a product reading surface 124 made of a light-transmitting material, and a three-dimensional camera 130. The product reading surface 124 is provided on the surface of the housing 122 on the clerk side, and the product is directed when the product is imaged (read). The three-dimensional camera 130 is provided inside the housing 122 on the side opposite to the product reading surface 124. When the clerk points the product received from the customer toward the product reading surface 124, the three-dimensional camera 130 reads the image of the product. As a result, the POS terminal device 100 performs the product recognition process. Details will be described later.

3次元カメラ130は、撮像部132と、距離センサ134(距離計測手段)とを有する。撮像部132は、例えばCCD(Charge-Coupled Device)等の撮像素子(カメラ)であって、商品の画像を読み取る処理を行う。具体的には、撮像部132は、商品読取面124に向けられた物体を撮像して、その物体の画像を含む2次元のカラー画像又はモノクロ画像(2次元画像)を生成する。なお、以下、用語「2次元画像」は、情報処理における処理対象としての、「2次元画像を示す画像データ」も意味する。 The three-dimensional camera 130 has an imaging unit 132 and a distance sensor 134 (distance measuring means). The image pickup unit 132 is, for example, an image pickup device (camera) such as a CCD (Charge-Coupled Device), and performs a process of reading an image of a product. Specifically, the imaging unit 132 images an object directed to the product reading surface 124 and generates a two-dimensional color image or a monochrome image (two-dimensional image) including an image of the object. Hereinafter, the term "two-dimensional image" also means "image data indicating a two-dimensional image" as a processing target in information processing.

距離センサ134は、例えばTOF(Time Of Flight)方式で、距離センサ134から、商品読取面124に向けられた物体の位置までの距離を計測する。つまり、距離センサ134は、赤外線等の光線を照射し、照射された光線が物体まで往復するのにかかる時間から、距離を計測する。なお、本実施の形態では、赤外線が照射されるとしたが、これに限定されない。例えば、距離センサ134は、レーザを照射してもよい。 The distance sensor 134 measures the distance from the distance sensor 134 to the position of the object directed to the product reading surface 124 by, for example, a TOF (Time Of Flight) method. That is, the distance sensor 134 irradiates a light ray such as infrared rays, and measures the distance from the time required for the irradiated light ray to reciprocate to the object. In the present embodiment, infrared rays are irradiated, but the present invention is not limited to this. For example, the distance sensor 134 may irradiate a laser.

距離センサ134は、赤外線照射部136と、赤外線受光部138と、距離画像生成部140とを有する。赤外線照射部136は、商品読取面124の外側に向けて、赤外線を照射する。商品読取面124の近傍に物体が存在するときは、赤外線照射部136によって照射された赤外線は、その物体を反射する。赤外線受光部138は、例えばイメージセンサ(例えばCCD又はCMOS(Complementary Metal-Oxide Semiconductor)等)であって、物体を反射した赤外線を受光する。 The distance sensor 134 includes an infrared irradiation unit 136, an infrared light receiving unit 138, and a distance image generation unit 140. The infrared irradiation unit 136 irradiates infrared rays toward the outside of the product reading surface 124. When an object exists in the vicinity of the product reading surface 124, the infrared rays emitted by the infrared irradiation unit 136 reflect the object. The infrared light receiving unit 138 is, for example, an image sensor (for example, a CCD or CMOS (Complementary Metal-Oxide Semiconductor)) and receives infrared rays reflected from an object.

距離画像生成部140は、赤外線照射部136が赤外線を照射した時間と、赤外線受光部138が反射光を受光した時間との時間差から、物体までの距離(奥行き)を算出する。具体的には、赤外線照射部136と赤外線受光部138とは同期するようになっており、距離画像生成部140は、赤外線照射部136が照射する赤外線の位相と、赤外線受光部138が受光する反射光の位相との位相差を計測することにより、上記時間差を計測する。 The distance image generation unit 140 calculates the distance (depth) to the object from the time difference between the time when the infrared irradiation unit 136 irradiates infrared rays and the time when the infrared light receiving unit 138 receives the reflected light. Specifically, the infrared irradiation unit 136 and the infrared light receiving unit 138 are synchronized with each other, and the distance image generation unit 140 receives the phase of the infrared rays emitted by the infrared irradiation unit 136 and the infrared light receiving unit 138. The time difference is measured by measuring the phase difference with the phase of the reflected light.

さらに具体的には、距離画像生成部140は、赤外線受光部138が受光した物体の各位置からの反射光それぞれについて、時間差を計測し、各位置それぞれについて、距離を計測する。これによって、距離画像生成部140は、物体の各位置の距離を示す画素の集合である距離画像(3次元画像)を生成する。なお、以下、用語「距離画像」は、情報処理における処理対象としての、「距離画像を示す画像データ」も意味する。 More specifically, the distance image generation unit 140 measures the time difference for each reflected light from each position of the object received by the infrared light receiving unit 138, and measures the distance for each position. As a result, the distance image generation unit 140 generates a distance image (three-dimensional image) which is a set of pixels indicating the distance at each position of the object. Hereinafter, the term "distance image" also means "image data indicating a distance image" as a processing target in information processing.

例えば、距離センサ134から15cmの位置については、距離画像の中の当該位置に対応する画素は、「距離15cm」を示す距離情報を含む。また、距離センサ134から30cmの位置については、距離画像の中の当該位置に対応する画素は、「距離30cm」を示す距離情報を含む。 For example, for a position 15 cm from the distance sensor 134, the pixel corresponding to the position in the distance image includes distance information indicating "distance 15 cm". Further, with respect to the position 30 cm from the distance sensor 134, the pixel corresponding to the position in the distance image includes the distance information indicating "distance 30 cm".

なお、距離センサ134と物体との距離が近すぎると、照射光と反射光との位相差を検出できず、時間差を計測できない。したがって、物体までの距離を計測することができなくなる。したがって、距離センサ134が計測できる最小の時間差(位相差)に合わせて、距離センサ134(3次元カメラ130)と物体との距離が保たれるように、距離センサ134(3次元カメラ130)は、商品読取面124から間隔L離れて設置されている。つまり、距離センサ134(3次元カメラ130)は、計測可能な最小の距離を保つように、商品読取面124から間隔L離れて設置されている。赤外線の速度(光速)は30万km毎秒であり、したがって、赤外線は、1ナノ秒で30cm進む。つまり、距離センサ134と物体の間の距離が15cm(往復30cm)変化したときに、光を照射してから反射光を受光するまでの時間が、1ナノ秒変化する。したがって、例えば、計測できる最小の時間差が1ナノ秒である場合、間隔Lは15cmとなる。 If the distance between the distance sensor 134 and the object is too close, the phase difference between the irradiation light and the reflected light cannot be detected, and the time difference cannot be measured. Therefore, the distance to the object cannot be measured. Therefore, the distance sensor 134 (three-dimensional camera 130) keeps the distance between the distance sensor 134 (three-dimensional camera 130) and the object according to the minimum time difference (phase difference) that the distance sensor 134 can measure. , It is installed at a distance L from the product reading surface 124. That is, the distance sensor 134 (three-dimensional camera 130) is installed at a distance of L from the product reading surface 124 so as to maintain the minimum measurable distance. The speed of infrared rays (speed of light) is 300,000 km / s, so infrared rays travel 30 cm in 1 nanosecond. That is, when the distance between the distance sensor 134 and the object changes by 15 cm (reciprocating 30 cm), the time from irradiating the light to receiving the reflected light changes by 1 nanosecond. Therefore, for example, when the minimum measurable time difference is 1 nanosecond, the interval L is 15 cm.

また、撮像部132及び距離センサ134は、互いに近接して(つまり略同じ位置に)配置される。そのため、撮像部132によって得られた2次元画像と、距離センサ134によって得られた距離画像とが、互いに対応するように構成されている。つまり、撮影対象の物体のある位置Pが2次元画像の画素位置(X1,Y1)に対応する場合、位置Pは、距離画像においても画素位置(X1,Y1)にほぼ対応する。言い換えると、距離センサ134によって得られた距離画像の各画素位置は、撮像部132によって得られた2次元画像の各画素位置と、互いに対応するように構成されている。なお、撮像部132の位置と距離センサ134の位置とが多少ずれているような場合などにおいては、撮像部132と距離センサ134との間の距離と、撮像部132及び距離センサ134それぞれの視野角とから、距離画像の各画素位置と2次元画像の各画素位置との位置合わせを行うような処理を行ってもよい。 Further, the image pickup unit 132 and the distance sensor 134 are arranged close to each other (that is, at substantially the same position). Therefore, the two-dimensional image obtained by the imaging unit 132 and the distance image obtained by the distance sensor 134 are configured to correspond to each other. That is, when the position P of the object to be imaged corresponds to the pixel position (X1, Y1) of the two-dimensional image, the position P substantially corresponds to the pixel position (X1, Y1) also in the distance image. In other words, each pixel position of the distance image obtained by the distance sensor 134 is configured to correspond to each pixel position of the two-dimensional image obtained by the imaging unit 132. If the position of the image pickup unit 132 and the position of the distance sensor 134 are slightly different from each other, the distance between the image pickup unit 132 and the distance sensor 134 and the visual fields of the image pickup unit 132 and the distance sensor 134, respectively. From the corners, processing may be performed such that the positions of each pixel of the distance image and the positions of each pixel of the two-dimensional image are aligned.

図4は、実施の形態1にかかるPOS端末装置100の機能ブロック図である。また、図5及び図6は、実施の形態1にかかるPOS端末装置100の処理を示すフローチャートである。POS端末装置100は、開始制御部200と、認識処理部220とを有する。開始制御部200は、距離画像取得部202と、物体接近判別部204と、認識処理実行制御部206とを有する。また、認識処理部220は、商品画像撮影制御部222と、距離画像撮影制御部224と、商品画像抽出部226と、商品認識処理部228と、商品情報格納部230とを有する。 FIG. 4 is a functional block diagram of the POS terminal device 100 according to the first embodiment. 5 and 6 are flowcharts showing the processing of the POS terminal device 100 according to the first embodiment. The POS terminal device 100 has a start control unit 200 and a recognition processing unit 220. The start control unit 200 includes a distance image acquisition unit 202, an object approach determination unit 204, and a recognition process execution control unit 206. Further, the recognition processing unit 220 includes a product image shooting control unit 222, a distance image shooting control unit 224, a product image extraction unit 226, a product recognition processing unit 228, and a product information storage unit 230.

なお、開始制御部200及び認識処理部220は、例えば、制御部112の制御によって、プログラムを実行させることによって実現できる。より具体的には、記憶部114に格納されたプログラムを、制御部112の制御によってプログラムを実行して実現する。また、各構成要素は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、開始制御部200及び認識処理部220の各構成要素は、例えばFPGA(field-programmable gate array)又はマイコン等の、使用者がプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、上記の各構成要素から構成されるプログラムを実現してもよい。 The start control unit 200 and the recognition processing unit 220 can be realized by, for example, executing a program under the control of the control unit 112. More specifically, the program stored in the storage unit 114 is realized by executing the program under the control of the control unit 112. Further, each component is not limited to being realized by software by a program, and may be realized by a combination of hardware, firmware, software, or the like. Further, each component of the start control unit 200 and the recognition processing unit 220 may be realized by using an integrated circuit that can be programmed by the user, such as an FPGA (field-programmable gate array) or a microcomputer. In this case, this integrated circuit may be used to realize a program composed of each of the above components.

開始制御部200は、物体が商品読取面124(つまり3次元カメラ130)に接近したか否かを判別して、認識処理部220に処理を実行させるか否かを制御する。認識処理部220は、開始制御部200によって処理を実行するように制御された場合に、商品の認識処理(商品認識処理)を行う。 The start control unit 200 determines whether or not the object has approached the product reading surface 124 (that is, the three-dimensional camera 130), and controls whether or not the recognition processing unit 220 executes the process. The recognition processing unit 220 performs a product recognition process (product recognition process) when the start control unit 200 controls the process to be executed.

以下、開始制御部200及び認識処理部220の処理について、具体的に説明する。図5は、実施の形態1にかかる開始制御部200の処理を示すフローチャートである。また、図6は、実施の形態1にかかる認識処理部220の処理を示すフローチャートである。 Hereinafter, the processing of the start control unit 200 and the recognition processing unit 220 will be specifically described. FIG. 5 is a flowchart showing the processing of the start control unit 200 according to the first embodiment. Further, FIG. 6 is a flowchart showing the processing of the recognition processing unit 220 according to the first embodiment.

距離画像取得部202は、距離センサ134を制御して、距離画像を取得する(S102)。具体的には、距離画像取得部202は、商品読取面124の正面の距離画像を撮影するように、距離センサ134を制御する。距離センサ134は、距離画像取得部202の制御に応じて、商品読取面124の正面の距離画像を撮影し、距離画像(距離画像を示す画像データ)を生成する。距離画像取得部202は、生成された距離画像を取得し、物体接近判別部204に出力する。 The distance image acquisition unit 202 controls the distance sensor 134 to acquire a distance image (S102). Specifically, the distance image acquisition unit 202 controls the distance sensor 134 so as to capture a distance image in front of the product reading surface 124. The distance sensor 134 captures a distance image in front of the product reading surface 124 under the control of the distance image acquisition unit 202, and generates a distance image (image data indicating the distance image). The distance image acquisition unit 202 acquires the generated distance image and outputs it to the object approach determination unit 204.

物体接近判別部204は、距離画像を用いて、閾値Th1(第1の閾値)以内に物体が接近したか否かを判別する(S104)。例えば、物体接近判別部204は、距離画像を解析して、距離センサ134から閾値Th1以内の距離を示す画素が存在するか否かを判別する。物体接近判別部204は、閾値Th1以内の距離を示す画素が存在する場合に、物体が接近していると判別する。一方、物体接近判別部204は、閾値Th1以内の距離を示す画素が存在しない場合に、物体が接近していないと判別する。 The object approach determination unit 204 determines whether or not the object has approached within the threshold value Th1 (first threshold value) by using the distance image (S104). For example, the object approach determination unit 204 analyzes the distance image and determines whether or not there is a pixel indicating a distance within the threshold Th1 from the distance sensor 134. The object approach determination unit 204 determines that the objects are approaching when there are pixels indicating a distance within the threshold Th1. On the other hand, the object approach determination unit 204 determines that the object is not approaching when there is no pixel indicating the distance within the threshold Th1.

なお、閾値Th1は、商品読取面124に店員等が商品を向けて商品認識をさせようとするときの、商品読取面124から商品(物体)までの距離を考慮して決定される。また、商品読取面124から閾値Th1の位置までの間には、店員等が商品読取面124に商品を向けるとき以外のときには、物体が存在しないように、閾値Th1が決定される。例えば、商品読取面124から閾値Th1の位置までの距離(Th1−L)が25cmであるとすると、間隔Lが15cmの場合、閾値Th1は、40cmとなる。 The threshold value Th1 is determined in consideration of the distance from the product reading surface 124 to the product (object) when the store clerk or the like points the product at the product reading surface 124 to recognize the product. Further, the threshold value Th1 is determined between the product reading surface 124 and the position of the threshold value Th1 so that no object exists except when the store clerk or the like points the product toward the product reading surface 124. For example, assuming that the distance (Th1-L) from the product reading surface 124 to the position of the threshold Th1 is 25 cm, the threshold Th1 is 40 cm when the interval L is 15 cm.

物体接近判別部204によって閾値Th1以内に物体が接近していると判別された場合(S104のYES)、認識処理実行制御部206は、認識処理部220に対し、商品認識処理を開始するように制御する(S106)。 When the object approach determination unit 204 determines that the object is approaching within the threshold Th1 (YES in S104), the recognition process execution control unit 206 causes the recognition process unit 220 to start the product recognition process. Control (S106).

一方、物体接近判別部204によって閾値Th1以内に物体が接近していないと判別された場合(S104のNO)、認識処理実行制御部206は、認識処理部220が商品認識処理を行っているか否かを判断する(S108)。認識処理部220が商品認識処理を行っていない場合(S108のNO)、処理はS102に戻る。 On the other hand, when it is determined by the object approach determination unit 204 that the object is not approaching within the threshold Th1 (NO in S104), the recognition process execution control unit 206 determines whether the recognition process 220 is performing the product recognition process. Is determined (S108). When the recognition processing unit 220 has not performed the product recognition processing (NO in S108), the processing returns to S102.

一方、認識処理部220が商品認識処理を行っている場合(S108のYES)、認識処理実行制御部206は、認識処理部220に対し、商品認識処理を終了するように制御する(S110)。つまり、開始制御部200の処理は、POS端末装置100が起動している間は、常に行われてもよい。一旦、物体(商品)が商品読取面124に接近したために、認識処理部220による商品の認識処理が開始された場合であっても、認識処理が終了したとき又は認識処理を行っている間に、物体(商品)が商品読取面124から離れた(距離センサ134から物体までの距離が閾値Th1を超過した)ときは、開始制御部200は、認識処理部220に対し、商品認識処理を終了するように制御する。 On the other hand, when the recognition processing unit 220 is performing the product recognition processing (YES in S108), the recognition processing execution control unit 206 controls the recognition processing unit 220 to end the product recognition process (S110). That is, the processing of the start control unit 200 may always be performed while the POS terminal device 100 is running. Even if the product recognition process by the recognition processing unit 220 is started because the object (product) has approached the product reading surface 124 once, when the recognition process is completed or while the recognition process is being performed. When the object (product) is separated from the product reading surface 124 (the distance from the distance sensor 134 to the object exceeds the threshold Th1), the start control unit 200 ends the product recognition process for the recognition processing unit 220. Control to do.

このように、本実施の形態にかかるPOS端末装置100は、物体(商品)が商品読取面124(距離センサ134)に接近したときのみ商品認識処理を行う。商品認識処理を行うとき、POS端末装置100(特に撮像部132、制御部112及び記憶部114)の負荷は増大する。したがって、このように構成されていることによって、商品認識処理を行う必要がないときに、POS端末装置100の資源の負荷を低減させることが可能となる。なお、ここでいう「資源」とは、POS端末装置100自体のハードウェア資源だけでなく、ネットワーク資源をも含む。 As described above, the POS terminal device 100 according to the present embodiment performs the product recognition process only when the object (product) approaches the product reading surface 124 (distance sensor 134). When the product recognition process is performed, the load on the POS terminal device 100 (particularly, the imaging unit 132, the control unit 112, and the storage unit 114) increases. Therefore, with such a configuration, it is possible to reduce the resource load of the POS terminal device 100 when it is not necessary to perform the product recognition process. The "resource" here includes not only the hardware resource of the POS terminal device 100 itself but also the network resource.

商品画像撮影制御部222は、商品の画像(商品画像)を含む2次元画像を、撮像部132に撮影させる(S202)。具体的には、商品画像撮影制御部222は、撮像部132を制御して、商品読取面124に向けられた商品を撮像させる。そして、商品画像撮影制御部222は、撮像部132によって生成された2次元画像を取得し、商品画像抽出部226に対して出力する。なお、この2次元画像には、商品画像の他に、背景の画像(背景画像)も含まれうる。 The product image shooting control unit 222 causes the imaging unit 132 to shoot a two-dimensional image including the product image (product image) (S202). Specifically, the product image capturing control unit 222 controls the image pickup unit 132 to image the product directed to the product reading surface 124. Then, the product image capturing control unit 222 acquires the two-dimensional image generated by the imaging unit 132 and outputs the two-dimensional image to the product image extraction unit 226. The two-dimensional image may include a background image (background image) in addition to the product image.

距離画像撮影制御部224は、2次元画像に対応する距離画像を、距離センサ134に撮影させる(S204)。具体的には、距離画像撮影制御部224は、距離センサ134を制御して、商品読取面124に向けられた商品を含む距離画像を撮影させる。そして、距離画像撮影制御部224は、距離センサ134によって生成された距離画像を取得し、商品画像抽出部226に対して出力する。なお、上述したように、撮像部132及び距離センサ134は、互いに近接して配置されているので、距離画像は、2次元画像に対応する。なお、距離画像撮影制御部224の処理(S204)は、S102の処理で代用してもよい。つまり、距離画像取得部202において取得された距離画像が、商品画像抽出部226に対して出力されてもよい。 The distance image capturing control unit 224 causes the distance sensor 134 to capture a distance image corresponding to the two-dimensional image (S204). Specifically, the distance image capturing control unit 224 controls the distance sensor 134 to capture a distance image including the product directed at the product reading surface 124. Then, the distance image capturing control unit 224 acquires the distance image generated by the distance sensor 134 and outputs it to the product image extraction unit 226. As described above, since the imaging unit 132 and the distance sensor 134 are arranged close to each other, the distance image corresponds to the two-dimensional image. The process (S204) of the distance image capturing control unit 224 may be replaced by the process of S102. That is, the distance image acquired by the distance image acquisition unit 202 may be output to the product image extraction unit 226.

商品画像抽出部226は、距離画像において距離センサ134からの距離が範囲S1(第1の範囲)内の区域を判別し、2次元画像から、その区域に対応する画像区域を、商品画像として抽出する(S206)。さらに、商品画像抽出部226は、抽出された商品画像を、商品認識処理部228に対して出力する。 The product image extraction unit 226 determines an area in which the distance from the distance sensor 134 is within the range S1 (first range) in the distance image, and extracts an image area corresponding to the area from the two-dimensional image as a product image. (S206). Further, the product image extraction unit 226 outputs the extracted product image to the product recognition processing unit 228.

具体的には、商品画像抽出部226は、2次元画像と距離画像とを重ね合わせる。また、商品画像抽出部226は、距離画像において距離が範囲S1内の区域が、2次元画像においてどの領域に対応するかを判別する。さらに、商品画像抽出部226は、その対応する領域を、商品画像に対応する画像区域であると判断する。そして、商品画像抽出部226は、その画像区域を、商品画像として抽出する。 Specifically, the product image extraction unit 226 superimposes the two-dimensional image and the distance image. In addition, the product image extraction unit 226 determines which area in the two-dimensional image corresponds to the area in which the distance is within the range S1 in the distance image. Further, the product image extraction unit 226 determines that the corresponding area is an image area corresponding to the product image. Then, the product image extraction unit 226 extracts the image area as a product image.

さらに具体的には、商品画像抽出部226は、距離画像から、範囲S1内の距離を示す画素(範囲内画素)を抽出する。また、商品画像抽出部226は、抽出された範囲内画素が、それぞれ、2次元画像のどの画素に対応するかを判別する。さらに、商品画像抽出部226は、2次元画像から、範囲内画素に対応する画素を抽出する。商品画像抽出部226は、この、2次元画像から抽出された画素の集合を、商品画像に対応する画像区域として抽出する。 More specifically, the product image extraction unit 226 extracts pixels (pixels within the range) indicating the distance within the range S1 from the distance image. In addition, the product image extraction unit 226 determines which pixel of the two-dimensional image each of the extracted pixels in the range corresponds to. Further, the product image extraction unit 226 extracts pixels corresponding to the pixels within the range from the two-dimensional image. The product image extraction unit 226 extracts a set of pixels extracted from the two-dimensional image as an image area corresponding to the product image.

なお、範囲S1の下限は、例えば、距離センサ134から商品読取面124までの距離(間隔L)であってもよい。また、範囲S1の上限は、店員等が商品を読み取らせるために当該商品を商品読取面124に向ける際に、商品を商品読取面124にどれだけ接近させるかを考慮して設定される。例えば、範囲S1の上限は、閾値Th1よりも小さくなるように設定されてもよい。例えば、商品読取面124から範囲S1の上限の位置までの距離が15cmであるとすると、間隔Lが15cmの場合、範囲S1は、15cm<S1<30cmとなる。なお、範囲S1の下限は設定されなくてもよく、その場合、下限値は0cmとなる。 The lower limit of the range S1 may be, for example, the distance (interval L) from the distance sensor 134 to the product reading surface 124. Further, the upper limit of the range S1 is set in consideration of how close the product is to the product reading surface 124 when the store clerk or the like directs the product toward the product reading surface 124 in order to read the product. For example, the upper limit of the range S1 may be set to be smaller than the threshold value Th1. For example, assuming that the distance from the product reading surface 124 to the upper limit position of the range S1 is 15 cm, when the interval L is 15 cm, the range S1 is 15 cm <S1 <30 cm. The lower limit of the range S1 does not have to be set, and in that case, the lower limit is 0 cm.

図7は、商品画像抽出部226の処理を説明するための図である。図7(a)は、商品画像撮影制御部222の制御によって撮像部132が撮影した、商品画像を含む2次元画像Im2を例示する図である。2次元画像Im2には、商品画像A(実線で示す)と、背景画像B(一点鎖線で示す)とが含まれる。商品画像Aに対応する商品は、距離センサ134(商品読取面124)からの距離が範囲S1内である位置にある。背景画像Bに対応する物体は、距離センサ134(商品読取面124)から範囲S1を逸脱するほど離れた位置にある。 FIG. 7 is a diagram for explaining the processing of the product image extraction unit 226. FIG. 7A is a diagram illustrating a two-dimensional image Im2 including a product image taken by the imaging unit 132 under the control of the product image shooting control unit 222. The two-dimensional image Im2 includes a product image A (indicated by a solid line) and a background image B (indicated by an alternate long and short dash line). The product corresponding to the product image A is at a position where the distance from the distance sensor 134 (product reading surface 124) is within the range S1. The object corresponding to the background image B is located at a position far enough away from the distance sensor 134 (product reading surface 124) so as to deviate from the range S1.

図7(b)は、距離画像撮影制御部224の制御によって距離センサ134が撮影した、2次元画像に対応する距離画像Im3を例示する図である。ここで、Cで示す領域は、距離センサ134からの距離が範囲S1内の区域を示す。またDで示す斜線で示された領域は、距離センサ134からの距離が範囲S1を逸脱した区域を示す。 FIG. 7B is a diagram illustrating a distance image Im3 corresponding to a two-dimensional image captured by the distance sensor 134 under the control of the distance image capturing control unit 224. Here, the area indicated by C indicates an area in which the distance from the distance sensor 134 is within the range S1. The shaded area indicated by D indicates an area where the distance from the distance sensor 134 deviates from the range S1.

商品画像抽出部226は、2次元画像Im2と距離画像Im3とを重ね合わせる。そして、商品画像抽出部226は、距離画像Im3のCで示す区域に対応する画像領域を、2次元画像Im2から抜き出す。これによって、図7(c)に例示するような、商品画像Eが抽出される。ここで、商品画像Eには、背景画像が含まれていない。つまり、商品画像抽出部226は、2次元画像Im2から、背景画像Bを除去している。 The product image extraction unit 226 superimposes the two-dimensional image Im2 and the distance image Im3. Then, the product image extraction unit 226 extracts the image region corresponding to the area indicated by C of the distance image Im3 from the two-dimensional image Im2. As a result, the product image E as illustrated in FIG. 7C is extracted. Here, the product image E does not include the background image. That is, the product image extraction unit 226 removes the background image B from the two-dimensional image Im2.

商品認識処理部228(図4)は、商品画像抽出部226によって抽出された商品画像を用いて、商品認識処理を行う(S208)。また、商品認識処理部228は、商品認識処理によって得られた商品情報を、商品情報格納部230に格納する。商品情報は、商品に付されるバーコードに含まれる情報を含む。さらに、商品情報は、商品のサイズ(容量)を含んでもよい。POS端末装置100は、商品認識処理部228による商品認識処理によって得られた商品情報を用いて、その商品の決済処理等を行う。 The product recognition processing unit 228 (FIG. 4) performs product recognition processing using the product image extracted by the product image extraction unit 226 (S208). In addition, the product recognition processing unit 228 stores the product information obtained by the product recognition processing in the product information storage unit 230. The product information includes the information included in the barcode attached to the product. Further, the product information may include the size (capacity) of the product. The POS terminal device 100 uses the product information obtained by the product recognition process by the product recognition processing unit 228 to perform payment processing and the like for the product.

商品認識処理について、具体的には、例えば、商品認識処理部228は、予め、商品名とその商品に関する情報(基準商品情報)とを対応付けて記憶している。商品認識処理部228は、抽出された商品画像と予め記憶されている基準商品情報とのパターンマッチングを行う。基準商品情報については、以下に例示する。 Regarding the product recognition process, specifically, for example, the product recognition processing unit 228 stores the product name and the information related to the product (reference product information) in advance in association with each other. The product recognition processing unit 228 performs pattern matching between the extracted product image and the reference product information stored in advance. The standard product information is illustrated below.

例えば、基準商品情報は、商品の基準となる画像(基準商品画像)であってもよい。その場合、商品認識処理部228は、抽出された商品画像と基準商品画像とを照合する。そして、商品認識処理部228は、両者の類似度が許容値を満たす場合に、その商品を、その基準商品画像に対応する商品名と対応付ける。 For example, the reference product information may be an image (reference product image) that serves as a reference for the product. In that case, the product recognition processing unit 228 collates the extracted product image with the reference product image. Then, the product recognition processing unit 228 associates the product with the product name corresponding to the reference product image when the similarity between the two satisfies the permissible value.

また、例えば、基準商品情報は、商品の基準となる特徴を示すデータ(商品特徴データ)であってもよい。商品特徴データは、例えば、商品の形状を示す情報と、商品の色を示す情報と、商品の質感(つや等)を示す情報と、商品のパッケージに付された文字情報及び模様を示す情報との少なくとも1つを含んでもよい。この場合、商品認識処理部228は、抽出された商品画像から、その画像の特徴を抽出する。そして、商品認識処理部228は、抽出された画像の特徴と、商品特徴データとを照合する。そして、商品認識処理部228は、両者の類似度が許容値を満たす場合に、その商品を、その商品特徴データに対応する商品名と対応付ける。また、商品認識処理部228は、商品のパッケージに付された文字情報をOCR(Optical Character Reader)によって読み取ることによって、商品名を認識してもよい。 Further, for example, the reference product information may be data (product feature data) indicating a feature that serves as a reference for the product. The product feature data includes, for example, information indicating the shape of the product, information indicating the color of the product, information indicating the texture (gloss, etc.) of the product, and character information and patterns attached to the package of the product. May contain at least one of. In this case, the product recognition processing unit 228 extracts the features of the image from the extracted product image. Then, the product recognition processing unit 228 collates the features of the extracted image with the product feature data. Then, the product recognition processing unit 228 associates the product with the product name corresponding to the product feature data when the similarity between the two satisfies the permissible value. In addition, the product recognition processing unit 228 may recognize the product name by reading the character information attached to the product package with an OCR (Optical Character Reader).

ここで、商品画像抽出部226によって抽出された商品画像は、背景が除去されている。したがって、商品認識処理部228が商品の認識処理を行う際に、背景を除外して処理する必要がなくなる。2次元画像に商品画像だけでなく背景画像が含まれると、商品認識処理において、まず、2次元画像において、商品画像がどこにあるかを認識する必要がある。特に、セルフレジ等のように、不特定多数の顧客がPOS端末装置100を使用する場合、商品読取面124のどの位置に商品を向けるかは、その顧客によって異なる。この、商品画像がどこにあるかを認識する処理は、例えば、基準商品情報を、2次元画像に含まれる全ての画像について照合しなければならない。そのため、処理時間が膨大となる。 Here, the background of the product image extracted by the product image extraction unit 226 is removed. Therefore, when the product recognition processing unit 228 performs the product recognition processing, it is not necessary to exclude the background. When the two-dimensional image includes not only the product image but also the background image, in the product recognition process, it is first necessary to recognize where the product image is in the two-dimensional image. In particular, when an unspecified number of customers use the POS terminal device 100, such as a self-checkout, the position of the product reading surface 124 at which the product is directed differs depending on the customer. In this process of recognizing where the product image is, for example, the reference product information must be collated with respect to all the images included in the two-dimensional image. Therefore, the processing time becomes enormous.

一方、本実施の形態においては、商品画像そのものを使用するので、2次元画像において商品画像がどこにあるかを認識する必要はない。したがって、本実施の形態にかかるPOS端末装置100は、商品認識処理の処理速度を向上させることが可能となる。言い換えると、本実施の形態にかかるPOS端末装置100は、商品認識処理における資源の負荷を低減させることが可能となる。また、商品画像のデータ量は、2次元画像のデータ量よりも、背景が除去されている分、小さくなる。したがって、処理対象のデータ量を削減できるので、資源の低減及び負荷の低減を実現することが可能となる。したがって、タブレット端末等の、資源に乏しい装置を、本実施の形態にかかるPOS端末装置100として使用することも可能となる。なお、ここでいう「資源」とは、POS端末装置100自体のハードウェア資源だけでなく、ネットワーク資源をも含む。つまり、本実施の形態においては、ネットワーク負荷を低減することも可能である。 On the other hand, in the present embodiment, since the product image itself is used, it is not necessary to recognize where the product image is in the two-dimensional image. Therefore, the POS terminal device 100 according to the present embodiment can improve the processing speed of the product recognition process. In other words, the POS terminal device 100 according to the present embodiment can reduce the load of resources in the product recognition process. Further, the amount of data of the product image is smaller than the amount of data of the two-dimensional image because the background is removed. Therefore, since the amount of data to be processed can be reduced, it is possible to reduce resources and load. Therefore, a resource-poor device such as a tablet terminal can be used as the POS terminal device 100 according to the present embodiment. The "resource" here includes not only the hardware resource of the POS terminal device 100 itself but also the network resource. That is, in the present embodiment, it is also possible to reduce the network load.

さらに、商品画像に背景画像が含まれると、商品認識処理において、その背景画像が考慮されてしまう。そのため、認識率が悪化する。一方、商品画像抽出部226によって抽出された商品画像は、背景が除去されているので、認識率を向上させることが可能となる。 Further, if the product image includes a background image, the background image is taken into consideration in the product recognition process. Therefore, the recognition rate deteriorates. On the other hand, since the background of the product image extracted by the product image extraction unit 226 is removed, the recognition rate can be improved.

また、撮像部132によって撮影された商品画像を含む2次元画像に、その商品を持った店員等の体の画像が含まれてしまう場合がある。ここで、商品画像を抽出する際に、予め撮影しておいた背景画像との差分を用いる方法では、この店員等の体も差分として認識される。したがって、抽出された商品画像に店員等の体の画像も含まれてしまい、店員等の体の画像がノイズとなって認識率が低下する。 In addition, the two-dimensional image including the product image taken by the imaging unit 132 may include an image of the body of a clerk or the like holding the product. Here, in the method of using the difference from the background image taken in advance when extracting the product image, the body of the clerk or the like is also recognized as the difference. Therefore, the extracted product image also includes the image of the body of the clerk or the like, and the image of the body of the clerk or the like becomes noise and the recognition rate is lowered.

ここで、人が商品を商品読取面124に商品を向けるとき、通常、手を伸ばして商品を向ける。したがって、店員等の体は、通常、商品読取面124(距離センサ134)から離れている。したがって、本実施の形態においては、商品画像抽出部226は、店員等の体の画像を除去することができる。そのため、商品認識処理部228は、店員等の体の画像を考慮せずに、商品の画像のみで、商品の認識処理を行うことができる。したがって、本実施の形態にかかるPOS端末装置100は、認識率をさらに向上させることが可能となる。 Here, when a person points the product at the product reading surface 124, he / she usually reaches out and points the product. Therefore, the body of the clerk or the like is usually away from the product reading surface 124 (distance sensor 134). Therefore, in the present embodiment, the product image extraction unit 226 can remove the image of the body of the clerk or the like. Therefore, the product recognition processing unit 228 can perform the product recognition process only with the image of the product without considering the image of the body of the clerk or the like. Therefore, the POS terminal device 100 according to the present embodiment can further improve the recognition rate.

また、予め撮影しておいた背景画像との差分を用いる方法では、外光(例えば夕日)等の影響で背景の色合いが予め撮影しておいた背景画像と異なる場合も、商品画像を抽出する際に、この背景も差分として認識されてしまう。したがって、商品画像に背景の画像も含まれてしまい、背景の画像がノイズとなって認識率が低下する。 In addition, in the method using the difference from the background image taken in advance, the product image is extracted even if the color of the background is different from the background image taken in advance due to the influence of external light (for example, sunset). At that time, this background is also recognized as a difference. Therefore, the background image is also included in the product image, and the background image becomes noise and the recognition rate is lowered.

ここで、背景に対応する物体は、商品読取面124(距離センサ134)から離れている。したがって、本実施の形態においては、商品画像抽出部226は、背景の色の変化に関わらず、背景を確実に除去できる。したがって、本実施の形態にかかるPOS端末装置100は、認識率をさらに向上させることが可能となる。 Here, the object corresponding to the background is separated from the product reading surface 124 (distance sensor 134). Therefore, in the present embodiment, the product image extraction unit 226 can reliably remove the background regardless of the change in the background color. Therefore, the POS terminal device 100 according to the present embodiment can further improve the recognition rate.

また、商品の中には、商品の形状及びパッケージが同じであっても、サイズが異なるものがある。例えば、図8に示すように、ペットボトル飲料は、中身が同じであっても、サイズ(容量)が異なる複数の種類のものが販売されている。このような商品は、一般的に、サイズによって価格が異なる。このような場合、単に商品画像を用いて商品認識処理を行うだけでは、その商品のサイズは認識できない。したがって、適切な価格で決済するためには、店員等が価格又は容量等を手で入力する必要がある。 In addition, some products have the same shape and package but different sizes. For example, as shown in FIG. 8, a plurality of types of PET bottled beverages having the same contents but different sizes (capacities) are sold. Such products generally vary in price depending on their size. In such a case, the size of the product cannot be recognized simply by performing the product recognition process using the product image. Therefore, in order to settle at an appropriate price, it is necessary for a clerk or the like to manually input the price or capacity.

一方、本実施の形態にかかるPOS端末装置100は、上述したように、距離センサ134によって、商品までの距離を計測することができる。2次元画像における商品画像の寸法は、実際の商品の寸法が同じであっても、その距離(奥行き)が遠くなるほど小さくなり、距離(奥行き)が近くなるほど大きくなる。つまり、2次元画像における商品画像の寸法と、商品までの距離とから、幾何学的に、実際の商品のサイズを把握することができる。 On the other hand, the POS terminal device 100 according to the present embodiment can measure the distance to the product by the distance sensor 134 as described above. Even if the actual product dimensions are the same, the dimensions of the product image in the two-dimensional image decrease as the distance (depth) increases, and increase as the distance (depth) decreases. That is, the actual size of the product can be geometrically grasped from the dimensions of the product image in the two-dimensional image and the distance to the product.

したがって、商品認識処理部228は、距離画像撮影制御部224から、商品までの距離を示す情報を取得し、商品画像の寸法を計測することによって、商品のサイズを認識するようにしてもよい。具体的には、商品認識処理部228は、距離画像撮影制御部224から、距離画像を取得する。また、商品認識処理部228は、距離画像を用いて、商品画像抽出部226によって抽出された商品画像の区域内の画素それぞれについて、距離情報を取得する。さらに、商品認識処理部228は、取得した各画素の距離情報から、商品までの距離を算出する。算出方法は、例えば、商品画像のエッジに対応する画素が示す距離を、商品までの距離としてもよいし、商品画像の区域内の各画素が示す距離の平均を、商品までの距離としてもよい。 Therefore, the product recognition processing unit 228 may recognize the size of the product by acquiring information indicating the distance to the product from the distance image shooting control unit 224 and measuring the dimensions of the product image. Specifically, the product recognition processing unit 228 acquires a distance image from the distance image capturing control unit 224. In addition, the product recognition processing unit 228 uses the distance image to acquire distance information for each pixel in the area of the product image extracted by the product image extraction unit 226. Further, the product recognition processing unit 228 calculates the distance to the product from the acquired distance information of each pixel. As the calculation method, for example, the distance indicated by the pixels corresponding to the edges of the product image may be the distance to the product, or the average of the distances indicated by each pixel in the area of the product image may be the distance to the product. ..

さらに、商品認識処理部228は、2次元画像における商品画像のサイズを計測する。商品画像のサイズは、例えば、縦寸法及び横寸法が計測される。そして、商品認識処理部228は、商品画像のサイズと、商品までの距離とから、実際の商品の寸法を算出する。ここで、商品認識処理の基準となる基準商品情報は、商品の寸法と容量とを含んでもよい。したがって、商品認識処理部228は、商品の名称及び容量(図8の例では、「商品名ABCの容量500ml」)といったことを把握することができる。 Further, the product recognition processing unit 228 measures the size of the product image in the two-dimensional image. For the size of the product image, for example, the vertical dimension and the horizontal dimension are measured. Then, the product recognition processing unit 228 calculates the actual product dimensions from the size of the product image and the distance to the product. Here, the reference product information that serves as the reference for the product recognition process may include the dimensions and capacity of the product. Therefore, the product recognition processing unit 228 can grasp the name and capacity of the product (in the example of FIG. 8, "capacity of product name ABC 500 ml").

(実施の形態2)
次に、実施の形態2について説明する。実施の形態2においては、後述するように、商品認識処理をPOS端末装置100が行わない点で、実施の形態1と異なる。なお、実施の形態1と実質的に同様の構成部分については同じ符号を付し、説明を省略する。
(Embodiment 2)
Next, the second embodiment will be described. The second embodiment is different from the first embodiment in that the POS terminal device 100 does not perform the product recognition process, as will be described later. The same components as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.

図9は、実施の形態2にかかるPOSシステム300を示す図である。図9に示すように、POSシステム300は、POS端末装置100と、管理装置310とを有する。POS端末装置100と、管理装置310とは、通信可能に接続されている。両者間の通信は、有線通信又は無線通信のいずれであってもよく、様々な通信規格が適用されうる。POS端末装置100と、管理装置310とは、ネットワーク(例えば、無線LAN(Local Area Network)又はインターネット等)を介して互いに接続されていてもよい。また、POS端末装置100と、管理装置310とは、赤外線通信又はBluetooth(登録商標)等の近距離無線通信方式によって互いに通信してもよい。 FIG. 9 is a diagram showing a POS system 300 according to the second embodiment. As shown in FIG. 9, the POS system 300 includes a POS terminal device 100 and a management device 310. The POS terminal device 100 and the management device 310 are communicably connected to each other. The communication between the two may be either wired communication or wireless communication, and various communication standards may be applied. The POS terminal device 100 and the management device 310 may be connected to each other via a network (for example, a wireless LAN (Local Area Network) or the Internet). Further, the POS terminal device 100 and the management device 310 may communicate with each other by infrared communication or a short-range wireless communication method such as Bluetooth (registered trademark).

実施の形態2にかかるPOS端末装置100は、実施の形態1にかかるPOS端末装置100と実質的に同一のハードウェア構成を有している。POS端末装置100は、通信装置116を用いて、管理装置310と通信を行う。この場合、通信装置116は、管理装置310と通信を行うために必要な処理を行う。 The POS terminal device 100 according to the second embodiment has substantially the same hardware configuration as the POS terminal device 100 according to the first embodiment. The POS terminal device 100 communicates with the management device 310 by using the communication device 116. In this case, the communication device 116 performs the processing necessary for communicating with the management device 310.

管理装置310は、商品情報等を管理する情報処理装置である。管理装置310は、POS端末装置100が配置された店舗に配置されていてもよい。また、管理装置310は、複数の店舗に配置された各POS端末装置100を一括して管理してもよく、この場合、管理装置310は、POS端末装置100が配置された店舗とは別の場所に配置されうる。また、管理装置310は、例えばサーバであって、クラウドサーバであってもよい。 The management device 310 is an information processing device that manages product information and the like. The management device 310 may be arranged in the store where the POS terminal device 100 is arranged. Further, the management device 310 may collectively manage each POS terminal device 100 arranged in a plurality of stores. In this case, the management device 310 is different from the store in which the POS terminal device 100 is arranged. Can be placed in place. Further, the management device 310 may be, for example, a server or a cloud server.

図10は、実施の形態2にかかる管理装置310のハードウェア構成を示す図である。管理装置310は、例えばCPU等の制御部312と、例えばタッチパネル、LCD又はキーボード等のユーザインタフェースである入出力部314と、例えばメモリ又はハードディスク等の記憶部316と、通信装置318とを有する。通信装置318は、POS端末装置100(又は他の管理装置310)と通信を行うために必要な処理を行う。 FIG. 10 is a diagram showing a hardware configuration of the management device 310 according to the second embodiment. The management device 310 includes, for example, a control unit 312 such as a CPU, an input / output unit 314 which is a user interface such as a touch panel, an LCD or a keyboard, a storage unit 316 such as a memory or a hard disk, and a communication device 318. The communication device 318 performs processing necessary for communicating with the POS terminal device 100 (or another management device 310).

図11は、実施の形態2にかかるPOS端末装置100の機能ブロック図である。POS端末装置100は、開始制御部200と、認識処理部240とを有する。開始制御部200は、距離画像取得部202と、物体接近判別部204と、認識処理実行制御部206とを有する。また、認識処理部240は、商品画像撮影制御部222と、距離画像撮影制御部224と、商品画像抽出部226と、商品画像送信部248とを有する。上述したように、開始制御部200及び認識処理部240は、例えば、制御部112の制御によって、プログラムを実行させることによって実現できる。 FIG. 11 is a functional block diagram of the POS terminal device 100 according to the second embodiment. The POS terminal device 100 has a start control unit 200 and a recognition processing unit 240. The start control unit 200 includes a distance image acquisition unit 202, an object approach determination unit 204, and a recognition process execution control unit 206. Further, the recognition processing unit 240 includes a product image shooting control unit 222, a distance image shooting control unit 224, a product image extraction unit 226, and a product image transmission unit 248. As described above, the start control unit 200 and the recognition processing unit 240 can be realized by, for example, executing a program under the control of the control unit 112.

実施の形態2にかかる認識処理部240は、商品認識処理部228及び商品情報格納部230を有さず、商品画像送信部248を有する点で、実施の形態1にかかる認識処理部220と異なる。商品画像抽出部226は、抽出された商品画像を、商品画像送信部248に対して出力する。商品画像送信部248は、商品画像(商品画像の画像データ)を、管理装置310に対して送信する。なお、商品画像送信部248は、商品画像を送信する際に、現在の時刻及びPOS端末装置100の識別情報等も、管理装置310に対して送信してもよい。また、管理装置310において商品のサイズが算出され得るように、商品画像送信部248は、距離画像(距離画像の画像データ)も、管理装置310に対して送信してもよい。 The recognition processing unit 240 according to the second embodiment is different from the recognition processing unit 220 according to the first embodiment in that it does not have the product recognition processing unit 228 and the product information storage unit 230 and has the product image transmission unit 248. .. The product image extraction unit 226 outputs the extracted product image to the product image transmission unit 248. The product image transmission unit 248 transmits the product image (image data of the product image) to the management device 310. When transmitting the product image, the product image transmission unit 248 may also transmit the current time, the identification information of the POS terminal device 100, and the like to the management device 310. Further, the product image transmission unit 248 may also transmit a distance image (image data of the distance image) to the management device 310 so that the size of the product can be calculated by the management device 310.

図12は、実施の形態2にかかる管理装置310の機能ブロック図である。管理装置310は、認識処理部320を有する。また、認識処理部320は、商品画像受信部322と、商品認識処理部328と、商品情報格納部330とを有する。 FIG. 12 is a functional block diagram of the management device 310 according to the second embodiment. The management device 310 has a recognition processing unit 320. Further, the recognition processing unit 320 has a product image receiving unit 322, a product recognition processing unit 328, and a product information storage unit 330.

なお、認識処理部320は、例えば、制御部312の制御によって、プログラムを実行させることによって実現できる。より具体的には、記憶部316に格納されたプログラムを、制御部312の制御によってプログラムを実行して実現する。また、各構成要素は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、認識処理部320の各構成要素は、例えばFPGA(field-programmable gate array)又はマイコン等の、使用者がプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、上記の各構成要素から構成されるプログラムを実現してもよい。 The recognition processing unit 320 can be realized, for example, by executing a program under the control of the control unit 312. More specifically, the program stored in the storage unit 316 is realized by executing the program under the control of the control unit 312. Further, each component is not limited to being realized by software by a program, and may be realized by a combination of hardware, firmware, software, or the like. Further, each component of the recognition processing unit 320 may be realized by using an integrated circuit programmable by the user, such as an FPGA (field-programmable gate array) or a microcomputer. In this case, this integrated circuit may be used to realize a program composed of each of the above components.

商品画像受信部322は、POS端末装置100によって送信された商品画像(商品画像データ)等を受信し、商品認識処理部328に対して出力する。商品認識処理部328は、実施の形態1にかかる商品認識処理部228と実質的に同一の機能を有する。したがって、商品認識処理部328は、商品画像抽出部226によって抽出された商品画像を用いて、上述した実施の形態1と同様に、商品認識処理を行う。さらに、商品認識処理部328は、商品認識処理によって得られた商品情報を、商品情報格納部330に格納する。さらに、管理装置310は、得られた商品情報を、POS端末装置100に対して送信する。POS端末装置100は、管理装置310から受信した商品情報を用いて、その商品の決済処理等を行う。 The product image receiving unit 322 receives the product image (product image data) or the like transmitted by the POS terminal device 100 and outputs it to the product recognition processing unit 328. The product recognition processing unit 328 has substantially the same function as the product recognition processing unit 228 according to the first embodiment. Therefore, the product recognition processing unit 328 uses the product image extracted by the product image extraction unit 226 to perform the product recognition processing in the same manner as in the first embodiment described above. Further, the product recognition processing unit 328 stores the product information obtained by the product recognition processing in the product information storage unit 330. Further, the management device 310 transmits the obtained product information to the POS terminal device 100. The POS terminal device 100 uses the product information received from the management device 310 to perform payment processing and the like for the product.

実施の形態2のように、商品認識処理をPOS端末装置100ではなく管理装置310で行うことによって、商品認識処理に必要な基準商品情報を、各POS端末装置100が記憶する必要がなく、また、POS端末装置100が商品認識処理を行う必要がない。したがって、POS端末装置100の資源を節約することが可能となる。また、タブレット端末等、資源の乏しいPOS端末装置100においても、本実施の形態を適用することが可能となる。また、実施の形態2においても、商品画像抽出部226によって商品画像が抽出される。したがって、実施の形態1と同様に、管理装置310による商品認識処理において、資源の負荷を低減させること、処理速度を向上させること、認識率を向上させること、及び、商品のサイズ(容量)を把握することが、可能となる。 By performing the product recognition process not in the POS terminal device 100 but in the management device 310 as in the second embodiment, it is not necessary for each POS terminal device 100 to store the reference product information required for the product recognition process. , The POS terminal device 100 does not need to perform the product recognition process. Therefore, it is possible to save the resources of the POS terminal device 100. Further, the present embodiment can be applied to the POS terminal device 100, which has scarce resources such as a tablet terminal. Further, also in the second embodiment, the product image is extracted by the product image extraction unit 226. Therefore, as in the first embodiment, in the product recognition process by the management device 310, the resource load is reduced, the processing speed is improved, the recognition rate is improved, and the size (capacity) of the product is determined. It becomes possible to grasp.

また、上述したように、商品画像抽出部226によって抽出される商品画像は、撮像部132の撮影によって得られた2次元画像から、背景画像が除去されている。したがって、商品画像のデータ量は、2次元画像のデータ量よりも小さい。管理装置310で商品認識処理を行う場合に、管理装置310に対し、POS端末装置100が2次元画像の画像データを送信すると、データ量が大きいため、通信ネットワークの負荷が増大する。一方、管理装置310に対し、POS端末装置100が商品画像の画像データを送信すると、データ量が小さいため、通信ネットワークの負荷が低減される。 Further, as described above, in the product image extracted by the product image extraction unit 226, the background image is removed from the two-dimensional image obtained by the photographing of the image pickup unit 132. Therefore, the amount of data of the product image is smaller than the amount of data of the two-dimensional image. When the product recognition process is performed by the management device 310, if the POS terminal device 100 transmits image data of a two-dimensional image to the management device 310, the amount of data is large, so that the load on the communication network increases. On the other hand, when the POS terminal device 100 transmits the image data of the product image to the management device 310, the load on the communication network is reduced because the amount of data is small.

(変形例)
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述したフローチャートにおける処理の順序は、適宜、変更可能である。また、上述したフローチャートにおける複数の処理の少なくとも1つは、なくても構わない。例えば、図6のフローチャートにおいて、S202の処理は、S204の処理の後で行われてもよい。また、図5のフローチャートにおいて、S108及びS110の処理は、なくてもよい。
(Modification example)
The present invention is not limited to the above embodiment, and can be appropriately modified without departing from the spirit. For example, the order of processing in the above-mentioned flowchart can be changed as appropriate. Further, at least one of the plurality of processes in the above-mentioned flowchart may be omitted. For example, in the flowchart of FIG. 6, the process of S202 may be performed after the process of S204. Further, in the flowchart of FIG. 5, the processing of S108 and S110 may not be necessary.

また、本実施の形態にかかる構成は、POS端末装置に適用されるとしたが、これに限られない。例えば、倉庫等で荷物の仕分けをするために用いられる物体認識装置等の一般的な物体認識装置、及び、この物体認識装置を含むシステムにおいても適用可能である。 Further, the configuration according to the present embodiment is applied to the POS terminal device, but the present invention is not limited to this. For example, it can be applied to a general object recognition device such as an object recognition device used for sorting luggage in a warehouse or the like, and a system including this object recognition device.

また、本実施の形態にかかるPOS端末装置100は、例えば、セルフレジにも適用可能である。セルフレジのように、顧客がPOS端末を使用する場合、顧客は、商品に付されたバーコードを読取装置に読み取らせることに慣れていない。そのため、セルフレジにおいては、バーコードを使用しない方法、つまり、商品を直接読み取らせる方法が求められる。したがって、セルフレジについて本実施の形態にかかるPOS端末装置100を適用することで、上述したような、商品を直接読み取らせることに起因する問題が解決される。 Further, the POS terminal device 100 according to the present embodiment can be applied to, for example, self-registration. When a customer uses a POS terminal as in self-checkout, the customer is not accustomed to having a reader read the barcode attached to the product. Therefore, in self-checkout, a method that does not use a barcode, that is, a method that allows the product to be read directly is required. Therefore, by applying the POS terminal device 100 according to the present embodiment to the self-registration, the problem caused by directly reading the product as described above is solved.

また、本実施の形態にかかるPOS端末装置100は、上述したように、タブレット端末(タブレットPOS)等の、資源が乏しい端末にも応用可能である。この場合、3次元カメラ130は、タブレット端末に内蔵されていなくてもよく、タブレット端末とは別個(外付け)の装置であってもよい。 Further, as described above, the POS terminal device 100 according to the present embodiment can be applied to a terminal having scarce resources such as a tablet terminal (tablet POS). In this case, the three-dimensional camera 130 does not have to be built in the tablet terminal, and may be a device separate (external) from the tablet terminal.

また、上述した実施の形態においては、開始制御部200により、商品認識処理の開始又は終了を制御するとしたが、これに限られない。つまり、開始制御部200は必須の構成要素ではなく、図5に示した開始制御部200の処理は、必ずしも必要ではない。しかしながら、上述したように、開始制御部200の処理を行うことによって、資源の低減を実現することが可能となる。なお、開始制御部200の代わりに、店員等が商品認識処理を開始又は終了するスイッチを操作することによって、商品認識処理の開始又は終了を制御してもよい。しかしながら、開始制御部200の処理を行うことによって、店員等が当該スイッチを操作することが不要となる。 Further, in the above-described embodiment, the start control unit 200 controls the start or end of the product recognition process, but the present invention is not limited to this. That is, the start control unit 200 is not an indispensable component, and the processing of the start control unit 200 shown in FIG. 5 is not always necessary. However, as described above, it is possible to reduce resources by performing the processing of the start control unit 200. In addition, instead of the start control unit 200, a store clerk or the like may control the start or end of the product recognition process by operating a switch for starting or ending the product recognition process. However, by processing the start control unit 200, it is not necessary for the store clerk or the like to operate the switch.

また、実施の形態1の構成と実施の形態2の構成とを組み合わせてもよい。例えば、実施の形態2にかかるPOS端末装置100においても、商品認識処理を行うようにしてもよい。言い換えると、実施の形態2にかかるPOS端末装置100が、商品認識処理部228を有してもよい。この場合、POS端末装置100の負荷が予め定められた第1の負荷値よりも増加した場合に、POS端末装置100が管理装置310に商品画像を送信し、商品認識処理を管理装置310が行うようにしてもよい。一方、管理装置310の負荷が予め定められた第2の負荷値よりも増加している場合、又は通信ネットワークの負荷が予め定められた第3の負荷値よりも増加している場合に、POS端末装置100は、管理装置310に商品画像を送信しないで、自らのPOS端末装置100で商品認識処理を行うようにしてもよい。 Further, the configuration of the first embodiment and the configuration of the second embodiment may be combined. For example, the product recognition process may also be performed in the POS terminal device 100 according to the second embodiment. In other words, the POS terminal device 100 according to the second embodiment may have a product recognition processing unit 228. In this case, when the load of the POS terminal device 100 increases from the predetermined first load value, the POS terminal device 100 transmits the product image to the management device 310, and the management device 310 performs the product recognition process. You may do so. On the other hand, when the load of the management device 310 is higher than the predetermined second load value, or when the load of the communication network is higher than the predetermined third load value, the POS The terminal device 100 may perform the product recognition process on its own POS terminal device 100 without transmitting the product image to the management device 310.

このように、POS端末装置100の負荷、管理装置310の負荷及び通信ネットワークの負荷に応じて、適宜、負荷分散を行うことが可能となる。この場合、POS端末装置100又は管理装置310が、POS端末装置100の負荷、管理装置310の負荷及び通信ネットワークの負荷を計測する手段、及び、計測された負荷と第1〜第3の負荷値とをそれぞれ比較する手段を有してもよい。 In this way, it is possible to appropriately distribute the load according to the load of the POS terminal device 100, the load of the management device 310, and the load of the communication network. In this case, the POS terminal device 100 or the management device 310 measures the load of the POS terminal device 100, the load of the management device 310, and the load of the communication network, and the measured load and the first to third load values. You may have a means to compare with each other.

また、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 Programs can also be stored and supplied to a computer using various types of non-transitory computer readable medium. Non-temporary computer-readable media include various types of tangible storage media. Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs. It includes a CD-R / W and a semiconductor memory (for example, a mask ROM, a PROM (Programmable ROM), an EPROM (Erasable PROM), a flash ROM, and a RAM (random access memory)). The program may also be supplied to the computer by various types of transient computer readable medium. Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

1 POS端末装置
2 撮像部
4 距離計測部
6 商品画像抽出部
100 POS端末装置
110 情報処理装置
120 商品読取装置
124 商品読取面
130 3次元カメラ
132 撮像部
134 距離センサ
136 赤外線照射部
138 赤外線受光部
140 距離画像生成部
200 開始制御部
202 距離画像取得部
204 物体接近判別部
206 認識処理実行制御部
220 認識処理部
222 商品画像撮影制御部
224 距離画像撮影制御部
226 商品画像抽出部
228 商品認識処理部
230 商品情報格納部
240 認識処理部
248 商品画像送信部
300 POSシステム
310 管理装置
312 制御部
320 認識処理部
322 商品画像受信部
328 商品認識処理部
330 商品情報格納部
1 POS terminal device 2 Imaging unit 4 Distance measurement unit 6 Product image extraction unit 100 POS terminal device 110 Information processing device 120 Product reading device 124 Product reading surface 130 Three-dimensional camera 132 Imaging unit 134 Distance sensor 136 Infrared irradiation unit 138 Infrared light receiving unit 140 Distance image generation unit 200 Start control unit 202 Distance image acquisition unit 204 Object approach discrimination unit 206 Recognition processing execution control unit 220 Recognition processing unit 222 Product image shooting control unit 224 Distance image shooting control unit 226 Product image extraction unit 228 Product recognition processing Unit 230 Product information storage unit 240 Recognition processing unit 248 Product image transmission unit 300 POS system 310 Management device 312 Control unit 320 Recognition processing unit 322 Product image receiving unit 328 Product recognition processing unit 330 Product information storage unit

Claims (10)

物体の画像を生成する撮像手段と、
前記物体までの距離を計測する距離計測手段と、
前記生成された画像のうち、前記計測された距離が所定値以下である領域を商品の画像として抽出する抽出手段と、
前記抽出された画像に基づいて商品の認識を行う商品認識手段と、
を有する情報処理装置。
An imaging means that generates an image of an object,
A distance measuring means for measuring the distance to the object and
An extraction means for extracting a region of the generated image in which the measured distance is equal to or less than a predetermined value as an image of a product,
A product recognition means that recognizes a product based on the extracted image, and
Information processing device with.
前記計測された距離が予め定められた閾値以下となった場合に、前記商品認識手段は、商品の認識を行う、
請求項1に記載の情報処理装置。
When the measured distance becomes equal to or less than a predetermined threshold value, the product recognition means recognizes the product.
The information processing device according to claim 1.
前記計測された距離が前記閾値以下となるように物体が接近したことを判別する判別手段をさらに有し、
前記抽出手段は、前記判別手段によって前記物体が接近したと判別された場合に、前記抽出する処理を実行する
請求項2に記載の情報処理装置。
Further, it has a discriminating means for discriminating that an object has approached so that the measured distance is equal to or less than the threshold value.
The information processing apparatus according to claim 2, wherein the extraction means executes the extraction process when it is determined by the determination means that the object has approached.
前記商品認識手段は、
前記画像における、前記抽出された商品の画像のサイズを計測し、
前記計測された商品の画像のサイズと、前記計測された物体までの距離とに基づいて、商品のサイズを認識し、
前記認識された商品のサイズに基づいて、当該商品の認識処理を行う
請求項3に記載の情報処理装置。
The product recognition means
The size of the image of the extracted product in the image is measured, and
The size of the product is recognized based on the size of the measured image of the product and the distance to the measured object.
The information processing device according to claim 3, wherein the product is recognized based on the size of the recognized product.
前記抽出された商品の画像に基づいて当該商品の認識処理を行う管理装置に対して、前記抽出された商品の画像を示すデータを送信する送信手段
をさらに有する請求項1から4のいずれか1項に記載の情報処理装置。
Any one of claims 1 to 4, further comprising a transmission means for transmitting data indicating the image of the extracted product to a management device that performs recognition processing of the product based on the image of the extracted product. The information processing device described in the section.
請求項1から5のいずれか1項に記載の情報処理装置と、
前記情報処理装置と通信を行う管理装置と
を有するシステム。
The information processing device according to any one of claims 1 to 5.
A system having a management device that communicates with the information processing device.
前記情報処理装置と、前記管理装置とは、通信ネットワークを介して接続され、
前記情報処理装置の負荷が予め定められた第1の負荷値よりも増加した場合に、前記情報処理装置は、前記管理装置に対して、前記抽出された商品の画像を示すデータを送信し、前記管理装置が、当該商品の認識処理を行う、
請求項6に記載のシステム。
The information processing device and the management device are connected via a communication network.
When the load of the information processing device increases from a predetermined first load value, the information processing device transmits data indicating an image of the extracted product to the management device. The management device performs recognition processing of the product.
The system according to claim 6.
前記管理装置の負荷が予め定められた第2の負荷値よりも増加している場合、又は前記通信ネットワークの負荷が予め定められた第3の負荷値よりも増加している場合に、前記情報処理装置は、前記管理装置に前記抽出された商品の画像を示すデータを送信せず、前記商品認識手段が、当該商品の認識処理を行う
請求項7に記載のシステム。
The information when the load of the management device is higher than a predetermined second load value, or when the load of the communication network is higher than a predetermined third load value. The system according to claim 7, wherein the processing device does not transmit data indicating an image of the extracted product to the management device, and the product recognition means performs the product recognition process.
物体の画像を生成し、
前記物体までの距離を計測し、
前記生成された画像のうち、前記計測された距離が所定値以下である領域を商品の画像として抽出し、
前記抽出された画像に基づいて商品の認識を行う、
画像処理方法。
Generate an image of an object,
Measure the distance to the object and
From the generated image, a region where the measured distance is equal to or less than a predetermined value is extracted as an image of the product.
The product is recognized based on the extracted image.
Image processing method.
物体の画像を生成するステップと、
前記物体までの距離を計測するステップと、
前記生成された画像のうち、前記計測された距離が所定値以下である領域を商品の画像として抽出するステップと、
前記抽出された画像に基づいて商品の認識を行うステップと、
をコンピュータに実行させるプログラム。
Steps to generate an image of an object,
The step of measuring the distance to the object and
A step of extracting a region of the generated image in which the measured distance is equal to or less than a predetermined value as an image of a product, and
The step of recognizing the product based on the extracted image and
A program that causes a computer to run.
JP2021089390A 2019-08-06 2021-05-27 Information processing device, system, image processing method and program Active JP7201020B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021089390A JP7201020B2 (en) 2019-08-06 2021-05-27 Information processing device, system, image processing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019144256A JP7144058B2 (en) 2019-08-06 2019-08-06 POS terminal device, POS system, image processing method and program
JP2021089390A JP7201020B2 (en) 2019-08-06 2021-05-27 Information processing device, system, image processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019144256A Division JP7144058B2 (en) 2019-08-06 2019-08-06 POS terminal device, POS system, image processing method and program

Publications (2)

Publication Number Publication Date
JP2021128798A true JP2021128798A (en) 2021-09-02
JP7201020B2 JP7201020B2 (en) 2023-01-10

Family

ID=68469404

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019144256A Active JP7144058B2 (en) 2019-08-06 2019-08-06 POS terminal device, POS system, image processing method and program
JP2021089390A Active JP7201020B2 (en) 2019-08-06 2021-05-27 Information processing device, system, image processing method and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019144256A Active JP7144058B2 (en) 2019-08-06 2019-08-06 POS terminal device, POS system, image processing method and program

Country Status (1)

Country Link
JP (2) JP7144058B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216571A (en) * 2000-02-03 2001-08-10 Glory Ltd Method and device for adjusting charge

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3213670B2 (en) * 1994-05-30 2001-10-02 東芝テック株式会社 Checkout device
JP2008129900A (en) * 2006-11-22 2008-06-05 Yamaha Motor Co Ltd Automatic vending machine
JP2010026683A (en) * 2008-07-17 2010-02-04 Seiko Epson Corp Wearable device, ordering system, and program
JP2010067079A (en) * 2008-09-11 2010-03-25 Dainippon Printing Co Ltd Behavior analysis system and behavior analysis method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216571A (en) * 2000-02-03 2001-08-10 Glory Ltd Method and device for adjusting charge

Also Published As

Publication number Publication date
JP7201020B2 (en) 2023-01-10
JP2019194926A (en) 2019-11-07
JP7144058B2 (en) 2022-09-29

Similar Documents

Publication Publication Date Title
JP6222345B2 (en) POS terminal device, POS system, image processing method and program
JP6318557B2 (en) POS terminal device, POS system, image processing method and program
CN109559458B (en) Neural network-based commodity identification cash registering method and self-service cash registering desk
KR102329369B1 (en) Item identification method and system, electronic equipment
US11386297B2 (en) Learning data generation device, learning data generation method, and recording medium
JP6172380B2 (en) POS terminal device, POS system, product recognition method and program
JP6520913B2 (en) Object detection apparatus, POS terminal apparatus, object detection method and computer program
US20130329013A1 (en) Hand held dimension capture apparatus, system and method
CN108921098B (en) Human motion analysis method, device, equipment and storage medium
US20140037159A1 (en) Apparatus and method for analyzing lesions in medical image
US20170185985A1 (en) Sales registration apparatus, program, and sales registration method
US9454708B2 (en) Recognition dictionary creation apparatus and method for creating recognition dictionary by the same
EP2980730A1 (en) Object recognition apparatus that performs object recognition based on infrared image and visible image
US20200202091A1 (en) System and method to enhance image input for object recognition system
EP3293685A1 (en) Information processing apparatus that identifies an item based on a captured image thereof
JP6569762B2 (en) POS terminal device, POS system, image processing method and program
JP2021128798A (en) Information processing device, system, image processing method and program
US20210019724A1 (en) Information processing system, information processing method, and storage medium
US20200134339A1 (en) Image Processing for Identifying Individuals
JP2016126515A (en) Object recognition scanner system
JPWO2015145977A1 (en) Information processing apparatus, image processing method and program, and POS terminal apparatus
JP6388108B2 (en) POS terminal device, POS system, information processing system, image recognition method, and image recognition program
JP6551712B2 (en) POS terminal device, POS system, information processing system, image recognition method, and image recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221205

R151 Written notification of patent or utility model registration

Ref document number: 7201020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151