JP2024037466A - Information processing system, information processing method and program - Google Patents

Information processing system, information processing method and program Download PDF

Info

Publication number
JP2024037466A
JP2024037466A JP2022142353A JP2022142353A JP2024037466A JP 2024037466 A JP2024037466 A JP 2024037466A JP 2022142353 A JP2022142353 A JP 2022142353A JP 2022142353 A JP2022142353 A JP 2022142353A JP 2024037466 A JP2024037466 A JP 2024037466A
Authority
JP
Japan
Prior art keywords
product
group
predetermined
people
payment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022142353A
Other languages
Japanese (ja)
Inventor
一憲 冨澤
篤 鵜飼
海洋 石川
拓真 川原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Signpost Corp
Original Assignee
Signpost Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Signpost Corp filed Critical Signpost Corp
Priority to JP2022142353A priority Critical patent/JP2024037466A/en
Publication of JP2024037466A publication Critical patent/JP2024037466A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】複数の客がグループで店舗に来店し店舗から商品を持ち出す際にグループでの恩恵を得ることができるようにする。【解決手段】情報処理システムの売場装置3は、入口制御部320、出口制御部370を備える。入口制御部320は、例えば2人の買い物客(移動体M1、M2)が店内売場に進入する入口エリア40において、2人の買い物客が属する所定グループを、移動体M1、M2の夫々のユニークID(所定グループのグループ識別子を含む)で作成する。出口制御部370は、所定グループに属する2人の買い物客(移動体M1、M2)全てが精算エリア45内に進入し、他の条件(支払い完了等)を満たした場合に所定グループの1以上の商品を、店内売場の外に持ち出すことを許可する。【選択図】図6[Problem] To enable a group of customers to visit a store as a group and take products out of the store to enjoy the benefits of the group. [Solution] A sales floor device 3 of an information processing system includes an entrance control unit 320 and an exit control unit 370. For example, in an entrance area 40 where two shoppers (mobiles M1, M2) enter a sales floor in a store, the entrance control unit 320 creates a predetermined group to which the two shoppers belong using the unique IDs (including the group identifier of the predetermined group) of each of the mobile units M1, M2. The exit control unit 370 allows the two shoppers (mobiles M1, M2) belonging to the predetermined group to take one or more products out of the sales floor in the store when both shoppers enter a checkout area 45 and other conditions (such as completion of payment) are met. [Selected Figure] Fig. 6

Description

本発明は、情報処理システム、情報処理方法及びプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.

従来より、コンビニエンスストア、スーパーマーケットやショッピングセンター、各種の量販店等の店舗では、購入者が商品棚から商品を取り、ショッピングカートや買い物カゴに入れて商店の出口付近に設けられたレジまで運び、セルフキャッシュレジスター(セルフレジ)により商品の代金の精算を行っている(例えば、特許文献1参照)。 Traditionally, in stores such as convenience stores, supermarkets, shopping centers, and various mass retailers, buyers pick up products from shelves, place them in shopping carts or carts, and carry them to the cash register near the exit of the store. Payment for products is made using a self-cash register (for example, see Patent Document 1).

特開2001-76261号公報Japanese Patent Application Publication No. 2001-76261

しかしながら、従来のセルフレジは、複数の商品(物品)より、夫々のバーコードを読み取る必要があるため、物品の処理待ちの人の列が物品の処理エリア付近にできてしまう。
また、複数の人がグループで来店し物品を店の外に持ち出すにしても、1人ずつレジ前に並んで物品を1人ずつ処理するため、グループで来店したとしても処理回数は人数分発生してしまい、グループでの恩恵が得られない。
However, in conventional self-checkout systems, it is necessary to read the barcodes of each of a plurality of products (articles), so a line of people waiting to process their articles forms near the article processing area.
In addition, even if multiple people come to the store in a group and take their items out of the store, each person lines up in front of the cash register and processes the items one by one, so even if a group comes to the store, the number of times the items are processed will be equal to the number of people. If you do this, you will not be able to benefit from the group.

本発明は、このような状況に鑑みてなされたものであり、複数の人がグループで物品の配置場所に入り物品を持ち出す際にグループでの恩恵を得ることができるようにすることを目的とする。 The present invention was made in view of this situation, and an object of the present invention is to enable a group of people to benefit from the group when they enter a place where items are placed and take out the items. do.

上記目的を達成するため、本発明の一態様の情報処理システムは、
複数の物品が配置場所に配置された所定領域の中を人が移動して、前記複数の物品のうち1以上の物品を前記所定領域の外に持ち出す際に利用される情報処理システムにおいて、
前記所定領域にN人(Nは2以上の整数値)が進入する前に、当該N人が属する所定グループを作成するグループ作成手段と、
前記所定グループに属する前記N人の夫々を追跡する追跡手段と、
重量センサ及び光センサのうち少なくとも一方を用いる所定の手法で、前記複数の物品のうち、前記配置場所から取り出された物品とその個数の双方を特定する商品特定手段と、
特定された前記物品と、前記所定グループに属する前記N人のうち所定の位置関係にある人若しくは所定グループとを紐付ける紐付け手段と、
前記所定グループに属する前記N人の全てが集合したか否かを判定する判定手段と、
前記所定グループに属する前記N人の全てが集合したという第1条件を少なくとも含む1以上の条件を満たした場合、当該複数の人のうち何れか若しくは所定グループと紐付けられた1以上の前記物品を、前記所定グループの物品として前記所定領域の外に持ち出すことを許可する持出許可手段と、
を備える。
本発明の一態様の上記情報処理システムに対応する情報処理方法及びプログラムも、本発明の一態様の情報処理方法及びプログラムとして提供される。
To achieve the above object, an information processing system according to one embodiment of the present invention includes:
In an information processing system used when a person moves within a predetermined area in which a plurality of items are placed at a placement location and takes one or more of the plurality of items out of the predetermined area,
before N people (N is an integer value of 2 or more) enter the predetermined area, group creation means for creating a predetermined group to which the N people belong;
tracking means for tracking each of the N people belonging to the predetermined group;
Product identifying means for identifying both the article taken out from the placement location and the number of articles among the plurality of articles by a predetermined method using at least one of a weight sensor and an optical sensor;
a linking means for linking the specified item with a person or a predetermined group in a predetermined positional relationship among the N people belonging to the predetermined group;
determining means for determining whether all of the N people belonging to the predetermined group have gathered;
If one or more conditions including at least the first condition that all of the N people belonging to the predetermined group have gathered, one or more of the items linked to any one of the plurality of people or the predetermined group taking out permission means for allowing to take out of the predetermined area outside the predetermined area as an article of the predetermined group;
Equipped with
An information processing method and program corresponding to the above information processing system according to one embodiment of the present invention are also provided as an information processing method and program according to one embodiment of the present invention.

本発明によれば、複数の人がグループで物品の配置場所に入り物品を持ち出す際にグループでの恩恵を得ることができる。 According to the present invention, when a plurality of people enter a place where items are placed in a group and take out the items, benefits can be obtained as a group.

本発明に係る情報処理システムの一実施形態の次世代レジシステムを採用するコンビニエンスストアの店舗のレイアウト例を示す図である。1 is a diagram illustrating an example layout of a convenience store that employs a next-generation cash register system according to an embodiment of an information processing system according to the present invention. 図1のレイアウト例に採用される、本発明に係る情報処理システムの一つの実施形態の次世代レジシステムのシステム構成を示す構成図である。FIG. 2 is a configuration diagram showing the system configuration of a next-generation cash register system of one embodiment of the information processing system according to the present invention, which is adopted in the layout example of FIG. 1. FIG. 図2のシステム構成のうち、サーバのハードウェア構成を示すブロック図である。3 is a block diagram showing the hardware configuration of a server in the system configuration of FIG. 2. FIG. 図2のシステム構成のうち、売場装置のハードウェア構成を示すブロック図である。3 is a block diagram showing the hardware configuration of a sales floor device in the system configuration of FIG. 2. FIG. 図2のシステム構成のうち、精算機のハードウェア構成を示すブロック図である。3 is a block diagram showing the hardware configuration of a payment machine in the system configuration of FIG. 2. FIG. 本発明に係る情報処理システムの一実施形態の次世代レジシステムの機能的構成の一例を示す機能ブロック図である。FIG. 1 is a functional block diagram showing an example of the functional configuration of a next-generation cash register system as an embodiment of an information processing system according to the present invention. 本発明の情報処理システムの実施形態に係る構成のうち、図6の売場装置に備えられた棚商品認識部の詳細な機能的構成例を示す機能ブロック図である。7 is a functional block diagram illustrating a detailed functional configuration example of a shelf product recognition section provided in the sales floor apparatus of FIG. 6 among the configurations according to the embodiment of the information processing system of the present invention. FIG. 本発明に係る情報処理システムの実施形態の次世代レジシステムの構成のうち、図6のサーバと売場装置と精算機とが実行する自動精算処理を説明するフローチャートである。7 is a flowchart illustrating automatic payment processing executed by the server, sales floor device, and payment machine of FIG. 6 in the configuration of the next generation cash register system of the embodiment of the information processing system according to the present invention. 図8の自動精算処理の続きのフローチャートである。9 is a flowchart continuation of the automatic payment process of FIG. 8. 本発明の情報処理システムの実施形態において、重量センサと光センサを用いて商品を認識する計測例を示す図である。FIG. 2 is a diagram showing an example of measurement for recognizing a product using a weight sensor and an optical sensor in an embodiment of the information processing system of the present invention. 本発明の情報処理システムの実施形態において、蓋付きの専用ケースを用いて商品を認識する計測例を示す図である。FIG. 3 is a diagram showing an example of measurement for recognizing a product using a dedicated case with a lid in an embodiment of the information processing system of the present invention. 本発明の情報処理システムの実施形態において、骨格推定や顔認識等の画像処理技術を用いた人の捕捉追跡例を示す図である。FIG. 2 is a diagram illustrating an example of capturing and tracking a person using image processing techniques such as bone structure estimation and face recognition in an embodiment of the information processing system of the present invention. 本発明の情報処理システムの実施形態において、台車に設置したカメラを用いた移動体(人やカート)の追跡例を示す図である。FIG. 2 is a diagram illustrating an example of tracking a moving object (person or cart) using a camera installed on a trolley in an embodiment of the information processing system of the present invention. 本発明の情報処理システムの実施形態において、台車に9軸センサを搭載して移動体の位置を計測しつつ追跡する追跡例を示す図である。In the embodiment of the information processing system of the present invention, it is a diagram illustrating a tracking example in which a 9-axis sensor is mounted on a trolley and the position of a moving body is measured and tracked. 本発明の情報処理システムの実施形態において、台車に重量センサを設置して移動体を追跡する追跡例を示す図である。FIG. 3 is a diagram illustrating a tracking example in which a weight sensor is installed on a trolley to track a moving body in an embodiment of the information processing system of the present invention.

以下、本発明に係る情報処理システムの実施形態について説明する。
まず、図1を参照して本発明に係る情報処理システムの一つの実施形態の次世代レジシステムを採用するコンビニエンスストアの店舗について説明する。
図1は、本発明に係る情報処理システムの一つの実施形態の次世代レジシステムを採用するコンビニエンスストアの店舗レイアウトの一例を示す図である。次世代レジシステムは、買い物客が店舗の店内売場の棚ラックから取り出した商品をセルフレジに持ち込み自動精算するセルフレジシステムの一つである。
Embodiments of the information processing system according to the present invention will be described below.
First, with reference to FIG. 1, a convenience store that employs a next-generation cash register system as an embodiment of the information processing system according to the present invention will be described.
FIG. 1 is a diagram showing an example of a store layout of a convenience store that employs a next-generation cash register system according to an embodiment of an information processing system according to the present invention. The next-generation cash register system is a type of self-checkout system in which shoppers take products from shelf racks in the store's sales floor, bring them to the self-checkout register, and pay automatically.

図1において、雲形で描かれた部分は、店舗39の店内売場ではなく、店舗39外や店舗39のバックヤードの様子が描画されている。店舗39外や店舗のバックヤードには、サーバ1と売場装置3のうち制御機能の部分が設置されている。店舗外やバックヤードでは、店員が大型モニターの画面(図示せず)や情報端末(図示せず)の画面を通じて店内売場の状況を監視することができる。 In FIG. 1, the cloud-shaped portion depicts the outside of the store 39 and the backyard of the store 39, rather than the in-store sales floor of the store 39. The control function part of the server 1 and the sales floor device 3 is installed outside the store 39 or in the backyard of the store. Outside the store or in the backyard, store staff can monitor the status of the store's sales floor through the screen of a large monitor (not shown) or an information terminal (not shown).

店舗39の売場に入る手前の位置には、入口エリア40が設けけられている。入口エリア40には、ゲート装置316a及び表示端末315aが設置されている。
ゲート装置316aには、人の入店を許可又は拒否するために開閉可能な扉と、扉が開かないようにロックする機能と、ロックを解除する機能とが備えられている。ゲート装置316aは、売場装置3により開閉制御される。つまりゲート装置316aに、フラッパー式のゲートを採用している。
An entrance area 40 is provided at a position before entering the sales floor of the store 39. In the entrance area 40, a gate device 316a and a display terminal 315a are installed.
The gate device 316a is equipped with a door that can be opened and closed to permit or deny entry of a person, a locking function to prevent the door from opening, and a locking function. The opening and closing of the gate device 316a is controlled by the sales floor device 3. In other words, a flapper type gate is adopted as the gate device 316a.

また、入口エリア40の上の天井には、入口エリア40を撮像する入口カメラ313が設けられている。売場装置3は、入口カメラ313により撮像された画像から人を個別に認識し、人の数を表示端末315aへ送信することで、表示端末315aには、入口エリア40内に存在する入店前の買い物客(入店希望者)の数が表示される。
この例では、入口エリア40に存在する人は、移動体M1、M2であり、表示端末315aの画面には2名と表示される。表示端末315aの画面には、表示された人数について、入店希望者に確認を促すボタン(OK入店者/NGボタン)が用意されており、画面に表示された同じグループの人数(2名)が正しければ入店希望者はOKボタンを操作し、異なればNGボタンを操作することになる。
Furthermore, an entrance camera 313 is provided on the ceiling above the entrance area 40 to take an image of the entrance area 40. The sales floor device 3 recognizes people individually from the images captured by the entrance camera 313 and sends the number of people to the display terminal 315a. The number of shoppers (those who wish to enter the store) is displayed.
In this example, the people present in the entrance area 40 are mobile bodies M1 and M2, and two people are displayed on the screen of the display terminal 315a. On the screen of the display terminal 315a, there is a button (OK/NG button) that prompts those wishing to enter the store to confirm the number of people displayed. ) is correct, the person wishing to enter the store operates the OK button, and if not, the person desiring to enter the store operates the NG button.

入店希望者がOKボタンを操作すると、売場装置3は、一度に入店を希望する入店希望者の人数をグループとしてメモリに登録し、入店を許可し、ゲート装置316aを開放制御しゲート装置316aの扉を開放させる。 When a person wishing to enter the store operates the OK button, the sales floor device 3 registers the number of persons wishing to enter the store at one time as a group in the memory, permits entry, and controls the opening of the gate device 316a. The door of the gate device 316a is opened.

ゲート装置316aの扉が開放されて入店が許可されると、移動体M1、M2は、入口エリア40からゲート装置316aを通過して入店、つまり店内売場に進入することができる。 When the door of the gate device 316a is opened and entry is permitted, the mobile objects M1 and M2 can pass through the gate device 316a from the entrance area 40 and enter the store, that is, enter the store sales floor.

なお、店舗39において、入口エリア40又はその付近には、買い物カゴやショッピングカート等(図示せず)が配置されており、客は買い物カゴやショッピングカート等とともに移動するため、これらを一体として移動体とする場合もある。なお、説明の便宜上、以下、移動体M1、M2の夫々を「買い物客」として説明する。 In addition, in the store 39, shopping carts, shopping carts, etc. (not shown) are arranged at or near the entrance area 40, and since customers move together with the shopping carts, shopping carts, etc., they cannot be moved as one. Sometimes it is the body. For convenience of explanation, each of the moving bodies M1 and M2 will be described as a "shopper" below.

店舗39の店内売場には、次世代レジシステムの機器の一部として、例えば入口カメラ313、天井カメラ310、出口カメラ314、棚ラック43に配置された光センサ311及び重量センサ312、表示端末315a、315b、ゲート装置316a、316b、精算機4等が配置されている。サーバ1、売場装置3、精算機4は、各機器から情報を取得し、各機器を制御する。 In the in-store sales floor of the store 39, as part of the equipment of the next generation cash register system, for example, an entrance camera 313, a ceiling camera 310, an exit camera 314, an optical sensor 311 and a weight sensor 312 arranged on the shelf rack 43, and a display terminal 315a are installed. , 315b, gate devices 316a, 316b, payment machine 4, etc. are arranged. The server 1, sales floor device 3, and payment machine 4 acquire information from each device and control each device.

店舗39の入口エリア40から出口42までの間の通路44の天井には、センシングデバイスの一例として、複数のカメラ(天井カメラ310、入口カメラ313、出口カメラ314等)が設置されている。
入口エリア40から精算エリア45までの間の通路44上の天井に設置されている複数の天井カメラ310は、互いの撮像エリアが重複するように配置されており、被写体である移動体M1、M2等を異なる方向から撮像する。これにより、視点の異なる複数の画像が得られる。そして、得られた複数の画像から移動体夫々を立体として合成し、骨格推定等の技術を用いることで、個体を識別し、夫々の個体の人としての動作を検出することができる。
なお、本システムに用いるカメラは、3D画像、あるいは2D画像が取得できるカメラ、魚眼カメラ等に代表される広角を撮像できるカメラ等が採用される。
A plurality of cameras (ceiling camera 310, entrance camera 313, exit camera 314, etc.) are installed on the ceiling of the passage 44 between the entrance area 40 and the exit 42 of the store 39 as an example of a sensing device.
The plurality of ceiling cameras 310 installed on the ceiling above the passageway 44 between the entrance area 40 and the payment area 45 are arranged so that their imaging areas overlap, and the moving objects M1 and M2 that are the subjects are arranged so that their imaging areas overlap. etc. from different directions. As a result, a plurality of images from different viewpoints are obtained. Then, by synthesizing each moving object as a three-dimensional image from the plurality of images obtained, and using techniques such as skeleton estimation, it is possible to identify the individual and detect the movements of each individual as a human.
Note that the camera used in this system is a camera that can acquire 3D images or 2D images, a camera that can capture wide-angle images such as a fisheye camera, or the like.

店内売場には、商品を陳列する複数の棚ラック43が所定間隔(人が通行可能な間隔)を空けて設置されている。所定間隔は、通路44とされる。
各棚ラック43には、鉛直方向に所定の間隔を空けて複数の棚が配置されている。複数の棚の夫々には、1以上の重量センサ312が配置されており、夫々の重量センサ312の上に各種商品が載置され、陳列される。以下、棚と棚との間を「棚内」とも記述する。
In the store's sales floor, a plurality of shelf racks 43 for displaying products are installed at predetermined intervals (intervals that allow people to pass). The predetermined interval is a passage 44.
Each shelf rack 43 has a plurality of shelves arranged at predetermined intervals in the vertical direction. One or more weight sensors 312 are arranged on each of the plurality of shelves, and various products are placed on each weight sensor 312 and displayed. Hereinafter, the space between the shelves will also be referred to as "inside the shelf."

店舗39の出口42の手前には、精算エリア45が設けられている。精算エリア45には、精算機4と表示端末315bが設置されている。精算エリア45と出口42の間には、ゲート装置316bと、テーブル47を含む袋詰めスペースとが設けられている。
ゲート装置316bには、入口側のゲート装置316aと同様にフラッパー式のゲートを採用しており、精算機4が制御する以外は制御内容も入口側のゲート装置316aと同様である。テーブル47は、ゲート装置316bを通過した人が購入後の商品を袋詰めするための台である。
即ち、店内売場では、移動体M1、M2は、棚ラック43に陳列されている商品を手に取ると、精算エリア45へ進み、精算エリア45にグループ全員が集合した状態で精算及び決済処理を正常に完了すると、退店することができる。
A payment area 45 is provided in front of the exit 42 of the store 39. In the payment area 45, a payment machine 4 and a display terminal 315b are installed. A gate device 316b and a bagging space including a table 47 are provided between the payment area 45 and the exit 42.
The gate device 316b employs a flapper type gate similar to the gate device 316a on the entrance side, and the control contents are the same as the gate device 316a on the entrance side except that it is controlled by the payment machine 4. The table 47 is a stand on which a person who has passed through the gate device 316b bags purchased products.
That is, in the store sales floor, when the movable objects M1 and M2 pick up the products displayed on the shelf rack 43, they proceed to the checkout area 45, and perform checkout and payment processing with the entire group assembled in the checkout area 45. Once completed successfully, you can leave the store.

また、商品が置かれ得る棚ラック43の棚の複数か所の夫々には、センシングデバイスの一例として、重量センサ312と光センサ311が設置されている。
重量センサ312は、商品を載置する面を備え、当該面の上に置かれた商品の重量を検出する。重量センサ312は、商品の重量を常に検出し、検知した重量の変化から、棚のどの場所(重量センサ312の設置位置)からの商品の入出(取り出し又は戻し等)を検出することができる。
Furthermore, a weight sensor 312 and a light sensor 311, which are examples of sensing devices, are installed at each of a plurality of locations on the shelves of the shelf rack 43 where products can be placed.
The weight sensor 312 includes a surface on which a product is placed, and detects the weight of the product placed on the surface. The weight sensor 312 constantly detects the weight of the product, and can detect from which location on the shelf (the installation position of the weight sensor 312) the product is taken out or taken out (taken out, returned, etc.) from the detected change in weight.

なお、重量センサ312は、商品が置かれ得る棚1つに対し取り出し方向前後に複数個設置されてもよい。これにより例えば棚の手前(例えば賞味期限が古い商品が置かれた場所)に設置された重量センサ312により重量の変化が検知された場合は、賞味期限が古い商品が入出し、一方で棚の奥(例えば賞味期限が新しい商品が置かれた場所)に設置された重量センサ312により重量の変化が検知された場合には、賞味期限が新しい商品が入出したことが特定され得る。 Note that a plurality of weight sensors 312 may be installed before and after the take-out direction for one shelf on which products can be placed. As a result, for example, if a change in weight is detected by the weight sensor 312 installed in front of the shelf (for example, a place where a product with an old expiration date is placed), the product with an old expiration date is moved in and out, while the shelf If a change in weight is detected by the weight sensor 312 installed at the back (for example, a place where a product with a new expiration date is placed), it can be specified that a product with a new expiration date has entered.

各棚ラック43内の各棚の複数か所の夫々には、センシングデバイスとして光センサ311が設置されている。
光センサ311は、複数の重量センサ312の夫々の設置位置に対応して、各棚の天面から下方に向けて赤外線光を照射するように複数(この例では重量センサ312と1対1で)配置されている。
また、光センサ311は、棚内の所定領域内に移動体M1、M2の手等が進入した場合や、棚内から物体が取られた場合に、その手や棚内の物体により赤外線光が遮光された遮光検出情報を出力する。
また、光センサ311は、重量センサ312の上に置かれている商品に対する他からの接触を検知する。具体的には、光センサ311は、商品を取ろうとする買い物客の手が入ってきて商品と共に取り出される物体(手と商品)の光の遮蔽状況(光が遮蔽される方向と遮蔽位置等)を検出情報として検出する。
Optical sensors 311 are installed as sensing devices at a plurality of locations on each shelf in each shelf rack 43 .
A plurality of optical sensors 311 (in this example, a plurality of optical sensors 311 are arranged one-on-one with the weight sensors 312) so as to emit infrared light downward from the top surface of each shelf, corresponding to the respective installation positions of the plurality of weight sensors 312. ) are located.
In addition, the optical sensor 311 detects infrared light when the hands of moving objects M1 and M2 enter a predetermined area within the shelf or when an object is taken from within the shelf. Outputs light shielding detection information.
Further, the optical sensor 311 detects contact with the product placed on the weight sensor 312 from another person. Specifically, the optical sensor 311 detects the light blocking situation (the direction in which light is blocked, the blocking position, etc.) of the object (hand and product) that is taken out together with the hand of a shopper who is trying to pick up the product. is detected as detection information.

これら重量センサ312及び光センサ311により夫々検出される重量の変化と、手や商品による遮蔽状況の変化とから、棚ラック43からの商品(物体)の入出が検出され、入出した商品及び入出した当該商品の個数が特定される。 The entry and exit of products (objects) from the shelf rack 43 is detected from the changes in weight detected by the weight sensor 312 and the optical sensor 311, respectively, and the changes in the shielding situation by hands and products. The number of the products is specified.

この実施形態では、棚ラック43内の各棚の複数か所の夫々に、重量センサ312と光センサ311とを配置したが、これらセンサの組み合わせだけでなく、重量センサ312と棚カメラとが設置されていてもよい。棚カメラは、棚内や棚内の商品、その他所定領域を撮像することで、棚内からの物体の入出や商品の特定を補完する。
具体的には例えば、棚から物体が持ち去られた後、当該物体が別の棚に戻された場合、移動体M1、M2には本来所持していない物体が紐付いた状態(誤認識された状態)となる。このような場合に、棚カメラにより取得された撮像画像により物体の入出及び商品の特定が補完されることで、精算の精度を向上させることができるようになる。
In this embodiment, the weight sensor 312 and the optical sensor 311 are placed at each of multiple locations on each shelf in the shelf rack 43, but in addition to the combination of these sensors, the weight sensor 312 and the shelf camera are also installed. may have been done. Shelf cameras complement the movement of objects into and out of shelves and the identification of products by capturing images of inside shelves, products within shelves, and other predetermined areas.
Specifically, for example, if an object is taken away from a shelf and then returned to another shelf, moving objects M1 and M2 are tied to objects that they do not originally possess (a state where they are misrecognized). ). In such a case, the accuracy of checkout can be improved by complementing the input/output of objects and identification of products using captured images acquired by shelf cameras.

一方で、棚カメラにより取得された撮像画像のみに基づいて物体の入出や商品の特定を行う場合、例えば棚カメラでは見えない棚奥からの物体の入出の検知や、重なっている物体や乱雑に置かれている物体の入出検知や商品の特定をすることは困難である。 On the other hand, when identifying objects entering and exiting or products based only on images captured by shelf cameras, for example, it is possible to detect objects entering or exiting from the back of a shelf that cannot be seen with shelf cameras, or to detect objects that are overlapping or cluttered. It is difficult to detect the entry and exit of placed objects and to identify products.

このように重量センサ312及び光センサ311や、重量センサ312及び棚カメラといった1以上のセンシングデバイスから取得される情報を適宜組み合わせて採用することにより、商品の特定精度を向上させることができるようになる。
なお、商品の特定(取り出し検出)に使用するカメラは、必ずしも棚に設置される棚カメラだけに限定されることはなく、例えば天井等に設置された天井カメラであってもよく、この場合、解像度の良いものを使用する。現時点で、棚カメラと光センサ311では光センサ311の方がコストメリットが大きいと言える。
また、重量センサ312として高機能、高性能なものを使用することで、光センサ311や棚カメラを用いずに重量センサ312だけでの運用も可能である。即ち、棚から取り出される商品の検出には少なくとも重量センサ312を用いればよい。
In this way, by appropriately combining and employing information acquired from one or more sensing devices such as the weight sensor 312 and the optical sensor 311, the weight sensor 312 and the shelf camera, it is possible to improve the accuracy of product identification. Become.
Note that the camera used to identify the product (retrieval detection) is not necessarily limited to a shelf camera installed on a shelf, and may be a ceiling camera installed on the ceiling, etc. In this case, Use one with good resolution. At present, it can be said that between the shelf camera and the optical sensor 311, the optical sensor 311 has a greater cost advantage.
Furthermore, by using a highly functional and high-performance weight sensor 312, it is possible to operate with only the weight sensor 312 without using the optical sensor 311 or the shelf camera. That is, at least the weight sensor 312 may be used to detect the product being taken out from the shelf.

本実施形態では、精算機4と表示端末315bとが連携して買物客のグループや人数の特定と、グループ単位での商品の精算と、決済処理とを実行する。精算機4のハードウェア構成の一例を図5に示したが、これ以外のハードウェア構成であってもよく、ハードウェアとしては、精算機4と表示端末315bに以下のものが備えられていればよい。例えば精算及び決済機能(現金釣銭機含む)、入出力のインターフェース機能(タッチパネルディスプレイ、カメラ、音声入力装置、電子情報リーダ、コードスキャナ部、スピーカ、プリンター、NW機器、モーションキャプチャーシステム等が備えられていればよく、精算機4と表示端末315bとを一体化したものであってもよい。 In this embodiment, the payment machine 4 and the display terminal 315b cooperate to specify the group and number of shoppers, to pay for products in groups, and to perform payment processing. Although an example of the hardware configuration of the payment machine 4 is shown in FIG. 5, other hardware configurations may be used.As for the hardware, the payment machine 4 and the display terminal 315b may be equipped with the following. Bye. For example, it is equipped with payment and payment functions (including cash change machines), input/output interface functions (touch panel display, camera, voice input device, electronic information reader, code scanner, speaker, printer, NW equipment, motion capture system, etc.). Alternatively, the payment machine 4 and the display terminal 315b may be integrated.

このようにコンビニエンスストアの店舗39のレイアウト構成によれば、店舗39の入口エリア40において、同じグループの複数の買い物客(移動体M1、M2)にグループの作成及び登録を行い入店させ、その後、店内に入店した複数の買い物客(移動体M1、M2)が移動して棚ラック43から物体(商品)を手に取った段階で商品を認識及び特定し、さらにその特定した商品と移動体とを紐付けて追跡する。そして、買い物を終えたグループの買い物客(移動体M1、M2)全員が精算エリア45に進入したことが確認できると、グループ全員の分の商品を自動精算し、その中の支払者がグループ全員の分の商品の決済を一括してできるので、複数の買い物客(移動体M1、M2)がグループで店舗39に入り商品を購入して持ち出す際にグループでの恩恵を得ることができる。 According to the layout configuration of the convenience store 39, a plurality of shoppers in the same group (mobile units M1 and M2) are created and registered as a group at the entrance area 40 of the store 39, and are then allowed to enter the store. , when a plurality of shoppers (mobile objects M1 and M2) enter the store and move and pick up an object (product) from the shelf rack 43, the product is recognized and identified, and the product is moved with the identified product. Link and track the body. When it is confirmed that all shoppers in the group (mobile units M1 and M2) who have finished shopping have entered the checkout area 45, the products for all the group members are automatically settled, and the payers among them are all in the group. Since payments can be made for 100% of products at once, when a plurality of shoppers (mobile units M1 and M2) enter the store 39 as a group, purchase products, and take them out, they can benefit as a group.

図2を参照して本発明の情報処理システムの一実施形態としての次世代レジシステムのシステム構成を説明する。
図2は、本発明に係る情報処理システムの一つの実施形態の次世代レジシステムのシステム構成を示す図である。
次世代レジシステムは、図2に示すように、サーバ1と、売場装置3と、精算機4と、を備える。サーバ1及び売場装置3は、通常、店内売場とは別の場所に配置されている。
精算機4は、精算エリア45に表示端末315bと共に設置されている。
サーバ1と、売場装置3と、精算機4との夫々は、インターネット(Internet)回線等のネットワークNを介して相互に通信可能に接続されている。
サーバ1は、売場装置3、精算機4の各動作を制御及び管理すべく、各処理を実行する。
具体的には、サーバ1は、入店時に入店者の夫々に発行されるユニークIDと、店内の通路を移動する移動体(移動体M1、M2等)と、店内売場内の商品と、その位置と、を紐付けて管理する。
具体的には、サーバ1は、売場装置3から送信されてくる移動体M1、M2の夫々のユニークID(グループ識別子を含む)と移動体の位置情報と、店内売場内の商品とその位置とを紐付けて移動体と商品を追跡管理する。
サーバ1は、精算の際に精算機4からの要求に応じて、グループ毎の入店者の商品情報を精算機4に提供する。
売場装置3は、店内売場に配置された各種機器(入口カメラ313、天井カメラ310、出口カメラ314、棚ラック43に配置された光センサ311及び重量センサ312、表示端末315a、315b、ゲート装置316a、316b等)から情報を取得しつつ各機器を制御する。
精算機4は、グループの入店者(移動体M1、M2等)夫々によって精算エリア45に持ち込まれた商品をグループ単位に一括精算し、決済処理する。
なお、説明の便宜上、図4のサーバ1や売場装置3、精算機4は、1台しか描画されていないが、実際には複数台の場合もある。
The system configuration of a next-generation cash register system as an embodiment of the information processing system of the present invention will be described with reference to FIG.
FIG. 2 is a diagram showing the system configuration of a next-generation cash register system that is one embodiment of the information processing system according to the present invention.
As shown in FIG. 2, the next generation cash register system includes a server 1, a sales floor device 3, and a payment machine 4. The server 1 and the sales floor device 3 are usually located at a location different from the store sales floor.
The payment machine 4 is installed in the payment area 45 together with the display terminal 315b.
The server 1, the sales floor device 3, and the payment machine 4 are each connected to be able to communicate with each other via a network N such as an Internet line.
The server 1 executes various processes in order to control and manage the operations of the sales floor device 3 and the payment machine 4.
Specifically, the server 1 stores a unique ID issued to each person entering the store, mobile objects (mobile objects M1, M2, etc.) moving in the store aisles, products in the store sales floor, Manage the location by linking it to the location.
Specifically, the server 1 receives the unique IDs (including group identifiers) of each of the mobile units M1 and M2 sent from the sales floor device 3, the position information of the mobile units, and the products and their positions in the store sales floor. Track and manage moving objects and products by linking them.
The server 1 provides product information for each group of customers to the payment machine 4 in response to a request from the payment machine 4 at the time of payment.
The sales floor device 3 includes various devices arranged in the store sales floor (an entrance camera 313, a ceiling camera 310, an exit camera 314, an optical sensor 311 and a weight sensor 312 arranged on a shelf rack 43, display terminals 315a and 315b, and a gate device 316a). , 316b, etc.) to control each device.
The payment machine 4 collectively pays for the products brought into the payment area 45 by each group of store visitors (mobile bodies M1, M2, etc.) in units of groups, and processes the payment.
For convenience of explanation, only one server 1, sales floor device 3, and checkout machine 4 are depicted in FIG. 4, but in reality, there may be a plurality of them.

ここで、図3、図4、図5を参照して、本発明に係る情報処理システムの実施形態の次世代レジシステムのうち、サーバ1、売場装置3、精算機4のハードウェア構成を説明する。 Here, with reference to FIG. 3, FIG. 4, and FIG. 5, the hardware configuration of the server 1, sales floor device 3, and payment machine 4 in the next generation cash register system of the embodiment of the information processing system according to the present invention will be explained. do.

図3は、図2のシステム構成のうち、サーバのハードウェア構成を示すブロック図である。
図3に示すように、サーバ1は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、バス104と、入出力インターフェース105と、出力部106と、入力部107と、記憶部108と、通信部109と、ドライブ110と、を備えている。
FIG. 3 is a block diagram showing the hardware configuration of the server in the system configuration of FIG. 2. As shown in FIG.
As shown in FIG. 3, the server 1 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a bus 104, an input/output interface 105, and an output unit. 106, an input section 107, a storage section 108, a communication section 109, and a drive 110.

CPU101は、ROM102に記憶されているプログラム、又は、記憶部108からRAM103にロードされたプログラムに従って各種の処理を実行する。
RAM103には、CPU101が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 101 executes various processes according to programs stored in the ROM 102 or programs loaded into the RAM 103 from the storage unit 108.
The RAM 103 also appropriately stores data necessary for the CPU 101 to execute various processes.

CPU101、ROM102及びRAM103は、バス104を介して相互に接続されている。このバス104には、また、入出力インターフェース105も接続されている。入出力インターフェース105には、出力部106、入力部107、記憶部108、通信部109及びドライブ110が接続されている。 The CPU 101, ROM 102, and RAM 103 are interconnected via a bus 104. An input/output interface 105 is also connected to this bus 104. An output section 106 , an input section 107 , a storage section 108 , a communication section 109 , and a drive 110 are connected to the input/output interface 105 .

出力部106は、ディスプレイやスピーカ等で構成され、各種情報を画像や音声として出力する。
入力部107は、キーボードやマウス等で構成され、各種情報を入力する。
The output unit 106 is composed of a display, a speaker, etc., and outputs various information as images and sounds.
The input unit 107 includes a keyboard, a mouse, etc., and inputs various information.

記憶部108は、ハードディスクやDRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部109は、図2に示すように、インターネット回線を含むネットワークNを介して売場装置3及び精算機4との間で通信を行う。
The storage unit 108 is composed of a hard disk, a DRAM (Dynamic Random Access Memory), etc., and stores various data.
As shown in FIG. 2, the communication unit 109 communicates with the sales floor device 3 and the payment machine 4 via a network N including an Internet line.

ドライブ110には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなるリムーバブルメディア120が適宜装着される。ドライブ110によってリムーバブルメディア120から読み出されたプログラムは、必要に応じて記憶部108にインストールされる。
また、リムーバブルメディア120は、記憶部108に記憶されている各種データも、記憶部108と同様に記憶することができる。
A removable medium 120 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately installed in the drive 110. The program read from the removable medium 120 by the drive 110 is installed in the storage unit 108 as necessary.
Further, the removable medium 120 can also store various data stored in the storage unit 108 in the same manner as the storage unit 108.

図4は、図2のシステム構成のうち、売場装置のハードウェア構成を示すブロック図である。
売場装置3は、CPU301と、ROM302と、RAM303と、バス304と、入出力インターフェース305と、天井カメラ310と、光センサ311と、重量センサ312と、入口カメラ313と、出口カメラ314と、表示端末315aと、ゲート装置316a、316bと、通信部317と、を備える。
FIG. 4 is a block diagram showing the hardware configuration of the sales floor apparatus in the system configuration of FIG. 2. As shown in FIG.
The sales floor device 3 includes a CPU 301, a ROM 302, a RAM 303, a bus 304, an input/output interface 305, a ceiling camera 310, a light sensor 311, a weight sensor 312, an entrance camera 313, an exit camera 314, and a display. It includes a terminal 315a, gate devices 316a and 316b, and a communication section 317.

売場装置3のCPU301と、ROM302と、RAM303と、バス304と、入出力インターフェース305、通信部317は、図3に示したサーバ1のものと同様であり、その説明は省略する。 The CPU 301, ROM 302, RAM 303, bus 304, input/output interface 305, and communication section 317 of the sales floor apparatus 3 are the same as those of the server 1 shown in FIG. 3, and their explanation will be omitted.

売場装置3には、天井カメラ310、光センサ311、重量センサ312、入口カメラ313と、出口カメラ314と、表示端末315aと、ゲート装置316a、316bが通信ケーブルにより接続されている。例えば、PoE接続(Power over Ethernet)や、USB(Universal Serial Bus)ケーブル等により接続されてもよい。
例えば通信ケーブルを介して接続された売場装置3とゲート装置316a、316bとの間では、売場装置3は、入口エリア40や精算エリア45での処理結果に基づいて、ゲート装置316a、316bを制御して、ゲート装置316a、316bの扉を開閉することで、買い物客の出入を許可又は拒否する。
A ceiling camera 310, a light sensor 311, a weight sensor 312, an entrance camera 313, an exit camera 314, a display terminal 315a, and gate devices 316a and 316b are connected to the sales floor apparatus 3 by communication cables. For example, the connection may be made using a PoE connection (Power over Ethernet), a USB (Universal Serial Bus) cable, or the like.
For example, between the sales floor device 3 and the gate devices 316a, 316b connected via a communication cable, the sales floor device 3 controls the gate devices 316a, 316b based on the processing results in the entrance area 40 and the checkout area 45. By opening and closing the doors of the gate devices 316a and 316b, entry and exit of shoppers is permitted or denied.

この他、売場装置3には、通信ケーブルにより表示端末315aが接続されている。表示端末315aは、例えばデジタルサイネージ等が表示されるタッチディスプレイ、スピーカ等を備える。表示端末315aは、店舗39の入口エリア40に設置されており、売場装置3と連携し売場装置3から入力される、入口エリア40に進入した人の人数をタッチディスプレイに表示する。また、表示端末315aは、入店者のグループを登録するための入力操作部として機能する。 In addition, a display terminal 315a is connected to the sales floor apparatus 3 via a communication cable. The display terminal 315a includes, for example, a touch display on which digital signage and the like are displayed, a speaker, and the like. The display terminal 315a is installed in the entrance area 40 of the store 39, and displays the number of people who have entered the entrance area 40, which is input from the sales floor device 3, on a touch display in cooperation with the sales floor device 3. Furthermore, the display terminal 315a functions as an input operation unit for registering a group of people entering the store.

売場装置3にはネットワークNを介して精算機4が接続されている。 A payment machine 4 is connected to the sales floor device 3 via a network N.

ここで、図5を参照して精算機のハードウェア構成を説明する。
図5は、図2のシステムの構成のうち、精算機のハードウェア構成を示すブロック図である。
精算機4は、CPU501と、ROM502と、RAM503と、バス504と、入出力インターフェース505と、入力部506と、出力部507と、記憶部508と、通信部509と、コードスキャナ部510と、を備えている。
Here, the hardware configuration of the payment machine will be explained with reference to FIG.
FIG. 5 is a block diagram showing the hardware configuration of the payment machine in the system configuration of FIG. 2. As shown in FIG.
The payment machine 4 includes a CPU 501, a ROM 502, a RAM 503, a bus 504, an input/output interface 505, an input section 506, an output section 507, a storage section 508, a communication section 509, a code scanner section 510, It is equipped with

精算機4のCPU501、ROM502、RAM503、バス504、入出力インターフェース505、入力部506、出力部507、記憶部508、通信部509は、図5に示したサーバ1のハードウェアと同様に構成されており、その説明は省略する。 The CPU 501, ROM 502, RAM 503, bus 504, input/output interface 505, input section 506, output section 507, storage section 508, and communication section 509 of the payment machine 4 are configured in the same way as the hardware of the server 1 shown in FIG. The explanation will be omitted.

入力部506は、例えば精算機4においては、表示端末315bに備えられているタッチ画面の精算ボタンからの入力信号を受け付ける。また、入力部506は、クレジットカード決済や電子マネーを利用する決済の際には、表示端末315bに備えられている電子情報リーダにより読み取られた各種カードや各種識別情報等の情報を受け付ける。 For example, in the payment machine 4, the input unit 506 receives an input signal from a payment button on a touch screen provided on the display terminal 315b. Furthermore, when making a credit card payment or a payment using electronic money, the input unit 506 accepts information such as various cards and various identification information read by an electronic information reader provided in the display terminal 315b.

出力部507は、表示端末315bに対して商品名、個数、金額等を示す商品リスト(精算情報)を出力する。また、出力部507は、売場装置3に対して、決済完了を通知し、この通知によりゲート装置316bに備えられた扉(図示せず)が開閉される。 The output unit 507 outputs a product list (payment information) indicating product names, quantities, amounts, etc. to the display terminal 315b. The output unit 507 also notifies the sales floor device 3 of the completion of payment, and in response to this notification, a door (not shown) provided in the gate device 316b is opened and closed.

コードスキャナ部510は、移動体M1、M2に間違った商品が紐付いていた場合や、紐付けられるべき商品が紐付いていなかった場合に商品リストを修正するために利用される。即ち、移動体M1、M2は、コードスキャナ部510を用いて商品の識別情報を読み取り、商品を特定することができる。 The code scanner section 510 is used to correct the product list when the wrong product is linked to the mobile objects M1 and M2, or when the product that should be linked is not linked. That is, the mobile bodies M1 and M2 can read the identification information of the product using the code scanner unit 510 and identify the product.

精算機4は、商品をグループ単位に精算し、現金、クレジットカード、電子マネー、ポイント支払い、商品券や仮想通貨、プリペイドカード、バーコードやQRコード(登録商標)等の識別情報、社員証、アプリ情報等で支払い(決済処理)に対応する。 The payment machine 4 pays for products in groups and accepts cash, credit cards, electronic money, point payments, gift certificates, virtual currency, prepaid cards, identification information such as barcodes and QR codes (registered trademarks), employee identification cards, etc. Supports payment (payment processing) using app information, etc.

電子マネー等には、決済可能なICカードだけでなく、クレジットカード、いわゆるポイントカード、プリペイドカード等の狭義のカードだけでなく、例えばバーコードやQRコード(登録商標)を表示できる情報携帯端末も含まれるが、ここでは便宜上、各種カードとして説明する。
即ち、この精算機4の精算エリア45にグループ全員が進入し、後述する移動体M1、M2に紐付く夫々の商品の情報が読み出され、精算(商品の支払い金額が集計)された後、その精算額を支払うために、各種カードを、表示端末315bの電子情報リーダにかざすと、電子情報リーダにより各種カードからカード情報が読み取られてそのカード情報が精算機4に入力されて決済処理が実行される。そして、決済完了後、ゲート装置316bが開放されるので、移動体M1、M2等の買い物客は、精算エリア45からゲート装置316bを通過して出口42から退出することが可能となる。
Electronic money includes not only IC cards that can be used for payment, credit cards, so-called point cards, and prepaid cards, but also mobile information terminals that can display barcodes and QR codes (registered trademarks). However, for the sake of convenience, they will be explained as various cards here.
That is, after the entire group enters the payment area 45 of this payment machine 4, information on each product linked to the mobile objects M1 and M2, which will be described later, is read out and payment is made (the amount paid for the product is totaled), In order to pay the settlement amount, when various cards are held over the electronic information reader of the display terminal 315b, the electronic information reader reads the card information from the various cards and inputs the card information into the payment machine 4 to process the payment. executed. Then, after the payment is completed, the gate device 316b is opened, so that shoppers such as mobile objects M1 and M2 can exit from the payment area 45 through the gate device 316b and exit through the exit 42.

精算機4においては、入口エリア40から通路44を経て精算エリア45まで追跡された移動体M1、M2が、精算エリア45にグループの者全員で集合することで、グループ全員が持ち寄った分の商品の一括精算及び決済処理を完了させることができる。
なお、上記処理に不具合が生じた場合は、店内売場に別途配置されている有人の精算レジでの店員による精算及び決済も可能である。
In the payment machine 4, the mobile objects M1 and M2 that have been tracked from the entrance area 40 to the payment area 45 via the passage 44 gather together in the payment area 45 with all the members of the group, and the products brought by all the members of the group are collected. You can complete bulk payment and payment processing.
If a problem occurs with the above processing, it is also possible for a clerk to make payment at a manned checkout register located separately in the store's sales floor.

精算機4には、表示端末315bが接続されている。表示端末315bは、店舗39の精算エリア45に設置されており、精算機4と連携し精算機4の表示部として機能する。表示端末315bは、精算エリア45に進入した人の人数や、商品精算時の商品リスト、決済時の決済画面、買い物客等の操作者により操作されるボタン類等をタッチディスプレイに表示する。表示端末315bは、決済のための各種情報読取機やレシート等の印刷機能を備える。精算機4の側に当該各種情報読取機や印刷機能が備えられている場合は表示端末315b側には備える必要はない。 A display terminal 315b is connected to the payment machine 4. The display terminal 315b is installed in the payment area 45 of the store 39, and functions as a display section of the payment machine 4 in cooperation with the payment machine 4. The display terminal 315b displays on the touch display the number of people who have entered the payment area 45, the product list at the time of product payment, the payment screen at the time of payment, buttons operated by an operator such as a shopper, etc. The display terminal 315b is equipped with various information readers for payment and a printing function for receipts and the like. If the payment machine 4 is equipped with the various information reader and printing functions, the display terminal 315b does not need to be equipped with them.

次に、図6及び図7を参照して、本発明の情報処理システムの実施形態に係る構成のうち、サーバ、売場装置、精算機の機能的構成の一例について説明する。 Next, with reference to FIGS. 6 and 7, an example of the functional configuration of a server, a sales floor device, and a payment machine among the configurations according to the embodiment of the information processing system of the present invention will be described.

図6は、本発明の情報処理システムの実施形態に係る構成のうち、図3のハードウェア構成を備えるサーバと、図4のハードウェア構成を備える売場装置と、図5のハードウェア構成を備える精算機との機能的構成の一例を示す機能ブロック図である。
また、図7は、図6の売場装置に備えられた棚商品認識部の詳細な機能的構成を示す機能ブロック図である。
FIG. 6 shows a server having the hardware configuration of FIG. 3, a sales floor device having the hardware configuration of FIG. 4, and a hardware configuration of FIG. 5, among the configurations according to the embodiment of the information processing system of the present invention. It is a functional block diagram showing an example of a functional configuration with a payment machine.
Further, FIG. 7 is a functional block diagram showing a detailed functional configuration of a shelf product recognition section provided in the sales floor apparatus of FIG. 6.

実施形態の次世代レジシステムは、複数の商品(物品)が棚ラック43(配置場所)に配置された店内売場(所定領域)の中を買い物客等の移動体M1、M2(人)が移動して、複数の商品(物品)のうち1以上の商品(物品)を店内売場の外に持ち出す際に利用されるシステムである。
図6において、サーバ1は、CPU101と、記憶部108と、通信部109とを備える。
サーバ1のCPU101においては、商品情報、位置情報及び移動体M1、M2に紐付く情報等を管理するDB管理部141が機能する。DB管理部141は、精算機の夫々に備える構成としてもよい。
サーバ1の記憶部108の一領域には、商品DB131と、位置情報管理DB132とが設けられている。
商品DB131は、商品に関する情報を記憶するDB(Data Base)である。位置情報管理DB132は、店内売場に配置したセンシングデバイス(重量センサ312、光センサ311、天井カメラ310、入口カメラ313、出口カメラ314等)の位置情報、店内売場に進入した移動体M1、M2の位置と、移動体M1、M2に紐付く情報とを管理するDBである。
移動体M1、M2に紐付く情報は、例えば移動体M1、M2の夫々に対して入口で付与したユニークIDと、グループIDと、夫々の移動体M1、M2の位置と、移動体M1、M2が移動途中に棚から持ち出した物品の情報とを紐付けた情報である。
なお、ユニークIDとグループIDとを纏めて一つのIDで管理してもよい。また、グループの識別子を付与したユニークIDとしてもよい。
In the next-generation cash register system of the embodiment, movable objects M1 and M2 (people) such as shoppers move through an in-store sales floor (predetermined area) in which a plurality of products (articles) are arranged on shelf racks 43 (arrangement location). This system is used when one or more products (articles) out of a plurality of products (articles) are taken out of the store's sales floor.
In FIG. 6, the server 1 includes a CPU 101, a storage section 108, and a communication section 109.
In the CPU 101 of the server 1, a DB management unit 141 functions to manage product information, position information, information linked to the mobile objects M1 and M2, and the like. The DB management unit 141 may be provided in each payment machine.
A product DB 131 and a location information management DB 132 are provided in one area of the storage unit 108 of the server 1.
The product DB 131 is a DB (Data Base) that stores information regarding products. The location information management DB 132 stores the location information of sensing devices (weight sensor 312, optical sensor 311, ceiling camera 310, entrance camera 313, exit camera 314, etc.) placed in the store sales floor, and the location information of the mobile objects M1 and M2 that have entered the store sales floor. This is a DB that manages positions and information tied to mobile objects M1 and M2.
The information linked to the mobile bodies M1 and M2 includes, for example, the unique ID given to each of the mobile bodies M1 and M2 at the entrance, the group ID, the position of the respective mobile bodies M1 and M2, and the mobile bodies M1 and M2. This is information that is linked to information about items taken out from the shelf during movement.
Note that the unique ID and group ID may be managed together as one ID. Alternatively, it may be a unique ID to which a group identifier is attached.

売場装置3は、CPU301、天井カメラ310、光センサ311、重量センサ312、通信部317等を備える。
売場装置3のCPU301においては、入口制御部320と、移動体追跡部330と、位置情報管理部340と、棚商品認識部360と、出口制御部370と、が機能する。
The sales floor apparatus 3 includes a CPU 301, a ceiling camera 310, a light sensor 311, a weight sensor 312, a communication section 317, and the like.
In the CPU 301 of the sales floor apparatus 3, an entrance control section 320, a mobile object tracking section 330, a position information management section 340, a shelf product recognition section 360, and an exit control section 370 function.

入口制御部320は、店内売場に2人(N人)の買い物客である移動体M1、M2が進入する前、つまり図1のゲート装置316a手前の入口エリア40において、当該2人が属する所定グループを作成する。
具体的には、入口制御部320は、2人の買い物客が店内売場に進入する手前のゲート装置316a手前の入口エリア40で、このエリアに進入した買い物客が属する所定グループを、移動体M1、M2のユニークID(所定グループのグループ識別子を含む)で作成し、サーバ1への当該所定グループの登録が完了すると、入口のゲート装置316aを開放し、所定グループの買い物客全員の入店を許可する。所定グループを作成する際に移動体M1、M2夫々のユニークIDを発行する。ユニークIDには、グループの識別子として同じグループであることを示すグループIDが付与される。
一例をあげると、移動体M1のユニークIDとして、例えば「G01-001」が発行された場合、「G01」がグループの識別子であり、その後の「001」が移動体M1固有のユニークIDである。
Before the mobile bodies M1 and M2, which are two (N) shoppers, enter the in-store sales floor, that is, in the entrance area 40 in front of the gate device 316a in FIG. Create a group.
Specifically, in the entrance area 40 in front of the gate device 316a before the two shoppers enter the in-store sales floor, the entrance control unit 320 controls the predetermined group to which the shoppers who have entered the area belong to the mobile object M1. , M2 (including the group identifier of the predetermined group), and when the registration of the predetermined group to the server 1 is completed, the gate device 316a at the entrance is opened and all shoppers of the predetermined group are not allowed to enter the store. To give permission. When creating a predetermined group, unique IDs are issued for each of the mobile bodies M1 and M2. A group ID indicating that the two groups belong to the same group is assigned to the unique ID as a group identifier.
For example, if "G01-001" is issued as the unique ID for mobile M1, "G01" is the group identifier, and the subsequent "001" is the unique ID unique to mobile M1. .

移動体追跡部330は、店内売場において、所定グループに属する2人の夫々を追跡する。
具体的には、移動体追跡部330は、店内売場に設置されている天井カメラ310により撮像して得られた画像から所定グループに属する2人の買い物客(移動体M1、M2)夫々を特定し追跡する。
なお、各天井カメラ310により撮像された画像情報を他の天井カメラ310に撮像された画像情報と共有することにより、移動体追跡部330は、現在、移動体M1、M2を撮像している天井カメラ310から、別の天井カメラ310に撮像されるようになっても、移動体を追跡し続けることができる。
The mobile object tracking unit 330 tracks each of the two people belonging to a predetermined group in the in-store sales floor.
Specifically, the mobile object tracking unit 330 identifies two shoppers (mobile objects M1 and M2) belonging to a predetermined group from images captured by a ceiling camera 310 installed in the store sales area. and track it.
Note that by sharing the image information captured by each ceiling camera 310 with the image information captured by other ceiling cameras 310, the moving object tracking unit 330 can detect the ceiling currently capturing images of the moving objects M1 and M2. Even if the camera 310 starts to capture an image of another ceiling camera 310, it is possible to continue tracking the moving object.

位置情報管理部340は、移動体追跡部330により追跡される移動体M1、M2の位置情報を取得し、サーバ1へ送信することで、サーバ1において、移動体M1、M2が退出するまで位置情報管理DB132に管理される。
位置情報管理部340は、天井カメラ310から得られる画像を統括管理するサーバ1と通信することで、サーバ1の商品DB131を含め、記憶部108上において天井カメラ310の情報(現在移動体を撮像している天井カメラはどの位置のものか等)をやり取りする。
なお、他の例として、天井カメラ310の台数が多いことに鑑み、位置情報管理部340は、各天井カメラ310と直接通信(例えばP2P等)することによって、サーバ1を介することなく各天井カメラ310で撮像された画像を受け渡すようにしてもよい。
The location information management section 340 acquires the location information of the moving objects M1 and M2 tracked by the moving object tracking section 330 and transmits it to the server 1, so that the location information of the moving objects M1 and M2 is maintained in the server 1 until the moving objects M1 and M2 leave. It is managed by the information management DB 132.
By communicating with the server 1 that centrally manages images obtained from the ceiling camera 310, the position information management unit 340 stores information about the ceiling camera 310 (currently capturing an image of a moving object) on the storage unit 108, including the product DB 131 of the server 1. What location is the ceiling camera being used?
In addition, as another example, in view of the large number of ceiling cameras 310, the position information management unit 340 can communicate directly with each ceiling camera 310 (for example, P2P, etc.) to communicate with each ceiling camera 310 without going through the server 1. The image captured in step 310 may be transferred.

位置情報管理部340は、各天井カメラ310が店内のどこを映しているかの位置情報を定義する。即ち、位置情報管理部340は、別々の天井カメラ310に撮像された移動体が店舗内のどこに位置しているかを把握する。
位置情報管理部340は、各天井カメラ310の撮像画像を合成し、1枚の店舗マップを作成する。また、位置情報管理部340は、各天井カメラ310、入口カメラ313、出口カメラ314の座標を店舗マップ上の座標に置き換える。
また、位置情報管理部340は、各天井カメラ310によって撮像された撮像画像について、透視変換により、計算上、店舗内床面に正対した撮像画像となるように補正する。
なお、このようにして得られた移動体M1、M2の位置情報は、位置情報管理DB132やメモリ等で管理される。また、移動体M1、M2の位置情報、即ち、人の行動履歴に関する情報から、人の興味、関心等を推測することができる。このため、位置情報管理DB132やメモリ等で管理された移動体M1、M2の位置情報を、マーケティング分析等に活用することもできる。
The position information management unit 340 defines position information indicating where in the store each ceiling camera 310 images. That is, the position information management unit 340 grasps where in the store the moving objects imaged by the separate ceiling cameras 310 are located.
The position information management unit 340 combines images taken by each ceiling camera 310 to create one store map. Furthermore, the position information management unit 340 replaces the coordinates of each ceiling camera 310, entrance camera 313, and exit camera 314 with coordinates on the store map.
Further, the position information management unit 340 corrects the captured images captured by each ceiling camera 310 by perspective transformation so that the captured images are calculated to be directly facing the store floor.
Note that the position information of the mobile bodies M1 and M2 obtained in this way is managed in the position information management DB 132, memory, etc. Further, it is possible to infer a person's interests, concerns, etc. from the position information of the moving objects M1 and M2, that is, information regarding the person's action history. Therefore, the location information of the mobile bodies M1 and M2 managed in the location information management DB 132, memory, etc. can also be utilized for marketing analysis and the like.

棚商品認識部360は、この例では重量センサ312及び光センサ311を用いる手法(1以上のセンシングデバイスのうち少なくとも1つを用いる所定の手法)で、複数の商品のうち、棚ラック43から取り出された商品とその個数の双方を特定する。
具体的には、棚商品認識部360は、図7に示す機能的構成を有しており、物体の移動検知(棚からの取り出し又は戻しの検知)、物体を商品として特定、商品と移動体との紐付け、紐付け情報により商品リストを管理する等の動作を行う。詳細は、図7の説明に記述する。
In this example, the shelf product recognition unit 360 uses a method that uses a weight sensor 312 and an optical sensor 311 (a predetermined method that uses at least one of one or more sensing devices) to pick out a plurality of products from the shelf rack 43. Identify both the products and their quantity.
Specifically, the shelf product recognition unit 360 has the functional configuration shown in FIG. Performs operations such as linking with the product and managing the product list based on the linking information. Details will be described in the explanation of FIG.

出口制御部370は、所定グループに属する2人の買い物客(移動体M1、M2)全てが出口のゲート装置316b手前の精算エリア45内に進入(集合)したか否かを判定する。
そして、出口制御部370は、所定グループに属する2人の買い物客(移動体M1、M2)全員が精算エリア45内に進入(集合)したという第1条件を少なくとも含む1以上の条件(グループの買い物客が全員揃った、グループ単位での購入商品の精算処理を終えた、当該精算金額の決済処理を代表の買い物客が済ませた等の夫々の条件)を満たした場合、当該2人の買い物客のうち夫々のユニークIDと紐付けられた1以上の商品を、所定グループの商品として店内売場の外に持ち出すことを許可し出口のゲート装置316bを開放する。そして、出口制御部370は、所定グループの買い物客(移動体M1、M2)全員がゲート装置316b通過すると、精算エリア45における買い物客(移動体M1、M2の2名)の人数のカウントをリセットする。
The exit control unit 370 determines whether all two shoppers (mobile bodies M1 and M2) belonging to a predetermined group have entered (gathered) within the payment area 45 in front of the exit gate device 316b.
Then, the exit control unit 370 executes one or more conditions (group If the following conditions are met: all shoppers are present, the payment process for the purchased items as a group has been completed, and the representative shopper has completed the payment process for the payment amount, etc. One or more products linked to the unique ID of each customer among the customers are allowed to be taken out of the in-store sales floor as products of a predetermined group, and an exit gate device 316b is opened. Then, when all the shoppers (mobile bodies M1 and M2) of the predetermined group pass through the gate device 316b, the exit control unit 370 resets the count of the number of shoppers (the two mobile bodies M1 and M2) in the checkout area 45. do.

ここで、店舗において販売されている商品がどのような商品か特定される前のものを「物体」と呼ぶ。なお、商品ではないものの、例えば買い物客が持参する私物等も「物体」となる。そして、「物体」が商品として特定されたものを「商品」と呼ぶ。したがって、「商品」とは、店頭において販売されているものを意味する。
また、本発明の一実施形態に係る情報処理システムは、物体を測定対象とする1台以上のセンシングデバイスを備える。
センシングデバイスとしては、重量センサ、赤外線を活用した光センサ、カメラ等の画像センサの他、3Dセンサ(TOFセンサ、ステレオカメラ、LIDARセンサ等)、温度センサ、距離センサ、種々のものを採用できる。
Here, a product sold at a store before it is specified is referred to as an "object." Although not products, for example, personal belongings brought by shoppers are also considered "objects." An "object" that is identified as a product is called a "product." Therefore, "product" means something that is sold at a store.
Further, an information processing system according to an embodiment of the present invention includes one or more sensing devices that measure objects.
As the sensing device, various devices such as a weight sensor, an optical sensor using infrared rays, an image sensor such as a camera, a 3D sensor (TOF sensor, stereo camera, LIDAR sensor, etc.), a temperature sensor, a distance sensor, etc. can be used.

上述のセンシングデバイスのうち、カメラ等の画像センサにより撮像された画像を、以下「撮像画像」と呼ぶ。さらに、物体を被写体として含む撮像画像を、以下「物体撮像画像」と呼ぶ。一方、商品を被写体として含む撮像画像を、以下「商品撮像画像」と呼ぶ。
また、本明細書では、商品撮像画像及び物体撮像画像に対して各種画像処理を施す場合、実際にはデータの形態で取り扱うが、以下においては説明の便宜上、データは省略して説明する。
ここで、物体撮像画像及び商品撮像画像としては、例えば、商品を個別に切り出した画像、商品のロゴの画像、商品のバーコードの画像、商品のラベルの画像、商品の棚全体の撮像画像、店舗内を天井等から撮像した店舗内の画像等を用いることができる。
Among the above-mentioned sensing devices, an image captured by an image sensor such as a camera is hereinafter referred to as a "captured image". Furthermore, a captured image that includes an object as a subject will be referred to as an "object captured image" hereinafter. On the other hand, a captured image that includes a product as a subject is hereinafter referred to as a "product captured image."
Furthermore, in this specification, when performing various image processing on product captured images and object captured images, it is actually treated in the form of data, but for convenience of explanation, the data will be omitted from the explanation below.
Here, the object captured image and the product captured image include, for example, an image of an individual product cut out, a product logo image, a product barcode image, a product label image, a captured image of the entire product shelf, An image of the inside of the store taken from the ceiling or the like can be used.

ここで、物体あるいは商品に関する関連情報としては、各種センシングデバイスにより得られる情報が該当する。具体例として例えば、物体撮像画像、商品撮像画像、認識結果のログ、商品候補リスト、物体撮像画像が撮像された位置情報、重量センサにより検知された重量情報、棚等の什器の位置情報、棚に陳列されている商品の位置情報、店舗内で商品あるいは買い物客を追跡するための情報、上述のセンシングデバイスから得られる3D情報(3Dデータ、ポイントクラウド等)、温度情報、距離情報、赤外線の検知情報等が含まれる。 Here, the relevant information regarding the object or product corresponds to information obtained by various sensing devices. Specific examples include object captured images, product captured images, recognition result logs, product candidate lists, location information where object captured images were captured, weight information detected by a weight sensor, location information of fixtures such as shelves, and shelves. location information of products displayed in the store, information for tracking products or shoppers within the store, 3D information obtained from the above-mentioned sensing devices (3D data, point clouds, etc.), temperature information, distance information, and infrared rays. Contains detection information, etc.

このようにこのシステムの機能的構成によれば、移動体M1、M2は、店舗の入口の入口エリア40において、グループを作成及び登録した後、ゲート装置316aを通過して入店し、店内売場に所定間隔で配置されている棚ラック43の間の通路44を進みながら棚ラック43に陳列されている商品を棚から取り出して通路44を進む。移動体M1、M2は、購入したい商品を全て取り終えると、精算エリア45へ全員で進入することで、グループ単位で商品をまとめて一括精算及び決済処理することができる。 According to the functional configuration of this system, the mobile objects M1 and M2 create and register a group in the entrance area 40 of the store entrance, pass through the gate device 316a, enter the store, and enter the store's sales area. While proceeding along a passage 44 between shelf racks 43 arranged at predetermined intervals, the user takes out the products displayed on the shelf racks 43 from the shelves and proceeds along the passage 44. When the mobile bodies M1 and M2 have finished picking up all the products they wish to purchase, they all enter the payment area 45, thereby making it possible to collectively pay and settle the products in groups.

ここで、図7を参照して本発明の情報処理システムの実施形態に係る構成のうち、図6の売場装置が有する棚商品認識部の詳細な機能的構成を説明する。
図7は、本発明の情報処理システムの実施形態に係る構成のうち、図6の売場装置が有する棚商品認識部の詳細な機能的構成例を示す機能ブロック図である。
図7に示すように、棚商品認識部360は、検出部3602と、商品特定部3603と、紐付け部3604と、商品リスト管理部3605と、を備える。
センシングデバイスとして、光センサ311と重量センサ312を用いる場合、棚商品認識部360は、光センサ311及び重量センサ312と通信ケーブルを介して通信する他、他のカメラやパーソナルコンピュータ等とも連携される。
Here, among the configurations according to the embodiment of the information processing system of the present invention, the detailed functional configuration of the shelf product recognition unit included in the sales floor apparatus of FIG. 6 will be described with reference to FIG. 7.
FIG. 7 is a functional block diagram showing a detailed functional configuration example of the shelf product recognition section included in the sales floor apparatus of FIG. 6, among the configurations according to the embodiment of the information processing system of the present invention.
As shown in FIG. 7, the shelf product recognition unit 360 includes a detection unit 3602, a product identification unit 3603, a linking unit 3604, and a product list management unit 3605.
When using the optical sensor 311 and the weight sensor 312 as sensing devices, the shelf product recognition unit 360 communicates with the optical sensor 311 and the weight sensor 312 via a communication cable, and also cooperates with other cameras, personal computers, etc. .

サーバ1の位置情報管理DB132には、予め店内売場におけるセンシングデバイス(重量センサ312、光センサ311、天井カメラ310等)の配置場所の位置情報と、商品の配置場所の位置情報が管理されている。例えば重量センサ312の上に商品が1つだけ載置されている場合は互いの配置場所は一致する。 The location information management DB 132 of the server 1 manages in advance the location information of the placement locations of sensing devices (weight sensor 312, optical sensor 311, ceiling camera 310, etc.) in the store sales floor and the location information of the placement locations of products. . For example, if only one product is placed on the weight sensor 312, the locations of the products coincide with each other.

この実施形態のように、センシングデバイスとして光センサ311と重量センサ312を用いる場合、検出部3602は、夫々のセンシングデバイスから得られる検出値に基づいて物体の状態の変化を検出する。
検出部3602は、光センサ311の遮蔽検出から、棚ラック43内から物体を取り出したときの手や腕の遮蔽検出場所、又は物体を棚ラック43内に置いた(戻した)ときの手や腕の遮蔽検出場所を検出する。
即ち、検出部3602は、物体が棚ラック43の棚から取り出される際又は棚に置かれる際に手で光センサ311の光が遮蔽検出された検出場所を特定する。
この遮蔽検出により、棚の外から物体に対して行為(外部から人の手又は腕が入った)が加えられたことが分かる。
When using the optical sensor 311 and the weight sensor 312 as sensing devices as in this embodiment, the detection unit 3602 detects a change in the state of the object based on the detected values obtained from each sensing device.
The detection unit 3602 uses the shielding detection of the optical sensor 311 to determine the shielding detection location of the hand or arm when the object is taken out from the shelf rack 43 or the hand or arm when the object is placed (returned) into the shelf rack 43. Detect the occlusion detection location of the arm.
That is, the detection unit 3602 identifies the detection location where the light of the optical sensor 311 is blocked and detected by the hand when the object is taken out from the shelf of the shelf rack 43 or placed on the shelf.
This shielding detection indicates that an action (a person's hand or arm entered from outside) was applied to the object from outside the shelf.

検出部3602は、重量センサ312により検出された重量の変化と当該重量センサ312が設置された棚内の位置(場所)を確認する。
具体的には、検出部3602は、重量センサ312の重量検出値から、重量の変化を確認し、例えば、重量が減少した場合には物体が棚内から取られたと検出する一方、重量が増加した場合には物体が棚内に置かれた(戻された)と検出する。
The detection unit 3602 confirms the change in weight detected by the weight sensor 312 and the position (location) within the shelf where the weight sensor 312 is installed.
Specifically, the detection unit 3602 checks the change in weight from the weight detection value of the weight sensor 312, and for example, detects that the object has been taken from the shelf when the weight decreases, while detecting that the object has been taken from the shelf when the weight increases. If this happens, it is detected that the object has been placed (returned) on the shelf.

棚にA重量センサと、B重量センサが配置されていたものとする。
例えば棚のA重量センサの重量検出値が減少するように変化した場合には、検出部3602は、重量検出値が減少した棚のA重量センサの上に置かれていた商品が取り出されたものと認識(検出)する。また、棚のB重量センサの重量検出値が増加するように変化した場合には、検出部3602は、重量検出値が増加した棚のB重量センサの上に商品が戻されたものと認識(検出)する。
このようにして物体の移動情報、つまり物体が棚から取り出された又は棚に置かれたことに関する情報(重量検出値の変化と遮蔽検出情報)は、商品特定部3603に引き渡される。
Assume that weight sensor A and weight sensor B are placed on the shelf.
For example, when the weight detection value of the A weight sensor on the shelf changes to decrease, the detection unit 3602 determines whether the product placed on the A weight sensor on the shelf whose weight detection value has decreased has been taken out. Recognize (detect). Furthermore, if the weight detection value of the B weight sensor on the shelf changes to increase, the detection unit 3602 recognizes that the product has been returned to the B weight sensor on the shelf where the weight detection value has increased ( To detect.
In this way, object movement information, that is, information regarding whether the object has been taken out or placed on the shelf (change in detected weight value and shielding detection information) is delivered to the product identification unit 3603.

このようにして検出された物体が棚内から取られた又は棚に置かれたことに関する情報は、商品特定部3603に引き渡される。
また上述の例では、物体が棚内から取られた又は棚に置かれたことを検出するのに、光センサや重量センサが用いたが、これに限定されない。例えば、3Dセンサをはじめとする各種センシングデバイスから取得した情報を基に、棚から取り出された又は棚に置かれたことを検出してもよい。
Information regarding whether the object detected in this way was taken from the shelf or placed on the shelf is delivered to the product identification unit 3603.
Further, in the above example, a light sensor and a weight sensor are used to detect whether an object is taken from or placed on a shelf, but the present invention is not limited thereto. For example, it may be detected that the item has been taken out or placed on the shelf based on information obtained from various sensing devices such as a 3D sensor.

商品特定部3603は、検出部3602によって認識された棚内の物体がいずれの商品であるかを特定する。 The product identification unit 3603 identifies which product the object in the shelf recognized by the detection unit 3602 is.

具体的には、商品特定部3603には、検出部3602から物体の移動情報が引き渡されるので、商品特定部3603は、物体の移動情報を用いて、サーバ1の位置情報管理DB132と商品DB131から、移動された物体がどの商品であるかを特定する。
具体的には、例えば、光センサ311から得られる商品取出時の遮蔽検出情報と、重量センサ312から得られる重量値の変化と、夫々のセンサの検知タイミングとを組み合わせて商品や商品を取り出した移動体を特定する。このとき、組み合わせにおける閾値は任意に定められてもよく、その閾値は、例えば、購入履歴、時間、場所、人の嗜好等の情報を参照してもよい。
Specifically, the product identification unit 3603 receives object movement information from the detection unit 3602, so the product identification unit 3603 uses the object movement information to retrieve information from the location information management DB 132 and product DB 131 of the server 1. , to identify which product the moved object is.
Specifically, for example, the product or product is taken out by combining the shielding detection information obtained from the optical sensor 311 at the time of product removal, the change in weight value obtained from the weight sensor 312, and the detection timing of each sensor. Identify moving objects. At this time, the threshold value for the combination may be arbitrarily determined, and the threshold value may refer to information such as purchase history, time, location, and personal preference.

サーバ1の位置情報管理DB132には、商品ごとの重量が記録された「商品毎の重量リスト」、又は商品が設置される棚の位置が記録された「商品毎の位置情報リスト」が予め用意されている。
商品特定部3603は、物体の移動情報に含まれる重量検出値の変化と、「商品毎の重量リスト」とをマッチングさせて、例えば、所定の閾値を超える場合に、商品又はその商品の個数を特定する。また、「商品毎の重量リスト」に記録された商品毎の重量及びマッチングにおける閾値は、統計分析や、ディープラーニング等の手法により定められてもよい。これにより、商品の重量にばらつきがある場合でも、高い精度で商品を特定することができるようになる。
また、商品特定部3603は、「商品毎の位置情報リスト」と、重量の変化があった重量センサの位置情報とに基づいて商品を特定する。
さらに、商品特定部3603は、「商品毎の重量リスト」、及び「商品毎の位置情報リスト」を組み合わせてマッチングに用いることにより、商品及び商品の個数の双方を特定する。
In the location information management DB 132 of the server 1, a "weight list for each product" in which the weight of each product is recorded, or a "position information list for each product" in which the position of the shelf on which the product is installed is recorded in advance. has been done.
The product identification unit 3603 matches the change in the detected weight value included in the movement information of the object with the "weight list for each product" and, for example, determines the product or the number of the products if it exceeds a predetermined threshold. Identify. Further, the weight of each product recorded in the "weight list of each product" and the threshold value for matching may be determined by a method such as statistical analysis or deep learning. This makes it possible to identify the product with high accuracy even if the weight of the product varies.
Further, the product identification unit 3603 identifies the product based on the “position information list for each product” and the position information of the weight sensor where the weight has changed.
Furthermore, the product specifying unit 3603 identifies both the product and the number of products by using a combination of the "weight list for each product" and the "location information list for each product" for matching.

また上述の例では、商品の特定には、光センサや重量センサにより得られた情報が用いられたが、これらの情報に限定されない。即ち、その他のセンシングデバイスにより取得した情報を基に商品を特定してもよい。
また、それらの中から任意の1手法を採用してもよいし、複数の手法を組み合わせて採用してもよい。
例えば、センシングデバイスとして棚カメラ等を用いる場合、商品特定部3603は、特定物体認識、一般物体認識、ディープラーニング(Deep Learning)等の画像処理手法により、商品候補をリストアップする。このリストアップされた商品候補を「商品候補リストS」と呼ぶ。その後、商品特定部3603は、検証機能を発揮させることで、商品を高い精度で特定する。
Furthermore, in the above example, the information obtained by the optical sensor and the weight sensor was used to identify the product, but the information is not limited to these. That is, the product may be specified based on information acquired by other sensing devices.
Further, any one method may be employed from among them, or a combination of a plurality of methods may be employed.
For example, when using a shelf camera or the like as a sensing device, the product identification unit 3603 lists product candidates using image processing techniques such as specific object recognition, general object recognition, and deep learning. The listed product candidates are referred to as a "product candidate list S." Thereafter, the product identifying unit 3603 performs a verification function to identify the product with high accuracy.

検証機能は前述の商品候補をリストアップする手法と異なる手法によって「商品候補リストP」をリストアップする。商品候補リストS、Pの結果をマッチングさせて、所定の閾値を超える場合、商品を特定する。
「商品候補リスト」のリストアップ手法として、例えば、存在が認識された物体から得られる物体の画像情報と、商品DB131やメモリ上に保持されている画像情報とマッチングさせる方法により実現されてもよい。即ち、両画像の特徴情報が一致する(閾値を超える)と、検出部3602によって移動が検出された物体が、商品DB131に登録されている商品であると認識し、商品特定部3603は、その商品DB131に登録された商品であると特定する。このように、ディープラーニングにより、商品候補を作成し、その後、検証機能を発揮させることで、商品を高い精度で特定する。
The verification function lists up the "product candidate list P" using a method different from the method for listing the product candidates described above. The results of the product candidate lists S and P are matched, and if the results exceed a predetermined threshold, the product is identified.
The "product candidate list" listing method may be realized, for example, by a method of matching object image information obtained from an object whose existence has been recognized with image information held in the product DB 131 or memory. . That is, when the feature information of both images matches (exceeds the threshold), the object whose movement was detected by the detection unit 3602 is recognized as a product registered in the product DB 131, and the product identification unit 3603 recognizes the object as having been registered in the product DB 131. It is specified that the product is registered in the product DB 131. In this way, product candidates are created using deep learning, and then the verification function is activated to identify the product with high accuracy.

また、商品特定部3603は、棚カメラによって撮像された撮像画像の1フレームで商品を特定せず、他のセンシングデバイスとして、例えば天井カメラ310によって撮像された撮像画像も駆使し、複数の撮像画像にわたって商品を特定してもよい。
さらに、複数のニューラルネットワークによるディープラーニングにより取得した情報と、他のセンシングデバイスにより取得した情報と、夫々任意に設定した閾値とを組み合わせて、任意のマッチングのアルゴリズムを作成し、取り出し商品の認識モデルとしてもよい。
このように、複数の手法を組み合わせた場合、夫々の手法による特定の精度が補完され、より高い精度で商品の特定をすることができるようになる。
In addition, the product identification unit 3603 does not identify the product using one frame of the captured image captured by the shelf camera, but also makes full use of the captured image captured by the ceiling camera 310 as another sensing device, and uses multiple captured images. Products may be specified across a range of categories.
Furthermore, by combining information acquired through deep learning using multiple neural networks, information acquired by other sensing devices, and arbitrarily set thresholds for each, an arbitrary matching algorithm is created and a recognition model for the retrieved product is created. You can also use it as
In this way, when a plurality of methods are combined, the specific accuracy of each method is complemented, and products can be specified with higher accuracy.

紐付け部3604は、特定された物品と、所定グループに属する2人のうち特定された物品から最も近くに存在する買い物客(所定の位置関係にある移動体M1又は移動体M2)若しくは所定グループ(その買い物客のグループ)とを紐付ける。
具体的には、紐付け部3604は、商品特定部3603によって特定された商品の商品情報と位置情報と、商品を取り出した移動体(移動体M1か移動体M2のいずれか)のユニークIDとを紐付ける。
The linking unit 3604 connects the specified item to the shopper who is closest to the specified item among the two people belonging to the predetermined group (mobile object M1 or mobile object M2 in a predetermined positional relationship) or the predetermined group. (that group of shoppers).
Specifically, the linking unit 3604 combines the product information and location information of the product specified by the product specifying unit 3603 with the unique ID of the mobile object (either mobile object M1 or mobile object M2) that took out the product. to be linked.

上記実施形態では、光センサ311と重量センサ312とを組み合わせて、取り出された物体の位置と、物体を取り出した移動体(移動体M1、M2のいずれか)を検出したが、1台の天井カメラが撮像する所定706エリア内に複数人の移動体M1、M2が存在する場合であれば、出口カメラ314や天井カメラ310により撮像される画像から夫々の移動体M1、M2内への物体の入出を検知し、棚内から取られた物体が取り込まれた移動体(移動体M1、M2のいずれか)を特定し、当該移動体M1、M2と商品情報とを紐付けてもよい。
さらに別の前提として、1台のカメラが撮像する所定エリア内に移動体M1、M2が1つも存在しないとされる場合であれば、少なくとも1台以上のカメラによって、移動体M1、M2への入出を検知し、その移動体M1、M2を特定したうえで、その特定された移動体M1、M2と商品情報とを紐付けてもよい。
また、移動体M1、M2の発見、定義、追跡には、天井カメラ310及び出口カメラ314に限定されず、各種各様のセンシングデバイスを用いてもよい。
具体例として、例えば3Dセンサから得られた3Dデータから頭、肩、腕、手、足等の各パーツを推定することで、移動体M1、M2の高さ方向の情報を得ることができる。即ち、移動体M1、M2同士の腕や手が重なっていた場合も、高い精度で移動体M1、M2を追跡することができ、商品との紐付けを高い精度で行うことができるようになる。
In the above embodiment, the optical sensor 311 and the weight sensor 312 are combined to detect the position of the object taken out and the moving object (either moving object M1 or M2) from which the object was taken out. If there are multiple moving objects M1 and M2 within the predetermined area 706 imaged by the camera, the images taken by the exit camera 314 and the ceiling camera 310 indicate the objects entering the respective moving objects M1 and M2. It is also possible to detect entry and exit, identify the moving object (either moving object M1 or M2) into which the object taken from the shelf has been taken, and link the moving object M1 or M2 with product information.
Another premise is that if there are no moving objects M1 and M2 within the predetermined area imaged by one camera, at least one camera can capture images of moving objects M1 and M2. After detecting entry and exit and specifying the moving objects M1 and M2, the identified moving objects M1 and M2 may be associated with product information.
Further, the detection, definition, and tracking of the moving objects M1 and M2 are not limited to the ceiling camera 310 and the exit camera 314, but various sensing devices may be used.
As a specific example, information in the height direction of the mobile objects M1 and M2 can be obtained by estimating each part such as the head, shoulders, arms, hands, and feet from 3D data obtained from a 3D sensor. In other words, even if the arms or hands of the moving objects M1 and M2 overlap, it is possible to track the moving objects M1 and M2 with high accuracy, and it is possible to link them with the product with high accuracy. .

商品リスト管理部3605は、精算までの間、移動体M1、M2と特定された商品とを紐付ける商品リストを管理し続ける。即ち、商品リスト管理部3605は、位置情報管理DB132等を活用し、移動体M1、M2のユニークIDに紐付く商品リストを常に管理し続ける。
物体が棚ラック43内から取り出された際、商品リスト管理部3605は、取得された商品数分を加算する。反対に、商品が棚内に戻された際、商品リスト管理部3605は、戻された商品数分を減算する。
The product list management unit 3605 continues to manage the product list that associates the mobile objects M1 and M2 with the specified products until payment is made. That is, the product list management unit 3605 utilizes the location information management DB 132 and the like to constantly manage product lists linked to the unique IDs of the mobile bodies M1 and M2.
When an object is taken out from the shelf rack 43, the product list management unit 3605 adds up the number of products obtained. Conversely, when a product is returned to the shelf, the product list management unit 3605 subtracts the number of returned products.

精算機4のCPU501においては、図6に示すように、精算部535と、入力制御部536と、出力制御部537と、が機能する。 In the CPU 501 of the payment machine 4, as shown in FIG. 6, a payment unit 535, an input control unit 536, and an output control unit 537 function.

精算部535は、追跡された移動体M1、M2が、精算エリア45に進入したときに、1以上の移動体M1、M2に紐付く商品情報(商品リスト)を、通信部509を介してサーバ1から取得し、精算金額及び精算対象商品を確定する。
入力制御部536は、表示端末315bのタッチディスプレイの操作情報(各種ボタン操作の情報や、クレジットカードリーダやQRコードリーダ等により読み取られた各種情報(カード決済やコード決済の情報等)を受け付ける。
出力制御部537は、精算金額を含む商品リストを表示端末315bへ出力したり、売場装置3に対して決済完了の通知を行うことで、ゲート装置316bの扉の開閉制御を実行させる。
When the tracked mobile objects M1 and M2 enter the payment area 45, the payment unit 535 transmits product information (product list) linked to one or more mobile objects M1 and M2 to the server via the communication unit 509. 1 to determine the amount to be paid and the products to be paid.
The input control unit 536 receives operation information on the touch display of the display terminal 315b (information on various button operations, various information read by a credit card reader, QR code reader, etc. (information on card payments, code payments, etc.)).
The output control unit 537 controls the opening and closing of the door of the gate device 316b by outputting a product list including the payment amount to the display terminal 315b and notifying the sales floor device 3 of completion of payment.

ここで、精算エリア45に進入した移動体が複数人(移動体M1、M2)である場合、進入した複数人の移動体M1、M2のグループに紐付く商品情報を基に、精算金額や精算対象商品を確定する。即ち、複数人の精算金額や精算対象商品がまとめて確定する。
具体的には、例えば夫婦で買い物に来て、妻が財布を持って決済する場合において、入店時に妻と同じグループのメンバーとして登録した夫に紐付く商品情報(商品のリスト)を妻の分と共にまとめてグループとして精算(商品リスト化)し、精算額を妻が一括して決済することができる。
Here, if there are multiple moving objects that have entered the payment area 45 (mobile objects M1 and M2), the amount to be paid and the amount of payment Confirm the target product. In other words, the amount to be paid by multiple people and the products to be paid for are determined at once.
Specifically, for example, when a husband and wife go shopping and the wife carries her wallet to pay, the wife will receive product information (a list of products) that is linked to the husband who was registered as a member of the same group as the wife when entering the store. The items can be settled together as a group (created as a list of products), and the wife can pay the total amount all at once.

精算機4は、商品金額の合計を算出し、精算する装置である。
この精算機4は、移動体M1、M2が精算エリア45に進入すると、この進入がトリガーとなって移動体M1、M2に紐付く商品情報が読み出され、精算金額が確定し、精算のうえ、支払い手続きが完了すると、通過が許可されて、ゲート装置316aが開放されて、移動体M1、M2が通過可能となる。具体的には、ゲート装置316aの扉が開放される。
The payment machine 4 is a device that calculates the total product price and makes payment.
In this payment machine 4, when the moving objects M1 and M2 enter the payment area 45, this entry serves as a trigger, and the product information linked to the mobile objects M1 and M2 is read out, the payment amount is determined, and the payment is completed. When the payment procedure is completed, passage is permitted, the gate device 316a is opened, and the mobile bodies M1 and M2 are allowed to pass. Specifically, the door of the gate device 316a is opened.

または、精算機4に精算ボタン(図示せず)を設置し、決済する人がその精算ボタンを押下することによって、移動体M1、M2に紐付く商品情報が読み出され、精算金額が確定し、精算機4を通過できるようにしてもよい。 Alternatively, a payment button (not shown) is installed on the payment machine 4, and when the person making the payment presses the payment button, the product information associated with the mobile objects M1 and M2 is read out, and the payment amount is determined. , it may be possible to pass through the payment machine 4.

また、電子マネーを用いた精算機4においては、決済する人が、精算機4の精算エリア45に進入し、バーコードやQRコード(登録商標)を含む各種カードを、カード読取部にかざすと、移動体M1、M2に紐付く商品情報が読み出され、精算及び決済が完了する。そして、決済する人は、精算機4を通過可能となる。 In addition, in the payment machine 4 that uses electronic money, when the person making the payment enters the payment area 45 of the payment machine 4 and holds various cards containing a barcode or QR code (registered trademark) over the card reader. , the product information linked to the mobile objects M1 and M2 is read out, and the checkout and payment are completed. The person making the payment can then pass through the payment machine 4.

入店時に移動体M1、M2を個人認証する場合には、決済の情報が精算前に特定されている必要がある。精算機4は、決済する人が精算機4の精算エリア45に進入すると、エラーがない限り、自動精算されて、精算機4を通過可能となる。
精算対象商品が売買制限商品であったり、移動体M1、M2に不特定の物体が紐付いている場合は、上述の精算機4と同じ動作となる。
When personally authenticating the mobile objects M1 and M2 upon entering the store, payment information needs to be specified before payment. When a person making a payment enters the payment area 45 of the payment machine 4, unless there is an error, the payment is automatically made and the person can pass through the payment machine 4.
If the product to be settled is a restricted product or if an unspecified object is tied to the moving bodies M1 and M2, the operation is the same as that of the above-mentioned settlement machine 4.

図8及び図9は、本発明の情報処理システムの実施形態に係る構成のうち、図6のサーバと売場装置と精算機とが実行する自動精算処理を説明するフローチャートである。 8 and 9 are flowcharts illustrating automatic payment processing executed by the server, sales floor device, and payment machine of FIG. 6 in the configuration according to the embodiment of the information processing system of the present invention.

ステップS701において、入口制御部320は、店内売場(所定場所)に、例えば移動体M1、M2等のN人(Nは2以上の整数値)が進入する前に(店舗39の入口側に設置されたゲート装置316aの手前の入口エリア40で)、当該N人が属する所定グループを作成する。所定グループが作成されると、ゲート装置316aの扉が開放されて、移動体M1、M2は入店を許可される。その後、処理はステップS702に進む。
具体的には、入口カメラ313により撮像された画像から入口エリア40に進入した人の数が売場装置3により特定されて、グループの人数の確認を促す画面が表示端末315aのタッチディスプレイに表示される。そして、同じグループに属する買い物客がその人数で確定するタップ操作(「確定」のボタン操作)を行うと、グループが作成されて、店内売場における売場装置3の追跡対象グループとして管理される。
グループを作成する際に、同じグループの夫々の人(移動体M1、M2)に、グループを識別する識別子(グループID)が付されたユニークIDが発行される。ユニークIDの発番の仕方は、重複しない限り、連続採番でもよく、ランダム採番でもよい。
In step S701, the entrance control unit 320 (installed at the entrance side of the store 39) before N people (N is an integer of 2 or more), such as mobile objects M1 and M2, enters the in-store sales floor (predetermined location). (at the entrance area 40 in front of the gate device 316a), a predetermined group to which the N people belong is created. When the predetermined group is created, the door of the gate device 316a is opened and the mobile objects M1 and M2 are permitted to enter the store. After that, the process advances to step S702.
Specifically, the sales floor device 3 identifies the number of people who have entered the entrance area 40 from the image captured by the entrance camera 313, and a screen prompting the user to confirm the number of people in the group is displayed on the touch display of the display terminal 315a. Ru. Then, when shoppers belonging to the same group perform a tap operation to confirm the number of shoppers (operate a "confirm" button), a group is created and managed as a group to be tracked by the sales floor device 3 in the in-store sales floor.
When creating a group, a unique ID with an identifier (group ID) for identifying the group is issued to each person (mobile bodies M1, M2) in the same group. The unique ID numbering method may be continuous numbering or random numbering as long as there are no duplicates.

ステップS702において、移動体M1、M2がゲート装置316aを通過して店内に入店すると、天井カメラ310が移動体M1、M2の撮像を開始する。 In step S702, when the mobile bodies M1 and M2 pass through the gate device 316a and enter the store, the ceiling camera 310 starts capturing images of the mobile bodies M1 and M2.

ステップS703において、移動体追跡部330は、天井カメラ310により撮像される画像から、移動体M1、M2を検出し、検出した移動体M1、M2を含む所定の領域を移動体領域(人)として定義する。 In step S703, the moving object tracking unit 330 detects the moving objects M1 and M2 from the image captured by the ceiling camera 310, and sets a predetermined area including the detected moving objects M1 and M2 as a moving object area (person). Define.

ステップS704において、移動体追跡部330は、移動体M1、M2夫々の移動を追跡し、位置を推定する。さらに、移動体M1、M2が移動した場合は、移動後の移動体M1、M2の領域が新たに定義され、位置情報管理DB132やメモリ上に記憶されている移動体M1、M2の位置情報が更新される。 In step S704, the mobile body tracking unit 330 tracks the movement of each of the mobile bodies M1 and M2 and estimates their positions. Furthermore, when the mobile bodies M1 and M2 move, the areas of the mobile bodies M1 and M2 after the movement are newly defined, and the position information of the mobile bodies M1 and M2 stored in the position information management DB 132 and memory is Updated.

ステップS705において、位置情報管理部340は、入店時に作成された移動体M1、M2の夫々のユニークIDと、移動体M1、M2の位置(座標)情報とを紐付けてメモリ上で管理し、移動体M1、M2を含む所定の領域が定義される毎にその位置(座標)情報を更新する。この定義された座標は、別の天井カメラ310により撮像されている位置でも認識される。 In step S705, the location information management unit 340 links the unique IDs of the mobile objects M1 and M2 created at the time of entering the store with the position (coordinate) information of the mobile objects M1 and M2, and manages them in the memory. , the position (coordinate) information is updated every time a predetermined area including the moving objects M1 and M2 is defined. This defined coordinate is also recognized at a position imaged by another ceiling camera 310.

ステップS706において、棚商品認識部360の検出部3602は、重量センサ312から入力される重量データと、光センサ311から入力される検出データとを常に検出しており、当該重量データ及び検出データ夫々の変化より、どの棚のどの場所の物体が移動されたか(持ち出されたか又は戻されたか)を検出(認識)する。 In step S706, the detection unit 3602 of the shelf product recognition unit 360 constantly detects the weight data input from the weight sensor 312 and the detection data input from the optical sensor 311, and Based on the change in , it is possible to detect (recognize) which shelf and which location of the object has been moved (taken out or returned).

ステップS707において、棚商品認識部360の商品特定部3603は、棚内から移動された(持ち出された又は戻された)物体と、物体を移動させた遮蔽物の存在を認識する。
具体的には、商品特定部3603は、物体が置かれた所定の棚の夫々に設置されている重量センサ312の位置情報からその上に載置されている物体を特定し、重量データの変化量から物体とその個数を特定する。
つまり重量センサ312により取得した重量データと、予め記憶されている商品情報のうち重量データとをマッチングさせることにより商品の個数を特定し、商品情報のうち陳列位置のデータから商品名を特定する。
ここで、商品情報には、商品名、価格、JANコード、商品画像、商品の重量、商品サイズ、陳列位置、値引き情報、返金、売上集計、表示が少なくとも含まれ、これらの商品情報は、サーバ1の商品DB131に記憶される。
なお、物体を移動した移動体の特定については、物体が移動されたタイミングと光の遮蔽タイミングから、取り出された物体の位置から最も近くに存在する移動体を、物体を移動した(取り出した又は戻した)移動体として特定する。
In step S707, the product identification unit 3603 of the shelf product recognition unit 360 recognizes the object that has been moved (taken out or returned) from within the shelf and the presence of the obstruction that caused the object to be moved.
Specifically, the product identification unit 3603 identifies the object placed on it from the position information of the weight sensor 312 installed on each of the predetermined shelves on which the object is placed, and detects changes in weight data. Identify objects and their number based on quantity.
That is, the number of products is specified by matching the weight data acquired by the weight sensor 312 with the weight data of the product information stored in advance, and the product name is specified from the display position data of the product information.
Here, the product information includes at least the product name, price, JAN code, product image, product weight, product size, display position, discount information, refund, sales total, and display, and this product information is stored on the server. 1 is stored in the product DB 131.
Regarding the identification of the moving object that moved the object, the moving object that is closest to the position of the removed object is determined based on the timing of the movement of the object and the timing of light shielding. identified as a moving object (returned).

ステップS708において、紐付け部3604は、特定された物体と、同じグループに属する移動体M1、M2(2人の買い物客)のうち特定された物体から最も近くに存在する買い物客(所定の位置関係にある人)とを紐付ける。即ち紐付け部3604は、移動体M1、M2と特定された商品とを紐付ける。なお、物体をグループに紐付けてもよい。 In step S708, the linking unit 3604 connects the identified object to a shopper (at a predetermined position (persons in a relationship). That is, the linking unit 3604 links the mobile objects M1 and M2 with the specified product. Note that objects may be linked to groups.

ステップS709において、商品リスト管理部3605が、移動体M1、M2と紐付く商品リストを精算まで管理する。 In step S709, the product list management unit 3605 manages the product list associated with the mobile objects M1 and M2 until payment.

続いて、図9を参照して精算エリアの処理を説明する。
図9は、図8のフローチャートの続きの自動精算処理を示すフローチャートである。
移動体M1、M2が店内売場を移動しつつ棚から取り出した商品を所持して精算エリア45に進入すると、以下のような態様で精算及び決済処理が実行されて、完了すると、ゲート装置316bが開放されるので、移動体M1、M2は、ゲート装置316bを通過して退店することができる。
Next, processing in the payment area will be explained with reference to FIG.
FIG. 9 is a flowchart showing automatic payment processing that is a continuation of the flowchart shown in FIG.
When the mobile objects M1 and M2 enter the checkout area 45 while moving through the store's sales floor and carrying the products taken out from the shelves, the checkout and settlement process is executed in the following manner, and when it is completed, the gate device 316b is activated. Since it is opened, the mobile objects M1 and M2 can pass through the gate device 316b and exit the store.

例えば、商品を所持した移動体M1、M2が精算エリア45に進入すると、精算エリア45への進入が出口カメラ314の撮像画像より検知されて、それがトリガーとなり、ステップS710において、売場装置3の出口制御部370は、精算エリア45に進入した人数とそのグループをチェックする。 For example, when mobile objects M1 and M2 carrying products enter the checkout area 45, the entry into the checkout area 45 is detected from the image captured by the exit camera 314, which becomes a trigger, and in step S710, the sales floor device 3 The exit control unit 370 checks the number of people who have entered the payment area 45 and their groups.

そして、チェックの結果、出口制御部370は、同じグループの者全員が精算エリア45に集合したかを判定する。
この判定の結果、入店時に同じグループとして登録された者全員が精算エリア45内に集合したと判定されると(ステップS711のYes)、精算機4とサーバ1及び売場装置3との通信により、ステップS712の精算ステップが実行される。
As a result of the check, the exit control unit 370 determines whether all members of the same group have gathered in the payment area 45.
As a result of this determination, if it is determined that all persons registered as the same group at the time of entering the store have gathered in the checkout area 45 (Yes in step S711), communication between the checkout machine 4, the server 1, and the sales floor device 3 , the settlement step of step S712 is executed.

ここで、例えば移動体M1が精算エリア45に先に進入し、それから遅れて移動体M2が精算エリア45に進入したとする。
この場合、移動体M1が精算エリア45に進入した段階では、表示端末315bのタッチパネルディスプレイには、現在の人数として「1/2人」と表示されるだけで精算は開始されない。この際、タッチパネルディスプレイ及び/又はスピーカから「グループの全ての方がエリアに入場されますと決済処理を開始します」等のメッセージか出力される。
続いて、移動体M2が精算エリア45に進入した段階で、タッチパネルディスプレイには、現在の人数として「2/2人」と表示され、さらに精算を進めるための「開始ボタン」が表示される。そして、移動体M1、M2のいずれかが「開始」ボタンをタップ(タッチ操作)することで、精算機4は、精算を開始する。
なお、このグループ全員の集合に伴う開始動作は、入店時も同様であり、入店時は「開始」ボタンのタップ操作によりグループ作成が開始される。
Here, for example, it is assumed that the mobile body M1 enters the payment area 45 first, and then the mobile body M2 enters the payment area 45 later.
In this case, when the mobile object M1 enters the payment area 45, the touch panel display of the display terminal 315b only displays "1/2 people" as the current number of people, and payment does not start. At this time, a message such as "Payment processing will begin when all members of the group enter the area" is output from the touch panel display and/or speaker.
Subsequently, when the mobile object M2 enters the payment area 45, the touch panel display displays "2/2 people" as the current number of people, and a "start button" for proceeding with payment. Then, when either of the moving bodies M1 and M2 taps (touch operation) the "start" button, the payment machine 4 starts payment.
The starting operation for gathering all the members of the group is the same when entering the store, and group creation is started by tapping the "start" button when entering the store.

上記ステップS712の精算ステップでは、移動体M1、M2が持ち寄ったグループの商品数が集計され、その集計結果は、当該移動体M1、M2を含むグループに紐付く商品の商品リストとして表示端末315bのタッチパネルディスプレイに表示される。 In the settlement step of step S712, the number of products of the group brought by the mobile bodies M1 and M2 is totaled, and the result of the total is displayed on the display terminal 315b as a product list of the products linked to the group including the mobile bodies M1 and M2. displayed on the touch panel display.

移動体M1、M2は、タッチパネルディスプレイに表示された商品リストを目視で確認し、ステップS713において、購入する商品(商品とその数量、単価等)が正しいか否かを判断する。つまりグループで購入する商品の特定が全てなされていることを確認する。 The mobile bodies M1 and M2 visually check the product list displayed on the touch panel display, and in step S713, determine whether the products to be purchased (products, their quantities, unit prices, etc.) are correct. In other words, make sure that all products to be purchased by the group are specified.

この確認の結果、商品リストにおいて、グループで購入する商品の特定が全てなされている場合、移動体M1、M2は、ステップS715において、次のステップに進めるための確定の操作を行う。
具体的には、表示された商品リストの内容とグループの購入商品とが一致していることが確認された場合、移動体M1、M2のうち1人(例えば移動体M1等)が、タッチパネルディスプレイに表示されている「次へ」のボタンをタッチ操作することで、精算内容が確定され、タッチパネルディスプレイに「完了」ボタンが表示される。「完了」ボタンは、決済処理を開始するためのボタンである。
As a result of this confirmation, if all the products to be purchased by the group have been specified in the product list, the mobile bodies M1 and M2 perform a confirmation operation to proceed to the next step in step S715.
Specifically, when it is confirmed that the contents of the displayed product list match the purchased products of the group, one of the mobile objects M1 and M2 (for example, mobile object M1, etc.) By touching the "Next" button displayed on the screen, the payment details are confirmed and the "Complete" button is displayed on the touch panel display. The "Complete" button is a button for starting payment processing.

なお、商品リストの商品が正しくない場合、つまり商品リストの内容とグループの購入商品とが不一致である場合(ステップS713のNo)、タッチパネルディスプレイに表示されている「修正」のボタンをタッチ操作することで、修正画面が表示されるので、ステップS714において、購入商品の内容を修正(追加、削除等)する。
具体的には例えば、移動体M1、M2が購入する商品と、商品リストに表示された商品との間に個数の過不足がある場合、移動体M1、M2は、表示端末315bのタッチパネルディスプレイの「修正」のボタンを押下することにより個数を修正できる。
また、例えば、購入しようとしている商品がない、又は間違った商品が商品リストに表示されている場合には、移動体M1、M2は、商品に貼付されたバーコードを、精算機4のコードスキャナ部510(図5参照)により読み取らせることにより商品リストの修正を試みることができる。
移動体M1、M2が入口エリア40を通過してから精算エリア45に集合するまでの間に、重量の変化から商品の取り出しが検出された商品の一覧を候補商品としてタッチパネルディスプレイに表示し、正しい商品を選択することを試みてもよい。また、商品DB131に記憶されているすべての商品の商品情報から検索して、特定してもよいし、移動体M1、M2に商品番号(棚に記載されている商品番号)の入力をしてもらうようにしてもよい。
このようにして商品リストの修正が完了すると、商品リスト管理部3605(図7参照)は、商品リストを更新し、処理はステップS712に戻され、それ以降の処理が繰り返される。
Note that if the product in the product list is incorrect, that is, if the contents of the product list and the group's purchased products do not match (No in step S713), touch the "Modify" button displayed on the touch panel display. As a result, a modification screen is displayed, and in step S714, the content of the purchased product is modified (added, deleted, etc.).
Specifically, for example, if there is an excess or deficiency in the number of products purchased by the mobile bodies M1 and M2 and the products displayed on the product list, the mobile bodies M1 and M2 display the touch panel display of the display terminal 315b. The number can be corrected by pressing the "Modify" button.
For example, if the product you are trying to purchase does not exist or the wrong product is displayed on the product list, the mobile objects M1 and M2 scan the barcode affixed to the product using the code scanner of the payment machine 4. By having the product list read by the section 510 (see FIG. 5), it is possible to attempt to modify the product list.
After the moving objects M1 and M2 pass through the entrance area 40 until they gather at the checkout area 45, a list of products whose removal is detected based on weight changes is displayed on the touch panel display as candidate products, and the correct one is displayed on the touch panel display. You may also try to select a product. Alternatively, you can search and identify the product information of all products stored in the product DB 131, or input the product number (product number listed on the shelf) into the mobile units M1 and M2. You may also receive it.
When the modification of the product list is completed in this way, the product list management unit 3605 (see FIG. 7) updates the product list, the process returns to step S712, and the subsequent processes are repeated.

なお、ステップS715において、精算内容が確定されないまま一定時間が経過すると、ステップS716において、タッチパネルディスプレイに警告のメッセージが出力され、処理が中止される。 Note that if a certain period of time passes without the payment details being finalized in step S715, a warning message is output to the touch panel display in step S716, and the process is stopped.

一方、ステップS715の後にタッチパネルディスプレイに表示された「完了」ボタンを移動体M1がタップすることで、ステップS717において、決済処理が開始され、タッチパネルディスプレイには決済画面が表示される。 On the other hand, when the mobile object M1 taps the "Complete" button displayed on the touch panel display after step S715, the payment process is started in step S717, and a payment screen is displayed on the touch panel display.

決済画面において、移動体M1が、所望の支払い方法を選択操作すると、選択した支払い方法により決済処理が実行される。
そして、決済処理が完了すると、ステップS718において、売場装置3の出口制御部370は、所定グループに属する2人の買い物客(移動体M1、M2)全てが精算エリア45内に進入した場合にそのグループの1以上の商品を、店内売場の外に持ち出すことを許可する。具体的には、出口制御部370は、ゲート装置316bを制御してゲート装置316bの扉を開放するので、移動体M1、M2は、ゲート装置316bを通過して退店することができる。
そして、精算機4は、出口カメラ314の画像から、移動体M1、M2を含むグループの者全員がゲート装置316bを通過したことを確認すると、精算エリア45での処理内容(グループの人数のカウント値等)をリセットし、自動精算処理を終了する。
When the mobile object M1 selects a desired payment method on the payment screen, payment processing is executed using the selected payment method.
When the payment process is completed, in step S718, the exit control unit 370 of the sales floor device 3 controls the exit control unit 370 of the sales floor device 3 when all two shoppers (mobile bodies M1 and M2) belonging to a predetermined group enter the payment area 45. Allow one or more products of a group to be taken out of the store's sales floor. Specifically, the exit control unit 370 controls the gate device 316b to open the door of the gate device 316b, so that the mobile objects M1 and M2 can exit the store by passing through the gate device 316b.
Then, when the payment machine 4 confirms from the image of the exit camera 314 that all members of the group including the moving objects M1 and M2 have passed through the gate device 316b, the payment machine 4 performs processing in the payment area 45 (counting the number of people in the group). value, etc.) and end the automatic payment process.

このように買い物客(移動体M1、M2)がグループでまとまって精算エリア45に集合するだけで、各人の購入商品がグループ単位で一括して自動的に精算され、その中の1人が所定の手法により決済を完了させることができる。これにより、移動体M1、M2一人一人がレジ前に列を作って並ぶことなく、グループ全員分の買い物の精算及び決済処理を、いっぺんに完了させることができる。 In this way, simply by gathering shoppers (mobile units M1 and M2) in a group at the checkout area 45, the items purchased by each person are automatically paid for in the group, and one of the shoppers Payment can be completed using a predetermined method. Thereby, the shopping adjustment and settlement process for the entire group can be completed at once without each of the moving bodies M1 and M2 lining up in front of the cash register.

また、グループの者全員が商品を所持していない(何も購入しない)状態で、精算エリア45に進入した場合、当該移動体M1、M2には商品が紐付いていないため、精算機4のタッチパネルディスプレイには商品リストとして商品名が表示されず「小計0円」等と表示される。このような場合には移動体M1、M2は、タッチパネルディスプレイに表示されている「完了」ボタンをタップすることで、「購入商品がないためお支払いの必要はありません。ご利用ありがとうございました。」等のメッセージが表示され、ゲート装置316bの扉が開放されるので、移動体M1、M2は、ゲート装置316bを通過して退店することができる。 Furthermore, if all members of the group enter the payment area 45 without possessing any products (not purchasing anything), the payment machine 4 will The product name is not displayed as a product list on the touch panel display, but "Subtotal 0 yen" or the like is displayed. In such a case, mobile units M1 and M2 can tap the "Complete" button displayed on the touch panel display to display the message "There is no need to pay as there are no purchased items. Thank you for using the service." etc. is displayed and the door of the gate device 316b is opened, so that the mobile objects M1 and M2 can pass through the gate device 316b and leave the store.

以下、上記実施形態に用いる技術(商品検出技術、移動体(人)の追跡技術、重量計測技術等)の適用例を説明する。
図10は、本発明の情報処理システムの実施形態において、重量センサと光センサを用いて商品を認識する適用例を示す図である。
図10に示すように、棚ラック43の各棚321、322に、センシングデバイスとして、例えば複数の重量センサ312及び光センサ311を配置する場合、重量センサ312を棚321の両端を支えるように2つ配置すると共に、商品単位に光センサ311を配置、つまり商品Bの夫々の陳列位置の真上に光センサ311を設置する。この際、光センサ311からは赤外線を下方の商品Bに向けて照射するように設置する。
この場合、商品Bの種類を光センサ311で検出し、商品の数量を重量センサ312で検出する。
この適用例によれば、商品Bに対して個々に重量センサ312を配置するよりも、単価の高い重量センサ312の数を少なくすることができるので、システムを安価に構成することができる。但し、この場合、光センサ311位置が最適位置になるように取付位置を慎重に調整する必要がある。また、比較的大きな商品に適用する場合は別途考慮が必要である。
Application examples of the technologies used in the above embodiments (product detection technology, moving object (person) tracking technology, weight measurement technology, etc.) will be described below.
FIG. 10 is a diagram showing an application example of recognizing a product using a weight sensor and an optical sensor in the embodiment of the information processing system of the present invention.
As shown in FIG. 10, when a plurality of weight sensors 312 and optical sensors 311 are arranged as sensing devices on each of the shelves 321 and 322 of the shelf rack 43, the weight sensors 312 are placed on two sides so as to support both ends of the shelf 321. At the same time, an optical sensor 311 is arranged for each product, that is, an optical sensor 311 is installed directly above the display position of each product B. At this time, the optical sensor 311 is installed so that infrared rays are directed toward the product B below.
In this case, the type of product B is detected by the optical sensor 311, and the quantity of the product is detected by the weight sensor 312.
According to this application example, the number of weight sensors 312, which are expensive per unit, can be reduced compared to arranging weight sensors 312 individually for product B, so the system can be constructed at a low cost. However, in this case, it is necessary to carefully adjust the mounting position so that the optical sensor 311 is at the optimal position. Further, separate consideration is required when applying to relatively large products.

図11は、本発明の情報処理システムの実施形態において、蓋付きの専用ケースを用いて商品を認識する適用例を示す図である。
図11に示すように、この適用例の場合、棚321の両端の下面に重量センサ312を配置するとともに、棚321の上に蓋付きの専用ケース331(以下「商品箱331」と呼ぶ)を配置する。
商品箱331は、上部が開口された筐体332と、開口を塞ぐ蓋333とを開閉自在に設けたものである。蓋333を閉めたときに筐体332と蓋333とが重なる端部には互いが接触すると、微電流が流れる仕組みの接触センサ334が設けられている。
この適用例の場合、商品箱331の中に商品を入れた状態で、商品箱331を棚に並べて陳列し、買い物客は、所望の商品が収納されている商品箱331の蓋333を手で開けて商品箱331の中の商品を取り出すことになる。検知回路としては、商品箱331の蓋333を開くと接触センサ334に電流が流れ、蓋332を閉じると接触センサ334により電流の流れが遮断されるので、接触センサ334が接続されている売場装置3が電流の遮断を検出することで、商品の取り出しを検出することができる。
この適用例によれば、簡単な回路構成の接触センサ333と、少ない数の重量センサ312とで、取り出された商品とその位置と数量と検出することができるので、システムを安価に構成することができる。但し、この場合も、比較的大きな商品に適用する場合は商品箱331のサイズ等を別途考慮が必要である。
FIG. 11 is a diagram showing an application example of recognizing a product using a dedicated case with a lid in the embodiment of the information processing system of the present invention.
As shown in FIG. 11, in this application example, weight sensors 312 are placed on the lower surface of both ends of the shelf 321, and a special case 331 with a lid (hereinafter referred to as "product box 331") is placed on the shelf 321. Deploy.
The product box 331 includes a casing 332 with an open top and a lid 333 that can be opened and closed to close the opening. A contact sensor 334 is provided at the end where the casing 332 and the lid 333 overlap when the lid 333 is closed, and is configured to cause a slight current to flow when they come into contact with each other.
In this application example, the product boxes 331 are lined up and displayed on a shelf with products in them, and the shopper manually opens the lid 333 of the product box 331 containing the desired product. The product box 331 is opened and the product inside the product box 331 is taken out. As a detection circuit, when the lid 333 of the product box 331 is opened, a current flows to the contact sensor 334, and when the lid 332 is closed, the flow of current is interrupted by the contact sensor 334, so a sales floor device to which the contact sensor 334 is connected is used. 3 detects the interruption of the current, thereby detecting the removal of the product.
According to this application example, it is possible to detect the removed products, their positions and quantities using the contact sensor 333 with a simple circuit configuration and a small number of weight sensors 312, so that the system can be constructed at low cost. Can be done. However, in this case as well, when applying to a relatively large product, it is necessary to separately consider the size of the product box 331, etc.

この他、例えばAI(Artificial Intelligence)カメラを用いて商品を認識してもよい。
この場合、店内売場の棚ラックと棚ラックとの間の通路の上の天井より、通路の両側の棚ラックの棚が撮像できるようにAIカメラを設置し、AIカメラにより撮像された画像から左右のどの棚ラックのどの段の棚から商品を取ったかを画像解析モデルにより判別する。
この適用例によれば、得られる情報の価値が高く、単なる商品の取り出し検知だけでなく、例えば万引き防止にも有効に利用することができる。但し、棚から取り出す個数までは分からないため、別途、個数を識別するための手段で個数を計測する必要がある。
In addition, for example, an AI (Artificial Intelligence) camera may be used to recognize the product.
In this case, an AI camera is installed so that the shelves of the shelf racks on both sides of the aisle can be imaged from the ceiling above the aisle between the shelf racks in the store sales area, and the images taken by the AI camera are An image analysis model is used to determine which shelf of which rack the product was taken from.
According to this application example, the value of the obtained information is high, and it can be effectively used not only for simply detecting product removal, but also for example to prevent shoplifting. However, since the number of items taken out from the shelf is not known, it is necessary to separately measure the number using a means to identify the number of items.

ここからは、移動体(人)の追跡技術について説明する。
まず、Bluetooth5.1を用いた移動体(人)の追跡例が挙げられる。
この適用例は、Bluetooth5.1の通信が可能な専用端末と、専用端末と通信する通信設備を用意する。Bluetoothは登録商標である。
この場合、買い物客が店内売場に入店する際に、専用端末を買い物客に渡し、店内売場で買い物をしてもらう。
通信設備は、専用端末の座標をリアルタイムに検出し、店内を移動する買い物客を追跡する。
この適用例によれば、精度よくリアルタイムに測定することが可能なため、信頼性が高いシステムを構成することができる。またBluetooth5.1を利用することで、システムを低コストに実現することができる。但し、入店時に買い物客に専用端末を渡し、退店時に買い物客から専用端末を回収する必要がある。
From here, we will explain the tracking technology for moving objects (people).
First, an example of tracking a moving object (person) using Bluetooth 5.1 is given.
In this application example, a dedicated terminal capable of Bluetooth 5.1 communication and communication equipment for communicating with the dedicated terminal are prepared. Bluetooth is a registered trademark.
In this case, when the shopper enters the in-store sales area, a dedicated terminal is given to the shopper and the shopper is asked to shop at the in-store sales area.
The communication equipment detects the coordinates of dedicated terminals in real time and tracks shoppers as they move through the store.
According to this application example, since it is possible to measure accurately in real time, a highly reliable system can be configured. Furthermore, by using Bluetooth 5.1, the system can be realized at low cost. However, it is necessary to hand over a special terminal to shoppers when they enter the store, and collect it from shoppers when they leave the store.

図12は、本発明の情報処理システムの実施形態において、骨格推定や顔認識等の画像処理技術を用いて移動体(人)を追跡する適用例を示す図である。
この場合、店内に設置した二次元画像撮影用のカメラ(以下「2Dカメラ」と呼ぶ)により撮像される2D画像(図12(A)、(B)参照)を画像解析モデルに入力し、画像解析モデルからは、2D画像から検出された人体を出力させることで、買い物客を追跡する。画像解析モデルとしては、例えば骨格推定モデルや顔認証モデルを用いるものとする。
この適用例によれば、買い物客の位置情報に加え、姿勢等を得ることができる。将来的には商品を認識することにも利用することができる。但し、2Dカメラが多数必要であるため、システム導入コストが高くなる。また、ある程度の精度を得るためには、多くの教師データ(サンプル)によりAI(画像解析モデル)に学習させる必要がある。
FIG. 12 is a diagram showing an application example of tracking a moving object (person) using image processing techniques such as bone structure estimation and face recognition in the embodiment of the information processing system of the present invention.
In this case, a 2D image (see FIGS. 12(A) and 12(B)) captured by a camera for capturing two-dimensional images (hereinafter referred to as "2D camera") installed in the store is input to the image analysis model, and the image is The analysis model tracks shoppers by outputting human bodies detected from 2D images. As the image analysis model, for example, a skeletal estimation model or a face recognition model is used.
According to this application example, in addition to the shopper's location information, it is possible to obtain the shopper's posture and the like. In the future, it can also be used to recognize products. However, since a large number of 2D cameras are required, the system introduction cost increases. In addition, in order to obtain a certain degree of accuracy, it is necessary to make the AI (image analysis model) learn from a large amount of training data (samples).

図13は、本発明の情報処理システムの実施形態において、台車に設置したカメラを用いて移動体を追跡する追跡例を示す図である。
図13に示すように、台車341の下部側面の、棚ラック43の棚43aの高さに対応する位置にカメラ341を設置する。
台車341の下部にカメラ342を設置する。棚ラック43の棚43aの端面(前面)にバーコードを印刷した媒体343を配置する。また、売場装置3又はサーバ1には、バーコードの情報に、棚ラック43の位置と、商品Bの位置と、を対応付けて予め記憶しておくものとする。
この場合、買い物客が台車341と共に店内を移動する中で、棚ラック43の所望の商品Bの前に来ると、カメラ342が媒体343のバーコードを読み取り、読み取ったバーコードの情報に基づいて移動体(この場合、買い物客と台車341)の位置と、商品Bの位置とを特定する。
この適用例によれば、安価に実現することができる。カメラを用いた発展性も高い。但し、台車341にバッテリ等の電源を搭載する必要あり、定期的な充電等が必要である。
FIG. 13 is a diagram showing an example of tracking a moving object using a camera installed on a trolley in the embodiment of the information processing system of the present invention.
As shown in FIG. 13, a camera 341 is installed on the lower side of the cart 341 at a position corresponding to the height of the shelf 43a of the shelf rack 43.
A camera 342 is installed at the bottom of the trolley 341. A medium 343 on which a barcode is printed is placed on the end surface (front surface) of the shelf 43a of the shelf rack 43. Further, the sales floor device 3 or the server 1 stores in advance the barcode information, the position of the shelf rack 43, and the position of the product B in association with each other.
In this case, when the shopper moves through the store with the trolley 341 and comes in front of the desired product B on the shelf rack 43, the camera 342 reads the barcode on the medium 343, and based on the information of the read barcode, The position of the moving object (in this case, the shopper and trolley 341) and the position of product B are identified.
According to this application example, it can be realized at low cost. It is also highly expandable using cameras. However, it is necessary to mount a power source such as a battery on the trolley 341, and periodic charging is required.

図14は、本発明の情報処理システムの実施形態において、台車に9軸センサを搭載して移動体の位置を計測しつつ追跡する追跡例を示す図である。
図14に示すように、店内をいくつかのエリアに分けて、エリア毎に床面の色を変えるものとする。例えば床面が青色のエリア350bと赤色のエリア350a等を設ける。
また、店内で利用されるショッピングカート等の台車351には、9軸センサ(自律航法用のマイコン)(図示せず)を搭載する。
この場合、9軸センサ(マイコン)(図示せず)と、床面の色を検知するセンサ(図示せず)を台車351に搭載し、これらのセンサにより移動方向(方位)と、位置(店内における座標)と、速度と、エリアの切り替わりを計測することで、買い物客を追跡する。
そして、買い物客が台車351と共に店内を移動して、エリアを跨いだときに、位置情報をリセットする。これにより、計測誤差を抑制することができる。
この適用例によれば、安価に位置計測機能と移動体の追跡機能を実装することができる。また、マイコンを搭載することで、他の用途等に発展する可能性が有る。但し、台車351に電源を搭載する必要あり、定期的に充電をする必要があり、充電スポット等の場所を店舗に設ける必要がある。
FIG. 14 is a diagram illustrating a tracking example in which a 9-axis sensor is mounted on a cart and the position of a moving body is measured and tracked in the embodiment of the information processing system of the present invention.
As shown in FIG. 14, the store is divided into several areas, and the color of the floor surface is changed for each area. For example, an area 350b with a blue floor surface and an area 350a with a red floor surface are provided.
Further, a 9-axis sensor (microcomputer for autonomous navigation) (not shown) is mounted on a trolley 351 such as a shopping cart used in the store.
In this case, a 9-axis sensor (microcomputer) (not shown) and a sensor (not shown) that detects the color of the floor are mounted on the trolley 351, and these sensors determine the direction of movement (azimuth) and position (in-store). It tracks shoppers by measuring their coordinates), speed, and area changes.
Then, when the shopper moves within the store with the trolley 351 and crosses areas, the position information is reset. Thereby, measurement errors can be suppressed.
According to this application example, a position measurement function and a moving body tracking function can be implemented at low cost. Additionally, by installing a microcontroller, there is a possibility that it will be developed into other uses. However, it is necessary to mount a power source on the trolley 351, it is necessary to charge the battery periodically, and it is necessary to provide a place such as a charging spot in the store.

図15は、本発明の情報処理システムの実施形態において、台車に重量センサを設置して商品の重量を計測する適用例を示す図である。
図15に示すように、ショッピングカート等の台車351に重量センサ(図示せず)を搭載する。
この場合、台車351の商品収納部(かごの部分)に重量センサ(図示せず)を配置するとともに、台車351に制御装置(マイコン等)を搭載することで、買い物客や台車自体の追跡をしなくても、移動中に台車351のかごの重量が増減した変化量と、棚321に設置されている重量センサ312の重量検出量が変化した変化量と、互いの重量が変化したタイミングとを記憶しておくことで、精算の際に、台車351に載せられている商品を特定できるので、精算を行うことができる。
具体的には、図15のように、買い物客が、棚321に陳列されている商品A(300g)を取り、台車351のかごに入れた場合、棚321に設置されている重量センサ312の重量検出量が300g減り、このタイミングで台車351のかごの重量検出量が300g増えるため、買い物客がどの商品を台車351のかごに入れたかが分かる。
この適用例によれば、買い物客や台車351を追跡することなく、精算の際に商品を特定できる他、重量がそのまま移動するため、万引きの予防、防止にも繋がる。但し台車351に重量センサ312と、制御装置と、これらを動作させるバッテリ等を組み込む必要があり、上述のバッテリを用いる適用例と同様の対策が必要である。
FIG. 15 is a diagram showing an application example in which a weight sensor is installed on a trolley to measure the weight of a product in the embodiment of the information processing system of the present invention.
As shown in FIG. 15, a weight sensor (not shown) is mounted on a cart 351 such as a shopping cart.
In this case, a weight sensor (not shown) is placed in the product storage section (basket part) of the trolley 351, and a control device (microcomputer, etc.) is mounted on the trolley 351 to track shoppers and the trolley itself. Even if you do not do so, the amount of change in the weight of the cart 351 during movement, the amount of change in the weight detection amount of the weight sensor 312 installed on the shelf 321, and the timing at which the weights of each other changed. By memorizing this, it is possible to specify the products placed on the trolley 351 at the time of payment, so that the payment can be made.
Specifically, as shown in FIG. 15, when a shopper picks up product A (300 g) displayed on the shelf 321 and puts it in the cart 351, the weight sensor 312 installed on the shelf 321 The detected weight amount decreases by 300 g, and at this timing, the detected weight amount of the basket of the trolley 351 increases by 300 g, so it is possible to know which products the shopper has put in the basket of the trolley 351.
According to this application example, the product can be identified at the time of checkout without having to track the shopper or the trolley 351, and since the weight is moved as it is, it also helps to prevent and prevent shoplifting. However, it is necessary to incorporate the weight sensor 312, a control device, a battery for operating these, etc. into the trolley 351, and the same measures as in the above-mentioned application example using a battery are required.

〔他の実施形態〕
本発明は、上述の実施形態に限定されるものでなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
[Other embodiments]
The present invention is not limited to the above-described embodiments, and any modifications, improvements, etc. within the range that can achieve the purpose of the present invention are included in the present invention.

上述の実施形態は、コンビニエンスストア等の店舗に次世代レジシステムを適用した例について説明したが、同じグループの複数の客が所望の複数の商品をセルフレジへ持ち込み、一括精算の上、決済処理後、当該複数の商品を店舗外へ持ち出す一連の購入手続きに適用される他、例えば倉庫内において同じグループの複数の人が精算や決済処理を伴わない物品の倉庫外への持ち出し(物品を他の場所に移動する際の在庫管理等)にも適用することができる。 The above embodiment describes an example in which a next-generation cash register system is applied to a store such as a convenience store. In addition to being applied to a series of purchasing procedures in which multiple products are taken out of a store, for example, in a warehouse, multiple people in the same group are allowed to take goods out of the warehouse without checking out or processing payments. It can also be applied to inventory management, etc. when moving from one location to another.

上述した本実施形態では、天井及び各棚ラック43に設置されているセンシングデバイスとして、天井カメラ310、光センサ311及び重量センサ312等を例示したが、これらはあくまで一例であり、これに限定されない。例えば、3Dセンサ、温度センサ、距離センサを含む各種各様のセンシングデバイスを設置することができる。また、重量センサを始めとするこれらのセンシングデバイスは、商品が置かれ得る棚1つに対し、複数個設置されてもよい。 In the present embodiment described above, the ceiling camera 310, the optical sensor 311, the weight sensor 312, etc. are exemplified as sensing devices installed on the ceiling and each shelf rack 43, but these are just examples and are not limited thereto. . For example, a variety of different sensing devices can be installed, including 3D sensors, temperature sensors, and distance sensors. Furthermore, a plurality of these sensing devices including weight sensors may be installed on one shelf where products can be placed.

上述した実施形態では、複数の天井カメラ310の撮像範囲が重なるように配置する例を説明したが、一般的に、カメラは、撮影対象までの距離が長いほど広範囲を撮影することが可能になる。即ち、カメラを店舗の天井に設置した場合、天井が低い店舗においては1台のカメラで撮影できる範囲は狭い範囲に限定される。そのため、店舗全体を撮影する場合は多くのカメラを設置する必要がある。
そこで、1台のカメラで可能な限り広範囲を撮影するため、例えば以下の工夫がなされてもよい。即ち、撮影対象が映る鏡を天井に設置し、カメラのレンズを天井の鏡に向けた状態で壁に設置する。そして撮影対象である物体や移動体M1、M2を鏡に映し、その鏡に映った物体や移動体M1、M2をカメラで撮影する。以上の工夫により、カメラと撮影対象の距離を見かけ上長く確保することができるため、少ない台数のカメラでより広い撮像範囲をカバーすることが可能になる。
In the embodiment described above, an example has been described in which the plurality of ceiling cameras 310 are arranged so that their imaging ranges overlap, but in general, the longer the distance to the object to be photographed, the more extensive the camera can photograph. . That is, when a camera is installed on the ceiling of a store, the range that can be photographed by one camera is limited to a narrow range in stores with low ceilings. Therefore, in order to photograph the entire store, it is necessary to install many cameras.
Therefore, in order to photograph as wide a range as possible with one camera, the following measures may be taken, for example. That is, a mirror in which the object to be photographed is reflected is installed on the ceiling, and the camera is installed on the wall with the lens facing the mirror on the ceiling. Then, the objects and moving bodies M1 and M2 to be photographed are reflected in a mirror, and the objects and moving bodies M1 and M2 reflected in the mirror are photographed with a camera. With the above-mentioned measures, it is possible to maintain an apparently longer distance between the camera and the object to be photographed, so it is possible to cover a wider imaging range with a smaller number of cameras.

ここで上述の実施形態に関する課題について補足する。
上述の実施形態における情報処理システムでの商品の特定手法として、ディープラーニングを用いた画像認識を一例として挙げた。しかし、ディープラーニングは、商品を特定できなかったとき、もしくは誤認識したときに再学習をさせる必要があり、その際には正解商品の画像を人の手で与える必要があり、多大な手間がかかる。
Here, we will supplement the issues related to the above-described embodiments.
Image recognition using deep learning is given as an example of a product identification method in the information processing system in the above-described embodiment. However, deep learning needs to be retrained when it cannot identify a product or when it misrecognizes a product, and in that case, it is necessary to manually provide an image of the correct product, which requires a lot of effort. It takes.

上述の課題の解決方法として、本発明の情報処理システムは、商品購入時に、目検者の目視による確認や、バーコードスキャン等を行い、商品の特定を修正する機能と、商品の特定の修正が行われた際に、修正した正しい商品の画像及び必要な情報(修正後の商品番号や特定のコード等)を紐付けて記録する機能と、前記正しい商品の画像及び必要な情報を基に、ディープラーニングの学習を自動で実行する機能と、学習結果を自動で同情報処理システムに配備する機能と、を実装することにより、上記の一連のディープラーニングの再学習処理の自動化を実現できる。
ここで、学習結果の配備とは、商品の特定に用いることができるよう、学習の結果に基づいて、同情報処理システムの、例えばディープラーニングのモデル等を更新する処理を指す。
上記の再学習処理は、例えば商品特定の失敗等の所定の条件をトリガーとして開始される構成としてもよいし、担当者による明示の操作、例えばボタンの押下等をトリガーとして開始される構成としてもよい。
As a solution to the above-mentioned problems, the information processing system of the present invention has a function for correcting product identification by performing visual confirmation by an eye inspector, barcode scanning, etc. at the time of product purchase, and a function for correcting product identification. When the correct product image and necessary information (corrected product number, specific code, etc.) are linked and recorded when the correct product image and necessary information are corrected, it is recorded. By implementing a function to automatically execute deep learning learning and a function to automatically deploy learning results to the same information processing system, it is possible to automate the series of deep learning relearning processes described above.
Here, the deployment of learning results refers to a process of updating, for example, a deep learning model of the information processing system based on the learning results so that the learning results can be used for product identification.
The above-mentioned relearning process may be started using a predetermined condition as a trigger, such as a failure in product identification, or may be started using an explicit operation by a person in charge, such as pressing a button. good.

上記のようなディープラーニングの再学習処理によれば、ディープラーニングの再学習にかかる煩雑な作業を簡略化し人手を削減できると共に、商品の特定精度が向上し続ける情報処理システムを提供することができる。 According to the deep learning relearning process described above, it is possible to simplify the complicated work involved in deep learning relearning and reduce manpower, and it is also possible to provide an information processing system that continues to improve product identification accuracy. .

また、上述の実施形態において、移動体を人として認識する場合に適用される画像認識手法として、骨格推定の技術や顔認証技術を例示したが、この他、物体を商品として特定する場合、例えばAIを用いた物体認識、特徴点や特徴量を用いた物体認識、商品のロゴの形状認識、文字認識(AIを用いた文字形状の認識、OCR(Optical Character Recognition)を用いた文字の認識等)を採用することが可能である。 Furthermore, in the above-described embodiments, bone structure estimation technology and face recognition technology were illustrated as image recognition methods applied when recognizing a moving object as a person, but in addition, when identifying an object as a product, for example, Object recognition using AI, object recognition using feature points and feature values, shape recognition of product logos, character recognition (character shape recognition using AI, character recognition using OCR (Optical Character Recognition), etc.) ) can be adopted.

また、画像認識手法に加えて上述した重量認識(重量センサを用いた物体の重量認識)の他に、バーコードやQRコード(登録商標)等の識別情報のスキャンによる商品認識(赤外線センサあるいは画像読み取り等によるバーコードやQRコード(登録商標)等のスキャン)、RFID等の電子的に記録された識別情報の読み取りによる商品認識の1つ、又は複数の認識手法を組み合わせて、物体を商品としての特定することが可能である。この場合、各特定手法による物体の特定結果をスコア化し、その物体をスコアが最も高い商品であると推定すること等が可能である。
さらに、上記の重量認識、バーコードやQRコード(登録商標)等の識別情報のスキャンによる商品認識、電子的に記録された識別情報の読み取りによる商品認識等の特定手法は、画像認識手法と組み合わせずに、1つ、又は複数を組み合わせて、物体を商品として認識することが可能である。
In addition to the image recognition method, in addition to the above-mentioned weight recognition (recognition of the weight of an object using a weight sensor), product recognition by scanning identification information such as a barcode or QR code (registered trademark) (infrared sensor or image Objects can be identified as products by using one or a combination of recognition methods, such as scanning barcodes, QR codes (registered trademarks), etc., or product recognition by reading electronically recorded identification information such as RFID. It is possible to specify the In this case, it is possible to score the object identification results obtained by each identification method and estimate that the object is the product with the highest score.
Furthermore, identification methods such as weight recognition, product recognition by scanning identification information such as barcodes and QR codes (registered trademarks), and product recognition by reading electronically recorded identification information can be combined with image recognition methods. It is possible to recognize an object as a product by using one or a combination of two or more.

上述の実施形態では、ゲート装置316a、316bに、フラッパー式のゲートを採用したが、特にこの方式に限定されない。即ち例えばホログラムで表示されるゲートが採用されてもよい。精算機4又は表示端末315bの夫々は、ゲート装置316a、316bへの例えば音声や光により人の通過の可否を報知してもよい。 In the above-described embodiment, flapper type gates are used as the gate devices 316a and 316b, but the present invention is not limited to this type of gate. That is, for example, a gate displayed as a hologram may be employed. The payment machine 4 or the display terminal 315b may notify the gate devices 316a, 316b, for example, by sound or light, as to whether or not a person is allowed to pass.

商品情報は、商品DB131において記憶され、リアルタイムに更新される。また商品情報は、店舗毎、複数店舗毎、レジ毎、あるいは日次毎、月次毎、年次毎に管理することができる。 Product information is stored in the product DB 131 and updated in real time. Furthermore, product information can be managed for each store, for each store, for each register, or for each day, month, or year.

上述の実施形態では、各情報処理装置における記憶部はハードディスクやDRAM等で構成されるとして説明したがこれに限定されない。例えばSSDなどの外部記憶装置が用いられてもよい。 In the above-described embodiments, the storage unit in each information processing device was described as being composed of a hard disk, a DRAM, etc., but the present invention is not limited thereto. For example, an external storage device such as an SSD may be used.

上述の実施形態では、特定できなかった商品や間違った商品が商品リストに表示されている場合、移動体M1、M2はバーコードの読み取り等により商品リストの修正を試みてもよいと説明したが、移動体M1、M2は所持する全ての商品をバーコードの読み取りによって特定してもよい。 In the above embodiment, it was explained that if an unspecified product or an incorrect product is displayed on the product list, the mobile units M1 and M2 may try to correct the product list by reading barcodes, etc. , the mobile bodies M1 and M2 may identify all the products they possess by reading barcodes.

上述の実施形態において、移動体M1、M2の発見には撮像画像に基づく状態空間モデルが採用されたが、この方法に限定されない。即ち例えば、3次元点群データ、2D画像、距離データ、温度データ、赤外線量、光データ等の各センシングデバイスから取得される各種データが移動体M1、M2の発見のために採用されてもよい。 In the embodiments described above, a state space model based on captured images is used to discover the moving objects M1 and M2, but the method is not limited to this. That is, for example, various data obtained from each sensing device, such as three-dimensional point cloud data, 2D images, distance data, temperature data, infrared radiation, and optical data, may be employed to discover the moving objects M1 and M2. .

上述の実施形態においては、発見された移動体M1、M2を中心として変化のある領域を連続的に見つけることにより移動体M1、M2の領域を定義したが、特にこの方法に限定されない。即ち例えば、3次元点群データから移動体M1、M2を発見し、ICPアルゴリズムを用いて移動体M1、M2の位置座標を特定し、移動体領域を定義してもよい。
また移動体M1、M2が人である場合には、3次元点群データを初めとして2D画像、距離データ、温度データ、赤外線量、光データなどの各センシングから取得できるデータを用い、移動体M1、M2の領域を定義してもよい。またディープラーニングを併用することによって移動体M1、M2の領域を推定してもよい。
In the above-described embodiment, the areas of the moving bodies M1 and M2 are defined by continuously finding areas that change around the discovered moving bodies M1 and M2, but the method is not particularly limited to this method. That is, for example, the moving bodies M1 and M2 may be discovered from the three-dimensional point cloud data, the position coordinates of the moving bodies M1 and M2 may be specified using the ICP algorithm, and the moving body area may be defined.
In addition, when the moving objects M1 and M2 are people, the moving object M1 , M2 may be defined. Further, the regions of the moving objects M1 and M2 may be estimated by using deep learning in combination.

上述の実施形態では、移動体M1、M2の追跡には、特徴データの収集による追跡やベイジアンフィルタ等の物体追跡の技術が採用されることを前提として説明したが、特にこれらの方法に限定されない。即ち例えば、位置情報の最適解を用いて移動体M1、M2を追跡してもよい。また時系列の位置情報をもとに、ノイズ判定のうえ、移動体M1、M2を推定し、追跡してもよい。 Although the above-described embodiment has been described on the premise that object tracking techniques such as tracking by collecting feature data and Bayesian filters are employed to track the moving objects M1 and M2, the present invention is not limited to these methods. . That is, for example, the moving objects M1 and M2 may be tracked using the optimal position information. Further, based on the time-series position information, the moving objects M1 and M2 may be estimated and tracked after noise determination.

上述の実施形態では、各天井カメラ310により撮像された撮像画像を合成することにより、各カメラが店舗内のどこを映しているのか、カメラの位置情報を定義したが、この方法に限定されない。即ち例えば、ICPアルゴリズムを用いた座標変換により、カメラごとの位置情報を店舗全体の(複数カメラを統合した)位置情報に座標変換して、カメラの位置情報を定義してもよい。 In the above-described embodiment, the location information of the cameras is defined by combining the captured images captured by each ceiling camera 310 to determine where in the store each camera is viewing, but the present invention is not limited to this method. That is, for example, the position information of each camera may be converted into the position information of the entire store (combining a plurality of cameras) by coordinate conversion using the ICP algorithm to define the position information of the camera.

また上述の実施形態において、移動体M1、M2から他の移動体M1、M2へ物体が受け渡される場合において、物体を受け渡す(される)前後のカゴやカートの中を、差分認識等を行うことにより認識し、商品を特定してもよい。 Furthermore, in the above-described embodiment, when an object is transferred from the moving bodies M1 and M2 to the other moving bodies M1 and M2, the inside of the basket or cart before and after the object is transferred is recognized by difference recognition, etc. It is also possible to recognize and identify the product by doing so.

上述の実施形態では、1台のカメラにて広範囲を撮影するため、撮影対象が映る鏡を天井に設置し、カメラから鏡に映った撮影対象を撮像する方法について説明したが、カメラの位置は壁に限定されない。例えば棚や天井等にカメラが設置されていてもよい。 In the above embodiment, in order to photograph a wide area with one camera, a mirror that reflects the photographic subject is installed on the ceiling, and the camera captures an image of the photographic subject reflected in the mirror. However, the position of the camera is Not limited to walls. For example, a camera may be installed on a shelf, ceiling, or the like.

上述の実施形態においては、店員が所持する情報端末、あるいはバックヤードの画面等に店内売場の情報が表示されるものとして説明したが、店員が所持する情報端末やバックヤードの画面には、間違った棚に戻された商品が存在する(重量が減少していない棚の重量が増加した)、棚に配置されている重量センサによる重量の検出により商品が欠品している、又は補充が必要である等の情報を表示してもよい。
表示される端末はこれらに限定されない。インターネットに接続されることにより図示せぬサービス提供者、システム担当者等が所持する端末等に移動体M1、M2の位置情報が表示されてもよい。
In the above-described embodiment, information about the in-store sales floor is displayed on an information terminal owned by a store clerk or a screen in the backyard. There is a product that has been returned to the shelf where it was placed (the weight of the shelf has increased without a decrease in weight), the product is out of stock due to the weight detected by the weight sensor installed on the shelf, or it needs to be replenished. You may also display information such as .
The displayed terminals are not limited to these. By being connected to the Internet, the location information of the mobile bodies M1 and M2 may be displayed on a terminal owned by a service provider, system person, etc. (not shown).

上述の実施形態では、センシングデバイスとしてカメラを用いる場合、特定物体認識、一般物体認識、ディープラーニング等の画像処理手法により商品の候補をリストアップし、リストアップされた商品候補について、さらに別のリストとマッチングさせることにより検証し、商品を特定することを前提として説明したが、ここでいう検証は必ずしも必須の要素ではない。即ち、特定物体認識等の画像処理手法によりリストアップされた商品の候補を、特定された商品として扱ってもよい。 In the embodiment described above, when a camera is used as a sensing device, product candidates are listed using image processing techniques such as specific object recognition, general object recognition, and deep learning, and the listed product candidates are further added to another list. Although the explanation has been made on the premise that the product will be identified by verification by matching with the product, verification here is not necessarily an essential element. That is, product candidates listed by image processing techniques such as specific object recognition may be treated as specified products.

上述の実施形態では、棚内から物体が持ち去られたタイミングで物体の入出が認識され、商品としての特定が試みられることを前提として説明したが、認識、特定のタイミングはこれに限定されず任意でよい。即ち例えば、棚内から物体が持ち去られると物体の入出が認識され、認識された物体と移動体M1、M2との紐付けがなされ、移動体M1、M2が精算エリア45に進入したことをトリガーとして商品の特定がなされてもよい。これにより物体の入出が認識された後、商品として特定されるまでの間に時間的猶予ができるため、例えば複数手法により商品の特定をすることができるようになる等、商品の特定精度を向上させることができる。 In the above embodiment, the entry and exit of the object is recognized at the timing when the object is removed from the shelf, and an attempt is made to identify it as a product. However, the recognition and identification timing is not limited to this and may be determined arbitrarily. That's fine. That is, for example, when an object is removed from the shelf, entry and exit of the object is recognized, the recognized object is associated with the moving objects M1 and M2, and the entry of the moving objects M1 and M2 into the checkout area 45 is triggered. The product may be specified as This allows time to be deferred between when the entry and exit of an object is recognized and when it is identified as a product, which improves the accuracy of product identification, for example by making it possible to identify products using multiple methods. can be done.

上述の実施形態では、画像認識により商品を特定できなかった場合には、目検者、オペレータの目視による確認や、バーコードの読み取り等により入力される必要情報と正解の商品画像とを紐付けて記録することでディープラーニングの学習処理を自動化できるが、正解のラベルとして採用できるのは商品画像に限定されない。即ち例えば、画像以外の商品を特定する情報(例えば重量センサでの認識結果)を正解として必要情報と紐付け、学習処理を実行してもよい。これによりディープラーニングの再学習処理の精度を向上させることができる。 In the above-described embodiment, if a product cannot be identified through image recognition, the correct product image is linked to the necessary information input through visual confirmation by an inspector or operator, barcode reading, etc. By recording these images, the deep learning learning process can be automated, but it is not limited to product images that can be used as correct labels. That is, for example, information specifying a product other than an image (for example, a recognition result from a weight sensor) may be regarded as the correct answer and linked to necessary information, and the learning process may be executed. This makes it possible to improve the accuracy of deep learning relearning processing.

また、本発明は、上述のCPUによる画像処理をGPU(Graphic Processing Unit)による処理としてもよい。
また、図示したハードウェア構成やブロック図は、本発明の目的を達成するための例示に過ぎず、本発明は図示された例に限定されない。
また、図6及び図7に示した機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能がシステムに備えられていれば足り、この機能を実現するためにどのような機能ブロック及びデータベースを用いるのかは特に図6及び図7の例に限定されず、任意でよい。
また、機能ブロック及びデータベースの存在場所は、図示されたものに限定されず、任意でよい。例えば、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらを組み合わせで構成してもよい。各機能ブロック及びデータベースの処理をソフトウェアにより実行される場合には、そのソフトウェアを構成するプログラムがコンピュータ等にネットワークや記録媒体からインストールされる。
Further, in the present invention, the above-described image processing by the CPU may be performed by a GPU (Graphic Processing Unit).
Furthermore, the illustrated hardware configuration and block diagram are merely examples for achieving the object of the present invention, and the present invention is not limited to the illustrated examples.
Furthermore, the functional configurations shown in FIGS. 6 and 7 are merely examples, and are not particularly limited. In other words, it is sufficient that the system is equipped with a function that can execute the above-mentioned series of processes as a whole, and what kind of functional blocks and databases are used to realize this function is particularly explained in the examples shown in FIGS. 6 and 7. It is not limited and may be arbitrary.
Further, the locations of the functional blocks and the database are not limited to those shown in the figure, and may be arbitrary. For example, one functional block may be composed of a single piece of hardware, a single piece of software, or a combination of these. When the processing of each functional block and database is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.

コンピュータは、専用のハードウェアに組み込まれるコンピュータであってもよいし、スマートフォンやパーソナルコンピュータであってもよい。またコンピュータは例えばクラウド上のサーバ等であってもよい。 The computer may be a computer built into dedicated hardware, or may be a smartphone or a personal computer. Further, the computer may be, for example, a server on a cloud.

このようなプログラムを含む記録媒体は、ユーザ等にプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザ等に提供される記録媒体等で構成される。 Recording media containing such programs not only consist of removable media (not shown) that is distributed separately from the main body of the device in order to provide programs to users, etc., but also those that are pre-installed in the main body of the device and provided to the user. It consists of recording media etc. provided to etc.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくても、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等により構成される全体的な装置を意味するものである。
Note that in this specification, the step of writing a program to be recorded on a recording medium refers to not only processing that is performed chronologically in accordance with the order, but also processing that is not necessarily performed chronologically, but may be performed in parallel or individually. It also includes the processing that is executed.
Furthermore, in this specification, the term "system" refers to an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

以上まとめると、本発明が適用される情報処理システムは、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、情報処理システムは、
複数の物品が配置場所(棚ラック43)に配置された所定領域(例えば店内売場等)の中を人(移動体M1、M2等の買い物客)が移動して、前記複数の物品のうち1以上の物品を前記所定領域(例えば店内売場等)の外に持ち出す際に利用される情報処理システムにおいて、
前記所定領域(店内売場)にN人(Nは2以上の整数値)が進入する前に(図1のゲート装置316a手前の入口エリア40において)、当該N人が属する所定グループを作成するグループ作成手段(例えば図6の入口制御部320等)と、
前記所定グループに属する前記N人の夫々を追跡する追跡手段(例えば図6の移動体追跡部330等)と、
1以上のセンシングデバイス(例えば重量センサ312及び光センサ311等)のうち少なくとも1つを用いる所定の手法(重量計測手法や光の遮蔽検出手法等)で、前記複数の物品のうち、前記配置場所(棚ラック43)から取り出された物品とその個数の双方を特定する商品特定手段(例えば図6の棚商品認識部360の商品特定部3603(図7参照))と、
特定された前記物品と、前記所定グループに属する前記N人のうち所定の位置関係にある人(特定された物品から最も近くにいる買い物客)若しくは所定グループ(その買い物客のグループ)とを紐付ける紐付け手段(例えば図6の紐付け部3604等)と、
前記所定グループに属する前記N人の全てが集合(出口のゲート装置手前の精算エリア45内にグループの全ての人が進入)したか否かを判定する判定手段(例えば図6の売場装置3の出口制御部370等)と、
前記所定グループに属する前記N人の全てが集合したという第1条件を少なくとも含む1以上の条件(グループの人が全員揃った、購入商品の精算処理を終えた、支払いを済ませた等の夫々の条件)を満たした場合、当該複数の人のうち何れか若しくは所定グループと紐付けられた1以上の前記物品を、前記所定グループの物品として前記所定領域(店内売り場)の外に持ち出すことを許可する持出許可手段(例えば図6の売場装置3の出口制御部370等)と、
を備える。
これにより、コンビニエンスストア等の店舗において、複数の物品の処理(精算エリアにおける複数の商品の精算処理)にかかる時間を短縮することができる。
また、複数の客がグループで来店し店舗の棚に陳列されている商品を購入する際に、グループの夫々の客が持ち寄った商品の持ち出し条件(グループ全員が揃う等)を満たせば、グループで持ち出すことができるので、グループで来店する客の利便性を向上することができる。
さらに、グループで購入する商品を一括して精算できるので、レジ前に並ぶ客を効率よく退出してもらうことができ、混雑の緩和を図ることができる。
In summary, the information processing system to which the present invention is applied only needs to have the following configuration, and can take various embodiments.
In other words, the information processing system is
A person (shopper such as mobile objects M1, M2, etc.) moves in a predetermined area (for example, an in-store sales floor, etc.) in which a plurality of articles are arranged (shelf racks 43) and picks up one of the plurality of articles. In an information processing system used when taking the above items out of the predetermined area (for example, a store sales floor, etc.),
Before N people (N is an integer value of 2 or more) enter the predetermined area (in-store sales area) (at the entrance area 40 in front of the gate device 316a in FIG. 1), a predetermined group to which the N people belong is created. A creation means (for example, the entrance control unit 320 in FIG. 6),
a tracking means (for example, the mobile object tracking unit 330 in FIG. 6) that tracks each of the N people belonging to the predetermined group;
A predetermined method (weight measurement method, light shielding detection method, etc.) using at least one of one or more sensing devices (for example, weight sensor 312, optical sensor 311, etc.) is used to determine the location of the plurality of articles. A product specifying means (for example, the product specifying unit 3603 (see FIG. 7) of the shelf product recognition unit 360 in FIG. 6) that specifies both the product taken out from the shelf rack 43 and the number thereof;
The specified item is linked to a person in a predetermined positional relationship among the N people belonging to the predetermined group (the shopper closest to the specified item) or a predetermined group (the group of shoppers). A tying means (for example, tying section 3604 in FIG. 6),
Judgment means (for example, in the sales floor device 3 of FIG. exit control unit 370, etc.);
One or more conditions including at least the first condition that all of the N people belonging to the predetermined group have gathered (each of the conditions such as all the people in the group have gathered, the payment process for the purchased product has been completed, the payment has been completed, etc.) If the conditions (conditions) are met, one or more of the items linked to any one of the plurality of people or a predetermined group is permitted to be taken out of the predetermined area (in-store sales floor) as an item of the predetermined group. (e.g., the exit control unit 370 of the sales floor device 3 in FIG. 6),
Equipped with
This makes it possible to reduce the time required to process multiple items (accounting for multiple items in the payment area) at a store such as a convenience store.
In addition, when multiple customers visit the store in a group and purchase products displayed on store shelves, if each customer in the group meets the conditions for taking out the products they brought with them (e.g., all group members are present), the group can purchase products displayed on store shelves. Since they can be taken out, convenience can be improved for customers visiting the store in groups.
Furthermore, since items purchased by a group can be paid at once, customers lining up in front of the cash register can be efficiently asked to leave, thereby reducing congestion.

また情報処理システムは、
前記判定手段(例えば図6の売場装置3の出口制御部370等)は、前記所定領域(店内売場)内に予め指定された指定領域(例えば精算エリア45等)に、前記所定グループに属する前記N人の全てが存在するか否かを、(例えば出口カメラ314により撮像された画像を基にAIが骨格推定する等して人を)認識することで、前記所定グループに属する前記N人の全てが集合したか否かを判定する。
これにより、グループの人がまとまった状態で、夫々の人が持ち寄った商品をグループ単位で一括して精算することができる。
なお、上記実施形態では、指定領域として、例えば精算エリア45を例示したが、これは一例であり、実施形態のみに限定されず、例えば店内売場の天井カメラで撮像可能なエリアであれば、いかなる場所であってもよく、グループのN人全てが集合可能で場所であれば足りる。
In addition, the information processing system
The determination means (for example, the exit control unit 370 of the sales area device 3 in FIG. 6) is configured to determine whether the determination means (for example, the exit control unit 370 of the sales area device 3 in FIG. 6) is configured to detect the items belonging to the predetermined group in a designated area (for example, the checkout area 45, etc.) specified in advance within the predetermined area (in-store sales area). By recognizing whether or not all of the N people are present (for example, by using AI to estimate the skeleton based on the image taken by the exit camera 314), the N people belonging to the predetermined group can be identified. Determine whether everything has been assembled.
This allows a group of people to collectively pay for the products that each person has brought to the group.
In the above embodiment, the specified area is, for example, the checkout area 45, but this is just an example and is not limited to the embodiment. For example, any area that can be imaged by a ceiling camera in a store sales floor It may be a place, as long as it is a place where all N people in the group can gather.

前記複数の物品の夫々は商品であり、
情報処理システムは、前記第1条件(例えばグループの者全員が精算エリア45に集合したという条件)を満たした場合、前記所定グループに属する前記N人のうち何れか又は前記所定グループと紐付けられた1以上の前記商品に関する精算の処理を行う精算手段(例えば図6の精算機4の精算部535等)、
をさらに備え、
前記1以上の条件は、前記精算の処理が完了したという第2条件をさらに含む。
これにより、グループの者全員が精算エリア45に集合し、精算の処理が完了するだけで、グループの者全員がまとまって退店することができる。
Each of the plurality of items is a product,
When the first condition (for example, the condition that all members of the group have gathered in the payment area 45) is satisfied, the information processing system associates any one of the N people belonging to the predetermined group with the predetermined group. and a payment means (for example, the payment unit 535 of the payment machine 4 in FIG. 6) that performs payment processing for one or more of the products;
Furthermore,
The one or more conditions further include a second condition that the payment process is completed.
As a result, all the members of the group gather in the payment area 45, and only by completing the payment process, all the members of the group can leave the store together.

また情報処理システムにおいて、
前記グループ作成手段(例えば図6の入口制御部320等)は、所定デバイス(例えば表示端末315a等)に対して数値Nが入力されると、前記N人が属する前記所定グループを作成し、
前記追跡手段(例えば図6の移動体追跡部330等)は、前記所定グループが作成された後に前記所定領域(店内売場)の入口(例えば入口エリア40等)に最初(間に他のグループの人を挟むことなく順)に進入したN人を、前記所定グループに属する前記N人として追跡を開始する。
これにより、入口で登録された所定グループの夫々の人が精算場所まで追跡されるので、グループの人(買い物客)を誤認することなく、夫々の人(買い物客)が持ち寄った商品をグループでまとめて確実に精算することができる。
In addition, in information processing systems,
When a numerical value N is input to a predetermined device (e.g. display terminal 315a, etc.), the group creation means (for example, the entrance control unit 320 in FIG. 6) creates the predetermined group to which the N people belong;
After the predetermined group is created, the tracking means (for example, the mobile object tracking unit 330 in FIG. 6) first (in the meantime, the other group Tracking is started for the N people who have entered in order (without intervening people) as the N people who belong to the predetermined group.
As a result, each person in a predetermined group registered at the entrance is tracked to the checkout location, so there is no misidentification of people in the group (shoppers), and products brought by each person (shopper) can be collected as a group. You can securely settle your payments all at once.

情報処理方法は、
複数の物品が配置場所に配置された所定領域の中を人が移動して、前記複数の物品のうち1以上の物品を前記所定領域の外に持ち出す際に利用される情報処理システムが実行する情報処理方法において、
前記所定領域にN人(Nは2以上の整数値)が進入する前に、当該N人が属する所定グループを作成するグループ作成ステップ(例えば図8のステップS701等)と、
前記所定グループに属する前記N人の夫々を追跡する追跡ステップ(例えば図8のステップS704等)と、
重量センサ及び光センサのうち少なくとも前記重量センサを用いる所定の手法で、前記複数の物品のうち、前記配置場所から取り出された物品とその個数の双方を特定する商品特定ステップ(例えば図8のステップS707等)と、
特定された前記物品と、前記所定グループに属する前記N人のうち所定の位置関係にある人若しくは前記所定グループとを紐付ける紐付けステップ(例えば図8のステップS708等)と、
前記所定グループに属する前記N人の全てが集合したか否かを判定する判定ステップ(例えば図9のステップS711等)と、
前記所定グループに属する前記N人の全てが集合したという第1条件を少なくとも含む1以上の条件を満たした場合、当該複数の人のうち何れかと紐付けられた1以上の前記物品を、前記所定グループの物品として前記所定領域の外に持ち出すことを許可する持ち出し許可ステップ(例えば図9のステップS718等)と、
を含むことができる。
The information processing method is
Executed by an information processing system used when a person moves through a predetermined area in which a plurality of items are placed at placement locations and takes one or more of the plurality of items out of the predetermined area. In the information processing method,
Before N people (N is an integer value of 2 or more) enter the predetermined area, a group creation step (for example, step S701 in FIG. 8) of creating a predetermined group to which the N people belong;
a tracking step of tracking each of the N people belonging to the predetermined group (for example, step S704 in FIG. 8);
A product specifying step (for example, the step in FIG. 8) of specifying both the product taken out from the placement location and the number of the products among the plurality of products by a predetermined method using at least the weight sensor out of a weight sensor and an optical sensor. S707 etc.) and
a linking step (for example, step S708 in FIG. 8) of linking the specified article with a person in a predetermined positional relationship among the N people belonging to the predetermined group or with the predetermined group;
a determination step of determining whether all of the N people belonging to the predetermined group have gathered (for example, step S711 in FIG. 9);
If one or more conditions, including at least the first condition that all of the N people belonging to the predetermined group have gathered, one or more of the items linked to any one of the plurality of people is transferred to the predetermined group. a carry-out permission step (for example, step S718 in FIG. 9) of permitting the article to be carried out of the predetermined area as a group item;
can include.

プログラムは、
複数の物品が配置場所に配置された所定領域の中を人が移動して、前記複数の物品のうち1以上の物品を前記所定領域の外に持ち出す際に利用されるコンピュータに、
前記所定領域にN人(Nは2以上の整数値)が進入する前に、当該N人が属する所定グループを作成するグループ作成ステップ(例えば図8のステップS701等)と、
前記所定グループに属する前記N人の夫々を追跡する追跡ステップ(例えば図8のステップS704等)と、
重量センサ及び光センサのうち少なくとも前記重量センサを用いる所定の手法で、前記複数の物品のうち、前記配置場所から取り出された物品とその個数の双方を特定する商品特定ステップ(例えば図8のステップS707等)と、
特定された前記物品と、前記所定グループに属する前記N人のうち所定の位置関係にある人若しくは前記所定グループとを紐付ける紐付けステップ(例えば図8のステップS708等)と、
前記所定グループに属する前記N人の全てが集合したか否かを判定する判定ステップ(例えば図9のステップS711等)と、
前記所定グループに属する前記N人の全てが集合したという第1条件を少なくとも含む1以上の条件を満たした場合、当該複数の人のうち何れかと紐付けられた1以上の前記物品を、前記所定グループの物品として前記所定領域の外に持ち出すことを許可する持ち出し許可ステップ(例えば図9のステップS718等)と、
を含む制御処理を実行させることができる。
The program is
A computer used when a person moves within a predetermined area in which a plurality of items are placed at a placement location and takes one or more of the plurality of items out of the predetermined area;
Before N people (N is an integer value of 2 or more) enter the predetermined area, a group creation step (for example, step S701 in FIG. 8) of creating a predetermined group to which the N people belong;
a tracking step of tracking each of the N people belonging to the predetermined group (for example, step S704 in FIG. 8);
A product specifying step (for example, the step in FIG. 8) of specifying both the product taken out from the placement location and the number of the products among the plurality of products by a predetermined method using at least the weight sensor out of a weight sensor and an optical sensor. S707 etc.) and
a linking step (for example, step S708 in FIG. 8) of linking the specified article with a person in a predetermined positional relationship among the N people belonging to the predetermined group or with the predetermined group;
a determination step of determining whether all of the N people belonging to the predetermined group have gathered (for example, step S711 in FIG. 9);
If one or more conditions, including at least the first condition that all of the N people belonging to the predetermined group have gathered, one or more of the items linked to any one of the plurality of people is transferred to the predetermined group. a carry-out permission step (for example, step S718 in FIG. 9) of permitting the article to be carried out of the predetermined area as a group item;
Control processing including the following can be executed.

1・・・サーバ、3・・・売場装置、4・・・精算機、39・・・店舗、40・・・入口エリア、43・・・棚ラック、44・・・通路、45・・・精算エリア、101,301,401,501・・・CPU、108・・・記憶部、109,317,509・・・通信部、131・・・商品DB、141・・・DB管理部、310・・・天井カメラ、311・・・光センサ、312・・・重量センサ、330・・・移動体追跡部、340・・・位置情報管理部、360・・・棚商品認識部、3602・・・検出部、3603・・・商品特定部、3604・・・紐付け部、3605・・・商品リスト管理部、M1、M2・・・移動体(買い物客) 1... Server, 3... Sales floor device, 4... Payment machine, 39... Store, 40... Entrance area, 43... Shelf rack, 44... Aisle, 45... Settlement area, 101, 301, 401, 501... CPU, 108... Storage section, 109, 317, 509... Communication section, 131... Product DB, 141... DB management section, 310. ... Ceiling camera, 311... Optical sensor, 312... Weight sensor, 330... Moving object tracking section, 340... Position information management section, 360... Shelf product recognition section, 3602... Detection unit, 3603... Product identification unit, 3604... Linking unit, 3605... Product list management unit, M1, M2... Mobile object (shopper)

Claims (6)

複数の物品が配置場所に配置された所定領域の中を人が移動して、前記複数の物品のうち1以上の物品を前記所定領域の外に持ち出す際に利用される情報処理システムにおいて、
前記所定領域にN人(Nは2以上の整数値)が進入する前に、当該N人が属する所定グループを作成するグループ作成手段と、
前記所定グループに属する前記N人の夫々を追跡する追跡手段と、
1以上のセンシングデバイスのうち少なくとも1つを用いる所定の手法で、前記複数の物品のうち、前記配置場所から取り出された物品とその個数の双方を特定する商品特定手段と、
特定された前記物品と、前記所定グループに属する前記N人のうち所定の位置関係にある人若しくは所定グループとを紐付ける紐付け手段と、
前記所定グループに属する前記N人の全てが集合したか否かを判定する判定手段と、
前記所定グループに属する前記N人の全てが集合したという第1条件を少なくとも含む1以上の条件を満たした場合、当該複数の人のうち何れか若しくは所定グループと紐付けられた1以上の前記物品を、前記所定グループの物品として前記所定領域の外に持ち出すことを許可する持ち出し許可手段と、
を備える情報処理システム。
In an information processing system used when a person moves within a predetermined area in which a plurality of items are placed at a placement location and takes one or more of the plurality of items out of the predetermined area,
before N people (N is an integer value of 2 or more) enter the predetermined area, group creation means for creating a predetermined group to which the N people belong;
tracking means for tracking each of the N people belonging to the predetermined group;
Product identification means for identifying both the product taken out from the placement location and the number of the products among the plurality of products by a predetermined method using at least one of one or more sensing devices;
a linking means for linking the specified item with a person in a predetermined positional relationship among the N people belonging to the predetermined group or a predetermined group;
determining means for determining whether all of the N people belonging to the predetermined group have gathered;
If one or more conditions including at least the first condition that all of the N people belonging to the predetermined group have gathered, one or more of the items linked to any one of the plurality of people or the predetermined group taking-out permission means for permitting taking out of the predetermined area as an article of the predetermined group;
An information processing system equipped with.
前記判定手段は、前記所定領域内に予め指定された指定領域に、前記所定グループに属する前記N人の全てが存在するか否かを認識することで、前記所定グループに属する前記N人の全てが集合したか否かを判定する、
請求項1に記載の情報処理システム。
The determining means is configured to recognize whether or not all of the N people belonging to the predetermined group exist in a designated area specified in advance within the predetermined area. Determine whether or not the
The information processing system according to claim 1.
前記複数の物品の夫々は商品であり、
前記第1条件を満たした場合、前記所定グループに属する前記N人のうち何れか又は前記所定グループと紐付けられた1以上の前記商品に関する精算の処理を行う精算手段
をさらに備え、
前記1以上の条件は、前記精算の処理が完了したという第2条件をさらに含む、
請求項1に記載の情報処理システム。
Each of the plurality of items is a product,
Further comprising: a payment unit that performs payment processing for one or more of the products associated with any one of the N people belonging to the predetermined group or the predetermined group when the first condition is satisfied;
The one or more conditions further include a second condition that the payment process is completed.
The information processing system according to claim 1.
前記グループ作成手段は、所定デバイスに対して数値Nが入力されると、前記N人が属する前記所定グループを作成し、
前記追跡手段は、前記所定グループが作成された後に前記所定領域の入口に最初に進入したN人を、前記所定グループに属する前記N人として追跡を開始する、
請求項1に記載の情報処理システム。
The group creation means creates the predetermined group to which the N people belong when a numerical value N is input to a predetermined device;
The tracking means starts tracking N people who first enter the entrance of the predetermined area after the predetermined group is created, as the N people who belong to the predetermined group.
The information processing system according to claim 1.
複数の物品が配置場所に配置された所定領域の中を人が移動して、前記複数の物品のうち1以上の物品を前記所定領域の外に持ち出す際に利用される情報処理システムが実行する情報処理方法において、
前記所定領域にN人(Nは2以上の整数値)が進入する前に、当該N人が属する所定グループを作成するグループ作成ステップと、
前記所定グループに属する前記N人の夫々を追跡する追跡ステップと、
重量センサ及び光センサのうち少なくとも前記重量センサを用いる所定の手法で、前記複数の物品のうち、前記配置場所から取り出された物品とその個数の双方を特定する商品特定ステップと、
特定された前記物品と、前記所定グループに属する前記N人のうち所定の位置関係にある人若しくは前記所定グループとを紐付ける紐付けステップと、
前記所定グループに属する前記N人の全てが集合したか否かを判定する判定ステップと、
前記所定グループに属する前記N人の全てが集合したという第1条件を少なくとも含む1以上の条件を満たした場合、当該複数の人のうち何れかと紐付けられた1以上の前記物品を、前記所定グループの物品として前記所定領域の外に持ち出すことを許可する持ち出し許可ステップと、
を含む情報処理方法。
Executed by an information processing system used when a person moves through a predetermined area in which a plurality of items are placed at placement locations and takes one or more of the plurality of items out of the predetermined area. In the information processing method,
Before N people (N is an integer value of 2 or more) enter the predetermined area, a group creation step of creating a predetermined group to which the N people belong;
a tracking step of tracking each of the N people belonging to the predetermined group;
a product specifying step of specifying both the product taken out from the placement location and the number thereof among the plurality of products by a predetermined method using at least the weight sensor among a weight sensor and an optical sensor;
a step of associating the identified item with a person in a predetermined positional relationship among the N people belonging to the predetermined group or the predetermined group;
a determination step of determining whether all of the N people belonging to the predetermined group have gathered;
If one or more conditions, including at least the first condition that all of the N people belonging to the predetermined group have gathered, one or more of the items linked to any one of the plurality of people is transferred to the predetermined group. a taking-out permission step of permitting taking out of the predetermined area as a group item;
Information processing methods including.
複数の物品が配置場所に配置された所定領域の中を人が移動して、前記複数の物品のうち1以上の物品を前記所定領域の外に持ち出す際に利用されるコンピュータに、
前記所定領域にN人(Nは2以上の整数値)が進入する前に、当該N人が属する所定グループを作成するグループ作成ステップと、
前記所定グループに属する前記N人の夫々を追跡する追跡ステップと、
重量センサ及び光センサのうち少なくとも前記重量センサを用いる所定の手法で、前記複数の物品のうち、前記配置場所から取り出された物品とその個数の双方を特定する商品特定ステップと、
特定された前記物品と、前記所定グループに属する前記N人のうち所定の位置関係にある人若しくは前記所定グループとを紐付ける紐付けステップと、
前記所定グループに属する前記N人の全てが集合したか否かを判定する判定ステップと、
前記所定グループに属する前記N人の全てが集合したという第1条件を少なくとも含む1以上の条件を満たした場合、当該複数の人のうち何れかと紐付けられた1以上の前記物品を、前記所定グループの物品として前記所定領域の外に持ち出すことを許可する持ち出し許可ステップと、
を含む制御処理を実行させるプログラム。
A computer used when a person moves within a predetermined area in which a plurality of items are placed at a placement location and takes one or more of the plurality of items out of the predetermined area;
Before N people (N is an integer value of 2 or more) enter the predetermined area, a group creation step of creating a predetermined group to which the N people belong;
a tracking step of tracking each of the N people belonging to the predetermined group;
a product specifying step of specifying both the product taken out from the placement location and the number thereof among the plurality of products by a predetermined method using at least the weight sensor among a weight sensor and an optical sensor;
a step of associating the identified item with a person in a predetermined positional relationship among the N people belonging to the predetermined group or the predetermined group;
a determination step of determining whether all of the N people belonging to the predetermined group have gathered;
If one or more conditions, including at least the first condition that all of the N people belonging to the predetermined group have gathered, one or more of the items linked to any one of the plurality of people are transferred to the predetermined group. a taking-out permission step of permitting taking out of the predetermined area as a group item;
A program that executes control processing including.
JP2022142353A 2022-09-07 2022-09-07 Information processing system, information processing method and program Pending JP2024037466A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022142353A JP2024037466A (en) 2022-09-07 2022-09-07 Information processing system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022142353A JP2024037466A (en) 2022-09-07 2022-09-07 Information processing system, information processing method and program

Publications (1)

Publication Number Publication Date
JP2024037466A true JP2024037466A (en) 2024-03-19

Family

ID=90300410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022142353A Pending JP2024037466A (en) 2022-09-07 2022-09-07 Information processing system, information processing method and program

Country Status (1)

Country Link
JP (1) JP2024037466A (en)

Similar Documents

Publication Publication Date Title
CN108780596B (en) Information processing system
JP6646176B1 (en) Autonomous store tracking system
US20230017398A1 (en) Contextually aware customer item entry for autonomous shopping applications
JP7093783B2 (en) Systems and methods for a dynamic customer checkout experience in an automated shopping environment
CN109089082B (en) Image acquisition system based on thermal characteristic image
US10290031B2 (en) Method and system for automated retail checkout using context recognition
JP2020115344A6 (en) Autonomous store tracking system
RU2739542C1 (en) Automatic registration system for a sales outlet
KR20210055038A (en) Autonomous store tracking system
WO2021125357A1 (en) Information processing system
CN111868773A (en) Shop management apparatus and shop management method
JP6653813B1 (en) Information processing system
CN111222870B (en) Settlement method, device and system
JP2023509844A (en) Customized retail environment
JP7264401B2 (en) Accounting methods, devices and systems
TWI809044B (en) Store management device and store management method
JP6836256B2 (en) Information processing system
JP2024037466A (en) Information processing system, information processing method and program
KR20220026810A (en) Smart Shopping System in Store
JP2021140740A (en) Article storage system, server, article storage method, program and information processing device
JP2020077275A (en) Commodity settlement system, commodity conveying cart and commodity settlement method
WO2022195752A1 (en) Information processing device, information processing method, and recording medium
US20220270061A1 (en) System and method for indicating payment method availability on a smart shopping bin