JP2019032778A - Purchase assisting system - Google Patents

Purchase assisting system Download PDF

Info

Publication number
JP2019032778A
JP2019032778A JP2017154777A JP2017154777A JP2019032778A JP 2019032778 A JP2019032778 A JP 2019032778A JP 2017154777 A JP2017154777 A JP 2017154777A JP 2017154777 A JP2017154777 A JP 2017154777A JP 2019032778 A JP2019032778 A JP 2019032778A
Authority
JP
Japan
Prior art keywords
customer service
shelf
purchase
consumer
product
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017154777A
Other languages
Japanese (ja)
Other versions
JP7057077B2 (en
Inventor
坂本 博之
Hiroyuki Sakamoto
博之 坂本
伸吉 氏田
Shinkichi Ujita
伸吉 氏田
彰 只石
Akira Tadaishi
彰 只石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sb Creative Corp
Original Assignee
Sb Creative Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sb Creative Corp filed Critical Sb Creative Corp
Priority to JP2017154777A priority Critical patent/JP7057077B2/en
Publication of JP2019032778A publication Critical patent/JP2019032778A/en
Application granted granted Critical
Publication of JP7057077B2 publication Critical patent/JP7057077B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

To comprehensively analyze a consumer's willingness to purchase by grasping in-front-of-racks psychology and in-front-of-racks behavior of a user, and implement humanoid-robot based assistance on purchasing.SOLUTION: The purchase assisting system includes: a commodity display rack system including a sensing unit including a first sensor device for acquiring a face image of a consumer located in front of a commodity display rack, and a second sensor device for acquiring a movement of the consumer for commodities on the commodity display rack; an attendance robot that performs an utterance and/or an action regarding attendance to a consumer; and a management device that receives each sensor detection information acquired by the sensing unit and determines willingness of the consumer to purchase. The management device identifies an in-front-of-racks psychological pattern on the basis of an expression and line of sight of the consumer which are detected from the face image, identifies an in-front-of-racks behavioral pattern on the basis of the movement of the consumer for a commodity, and determines a purchase willingness pattern of the consumer corresponding to each of these patterns.SELECTED DRAWING: Figure 3

Description

本発明は、商品陳列棚に対する消費者の購買意欲を総合的に分析し、人型ロボットによる接客サービスを提供する購買支援技術に関する。   The present invention relates to a purchasing support technology for comprehensively analyzing consumers' willingness to purchase merchandise display shelves and providing customer service by a humanoid robot.

特許文献に1,2に記載のように、消費者に対して広告情報などを表示して購買意欲を促進させる技術が提案されている。   As described in Patent Documents 1 and 2, techniques have been proposed in which advertising information and the like are displayed to consumers to promote purchase motivation.

特開2015−88166号公報Japanese Patent Laying-Open No. 2015-88166 特開2015−156211号公報JP2015-156211A

しかしながら、特許文献1,2に記載のような従来の技術は、商品を手に取る動作や視線を検出するなどして、消費者の行動に応じた商品表示を行っているものの、その行動の一部分しか検出していないため、消費者の心理や購買意欲を総合的に把握するものではなく、消費者の心理や行動に適した情報の提供を行うことができなかった。   However, conventional techniques such as those described in Patent Documents 1 and 2 display the product according to the consumer's behavior by detecting the movement and line of sight of the product. Since only a part is detected, it is not possible to comprehensively grasp the consumer's psychology and willingness to purchase, and cannot provide information suitable for the consumer's psychology and behavior.

さらに、特許文献1,2に記載のような技術では、消費者は、商品陳列棚を通じて購買意欲を高める商品表示や演出を受けることはできるが、接客サービスを受けるには、実際に店員に問い合わせる必要があった。この場合、消費者は、近くに店員がいないときは店員を探さなければならない。また、店員によっては接客サービスの内容が変わることがあり、消費者の心理や購買意欲に応じた接客サービスを受けられない場合が生じていた。   Furthermore, in the technologies as described in Patent Documents 1 and 2, consumers can receive product display and effects that increase purchase motivation through the product display shelf, but in order to receive customer service, they actually ask the store clerk. There was a need. In this case, the consumer must search for a clerk when there is no clerk nearby. In addition, depending on the store clerk, the contents of the customer service may change, and there is a case in which the customer service according to the consumer's psychology and purchase intention cannot be received.

そこで、本発明の目的は、商品陳列棚に対するユーザの棚前心理及び棚前行動を把握して消費者の購買意欲を総合的に分析し、人型ロボットによる接客サービスを提供する購買支援システムを提供することにある。   Therefore, an object of the present invention is to provide a purchasing support system for providing a customer service by a humanoid robot by comprehensively analyzing consumers' willingness to purchase by grasping the user's pre-shelf psychology and pre-shelf behavior with respect to the merchandise display shelf. It is to provide.

(1)本発明の購買支援システムは、商品陳列棚と、棚前に位置する消費者の顔画像を取得する第1センサ機器と、商品陳列棚に陳列された商品に対する消費者の動きを取得する第2センサ機器とを含み、商品陳列棚に設けられるセンシングユニットと、を備える商品陳列棚システムと、消費者への接客に関する発話及び/又は動作を行う接客ロボットと、ネットワークを介して前記商品陳列棚システムと接続され、前記センシングユニットで取得された各センサ検出情報を受信して消費者の購買意欲を判別する管理装置と、を有する。 (1) The purchase support system of the present invention acquires a commodity display shelf, a first sensor device that acquires a consumer's face image located in front of the shelf, and a consumer's movement with respect to the commodity displayed on the commodity display shelf. A product display shelf system including a sensing unit provided on a product display shelf, a customer service robot that performs speech and / or operations related to customer service, and the product via a network. A management device that is connected to the display shelf system and receives each sensor detection information acquired by the sensing unit to determine a consumer's willingness to purchase.

前記管理装置は、前記顔画像から検出される消費者の表情及び視線に基づいて棚前心理パターンを特定し、かつ商品に対する消費者の動きに基づいて棚前行動パターンを特定し、特定された前記棚前心理パターン及び前記棚前行動パターンに対応する消費者の購買意欲パターンを判別する分析制御部と、複数の前記購買意欲パターン毎に前記接客ロボットに行わせる前記接客に関する発話及び/又は動作を規定した接客制御情報をそれぞれ記憶する記憶部と、判別された前記購買意欲パターンに応じた前記接客制御情報を選択し、選択された前記接客制御情報を提供するコンテンツ制御部と、を有する。   The management device identifies a pre-shelf psychological pattern based on a consumer's facial expression and line of sight detected from the face image, and identifies a pre-shelf behavior pattern based on a consumer's movement with respect to the product An analysis control unit for discriminating a consumer's purchase willing pattern corresponding to the pre-shelf psychological pattern and the pre-shelf behavior pattern, and utterances and / or actions related to the customer service to be performed by the customer service robot for each of the plurality of purchase willing patterns. And a content control unit that selects the customer service control information according to the determined purchase willingness pattern and provides the selected customer service control information.

(2)上記(1)において、前記記憶部は、消費者の前記棚前心理パターン及び/又は前記棚前行動パターンごとの前記各接客制御情報をそれぞれ記憶しており、前記コンテンツ制御部は、特定された前記棚前心理パターンに応じた前記接客制御情報及び/又は特定された前記棚前行動パターンに応じた前記接客制御情報を選択し、前記棚前心理パターン及び/又は前記棚前行動パターンに応じた前記接客制御情報を提供するように構成することができる。 (2) In the above (1), the storage unit stores the customer service control information for each consumer's pre-shelf psychological pattern and / or the pre-shelf behavior pattern, and the content control unit includes: The customer service control information corresponding to the identified pre-shelf psychological pattern and / or the customer service control information corresponding to the identified pre-shelf behavior pattern is selected, and the pre-shelf psychological pattern and / or the pre-shelf behavior pattern It is possible to provide the customer service control information according to the situation.

(3)上記(1)又は(2)において、前記接客制御情報は、複数の言語別の発話情報を含むことができ、前記管理装置は、前記接客ロボット又は前記商品陳列棚システムを介して収集された消費者の発話音声に基づいて消費者の使用言語を判別し、前記コンテンツ制御部は、判別された前記使用言語に応じた前記発話情報を含む前記接客制御情報を選択して提供するように構成することができる。 (3) In the above (1) or (2), the customer service control information may include utterance information in a plurality of languages, and the management device collects the service via the customer service robot or the product display shelf system. The language used by the consumer is determined based on the uttered voice of the consumer, and the content control unit selects and provides the customer service control information including the utterance information according to the determined language used. Can be configured.

(4)上記(1)から(3)において、前記分析制御部は、前記顔画像から消費者の性別、年齢層を含む消費者属性を所定の顔認識処理に基づいて抽出し、前記顔画像及び前記消費者属性が関連付けられたユーザプロファイル情報を生成して前記記憶部に記憶するとともに、前記顔画像に基づくパターンマッチングを行って前記記憶部に記憶された前記ユーザプロファイル情報を特定し、商品陳列棚が設置された店舗への来店履歴と、店舗の販売履歴を管理する所定の販売管理システムから取得される商品陳列棚に陳列された商品の購買履歴とを、特定された前記ユーザプロファイル情報に関連付けて記憶することができる。そして、前記コンテンツ制御部は、前記ユーザプロファイル情報に基づく消費者の前記性別、前記年齢層、前記来店履歴及び前記購買履歴のいずれか1つ又は2以上の組み合わせに基づいて、前記接客制御情報を選択し、選択された前記接客制御情報を提供するように構成することができる。 (4) In the above (1) to (3), the analysis control unit extracts a consumer attribute including a sex and an age group of a consumer from the face image based on a predetermined face recognition process, and the face image And the user profile information associated with the consumer attribute is generated and stored in the storage unit, and the user profile information stored in the storage unit is specified by performing pattern matching based on the face image, The user profile information in which the store visit history to the store where the display shelf is installed and the purchase history of the product displayed on the product display shelf acquired from a predetermined sales management system for managing the store sales history are specified Can be stored in association with Then, the content control unit determines the customer service control information based on any one or a combination of the gender, the age group, the store visit history, and the purchase history of the consumer based on the user profile information. It is possible to select and provide the selected customer service control information.

(5)上記(1)から(3)において、前記分析制御部は、前記顔画像が関連付けられたユーザプロファイル情報を生成して前記記憶部に記憶するとともに、前記顔画像に基づくパターンマッチングを行って前記記憶部に記憶された前記ユーザプロファイル情報を特定し、店舗の販売履歴を管理する所定の販売管理システムから取得される商品陳列棚に陳列された商品の購買履歴を前記ユーザプロファイル情報に関連付けて記憶することができる。そして、前記人型ロボットを制御させるための前記接客制御情報の送信処理の結果と前記購買履歴とに基づいて、商品の購買に繋がった前記送信処理の結果を消費者の前記棚前心理パターン、前記棚前行動パターン、及び前記購買意欲毎に評価する学習制御部をさらに備えるように構成することができる。 (5) In the above (1) to (3), the analysis control unit generates user profile information associated with the face image, stores the user profile information in the storage unit, and performs pattern matching based on the face image. The user profile information stored in the storage unit is specified, and a purchase history of a product displayed on a product display shelf acquired from a predetermined sales management system that manages a sales history of a store is associated with the user profile information Can be remembered. And, based on the result of the process of transmitting the customer service control information for controlling the humanoid robot and the purchase history, the result of the transmission process that led to the purchase of goods is the consumer's pre-shelf psychological pattern, It can comprise so that the learning control part evaluated for every said before-shelf action pattern and the said purchase willingness may be provided.

(6)上記(5)において、前記学習制御部は、前記接客ロボット又は前記商品陳列棚システムを介して収集された消費者の発話音声に基づく使用言語別に、商品の購買に繋がった前記送信処理の結果を消費者の前記棚前心理パターン、前記棚前行動パターン、及び前記購買意欲毎に評価するように構成することができる。 (6) In the above (5), the learning control unit may transmit the product according to the language used based on the utterance voice of the consumer collected via the customer service robot or the product display shelf system. Can be configured to evaluate each of the consumer's pre-shelf psychological pattern, the pre-shelf behavior pattern, and the purchase intention.

(7)上記(1)から(5)において、前記センシングユニットは、商品陳列棚に陳列された商品の移動を検出する第3センサ機器をさらに備えることができ、前記分析制御部は、前記第2センサ機器及び前記第3センサ機器のセンサ検出情報を組み合わせて消費者が特定の商品を手に取ったか否かを前記棚前行動パターンとして特定するように構成することができる。 (7) In the above (1) to (5), the sensing unit may further include a third sensor device that detects the movement of a product displayed on a product display shelf, and the analysis control unit includes the first sensor unit. The sensor detection information of the two-sensor device and the third sensor device can be combined to specify whether the consumer has picked up a specific product as the pre-shelf behavior pattern.

(8)上記(1)から(7)において、前記接客ロボットは、前記第1センサ機器に相当する第4センサ機器と、前記第2センサ機器に相当する第5センサ機器と、をさらに備えることができ、前記管理装置は、前記センシングユニットで取得された各センサ検出情報に代わり、前記第4センサ機器及び前記第5センサ機器で取得された各センサ検出情報を前記接客ロボットから直接に、または前記接客ロボットと接続される前記商品陳列棚システムを経由して受信し、消費者の前記購買意欲を判別するように構成することができる。 (8) In the above (1) to (7), the customer service robot further includes a fourth sensor device corresponding to the first sensor device and a fifth sensor device corresponding to the second sensor device. The management device can replace each sensor detection information acquired by the sensing unit directly with each sensor detection information acquired by the fourth sensor device and the fifth sensor device from the service robot, or The product can be received via the merchandise display shelf system connected to the customer service robot, and the consumer's willingness to purchase can be determined.

本発明によれば、商品陳列棚に対するユーザの棚前心理及び棚前行動を把握して消費者の購買意欲を総合的に分析し、人型ロボットによる接客サービスを伴う購買支援を行うことができる。   According to the present invention, it is possible to comprehensively analyze the consumer's willingness to purchase by grasping the user's pre-shelf psychology and pre-shelf behavior with respect to the merchandise display shelf, and to perform purchase support with customer service by a humanoid robot. .

第1実施形態の人型ロボットによる接客サービスを提供する購買支援システムの構成図である。It is a block diagram of the purchase assistance system which provides the customer service by the humanoid robot of 1st Embodiment. 第1実施形態の購買支援システムを構成する商品陳列棚システム、人型ロボット及び管理装置の構成ブロック図である。1 is a configuration block diagram of a merchandise display shelf system, a humanoid robot, and a management device that constitute a purchase support system of a first embodiment. 第1実施形態の購買支援方法に含まれるセンシングユニット機能、アナリティクスユニット機能、出力ユニット機能及び人型ロボットの接客機能を説明するための図である。It is a figure for demonstrating the sensing unit function, the analytic unit function, the output unit function, and the customer service function of a humanoid robot which are contained in the purchase support method of 1st Embodiment. 第1実施形態のユーザプロファイルの一例を示す図である。It is a figure which shows an example of the user profile of 1st Embodiment. 第1実施形態のユーザ行動(消費者行動)に基づく配信コンテンツ及び人型ロボットの発話/動作の制御例を示す図である。It is a figure which shows the delivery example based on the user action (consumer action) of 1st Embodiment, and the example of control of speech / motion of a humanoid robot. 第1実施形態の棚前心理分析及び棚前行動分析の一例を示す図である。It is a figure which shows an example of the psychological analysis before shelf and the behavior analysis before shelf of 1st Embodiment. 第1実施形態の棚前心理及び棚前行動に基づく購買意欲分析結果と、購買意欲分析結果に対する配信コンテンツパターンの一例を示す図である。It is a figure which shows an example of the delivery content pattern with respect to the purchase willingness analysis result based on the shelf front psychology and the shelf front action of 1st Embodiment, and a purchase willingness analysis result. 第1実施形態の棚前心理及び棚前行動に基づく購買意欲分析結果と、購買意欲分析結果に対する発話/動作パターンの一例を示す図である。It is a figure which shows an example of the speech / action pattern with respect to the purchase willingness analysis result based on the shelf front psychology and the shelf front action of 1st Embodiment, and a purchase willingness analysis result. 第1実施形態の第1フェーズにおけるマッチングによる人型ロボットの制御の一例を示す図である。It is a figure which shows an example of control of the humanoid robot by the matching in the 1st phase of 1st Embodiment. 第1実施形態の第2フェーズにおけるマッチングによる人型ロボットの制御の一例を示す図である。It is a figure which shows an example of control of the humanoid robot by the matching in the 2nd phase of 1st Embodiment. 第1実施形態の第3フェーズにおけるマッチングによる人型ロボットの制御の一例を示す図である。It is a figure which shows an example of control of the humanoid robot by the matching in the 3rd phase of 1st Embodiment. 第1実施形態の商品陳列棚システムと管理装置の処理フローを示す図である。It is a figure which shows the processing flow of the goods display shelf system and management apparatus of 1st Embodiment. 第1実施形態の第1,2フェーズにおける購買支援システム全体の処理フローを示す図である。It is a figure which shows the processing flow of the whole purchase assistance system in the 1st, 2nd phase of 1st Embodiment. 第1実施形態の第3フェーズにおける購買支援システム全体の処理フローを示す図である。It is a figure which shows the processing flow of the whole purchase assistance system in the 3rd phase of 1st Embodiment.

以下、実施形態につき、図面を参照して説明する。   Hereinafter, embodiments will be described with reference to the drawings.

(第1実施形態)
図1から図13は、第1実施形態を示す図である。図1は、本実施形態の商品陳列棚を介した人型ロボットによる購買支援システム(以下、購買支援システムと称する)の構成図である。購買支援システムは、商品陳列棚システム100と人型ロボット(接客ロボットに相当する)200と管理装置(購買支援管理装置に相当する)300とを含んで構成される。商品陳列棚システム100と人型ロボット200とは、有線又は無線で接続される。商品陳列棚システム100と管理装置300とは、IP網などのネットワークを介して、有線又は無線で接続される。
(First embodiment)
1 to 13 are diagrams showing a first embodiment. FIG. 1 is a configuration diagram of a purchase support system (hereinafter referred to as a purchase support system) using a humanoid robot via a product display shelf according to the present embodiment. The purchase support system includes a product display shelf system 100, a humanoid robot (corresponding to a customer service robot) 200, and a management device (corresponding to a purchase support management device) 300. The commodity display shelf system 100 and the humanoid robot 200 are connected by wire or wirelessly. The merchandise display shelf system 100 and the management device 300 are connected by wire or wireless via a network such as an IP network.

図1に示すように、商品陳列棚システム100は、高さ(Z方向)に延びる棚本体部1と、棚本体部1から前方に延設された商品陳列部2A,2B,2Cとで構成される商品陳列棚をベースとしている。複数の商品陳列部2A,2B,2Cは、所定の間隔で高さ方向に離間して配置されている。商品陳列部2A,2B,2Cは、所定の横幅(X方向)及び奥行き(Y方向)を有し、棚本体部1からY方向に突出している。なお、商品陳列部2A,2B,2Cは、商品陳列部2A,2B,2Cの上面が高さ方向に対して下方に傾くように設けることもできる。図1に示す商品陳列棚は一例であり、少なくとも所定の横幅及び奥行きを有する商品陳列エリアが形成された棚であればよい。   As shown in FIG. 1, the product display shelf system 100 includes a shelf main body 1 that extends in the height (Z direction) and product display portions 2A, 2B, and 2C that extend forward from the shelf main body 1. Based product display shelves. The plurality of merchandise display portions 2A, 2B, 2C are spaced apart from each other in the height direction at a predetermined interval. The product display parts 2A, 2B, 2C have a predetermined lateral width (X direction) and depth (Y direction), and protrude from the shelf main body part 1 in the Y direction. The product display parts 2A, 2B, 2C can also be provided such that the upper surfaces of the product display parts 2A, 2B, 2C are inclined downward with respect to the height direction. The product display shelf shown in FIG. 1 is an example, and may be a shelf in which a product display area having at least a predetermined width and depth is formed.

商品陳列棚システム100は、図1に例示するように、カメラ110A(第1センサ機器に相当する),モーションセンサ110B(第2センサ機器に相当する)、静電容量センサ110C(第3センサ機器に相当する)などのセンシングユニット110と、ディスプレイ装置120A,モニタユニット120B、スピーカ120C、香発生装置120Dなどの出力ユニット120と、コントロールユニット130と、が設けられている。   As illustrated in FIG. 1, the commodity display shelf system 100 includes a camera 110A (corresponding to a first sensor device), a motion sensor 110B (corresponding to a second sensor device), and a capacitance sensor 110C (third sensor device). A display unit 120A, a monitor unit 120B, a speaker 120C, an incense generator 120D, and an output unit 120, and a control unit 130.

カメラ110Aは、棚前のユーザ(消費者)を撮影する撮影装置であり、ユーザの静止画や動画を撮影する。モーションセンサ110Bは、赤外線やレーザーを利用した距離画像センサを備えた非接触型のモーションセンサであり、画像内の物体までの距離を検出することができる。距離画像センサとしては、「Light Coding(パターン照射方式)」方式や「TOF(Time of Flight)」方式などがあり、赤外線やレーザーを照射してその反射を読み取ることで距離を測定する。距離画像センサとは別に物体の位置を検出するカメラと組み合わせて、例えば、位置及び距離に基づいて、人物の動きを検出する。   The camera 110 </ b> A is a photographing device that photographs a user (consumer) in front of the shelf, and photographs a user's still image or moving image. The motion sensor 110B is a non-contact type motion sensor including a distance image sensor using infrared rays or a laser, and can detect a distance to an object in the image. As the distance image sensor, there are a “Light Coding (pattern irradiation method)” method and a “TOF (Time of Flight)” method, and the distance is measured by irradiating infrared rays or a laser and reading the reflection. In combination with a camera that detects the position of an object separately from the distance image sensor, for example, the movement of a person is detected based on the position and distance.

カメラ110A及びモーションセンサ110Bは、少なくとも棚前に位置するユーザの上半身を撮影するために、商品陳列棚の上部に設けられている。一方、静電容量センサ110Cは、商品陳列部2A,2B,2Cにおいて商品が載置される上面に設けられる。静電容量センサ110Cは、静電容量形近接センサであり、静電容量センサ110C上に商品が置かれる。ユーザが置かれた商品を手に取ると、静電容量が変化するので、商品陳列棚に置かれた商品の有無を検知することができる。   The camera 110 </ b> A and the motion sensor 110 </ b> B are provided on the upper part of the product display shelf in order to photograph at least the upper body of the user located in front of the shelf. On the other hand, the capacitance sensor 110C is provided on the upper surface on which the product is placed in the product display units 2A, 2B, 2C. The capacitance sensor 110C is a capacitance type proximity sensor, and a product is placed on the capacitance sensor 110C. When the user picks up the product placed on the hand, the capacitance changes, so that the presence or absence of the product placed on the product display shelf can be detected.

本実施形態では、モーションセンサ110Bと静電容量センサ110Cとの組み合わせにより、棚前行動として、ユーザが商品を手に取ったことを精度良く把握することができる。なお、カメラ110A、モーションセンサ110B、又は静電容量センサ110Cのいずれか1つを利用して、ユーザが商品を手に取ったことを把握することも可能である。例えば、カメラ110Aで撮影されたユーザの画像において手に取った商品を検出したり、モーションセンサ110Bで物体として商品を検出しつつ、商品がユーザと共に移動するアクションを検出したり、静電容量センサ110Cで商品の有無を検出したりして、棚前においてユーザが商品を手に取ったことを把握することができる。また、センシングユニット110のセンサ検出情報を任意に組み合わせてユーザが商品を手に取ったことを把握することも可能である。   In the present embodiment, the combination of the motion sensor 110B and the capacitance sensor 110C makes it possible to accurately grasp that the user has picked up the product as a pre-shelf action. It is also possible to grasp that the user has picked up the product using any one of the camera 110A, the motion sensor 110B, and the capacitance sensor 110C. For example, the product picked up in the user's image taken by the camera 110A is detected, the product is detected as an object by the motion sensor 110B, and the action of the product moving with the user is detected. By detecting the presence or absence of a product at 110C, it is possible to grasp that the user has picked up the product in front of the shelf. It is also possible to grasp that the user has picked up the product by arbitrarily combining the sensor detection information of the sensing unit 110.

次に、ディスプレイ装置120Aは、商品陳列棚の上部に設けられ、管理装置300から配信(送信)されるコンテンツを表示する。一方、モニタユニット120Bは、例えば、複数の小型ディスプレイ装置を横並びに並べてユニット化したものである。モニタユニット120Bは、図1に示すように、商品陳列部2A,2B,2Cの端面に設けられ、棚前に位置するユーザに面して配置されている。   Next, the display device 120 </ b> A is provided on the upper part of the merchandise display shelf, and displays content distributed (transmitted) from the management device 300. On the other hand, the monitor unit 120B is, for example, a unit in which a plurality of small display devices are arranged side by side. As shown in FIG. 1, the monitor unit 120 </ b> B is provided on the end surface of the product display portions 2 </ b> A, 2 </ b> B, and 2 </ b> C and is disposed facing the user located in front of the shelf.

スピーカ120Cは、再生された音声データ(音楽、BGM、効果音など)を出力する。音声データは、ディスプレイ装置120Aやモニタユニット120Bに表示されるコンテンツ(映像、画像、文字情報、広告情報)に付随する音声やコンテンツとは関係のない音声が含まれる。香発生装置120Dは、化粧品や香水などの香りや食品の香りなどを出力する。例えば、香りのもととなる香料(原料)を設置すると共に、ファン等の送風装置で香りを送り出すように構成することができる。複数の香料(原料)を予め設置して、例えば、後述するユーザの棚前心理や棚前行動、購買意欲の分析結果に対して、複数の香りを切り替えて送出するようにしてもよい。   The speaker 120C outputs reproduced audio data (music, BGM, sound effects, etc.). The audio data includes audio associated with content (video, image, text information, advertisement information) displayed on the display device 120A and the monitor unit 120B and audio unrelated to the content. The incense generating device 120D outputs a scent of cosmetics and perfume, a scent of food, and the like. For example, a fragrance (raw material) that is a source of scent can be installed and the scent can be sent out by a blower such as a fan. A plurality of fragrances (raw materials) may be installed in advance, and for example, a plurality of scents may be switched and sent in response to the analysis results of the user's pre-shelf psychology, pre-shelf behavior, and purchase intention.

コントロールユニット130は、管理装置300とネットワークを介して接続し、センシングユニット110のセンサ検出情報を管理装置300に伝送し、管理装置300から提供されるコンテンツ(出力制御情報を含む)を受信する。   The control unit 130 is connected to the management apparatus 300 via a network, transmits the sensor detection information of the sensing unit 110 to the management apparatus 300, and receives content (including output control information) provided from the management apparatus 300.

人型ロボット200は、頭部201と、右腕部202A及び左腕部202Bを含む上半身部202と、下半身部203とを有し、それぞれ、人間の身体の各部に対応する。例えば、右腕部202Aと左腕部202Bは、それぞれ、右手部又は左手部を備え、物を指し示したり、掴んだりすることができる。また、下半身部203は、例えば走行機構や歩行機構を備え、人型ロボット200本体を移動させることができる。   The humanoid robot 200 has a head 201, an upper body 202 including a right arm 202A and a left arm 202B, and a lower body 203, each corresponding to each part of the human body. For example, the right arm portion 202A and the left arm portion 202B each include a right hand portion or a left hand portion, and can point to or grasp an object. Further, the lower body 203 includes, for example, a traveling mechanism and a walking mechanism, and can move the main body of the humanoid robot 200.

表示入力装置274は、例えばタッチパネルディスプレイであり、ユーザに対し各種情報を表示したり、ユーザによる情報入力を受け付けたりすることができる。表示入力装置274は、上半身部202に据え付けることができる。また、右腕部202Aや左腕部202Bで、表示入力装置274を人型ロボット200に持たせることもできる。   The display input device 274 is, for example, a touch panel display, and can display various types of information to the user and accept information input by the user. The display input device 274 can be installed on the upper body 202. Further, the humanoid robot 200 can be provided with the display input device 274 with the right arm portion 202A and the left arm portion 202B.

人型ロボット200は、発話することができる。例えば、発話により、ユーザの購買意欲を高めるための商品紹介を行うことができる。また、人型ロボット200は、各部を動作させることにより、人間のような身振り手振りを行うことができる。人型ロボット200は、発話及び/又は動作による販促活動(接客行動)を店頭で行うことができる。販促活動は、例えば、商品の説明やガイダンス、顧客の呼び込み等である。   The humanoid robot 200 can speak. For example, it is possible to introduce products for increasing the user's willingness to purchase by speaking. The humanoid robot 200 can perform gestures like a human by operating each unit. The humanoid robot 200 can perform sales promotion activities (customer interaction behavior) by speaking and / or movement at the store. The sales promotion activities include, for example, product explanations and guidance, customer calls, and the like.

以下、発話及び/又は動作によって消費者に対する接客を行うことを「接客行動」として記載する場合がある。また、発話及び/又は動作による接客行動は、接客制御情報に規定されている。接客制御情報は、発話音声を規定した発話情報と、動作内容を規定した動作情報とを関連付けたものである。人型ロボット200は、接客制御情報に基づいて接客行動を行う。なお、接客行動を「発話/動作」として記載する場合があるが、人型ロボット200が発話と動作の両方を行う場合と、少なくとも一方を行う場合とが含まれるものとする。   Hereinafter, performing customer service to a consumer by utterance and / or action may be described as “customer service behavior”. In addition, customer service behavior by speech and / or action is defined in the customer service control information. The customer service control information is obtained by associating the utterance information defining the utterance voice and the operation information defining the operation content. The humanoid robot 200 performs customer service based on the customer service control information. Although the customer service behavior may be described as “speech / motion”, the case where the humanoid robot 200 performs both speech and motion and the case where at least one of them is performed is included.

人型ロボット200は、商品陳列棚システム100のコントロールユニット130と有線又は無線で接続される。これにより、人型ロボット200は、商品陳列棚100を介して管理装置300と接続される。人型ロボット200は、後述するユーザ言語情報を、商品陳列棚100を介して管理装置300に伝送する。人型ロボット200は、商品陳列棚100を介して接客制御情報を受信する。   The humanoid robot 200 is connected to the control unit 130 of the commodity display shelf system 100 by wire or wirelessly. As a result, the humanoid robot 200 is connected to the management apparatus 300 via the merchandise display shelf 100. The humanoid robot 200 transmits user language information, which will be described later, to the management apparatus 300 via the product display shelf 100. The humanoid robot 200 receives customer service control information via the merchandise display shelf 100.

言い換えると、コントロールユニット130は、人型ロボット200からユーザ言語情報を受信し、管理装置300に伝送する。また、コントロールユニット130は、管理装置300から提供される接客制御情報を受信し、接客制御情報を人型ロボット200に伝送する。   In other words, the control unit 130 receives user language information from the humanoid robot 200 and transmits it to the management apparatus 300. In addition, the control unit 130 receives the customer service control information provided from the management device 300 and transmits the customer service control information to the humanoid robot 200.

図2は、購買支援システムを構成する商品陳列棚システム100、人型ロボット200及び管理装置300の構成ブロック図である。なお、本実施形態の管理装置300は、ネットワークを介して1つ又は複数の商品陳列棚システム100と接続可能である。   FIG. 2 is a configuration block diagram of the commodity display shelf system 100, the humanoid robot 200, and the management device 300 that constitute the purchase support system. Note that the management device 300 of this embodiment can be connected to one or a plurality of product display shelf systems 100 via a network.

商品陳列棚システム100は、上述のようにセンシングユニット110、出力ユニット120及びコントロールユニット130を含んで構成され、コントロールユニット130は、制御装置131、通信装置132、記憶装置133を備えている。通信装置132は、管理装置300との間の通信制御を行うとともに、人型ロボット200との間の通信制御を行う。記憶装置133は、コントロールユニット130での制御に必要な情報や人型ロボット200から伝送される各種情報、管理装置300から伝送される各種情報を記憶する。   The commodity display shelf system 100 includes the sensing unit 110, the output unit 120, and the control unit 130 as described above, and the control unit 130 includes the control device 131, the communication device 132, and the storage device 133. The communication device 132 performs communication control with the management device 300 and also performs communication control with the humanoid robot 200. The storage device 133 stores information necessary for control by the control unit 130, various information transmitted from the humanoid robot 200, and various information transmitted from the management device 300.

制御装置131のセンサ制御部131Aは、センシングユニット110の各センサ機器を制御し、センサ機器それぞれから出力されるセンサ検出情報を収集する。センサ検出情報は、通信装置132を介して管理装置300に送信される。   The sensor control unit 131A of the control device 131 controls each sensor device of the sensing unit 110 and collects sensor detection information output from each sensor device. The sensor detection information is transmitted to the management device 300 via the communication device 132.

出力制御部131Bは、管理装置300から送信されるコンテンツ及び出力制御情報を受信し、出力ユニット120の各出力機器に対する出力制御を行う。また、出力制御部131Bは、ロボット連携部131Cを備える。ロボット連携部131Cは、管理装置300から提供される接客制御情報を受信し、人型ロボット200に出力するための出力制御を行う。   The output control unit 131B receives content and output control information transmitted from the management device 300, and performs output control on each output device of the output unit 120. Further, the output control unit 131B includes a robot cooperation unit 131C. The robot cooperation unit 131 </ b> C receives the customer service control information provided from the management device 300 and performs output control for outputting to the humanoid robot 200.

人型ロボット200は、ロボットシステム220を備える。ロボットシステム220は、制御装置230、通信装置240、記憶装置250、センサ装置(第5センサ機器に相当する)260、入出力ユニット270を含んで構成される。通信装置240は、有線又は無線の通信手段により、商品陳列棚システム100との間の通信制御を行う。   The humanoid robot 200 includes a robot system 220. The robot system 220 includes a control device 230, a communication device 240, a storage device 250, a sensor device (corresponding to a fifth sensor device) 260, and an input / output unit 270. The communication device 240 performs communication control with the merchandise display shelf system 100 by wired or wireless communication means.

記憶装置250は、制御装置230での制御に必要な情報、商品陳列棚システム100から伝送される各種情報、商品陳列棚システム100を介して管理装置300から提供される各種情報を記憶する。また、記憶装置250は、例えば、人型ロボット200の発話において出力する音声(発話情報)を、使用言語毎に格納した言語データベース(後述)を記憶する。   The storage device 250 stores information necessary for control by the control device 230, various information transmitted from the product display shelf system 100, and various information provided from the management device 300 via the product display shelf system 100. Further, the storage device 250 stores, for example, a language database (described later) in which speech (utterance information) output in the speech of the humanoid robot 200 is stored for each language used.

センサ装置260は、例えばモーションセンサ110Bと同様の機能を備え、人型ロボット200に対するユーザの位置や動きを検出する。これにより、人型ロボット200はユーザの位置や動きを把握して接客を行うことができる。また、センサ装置260をモーションセンサ110Bと同様に用いて商品陳列棚に対するユーザの位置や動きを検出することができる。   The sensor device 260 has the same function as the motion sensor 110B, for example, and detects the position and movement of the user with respect to the humanoid robot 200. Thereby, the humanoid robot 200 can grasp the position and movement of the user and serve customers. Further, the position and movement of the user with respect to the merchandise display shelf can be detected using the sensor device 260 in the same manner as the motion sensor 110B.

入出力ユニット270は、スピーカ271、マイク272、カメラ273(第4センサ機器に相当する)及び表示入力装置274を備える。スピーカ271は、人型ロボット200の発話において音声を出力する。マイク272は、ユーザの発話による音声を収集する。カメラ273は、人型ロボット200の前のユーザを撮影する撮影装置であり、カメラ110Aと同様の機能を備える。   The input / output unit 270 includes a speaker 271, a microphone 272, a camera 273 (corresponding to a fourth sensor device), and a display input device 274. The speaker 271 outputs a voice when the humanoid robot 200 speaks. The microphone 272 collects sound generated by the user's utterance. The camera 273 is a photographing device that photographs the user in front of the humanoid robot 200 and has the same function as the camera 110A.

制御装置230のセンサ制御部231は、カメラ273、センサ装置260を制御し、それぞれから出力されるセンサ検出情報を収集する。センサ検出情報は、通信装置240から商品陳列棚システム100を介して管理装置300に送信される。   The sensor control unit 231 of the control device 230 controls the camera 273 and the sensor device 260 and collects sensor detection information output from each. The sensor detection information is transmitted from the communication device 240 to the management device 300 via the product display shelf system 100.

制御装置230のロボット制御部232は、商品陳列棚システム100を介して管理装置300から提供される接客制御情報に基づいて、人型ロボット200の接客行動を制御する。また、ロボット制御部232は、マイク272で収集されたユーザの音声に基づいて、ユーザの使用言語を特定する音声認識処理を実行する。ユーザの使用言語が特定されると、ユーザの使用言語を示す情報であるユーザ言語情報が通信装置240から商品陳列棚システム100を介して管理装置300に送信される。これにより、後述するように、特定されたユーザの使用言語に対応する音声を含む接客制御情報が管理装置300から提供される。ロボット制御部232は、接客制御情報に基づいて、ユーザの使用言語に対応する音声を出力して人型ロボット200の発話を制御するとともに、出力音声に対応する人型ロボット200の動作を制御する。   The robot controller 232 of the control device 230 controls the customer service behavior of the humanoid robot 200 based on the customer service control information provided from the management device 300 via the merchandise display shelf system 100. In addition, the robot control unit 232 executes voice recognition processing for specifying the user's language based on the user's voice collected by the microphone 272. When the user language is specified, user language information, which is information indicating the user language, is transmitted from the communication device 240 to the management device 300 via the product display shelf system 100. Thereby, as will be described later, the customer service control information including the voice corresponding to the specified language used by the user is provided from the management device 300. The robot control unit 232 controls the utterance of the humanoid robot 200 by outputting a voice corresponding to the user's language based on the customer service control information, and controls the operation of the humanoid robot 200 corresponding to the output voice. .

管理装置300は、通信装置310、制御装置320及び記憶装置330を備えている。通信装置310は、商品陳列棚システム100との間の通信制御を行う。記憶装置330は、制御装置320での制御に必要な情報や商品陳列棚システム100から伝送される各種情報、商品陳列棚システム100を介して人型ロボット200から伝送される各種情報を記憶する。   The management device 300 includes a communication device 310, a control device 320, and a storage device 330. The communication device 310 performs communication control with the merchandise display shelf system 100. The storage device 330 stores information necessary for control by the control device 320, various information transmitted from the product display shelf system 100, and various information transmitted from the humanoid robot 200 via the product display shelf system 100.

制御装置320は、分析制御部321、コンテンツ制御部322、及び学習制御部323を含んで構成されている。図3は、本実施形態の購買支援方法に含まれるセンシングユニット機能、アナリティクスユニット機能、出力ユニット機能及び接客機能(発話/動作機能)を説明するための図である。センシングユニット機能及び出力ユニット機能は、商品陳列棚システム100によって実現され、アナリティクスユニット機能は、管理装置300で実現される。接客機能は、人型ロボット200で実現される。   The control device 320 includes an analysis control unit 321, a content control unit 322, and a learning control unit 323. FIG. 3 is a diagram for explaining a sensing unit function, an analytic unit function, an output unit function, and a customer service function (speech / operation function) included in the purchase support method of the present embodiment. The sensing unit function and the output unit function are realized by the merchandise display shelf system 100, and the analytic unit function is realized by the management device 300. The customer service function is realized by the humanoid robot 200.

図3に示すように、分析制御部321は、ユーザ特定処理、棚前心理分析処理、棚前行動分析処理、購買意欲分析処理の各処理を行う。   As illustrated in FIG. 3, the analysis control unit 321 performs each process of a user identification process, a pre-shelf psychological analysis process, a pre-shelf behavior analysis process, and a purchase motivation analysis process.

ユーザ特定処理は、ユーザプロファイル登録・更新処理であり、カメラ110Aで撮影されたユーザの画像データを用いて顔認識処理を行い、ユーザを特定(登録)する。例えば、ユーザの性別や年齢層を顔認識技術で分析し、ユーザプロファイルとして登録することができる。このとき、既に登録されたユーザプロファイルの顔画像とパターンマッチングを行い、新規ユーザかリピーターかを判別することができる。リピーターの場合、来店回数など来店履歴が、ユーザプロファイルとして登録・更新される。   The user identification process is a user profile registration / update process, which performs a face recognition process using the user image data captured by the camera 110A to identify (register) the user. For example, the user's gender and age group can be analyzed by face recognition technology and registered as a user profile. At this time, it is possible to determine whether the user is a new user or a repeater by performing pattern matching with the face image of the already registered user profile. In the case of a repeater, store visit history such as the number of visits is registered and updated as a user profile.

また、ユーザ特定処理では、顔画像データ以外にも、例えばユーザの全身を撮影したり、複数のユーザを撮影したりした画像データを用いて、服装、体型、身長、眼鏡の着用の有無、グループ構成などの外見的特徴を分析し、ユーザプロファイルとして登録・更新することができる。さらに、ユーザ特定処理では、マイク272で収集されたユーザの音声に基づいて音声認識処理を行い、ユーザの使用言語を特定することができる。   In addition, in the user specifying process, in addition to the face image data, for example, image data obtained by photographing the whole body of the user or a plurality of users is used, and clothes, body shape, height, presence / absence of wearing glasses, group Appearance features such as composition can be analyzed and registered and updated as a user profile. Furthermore, in the user specifying process, a voice recognition process can be performed based on the user's voice collected by the microphone 272, and the user's language can be specified.

音声認識処理は、例えば、人型ロボット200の記憶装置250に予め記憶させた、接客制御情報に含まれる音声(発話情報)を使用言語別に格納した言語データベースに基づいて、言語データベースに含まれる音声とユーザの音声をマッチングすることにより、ユーザの使用言語を特定(判別)することができる。例えば、言語データベースには「こんにちは」、「Hello(ハロー)」、「(にんべんに「尓」)好(ニーハオ)」など、同じ意味で使用言語が異なる複数の音声(又は、音声を基にしたテキスト情報)が用意されており、その中からユーザの音声をマッチングし、ユーザの音声により近い音声を選択することで使用言語を特定する。特定されたユーザの使用言語(ユーザ言語情報)は、ユーザプロファイルとして登録することができる。   For example, the voice recognition processing is performed based on a language database stored in advance in the customer service control information stored in the storage device 250 of the humanoid robot 200 and stored in the language database. The user's language can be specified (discriminated) by matching the user's voice. For example, the language database "Hello", "Hello (Hello)", and "(" 尓 "in Hitohen) good (Nihao)", a plurality of speech using different languages in the same sense (or, based on a speech Text information) is prepared, and the user's voice is matched from among them, and the language used is specified by selecting the voice closer to the user's voice. The specified user language (user language information) can be registered as a user profile.

また、音声認識処理によって使用言語を特定することにより、後述するように、特定された使用言語に応じた出力音声(発話情報)を含む接客制御情報を選択し、使用言語に応じた接客制御を行うことができる。   Further, by specifying the language used by the voice recognition process, as described later, customer service control information including output voice (utterance information) corresponding to the specified language used is selected, and customer service control corresponding to the language used is performed. It can be carried out.

図4は、ユーザプロファイルの一例を示す図である。ユーザプロファイルは、ユーザの顔画像データ、性別、年齢層、言語(ユーザ言語情報)、外見的特徴、表情、視線、商品手に取り情報、滞在時間、来店回数、購買履歴などを含んでいる。分析制御部321は、顔認識技術でユーザの性別、年齢層、表情、視線を把握し、ユーザプロファイルに登録する。また、分析制御部321は、上述のように、特定されたユーザの使用言語を把握し、ユーザプロファイルに登録することができる。さらに、後述する棚前行動分析に基づく商品手に取り情報、センシングユニット110を人感センサとして利用して検出した棚前滞在時間、上述した来店回数を登録することができる。   FIG. 4 is a diagram illustrating an example of a user profile. The user profile includes user face image data, gender, age group, language (user language information), appearance characteristics, facial expressions, line of sight, product information, stay time, number of visits, purchase history, and the like. The analysis control unit 321 grasps the gender, age group, facial expression, and line of sight of the user using face recognition technology, and registers them in the user profile. Moreover, the analysis control part 321 can grasp | ascertain the use language of the identified user as mentioned above, and can register it to a user profile. Furthermore, it is possible to register product picking information based on behavior analysis in front of the shelves described later, staying time in front of the shelves detected using the sensing unit 110 as a human sensor, and the number of visits described above.

分析制御部321で実行される顔認識技術は、既知の手法を適用することができる。例えば、特徴点やパターンを用いて顔画像を解析して性別、年齢層、表情などを検出することができる。また、可視カメラや赤外線カメラで撮影されたユーザの顔画像の目(虹彩、角膜、瞳孔)の位置を検出し、検出された目の位置に基づいて、商品陳列部2A,2B,2Cに陳列されたユーザが見ている特定の商品を把握することができる。なお、商品陳列部2A,2B,2Cに陳列された各商品及びその商品の位置情報は、予め記憶装置330に格納しておくことができる。   A known method can be applied to the face recognition technique executed by the analysis control unit 321. For example, gender, age group, facial expression, etc. can be detected by analyzing a face image using feature points and patterns. Further, the position of the eyes (iris, cornea, pupil) of the user's face image taken with a visible camera or infrared camera is detected, and displayed on the product display units 2A, 2B, 2C based on the detected eye position. It is possible to grasp a specific product viewed by the selected user. In addition, each product displayed on the product display units 2A, 2B, and 2C and position information of the product can be stored in the storage device 330 in advance.

購買履歴は、販売管理システム(POSシステム)から取得することができる。例えば、レジ清算時にユーザの顔画像を取得し、販売管理システムは、レジ清算結果(購買した商品を識別する情報)とユーザの顔画像をセットにして、商品陳列棚システム100を介してまたは直接に、管理装置300に送信することができる。なお、ユーザの顔画像は、販売管理システムとは別に管理装置300に送信してもよい。例えば、レジ清算時にレジから販売管理システムにPOS情報が送信されるタイミングに同期させて、レジにてユーザの顔画像を撮影し、管理装置300に送信することができる。管理装置300は、販売管理システムから取得したPOS情報のタイムスタンプと、取得されたユーザの顔画像のタイムスタンプとに基づいて両者を紐付けることができる。   The purchase history can be acquired from a sales management system (POS system). For example, the face image of the user is acquired at the time of checkout settlement, and the sales management system sets the checkout settlement result (information for identifying the purchased product) and the face image of the user as a set via the product display shelf system 100 or directly. To the management device 300. The user's face image may be transmitted to the management apparatus 300 separately from the sales management system. For example, the face image of the user can be taken at the cash register and transmitted to the management device 300 in synchronization with the timing at which the POS information is transmitted from the cash register to the sales management system at the checkout. The management apparatus 300 can associate the two based on the time stamp of the POS information acquired from the sales management system and the acquired time stamp of the face image of the user.

分析制御部321は、レジ清算結果(POS情報)に付随するユーザの顔画像を用いてユーザプロファイルを検索し、該当するユーザプロファイルに、購買した商品を購買履歴として記憶することができる。   The analysis control unit 321 can search the user profile using the user's face image associated with the cashier settlement result (POS information), and store the purchased product as a purchase history in the corresponding user profile.

棚前心理分析処理は、上述した顔認識処理によって特定されたユーザの表情や視線の動きに基づいて商品陳列棚システム100の商品に対するユーザの棚前心理を分析する。   The pre-shelf psychological analysis process analyzes the user's pre-shelf psychology for the product of the product display shelf system 100 based on the user's facial expression and line-of-sight movement identified by the face recognition process described above.

棚前行動分析処理は、モーションセンサ110Bで検出されたユーザ行動と、静電容量センサ110Cで検出された商品の移動とを組み合わせて、ユーザが商品を手に取ったこと(商品手に取り情報)を分析する。商品手に取り情報は、棚前行動として把握される。また、上述のように、商品陳列棚システム100に置かれた商品の位置情報は、予め記憶装置330に記憶しておくことができ、静電容量センサ110Cで検出される商品の位置情報も予め記憶されている。このため、実際に手に取られた商品がどの商品なのかを特定することができる。ユーザプロファイルに登録される商品手に取り情報としては、例えば、「商品Aを手に取った」など、特定商品に対する手に取り行動を把握することができる。   The pre-shelf behavior analysis process combines the user behavior detected by the motion sensor 110B and the movement of the product detected by the capacitance sensor 110C, and the user picks up the product (information on the product hand). ). The information collected by the merchandise hand is grasped as a pre-shelf action. Further, as described above, the position information of the product placed on the product display shelf system 100 can be stored in the storage device 330 in advance, and the position information of the product detected by the capacitance sensor 110C is also stored in advance. It is remembered. For this reason, it is possible to specify which product is the product actually picked up. As the information on the product hand registered in the user profile, for example, it is possible to grasp the action taken on the hand for a specific product such as “I picked up the product A”.

購買意欲分析処理は、棚前心理分析処理による棚前心理分析結果と、棚前行動分析処理による棚前行動分析結果とを用いて、ユーザの購買意欲を分析する処理である。なお、棚前心理、棚前行動及び購買意欲の各分析処理の詳細については、後述する。   The purchase motivation analysis process is a process of analyzing the user's purchase motivation using the pre-shelf psychological analysis result by the pre-shelf psychological analysis process and the pre-shelf behavior analysis result by the pre-shelf behavior analysis process. The details of each analysis process of the pre-shelf psychology, the pre-shelf behavior, and the purchase motivation will be described later.

図5は、ユーザ行動(消費者行動)に基づくコンテンツの配信制御及び人型ロボット200の接客制御の例を示す図である。コンテンツの配信制御及び人型ロボット200の接客制御は、第1〜第3フェーズの段階で制御が進行する。第1フェーズは、棚前に来たユーザを特定し、ユーザ特定結果(ユーザ特性)に基づく制御を行う段階である。第2フェーズは、ユーザの棚前心理及び棚前行動を分析し、棚前心理分析結果及び棚前行動分析結果に基づく制御を行う段階である。第3フェーズは、購買意欲分析結果に基づく制御を行う段階である。   FIG. 5 is a diagram illustrating an example of content distribution control based on user behavior (consumer behavior) and customer service control of the humanoid robot 200. Control of content distribution control and customer service control of the humanoid robot 200 proceeds in stages of the first to third phases. The first phase is a stage in which the user who came in front of the shelf is specified and control is performed based on the user specifying result (user characteristic). The second phase is a stage in which the user's pre-shelf psychology and pre-shelf behavior are analyzed, and control is performed based on the pre-shelf psychological analysis result and the pre-shelf behavior analysis result. The third phase is a stage in which control is performed based on the purchase intention analysis result.

コンテンツ制御部322は、ユーザ特性、棚前心理分析結果、棚前行動分析結果、購買意欲分析結果を複合的に用いて、商品陳列棚システム100に提供するコンテンツ及び出力制御情報と、人型ロボット200に提供する接客制御情報とを抽出して送信する。   The content control unit 322 uses the user characteristics, the pre-shelf psychological analysis result, the pre-shelf behavior analysis result, and the purchase motivation analysis result in combination to provide the content and output control information to the product display shelf system 100, and a humanoid robot. The customer service control information provided to 200 is extracted and transmitted.

図5に示すように、ユーザが商品陳列棚システム100の前(棚前)に来ると、モーションセンサ110Bのセンサ検出情報に基づいて、ユーザが棚前に存在していることを把握する。このとき、カメラ110Aでユーザの顔画像を撮影し、顔認識情報を用いてユーザを特定しつつ、ユーザの表情及び視線を把握する。また、上述したようにカメラ110Aによる撮影でユーザの外見的特徴を把握する。一方、人型ロボット200は、発話促進アクション(後述)により、ユーザの発話を促進し、発話したユーザの使用言語を音声認識処理で把握する。   As shown in FIG. 5, when the user comes in front of the merchandise display shelf system 100 (in front of the shelf), it is grasped that the user exists in front of the shelf based on the sensor detection information of the motion sensor 110B. At this time, a user's face image is image | photographed with camera 110A, a user's facial expression and eyes | visual_axis are grasped | ascertained, specifying a user using face recognition information. In addition, as described above, the appearance characteristics of the user are grasped by photographing with the camera 110A. On the other hand, the humanoid robot 200 promotes the user's utterance by an utterance promoting action (described later), and grasps the language used by the user who uttered the speech using speech recognition processing.

第1フェーズでは、ユーザの顔画像に基づくマッチングによりユーザプロファイルを特定する。ユーザプロファイルが存在する場合、既知のユーザとして、ユーザプロファイルの購買履歴を用いて商品候補を抽出し、抽出された商品候補に関係するコンテンツ(商品情報)と接客制御情報を選択する。コンテンツは、商品陳列棚システム100に送信され、接客制御情報は商品陳列棚システム100を介して人型ロボット200に送信される。   In the first phase, the user profile is specified by matching based on the face image of the user. When a user profile exists, as a known user, a product candidate is extracted using the purchase history of the user profile, and content (product information) and customer service control information related to the extracted product candidate are selected. The content is transmitted to the product display shelf system 100, and the customer service control information is transmitted to the humanoid robot 200 via the product display shelf system 100.

一方、ユーザプロファイルが存在しない場合、新規ユーザであるとして、撮影画像(ユーザの顔画像、全身画像を含む)から把握される性別、年齢層、外見的特徴、人型ロボット200によって把握されるユーザの使用言語に適した商品候補を抽出し、抽出された商品候補に関係するコンテンツと接客制御情報を選択する。上記と同様に、コンテンツは、商品陳列棚システム100に送信され、接客制御情報は商品陳列棚システム100を介して人型ロボット200に送信される。   On the other hand, if the user profile does not exist, it is assumed that the user is a new user, and the gender, age group, appearance feature, and user who is grasped by the humanoid robot 200 are grasped from the captured image (including the user's face image and whole body image). Product candidates suitable for the language used are extracted, and contents and customer service control information related to the extracted product candidates are selected. Similarly to the above, the content is transmitted to the product display shelf system 100, and the customer service control information is transmitted to the humanoid robot 200 via the product display shelf system 100.

このように、特定されたユーザプロファイルに基づくコンテンツ及び接客制御情報の送信は、ユーザプロファイルに基づく消費者(ユーザ)の性別、年齢層、外見的特徴、言語、来店履歴及び購買履歴のいずれか1つ又は2以上の組み合わせに基づいて、コンテンツと接客制御情報を選択し、コンテンツを出力ユニットに表示させたり、人型ロボット200の接客行動を制御したりするための送信処理を行うように構成することができる。例えば、来店回数が5回以上の女性リピーターの場合、来店回数が5回未満の女性リピーターや男性ユーザよりも、限定商品の優先予約情報を提供したり、高い割引が受けられるお得情報を提供したりすることができる。   As described above, the content based on the specified user profile and the customer service control information are transmitted by any one of the gender, age group, appearance feature, language, store visit history, and purchase history of the consumer (user) based on the user profile. Based on one or a combination of two or more, the content and the customer service control information are selected, and the content is displayed on the output unit, or the transmission process for controlling the customer service behavior of the humanoid robot 200 is performed. be able to. For example, for female repeaters who have visited the store more than 5 times, offer preferential reservation information for limited items or offer discounted deals over female repeaters and male users who have visited less than 5 times You can do it.

また、管理装置300の記憶部330には、商品陳列棚システム100に提供する情報及び人型ロボット200に提供する情報が格納されており、それぞれ、コンテンツ及び接客制御情報として提供される。例えば、購買履歴に商品に対して候補の商品を予め選定しておいたり、性別、年齢層、外見的特徴、言語毎に候補商品を予め選定しておいたりして、コンテンツと接客制御情報を蓄積しておくことができる。   The storage unit 330 of the management apparatus 300 stores information provided to the product display shelf system 100 and information provided to the humanoid robot 200, and is provided as content and customer service control information, respectively. For example, by selecting candidate products for the purchase history in advance, selecting candidate products for each gender, age group, appearance feature, and language, the content and customer service control information Can be accumulated.

第2フェーズでは、ユーザの視線情報に基づいて、例えば、商品Bを見ていると把握することができる。そこで、視線情報に基づいてユーザが見ている商品を特定し、特定された商品Bの商品説明情報や広告情報を抽出して商品陳列棚システム100に送信することができる。このとき、実際にユーザが見ている商品Bに関連する商品説明情報や広告情報の表示において、エフェクト(強調や装飾)表示を行うように、出力(表示)制御情報を商品陳列棚システム100に送信することができる。   In the second phase, based on the user's line-of-sight information, for example, it can be grasped that the product B is being viewed. Therefore, the product viewed by the user can be specified based on the line-of-sight information, and the product description information and advertisement information of the specified product B can be extracted and transmitted to the product display shelf system 100. At this time, output (display) control information is sent to the product display shelf system 100 so as to display an effect (emphasis or decoration) in the display of product description information and advertisement information related to the product B actually viewed by the user. Can be sent.

また、第2フェーズでは、棚前のユーザ行動として、商品を手に取ったかを把握することができる。商品手に取り情報に基づいて、手に取った商品Aに関連するコンテンツを抽出して商品陳列棚システム100に送信したり、手に取った商品Aに関連するお得情報を抽出して商品陳列棚システム100に送信したりすることができる。お得情報とは、例えば、商品Aと同時購入するとお得な(割引適用を受けることができたり、組み合わせ効果が高い)商品Cを推薦する情報である。   In the second phase, it is possible to grasp whether the product is picked up as the user action before the shelf. Based on the information picked up by the product hand, the content related to the product A picked up is extracted and transmitted to the product display shelf system 100, or the profit information related to the product A picked up is extracted and the product is extracted. Or transmitted to the display shelf system 100. The profit information is, for example, information that recommends a product C that can be purchased at the same time as the product A (a discount can be applied or a combination effect is high).

第3フェーズでは、表情及び視線による棚前心理及び商品手に取り情報による棚前行動に基づいて、ユーザの購買意欲を分析し、分析された購買意欲に関連するコンテンツを抽出して商品陳列棚システム100に送信する。ユーザの購買意欲に基づくコンテンツ配信及び表示制御は、例えば表示中のコンテンツを、購買意欲を後押しするようなコンテンツに切り替えたり、表示中のコンテンツをエフェクト処理して表示したり、音楽や音声を流したり、お得情報の追加表示したりなどが含まれる。   In the third phase, the user's willingness to purchase is analyzed based on the pre-shelf psychology by facial expression and line of sight, and the pre-shelf behavior by the product information, and the content related to the analyzed purchasing motivation is extracted and the product display shelf To system 100. Content distribution and display control based on the user's willingness to purchase, for example, switching the displayed content to content that encourages the willingness to purchase, processing the displayed content with effects, and playing music and audio Or additional display of deals.

このように本実施形態では、商品陳列棚システム100の棚前ユーザアクションに基づいて、単に広告やお得情報を表示するだけではなく、ユーザの棚前心理及び棚前行動を把握して、ユーザの購買意欲に適したきめ細やかなコンテンツ配信及び表示制御を行う。   As described above, in this embodiment, based on the user action in front of the shelf of the product display shelf system 100, not only the advertisement and the profit information are displayed, but the user's mentality in front of the shelf and the action in front of the shelf are grasped, and the user Detailed content distribution and display control suitable for customers' willingness to purchase.

ユーザの棚前心理や購買意欲を総合的に把握するためには、1つのセンサ機器では不十分であり、本実施形態の商品陳列棚システム100は、複数のセンサ機器を含むセンシングユニット110を備えており、ユーザの棚前心理や購買意欲を総合的に把握している。   One sensor device is insufficient to comprehensively grasp the user's pre-shelf psychology and willingness to purchase, and the product display shelf system 100 of this embodiment includes a sensing unit 110 including a plurality of sensor devices. And comprehensively grasp the user's pre-shelf psychology and willingness to purchase.

本実施形態の購買支援システムは、1つのセンサ機器に依存せずに、複数のセンサ機器を備えるセンシングユニット110で、消費者の属性(プロファイル)、棚前心理(心理状況)及び棚前行動を把握して管理装置300に送信し、管理装置300のアナリティクスユニットで、商品陳列棚システム100の棚前のユーザの心理状況及び行動を分析してユーザの購買意欲を総合的に抽出する。そして、ユーザの心理状況や行動から総合的に把握された購買意欲に対して購買を促すコンテンツを、商品陳列棚システム100の出力ユニット120を介して提供し、ユーザの購買行動を促進させることができる。   The purchase support system according to the present embodiment is not dependent on a single sensor device, but is a sensing unit 110 including a plurality of sensor devices. The consumer attribute (profile), pre-shelf psychology (psychological situation), and pre-shelf behavior are determined. It is grasped and transmitted to the management apparatus 300, and the analytic unit of the management apparatus 300 analyzes the psychological state and behavior of the user in front of the shelves of the product display shelf system 100 to comprehensively extract the user's willingness to purchase. Then, it is possible to provide the content that prompts the purchase to the purchase motivation comprehensively grasped from the user's psychological state and behavior through the output unit 120 of the merchandise display shelf system 100 to promote the purchase behavior of the user. it can.

一方、ロボット制御部232は、商品陳列棚システム100を介して管理装置300から提供される接客制御情報に基づいて、人型ロボット200を制御する。接客制御情報は、ユーザ特性、棚前心理分析結果、棚前行動分析結果、購買意欲分析結果のそれぞれに対応する人型ロボット200の発話/動作を制御するための情報であり、管理装置300の記憶装置330に格納された接客制御情報データベースから抽出される。   On the other hand, the robot control unit 232 controls the humanoid robot 200 based on the customer service control information provided from the management device 300 via the product display shelf system 100. The customer service control information is information for controlling the speech / motion of the humanoid robot 200 corresponding to each of the user characteristics, the pre-shelf psychological analysis result, the pre-shelf behavior analysis result, and the purchase intention analysis result. It is extracted from the customer service control information database stored in the storage device 330.

第1フェーズでは、ユーザが棚前に存在していることが把握されると、人型ロボット200は、ユーザに発話させるための発話促進アクションを行う。発話促進アクションでは、例えば、人型ロボット200がユーザに対し「喋って下さい」等と発話し、ユーザの発話を待機する。   In the first phase, when it is determined that the user exists in front of the shelf, the humanoid robot 200 performs an utterance promotion action for causing the user to utter. In the utterance promotion action, for example, the humanoid robot 200 utters “Please speak” to the user and waits for the user's utterance.

ユーザが発話すると、人型ロボット200は、音声認識処理により、ユーザの使用言語を特定し、ユーザの使用言語に対応する音声で発話を行う。また、音声認識処理以外の方法でユーザの使用言語を特定してもよい。例えば、表示入力装置274に使用言語一覧を表示させ、ユーザに選択させることによってユーザの使用言語を特定してもよい。   When the user speaks, the humanoid robot 200 identifies the language used by the user by voice recognition processing, and speaks with a voice corresponding to the language used by the user. The language used by the user may be specified by a method other than the voice recognition process. For example, the user's language may be specified by displaying a list of languages used on the display input device 274 and allowing the user to select.

人型ロボット200は、ユーザ言語情報を、商品陳列棚システム100を介して管理装置300に提供する。これにより、管理装置300がユーザの性別、年齢層、外見的特徴に加え、言語を把握し、上述のように抽出された接客制御情報を人型ロボット200に提供する。これにより、人型ロボット200は、ユーザ特性に対応する発話/動作を行うことができる。   The humanoid robot 200 provides user language information to the management apparatus 300 via the merchandise display shelf system 100. Thereby, the management apparatus 300 grasps the language in addition to the user's sex, age group, and appearance characteristics, and provides the humanoid robot 200 with the customer service control information extracted as described above. Thereby, the humanoid robot 200 can perform an utterance / motion corresponding to the user characteristic.

なお、接客制御情報に含まれる動作の内容は、使用言語ごとに設定することもできる。例えば、特定された言語が日本語である場合、人型ロボット200がユーザを誘導する際の動作を、手の甲を上に向けて手首を動かす動作に設定し、一方、特定された言語が英語である場合は、手の平を上に向けて手首を動かす動作に設定することができる。このように、特定された言語により、同じ意味を表す動作でも違う動作を設定することができ、ユーザに応じた動作を行うことができる。   The content of the operation included in the customer service control information can be set for each language used. For example, when the specified language is Japanese, the action when the humanoid robot 200 guides the user is set to the action of moving the wrist with the back of the hand facing up, while the specified language is English. In some cases, it can be set to move the wrist with the palm up. In this way, depending on the specified language, different actions can be set even for actions that represent the same meaning, and actions according to the user can be performed.

第2フェーズでは、人型ロボット200は、ユーザの表情及び視線情報による棚前心理分析結果に対応する発話/動作を行う。例えば、上述のように視線情報に基づいて特定された商品Bの商品説明情報や広告情報とともに、人型ロボット200による商品Bの説明のための接客制御情報を抽出し、抽出された接客制御情報を人型ロボット200に提供することができる。このようにして、棚前心理分析結果に基づいて、商品陳列棚100で商品Bの商品説明情報が強調表示されるのと連動して、人型ロボット200は、棚前心理分析結果に対応する発話/動作で商品Bの商品紹介を行う。   In the second phase, the humanoid robot 200 performs an utterance / motion corresponding to the psychoanalysis result in front of the shelf based on the user's facial expression and line-of-sight information. For example, the customer service control information for explaining the product B by the humanoid robot 200 is extracted together with the product description information and advertisement information of the product B specified based on the line-of-sight information as described above, and the extracted customer service control information Can be provided to the humanoid robot 200. In this way, the humanoid robot 200 responds to the pre-shelf psychological analysis result in conjunction with the product description information of the product B being highlighted on the product display shelf 100 based on the pre-shelf psychological analysis result. Product B is introduced by utterance / motion.

また、第2フェーズでは、人型ロボット200は、ユーザの商品手に取り情報による棚前行動分析結果に対応する発話/動作を行う。例えば、上述のようにユーザが手に取った商品Aに関連するコンテンツや手に取った商品Aに関連するお得情報の抽出とともに、人型ロボット200によって商品Aの説明を行ったり、商品Aに関連するお得情報を伝えたりするための接客制御情報を抽出し、抽出された接客制御情報を人型ロボット200に提供することができる。このようにして、棚前行動分析結果に基づいて、商品陳列棚100で商品Aのコンテンツが表示されたり、手に取った商品Aに関連するお得情報が表示されたりするのと連動して、人型ロボット200は、棚前行動分析結果に対応する発話/動作で商品Aの商品紹介やお得情報の宣伝を行う。   Further, in the second phase, the humanoid robot 200 performs an utterance / action corresponding to the behavior analysis result in front of the shelf based on the information taken by the user's product hand. For example, as described above, content related to the product A taken by the user and profit information related to the product A taken by the user are extracted, and the product A is explained by the humanoid robot 200. It is possible to extract customer service control information for transmitting profit information related to the customer information and provide the extracted customer service control information to the humanoid robot 200. In this way, based on the result of the pre-shelf behavior analysis, the content of the product A is displayed on the product display shelf 100, or the discount information related to the product A taken in hand is displayed. The humanoid robot 200 introduces the product A and advertises the profit information with the utterance / action corresponding to the behavior analysis result in front of the shelf.

第3フェーズでは、人型ロボット200は、表情及び視線情報による棚前心理及び商品手に取り情報による棚前行動に基づく購買意欲分析結果に対応する発話/動作を行う。例えば、上述のように分析された購買意欲に関連するコンテンツの抽出とともに、人型ロボット200が、購買を後押しする割引情報や、他店舗で売り切れが続出している旨を発話/動作で伝えるための接客制御情報を抽出し、抽出された接客制御情報を人型ロボット200に提供することができる。このようにして、購買意欲分析結果に基づいて、商品陳列棚でユーザの購買意欲を後押しするコンテンツが表示されるのと連動して、人型ロボット200は、購買意欲分析結果に対応する発話/動作でユーザの購買を後押しする。   In the third phase, the humanoid robot 200 performs an utterance / motion corresponding to the purchase will analysis result based on the pre-shelf psychology based on the facial expression and line-of-sight information and the pre-shelf behavior based on the product information. For example, together with the extraction of content related to the purchase motivation analyzed as described above, the humanoid robot 200 communicates discount information that encourages purchases and utterances / motions that sellouts continue at other stores. Customer service control information can be extracted, and the extracted customer service control information can be provided to the humanoid robot 200. In this manner, in conjunction with the display of the content that boosts the user's purchase intent on the product display shelf based on the purchase will analysis result, the humanoid robot 200 utters the speech / corresponding to the purchase will analysis result. Drive user purchases with actions.

このように、本実施形態では、ユーザの棚前心理、棚前行動及び購買意欲に応じた接客制御情報に基づいて接客制御を行うことにより、人型ロボットによる接客サービスを提供し、ユーザの購買行動を促進させることができる。   As described above, in the present embodiment, the customer service is provided based on the customer's pre-shelf psychology, the pre-shelf behavior, and the customer service control information according to the purchase motivation, thereby providing the customer service by the humanoid robot. Can promote action.

図6は、本実施形態の棚前心理分析及び棚前行動分析の一例を示す図である。棚前心理分析は、撮影画像を用いてユーザの表情解析及び視線解析を行い、ユーザの表情と視線の両者から、ユーザの棚前心理を分析する。表情解析は、例えば、明るい、迷い、無表情といった表情の特徴点を予めパターン化しておき、ユーザの表情が「明るい」、「迷い」、「無表情」であるかを判別する。この他に「喜び」、「驚き」、「怒り」、「悲しみ」など、多様な表情解析も行うこともできる。   FIG. 6 is a diagram illustrating an example of the pre-shelf psychological analysis and the pre-shelf behavior analysis of the present embodiment. The pre-shelf psychological analysis performs user facial expression analysis and line-of-sight analysis using a photographed image, and analyzes the user's pre-shelf psychology from both the user's facial expression and line of sight. In facial expression analysis, for example, feature points of facial expressions such as bright, confused, and no expression are patterned in advance to determine whether the user's facial expression is “bright”, “confused”, or “no expression”. In addition, various facial expression analysis such as “joy”, “surprise”, “anger”, “sadness” can also be performed.

視線解析は、上述したように検出されるユーザの顔画像の目(虹彩、角膜、瞳孔)の位置が、所定の時間、所定範囲内に位置していれば、視線が一点に集中していると判別したり、所定の時間、所定範囲から外れて位置が上下左右に変動していれば、分散していると判別したりすることができる。   In the line-of-sight analysis, if the position of the eyes (iris, cornea, pupil) of the user's face image detected as described above is within a predetermined range for a predetermined time, the line of sight is concentrated on one point. Or if the position fluctuates up, down, left, and right for a predetermined time, it can be determined that it is dispersed.

棚前心理は、表情解析結果と視線解析結果の組み合わせにより、予めパターン化されており、図6(a)に示すように、棚前心理パターンA〜Eが、予め記憶装置330に記憶されている。分析制御部321は、表情解析結果及び視線解析結果を用いて、予め設定された棚前心理パターンを抽出し、ユーザの棚前心理を特定する。   The pre-shelf psychology is pre-patterned by a combination of the facial expression analysis result and the line-of-sight analysis result, and the pre-shelf psychological patterns A to E are stored in the storage device 330 in advance as shown in FIG. Yes. The analysis control unit 321 uses the facial expression analysis result and the line-of-sight analysis result to extract a pre-shelf psychological pattern that is set in advance and identifies the user's pre-shelf psychology.

棚前行動分析は、上述したように、モーションセンサ110Bで検出されたユーザ行動と、静電容量センサ110Cで検出された商品の移動とを組み合わせて、ユーザの商品手に取り行動(棚前行動パターン)を特定する。例えば、商品を手に取っていない、特定の商品を手に取った、手に取った特定の商品を棚に戻した、などを特定することができる。   As described above, the pre-shelf behavior analysis is performed by combining the user behavior detected by the motion sensor 110B and the movement of the merchandise detected by the capacitance sensor 110C. Pattern). For example, it is possible to specify that a product is not picked up, a specific product is picked up, a specific product picked up is returned to the shelf, and the like.

図7Aは、本実施形態の棚前心理及び棚前行動に基づく購買意欲分析結果と、購買意欲分析結果に対応する配信コンテンツパターンの一例を示す図である。図7Aに示すように、購買意欲は、特定された棚前心理パターン及び棚前行動パターンの組み合わせにより、予めパターン化されており、パターン化された各分析結果が予め記憶装置330に記憶されている。分析制御部321は、棚前心理パターン及び棚前行動パターンを用いて、予め設定された購買意欲分析結果パターンを抽出し、ユーザの購買意欲を特定する。   FIG. 7A is a diagram illustrating an example of a purchase intention analysis result based on the pre-shelf psychology and the pre-shelf behavior of the present embodiment, and a distribution content pattern corresponding to the purchase intention analysis result. As shown in FIG. 7A, the willingness to purchase is pre-patterned by a combination of the specified pre-shelf psychological pattern and pre-shelf behavior pattern, and each analysis result thus patterned is stored in the storage device 330 in advance. Yes. The analysis control unit 321 extracts a purchase intention analysis result pattern set in advance using the pre-shelf psychological pattern and the pre-shelf behavior pattern, and specifies the user's purchase intention.

コンテンツ制御部322は、分析制御部321で特定されたユーザの購買意欲に対応するコンテンツをコンテンツ群から抽出して、商品陳列棚システム100に伝送する。記憶装置330には、購買意欲分析結果と配信するコンテンツとが紐付けられた配信コンテンツパターン(購買支援情報)が予め記憶されており、コンテンツ制御部322は、購買意欲分析結果を用いて配信コンテンツパターンを特定し、該当するコンテンツを記憶装置330に記憶されているコンテンツ群から抽出して商品陳列棚システム100に送信する。   The content control unit 322 extracts content corresponding to the user's willingness to purchase specified by the analysis control unit 321 from the content group, and transmits the content to the product display shelf system 100. The storage device 330 stores in advance a distribution content pattern (purchase support information) in which a purchase intention analysis result and a content to be distributed are linked, and the content control unit 322 uses the purchase intention analysis result to distribute content. The pattern is specified, and the corresponding content is extracted from the content group stored in the storage device 330 and transmitted to the merchandise display shelf system 100.

なお、コンテンツ群に含まれる各コンテンツは、例えば、商品毎にコンテンツ1を複数用意することができ、分析結果1に対応する配信コンテンツパターンは、各商品に個別に設定することができる。したがって、コンテンツ制御部322は、例えば、分析結果1に対応するコンテンツ1を抽出するが、分析制御部321で特定されるユーザが手に取った特定の商品に対応するコンテンツ1をコンテンツ群から抽出して商品陳列棚システム100に送信することができる。   Each content included in the content group can prepare, for example, a plurality of contents 1 for each product, and a distribution content pattern corresponding to the analysis result 1 can be individually set for each product. Therefore, for example, the content control unit 322 extracts the content 1 corresponding to the analysis result 1, but extracts the content 1 corresponding to the specific product picked up by the user specified by the analysis control unit 321 from the content group. Then, it can be transmitted to the merchandise display shelf system 100.

図7Bは、棚前心理及び棚前行動に基づく購買意欲分析結果と、購買意欲分析結果に対応する発話/動作パターンの一例を示す図であり、図7Aと対応している。したがって、商品陳列棚システム100で配信するコンテンツと、接客制御情報に基づいて実行される人型ロボット200の発話/動作は、後述するように連動して行うことができる。   FIG. 7B is a diagram illustrating an example of a purchase willingness analysis result based on the pre-shelf psychology and the pre-shelf behavior and an utterance / action pattern corresponding to the purchase willingness analysis result, and corresponds to FIG. 7A. Therefore, the content delivered by the merchandise display shelf system 100 and the speech / operation of the humanoid robot 200 executed based on the customer service control information can be performed in conjunction with each other as described later.

コンテンツ制御部322は、分析制御部321で特定されたユーザの購買意欲に対応する接客制御情報(発話/動作)を接客制御情報データベースから抽出して、商品陳列棚システム100を介して人型ロボット200に伝送する。記憶装置330には、購買意欲分析結果と人型ロボット200の発話/動作とが紐付けられた発話/動作パターンが予め記憶されており、コンテンツ制御部322は、購買意欲分析結果を用いて発話/動作パターンを特定し、該当する接客制御情報を記憶装置330に記憶されている接客制御情報データベースから抽出して人型ロボット200に送信する。   The content control unit 322 extracts customer service control information (utterance / motion) corresponding to the user's willingness to purchase specified by the analysis control unit 321 from the customer service control information database, and the humanoid robot via the product display shelf system 100 200. The storage device 330 stores in advance an utterance / motion pattern in which the purchase will analysis result and the utterance / motion of the humanoid robot 200 are linked, and the content control unit 322 uses the purchase will analysis result to speak. / The action pattern is specified, and the corresponding customer service control information is extracted from the customer service control information database stored in the storage device 330 and transmitted to the humanoid robot 200.

なお、接客制御情報データベースに含まれる各接客制御情報(発話/動作)は、コンテンツ群に含まれる各コンテンツ同様に、例えば商品ごとに発話/動作1(接客制御情報1)を複数で用意することができ、分析結果1に対応する発話/動作パターンは、各商品に個別に設定することができる。すなわち、コンテンツ制御部322は、例えば、分析結果1に対応する発話/動作1を抽出するが、分析制御部321で特定されるユーザが手に取った特定の商品に対応する発話/動作1をコンテンツ群から抽出して商品陳列棚システムを介して人型ロボット200に送信することができる。   As for each customer service control information (utterance / action) included in the customer service control information database, for example, a plurality of utterances / actions 1 (customer service control information 1) are prepared for each product in the same manner as each content included in the content group. The utterance / motion pattern corresponding to the analysis result 1 can be set individually for each product. That is, for example, the content control unit 322 extracts the utterance / action 1 corresponding to the analysis result 1, but the utterance / action 1 corresponding to the specific product picked up by the user specified by the analysis control unit 321. It can be extracted from the content group and transmitted to the humanoid robot 200 via the product display shelf system.

図8〜図10は、第1〜3フェーズにおける人型ロボット200の接客制御及び配信コンテンツの制御の例を示す図である。   8 to 10 are diagrams showing examples of customer service control and distribution content control of the humanoid robot 200 in the first to third phases.

図8は、第1フェーズにおけるユーザ特性に基づく人型ロボット200の接客制御及び配信コンテンツの制御の例を示す図である。分析制御部321は、性別、年齢層、言語及び外見的特徴の情報を用いて、予め設定されたユーザ特性パターンの中から、ユーザ特性を特定する。   FIG. 8 is a diagram illustrating an example of customer service control and distribution content control of the humanoid robot 200 based on user characteristics in the first phase. The analysis control unit 321 specifies user characteristics from preset user characteristic patterns using information on gender, age group, language, and appearance characteristics.

コンテンツ制御部322は、分析制御部321で特定されたユーザ特性にマッチングする接客制御情報を抽出する。人型ロボット200は、抽出された接客制御情報に基づいて発話/動作を行い、ユーザに対し、商品の興味を喚起する。   The content control unit 322 extracts customer service control information that matches the user characteristics specified by the analysis control unit 321. The humanoid robot 200 speaks / operates based on the extracted customer service control information, and urges the user to be interested in the product.

例えば、特定されたユーザ特性の性別が男性、年齢層が25〜29歳、言語が日本語、外見的特徴がスーツである場合、人型ロボット200は、ユーザ特性パターンを「仕事帰りの男性」パターンとして、対応する発話/動作を行う。このとき、人型ロボット200による発話/動作は、管理装置300の記憶装置330に予め使用言語別に用意された接客制御情報から抽出・送信された、ユーザの使用言語に対応する接客制御情報に基づいて行われる。例えば、特定されたユーザの使用言語が日本語である場合は、日本語に対応する接客制御情報に基づいて発話/動作が行われる。   For example, when the gender of the specified user characteristic is male, the age group is 25 to 29 years old, the language is Japanese, and the appearance characteristic is suit, the humanoid robot 200 sets the user characteristic pattern to “male after work”. The corresponding utterance / action is performed as a pattern. At this time, the speech / motion by the humanoid robot 200 is based on the customer service control information corresponding to the user's language used, extracted and transmitted from the customer service control information prepared for each language used in advance in the storage device 330 of the management device 300. Done. For example, when the language used by the identified user is Japanese, the utterance / action is performed based on the customer service control information corresponding to Japanese.

また、分析制御部321は、上述したように、棚前のユーザについて、既存のユーザプロファイルを参照するか、新規のユーザプロファイルを作成する。コンテンツ制御部322は、ユーザプロファイルに含まれる情報にマッチングする配信コンテンツを抽出する。商品陳列棚100は、抽出された配信コンテンツにより購買促進を行う。   In addition, as described above, the analysis control unit 321 refers to an existing user profile or creates a new user profile for the user in front of the shelf. The content control unit 322 extracts distribution content that matches information included in the user profile. The merchandise display shelf 100 promotes purchases based on the extracted distribution content.

図9は、第2フェーズにおける棚前心理及び棚前行動に基づく人型ロボット200の接客制御及び配信コンテンツの制御の例を示す図である。分析制御部321は、図6に示すように、予め設定された棚前心理パターンの中から、ユーザの棚前心理を特定する。同様に、分析制御部321は、予め設定された棚前行動パターンの中から、ユーザの棚前行動を特定する。   FIG. 9 is a diagram illustrating an example of customer service control and distribution content control of the humanoid robot 200 based on the pre-shelf psychology and the pre-shelf behavior in the second phase. As shown in FIG. 6, the analysis control unit 321 specifies the user's pre-shelf psychology from preset pre-shelf psychological patterns. Similarly, the analysis control unit 321 identifies the user's pre-shelf behavior from preset pre-shelf behavior patterns.

コンテンツ制御部322は、分析制御部321で特定された棚前心理にマッチングする接客制御情報を抽出する。同様に、コンテンツ制御部322は、特定された棚前行動にマッチングする接客制御情報を抽出する。人型ロボット200は、それぞれ抽出された接客制御情報に基づいて発話/動作を行い、ユーザに対し、商品の興味を喚起する。   The content control unit 322 extracts customer service control information that matches the pre-shelf psychology specified by the analysis control unit 321. Similarly, the content control unit 322 extracts customer service control information that matches the specified pre-shelf behavior. The humanoid robot 200 speaks / operates based on the extracted customer service control information, and urges the user to be interested in the product.

例えば、ユーザの視線が特定商品に集中しており、ユーザの表情が迷っている表情のとき、視線解析結果は「集中」、表情解析結果は「迷い」であるとき、棚前心理パターンBが特定され(図6(a)参照)、棚前心理パターンBに対応する接客制御情報が抽出される。これにより、人型ロボット200は、棚前心理パターンBに対応する発話/動作を行う。   For example, when the user's gaze is concentrated on a specific product and the user's facial expression is a lost expression, the gaze analysis result is “concentration”, and the facial expression analysis result is “stuck”, the pre-shelf psychological pattern B is The customer service control information that is specified (see FIG. 6A) and corresponds to the pre-shelf psychological pattern B is extracted. Thereby, the humanoid robot 200 performs an utterance / motion corresponding to the pre-shelf psychological pattern B.

例えば、ユーザの棚前行動(商品手に取り行動)が「商品を手に取った」と判断された場合は、棚前行動パターンYが特定され(図6(b)参照)、棚前行動パターンYに対応する接客制御情報が抽出される。これにより、人型ロボット200は、棚前行動パターンYに対応する発話/動作を行う。   For example, if it is determined that the user's action in front of the shelf (taken by the product) is “taken the product”, the action pattern Y in front of the shelf is specified (see FIG. 6B), and the action in front of the shelf is determined. The customer service control information corresponding to the pattern Y is extracted. Thereby, the humanoid robot 200 performs an utterance / motion corresponding to the behavior pattern Y before the shelf.

また、コンテンツ制御部322は、特定された棚前心理にマッチングする配信コンテンツを抽出し、商品陳列棚100は、抽出された配信コンテンツにより購買促進を行う。同様に、コンテンツ制御部322は、特定された棚前行動にマッチングする配信コンテンツを抽出し、商品陳列棚100は、抽出された配信コンテンツにより購買促進を行う。   In addition, the content control unit 322 extracts distribution content that matches the specified pre-shelf psychology, and the merchandise display shelf 100 promotes purchases based on the extracted distribution content. Similarly, the content control unit 322 extracts distribution content that matches the specified pre-shelf behavior, and the merchandise display shelf 100 promotes purchases based on the extracted distribution content.

図10は、第3フェーズにおける購買意欲に基づく人型ロボット200の接客制御及び配信コンテンツの制御の例を示す図である。分析制御部321は、図7A及び図7Bに示すように、予め設定された購買意欲パターンの中から、ユーザの購買意欲を特定する。   FIG. 10 is a diagram illustrating an example of customer service control and distribution content control of the humanoid robot 200 based on the willingness to purchase in the third phase. As illustrated in FIGS. 7A and 7B, the analysis control unit 321 specifies the user's purchase intention from among preset purchase intention patterns.

コンテンツ制御部322は、分析制御部321で特定された購買意欲にマッチングする接客制御情報を抽出する。人型ロボット200は、抽出された接客制御情報に基づいて発話/動作を行い、ユーザに対し、商品の興味を喚起する。   The content control unit 322 extracts customer service control information that matches the willingness to purchase specified by the analysis control unit 321. The humanoid robot 200 speaks / operates based on the extracted customer service control information, and urges the user to be interested in the product.

例えば、棚前心理パターンA及び棚前行動パターンZに基づく購買意欲分析が行われると、ユーザの購買意欲は分析結果3として特定され(図7B参照)、分析結果3に対応する接客制御情報(発話/動作4)が抽出される。これにより、人型ロボット200は、分析結果3に対応する発話/動作を行うことができる。   For example, when a purchase motivation analysis based on the pre-shelf psychological pattern A and the pre-shelf behavior pattern Z is performed, the user's purchase motivation is specified as the analysis result 3 (see FIG. 7B), and customer service control information (see FIG. 7B) Speech / motion 4) is extracted. Thereby, the humanoid robot 200 can perform an utterance / motion corresponding to the analysis result 3.

同様に、コンテンツ制御部322は、特定された購買意欲にマッチングする配信コンテンツを抽出する。商品陳列棚100は、抽出された配信コンテンツにより購買促進を行う。   Similarly, the content control unit 322 extracts distribution content that matches the specified purchase intention. The merchandise display shelf 100 promotes purchases based on the extracted distribution content.

なお、図8に示すように、第1フェーズでは、特定されたユーザの使用言語に応じた発話/動作を行っているが、図9,図10の第2フェーズ及び第3フェーズでも同様に、使用言語別に用意された接客制御情報ユーザの使用言語に応じた接客を行うことができる。言い換えると、特定されたユーザの棚前心理、棚前行動、購買意欲のそれぞれについて、特定された使用言語に応じて、接客を行うことができる。   As shown in FIG. 8, in the first phase, utterances / actions are performed according to the specified user language, but in the second and third phases of FIGS. Customer service control information prepared for each language used Customer service according to the language used by the user can be performed. In other words, customer service can be performed for each of the specified user's pre-shelf psychology, pre-shelf behavior, and purchase intent according to the specified language of use.

接客制御情報を使用言語別に用意することにより、上述したように、ユーザの使用言語に応じた接客を行うことができる。また、使用言語毎に用意した接客制御情報では、それぞれ、出力する音声と対応する動作の内容を設定することができる。このような設定を可能にすることにより、上述したように、特定されたユーザの使用言語が日本語であったり英語であったりする場合に、特定された言語に応じて、人型ロボット200の動作の内容を様々に設定することができる。   By preparing the customer service control information for each language used, it is possible to perform customer service according to the language used by the user as described above. Further, in the customer service control information prepared for each language used, it is possible to set the content of the operation corresponding to the output voice. By making such a setting possible, as described above, when the specified user's language is Japanese or English, the humanoid robot 200 can be used in accordance with the specified language. Various actions can be set.

図11は、本実施形態の商品陳列棚システム100と管理装置300の処理フローを示す図である。図11に示すように、商品陳列棚システム100は、センシングユニット110の動作制御を行い、センサ検出結果をリアルタイムに収集(取得)し(S101)、センシング情報(センサ検出情報)として管理装置300に送信する(S102)。   FIG. 11 is a diagram illustrating a processing flow of the merchandise display shelf system 100 and the management apparatus 300 according to the present embodiment. As shown in FIG. 11, the merchandise display shelf system 100 controls the operation of the sensing unit 110, collects (acquires) the sensor detection results in real time (S101), and stores them in the management apparatus 300 as sensing information (sensor detection information). Transmit (S102).

なお、商品陳列棚システム100(コントロールユニット130)は、商品陳列棚システム100に近づいてきたユーザが所定範囲内に入ったことを検出し、棚前にユーザがいることが検知されたことをトリガーに、センシングユニット110の動作制御や人型ロボット200及び/又は管理装置300へのセンシング情報の送信制御を行うように構成することもできる。   The product display shelf system 100 (control unit 130) detects that a user approaching the product display shelf system 100 is within a predetermined range, and triggers that a user is detected in front of the shelf. In addition, it may be configured to perform operation control of the sensing unit 110 and transmission control of sensing information to the humanoid robot 200 and / or the management apparatus 300.

管理装置300は、商品陳列棚システム100から受信したユーザの撮影画像を用いて、既に記憶(登録)されているユーザプロファイルの顔画像とマッチングして(S301)、ユーザプロファイルの登録有無を判別する(S302)。ユーザプロファイルが存在しない場合(S302のNO)、管理装置300は、新規ユーザであるとして、ユーザの顔画像から性別、年齢層を算出し(S303)、プロファイルを新規登録する(S304)。また、ステップS303で顔画像以外にもユーザの全身画像を用いて外見的特徴を算出し、ステップS304で外見的特徴をプロファイルとして登録することもできる。また、後述するように、人型ロボット200から提供されたユーザ言語情報をプロファイルとして登録することもできる。   The management apparatus 300 matches the face image of the user profile already stored (registered) using the user's captured image received from the merchandise display shelf system 100 (S301), and determines whether or not the user profile is registered. (S302). If the user profile does not exist (NO in S302), the management apparatus 300 determines that the user is a new user, calculates gender and age from the user's face image (S303), and newly registers the profile (S304). It is also possible to calculate appearance features using the user's whole body image in addition to the face image in step S303, and register the appearance features as a profile in step S304. Further, as described later, user language information provided from the humanoid robot 200 can be registered as a profile.

既にユーザプロファイルが存在するとき(S302のYES)及びユーザプロファイルが新規に登録されたとき、管理装置300は、ユーザプロファイル(ユーザ特性)に基づいてコンテンツ及び接客制御情報を抽出する(S311)。   When a user profile already exists (YES in S302) and when a user profile is newly registered, the management apparatus 300 extracts content and customer service control information based on the user profile (user characteristics) (S311).

次に、ステップS305において上述したユーザの棚前心理を特定し、特定された棚前心理に対応するコンテンツ及び接客制御情報を抽出する(S306)。棚前心理が特定された後に又は棚前心理の特定と共に棚前行動が検知されたとき(S307のYES)、ユーザの棚前行動を特定する(S308)。その後、特定された棚前心理及び棚前行動に基づくユーザの購買意欲を判別し(S309)、判別された購買意欲に基づくコンテンツ及び接客制御情報を抽出する(S310)。このとき、上述したように、ステップS308において特定された棚前行動のみに関連するコンテンツ及び接客制御情報を抽出することもできる。   Next, in step S305, the user's pre-shelf psychology described above is specified, and content and customer service control information corresponding to the specified pre-shelf psychology are extracted (S306). After the pre-shelf psychology is specified or when the pre-shelf behavior is detected (YES in S307), the user's pre-shelf behavior is specified (S308). Thereafter, the user's willingness to purchase based on the specified pre-shelf psychology and pre-shelf behavior is determined (S309), and the content and customer service control information based on the determined purchasing motivation are extracted (S310). At this time, as described above, content and customer service control information related only to the pre-shelf behavior specified in step S308 can also be extracted.

管理装置300は、ユーザプロファイル、棚前心理、棚前行動、及び購買意欲に関連して抽出された各コンテンツ及び各接客制御情報の送信処理(配信処理)を行う(S312)。例えば、抽出されたコンテンツを単一で、又は複数のディスプレイに表示させるための送信処理を行う。また、抽出された接客制御情報に基づいて人型ロボット200に発話/動作を実行させるための送信処理を行う。このとき、接客制御情報は商品陳列棚システム100を介して人型ロボット200に送信される。   The management apparatus 300 performs transmission processing (distribution processing) of each content and each customer service control information extracted in relation to the user profile, the pre-shelf psychology, the pre-shelf behavior, and the purchase intention (S312). For example, a transmission process for displaying the extracted content on a single or a plurality of displays is performed. In addition, a transmission process for causing the humanoid robot 200 to execute speech / motion based on the extracted customer service control information is performed. At this time, the customer service control information is transmitted to the humanoid robot 200 via the merchandise display shelf system 100.

具体的には、モニタユニット120Bの各小型ディスプレイ装置に、各コンテンツを個別に表示したり、図5で説明したように、時系列にユーザプロファイル、棚前心理、棚前行動、及び購買意欲の順に、各コンテンツを切り替えて表示したりすることができる。また、ディスプレイ装置120Aとモニタユニット120Bのそれぞれに、異なるコンテンツを表示することもでき、さらには、モニタユニット120Bを構成する複数の小型ディスプレイ装置それぞれに、異なるコンテンツを表示したり、複数の小型ディスプレイ装置を1つの表示部として、コンテンツを各小型ディスプレイ装置に区画して表示したりすることもできる。   Specifically, each content is individually displayed on each small display device of the monitor unit 120B, or as described in FIG. 5, the user profile, the pre-shelf psychology, the pre-shelf behavior, and the purchase intention In order, each content can be switched and displayed. Further, different contents can be displayed on each of the display device 120A and the monitor unit 120B. Furthermore, different contents can be displayed on each of a plurality of small display devices constituting the monitor unit 120B, or a plurality of small displays can be displayed. It is also possible to display the content divided into each small display device using the device as one display unit.

また、モニタユニット120Bは、複数の小型ディスプレイ装置が横並びに配置されているので、各小型ディスプレイ装置に物語性のある複数のコンテンツを表示したりすることもできる。   In addition, since the monitor unit 120B has a plurality of small display devices arranged side by side, it is also possible to display a plurality of narrative contents on each small display device.

商品陳列棚システム100は、管理装置300から受信したコンテンツを出力ユニット120に表示したり、スピーカ120Cから音楽、音声、効果音などの音を出力させたり、香発生装置120Dから香りを出力させたりする制御(ユーザフェイシング処理)を行う(S103)。これらの表示及び出力制御の制御情報は、管理装置300から送信されるコンテンツと共に又は単独で受信することができる。   The merchandise display shelf system 100 displays the content received from the management device 300 on the output unit 120, outputs sounds such as music, voice, and sound effects from the speaker 120C, and outputs scent from the incense generator 120D. Control (user facing processing) is performed (S103). These display and output control information can be received together with the content transmitted from the management apparatus 300 or alone.

管理装置300は、ステップS312における送信処理後、商品陳列棚システム100から受信するセンシング情報に基づいて、商品陳列棚前のユーザが所定の棚前エリアから離脱しているか否かを判別し(S313)、離脱していない場合(S313のNO)、ステップS305に戻り、リアルタイムで変化するセンシング情報に基づいて、棚前心理、棚前行動及び購買意欲に基づくコンテンツ及び接客制御情報の抽出と送信処理を繰り返し行う。なお、モーションセンサ110Bを人感センサとして用いているが、これに限らず別途の赤外線センサ等の人感センサを備えるように構成してもよい。   After the transmission processing in step S312, the management apparatus 300 determines whether or not the user in front of the product display shelf has left the predetermined front shelf area based on the sensing information received from the product display shelf system 100 (S313). ), If it has not left (NO in S313), the process returns to step S305, and based on the sensing information changing in real time, the content and customer service control information extraction and transmission processing based on the pre-shelf psychology, the pre-shelf behavior, and the purchase intention Repeat. Although the motion sensor 110B is used as a human sensor, the present invention is not limited to this, and a human sensor such as a separate infrared sensor may be provided.

一方、商品陳列棚前のユーザが所定の棚前エリアから離脱していると判別された場合(S313のYES)、ステップS301で特定されたユーザのユーザプロファイルを更新する。例えば、ステップS305で特定された棚前心理、ステップS308で特定された棚前行動をユーザプロファイルに登録する(S314)。また、販売管理システムから取得された商品購入情報に基づいて、ユーザプロファイルの購買履歴に購入した商品を登録する(S315)。そして、ユーザプロファイルの登録・更新後に、センシング情報に基づいて棚前エリアでユーザ(消費者)が検出されるまで待機する(S316)。なお、棚前エリアは、上述したように、棚前にユーザがいることが検知可能な範囲である。   On the other hand, when it is determined that the user in front of the merchandise display shelf has left the predetermined shelf front area (YES in S313), the user profile of the user specified in step S301 is updated. For example, the pre-shelf psychology specified in step S305 and the pre-shelf behavior specified in step S308 are registered in the user profile (S314). Further, based on the product purchase information acquired from the sales management system, the purchased product is registered in the purchase history of the user profile (S315). Then, after registration / update of the user profile, the process waits until a user (consumer) is detected in the front shelf area based on the sensing information (S316). In addition, as above-mentioned, a shelf front area is a range which can detect that a user exists in front of a shelf.

また、ステップS314,S315におけるユーザプロファイルの更新処理では、実際に商品陳列棚システム100に送信されたコンテンツや出力制御情報(コンテンツ配信結果)、人型ロボット200に送信された接客制御情報(人型ロボットによる接客結果)を、ユーザプロファイルに関連付けて記憶装置330に記憶することができる。この処理は、コンテンツ制御部322が行うことができる。   In the user profile update process in steps S314 and S315, the content and output control information (content distribution result) actually transmitted to the product display shelf system 100 and the customer service control information (human type) transmitted to the humanoid robot 200 are displayed. The customer service result) can be stored in the storage device 330 in association with the user profile. This processing can be performed by the content control unit 322.

図12及び図13を参照して、本実施形態の商品陳列棚及び人型ロボットを介した購買支援システム全体の処理フローについて説明する。以下、商品陳列棚システム100は、上述の通り、センサ検出及びセンシング情報の送信(S101,S102)をリアルタイムで行っているものとして説明する。図11と同一のステップ番号を付したものについては上記説明に代えるが、必要に応じて説明を補う。なお、ステップS103A〜Dは、図11のS103に対応している。また、ステップS312A〜Dは、図11のS312に対応している。   With reference to FIG.12 and FIG.13, the processing flow of the whole purchasing assistance system via the goods display shelf and humanoid robot of this embodiment is demonstrated. Hereinafter, the commodity display shelf system 100 will be described as performing sensor detection and sensing information transmission (S101, S102) in real time as described above. The same step numbers as those in FIG. 11 are replaced with the above description, but the description will be supplemented as necessary. Steps S103A to S103D correspond to S103 in FIG. Steps S312A to S3D correspond to S312 in FIG.

図12は、本実施形態の購買支援システムの第1フェーズ及び第2フェーズにおける処理フローを示す図である。第1フェーズでは、商品陳列棚システム100は、商品陳列棚システム100に近づいてきたユーザが所定範囲内に入ったことを検知し、センシング情報として管理装置300及び人型ロボット200に送信する。   FIG. 12 is a diagram showing a processing flow in the first phase and the second phase of the purchase support system of the present embodiment. In the first phase, the merchandise display rack system 100 detects that a user approaching the merchandise display rack system 100 has entered a predetermined range, and transmits it to the management device 300 and the humanoid robot 200 as sensing information.

人型ロボット200は、ユーザが所定範囲内に入ったことを示すセンシング情報を受信すると、発話促進アクションを実行する(S201)。ユーザの発話により、マイク272にユーザの音声が入力されると、人型ロボット200は、音声認識処理を行い、ユーザの使用言語を特定する(S202)。人型ロボット200は、使用言語の特定結果をユーザ言語情報として商品陳列棚システム100を介して管理装置300に送信する。なお、上述したように、表示入力装置274でユーザに使用言語を特定させてもよい。   When the humanoid robot 200 receives sensing information indicating that the user has entered the predetermined range, the humanoid robot 200 executes an utterance promoting action (S201). When the user's voice is input to the microphone 272 due to the user's utterance, the humanoid robot 200 performs voice recognition processing and identifies the user's language (S202). The humanoid robot 200 transmits the specified result of the language used as user language information to the management apparatus 300 via the product display shelf system 100. As described above, the display input device 274 may allow the user to specify the language used.

管理装置300は、人型ロボット200から提供された言語情報をユーザプロファイルに登録・更新することができる(S304)。なお、言語情報は、新規のユーザプロファイルでも、既存のユーザプロファイルでも登録・更新することができる。   The management apparatus 300 can register / update the language information provided from the humanoid robot 200 in the user profile (S304). The language information can be registered / updated by a new user profile or an existing user profile.

ユーザの使用言語の特定により、以降のステップでは特定された使用言語に応じた接客制御情報が抽出され(S311,S306,S309,S310)、人型ロボット200に送信される(S312A〜D)。これにより、人型ロボット200は特定した使用言語に対応する音声を出力して発話するとともに、出力音声に対応する動作を行うことができる。   In the subsequent steps, the customer service control information corresponding to the specified language is extracted (S311, S306, S309, S310) and transmitted to the humanoid robot 200 (S312A to D). As a result, the humanoid robot 200 can output a voice corresponding to the specified language used and speak, and can perform an operation corresponding to the output voice.

送信処理(S312A)により、商品陳列棚システム100はコンテンツを受信する。これにより、商品陳列棚システム100は、ユーザプロファイル(ユーザ特性)に基づくユーザフェイシング処理を行う(S103A)。一方、人型ロボット200は接客制御情報を受信する。これにより、人型ロボット200は、ユーザ特性に基づく発話/動作で接客を行う(S203A)。その後、本実施形態の購買支援システムは第2フェーズに移行する。   By the transmission process (S312A), the merchandise display shelf system 100 receives the content. Thereby, the merchandise display shelf system 100 performs the user facing process based on the user profile (user characteristic) (S103A). On the other hand, the humanoid robot 200 receives customer service control information. Thereby, the humanoid robot 200 performs customer service with the utterance / motion based on the user characteristics (S203A). Thereafter, the purchase support system of the present embodiment proceeds to the second phase.

なお、ユーザによる発話がない場合は、ステップS202を省略して、言語情報をユーザプロファイルとして登録しなくてもよい。また、ステップS201を省略してステップS202を実行してユーザの発話を待機したり、ステップS201とともにステップS202を省略し、送信処理(S312A)を待機したりすることもできる。   If there is no utterance by the user, step S202 may be omitted and language information may not be registered as a user profile. Further, step S201 may be omitted, and step S202 may be executed to wait for the user's speech, or step S202 may be omitted together with step S201, and the transmission process (S312A) may be waited.

第2フェーズでは、商品陳列棚システム100は、商品を見ているユーザの表情及び視線を検出し、センシング情報として管理装置300に送信する。その後、送信処理(S312B)により、上記と同様に、商品陳列棚システム100はコンテンツを、人型ロボット200は接客制御情報を受信する。これにより、商品陳列棚システム100は、ユーザの棚前心理に基づくユーザフェイシング処理を行う(S103B)。また、人型ロボット200はユーザの棚前心理に基づく発話/動作で接客を行う(S203B)。   In the second phase, the merchandise display shelf system 100 detects the facial expression and line of sight of the user who is viewing the merchandise and transmits it to the management apparatus 300 as sensing information. Thereafter, by the transmission process (S312B), the product display shelf system 100 receives the content and the humanoid robot 200 receives the customer service control information in the same manner as described above. Thereby, the merchandise display shelf system 100 performs the user facing process based on the user's pre-shelf psychology (S103B). Further, the humanoid robot 200 performs customer service by speaking / motion based on the user's pre-shelf psychology (S203B).

さらに、第2フェーズでは、商品陳列棚システム100は、ユーザの商品手に取り行動(棚前行動)を検出し(S307のYES)、センシング情報として管理装置300に送信する。その後、送信処理(S312C)により、上記と同様に、商品陳列棚システム100はコンテンツを、人型ロボット200は接客制御情報を受信する。これにより、商品陳列棚システム100は、ユーザの棚前行動に基づくユーザフェイシング処理を行う(S103C)。また、人型ロボット200はユーザの棚前行動に基づく発話/動作で接客を行う(S203C)。   Further, in the second phase, the merchandise display shelf system 100 detects the action (pre-shelf action) in the user's merchandise hand (YES in S307), and transmits the sensing information to the management apparatus 300. Thereafter, by the transmission process (S312C), the product display shelf system 100 receives the content and the humanoid robot 200 receives the customer service control information in the same manner as described above. Thereby, the merchandise display shelf system 100 performs the user facing process based on the user's pre-shelf behavior (S103C). In addition, the humanoid robot 200 performs customer service by utterance / motion based on the user's pre-shelf behavior (S203C).

ユーザの棚前心理及び棚前行動が特定されると、本実施形態の購買支援システムは、第3フェーズに移行する。   When the user's pre-shelf psychology and pre-shelf behavior are specified, the purchase support system of the present embodiment proceeds to the third phase.

図13は、本実施形態の購買支援システムの第3フェーズにおける処理フローを示す図である。第3フェーズでは、第2フェーズに引き続き、管理装置300が特定したユーザの棚前心理及び棚前行動に基づいて、ユーザの購買意欲の判別を行い(S310)、更に、判別された購買意欲に基づく抽出処理を行う(S311)。   FIG. 13 is a diagram showing a processing flow in the third phase of the purchase support system of the present embodiment. In the third phase, following the second phase, the user's willingness to purchase is determined based on the user's pre-shelf psychology and the pre-shelf behavior identified by the management device 300 (S310). Based on the extraction processing (S311).

その後、送信処理(S312D)により、上記と同様に、商品陳列棚システム100はコンテンツを、人型ロボット200は接客制御情報を受信する。これにより、商品陳列棚システム100は、ユーザの購買意欲に基づくユーザフェイシング処理を行う(S103D)。また、人型ロボット200はユーザの購買意欲に基づく発話/動作で接客を行う(S203D)。   Thereafter, by the transmission process (S312D), the product display shelf system 100 receives the content and the humanoid robot 200 receives the customer service control information in the same manner as described above. Thereby, the merchandise display shelf system 100 performs a user facing process based on the user's willingness to purchase (S103D). Further, the humanoid robot 200 performs customer service by speaking / motion based on the user's willingness to purchase (S203D).

商品陳列棚システム100は、ユーザが所定範囲から離脱したり、所定範囲から離脱して一定時間が経過したりするのを検出する。これにより、商品陳列棚システム100は、ユーザが棚前から離脱したと判断し(S313のYES)、ユーザが所定範囲から離脱したことを示すセンシング情報を管理装置300及び人型ロボット200に送信する。その後、商品陳列棚システム100は棚前エリア内(所定範囲内)でユーザが検知されるまで待機する(S316)。   The merchandise display shelf system 100 detects that the user has left the predetermined range or has left the predetermined range and a certain time has passed. As a result, the merchandise display shelf system 100 determines that the user has left the shelf (YES in S313), and transmits sensing information indicating that the user has left the predetermined range to the management device 300 and the humanoid robot 200. . Thereafter, the merchandise display shelf system 100 stands by until a user is detected in the shelf front area (within a predetermined range) (S316).

人型ロボット200は、ユーザが所定範囲から離脱したことを示すセンシング情報を受信すると、棚前エリア内(所定範囲内)でユーザが検知されるまで待機する(S316)。管理装置300は、ユーザが所定範囲から離脱したことを示すセンシング情報を受信すると、ステップS314及びS315の処理を行い、同様に待機する(S316)。商品陳列棚システム100により、所定範囲内にユーザが入ったことが検知されると、本実施形態の購買支援システムは、第1フェーズに移行する。   When receiving the sensing information indicating that the user has left the predetermined range, the humanoid robot 200 waits until the user is detected in the area in front of the shelf (within the predetermined range) (S316). When receiving the sensing information indicating that the user has left the predetermined range, the management apparatus 300 performs the processes of steps S314 and S315 and similarly waits (S316). When the merchandise display shelf system 100 detects that the user has entered the predetermined range, the purchase support system of the present embodiment proceeds to the first phase.

また、第3フェーズにおいて、ユーザが所定範囲内から離脱しない場合(S313−NO)は、第2フェーズに戻り、上記と同様の処理を続ける。   If the user does not leave the predetermined range in the third phase (S313-NO), the process returns to the second phase and the same processing as described above is continued.

なお、図11〜13ではコンテンツとともに接客制御情報を抽出し、それぞれ商品陳列棚システム100と、人型ロボット200とに送信しているが、必要に応じていずれか一方のみを抽出して送信してもよい。また、人型ロボット200の各発話/動作処理(S203A〜D)と商品陳列棚システム100の各ユーザフェイシング処理(S103A〜D)は、連動して行うことができるが、必ずしも同時に行う必要はない。例えば、必要に応じて人型ロボット200の発話/動作処理のみを行ったり、商品陳列棚システム100のユーザフェイシング処理のみを行ったりすることもできる。   In addition, in FIG. 11-13, customer service control information is extracted together with the contents and transmitted to the product display shelf system 100 and the humanoid robot 200, respectively, but only one of them is extracted and transmitted as necessary. May be. In addition, each utterance / motion process (S203A to D) of the humanoid robot 200 and each user facing process (S103A to D) of the commodity display shelf system 100 can be performed in conjunction with each other, but are not necessarily performed simultaneously. Absent. For example, only the utterance / motion process of the humanoid robot 200 may be performed as necessary, or only the user facing process of the merchandise display shelf system 100 may be performed.

次に、図4に戻り、本実施形態の機械学習機能について説明する。学習制御部323は、記憶装置330に蓄積されたユーザプロファイルの購買履歴、コンテンツ配信結果、人型ロボットによる接客結果を用いて、商品の購買に繋がったコンテンツパターンや商品の購買に繋がったユーザの行動パターン、商品の購買に繋がった人型ロボットの接客パターン、商品の購買につながったコンテンツパターンと人型ロボット200の接客パターンの組み合わせなどを抽出することができる。   Next, returning to FIG. 4, the machine learning function of this embodiment will be described. The learning control unit 323 uses the purchase history of the user profile stored in the storage device 330, the content distribution result, and the customer service result of the humanoid robot to use the content pattern that leads to the purchase of the product and the user's purchase that leads to the purchase of the product. It is possible to extract a behavior pattern, a customer service pattern of a humanoid robot that leads to purchase of a product, a combination of a content pattern that leads to purchase of a product and a customer service pattern of the humanoid robot 200, and the like.

例えば、商品Aを見ていたユーザに対して提供したコンテンツAと、商品Aの購買数を比較し、購買数が所定数以上である場合に、コンテンツAは購買促進に効果があると判別することができる。一方、購買数が所定数未満である場合、コンテンツAは購買促進に効果がないと判別(評価)することができる。   For example, the content A provided to the user who was viewing the product A is compared with the number of purchases of the product A, and if the number of purchases is equal to or greater than a predetermined number, the content A is determined to be effective in promoting purchases. be able to. On the other hand, when the number of purchases is less than the predetermined number, it can be determined (evaluated) that the content A has no effect on the promotion of purchase.

同様に、商品Aを見ていたユーザに対する人型ロボット200の接客行動を制御するために送信した接客制御情報Aと、商品Aの購買数を比較し、購買数が所定数以上である場合に、接客制御情報Aによる人型ロボット200の接客行動は、購買促進に効果があると判別することができる。一方、購買数が所定数未満である場合、接客制御情報Aによる人型ロボット200の接客行動は購買促進に効果がないと判別(評価)することができる。   Similarly, the customer service control information A transmitted for controlling the customer service behavior of the humanoid robot 200 for the user who was viewing the product A is compared with the number of purchases of the product A, and the purchase number is equal to or greater than a predetermined number. The customer service behavior of the humanoid robot 200 based on the customer service control information A can be determined to have an effect on purchase promotion. On the other hand, when the number of purchases is less than the predetermined number, it is possible to determine (evaluate) that the customer service behavior of the humanoid robot 200 based on the customer service control information A is not effective in promoting the purchase.

さらに、コンテンツの提供と人型ロボット200の接客行動を連動して行った場合には、提供したコンテンツAと接客制御情報Aの組み合わせを、商品Aの購買数と比較し、上記と同様に購買数が所定数以上であるか所定数未満であるか分析し、購買促進への効果の有無を判別(評価)することができる。   Further, when the content provision and the customer service behavior of the humanoid robot 200 are linked, the combination of the provided content A and the customer service control information A is compared with the number of purchases of the product A, and the purchase is performed in the same manner as described above. By analyzing whether the number is equal to or greater than the predetermined number or less than the predetermined number, it is possible to determine (evaluate) whether or not there is an effect on purchase promotion.

また、学習制御部323は、音声認識処理で特定された消費者の使用言語別に、上記と同様に、商品の購買に繋がった各パターンや、パターンの組み合わせを抽出することができる。さらに、学習制御部323は上記と同様にして、使用言語ごとに、各コンテンツや各接客制御情報、コンテンツと接客制御情報の各組み合わせが、購買促進に効果があるか否かを判別することができる。   Moreover, the learning control part 323 can extract each pattern and the combination of patterns which led to the purchase of goods similarly to the above for every use language of the consumer specified by the speech recognition process. Further, in the same manner as described above, the learning control unit 323 may determine whether each content, each customer service control information, or each combination of the content and the customer service control information is effective for purchasing promotion for each language used. it can.

また、表情や視線、商品手に取り情報、性別、年齢層、外見的特徴、言語、滞在時間と組み合わせて、各コンテンツの効果及び各接客行動(各接客制御情報)を細かく分析し、学習制御部323は、ユーザプロファイル、棚前心理、棚前行動、及び購買意欲に関連して抽出される各コンテンツの組み合わせや、各接客制御情報の組み合わせや、コンテンツと接客制御情報の各組み合わせを変更するなどの機械学習を行うことができる。また、購買意欲分析結果を更新・削除したり、新たな購買分析結果を生成して追加したりすることができる。   In addition, in combination with facial expression, line of sight, product information, gender, age group, appearance characteristics, language, and staying time, detailed analysis and learning control of each content effect and customer service behavior (customer service control information) The unit 323 changes the combination of each content extracted in relation to the user profile, the pre-shelf psychology, the pre-shelf behavior, and the purchase motivation, the combination of each customer service control information, and each combination of the content and the customer service control information. Machine learning can be performed. Further, the purchase intention analysis result can be updated / deleted, or a new purchase analysis result can be generated and added.

以上、実施形態について説明したが、商品陳列棚システム100のコントロールユニット130は、有線又は無線でセンシングユニット110及び出力ユニット120と接続して、商品陳列棚に対して物理的に外部に設けることも可能である。   Although the embodiment has been described above, the control unit 130 of the product display shelf system 100 may be physically or externally connected to the product display shelf by being connected to the sensing unit 110 and the output unit 120 by wire or wirelessly. Is possible.

また、管理装置300が、ネットワークを介して商品陳列棚システム100にコンテンツを送信しているが、これに限らず、例えば、所定のタイミングで管理装置300から商品陳列棚システム100にコンテンツデータを一括して送信し、コントロールユニット130側にコンテンツを予め記憶しておくことができる。この場合、管理装置300は、コンテンツデータ(画像、映像、文字情報等の実データ)は送信せずに、各コンテンツの出力制御情報を生成・抽出して商品陳列棚システム100に送信することができる。コントロールユニット130は、受信した出力制御情報に基づいて記憶装置133に予め記憶されたコンテンツを抽出して出力ユニット120の出力制御を行うことができる。   In addition, the management apparatus 300 transmits content to the product display shelf system 100 via the network. However, the present invention is not limited to this, and for example, content data is collectively collected from the management apparatus 300 to the product display shelf system 100 at a predetermined timing. The content can be stored in advance on the control unit 130 side. In this case, the management apparatus 300 may generate and extract output control information for each content and transmit it to the product display shelf system 100 without transmitting content data (actual data such as images, videos, and character information). it can. The control unit 130 can extract the content stored in advance in the storage device 133 based on the received output control information and perform output control of the output unit 120.

また、管理装置300は、ハードウェア構成として上述以外にも、液晶ディスプレイなどの表示装置、装置全体(各部)の制御を司るCPU、メモリ(主記憶装置)、マウス、キーボード、タッチパネル、スキャナー等の操作入力手段、プリンタ、スピーカなどの出力手段、補助記憶装置(ハードディスク等)等を備えることができる。   In addition to the above-described hardware configuration, the management device 300 includes a display device such as a liquid crystal display, a CPU that controls the entire device (each unit), a memory (main storage device), a mouse, a keyboard, a touch panel, a scanner, and the like. Operation input means, output means such as a printer and a speaker, an auxiliary storage device (hard disk or the like), and the like can be provided.

また、上記実施形態では人型ロボット200による接客を例に説明したが、例えば他にも犬などの動物を模したロボットによる接客を行ってもよい。その他、何らかの身振り手振りによる接客を行うことができるロボットであればよい。   Further, in the above embodiment, the customer service by the humanoid robot 200 has been described as an example. However, for example, customer service by a robot imitating an animal such as a dog may be performed. In addition, any robot can be used as long as it can perform customer service by gestures.

また、上記実施形態では人型ロボット200は、商品陳列棚システム100を介して管理装置300と接続しているが、有線又は無線により管理装置300と直接接続して各種情報の送受信を行うこともできる。   In the above-described embodiment, the humanoid robot 200 is connected to the management apparatus 300 via the merchandise display shelf system 100. However, the humanoid robot 200 may be directly connected to the management apparatus 300 by wire or wireless to transmit and receive various types of information. it can.

また、制御装置230は、有線又は無線で通信装置240、記憶装置250、センサ装置260及び入出力ユニット270と接続して人型ロボット200に対して物理的に外部に設けることもできる。例えば、制御装置230は商品陳列棚に設けてもよい。同様に、マイク272を商品陳列棚に設けてもよい。また、商品陳列棚システム100のロボット連携部131Cの機能をロボット制御部232の機能に含めることで、ロボット連携部131Cを省略してもよい。すなわち、ロボット制御部232のみで接客制御情報を受信して、人型ロボット200の接客行動を制御することもできる。   The control device 230 can be physically connected to the humanoid robot 200 by connecting to the communication device 240, the storage device 250, the sensor device 260, and the input / output unit 270 in a wired or wireless manner. For example, the control device 230 may be provided on a product display shelf. Similarly, the microphone 272 may be provided on the commodity display shelf. In addition, the robot cooperation unit 131C may be omitted by including the function of the robot cooperation unit 131C of the commodity display shelf system 100 in the function of the robot control unit 232. That is, the customer service control information can be received only by the robot controller 232 and the customer service behavior of the humanoid robot 200 can be controlled.

また、人型ロボット200の記憶装置250が記憶する言語データベースを、商品陳列棚システム100の記憶装置133や、管理装置300の記憶装置330が記憶していてもよい。これにより、例えば商品陳列棚システム100にマイクを設け、商品陳列棚システム100側で音声認識処理を行ったり、商品陳列棚システム100や人型ロボット200で収集した音声を音声データとして管理装置300に受信させ、管理装置300側で音声認識処理を行ったりすることもできる。   Further, the language database stored in the storage device 250 of the humanoid robot 200 may be stored in the storage device 133 of the merchandise display shelf system 100 or the storage device 330 of the management device 300. Accordingly, for example, a microphone is provided in the product display shelf system 100 and voice recognition processing is performed on the product display shelf system 100 side, or voice collected by the product display shelf system 100 or the humanoid robot 200 is stored in the management apparatus 300 as voice data. It is possible to receive the voice recognition process on the management apparatus 300 side.

また、商品陳列棚システム100のカメラ110Aの代わりに人型ロボット200のカメラ273を利用したり、モーションセンサ110Bの代わりに型ロボット200のセンサ装置260を利用したりしてもよい。言い換えると、カメラ273及びセンサ装置260により、ユーザに関連する情報を検出することもできる(センサ検出情報)。人型ロボット200でのセンサ検出情報は、コントロールユニット130に伝送したり、管理装置300に直接提供したりすることができる。このとき、管理装置300は、センシングユニット110による各センサ検出情報の代わりに、カメラ273及びセンサ装置260による各センサ検出情報に基づいてユーザの購買意欲を判別することができる。   Further, the camera 273 of the humanoid robot 200 may be used instead of the camera 110A of the merchandise display shelf system 100, or the sensor device 260 of the type robot 200 may be used instead of the motion sensor 110B. In other words, information related to the user can be detected by the camera 273 and the sensor device 260 (sensor detection information). Sensor detection information in the humanoid robot 200 can be transmitted to the control unit 130 or provided directly to the management apparatus 300. At this time, the management device 300 can determine the user's willingness to purchase based on the sensor detection information from the camera 273 and the sensor device 260 instead of the sensor detection information from the sensing unit 110.

また、所定のタイミングで管理装置300から人型ロボット200に接客制御情報を一括して送信し、記憶装置250に接客制御情報を予め記憶しておくことができる。この場合、管理装置300は、接客制御情報(実際にどのような発話、動作を行うかを定義した実データ)を送信せずに、どの接客制御情報に基づいて接客行動を実行するかを指示するための接客指示情報を生成・抽出して人型ロボット200に送信することができる。ロボット制御部232は、受信した接客指示情報に基づいて記憶装置250に予め記憶されたコンテンツを抽出して人型ロボット200の接客制御を行うことができる。   In addition, the customer service control information can be collectively transmitted from the management device 300 to the humanoid robot 200 at a predetermined timing, and the customer service control information can be stored in the storage device 250 in advance. In this case, the management apparatus 300 instructs which customer service action is to be executed based on which customer service control information is transmitted without transmitting customer service control information (actual data defining what kind of utterance and action is actually performed). Can be generated and extracted and sent to the humanoid robot 200. The robot control unit 232 can perform customer service control of the humanoid robot 200 by extracting content stored in advance in the storage device 250 based on the received customer service instruction information.

また、店舗内に複数の商品陳列棚システム100及び人型ロボット200を設置し、これらをネットワークを介して一つの管理装置300に接続して購買支援システムを構成することも可能である。これにより、店舗内で離れた位置に設置された商品陳列棚間での連携ができる。例えば、商品陳列棚Aにおいてユーザが探している商品がない場合、ネットワークを介してユーザが探している商品が配置されている商品陳列棚Bを特定することができる。このとき、人型ロボット200による発話/動作や商品陳列棚システム100のディスプレイ120A及びディスプレイ120Bで商品陳列棚Bにユーザを案内したり、誘導したりすることができる。また、管理装置を複数設置し、ネットワークを介して互いに接続することも可能である。   It is also possible to install a plurality of merchandise display shelf systems 100 and humanoid robots 200 in a store and connect them to one management device 300 via a network to constitute a purchase support system. Thereby, the cooperation between the merchandise display shelves installed at positions separated in the store can be performed. For example, when there is no product that the user is looking for in the product display shelf A, the product display shelf B in which the product that the user is looking for is arranged can be specified via the network. At this time, the user can be guided or guided to the product display shelf B by the utterance / motion by the humanoid robot 200 and the display 120A and the display 120B of the product display shelf system 100. It is also possible to install a plurality of management devices and connect them to each other via a network.

また、管理装置300は、ネットワークを介して他店舗の商品陳列棚システム100や人型ロボット200と接続し、店舗間で連携することもできる。これにより、購買支援に必要な情報を店舗間で共有することができる。例えば、ユーザプロファイルを店舗間で共有することにより、他店舗でも同様に、ユーザに応じた購買促進を行うことができる。   Moreover, the management apparatus 300 can also connect with the merchandise display shelf system 100 and the humanoid robot 200 of another store via a network, and can also cooperate between stores. Thereby, information required for purchase support can be shared between stores. For example, by sharing a user profile between stores, purchase promotion according to the user can be performed in other stores as well.

また、本発明の各機能は、プログラムによって実現可能であり、各機能を実現するために予め用意されたコンピュータプログラムが補助記憶装置に格納され、CPU等の制御部が補助記憶装置に格納されたプログラムを主記憶装置に読み出し、主記憶装置に読み出された該プログラムを制御部が実行することで、コンピュータ装置に本発明の各部の機能を動作させることができる。他方、本発明の各機能は、各々個別の制御装置で構成することができ、複数の制御装置を直接に又はネットワークを介して接続して構成することもできる。   In addition, each function of the present invention can be realized by a program, a computer program prepared in advance for realizing each function is stored in the auxiliary storage device, and a control unit such as a CPU is stored in the auxiliary storage device. By reading the program into the main storage device and executing the program read into the main storage device, the control unit can cause the computer device to operate the functions of the respective units of the present invention. On the other hand, each function of the present invention can be configured by individual control devices, and a plurality of control devices can be connected directly or via a network.

また、上記プログラムは、コンピュータ読取可能な記録媒体に記録された状態で、コンピュータに提供することも可能である。コンピュータ読取可能な記録媒体としては、CD−ROM等の光ディスク、DVD−ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記録媒体として含まれる。   Further, the program can be provided to a computer in a state where the program is recorded on a computer-readable recording medium. Computer-readable recording media include optical disks such as CD-ROM, phase change optical disks such as DVD-ROM, magneto-optical disks such as MO (Magnet Optical) and MD (Mini Disk), floppy (registered trademark) disks, Examples include magnetic disks such as removable hard disks, memory cards such as compact flash (registered trademark), smart media, SD memory cards, and memory sticks. A hardware device such as an integrated circuit (IC chip or the like) specially designed and configured for the purpose of the present invention is also included as a recording medium.

1:棚本体部
2A,2B,2C:商品陳列部
100:商品陳列棚システム
110:センシングユニット
110A:カメラ
110B:モーションセンサ
110C:静電容量センサ
120:出力ユニット
120A:ディスプレイ装置
120B:モニタユニット
120C:スピーカ
120D:香発生装置
130:コントロールユニット
131:制御装置
131A:センサ制御部
131B:出力制御部
132:通信装置
133:記憶装置
200:人型ロボット
220:ロボットシステム
230:制御装置
231:センサ制御部
232:ロボット制御部
240:通信装置
250:記憶装置
260:センサ装置
270:入出力ユニット
271:スピーカ
272:マイク
273:カメラ
274:表示入力装置
300:管理装置
310:通信装置
320:制御装置
321:分析制御部
322:コンテンツ制御部
323:学習制御部
330:記憶装置
1: Shelf body 2A, 2B, 2C: Product display unit 100: Product display shelf system 110: Sensing unit 110A: Camera 110B: Motion sensor 110C: Capacitance sensor 120: Output unit 120A: Display device 120B: Monitor unit 120C : Speaker 120D: Incense generating device 130: Control unit 131: Control device 131A: Sensor control unit 131B: Output control unit 132: Communication device 133: Storage device 200: Humanoid robot 220: Robot system 230: Control device 231: Sensor control Unit 232: Robot control unit 240: Communication device 250: Storage device 260: Sensor device 270: Input / output unit 271: Speaker 272: Microphone 273: Camera 274: Display input device 300: Management device 310: Communication device 320: Control Location 321: the analysis control unit 322: the content control unit 323: a learning control unit 330: storage device

Claims (10)

商品陳列棚と、
棚前に位置する消費者の顔画像を取得する第1センサ機器と、商品陳列棚に陳列された商品に対する消費者の動きを取得する第2センサ機器とを含み、商品陳列棚に設けられるセンシングユニットと、を備える商品陳列棚システムと、
消費者への接客に関する発話及び/又は動作を行う接客ロボットと、
ネットワークを介して前記商品陳列棚システムと接続され、前記センシングユニットで取得された各センサ検出情報を受信して消費者の購買意欲を判別する管理装置と、を有し、
前記管理装置は、
前記顔画像から検出される消費者の表情及び視線に基づいて棚前心理パターンを特定し、かつ商品に対する消費者の動きに基づいて棚前行動パターンを特定し、特定された前記棚前心理パターン及び前記棚前行動パターンに対応する消費者の購買意欲パターンを判別する分析制御部と、
複数の前記購買意欲パターン毎に前記接客ロボットに行わせる前記接客に関する発話及び/又は動作を規定した接客制御情報をそれぞれ記憶する記憶部と、
判別された前記購買意欲パターンに応じた前記接客制御情報を選択し、選択された前記接客制御情報を提供するコンテンツ制御部と、
を有することを特徴とする購買支援システム。
Product display shelves,
Sensing provided on a merchandise display shelf, including a first sensor device that acquires a facial image of a consumer located in front of the shelves and a second sensor device that acquires consumer movements for the merchandise displayed on the merchandise display shelves A product display shelf system comprising: a unit;
A customer service robot that performs utterances and / or actions related to customer service;
A management device that is connected to the commodity display shelf system via a network, receives each sensor detection information acquired by the sensing unit, and discriminates a consumer's purchase intention,
The management device
The pre-shelf psychological pattern is specified based on the consumer's facial expression and line of sight detected from the face image, and the pre-shelf behavior pattern is specified based on the consumer's movement with respect to the product. And an analysis control unit for discriminating a consumer's purchase willing pattern corresponding to the pre-shelf behavior pattern;
Storage units each storing customer service control information that defines speech and / or actions related to the customer service to be performed by the customer service robot for each of the plurality of purchase willing patterns;
A content control unit that selects the customer service control information according to the determined purchase willingness pattern and provides the selected customer service control information;
A purchase support system characterized by comprising:
前記記憶部は、消費者の前記棚前心理パターン及び/又は前記棚前行動パターンごとの前記各接客制御情報をそれぞれ記憶しており、
前記コンテンツ制御部は、特定された前記棚前心理パターンに応じた前記接客制御情報及び/又は特定された前記棚前行動パターンに応じた前記接客制御情報を選択し、前記棚前心理パターン及び/又は前記棚前行動パターンに応じた前記接客制御情報を提供することを特徴とする請求項1に記載の購買支援システム。
The storage unit stores the customer service control information for each consumer's pre-shelf psychological pattern and / or the pre-shelf behavior pattern, respectively.
The content control unit selects the customer service control information according to the identified pre-shelf psychological pattern and / or the customer service control information according to the identified pre-shelf behavior pattern, and the pre-shelf psychological pattern and / or Alternatively, the customer support control information according to the pre-shelf behavior pattern is provided.
前記接客制御情報は、複数の言語別の発話情報を含んでおり、
前記管理装置は、前記接客ロボット又は前記商品陳列棚システムを介して収集された消費者の発話音声に基づいて消費者の使用言語を判別し、
前記コンテンツ制御部は、判別された前記使用言語に応じた前記発話情報を含む前記接客制御情報を選択して提供することを特徴とする請求項1又は2に記載の購買支援システム。
The customer service control information includes utterance information for a plurality of languages,
The management device determines the language used by the consumer based on the utterance voice of the consumer collected via the customer service robot or the product display shelf system,
The purchase support system according to claim 1 or 2, wherein the content control unit selects and provides the customer service control information including the utterance information corresponding to the determined language used.
前記分析制御部は、前記顔画像から消費者の性別、年齢層を含む消費者属性を所定の顔認識処理に基づいて抽出し、前記顔画像及び前記消費者属性が関連付けられたユーザプロファイル情報を生成して前記記憶部に記憶するとともに、前記顔画像に基づくパターンマッチングを行って前記記憶部に記憶された前記ユーザプロファイル情報を特定し、商品陳列棚が設置された店舗への来店履歴と、店舗の販売履歴を管理する所定の販売管理システムから取得される商品陳列棚に陳列された商品の購買履歴とを、特定された前記ユーザプロファイル情報に関連付けて記憶し、
前記コンテンツ制御部は、前記ユーザプロファイル情報に基づく消費者の前記性別、前記年齢層、前記来店履歴及び前記購買履歴のいずれか1つ又は2以上の組み合わせに基づいて、前記接客制御情報を選択し、選択された前記接客制御情報を提供することを特徴とする請求項1から3のいずれか1つに記載の購買支援システム。
The analysis control unit extracts consumer attributes including a sex and an age group of the consumer from the face image based on a predetermined face recognition process, and user profile information associated with the face image and the consumer attribute is extracted. Generating and storing in the storage unit, specifying the user profile information stored in the storage unit by performing pattern matching based on the face image, and a store visit history to a store where a product display shelf is installed; Storing the purchase history of the products displayed on the product display shelf acquired from a predetermined sales management system for managing the sales history of the store in association with the specified user profile information;
The content control unit selects the customer service control information based on any one or a combination of the gender, the age group, the store visit history, and the purchase history of the consumer based on the user profile information. The purchase support system according to any one of claims 1 to 3, wherein the selected customer service control information is provided.
前記分析制御部は、前記顔画像が関連付けられたユーザプロファイル情報を生成して前記記憶部に記憶するとともに、前記顔画像に基づくパターンマッチングを行って前記記憶部に記憶された前記ユーザプロファイル情報を特定し、店舗の販売履歴を管理する所定の販売管理システムから取得される商品陳列棚に陳列された商品の購買履歴を前記ユーザプロファイル情報に関連付けて記憶し、
前記接客ロボットを制御させるための前記接客制御情報の送信処理の結果と前記購買履歴とに基づいて、商品の購買に繋がった前記送信処理の結果を消費者の前記棚前心理パターン、前記棚前行動パターン、及び前記購買意欲毎に評価する学習制御部をさらに備えることを特徴とする請求項1から3のいずれか1つに記載の購買支援システム。
The analysis control unit generates user profile information associated with the face image and stores the user profile information in the storage unit, and performs pattern matching based on the face image and stores the user profile information stored in the storage unit. Specifying and storing the purchase history of the product displayed on the product display shelf acquired from a predetermined sales management system for managing the sales history of the store in association with the user profile information,
Based on the result of the process of transmitting the customer service control information for controlling the customer service robot and the purchase history, the result of the process of transmission that led to the purchase of the product is expressed as a psychological pattern before the shelf of the consumer, The purchase support system according to any one of claims 1 to 3, further comprising a learning control unit that evaluates each behavior pattern and each purchase motivation.
前記学習制御部は、前記接客ロボット又は前記商品陳列棚システムを介して収集された消費者の発話音声に基づく使用言語別に、商品の購買に繋がった前記送信処理の結果を消費者の前記棚前心理パターン、前記棚前行動パターン、及び前記購買意欲毎に評価することを特徴とする請求項5に記載の購買支援システム。   The learning control unit displays the result of the transmission process that led to the purchase of the product for each language used based on the utterance voice of the consumer collected via the customer service robot or the product display shelf system. The purchase support system according to claim 5, wherein the evaluation is performed for each psychological pattern, the pre-shelf behavior pattern, and the purchase intention. 前記センシングユニットは、商品陳列棚に陳列された商品の移動を検出する第3センサ機器をさらに備え、
前記分析制御部は、前記第2センサ機器及び前記第3センサ機器のセンサ検出情報を組み合わせて消費者が特定の商品を手に取ったか否かを前記棚前行動パターンとして特定することを特徴とする請求項1から5のいずれか1つに記載の購買支援システム。
The sensing unit further includes a third sensor device that detects the movement of the product displayed on the product display shelf,
The analysis control unit identifies whether the consumer has picked up a specific product as the action pattern before the shelf by combining sensor detection information of the second sensor device and the third sensor device. The purchasing support system according to any one of claims 1 to 5.
前記接客ロボットは、前記第1センサ機器に相当する第4センサ機器と、前記第2センサ機器に相当する第5センサ機器と、をさらに備え、
前記管理装置は、前記センシングユニットで取得された各センサ検出情報に代わり、前記第4センサ機器及び前記第5センサ機器で取得された各センサ検出情報を前記接客ロボットから直接に、または前記接客ロボットと接続される前記商品陳列棚システムを経由して受信し、消費者の前記購買意欲を判別することを特徴とする請求項1から7のいずれか1つに記載の購買支援システム。
The customer service robot further includes a fourth sensor device corresponding to the first sensor device, and a fifth sensor device corresponding to the second sensor device,
The management device receives each sensor detection information acquired by the fourth sensor device and the fifth sensor device directly from the customer service robot instead of each sensor detection information acquired by the sensing unit, or the customer service robot. The purchase support system according to claim 1, wherein the purchase intention of a consumer is determined by receiving the product via the product display shelf system connected to the product.
商品陳列棚の棚前に位置する消費者の顔画像を取得する第1センサ機器と、商品陳列棚に陳列された商品に対する消費者の動きを取得する第2センサ機器とを含み、商品陳列棚に設けられるセンシングユニットを備える商品陳列棚システムと、
消費者への接客に関する発話及び/又は動作行う接客ロボットと、連携し、所定の前記接客に関する発話及び/又は動作を前記接客ロボットに行わせるための接客制御情報を提供するコンピュータで実行されるプログラムであって、
前記顔画像から検出される消費者の表情及び視線に基づいて棚前心理パターンを特定する第1処理と、
商品に対する消費者の動きに基づいて棚前行動パターンを特定する第2処理と、
特定された前記棚前心理パターン及び前記棚前行動パターンに対応する消費者の購買意欲パターンを判別する第3処理と、
複数の前記購買意欲パターン毎に関連付けられた前記接客制御情報のそれぞれに基づいて、判別された前記購買意欲パターンに関連付けられた前記接客制御情報を選択する第4処理と、
選択された前記接客制御情報を提供する第5処理と、
を行うことを特徴とする購買支援プログラム。
A product display shelf including a first sensor device for acquiring a facial image of a consumer positioned in front of the product display shelf, and a second sensor device for acquiring a consumer movement with respect to the product displayed on the product display shelf A product display shelf system including a sensing unit provided in
A program executed by a computer for providing customer service control information for causing the customer service robot to perform a predetermined customer service utterance and / or operation in cooperation with a customer service robot that performs customer service utterances and / or operations. Because
A first process for identifying a pre-shelf psychological pattern based on a consumer's facial expression and line of sight detected from the face image;
A second process for identifying a pre-shelf behavior pattern based on consumer movement with respect to the product;
A third process for determining a consumer's purchase willing pattern corresponding to the identified pre-shelf psychological pattern and the pre-shelf behavior pattern;
A fourth process of selecting the customer service control information associated with the determined purchase motivation pattern based on each of the customer service control information associated with each of the plurality of purchase motivation patterns;
A fifth process for providing the selected customer service control information;
Purchasing support program characterized by
商品陳列棚の棚前に位置する消費者の顔画像を取得する第1センサ機器と、商品陳列棚に陳列された商品に対する消費者の動きを取得する第2センサ機器とを含み、商品陳列棚に設けられるセンシングユニットを備える商品陳列棚システムと、
消費者への接客に関する発話及び/又は動作行う接客ロボットと、連携し、所定の前記接客に関する発話及び/又は動作を前記接客ロボットに行わせるための接客制御情報を提供する購買支援管理装置であって、
前記購買支援管理装置は、
前記顔画像から検出される消費者の表情及び視線に基づいて棚前心理パターンを特定し、かつ商品に対する消費者の動きに基づいて棚前行動パターンを特定し、特定された前記棚前心理パターン及び前記棚前行動パターンに対応する消費者の購買意欲パターンを判別する分析制御部と、
複数の前記購買意欲パターン毎に前記接客ロボットに行わせる前記接客に関する発話及び/又は動作を規定した接客制御情報をそれぞれ記憶する記憶部と、
判別された前記購買意欲パターンに応じた前記接客制御情報を選択し、選択された前記接客制御情報を提供するコンテンツ制御部と、
を有することを特徴とする購買支援管理装置。
A product display shelf including a first sensor device for acquiring a facial image of a consumer positioned in front of the product display shelf, and a second sensor device for acquiring a consumer movement with respect to the product displayed on the product display shelf A product display shelf system including a sensing unit provided in
A purchase support management apparatus that provides customer service control information for causing a customer service robot to perform a predetermined customer service speech and / or action in cooperation with a customer service robot that performs customer service speeches and / or actions. And
The purchase support management device comprises:
The pre-shelf psychological pattern is specified based on the consumer's facial expression and line of sight detected from the face image, and the pre-shelf behavior pattern is specified based on the consumer's movement with respect to the product. And an analysis control unit for discriminating a consumer's purchase willing pattern corresponding to the pre-shelf behavior pattern;
Storage units each storing customer service control information that defines speech and / or actions related to the customer service to be performed by the customer service robot for each of the plurality of purchase willing patterns;
A content control unit that selects the customer service control information according to the determined purchase willingness pattern and provides the selected customer service control information;
A purchase support management apparatus comprising:
JP2017154777A 2017-08-09 2017-08-09 Purchasing support system Active JP7057077B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017154777A JP7057077B2 (en) 2017-08-09 2017-08-09 Purchasing support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017154777A JP7057077B2 (en) 2017-08-09 2017-08-09 Purchasing support system

Publications (2)

Publication Number Publication Date
JP2019032778A true JP2019032778A (en) 2019-02-28
JP7057077B2 JP7057077B2 (en) 2022-04-19

Family

ID=65523513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017154777A Active JP7057077B2 (en) 2017-08-09 2017-08-09 Purchasing support system

Country Status (1)

Country Link
JP (1) JP7057077B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068103A (en) * 2019-10-21 2021-04-30 株式会社Interior Haraguchi Marketing system and marketing method in commercial facility
US11216651B2 (en) 2019-09-24 2022-01-04 Toshiba Tec Kabushiki Kaisha Information processing device and reporting method
JP2022519150A (en) * 2019-12-31 2022-03-22 北京市商▲湯▼科技▲開▼▲發▼有限公司 State recognition methods, devices, electronic devices, and recording media
JP2023512135A (en) * 2020-12-28 2023-03-24 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Object recommendation method and device, computer equipment and medium
JP7457049B2 (en) 2022-03-11 2024-03-27 株式会社日立製作所 Support system, support processing device and support method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014219937A (en) * 2013-05-10 2014-11-20 パナソニック株式会社 Taste determination system
JP2015156211A (en) * 2014-01-17 2015-08-27 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Product displaying method and information display method
JP2016155179A (en) * 2015-02-23 2016-09-01 株式会社国際電気通信基礎技術研究所 Guidance service system, guidance service program, guidance service method and guidance service device
JP2017117184A (en) * 2015-12-24 2017-06-29 大日本印刷株式会社 Robot, question presentation method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014219937A (en) * 2013-05-10 2014-11-20 パナソニック株式会社 Taste determination system
JP2015156211A (en) * 2014-01-17 2015-08-27 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Product displaying method and information display method
JP2016155179A (en) * 2015-02-23 2016-09-01 株式会社国際電気通信基礎技術研究所 Guidance service system, guidance service program, guidance service method and guidance service device
JP2017117184A (en) * 2015-12-24 2017-06-29 大日本印刷株式会社 Robot, question presentation method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216651B2 (en) 2019-09-24 2022-01-04 Toshiba Tec Kabushiki Kaisha Information processing device and reporting method
JP2021068103A (en) * 2019-10-21 2021-04-30 株式会社Interior Haraguchi Marketing system and marketing method in commercial facility
JP2022519150A (en) * 2019-12-31 2022-03-22 北京市商▲湯▼科技▲開▼▲發▼有限公司 State recognition methods, devices, electronic devices, and recording media
JP2023512135A (en) * 2020-12-28 2023-03-24 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Object recommendation method and device, computer equipment and medium
JP7316453B2 (en) 2020-12-28 2023-07-27 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Object recommendation method and device, computer equipment and medium
JP7457049B2 (en) 2022-03-11 2024-03-27 株式会社日立製作所 Support system, support processing device and support method

Also Published As

Publication number Publication date
JP7057077B2 (en) 2022-04-19

Similar Documents

Publication Publication Date Title
JP7057077B2 (en) Purchasing support system
US11074610B2 (en) Sales promotion system, sales promotion method, non-transitory computer readable medium, and shelf system
KR101854431B1 (en) Concierge robot
US10026116B2 (en) Methods and devices for smart shopping
US10482724B2 (en) Method, computer program product, and system for providing a sensor-based environment
US20160203499A1 (en) Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system
JP6596899B2 (en) Service data processing apparatus and service data processing method
US20140363059A1 (en) Retail customer service interaction system and method
US10559102B2 (en) Makeup simulation assistance apparatus, makeup simulation assistance method, and non-transitory computer-readable recording medium storing makeup simulation assistance program
JP2006113711A (en) Marketing information providing system
CN108242007A (en) Service providing method and device
De Carolis et al. Recognizing users feedback from non-verbal communicative acts in conversational recommender systems
KR20190113245A (en) Method of providing a service using a face information
EP2136329A2 (en) Comprehensive computer implemented system and method for adapting the content of digital signage displays
CN110322262A (en) Shops&#39;s information processing method, device and shops&#39;s system
JP6810561B2 (en) Purchasing support system
TWI717030B (en) Information processing system and information processing method
CN110866810A (en) Intelligent retail system
US20230056742A1 (en) In-store computerized product promotion system with product prediction model that outputs a target product message based on products selected in a current shopping session
JP7259370B2 (en) Information processing device, information processing method, and information processing program
JP2020086808A (en) Information processing device, advertisement output method, and program
JP7206806B2 (en) Information processing device, analysis method, and program
WO2022201195A1 (en) Retail assistance system for assisting customers
WO2019220751A1 (en) Information processing device, information processing method, and information processing program
KR20220094666A (en) Apparatus and method for electronic price display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220407

R150 Certificate of patent or registration of utility model

Ref document number: 7057077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150