JP2016115257A - Communication system, server device, robot, information processing method, and program - Google Patents

Communication system, server device, robot, information processing method, and program Download PDF

Info

Publication number
JP2016115257A
JP2016115257A JP2014255177A JP2014255177A JP2016115257A JP 2016115257 A JP2016115257 A JP 2016115257A JP 2014255177 A JP2014255177 A JP 2014255177A JP 2014255177 A JP2014255177 A JP 2014255177A JP 2016115257 A JP2016115257 A JP 2016115257A
Authority
JP
Japan
Prior art keywords
robot
keyword
mobile terminal
information
server device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014255177A
Other languages
Japanese (ja)
Other versions
JP6440483B2 (en
Inventor
竹内 正樹
Masaki Takeuchi
正樹 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014255177A priority Critical patent/JP6440483B2/en
Publication of JP2016115257A publication Critical patent/JP2016115257A/en
Application granted granted Critical
Publication of JP6440483B2 publication Critical patent/JP6440483B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a communication system for performing customer service corresponding to an individual.SOLUTION: A communication system 1 includes a wearable terminal 100, a server device 200, and a speakable robot 300. The wearable terminal 100 records a keyword, associates the keyword with user's identification information and transmits the keyword to the server device 200 on the basis of the fact that the user of the wearable terminal 100 speaks a predetermined keyword to the robot 300 and the wearable terminal 100, and the robot 300 records the keyword, and transmits the keyword to the server device 200. The server device 200 transmit information about the user specified by the received identification information to the robot when the keyword received from the wearable terminal 100 matches the keyword received from the robot 300. The robot 300 makes an utterance on the basis of the information.SELECTED DRAWING: Figure 2

Description

本発明は、通信システム、サーバ装置、ロボット、情報処理方法、およびプログラムに関する。   The present invention relates to a communication system, a server device, a robot, an information processing method, and a program.

ネットワーク環境の普及、あらゆるモノがネットに繋がるIOT(Internet of Things)の浸透、さらにはロボット技術の進化に伴い、社会のありとあらゆる所に特定の目的に特化したロボット等が、人に代わって作業や業務を担うような世界になりつつある。工場で利用される生産ロボットに加え、警備ロボット、掃除ロボット、音声にて簡単なコミュニケーションをとれる接客ロボットなども出現しつつある。   With the spread of the network environment, the penetration of IOT (Internet of Things) that connects all things to the Internet, and the evolution of robot technology, robots specialized for specific purposes in every part of society work on behalf of people. It is becoming a world that takes charge of business. In addition to production robots used in factories, security robots, cleaning robots, and customer service robots that can communicate easily with voice are also emerging.

たとえば、特許文献1には、上記接客ロボットとして自律的に移動可能なロボットを利用した接客システムが開示されている。この接客システムは、接客すべき人物が複数存在する場合、各人物のロボットに対する関心度を考慮して、接客順を決定する。   For example, Patent Literature 1 discloses a customer service system using a robot that can move autonomously as the customer service robot. In this customer service system, when there are a plurality of persons to be serviced, the customer service order is determined in consideration of the degree of interest of each person in the robot.

また、特許文献2には、自動改札機および券売機等の駅務機器と連携する支援ロボットが開示されている。この支援ロボットは、顧客の行為情報の内容に応じて、移動速度と接客態度とを決定する。支援ロボットは、決定された移動速度で駅務機器に接近し、決定された接客態度で駅務機器等を支援(たとえば、客とのトラブル対応を実行)する。   Patent Document 2 discloses a support robot that cooperates with station equipment such as automatic ticket gates and ticket machines. This support robot determines a moving speed and a customer service attitude according to the content of the customer's action information. The support robot approaches the station service device at the determined moving speed, and supports the station service device or the like with the determined customer service attitude (for example, executes trouble handling with the customer).

また、従来、デジタルサイネージが知られている。たとえば、特許文献3には、デジタルサイネージと通信するストアサーバが開示されている。このストアサーバは、デジタルサイネージで表示される広告を見ている接客対象の客を特定する。さらに、ストアサーバは、接客対象の客が見ている広告および各店員の位置の少なくとも一つに基づいて、通知対象の店員を特定する。   Conventionally, digital signage is known. For example, Patent Document 3 discloses a store server that communicates with digital signage. This store server identifies a customer who is a customer who is watching an advertisement displayed on digital signage. Furthermore, the store server identifies the sales clerk to be notified based on at least one of the advertisement viewed by the customer targeted for customer service and the position of each sales clerk.

特開2009−248193号公報JP 2009-248193 A 特開2013−140539号公報JP 2013-140539 A 特開2013−84182号公報JP2013-84182A

しかしながら、特許文献1,2では、個人を認証することはできない。よって、特許文献1,2におけるロボットは、認証された個人毎に、当該個人に応じた接客を行なうことはできない。   However, in Patent Documents 1 and 2, an individual cannot be authenticated. Therefore, the robots in Patent Documents 1 and 2 cannot perform customer service for each authenticated individual.

また、特許文献3のストアサーバは、客を特定できるが、客が誰であるかまでは特定できない。つまり、ストアサーバは、個人を認証することはできない。また、店舗にある端末やサイネージ端末(デジタルサイネージ)にて、カメラやIC(integrated circuit)カードを活用することにより個人を特定し、端末が個人に応じた対応等の実施も可能ではある。しかしながら、店頭の接客という観点からは、煩雑な作業が発生してしまう。   Moreover, the store server of patent document 3 can identify a customer, but cannot identify who the customer is. That is, the store server cannot authenticate the individual. It is also possible to identify an individual by using a camera or an IC (integrated circuit) card at a terminal or a signage terminal (digital signage) in a store, and the terminal can respond to the individual. However, from the viewpoint of customer service at a store, complicated work occurs.

本願発明は、上記の問題点に鑑みなされたものであって、その目的は、個人に応じた接客を行なうことが通信システム、当該通信システムを構成するサーバ装置およびロボット、通信システムにおける情報処理方法、サーバ装置における情報処理方法、ロボットにおける情報処理方法、サーバ装置を制御するためのプログラム、および、ロボットを制御するためのプログラムに関する。   The present invention has been made in view of the above-described problems, and its purpose is to perform customer service according to individuals, a communication system, a server device and a robot constituting the communication system, and an information processing method in the communication system The present invention relates to an information processing method in a server device, an information processing method in a robot, a program for controlling the server device, and a program for controlling the robot.

本発明のある局面に従うと、通信システムは、発話可能なロボットと、移動体端末と、サーバ装置とを備える。移動体端末のユーザが、ロボットと移動体端末とに対して予め定められたキーワードを発話したことに基づいて、移動体端末は、キーワードを録音して、録音されたキーワードをユーザの識別情報と関連付けてサーバ装置に送信し、ロボットは、キーワードを録音して、録音されたキーワードをサーバ装置に送信する。サーバ装置は、移動体端末から受信したキーワードとロボットから受信したキーワードとが一致している場合、受信した識別情報によって特定されるユーザに関する情報をロボットに送信する。ロボットは、情報に基づいて発話する。   According to an aspect of the present invention, a communication system includes a robot capable of speaking, a mobile terminal, and a server device. Based on the fact that the user of the mobile terminal has uttered a predetermined keyword to the robot and the mobile terminal, the mobile terminal records the keyword and uses the recorded keyword as the user identification information. The robot records the keyword in association with each other, and transmits the recorded keyword to the server device. When the keyword received from the mobile terminal matches the keyword received from the robot, the server device transmits information about the user specified by the received identification information to the robot. The robot speaks based on the information.

好ましくは、サーバ装置は、キーワードが第1のキーワードの場合には、情報として、第1のキーワードに関連付けられた第1の情報をロボットに送信し、キーワードが第2のキーワードの場合には、情報として、第2のキーワードに関連付けられた第2の情報をロボットに送信する。   Preferably, the server device transmits, as information, the first information associated with the first keyword to the robot when the keyword is the first keyword, and when the keyword is the second keyword, As information, the second information associated with the second keyword is transmitted to the robot.

好ましくは、移動体端末は、キーワードに、識別情報と移動体端末装置の現在位置を表す第1の位置情報とを関連付けて、サーバ装置に送信する。ロボットは、キーワードに、ロボットの現在位置を表す第2の位置情報を関連付けて、サーバ装置に送信する。サーバ装置は、第1の位置情報と第2の位置情報とに基づき、移動体端末の現在位置とロボットの現在位置とが一致すると判断したことを条件に、情報をロボットに送信する。   Preferably, the mobile terminal associates the identification information and the first position information indicating the current position of the mobile terminal device with the keyword, and transmits the keyword to the server device. The robot associates the keyword with the second position information indicating the current position of the robot, and transmits it to the server device. The server device transmits information to the robot on the condition that it is determined that the current position of the mobile terminal matches the current position of the robot based on the first position information and the second position information.

好ましくは、ロボットは、情報に基づいた発話の際には、ユーザが特定され得る情報の発話を制限する。   Preferably, the robot restricts the utterance of information that can be specified by the user when the utterance is based on the information.

好ましくは、ロボットは、予め定められた基準に基づいて、ロボットの周囲の通行人のうちからロボットに興味を示していると判断し得る人物を特定し、特定された人物に対して、キーワードの発話を要求する。特定された人物が、ユーザが要求に応じて、ロボットおよび人物をユーザとする移動体端末に対してキーワードを発話したことに基づいて、移動体端末は、キーワードを識別情報と関連付けてサーバ装置に送信し、ロボットは、キーワードをサーバ装置に送信する。   Preferably, the robot specifies a person who can be determined to be interested in the robot from passers-by around the robot based on a predetermined criterion. Request an utterance. Based on the fact that the identified person utters the keyword to the mobile terminal having the robot and the person as the user, the mobile terminal associates the keyword with the identification information to the server device. Then, the robot transmits the keyword to the server device.

好ましくは、ロボットは、通行人に対して、ロボットを利用している店への呼び込みをするための発話をさらに行なう。   Preferably, the robot further utters the passerby to call the store using the robot.

好ましくは、ロボットは、通行人をカメラで撮像し、撮像により得られた画像の特徴点に基づき、通行人のうちから呼び込みの対象とする人物を選択する。ロボットは、選択された人物の中から、予め定められた基準に基づいて、ロボットの周囲の通行人のうちからロボットに興味を示していると判断し得る人物を特定する。   Preferably, the robot images a passerby with a camera, and selects a person to be called out from passersby based on the feature points of the image obtained by the imaging. The robot identifies a person who can be determined to be interested in the robot from among the passers-by around the robot based on a predetermined criterion from among the selected persons.

好ましくは、通信システムは、表示装置をさらに備える。ロボットは、情報に基づいた表示を表示装置に実行させる。   Preferably, the communication system further includes a display device. The robot causes the display device to execute display based on the information.

好ましくは、通信システムは、表示装置として、第1の表示装置と、第2の表示装置とを備える。ロボットは、自走式であり、第1の表示装置および第2の表示装置のうちロボットに近い方の表示装置に、情報に基づいた表示を実行させる。   Preferably, the communication system includes a first display device and a second display device as display devices. The robot is self-propelled and causes the display device closer to the robot of the first display device and the second display device to execute display based on information.

本発明の他の局面に従うと、サーバ装置は、発話可能なロボットおよび移動体端末と通信可能である。サーバ装置は、移動体端末のユーザがロボットと移動体端末とに対して予め定められたキーワードを発話したことに基づいて、移動体端末において録音されたキーワードをユーザの識別情報と関連付けて移動体端末から受信するとともに、ロボットにおいて録音されたキーワードをロボットから受信する受信手段と、移動体端末から受信したキーワードとロボットから受信したキーワードとが一致している場合、受信した識別情報によって特定されるユーザに関する情報をロボットに送信する送信手段とを備える。   When the other situation of this invention is followed, the server apparatus can communicate with the robot and mobile terminal which can speak. The server device associates the keyword recorded in the mobile terminal with the identification information of the user based on the fact that the user of the mobile terminal speaks a predetermined keyword to the robot and the mobile terminal. When the receiving means for receiving the keyword recorded in the robot from the terminal and the keyword received from the mobile terminal matches the keyword received from the mobile terminal, the identification information received is specified. Transmitting means for transmitting information about the user to the robot.

本発明のさらに他の局面に従うと、ロボットは、サーバ装置と通信する発話可能である。ロボットは、サーバ装置と通信可能な移動体端末のユーザがロボットに対して予め定められたキーワードを発話したことに基づいて、キーワードを録音し、録音されたキーワードをサーバ装置に送信する送信手段と、ロボットから受信したキーワードと移動体端末から受信したキーワードとが一致していることを条件に、サーバ装置から、移動体端末の識別情報によって特定されるユーザに関する情報を受信する受信手段と、情報に基づいて発話する発話手段とを備える。   According to still another aspect of the present invention, the robot can speak to communicate with the server device. The robot records a keyword based on the fact that a user of a mobile terminal that can communicate with the server device speaks a predetermined keyword to the robot, and transmits the recorded keyword to the server device. Receiving means for receiving information on the user specified by the identification information of the mobile terminal from the server device, on condition that the keyword received from the robot and the keyword received from the mobile terminal match, and information And utterance means for uttering based on.

本発明のさらに他の局面に従うと、情報処理方法は、発話可能なロボットと移動体端末とサーバ装置とを備えた通信システムにおいて実行される。情報処理方法は、移動体端末のユーザが、ロボットと移動体端末とに対して予め定められたキーワードを発話したことに基づいて、移動体端末が、キーワードを録音して、録音されたキーワードをユーザの識別情報と関連付けてサーバ装置に送信するステップと、ロボットが、キーワードを録音して、録音されたキーワードをサーバ装置に送信するステップとを備える。情報処理方法は、サーバ装置が、移動体端末から受信したキーワードとロボットから受信したキーワードとが一致している場合、受信した識別情報によって特定されるユーザに関する情報をロボットに送信するステップと、ロボットが、情報に基づいて発話するステップとをさらに備える。   If the further another situation of this invention is followed, the information processing method will be performed in the communication system provided with the robot which can speak, a mobile terminal, and the server apparatus. The information processing method is based on the fact that the user of the mobile terminal utters a predetermined keyword to the robot and the mobile terminal, and the mobile terminal records the keyword and stores the recorded keyword. A step of transmitting the keyword to the server device in association with the user identification information; and a step of recording the keyword and transmitting the recorded keyword to the server device. In the information processing method, the server device transmits, to the robot, information related to the user specified by the received identification information when the keyword received from the mobile terminal matches the keyword received from the robot; Further comprising the step of speaking based on the information.

本発明のさらに他の局面に従うと、情報処理方法は、発話可能なロボットおよび移動体端末と通信可能なサーバ装置において実行される。情報処理方法は、移動体端末のユーザがロボットと移動体端末とに対して予め定められたキーワードを発話したことに基づいて、移動体端末において録音されたキーワードをユーザの識別情報と関連付けて移動体端末から受信するとともに、ロボットにおいて録音されたキーワードをロボットから受信するステップと、移動体端末から受信したキーワードとロボットから受信したキーワードとが一致している場合、受信した識別情報によって特定されるユーザに関する情報をロボットに送信するステップとを備える。   If the further another situation of this invention is followed, the information processing method will be performed in the server apparatus which can communicate with the robot which can speak, and a mobile terminal. The information processing method is based on the fact that the user of the mobile terminal speaks a predetermined keyword to the robot and the mobile terminal, and moves the keyword recorded in the mobile terminal in association with the identification information of the user. If the keyword received from the mobile terminal and the keyword received from the robot match the keyword received from the mobile terminal and the keyword received from the mobile terminal are identified by the received identification information Transmitting information about the user to the robot.

本発明のさらに他の局面に従うと、情報処理方法は、サーバ装置と通信する発話可能なロボットにおいて実行される。情報処理方法は、サーバ装置と通信可能な移動体端末のユーザがロボットに対して予め定められたキーワードを発話したことに基づいて、キーワードを録音し、録音されたキーワードをサーバ装置に送信するステップと、ロボットから受信したキーワードと移動体端末から受信したキーワードとが一致していることを条件に、サーバ装置から、移動体端末の識別情報によって特定されるユーザに関する情報を受信するステップと、情報に基づいてロボットが発話するステップとを備える。   According to still another aspect of the present invention, the information processing method is executed in an utterable robot that communicates with a server device. The information processing method includes a step of recording a keyword based on the fact that a user of a mobile terminal that can communicate with the server device speaks a predetermined keyword to the robot, and transmitting the recorded keyword to the server device. Receiving information on the user specified by the identification information of the mobile terminal from the server device on the condition that the keyword received from the robot and the keyword received from the mobile terminal match, and information The robot utters based on

本発明のさらに他の局面に従うと、プログラムは、発話可能なロボットおよび移動体端末と通信可能なサーバ装置を制御する。プログラムは、移動体端末のユーザがロボットと移動体端末とに対して予め定められたキーワードを発話したことに基づいて、移動体端末において録音されたキーワードをユーザの識別情報と関連付けて移動体端末から受信するとともに、ロボットにおいて録音されたキーワードをロボットから受信するステップと、移動体端末から受信したキーワードとロボットから受信したキーワードとが一致している場合、受信した識別情報によって特定されるユーザに関する情報をロボットに送信するステップとを、サーバ装置のプロセッサに実行させる。   When the further another situation of this invention is followed, a program controls the server apparatus which can communicate with the robot which can speak, and a mobile terminal. The program associates the keyword recorded in the mobile terminal with the user identification information based on the fact that the user of the mobile terminal speaks a predetermined keyword to the robot and the mobile terminal. When the keyword received from the robot and the keyword received from the mobile terminal match the keyword received from the robot, the step of receiving the keyword recorded by the robot and the keyword received from the robot is related to the user specified by the received identification information And transmitting the information to the robot.

本発明のさらに他の局面に従うと、プログラムは、サーバ装置と通信する発話可能なロボットを制御する。プログラムは、サーバ装置と通信可能な移動体端末のユーザがロボットに対して予め定められたキーワードを発話したことに基づいて、キーワードを録音し、録音されたキーワードをサーバ装置に送信するステップと、ロボットから受信したキーワードと移動体端末から受信したキーワードとが一致していることを条件に、サーバ装置から、移動体端末の識別情報によって特定されるユーザに関する情報を受信するステップと、情報に基づいて発話するステップとを、ロボットのプロセッサに実行させる。   When the further another situation of this invention is followed, a program controls the robot which can speak and communicates with a server apparatus. The program records a keyword based on the fact that a user of a mobile terminal that can communicate with the server device speaks a predetermined keyword to the robot, and transmits the recorded keyword to the server device; On the basis of the information received from the server device regarding the user specified by the mobile terminal identification information, on the condition that the keyword received from the robot and the keyword received from the mobile terminal match. The robot's processor.

上記の発明によれば、ロボットは、個人に応じた接客を行なうことが可能となる。   According to the above invention, the robot can perform customer service according to the individual.

本実施の形態に係る通信システムが活用される場所の一例を表した図である。It is a figure showing an example of the place where the communication system concerning this Embodiment is utilized. 通信システム1で実行される処理の概要を説明するための図である。FIG. 3 is a diagram for explaining an overview of processing executed in the communication system 1; 複数の個人情報が格納された個人DB(Data Base)3の概要を説明するための図である。It is a figure for demonstrating the outline | summary of personal DB (Data Base) 3 in which several personal information was stored. デジタルサイネージ400から出力される情報の一例を表した図である。It is a figure showing an example of the information output from digital signage. 通信システム1で行われる処理の流れを説明するためのシーケンス図である。3 is a sequence diagram for explaining a flow of processing performed in the communication system 1. FIG. 通信システム1を構成する各機器の機能的構成を説明するための機能ブロック図である。2 is a functional block diagram for explaining a functional configuration of each device constituting the communication system 1. FIG. ウェアラブル端末100のハードウェア構成の典型例を表した図である。2 is a diagram illustrating a typical hardware configuration of wearable terminal 100. FIG. サーバ装置200のハードウェア構成の典型例を表した図である。3 is a diagram illustrating a typical example of a hardware configuration of a server device 200. FIG. ロボット300のハードウェア構成を表した図である。2 is a diagram illustrating a hardware configuration of a robot 300. FIG. サーバ装置200において、個人DB3の代わりに格納されている個人DB3Aの概要を説明するための図である。6 is a diagram for explaining an overview of a personal DB 3A stored in the server device 200 instead of the personal DB 3. FIG. 店舗800に複数のデジタルサイネージが備えられている構成を表した図である。It is a figure showing the structure by which the shop 800 is equipped with several digital signage.

以下、図面を参照しつつ、本発明の各実施の形態に係る通信システムについて説明する。また、以下の説明では、同一の部材には同一の参照符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
[実施の形態1]
<A.処理の概要>
図1は、本実施の形態に係る通信システムが活用される場所の一例を表した図である。図1を参照して、店舗800の前を複数の通行人900が往来している。店舗800は、典型的には、商品を販売あるいはサービスを提供する店である。図1では、店舗800として、商品を販売するブティックを例に挙げている。
The communication system according to each embodiment of the present invention will be described below with reference to the drawings. In the following description, the same reference numerals are assigned to the same members. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
[Embodiment 1]
<A. Outline of processing>
FIG. 1 is a diagram illustrating an example of a place where the communication system according to the present embodiment is used. Referring to FIG. 1, a plurality of passers-by 900 pass in front of a store 800. The store 800 is typically a store that sells products or provides services. In FIG. 1, a boutique that sells products is taken as an example of the store 800.

店舗800の店頭の壁面には、デジタルサイネージ400が設置されている。デジタルサイネージ400は、店舗800で扱っている商品等の広告を表示するための表示装置(たとえば、液晶ディスプレイ)である。   A digital signage 400 is installed on the wall surface of the store 800. The digital signage 400 is a display device (for example, a liquid crystal display) for displaying advertisements such as products handled in the store 800.

また、店舗800には、自走式のロボット300が接客を行なために配置されている。ロボット300は、一例として、店舗800の店員に代わり、通行人900に対する店舗800への呼び込みを行なう。   In the store 800, a self-propelled robot 300 is arranged to serve customers. As an example, the robot 300 calls the passerby 900 to the store 800 instead of the store clerk of the store 800.

図2は、通信システム1で実行される処理の概要を説明するための図である。図2を参照して、通信システム1は、通行人900が所有するウェアラブル端末100と、クラウド上のサーバ装置200と、ロボット300と、デジタルサイネージ400とを備えている。以下、通信システム1で実行される処理を順に説明する。   FIG. 2 is a diagram for explaining an outline of processing executed in the communication system 1. Referring to FIG. 2, the communication system 1 includes a wearable terminal 100 owned by a passerby 900, a server device 200 on the cloud, a robot 300, and a digital signage 400. Hereinafter, processes executed in the communication system 1 will be described in order.

まず、ロボット300は、店舗800の前の通路を歩いている通行人900(図1参照)に対して、ロボット300を利用している店舗800への呼び込み(声掛け)をするための発話をする(処理(i))。ロボット300は、典型的には、複数の通行人900のうちから選択した1または複数の通行人900に対して、上記呼び込みのための発話を行なう。なお、上記選択処理の詳細については、後述する。   First, the robot 300 makes an utterance for calling (calling) the store 800 using the robot 300 to a passerby 900 (see FIG. 1) walking in the passage in front of the store 800. (Process (i)). The robot 300 typically utters the call for one or more passers-by 900 selected from the plurality of passers-by 900. Details of the selection process will be described later.

ロボット300は、呼び込みを行なう度に、呼び込み対象となった通行人900の当該呼び込み(発話)への反応を確認する(処理(ii))。ロボット300は、ロボット300が呼び込みを行なった複数の通行人900のうち、呼び込みに反応した通行人900(すなわち、ロボット300に興味を示していると判断し得る人物)を特定する。   Each time the robot 300 performs a call, the robot 300 confirms a response to the call (utterance) of the passer-by 900 as a call target (process (ii)). The robot 300 identifies a passer-by 900 that responds to the call (that is, a person who can be determined to be interested in the robot 300) among the plurality of passers-by 900 that the robot 300 has called.

ロボット300は、呼び込みに反応した通行人900に対して、キーワードの発話要求を発話により行なう(処理(iii))。発話要求を受けた通行人900(図2に示した通行人900)は、キーワードを発話する(処理(iv))。詳しくは、通行人900は、ロボット300およびウェアラブル端末100に対して、キーワードを発話する。   The robot 300 makes an utterance request for a keyword to the passerby 900 who has responded to the call (processing (iii)). The passerby 900 (passerby 900 shown in FIG. 2) having received the utterance request utters the keyword (process (iv)). Specifically, the passerby 900 utters a keyword to the robot 300 and the wearable terminal 100.

ウェアラブル端末100は、通行人900が発話したキーワードを録音して、当該録音されたキーワードを、ユーザの識別情報(以下、「ユーザID」と称する)およびウェアラブル端末100の現在位置を表す情報(以下、「位置情報」とも称する)と関連付けてサーバ装置200に送信する(処理(v))。ロボット300は、通行人900が発話したキーワードを録音して、当該録音されたキーワードをロボット300の位置情報と関連付けてサーバ装置200に送信する(処理(vi))。なお、説明の便宜上、処理(v)の後に処理(vi)が行われる構成を例挙げて説明しているが、通常は、処理(v)と処理(vi)とは並行して行われる。   Wearable terminal 100 records a keyword spoken by passerby 900, and uses the recorded keyword as user identification information (hereinafter referred to as “user ID”) and information indicating the current position of wearable terminal 100 (hereinafter referred to as “user ID”). , Also referred to as “position information”) and transmitted to the server apparatus 200 (process (v)). The robot 300 records a keyword spoken by the passerby 900, and transmits the recorded keyword to the server device 200 in association with the position information of the robot 300 (process (vi)). For convenience of explanation, the configuration in which the processing (vi) is performed after the processing (v) is described as an example, but the processing (v) and the processing (vi) are usually performed in parallel.

サーバ装置200は、ウェアラブル端末100からユーザIDを受信することにより、通行人900を認証する。また、サーバ装置200は、ウェアラブル端末100から受信した情報とロボット300から受信した情報とに基づいて、照合処理を行なう(処理(vii))。具体的には、サーバ装置200は、ウェアラブル端末100から受信したキーワードとロボット300から受信したキーワードとが一致しているか否かを判断する。さらに、サーバ装置200は、ウェアラブル端末100から受信した位置情報とロボット300から受信した位置情報とに基づき、ウェアラブル端末100の現在位置とロボット300の現在位置とが一致するか(詳しくは、両者が所定の距離以内にいるか)否かを判断する。   The server device 200 authenticates the passerby 900 by receiving the user ID from the wearable terminal 100. Further, the server device 200 performs a collation process based on the information received from the wearable terminal 100 and the information received from the robot 300 (process (vii)). Specifically, the server device 200 determines whether or not the keyword received from the wearable terminal 100 matches the keyword received from the robot 300. Furthermore, the server apparatus 200 determines whether the current position of the wearable terminal 100 and the current position of the robot 300 match based on the position information received from the wearable terminal 100 and the position information received from the robot 300 (more specifically, Whether or not it is within a predetermined distance).

サーバ装置200は、キーワード同士が一致し、かつウェアラブル端末100の現在位置とロボット300の現在位置とが一致していると判断された場合、受信したユーザIDによって特定されるユーザに関する情報(以下、「個人情報」と称する)をロボット300に送信する(処理(viii))。   When it is determined that the keywords match and the current position of the wearable terminal 100 matches the current position of the robot 300, the server device 200 includes information about the user specified by the received user ID (hereinafter, (Referred to as “personal information”) is transmitted to the robot 300 (process (viii)).

ロボット300は、通行人900の個人情報を受信したことに基づき、通行人900との間で個人情報を用いた接客を行なう(処理(ix))。典型的には、ロボット300は、個人情報を参考にして、通行人900に対して、通行人900が興味を引くであろうと思われる内容を含んだ発話を行なう。さらに、ロボット300は、個人情報を利用して、接客をしている通行人900におすすめの商品の広告をデジタルサイネージ400に表示させる(処理(x))。つまり、ロボット300は、デジタルサイネージ400から出力される広告を、接客を行なっている通行人900に適した広告に変更する。   Based on the reception of personal information of the passer-by 900, the robot 300 performs customer service with the passer-by 900 using the personal information (processing (ix)). Typically, the robot 300 utters the passerby 900 including content that the passerby 900 may be interested in, referring to the personal information. Furthermore, the robot 300 uses the personal information to display on the digital signage 400 an advertisement for a product recommended for the passer-by 900 who is serving customers (processing (x)). That is, the robot 300 changes the advertisement output from the digital signage 400 to an advertisement suitable for the passer-by 900 who is serving customers.

ここで、「キーワード」とは、本システムを適用する際に、その個人しか知りえない情報であり、個人はキーワードに応じて提供する情報を知り得ることができる(後述の図10)。   Here, the “keyword” is information that only the individual can know when applying this system, and the individual can know the information provided according to the keyword (FIG. 10 described later).

以上のように、通信システム1によれば、ロボット300は個人情報を利用するため、個人に応じた接客を行なうことが可能となる。よって、ロボット300を活用した接客の効率化を図ることができる。また、ウェアラブル端末100からユーザIDを取得するため、通行人900にユーザIDの送信操作(たとえば、ロボット300に対するIDカードの提示等)を行なわせる必要がなくなる。   As described above, according to the communication system 1, since the robot 300 uses personal information, it is possible to perform customer service according to the individual. Therefore, the efficiency of customer service using the robot 300 can be improved. Further, since the user ID is acquired from the wearable terminal 100, it is not necessary for the passerby 900 to perform a user ID transmission operation (for example, presentation of an ID card to the robot 300).

なお、図2においては、ウェアラブル端末100を用いた例を挙げているが、ウェアラブル端末100に限定されるものではない。通信システム1がスマートフォン等の移動体端末を利用する構成であればよい。また、上記においては、ウェアラブル端末100から受信した位置情報とロボット300から受信した位置情報とに基づき、ウェアラブル端末100の現在位置とロボット300の現在位置とが一致するかを判定したが、当該処理は必須の処理ではない。   In addition, although the example using the wearable terminal 100 is given in FIG. 2, it is not limited to the wearable terminal 100. The communication system 1 may be configured to use a mobile terminal such as a smartphone. In the above description, it is determined whether the current position of the wearable terminal 100 and the current position of the robot 300 match based on the position information received from the wearable terminal 100 and the position information received from the robot 300. Is not a mandatory process.

<B.処理の具体的内容>
以下では、通信システム1で実行される処理の詳細について説明する。具体的には、通行人900に対する呼び込みの詳細と、呼び込み後の接客相手の絞り込み(特定)の詳細と、キーワード要求処理の詳細と、照合後の接客の詳細とについて説明する。
<B. Specific contents of processing>
Below, the detail of the process performed with the communication system 1 is demonstrated. Specifically, details of the call to the passer-by 900, details of narrowing (specification) of the customer after the call, details of the keyword request process, and details of the customer after the verification will be described.

<b1.通行人に対する呼び込み>
ロボット300は、ロボット300に搭載したカメラで複数の通行人900を撮像し、撮像により得られた画像の特徴点に基づき、複数の通行人900のうちから呼び込みの対象とする人物を選択する。
<B1. Call to passers-by>
The robot 300 images a plurality of passers-by 900 with a camera mounted on the robot 300, and selects a person to be called out from the plurality of passers-by 900 based on the feature points of the image obtained by the imaging.

詳しくは、ロボット300は、画像に基づき、性別、年代(年齢層)、服装、歩行スピード等を判断する。これにより、ロボット300は、複数の通行人900から、売りたい商品の販売対象となる通行人900を含む店舗800がターゲットとする通行人900を選択する。ロボット300は、選択された通行人900に対して、呼び込みを行なう(処理(i))。   Specifically, the robot 300 determines gender, age (age group), clothes, walking speed, and the like based on the image. As a result, the robot 300 selects a passer-by 900 targeted by the store 800 including the passer-by 900 to be sold for the merchandise to be sold from a plurality of passers-by 900. The robot 300 calls the selected passerby 900 (process (i)).

より詳しくは、ロボット300は、選択された通行人900の服装を加味し、当該通行人900にしか気づかない特徴を織り交ぜて呼び込みを行なう。たとえば、ロボット300は、「そこの帽子をかぶったお嬢さん、僕の話を聞いて」と発話する。   More specifically, the robot 300 takes into account the clothes of the selected passer-by 900 and interrogate the features that only the passer-by 900 notices, and performs the call. For example, the robot 300 utters “A lady wearing a hat there, listen to me”.

<b2.接客相手の絞り込み>
ロボット300は、予め定められた基準に基づいて、ロボット300が呼び込みを行なった複数の通行人900のうちから、呼び込みに反応した通行人900を特定する。つまり、ロボット300は、ロボット300が呼び込みを行なった複数の通行人900から接客相手の絞り込みを行なう。
<B2. Narrow down customer service>
Based on a predetermined criterion, the robot 300 identifies a passer-by 900 that has responded to the call from among a plurality of passers-by 900 that the robot 300 has called. That is, the robot 300 narrows down the customer service from a plurality of passers-by 900 that the robot 300 has called.

具体的には、ロボット300は、ロボット300が呼び込みを行なった通行人900が上記予め定められた基準としての以下の動作を行なったと判断した場、接客相手を当該動作を行なった通行人900に絞り込む。上記動作としては、たとえば、「振り向いた」、「振り向いて笑顔」、「目線があった」、「ロボット300の方に近づいてきた」、または「話しかけてきた」等が挙げられる。   Specifically, when it is determined that the passer-by 900 who the robot 300 has called has performed the following operation as the above-mentioned predetermined reference, the robot 300 is referred to the passer-by 900 who has performed the operation. Narrow down. Examples of the operation include “turned around”, “turned around and smiled”, “has eyes”, “approached toward robot 300”, “talked”, and the like.

<b3.キーワード要求処理>
ロボット300は、上記絞り込みを行なうと、当該絞り込まれた通行人900に対して、上述したように、キーワードの発話を要求する(図2の処理(iii))。具体的には、ロボット300は、上記撮像により得られた特徴点を考慮した会話の中に、キーワードの発話要求を織り交ぜる。たとえば、ロボット300は、「黄色い色の服の貴方、貴方のことを教えて。よければキーワードを言ってみて!」と発話する。
<B3. Keyword request processing>
When the above-mentioned narrowing down is performed, the robot 300 requests the narrowed passer-by 900 to speak the keyword as described above (processing (iii) in FIG. 2). Specifically, the robot 300 interlaces the keyword utterance request in the conversation in consideration of the feature points obtained by the imaging. For example, the robot 300 utters "You in yellow clothes, tell me about you. Say the keyword if you like!"

なお、ウェアラブル端末100は、ロボット300の発話に基づき、ウェアラブル端末100のディスプレイ1591(図7)に補足説明を表示する。ウェアラブル端末100は、たとえば、「キーワードを発話すると、あなたの個人情報がクラウドからロボット300に送られます」との表示を行なう。なお、これに限定されず、実際に提供する情報を表示することによって、当該情報をユーザに確認させてもよい。   Wearable terminal 100 displays supplementary explanation on display 1591 (FIG. 7) of wearable terminal 100 based on the utterance of robot 300. Wearable terminal 100 displays, for example, “When you utter a keyword, your personal information will be sent from the cloud to robot 300”. Note that the present invention is not limited to this, and information actually provided may be displayed to allow the user to confirm the information.

<b4.照合後の接客>
サーバ装置200は、キーワード同士の照合と位置情報同士の照合に成功すると、ユーザIDに基づき特定される個人情報をロボット300に送信する。この場合、ロボット300は、上述したように、通行人900に対して当該通行人900の個人情報を用いた接客を行なう。
<B4. Customer service after verification>
When the server device 200 succeeds in matching keywords and position information, the server device 200 transmits personal information specified based on the user ID to the robot 300. In this case, as described above, the robot 300 performs service to the passer-by 900 using the personal information of the passer-by 900.

図3は、複数の個人情報が格納された個人DB(Data Base)3の概要を説明するための図である。図3を参照して、個人DB3においては、ユーザID毎に、個人情報として、性別、年齢、趣味、職業、服のサイズ、服の好み、好きな色、保有している服、欲しい商品、…等の各種情報が記憶されている。   FIG. 3 is a diagram for explaining an overview of a personal DB (Data Base) 3 in which a plurality of personal information is stored. Referring to FIG. 3, in personal DB 3, for each user ID, as personal information, gender, age, hobby, occupation, clothing size, clothing preference, favorite color, possessed clothing, desired product, Various information such as... Is stored.

サーバ装置200は、複数の個人情報のうちから、ウェアラブル端末100から受信したユーザIDに対応付けられている個人情報をロボット300に送信する。たとえば、サーバ装置200は、ウェアラブル端末100から「80001」のユーザIDを受信した場合、性別“男”、年齢“28”、趣味“ドライブ”、職業“会社員”、服のサイズ“170〜175cm,M”、服の好み“モード系”、好きな色“黒”、…といった個人情報を、ロボット300に送信する。ロボット300は、上述したように、個人情報を利用した接客を通行人900に対して行なう。   The server device 200 transmits the personal information associated with the user ID received from the wearable terminal 100 to the robot 300 among the plurality of personal information. For example, when the server apparatus 200 receives the user ID “80001” from the wearable terminal 100, the gender “male”, the age “28”, the hobby “drive”, the occupation “company employee”, and the clothes size “170 to 175 cm”. , M ”, clothing preference“ mode system ”, favorite color“ black ”,... As described above, the robot 300 performs customer service for the passerby 900 using personal information.

また、ロボット300は、上述したように、デジタルサイネージ400から出力される広告を、接客を行なっている通行人900に適した広告に変更する。つまり、ロボット300は、デジタルサイネージ400の動作モードを、一般の広告を表示するモードから、接客用のモードに変更する。以下、当該変更処理を具体例を挙げて説明する。   In addition, as described above, the robot 300 changes the advertisement output from the digital signage 400 to an advertisement suitable for the passer-by 900 who is serving customers. That is, the robot 300 changes the operation mode of the digital signage 400 from the mode for displaying general advertisements to the mode for customer service. Hereinafter, the change process will be described with a specific example.

図4は、デジタルサイネージ400から出力される情報の一例を表した図である。図4(A)は、変更前の広告(通常時の表示内容)を表した図であり、図4(B)は、変更後の広告を表した図である。図4(A)を参照して、デジタルサイネージ400は、複数の取扱商品のうち、新商品の広告を表示している。図4(B)を参照して、デジタルサイネージ400は、個人情報を用いた接客の開始に伴い、一例として、新商品の代わりに、ユーザIDで特定される通行人900へのおすすめ商品の広告を表示する。   FIG. 4 is a diagram illustrating an example of information output from the digital signage 400. FIG. 4A is a diagram showing the advertisement before the change (display contents at normal time), and FIG. 4B is a diagram showing the advertisement after the change. Referring to FIG. 4A, digital signage 400 displays an advertisement for a new product among a plurality of handled products. Referring to FIG. 4B, digital signage 400, as an example, with the start of customer service using personal information, instead of a new product, advertisement of a recommended product to passerby 900 specified by the user ID Is displayed.

ロボット300が、このような変更処理(表示内容切り替え処理)をデジタルサイネージ400に実行させることにより、ロボット300は、通行人900に対して、より具体的な情報提示を伴った接客を行なうことが可能となる。なお、表示の変更指示は、ロボット300から送られてくるが、表示させる内容(商品広告)は、ロボット300から送られてきてもよいし、ロボット300を経由することなくサーバ装置200から送られてきてもよい。   When the robot 300 causes the digital signage 400 to execute such a change process (display content switching process), the robot 300 can serve the passerby 900 with more specific information presentation. It becomes possible. The display change instruction is sent from the robot 300, but the content to be displayed (product advertisement) may be sent from the robot 300 or sent from the server device 200 without going through the robot 300. You may come.

なお、接客が終了すると、ロボット300は、デジタルサイネージ400の動作モードを、接客用のモードから一般の広告を表示するモードに戻す。「接客が終了」したことは、たとえば、(i)対象者がロボット300および店舗800から離れていくことや対象者が店舗800の会計レジに進むなどの接客対象者の動きに基づき判断、あるいは(ii)接客対象者がロボットに対して「ありがとう」とか接客の断りを入れる文言が発せられることに基づき判断される。   When the customer service ends, the robot 300 returns the operation mode of the digital signage 400 from the customer service mode to a mode for displaying a general advertisement. Whether the customer service has ended is determined based on, for example, (i) the movement of the target customer such as the target person leaving the robot 300 and the store 800 or the target person proceeding to the cash register at the store 800, or (Ii) Judgment is made based on the fact that the customer-facing person issues a word of “thank you” or refuses customer service to the robot.

<C.制御構造>
図5は、通信システム1で行われる処理の流れを説明するためのシーケンス図である。図5を参照して、ステップS2において、ロボット300は、通行人900に対して、店舗800への呼び込みを行なう。ステップS4において、ロボット300は、各種センサー、カメラ、および/またはマイク等を用いて、通行人900の反応を検知する。ステップS6において、ロボット300は、キーワードの発話要求を行なう。ステップS8において、通行人900がキーワードを発話したことに基づき、当該発話されたキーワードを録音する。ステップS10において、ウェアラブル端末100は、発話されたキーワードを録音する。
<C. Control structure>
FIG. 5 is a sequence diagram for explaining the flow of processing performed in the communication system 1. Referring to FIG. 5, in step S <b> 2, robot 300 calls passer-by 900 to store 800. In step S4, the robot 300 detects the reaction of the passerby 900 using various sensors, cameras, and / or microphones. In step S6, the robot 300 issues a keyword utterance request. In step S8, the spoken keyword is recorded based on the passer-by 900 speaking the keyword. In step S10, wearable terminal 100 records the spoken keyword.

ステップS12において、ウェアラブル端末100は、ウェアラブル端末100に予め記憶されたまたは入力されたユーザIDと、ウェアラブル端末100の位置情報とを、キーワードに関連付けて、サーバ装置200に送信する。ステップS14において、ロボット300は、ロボット300の位置情報にキーワードを関連付けて、サーバ装置200に送信する。   In step S <b> 12, wearable terminal 100 transmits user ID stored in or input to wearable terminal 100 and position information of wearable terminal 100 to server apparatus 200 in association with the keyword. In step S <b> 14, the robot 300 associates the keyword with the position information of the robot 300 and transmits it to the server device 200.

ステップS16において、サーバ装置200は、キーワードおよび位置情報による照合を行なう。具体的には、サーバ装置200は、上述したとおり、キーワード同士が一致するか否かと、ウェアラブル端末100の現在位置とロボット300の現在位置とが一致するか否かとの判断を行なう。照合に成功した場合、ステップS18において、サーバ装置200は、ウェアラブル端末100から受信したユーザIDに基づき、個人DB3の中から個人情報を抽出する。   In step S <b> 16, server device 200 performs collation using keywords and position information. Specifically, as described above, the server device 200 determines whether or not the keywords match each other and whether or not the current position of the wearable terminal 100 matches the current position of the robot 300. If the verification is successful, the server device 200 extracts personal information from the personal DB 3 based on the user ID received from the wearable terminal 100 in step S18.

ステップS20において、サーバ装置200は、抽出された個人情報をロボット300に送信する。ステップS22において、ロボット300は、個人情報を利用した接客を開始する。ステップS24において、ロボット300は、商品の広告情報をデジタルサイネージ400に送信する。ステップS26において、デジタルサイネージ400は、受信された広告情報に基づいて、商品の広告を表示する。   In step S <b> 20, the server device 200 transmits the extracted personal information to the robot 300. In step S22, the robot 300 starts customer service using personal information. In step S <b> 24, the robot 300 transmits product advertisement information to the digital signage 400. In step S <b> 26, the digital signage 400 displays a product advertisement based on the received advertisement information.

<D.機能的構成>
図6は、通信システム1を構成する各機器(100,200,300,400)の機能的構成を説明するための機能ブロック図である。図6を参照して、通信システム1は、上述したように、ウェアラブル端末100と、サーバ装置200と、ロボット300と、デジタルサイネージ400とを備える。
<D. Functional configuration>
FIG. 6 is a functional block diagram for explaining a functional configuration of each device (100, 200, 300, 400) constituting the communication system 1. With reference to FIG. 6, the communication system 1 includes the wearable terminal 100, the server device 200, the robot 300, and the digital signage 400 as described above.

(d1.ウェアラブル端末100)
ウェアラブル端末100は、記憶部101と、制御部102と、通信処理部103と、位置情報取得部104と、録音処理部105と、図示しない表示部とを備える。通信処理部103は、送信部1031と、受信部1032とを有する。
(D1. Wearable terminal 100)
The wearable terminal 100 includes a storage unit 101, a control unit 102, a communication processing unit 103, a position information acquisition unit 104, a recording processing unit 105, and a display unit (not shown). The communication processing unit 103 includes a transmission unit 1031 and a reception unit 1032.

記憶部101は、ウェアラブル端末100のオペレーティングシステム、各種のアプリケーションプログラム、各種のデータを記憶している。記憶部101は、後述する、ROM(Read Only Memory)152、RAM(Random Access Memory)153、フラッシュメモリ154(図7)に対応する。   The storage unit 101 stores the operating system of the wearable terminal 100, various application programs, and various data. The storage unit 101 corresponds to a ROM (Read Only Memory) 152, a RAM (Random Access Memory) 153, and a flash memory 154 (FIG. 7), which will be described later.

制御部102は、ウェアラブル端末100の動作を制御する。具体的には、制御部102は、オペレーティングシステムおよび各種のアプリケーション等に基づいて、ウェアラブル端末100の動作を制御する。制御部102は、後述するCPU(Central Processing Unit)151(図7)がオペレーティングシステムおよびアプリケーションプログラムを実行することにより実現される。   The control unit 102 controls the operation of the wearable terminal 100. Specifically, the control unit 102 controls the operation of the wearable terminal 100 based on an operating system and various applications. The control unit 102 is realized by a CPU (Central Processing Unit) 151 (FIG. 7) described later executing an operating system and application programs.

通信処理部103は、典型的には、サーバ装置200との通信に利用される。送信部1031は、各種のデータをサーバ装置200に送信する。受信部1032は、各種のデータをサーバ装置200から受信する。なお、通信処理部103は、後述する通信IF(InterFace)157(図7)に対応する。   The communication processing unit 103 is typically used for communication with the server device 200. The transmission unit 1031 transmits various data to the server device 200. The receiving unit 1032 receives various data from the server device 200. The communication processing unit 103 corresponds to a communication IF (InterFace) 157 (FIG. 7) described later.

位置情報取得部104は、ウェアラブル端末100の現在位置の位置情報を取得する。位置情報取得部104は、後述するGPS受信機162(図7)に対応する。   The position information acquisition unit 104 acquires position information of the current position of the wearable terminal 100. The position information acquisition unit 104 corresponds to a GPS receiver 162 (FIG. 7) described later.

録音処理部105は、音声等の音を集音し、記憶部101に記憶させる。具体的には、録音処理部105は、集音したアナログデータをデジタルデータに変換する。録音処理部105によって当該デジタルデータが制御部102に送られることにより、当該デジタルデータが記憶部101に記憶される。   The recording processing unit 105 collects sound such as voice and stores it in the storage unit 101. Specifically, the recording processing unit 105 converts the collected analog data into digital data. When the digital data is sent to the control unit 102 by the recording processing unit 105, the digital data is stored in the storage unit 101.

さらに詳しくは、録音処理部105は、ウェアラブル端末100のユーザが発したキーワードを録音する。制御部102は、当該録音されたキーワードと、位置情報取得部104から受け取った位置情報と、ユーザIDとを対応付けて、通信処理部103に送る。送信部1031は、キーワードと、ウェアラブル端末100の位置情報と、ユーザIDとを関連付けて、サーバ装置200に送信する。   More specifically, the recording processing unit 105 records a keyword issued by the user of the wearable terminal 100. The control unit 102 associates the recorded keyword, the position information received from the position information acquisition unit 104, and the user ID, and sends the associated keyword to the communication processing unit 103. The transmission unit 1031 associates the keyword, the position information of the wearable terminal 100, and the user ID, and transmits them to the server device 200.

(d2.サーバ装置200)
サーバ装置200は、記憶部201と、制御部202と、通信処理部203とを備える。制御部202は、照合処理部2021を有する。通信処理部203は、送信部2031と、受信部2032とを有する。
(D2. Server device 200)
The server device 200 includes a storage unit 201, a control unit 202, and a communication processing unit 203. The control unit 202 has a matching processing unit 2021. The communication processing unit 203 includes a transmission unit 2031 and a reception unit 2032.

記憶部201は、サーバ装置200のオペレーティングシステム、各種のアプリケーションプログラム、各種のデータを記憶している。また、記憶部201は、個人DB3(図3)を記憶している。記憶部201は、後述する、ROM252、RAM253、およびHDD(Hard Disc Drive)254に対応する(図8)。   The storage unit 201 stores the operating system of the server device 200, various application programs, and various data. The storage unit 201 stores a personal DB 3 (FIG. 3). The storage unit 201 corresponds to a ROM 252, a RAM 253, and an HDD (Hard Disc Drive) 254, which will be described later (FIG. 8).

制御部202は、サーバ装置200の動作を制御する。具体的には、制御部202は、オペレーティングシステムおよび各種のアプリケーション等に基づいて、サーバ装置200の動作を制御する。制御部202は、後述するCPU251(図8)がオペレーティングシステムおよびアプリケーションプログラムを実行することにより実現される。   The control unit 202 controls the operation of the server device 200. Specifically, the control unit 202 controls the operation of the server device 200 based on an operating system and various applications. The control unit 202 is realized by a CPU 251 (FIG. 8) described later executing an operating system and application programs.

通信処理部203は、典型的には、ウェアラブル端末100およびロボット300との通信に利用される。送信部2031は、各種のデータをウェアラブル端末100およびロボット300に送信する。受信部2032は、各種のデータをウェアラブル端末100およびロボット300から受信する。なお、通信処理部203は、後述する通信IF257(図8)に対応する。   The communication processing unit 203 is typically used for communication with the wearable terminal 100 and the robot 300. The transmission unit 2031 transmits various data to the wearable terminal 100 and the robot 300. The receiving unit 2032 receives various data from the wearable terminal 100 and the robot 300. The communication processing unit 203 corresponds to a communication IF 257 (FIG. 8) described later.

さらに詳しくは、受信部2032は、ウェアラブル端末100から、キーワードと、ウェアラブル端末100の位置情報と、ユーザIDとを受信する。また、受信部2032は、ロボット300から、キーワードと、サーバ装置200の位置情報とを受信する。   More specifically, the receiving unit 2032 receives a keyword, position information of the wearable terminal 100, and a user ID from the wearable terminal 100. The receiving unit 2032 receives a keyword and position information of the server device 200 from the robot 300.

照合処理部2021は、ウェアラブル端末100から受信したキーワードとロボット300から受信したキーワードとを照合する。さらに、照合処理部2021は、ウェアラブル端末100から受信した位置情報とロボット300から受信した位置情報とを照合する。すわち、照合処理部2021は、ウェアラブル端末100のユーザがロボット300の近くにいるか否かを判断する。   Collation processing unit 2021 collates the keyword received from wearable terminal 100 with the keyword received from robot 300. Furthermore, the collation processing unit 2021 collates the position information received from the wearable terminal 100 and the position information received from the robot 300. In other words, the collation processing unit 2021 determines whether or not the user of the wearable terminal 100 is near the robot 300.

照合に成功した場合、制御部202は、記憶部201に記憶された個人DB3から、受信したユーザIDに対応する個人情報を読み出す。送信部2031は、当該読み出された個人情報をロボット300に送信する。   When the collation is successful, the control unit 202 reads personal information corresponding to the received user ID from the personal DB 3 stored in the storage unit 201. The transmission unit 2031 transmits the read personal information to the robot 300.

(d3.ロボット300)
ロボット300は、記憶部301と、制御部302と、通信処理部303と、位置情報取得部304と、撮像部305と、画像処理部306と、録音処理部307と、駆動部308と、音声出力部309とを備える。制御部302は、駆動制御部3021と、発話制御部3022とを有する。通信処理部303は、送信部3031と、受信部3032とを有する。
(D3. Robot 300)
The robot 300 includes a storage unit 301, a control unit 302, a communication processing unit 303, a position information acquisition unit 304, an imaging unit 305, an image processing unit 306, a recording processing unit 307, a driving unit 308, and a voice. And an output unit 309. The control unit 302 includes a drive control unit 3021 and an utterance control unit 3022. The communication processing unit 303 includes a transmission unit 3031 and a reception unit 3032.

記憶部301は、ロボット300のオペレーティングシステム、各種のアプリケーションプログラム、各種のデータを記憶している。記憶部301は、後述する、ROM352、RAM353、およびフラッシュメモリ354に対応する(図9)。   The storage unit 301 stores an operating system of the robot 300, various application programs, and various data. The storage unit 301 corresponds to a ROM 352, a RAM 353, and a flash memory 354, which will be described later (FIG. 9).

制御部302は、ロボット300の動作を制御する。具体的には、制御部302は、オペレーティングシステムおよび各種のアプリケーション等に基づいて、ロボット300の動作を制御する。制御部302は、後述するCPU351(図9)がオペレーティングシステムおよびアプリケーションプログラムを実行することにより実現される。   The control unit 302 controls the operation of the robot 300. Specifically, the control unit 302 controls the operation of the robot 300 based on an operating system, various applications, and the like. The control unit 302 is realized by a CPU 351 (FIG. 9) described later executing an operating system and application programs.

通信処理部303は、典型的には、サーバ装置200およびデジタルサイネージ400との通信に利用される。送信部3031は、各種のデータをサーバ装置200およびデジタルサイネージ400に送信する。受信部3032は、各種のデータをサーバ装置200およびデジタルサイネージ400から受信する。なお、通信処理部303は、後述する通信IF361(図9)に対応する。   The communication processing unit 303 is typically used for communication with the server device 200 and the digital signage 400. The transmission unit 3031 transmits various data to the server device 200 and the digital signage 400. The receiving unit 3032 receives various data from the server device 200 and the digital signage 400. Note that the communication processing unit 303 corresponds to a communication IF 361 (FIG. 9) described later.

位置情報取得部304は、ロボット300の現在位置の位置情報を取得する。位置情報取得部304は、後述するGPS受信機358(図9)に対応する。   The position information acquisition unit 304 acquires position information on the current position of the robot 300. The position information acquisition unit 304 corresponds to a GPS receiver 358 (FIG. 9) described later.

撮像部305は、通行人900等の被写体を撮像する。画像処理部306は、撮像により得られた画像データに対して、所定の画像処理を実行する。撮像部305および画像処理部306は、後述するカメラ357(図9)に対応する。   The imaging unit 305 images a subject such as a passerby 900. The image processing unit 306 performs predetermined image processing on image data obtained by imaging. The imaging unit 305 and the image processing unit 306 correspond to a camera 357 (FIG. 9) described later.

録音処理部307は、音声等の音を集音し、記憶部301に記憶させる。具体的には、録音処理部307は、集音したアナログデータをデジタルデータに変換する。録音処理部307によって当該デジタルデータが制御部302に送られることにより、当該デジタルデータが記憶部301に記憶される。   The recording processing unit 307 collects sound such as voice and stores it in the storage unit 301. Specifically, the recording processing unit 307 converts the collected analog data into digital data. The digital data is stored in the storage unit 301 by the recording processing unit 307 sending the digital data to the control unit 302.

駆動制御部3021は、駆動部308の駆動を制御する。駆動部308は、後述する、モータ359および車輪360に対応する(図9)。駆動制御部3021および駆動部308によって、ロボット300は自走することができる。   The drive control unit 3021 controls driving of the drive unit 308. The drive unit 308 corresponds to a motor 359 and wheels 360 described later (FIG. 9). The robot 300 can run by the drive control unit 3021 and the drive unit 308.

発話制御部3022は、音声出力部309からの音声出力を制御する。具体的には、発話制御部3022は、発話の内容、声の声質、抑揚等を制御する。音声出力部309は、後述するスピーカ356(図9)に対応する。   The utterance control unit 3022 controls the voice output from the voice output unit 309. Specifically, the utterance control unit 3022 controls utterance contents, voice quality, intonation, and the like. The audio output unit 309 corresponds to a speaker 356 (FIG. 9) described later.

さらに詳しくは、制御部302は、音声出力部309に、通行人900を店舗800に呼び込むための発話を行なわせる。その際、制御部302は、撮像部305による撮像によって得られた画像の特徴点に基づき、ロボット300の周囲の通行人900のうちから呼び込みの対象とする人物を選択する。   More specifically, the control unit 302 causes the audio output unit 309 to make an utterance for calling the passerby 900 into the store 800. At that time, the control unit 302 selects a person to be called out from the passers-by 900 around the robot 300 based on the feature points of the image obtained by the imaging by the imaging unit 305.

呼び込みを行なった後、制御部302は、予め定められた基準に基づいて、ロボット300の周囲の通行人900のうちからロボット300に興味を示していると判断し得る人物を特定する。つまり、制御部302は、通行人900の絞り込みを行なう。具体的には、制御部302は、上述したように、接客対象を、予め定められた動作を行なった通行人900に絞り込む。絞り込みは、撮像部305により得られた画像の特徴(通行人900が振り向いた)、録音された声の内容(たとえば、通行人900が話しかけてきた)等に基づき行われる。   After performing the calling, the control unit 302 specifies a person who can be determined to be interested in the robot 300 from the passers-by 900 around the robot 300 based on a predetermined criterion. That is, the control unit 302 narrows down passers-by 900. Specifically, as described above, the control unit 302 narrows down the service target to passers-by 900 who have performed a predetermined action. The narrowing down is performed based on the characteristics of the image obtained by the imaging unit 305 (the passer-by 900 turns around), the content of the recorded voice (for example, the passer-by 900 speaks), and the like.

制御部302は、絞り込んだ通行人900に対して、キーワードの発話要求を音声にて音声出力部309から出力させる。録音処理部307は、通行人900(ウェアラブル端末100のユーザ)が発したキーワードを録音する。制御部302は、当該録音されたキーワードと、位置情報取得部104から受け取った位置情報とを対応付けて、通信処理部303に送る。送信部3031は、キーワードとロボット300の位置情報とを関連付けて、サーバ装置200に送信する。その後、受信部3032は、サーバ装置200から個人情報を受信する。送信部3031は、受信された個人情報に基づいた商品の広告情報を、デジタルサイネージ400に送信する。   The control unit 302 causes the narrowed passer-by 900 to output a keyword utterance request from the voice output unit 309 by voice. The recording processing unit 307 records a keyword issued by a passerby 900 (a user of the wearable terminal 100). The control unit 302 associates the recorded keyword with the position information received from the position information acquisition unit 104 and sends the associated keyword to the communication processing unit 303. The transmission unit 3031 associates the keyword with the position information of the robot 300 and transmits it to the server device 200. Thereafter, the receiving unit 3032 receives personal information from the server device 200. The transmission unit 3031 transmits product advertisement information based on the received personal information to the digital signage 400.

(d4.デジタルサイネージ400)
デジタルサイネージ400は、記憶部401と、制御部402と、通信処理部403と、表示部404とを備える。制御部402は、表示制御部4021を有する。
(D4. Digital signage 400)
The digital signage 400 includes a storage unit 401, a control unit 402, a communication processing unit 403, and a display unit 404. The control unit 402 includes a display control unit 4021.

記憶部401は、デジタルサイネージ400のオペレーティングシステム、各種のアプリケーションプログラム、各種のデータを記憶している。制御部402は、デジタルサイネージ400の動作を制御する。具体的には、制御部402は、オペレーティングシステムおよび各種のアプリケーション等に基づいて、デジタルサイネージ400の動作を制御する。通信処理部403は、典型的には、ロボット300との通信に利用される。送信部4031は、各種のロボット300に送信する。受信部4032は、各種のデータをロボット300から受信する。   The storage unit 401 stores the operating system of the digital signage 400, various application programs, and various data. The control unit 402 controls the operation of the digital signage 400. Specifically, the control unit 402 controls the operation of the digital signage 400 based on an operating system, various applications, and the like. The communication processing unit 403 is typically used for communication with the robot 300. The transmission unit 4031 transmits to various robots 300. The receiving unit 4032 receives various data from the robot 300.

表示制御部4021は、表示部404における画像の表示を制御する。受信部4032がロボット300から上述した商品情報を受信すると、表示制御部4021は、現在表示している情報の表示から、当該商品情報の表示へと表示内容を変更する。たとえば、表示制御部4021は、表示部404における表示内容を図4(A)の状態から図4(B)の状態に切り替える処理を行なう。   A display control unit 4021 controls display of an image on the display unit 404. When the receiving unit 4032 receives the product information described above from the robot 300, the display control unit 4021 changes the display content from displaying the currently displayed information to displaying the product information. For example, the display control unit 4021 performs a process of switching the display content on the display unit 404 from the state of FIG. 4A to the state of FIG.

<E.ハードウェア構成>
図7は、ウェアラブル端末100のハードウェア構成の典型例を表した図である。図7を参照して、ウェアラブル端末100は、主たる構成要素として、プログラムを実行するCPU151と、データを不揮発的に格納するROM152と、CPU151によるプログラムの実行により生成されたデータ、又は入力装置を介して入力されたデータを揮発的に格納するRAM153と、データを不揮発的に格納するフラッシュメモリ154と、LED155と、スイッチ156と、通信IF(Interface)157と、電源回路158と、タッチスクリーン159と、操作キー160と、カメラ161と、GPS(Global Positioning System)受信機162と、マイク163とを含む。各構成要素は、相互にデータバスによって接続されている。タッチスクリーンは、ディスプレイ1591と、タッチパネル1592により構成される。
<E. Hardware configuration>
FIG. 7 is a diagram illustrating a typical example of the hardware configuration of wearable terminal 100. Referring to FIG. 7, wearable terminal 100 includes, as main components, CPU 151 that executes a program, ROM 152 that stores data in a nonvolatile manner, data generated by execution of the program by CPU 151, or an input device. RAM 153 for storing the input data in a volatile manner, flash memory 154 for storing the data in a nonvolatile manner, LED 155, switch 156, communication IF (Interface) 157, power supply circuit 158, touch screen 159, , An operation key 160, a camera 161, a GPS (Global Positioning System) receiver 162, and a microphone 163. Each component is connected to each other by a data bus. The touch screen includes a display 1591 and a touch panel 1592.

電源回路158は、コンセントを介して受信した商用電源の電圧を降圧し、ウェアラブル端末100の各部に電源供給を行なう回路である。スイッチ156は、電源回路158に給電を行なうか否かを切替えるための主電源用のスイッチ、およびその他の各種の押しボタンスイッチである。   The power supply circuit 158 is a circuit that steps down the voltage of the commercial power received via the outlet and supplies power to each part of the wearable terminal 100. The switch 156 is a main power switch for switching whether or not to supply power to the power circuit 158 and other various push button switches.

タッチスクリーン159は、各種のデータを表示および入力を受け付けるためのデバイスである。ディスプレイ1591は、画像を表示するための画面を含んで構成されている。   The touch screen 159 is a device for displaying various data and receiving input. The display 1591 includes a screen for displaying an image.

通信IF157は、サーバ装置200に対するデータの送信処理およびサーバ装置200から送信されたデータの受信処理を行なう。LED155は、ウェアラブル端末100の動作状態を表す各種の表示ランプである。たとえば、LED155は、ウェアラブル端末100の主電源のオンまたはオフ状態、およびフラッシュメモリ154への読み出しまたは書き込み状態等を表す。操作キー160は、ウェアラブル端末100のユーザが主電源のオンまたはオフ等するためのキー(操作ボタン)である。カメラ161は、上述したように、ウェアラブル端末100の前にいる人物等の被写体を撮像するための撮像装置である。   The communication IF 157 performs data transmission processing for the server device 200 and data reception processing transmitted from the server device 200. The LED 155 is various display lamps that indicate the operating state of the wearable terminal 100. For example, the LED 155 represents the on / off state of the main power supply of the wearable terminal 100, the read / write state to the flash memory 154, and the like. The operation key 160 is a key (operation button) for the user of the wearable terminal 100 to turn on or off the main power. As described above, the camera 161 is an imaging device for imaging a subject such as a person in front of the wearable terminal 100.

GPS受信機162は、GPSを用いて、ウェアラブル端末100の現在位置を取得するための機器である。マイク163は、ウェアラブル端末100のユーザの音声等を集音するための装置である。本実施の形態では、マイク163によって、発話されたキーワードが集音される。なお、集音された音(デジタル変換後の音声データ)は、CPU151に送られ、所定の処理がなされる。   The GPS receiver 162 is a device for acquiring the current position of the wearable terminal 100 using GPS. The microphone 163 is a device for collecting the voice of the user of the wearable terminal 100 and the like. In the present embodiment, the spoken keyword is collected by microphone 163. The collected sound (audio data after digital conversion) is sent to the CPU 151 and subjected to predetermined processing.

ウェアラブル端末100における処理は、各ハードウェアおよびCPU151により実行されるソフトウェアによって実現される。このようなソフトウェアは、フラッシュメモリ154に予め記憶されている場合がある。また、ソフトウェアは、その他の記憶媒体に格納されて、プログラムプロダクトとして流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラムプロダクトとして提供される場合もある。このようなソフトウェアは、読取装置によりその記憶媒体から読み取られて、あるいは、通信IF157等を介してダウンロードされた後、フラッシュメモリ154に一旦格納される。そのソフトウェアは、CPU151によってフラッシュメモリ154から読み出され、RAM153に実行可能なプログラムの形式で格納される。CPU151は、そのプログラムを実行する。   The processing in the wearable terminal 100 is realized by each hardware and software executed by the CPU 151. Such software may be stored in advance in the flash memory 154. The software may be stored in other storage media and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet. Such software is read from the storage medium by the reading device or downloaded via the communication IF 157 or the like and then temporarily stored in the flash memory 154. The software is read from the flash memory 154 by the CPU 151 and stored in the RAM 153 in the form of an executable program. CPU 151 executes the program.

同図に示されるウェアラブル端末100を構成する各構成要素は、一般的なものである。したがって、本発明の本質的な部分は、RAM153、フラッシュメモリ154、記憶媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、ウェアラブル端末100の各ハードウェアの動作は周知であるので、詳細な説明は繰り返さない。   Each component which comprises the wearable terminal 100 shown by the figure is general. Therefore, it can be said that the essential part of the present invention is RAM 153, flash memory 154, software stored in a storage medium, or software that can be downloaded via a network. Since the operation of each hardware of wearable terminal 100 is well known, detailed description will not be repeated.

なお、記録媒体としては、DVD−RAMに限られず、DVD-ROM、CD−ROM、FD、ハードディスク、磁気テープ、カセットテープ、光ディスク、EEPROM、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。また、記録媒体は、当該プログラム等をコンピュータが読取可能な一時的でない媒体である。また、ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   The recording medium is not limited to a DVD-RAM, and a fixed program such as a semiconductor memory such as a DVD-ROM, a CD-ROM, an FD, a hard disk, a magnetic tape, a cassette tape, an optical disk, an EEPROM, and a flash ROM is supported. It may be a medium to be used. The recording medium is a non-temporary medium that can be read by the computer. The program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.

図8は、サーバ装置200のハードウェア構成の典型例を表した図である。図8を参照して、サーバ装置200は、主たる構成要素として、プログラムを実行するCPU251と、データを不揮発的に格納するROM252と、CPU251によるプログラムの実行により生成されたデータ、又は入力装置を介して入力されたデータを揮発的に格納するRAM253と、データを不揮発的に格納するHDD254と、LED255と、スイッチ256と、通信IF(Interface)257と、電源回路258と、ディスプレイ259と、操作キー260とを含む。各構成要素は、相互にデータバスによって接続されている。   FIG. 8 is a diagram illustrating a typical example of the hardware configuration of the server apparatus 200. Referring to FIG. 8, server apparatus 200 includes, as main components, CPU 251 that executes a program, ROM 252 that stores data in a nonvolatile manner, data generated by execution of the program by CPU 251, or an input device. RAM 253 for storing the input data in a volatile manner, HDD 254 for storing the data in a nonvolatile manner, LED 255, switch 256, communication IF (Interface) 257, power supply circuit 258, display 259, and operation keys 260. Each component is connected to each other by a data bus.

電源回路258は、コンセントを介して受信した商用電源の電圧を降圧し、サーバ装置200の各部に電源供給を行なう回路である。スイッチ256は、電源回路258に給電を行なうか否かを切替えるための主電源用のスイッチ、およびその他の各種の押しボタンスイッチである。ディスプレイ259は、各種のデータを表示するためのデバイスである。   The power supply circuit 258 is a circuit that steps down the voltage of the commercial power received via the outlet and supplies power to each part of the server device 200. The switch 256 is a main power switch for switching whether or not to supply power to the power circuit 258 and other various push button switches. The display 259 is a device for displaying various data.

通信IF257は、ウェアラブル端末100に対するデータの送信処理およびウェアラブル端末100から送信されたデータの受信処理を行なう。   The communication IF 257 performs processing for transmitting data to the wearable terminal 100 and processing for receiving data transmitted from the wearable terminal 100.

LED255は、サーバ装置200の動作状態を表す各種の表示ランプである。たとえば、LED255は、サーバ装置200の主電源のオンまたはオフ状態、およびHDD254への読み出しまたは書き込み状態等を表す。操作キー260は、サーバ装置200のユーザがサーバ装置200へデータを入力するための用いるキー(キーボード)である。   The LED 255 is various display lamps that indicate the operating state of the server device 200. For example, the LED 255 represents an on or off state of the main power supply of the server apparatus 200, a read or write state to the HDD 254, and the like. The operation key 260 is a key (keyboard) used for the user of the server device 200 to input data to the server device 200.

サーバ装置200における処理は、各ハードウェアおよびCPU251により実行されるソフトウェアによって実現される。このようなソフトウェアは、HDD254に予め記憶されている場合がある。また、ソフトウェアは、その他の記憶媒体に格納されて、プログラムプロダクトとして流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラムプロダクトとして提供される場合もある。このようなソフトウェアは、読取装置によりその記憶媒体から読み取られて、あるいは、通信IF257等を介してダウンロードされた後、HDD254に一旦格納される。そのソフトウェアは、CPU251によってHDD254から読み出され、RAM253に実行可能なプログラムの形式で格納される。CPU251は、そのプログラムを実行する。   The processing in the server device 200 is realized by each hardware and software executed by the CPU 251. Such software may be stored in the HDD 254 in advance. The software may be stored in other storage media and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet. Such software is read from the storage medium by a reading device or downloaded via the communication IF 257 or the like and then temporarily stored in the HDD 254. The software is read from the HDD 254 by the CPU 251 and stored in the RAM 253 in the form of an executable program. The CPU 251 executes the program.

同図に示されるサーバ装置200を構成する各構成要素は、一般的なものである。したがって、本発明の本質的な部分は、RAM253、HDD254、記憶媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、サーバ装置200の各ハードウェアの動作は周知であるので、詳細な説明は繰り返さない。   Each component which comprises the server apparatus 200 shown by the figure is a general thing. Therefore, it can be said that the essential part of the present invention is RAM 253, HDD 254, software stored in a storage medium, or software that can be downloaded via a network. Since the operation of each hardware of server device 200 is well known, detailed description will not be repeated.

なお、記録媒体としては、DVD−RAMに限られず、DVD-ROM、CD−ROM、FD、ハードディスク、磁気テープ、カセットテープ、光ディスク、EEPROM、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。また、記録媒体は、当該プログラム等をコンピュータが読取可能な一時的でない媒体である。また、ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   The recording medium is not limited to a DVD-RAM, and a fixed program such as a semiconductor memory such as a DVD-ROM, a CD-ROM, an FD, a hard disk, a magnetic tape, a cassette tape, an optical disk, an EEPROM, and a flash ROM is supported. It may be a medium to be used. The recording medium is a non-temporary medium that can be read by the computer. The program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.

図9は、ロボット300のハードウェア構成を表した図である。図9を参照して、ロボット300は、プログラムを実行するCPU351と、ROM(Read Only Memory)352と、RAM(Random Access Memory)353と、フラッシュメモリ354と、操作キー355と、スピーカ356と、カメラ357と、マイク358と、GPS受信機358と、モータ359と、車輪360と、通信IF(Interface)361と、マイク362とを、少なくとも含んで構成されている。各構成要素351〜359,361は、相互にデータバスによって接続されている。   FIG. 9 is a diagram illustrating a hardware configuration of the robot 300. Referring to FIG. 9, the robot 300 includes a CPU 351 that executes a program, a ROM (Read Only Memory) 352, a RAM (Random Access Memory) 353, a flash memory 354, an operation key 355, a speaker 356, The camera 357, the microphone 358, the GPS receiver 358, the motor 359, the wheel 360, the communication IF (Interface) 361, and the microphone 362 are included at least. The constituent elements 351 to 359 and 361 are connected to each other by a data bus.

アンテナ113は、通信IF112に接続されている。アンテナ113および通信IF112は、たとえば、基地局を介した、他の移動体端末、固定電話、およびPC(Personal Computer)との間における無線通信に用いられる。   The antenna 113 is connected to the communication IF 112. The antenna 113 and the communication IF 112 are used for wireless communication with other mobile terminals, fixed telephones, and PCs (Personal Computers) via a base station, for example.

ROM352は、不揮発性の半導体メモリである。ROM352は、ロボット300のブートプログラムが予め格納されている。フラッシュメモリ354は、不揮発性の半導体メモリである。フラッシュメモリ354は、一例としてNAND型で構成してもよい。フラッシュメモリ354は、ロボット300のオペレーティングシステム、ロボット300を制御するための各種のプログラム、並びに、ロボット300が生成したデータ、ロボット300の外部装置から取得したデータ等の各種データを揮発的に格納する。   The ROM 352 is a nonvolatile semiconductor memory. The ROM 352 stores a boot program for the robot 300 in advance. The flash memory 354 is a nonvolatile semiconductor memory. The flash memory 354 may be configured as a NAND type as an example. The flash memory 354 volatilely stores various data such as an operating system of the robot 300, various programs for controlling the robot 300, data generated by the robot 300, and data acquired from an external device of the robot 300. .

GPS受信機358は、GPSを用いて、ロボット300の現在位置を取得するための機器である。マイク362は、ロボット300のユーザの音声等を集音するための装置である。本実施の形態では、マイク362によって、発話されたキーワードが集音される。なお、集音された音(デジタル変換後の音声データ)は、CPU351に送られ、所定の処理がなされる。   The GPS receiver 358 is a device for acquiring the current position of the robot 300 using GPS. The microphone 362 is a device for collecting the voice of the user of the robot 300 and the like. In the present embodiment, the spoken keyword is collected by microphone 362. The collected sound (audio data after digital conversion) is sent to the CPU 351 and subjected to predetermined processing.

ロボット300における処理は、各ハードウェアおよびCPU351により実行されるソフトウェアによって実現される。このようなソフトウェアは、フラッシュメモリ354に予め記憶されている場合がある。また、ソフトウェアは、図示しないメモリカードその他の記憶媒体に格納されて、プログラムプロダクトとして流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラムプロダクトとして提供される場合もある。このようなソフトウェアは、アンテナ113および通信IF112を介してダウンロードされた後、フラッシュメモリ354に一旦格納される。そのソフトウェアは、CPU351によってフラッシュメモリ354から読み出され、さらにフラッシュメモリ354に実行可能なプログラムの形式で格納される。CPU351は、そのプログラムを実行する。   The processing in the robot 300 is realized by each hardware and software executed by the CPU 351. Such software may be stored in advance in the flash memory 354. The software may be stored in a memory card or other storage medium (not shown) and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet. Such software is downloaded via the antenna 113 and the communication IF 112 and then temporarily stored in the flash memory 354. The software is read from the flash memory 354 by the CPU 351 and further stored in the flash memory 354 in the form of an executable program. The CPU 351 executes the program.

本発明の本質的な部分は、フラッシュメモリ354その他の記憶媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、記録媒体としては、DVD-ROM、CD−ROM、FD、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク、光カード、マスクROM、EPROM、EEPROM、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。また、記録媒体は、当該プログラム等をコンピュータが読取可能な一時的でない媒体である。また、ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
[実施の形態2]
上記の実施の形態1においては、サーバ装置200において、ユーザIDに対して、1つの個人情報が対応付けられていた構成を説明した。本実施の形態では、ユーザIDに対して、複数の個人情報が対応付けられている構成を説明する。
An essential part of the present invention can be said to be software stored in the flash memory 354 or other storage medium, or software that can be downloaded via a network. The recording medium is not limited to DVD-ROM, CD-ROM, FD, and hard disk, but is fixed such as semiconductor memory such as magnetic tape, cassette tape, optical disk, optical card, mask ROM, EPROM, EEPROM, and flash ROM. A medium carrying a program may be used. The recording medium is a non-temporary medium that can be read by the computer. The program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.
[Embodiment 2]
In the first embodiment, the configuration in which one piece of personal information is associated with the user ID in the server device 200 has been described. In the present embodiment, a configuration in which a plurality of personal information is associated with a user ID will be described.

図10は、サーバ装置200において、個人DB3の代わりに格納されている個人DB3Aの概要を説明するための図である。図10を参照して、個人DB3Aにおいては、ユーザID毎およびキーワード毎に、個人情報として、性別、年齢、趣味、職業、服のサイズ、服の好み、好きな色、保有している服、欲しい商品、…等の各種情報が記憶されている。つまり、サーバ装置200では、各個人に対して、キーワードが複数登録可能であって、キーワード毎に個人情報を登録可能となっている。   FIG. 10 is a diagram for explaining an overview of the personal DB 3A stored in the server device 200 instead of the personal DB 3. Referring to FIG. 10, in the personal DB 3A, for each user ID and each keyword, as personal information, gender, age, hobby, occupation, clothing size, clothing preference, favorite color, possessed clothing, Various information such as desired products, etc. is stored. That is, in the server device 200, a plurality of keywords can be registered for each individual, and personal information can be registered for each keyword.

なお、図10に示した個人DB3Aの構成は一例であって、服のサイズ、靴のサイズ、持っている洋服、商品の送付先等をそれぞれキーワードに設定しておくことも可能である。この場合には、ユーザはロボット300との対話の中でキーワードを発話することによって、周りに個人情報を聞かれることなく情報を伝えたりすることも可能である。   Note that the configuration of the personal DB 3A shown in FIG. 10 is an example, and the size of clothes, the size of shoes, the clothes they have, the destination of goods, etc. can be set as keywords. In this case, the user can convey information without being asked about personal information by speaking a keyword in the dialogue with the robot 300.

上記のような構成の場合、以下の処理が実行される。ウェアラブル端末100のユーザによってサーバ装置200に複数のキーワードが登録されている場合、ロボット300からのキーワードの発話要求に対して、当該ユーザは複数のキーワードのうちの1つのキーワードを発話する。   In the case of the above configuration, the following processing is executed. When a plurality of keywords are registered in the server device 200 by the user of the wearable terminal 100, the user utters one of the plurality of keywords in response to the keyword utterance request from the robot 300.

たとえば、ユーザIDが“80001”のユーザの場合、キーワードとして、“ひまわり”と“フライパン”とが登録されている。また、“ひまわり”と“フライパン”とに対して、別々の個人情報が対応付けられている。   For example, in the case of a user whose user ID is “80001”, “sunflower” and “frying pan” are registered as keywords. Separate personal information is associated with “sunflower” and “frying pan”.

この場合において、ユーザが“ひまわり”と発話すると、サーバ装置200は、上述した照合が成功したことを条件に、個人情報として、性別“男”、年齢“28”、趣味“ドライブ”、服のサイズ“175cm,M”、服の好み“モード系”、好きな色“黒”といった個人情報を、ロボット300に送信する。一方、ユーザが、“フライパン”と発話すると、サーバ装置200は、上述した照合が成功したことを条件に、個人情報として、性別“男”、年齢“28”、職業“会社員”、好きな食べ物“焼肉”、嫌いな食べ物“ピーマン”といった個人情報を、ロボット300に送信する。   In this case, when the user utters “sunflower”, the server device 200 uses personal information as a gender “male”, age “28”, hobby “drive”, Personal information such as size “175 cm, M”, clothes preference “mode system”, favorite color “black” is transmitted to the robot 300. On the other hand, when the user utters “Frying pan”, the server apparatus 200 uses personal information as sex “male”, age “28”, occupation “company employee”, etc. Personal information such as food “Yakiniku” and disliked food “green pepper” is transmitted to the robot 300.

サーバ装置200は、上記のように、キーワードに応じた個人情報をロボット300に送信する。したがって、ロボット300は、ユーザが発話したキーワードに対応した個人情報を利用して、当該ユーザと接客することになる。   As described above, the server device 200 transmits personal information corresponding to the keyword to the robot 300. Therefore, the robot 300 uses the personal information corresponding to the keyword spoken by the user to contact the user.

ユーザは、複数のキーワードのうちの何れのキーワードに基づく個人情報をロボット300に通知したいかを考慮した上で1つのキーワードを発話することにより、当該個人情報に基づく接客をロボット300から受けることができる。つまり、ユーザはキーワードを使い分けることにより、ロボット300から異なる接客を受けることが可能となる。   The user can receive a customer service based on the personal information from the robot 300 by speaking one keyword after considering whether the robot 300 is to be notified of personal information based on any of the keywords. it can. That is, the user can receive different customers from the robot 300 by using different keywords.

なお、複数のキーワードをウェアラブル端末100から受け付けて、複数のキーワードの各々に対応する各個人情報をロボット300に通知するように、サーバ装置200を構成してもよい。また、サーバ装置200においては、キーワードに対する個人情報の登録を、各個人が手動または自動で可能である。
[実施の形態3]
本実施の形態では、サーバ装置200に店舗800の顧客情報が格納されており、呼び込みの際にロボット300が顧客情報を利用する構成について説明する。
The server device 200 may be configured to receive a plurality of keywords from the wearable terminal 100 and notify the robot 300 of each piece of personal information corresponding to each of the plurality of keywords. In the server device 200, each individual can manually or automatically register personal information for a keyword.
[Embodiment 3]
In this embodiment, customer information of a store 800 is stored in the server device 200, and a configuration in which the robot 300 uses customer information when calling is described.

サーバ装置200は、顧客情報として、以前に来店した客の顔画像(正確には、顔の特徴量)と、購入商品の履歴情報とを記憶している。ロボット300は、呼び込みの際に、通行人900の撮像により得られた画像と上記記憶されている画像とが一致した場合(つまり、顧客が特定できた場合)、当該顧客のみが理解できる内容の呼び込みを行なう。たとえば、ロボット300は、パンツを購入した顧客に対して、“先日は有難うございました。パンツにぴったりのベストが入荷しております。”との発話を行なう。   The server device 200 stores, as customer information, face images of customers who have visited the store before (accurately, feature amounts of faces) and history information of purchased products. When calling, the robot 300 has a content that can be understood only by the customer when the image obtained by the image of the passerby 900 matches the stored image (that is, when the customer can be identified). Make a call. For example, the robot 300 speaks to a customer who has purchased pants “Thank you the other day. The best vest for pants is available.”

このような構成によれば、呼び込みに成功する確率を高めることが可能となる。すなわち、通行人900である顧客をロボット300によって接客できる可能性が高まる。ひいては、顧客が店舗800に入店してもらえる可能性が高まる。   According to such a configuration, it is possible to increase the probability of successful call-in. That is, the possibility that the customer who is the passerby 900 can be served by the robot 300 is increased. As a result, the possibility that the customer can enter the store 800 increases.

なお、画像同士が一致するか否かの判定は、ロボット300において行われてもよいし、サーバ装置200で行われてもよい。
[実施の形態4]
ロボット300は、呼び込みを行なう前に、ウェアラブル端末100からウェアラブル端末100のユーザ(通行人900)の要望を表した情報を取得し、当該ユーザの要望を加味した呼び込みを行なってもよい。たとえば、ロボット300は、ウェアラブル端末100から“XXX社”という情報を取得した場合、呼び込みとして、ウェアラブル端末100のユーザに対して、“最新のXXX社製のダウンジャケットが入荷しました”との発話を行なう。このような構成によれば、呼び込みに成功する確率を高めることが可能となる。
[実施の形態5]
本実施の形態では、店舗800に複数のデジタルサイネージが備えられている場合における処理について説明する。
Note that the determination of whether the images match may be performed by the robot 300 or the server device 200.
[Embodiment 4]
Prior to calling, the robot 300 may acquire information representing the desire of the user (passerby 900) of the wearable terminal 100 from the wearable terminal 100, and may call that consider the request of the user. For example, when the robot 300 acquires the information “XXX company” from the wearable terminal 100, the user speaks to the user of the wearable terminal 100 that “the latest down jacket made by XXX has arrived”. To do. According to such a configuration, it is possible to increase the probability of successful call-in.
[Embodiment 5]
In the present embodiment, processing in the case where a plurality of digital signage is provided in the store 800 will be described.

図11は、店舗800に複数のデジタルサイネージが備えられている構成を表した図である。図11を参照して、店舗800の前を複数の通行人900が往来している。店舗800の店頭の壁面には、互い離れた位置に、2つのデジタルサイネージ400A,400Bが設置されている。   FIG. 11 is a diagram illustrating a configuration in which the store 800 includes a plurality of digital signage. Referring to FIG. 11, a plurality of passers-by 900 pass in front of store 800. Two digital signage 400 </ b> A and 400 </ b> B are installed on the wall surface of the store 800 at positions separated from each other.

ロボット300は、個人情報を利用した接客を開始すると、2つのデジタルサイネージ400A,400Bのうちロボット300に近い方のデジタルサイネージに、商品の情報を表示させる。たとえば、図11の場合、ロボット300は、複数のデジタルサイネージ400A,400Bのうちのデジタルサイネージ400Aのみに、個人情報を利用した接客を行なっている通行人900に応じた商品の情報(たとえば、図4(B)の表示)を表示させる。つまり、ロボット300は、ロボット300に近い位置にあるデジタルサイネージの表示のみを変更する。   When the robot 300 starts customer service using personal information, the robot 300 displays product information on the digital signage closer to the robot 300 out of the two digital signage 400A and 400B. For example, in the case of FIG. 11, the robot 300 has information on products corresponding to the passer-by 900 who is serving customers using personal information only in the digital signage 400A of the plurality of digital signage 400A, 400B (for example, FIG. 4 (B)) is displayed. That is, the robot 300 changes only the display of the digital signage located near the robot 300.

このような処理をロボット300が行なうことにより、接客を受けている通行人900は、デジタルサイネージに表示されている情報を確認しやすくなる。
[実施の形態6]
実施の形態1等では、ロボット300がディスプレイを有していない構成を例に挙げて説明したが、これに限定されるものではない。ロボット300がディスプレイを有する場合、ロボット300は、個人情報を利用した接客を行なっている通行人900に応じた商品の情報をデジタルサイネージ400に表示させる代わりに、ロボット300のディスプレイに当該商品の情報を表示してもよい。
When the robot 300 performs such processing, the passer-by 900 who is serving customers can easily confirm the information displayed on the digital signage.
[Embodiment 6]
In the first embodiment and the like, the configuration in which the robot 300 does not have a display has been described as an example, but the present invention is not limited to this. When the robot 300 has a display, the robot 300 displays information on the product on the display of the robot 300 instead of displaying information on the product corresponding to the passerby 900 who is serving customers using personal information on the digital signage 400. May be displayed.

<まとめ>
(1)通信システム1は、発話可能なロボット300と、ウェアラブル端末100と、サーバ装置200とを備える。ウェアラブル端末100のユーザが、ロボット300とウェアラブル端末100とに対して予め定められたキーワードを発話したことに基づいて、ウェアラブル端末100は、キーワードを録音して、録音されたキーワードをユーザの識別情報と関連付けてサーバ装置200に送信し、ロボット300は、キーワードを録音して、録音されたキーワードをサーバ装置200に送信する。サーバ装置200は、ウェアラブル端末100から受信したキーワードとロボット300から受信したキーワードとが一致している場合、受信した識別情報によって特定されるユーザに関する情報(個人情報)をロボット300に送信する。ロボット300は、情報に基づいて発話する。
<Summary>
(1) The communication system 1 includes a robot 300 capable of speaking, a wearable terminal 100, and a server device 200. Based on the fact that the user of wearable terminal 100 speaks a predetermined keyword to robot 300 and wearable terminal 100, wearable terminal 100 records the keyword, and uses the recorded keyword as user identification information. The robot 300 records the keyword and transmits the recorded keyword to the server device 200. When the keyword received from wearable terminal 100 matches the keyword received from robot 300, server device 200 transmits information (personal information) about the user specified by the received identification information to robot 300. The robot 300 speaks based on the information.

上記の構成によれば、ロボット300は、ウェアラブル端末100のユーザ(個人)に応じた接客を行なうことが可能となる。   According to the above configuration, the robot 300 can perform customer service according to the user (individual) of the wearable terminal 100.

(2)サーバ装置200は、キーワードが第1のキーワードの場合には、情報として、第1のキーワードに関連付けられた第1の情報をロボット300に送信し、キーワードが第2のキーワードの場合には、情報として、第2のキーワードに関連付けられた第2の情報をロボット300に送信する。   (2) When the keyword is the first keyword, the server device 200 transmits the first information associated with the first keyword to the robot 300 as information, and when the keyword is the second keyword Transmits to the robot 300 the second information associated with the second keyword as information.

上記の構成によれば、ユーザはキーワードを使い分けることにより、ロボット300から異なる接客を受けることが可能となる。   According to the above configuration, the user can receive different customers from the robot 300 by using different keywords.

(3)ウェアラブル端末100は、キーワードに、識別情報とウェアラブル端末100装置の現在位置を表す第1の位置情報とを関連付けて、サーバ装置200に送信する。ロボット300は、キーワードに、ロボット300の現在位置を表す第2の位置情報を関連付けて、サーバ装置200に送信する。サーバ装置200は、第1の位置情報と第2の位置情報とに基づき、ウェアラブル端末100の現在位置とロボット300の現在位置とが一致すると判断したことを条件に、情報をロボット300に送信する。   (3) The wearable terminal 100 associates the identification information with the first position information indicating the current position of the wearable terminal 100 device and transmits the keyword to the server device 200. The robot 300 associates the second position information indicating the current position of the robot 300 with the keyword, and transmits it to the server device 200. The server device 200 transmits information to the robot 300 on the condition that the current position of the wearable terminal 100 and the current position of the robot 300 match based on the first position information and the second position information. .

上記の構成によれば、ウェアラブル端末100のユーザがロボット300の近くにいなければ、情報はロボット300に送信されない。よって、ユーザの意図しない情報の送信を防止できる。   According to the above configuration, information is not transmitted to the robot 300 unless the user of the wearable terminal 100 is near the robot 300. Therefore, transmission of information not intended by the user can be prevented.

(4)ロボット300は、情報に基づいた発話の際には、ユーザが特定され得る情報の発話を制限する。上記の構成によれば、他人(他の通行人900)に個人名等の個人を特定し得る情報を知られることを防ぐことができる。   (4) The robot 300 restricts the utterance of information that can be specified by the user when speaking based on the information. According to said structure, it can prevent that the information which can specify individuals, such as a personal name, can be known by others (other passers-by 900).

(5)ロボット300は、予め定められた基準に基づいて、ロボット300の周囲の通行人900のうちからロボット300に興味を示していると判断し得る人物を特定し、特定された人物に対して、キーワードの発話を要求する。特定された人物が、ユーザが要求に応じて、ロボット300および人物をユーザとするウェアラブル端末100に対してキーワードを発話したことに基づいて、ウェアラブル端末100は、キーワードを識別情報と関連付けてサーバ装置200に送信し、ロボット300は、キーワードをサーバ装置200に送信する。   (5) The robot 300 identifies a person who can be determined to be interested in the robot 300 from the passers-by 900 around the robot 300 based on a predetermined criterion. Request keyword utterances. When the identified person utters a keyword to the wearable terminal 100 using the robot 300 and the person as a user in response to a request, the wearable terminal 100 associates the keyword with identification information and the server device. 200, the robot 300 transmits the keyword to the server device 200.

上記の構成によれば、ロボット300に興味を示していると判断し得る人物に対して、上記情報(個人情報)を利用した接客が可能となる。   According to the above configuration, a person who can determine that he / she is interested in the robot 300 can receive a customer using the information (personal information).

(6)ロボット300は、通行人900に対して、ロボット300を利用している店への呼び込みをするための発話をさらに行なう。それゆえ、ロボット300は、通行人900の反応を確認することにより、接客を受けてくれそうな通行人900を特定できる。   (6) The robot 300 further utters the passer-by 900 to call the store using the robot 300. Therefore, the robot 300 can identify the passerby 900 who is likely to receive the customer by confirming the response of the passerby 900.

(7)ロボット300は、通行人900をカメラ357で撮像し、撮像により得られた画像の特徴点に基づき、通行人900のうちから呼び込みの対象とする人物を選択する。ロボット300は、選択された人物の中から、予め定められた基準に基づいて、ロボット300の周囲の通行人900のうちからロボット300に興味を示していると判断し得る人物を特定する。上記の構成によれば、通行人900の特徴を用いて、通行人900のうちからロボット300に興味を示していると判断し得る人物を特定できる。   (7) The robot 300 images the passerby 900 with the camera 357, and selects a person to be called out from the passerby 900 based on the feature points of the image obtained by the imaging. The robot 300 specifies a person who can be determined to be interested in the robot 300 from among the passers-by 900 around the robot 300 based on a predetermined criterion from among the selected persons. According to the above configuration, it is possible to specify a person who can be determined to be interested in the robot 300 from among the passers-by 900 using the characteristics of the passer-by 900.

(8)通信システム1は、デジタルサイネージ400をさらに備える。ロボット300は、情報に基づいた表示をデジタルサイネージ400に実行させる。それゆえ、ロボット300は、デジタルサイネージ400を用いた接客が可能となる。   (8) The communication system 1 further includes a digital signage 400. The robot 300 causes the digital signage 400 to execute display based on the information. Therefore, the robot 300 can serve customers using the digital signage 400.

(9)通信システム1は、デジタルサイネージ400として、デジタルサイネージ400Aと、デジタルサイネージ400Bとを備える。ロボット300は、自走式であり、デジタルサイネージ400Aおよびデジタルサイネージ400Bのうちロボット300に近い方のデジタルサイネージ400に、情報に基づいた表示を実行させる。上記の構成によれば、ロボット300は、ロボット300に近い方のデジタルサイネージ400を用いた接客が可能となる。   (9) The communication system 1 includes a digital signage 400A and a digital signage 400B as the digital signage 400. The robot 300 is self-propelled, and causes the digital signage 400 closer to the robot 300 of the digital signage 400A and the digital signage 400B to perform display based on information. According to the above configuration, the robot 300 can serve customers using the digital signage 400 closer to the robot 300.

(10)サーバ装置200は、発話可能なロボット300およびウェアラブル端末100と通信可能である。サーバ装置200は、ウェアラブル端末100のユーザがロボット300とウェアラブル端末100とに対して予め定められたキーワードを発話したことに基づいて、ウェアラブル端末100において録音されたキーワードをユーザの識別情報と関連付けてウェアラブル端末100から受信するとともに、ロボット300において録音されたキーワードをロボット300から受信する受信部2032と、ウェアラブル端末100から受信したキーワードとロボット300から受信したキーワードとが一致している場合、受信した識別情報によって特定されるユーザに関する情報をロボット300に送信する送信部2031とを備える。   (10) The server device 200 can communicate with the robot 300 and the wearable terminal 100 that can speak. The server device 200 associates the keyword recorded in the wearable terminal 100 with the identification information of the user based on the fact that the user of the wearable terminal 100 speaks a predetermined keyword to the robot 300 and the wearable terminal 100. Received from the wearable terminal 100 and received from the receiving unit 2032 that receives the keyword recorded in the robot 300 from the robot 300, and the keyword received from the wearable terminal 100 matches the keyword received from the robot 300. A transmission unit 2031 that transmits information about the user specified by the identification information to the robot 300.

(11)ロボット300は、サーバ装置200と通信する発話可能である。ロボット300は、サーバ装置200と通信可能なウェアラブル端末100のユーザがロボット300に対して予め定められたキーワードを発話したことに基づいて、キーワードを録音し、録音されたキーワードをサーバ装置200に送信する送信部3031と、ロボット300から受信したキーワードとウェアラブル端末100から受信したキーワードとが一致していることを条件に、サーバ装置200から、ウェアラブル端末100の識別情報によって特定されるユーザに関する情報を受信する受信部3032と、情報に基づいて発話する発話部(発話制御部3022および音声出力部309)とを備える。   (11) The robot 300 can speak to communicate with the server device 200. The robot 300 records a keyword based on the fact that a user of the wearable terminal 100 that can communicate with the server apparatus 200 speaks a predetermined keyword to the robot 300, and transmits the recorded keyword to the server apparatus 200. Information on the user specified by the identification information of the wearable terminal 100 from the server device 200 on condition that the transmission unit 3031 matches the keyword received from the robot 300 and the keyword received from the wearable terminal 100. A receiving unit 3032 for receiving and an utterance unit (speech control unit 3022 and voice output unit 309) for uttering based on information are provided.

今回開示された実施の形態は例示であって、上記内容のみに制限されるものではない。本発明の範囲は特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time is an exemplification, and the present invention is not limited to the above contents. The scope of the present invention is defined by the terms of the claims, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 通信システム、100 ウェアラブル端末、200 サーバ装置、300 ロボット、400,400A,400B デジタルサイネージ、800 店舗、900 通行人、3,3A 個人DB。   1 communication system, 100 wearable terminal, 200 server device, 300 robot, 400, 400A, 400B digital signage, 800 stores, 900 passers, 3, 3A personal DB.

Claims (16)

発話可能なロボットと、移動体端末と、サーバ装置とを備えた通信システムであって、
前記移動体端末のユーザが、前記ロボットと前記移動体端末とに対して予め定められたキーワードを発話したことに基づいて、
前記移動体端末は、前記キーワードを録音して、前記録音されたキーワードを前記ユーザの識別情報と関連付けて前記サーバ装置に送信し、
前記ロボットは、前記キーワードを録音して、前記録音されたキーワードを前記サーバ装置に送信し、
前記サーバ装置は、前記移動体端末から受信したキーワードと前記ロボットから受信したキーワードとが一致している場合、前記受信した識別情報によって特定されるユーザに関する情報を前記ロボットに送信し、
前記ロボットは、前記情報に基づいて発話する、通信システム。
A communication system including a robot capable of speaking, a mobile terminal, and a server device,
Based on the user of the mobile terminal speaking a predetermined keyword to the robot and the mobile terminal,
The mobile terminal records the keyword, transmits the recorded keyword to the server device in association with the identification information of the user,
The robot records the keyword and transmits the recorded keyword to the server device.
When the keyword received from the mobile terminal matches the keyword received from the robot, the server device transmits information about the user specified by the received identification information to the robot,
A communication system in which the robot speaks based on the information.
前記サーバ装置は、
前記キーワードが第1のキーワードの場合には、前記情報として、前記第1のキーワードに関連付けられた第1の情報を前記ロボットに送信し、
前記キーワードが第2のキーワードの場合には、前記情報として、前記第2のキーワードに関連付けられた第2の情報を前記ロボットに送信する、請求項1に記載の通信システム。
The server device
When the keyword is the first keyword, the information is transmitted to the robot as the information, the first information associated with the first keyword,
2. The communication system according to claim 1, wherein when the keyword is a second keyword, second information associated with the second keyword is transmitted to the robot as the information.
前記移動体端末は、前記キーワードに、前記識別情報と前記移動体端末装置の現在位置を表す第1の位置情報とを関連付けて、前記サーバ装置に送信し、
前記ロボットは、前記キーワードに、前記ロボットの現在位置を表す第2の位置情報を関連付けて、前記サーバ装置に送信し、
前記サーバ装置は、前記第1の位置情報と前記第2の位置情報とに基づき、前記移動体端末の現在位置と前記ロボットの現在位置とが一致すると判断したことを条件に、前記情報を前記ロボットに送信する、請求項1または2に記載の通信システム。
The mobile terminal associates the identification information with the first location information representing the current location of the mobile terminal device and transmits the keyword to the server device,
The robot associates the keyword with second position information representing the current position of the robot, and transmits the second position information to the server device.
The server device, on the condition that the current position of the mobile terminal and the current position of the robot coincide with each other based on the first position information and the second position information, The communication system according to claim 1, wherein the communication system transmits to a robot.
前記ロボットは、前記情報に基づいた発話の際には、前記ユーザが特定され得る情報の発話を制限する、請求項1から3のいずれか1項に記載の通信システム。   The communication system according to any one of claims 1 to 3, wherein the robot restricts the utterance of information that can be specified by the user when speaking based on the information. 前記ロボットは、
予め定められた基準に基づいて、前記ロボットの周囲の通行人のうちから前記ロボットに興味を示していると判断し得る人物を特定し、
前記特定された人物に対して、前記キーワードの発話を要求し、
前記特定された人物が、前記ユーザが前記要求に応じて、前記ロボットおよび前記人物をユーザとする前記移動体端末に対して前記キーワードを発話したことに基づいて、
前記移動体端末は、前記キーワードを前記識別情報と関連付けて前記サーバ装置に送信し、
前記ロボットは、前記キーワードを前記サーバ装置に送信する、請求項1から4のいずれか1項に記載の通信システム。
The robot is
Identifying a person who can be determined to be interested in the robot from passers-by around the robot, based on predetermined criteria;
Request the specified person to speak the keyword;
Based on the specified person speaking the keyword to the mobile terminal with the robot and the person as the user in response to the request by the user,
The mobile terminal associates the keyword with the identification information and transmits the keyword to the server device,
The communication system according to claim 1, wherein the robot transmits the keyword to the server device.
前記ロボットは、前記通行人に対して、前記ロボットを利用している店への呼び込みをするための発話をさらに行なう、請求項5に記載の通信システム。   The communication system according to claim 5, wherein the robot further utters the passer-by to call a store using the robot. 前記ロボットは、
通行人をカメラで撮像し、
前記撮像により得られた画像の特徴点に基づき、前記通行人のうちから前記呼び込みの対象とする人物を選択し、
前記選択された人物の中から、前記予め定められた基準に基づいて、前記ロボットの周囲の通行人のうちから前記ロボットに興味を示していると判断し得る人物を特定する、請求項6に記載の通信システム。
The robot is
Capture passers-by with a camera,
Based on the feature points of the image obtained by the imaging, select the person to be called out from the passers-by,
The person who can judge that he / she is interested in the robot among the passers-by around the robot is specified from the selected person based on the predetermined criterion. The communication system described.
前記通信システムは、表示装置をさらに備え、
前記ロボットは、前記情報に基づいた表示を前記表示装置に実行させる、請求項1から7のいずれか1項に記載の通信システム。
The communication system further includes a display device,
The communication system according to claim 1, wherein the robot causes the display device to perform display based on the information.
前記通信システムは、前記表示装置として、第1の表示装置と、第2の表示装置とを備え、
前記ロボットは、
自走式であり、
前記第1の表示装置および前記第2の表示装置のうち前記ロボットに近い方の表示装置に、前記情報に基づいた表示を実行させる、請求項8に記載の通信システム。
The communication system includes a first display device and a second display device as the display device,
The robot is
Self-propelled,
The communication system according to claim 8, wherein a display device closer to the robot among the first display device and the second display device executes display based on the information.
発話可能なロボットおよび移動体端末と通信可能なサーバ装置であって、
前記移動体端末のユーザが前記ロボットと前記移動体端末とに対して予め定められたキーワードを発話したことに基づいて、前記移動体端末において録音された前記キーワードを前記ユーザの識別情報と関連付けて前記移動体端末から受信するとともに、前記ロボットにおいて録音された前記キーワードを前記ロボットから受信する受信手段と、
前記移動体端末から受信したキーワードと前記ロボットから受信したキーワードとが一致している場合、前記受信した識別情報によって特定されるユーザに関する情報を前記ロボットに送信する送信手段とを備える、サーバ装置。
A server device capable of communicating with a robot capable of speaking and a mobile terminal,
Based on the fact that the user of the mobile terminal has uttered a predetermined keyword to the robot and the mobile terminal, the keyword recorded in the mobile terminal is associated with the identification information of the user. Receiving means for receiving from the robot the keyword recorded in the robot and receiving from the mobile terminal;
A server apparatus comprising: a transmission unit configured to transmit information about a user specified by the received identification information to the robot when the keyword received from the mobile terminal matches the keyword received from the robot.
サーバ装置と通信する発話可能なロボットであって、
前記サーバ装置と通信可能な移動体端末のユーザが前記ロボットに対して予め定められたキーワードを発話したことに基づいて、前記キーワードを録音し、前記録音されたキーワードを前記サーバ装置に送信する送信手段と、
前記ロボットから受信した前記キーワードと前記移動体端末から受信したキーワードとが一致していることを条件に、前記サーバ装置から、前記移動体端末の識別情報によって特定されるユーザに関する情報を受信する受信手段と、
前記情報に基づいて発話する発話手段とを備える、ロボット。
An utterable robot that communicates with a server device,
A transmission of recording the keyword and transmitting the recorded keyword to the server device based on the fact that a user of a mobile terminal that can communicate with the server device speaks a predetermined keyword to the robot Means,
Reception that receives information about the user specified by the identification information of the mobile terminal from the server device, on condition that the keyword received from the robot matches the keyword received from the mobile terminal Means,
A robot comprising speech means for speaking based on the information.
発話可能なロボットと移動体端末とサーバ装置とを備えた通信システムにおける情報処理方法であって、
前記移動体端末のユーザが、前記ロボットと前記移動体端末とに対して予め定められたキーワードを発話したことに基づいて、
前記移動体端末が、前記キーワードを録音して、前記録音されたキーワードを前記ユーザの識別情報と関連付けて前記サーバ装置に送信するステップと、
前記ロボットが、前記キーワードを録音して、前記録音されたキーワードを前記サーバ装置に送信するステップと、
前記サーバ装置が、前記移動体端末から受信したキーワードと前記ロボットから受信したキーワードとが一致している場合、前記受信した識別情報によって特定されるユーザに関する情報を前記ロボットに送信するステップと、
前記ロボットが、前記情報に基づいて発話するステップとを備える、情報処理方法。
An information processing method in a communication system including a robot capable of speaking, a mobile terminal, and a server device,
Based on the user of the mobile terminal speaking a predetermined keyword to the robot and the mobile terminal,
The mobile terminal recording the keyword and transmitting the recorded keyword to the server device in association with the user identification information;
The robot recording the keyword and transmitting the recorded keyword to the server device;
When the server device matches the keyword received from the mobile terminal and the keyword received from the robot, the information about the user specified by the received identification information to the robot,
The robot includes a step of speaking based on the information.
発話可能なロボットおよび移動体端末と通信可能なサーバ装置における情報処理方法であって、
前記移動体端末のユーザが前記ロボットと前記移動体端末とに対して予め定められたキーワードを発話したことに基づいて、前記移動体端末において録音された前記キーワードを前記ユーザの識別情報と関連付けて前記移動体端末から受信するとともに、前記ロボットにおいて録音された前記キーワードを前記ロボットから受信するステップと、
前記移動体端末から受信したキーワードと前記ロボットから受信したキーワードとが一致している場合、前記受信した識別情報によって特定されるユーザに関する情報を前記ロボットに送信するステップとを備える、情報処理方法。
An information processing method in a server device capable of communicating with a robot capable of speaking and a mobile terminal,
Based on the fact that the user of the mobile terminal has uttered a predetermined keyword to the robot and the mobile terminal, the keyword recorded in the mobile terminal is associated with the identification information of the user. Receiving from the mobile terminal the keyword recorded in the robot and received from the robot;
An information processing method comprising: transmitting information related to a user specified by the received identification information to the robot when the keyword received from the mobile terminal matches the keyword received from the robot.
サーバ装置と通信する発話可能なロボットにおける情報処理方法であって、
前記サーバ装置と通信可能な移動体端末のユーザが前記ロボットに対して予め定められたキーワードを発話したことに基づいて、前記キーワードを録音し、前記録音されたキーワードを前記サーバ装置に送信するステップと、
前記ロボットから受信した前記キーワードと前記移動体端末から受信したキーワードとが一致していることを条件に、前記サーバ装置から、前記移動体端末の識別情報によって特定されるユーザに関する情報を受信するステップと、
前記情報に基づいて前記ロボットが発話するステップとを備える、情報処理方法。
An information processing method in an utterable robot that communicates with a server device,
Recording a keyword based on the fact that a user of a mobile terminal capable of communicating with the server device speaks a predetermined keyword to the robot, and transmitting the recorded keyword to the server device When,
Receiving information on the user specified by the identification information of the mobile terminal from the server device on the condition that the keyword received from the robot matches the keyword received from the mobile terminal. When,
And a step of speaking by the robot based on the information.
発話可能なロボットおよび移動体端末と通信可能なサーバ装置を制御するためのプログラムであって、
前記移動体端末のユーザが前記ロボットと前記移動体端末とに対して予め定められたキーワードを発話したことに基づいて、前記移動体端末において録音された前記キーワードを前記ユーザの識別情報と関連付けて前記移動体端末から受信するとともに、前記ロボットにおいて録音された前記キーワードを前記ロボットから受信するステップと、
前記移動体端末から受信したキーワードと前記ロボットから受信したキーワードとが一致している場合、前記受信した識別情報によって特定されるユーザに関する情報を前記ロボットに送信するステップとを、前記サーバ装置のプロセッサに実行させる、プログラム。
A program for controlling a robot capable of speaking and a server device capable of communicating with a mobile terminal,
Based on the fact that the user of the mobile terminal has uttered a predetermined keyword to the robot and the mobile terminal, the keyword recorded in the mobile terminal is associated with the identification information of the user. Receiving from the mobile terminal the keyword recorded in the robot and received from the robot;
A step of transmitting information relating to a user specified by the received identification information to the robot when the keyword received from the mobile terminal matches the keyword received from the robot; A program to be executed.
サーバ装置と通信する発話可能なロボットを制御するためのプログラムであって、
前記サーバ装置と通信可能な移動体端末のユーザが前記ロボットに対して予め定められたキーワードを発話したことに基づいて、前記キーワードを録音し、前記録音されたキーワードを前記サーバ装置に送信するステップと、
前記ロボットから受信した前記キーワードと前記移動体端末から受信したキーワードとが一致していることを条件に、前記サーバ装置から、前記移動体端末の識別情報によって特定されるユーザに関する情報を受信するステップと、
前記情報に基づいて発話するステップとを、前記ロボットのプロセッサに実行させる、プログラム。
A program for controlling an utterable robot that communicates with a server device,
Recording a keyword based on the fact that a user of a mobile terminal capable of communicating with the server device speaks a predetermined keyword to the robot, and transmitting the recorded keyword to the server device When,
Receiving information on the user specified by the identification information of the mobile terminal from the server device on the condition that the keyword received from the robot matches the keyword received from the mobile terminal. When,
A program for causing a processor of the robot to execute a step of speaking based on the information.
JP2014255177A 2014-12-17 2014-12-17 COMMUNICATION SYSTEM, SERVER DEVICE, ROBOT, INFORMATION PROCESSING METHOD, AND PROGRAM Expired - Fee Related JP6440483B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014255177A JP6440483B2 (en) 2014-12-17 2014-12-17 COMMUNICATION SYSTEM, SERVER DEVICE, ROBOT, INFORMATION PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014255177A JP6440483B2 (en) 2014-12-17 2014-12-17 COMMUNICATION SYSTEM, SERVER DEVICE, ROBOT, INFORMATION PROCESSING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2016115257A true JP2016115257A (en) 2016-06-23
JP6440483B2 JP6440483B2 (en) 2018-12-19

Family

ID=56142046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014255177A Expired - Fee Related JP6440483B2 (en) 2014-12-17 2014-12-17 COMMUNICATION SYSTEM, SERVER DEVICE, ROBOT, INFORMATION PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6440483B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106313082A (en) * 2016-11-21 2017-01-11 深圳哈乐派科技有限公司 Accompanying robot
JP2018018150A (en) * 2016-07-25 2018-02-01 ユニティガードシステム株式会社 Crime prevention system, crime prevention method, and robot
KR101891698B1 (en) * 2018-03-02 2018-08-27 주식회사 공훈 A speaker identification system and method through voice recognition using location information of the speaker
JP2019144674A (en) * 2018-02-16 2019-08-29 シャープ株式会社 Display device, content distribution device, content distribution system, content distribution method, and content distribution program
JP2019184969A (en) * 2018-04-17 2019-10-24 株式会社日立ビルシステム Guidance robot system and language selection method
JP2020009201A (en) * 2018-07-09 2020-01-16 株式会社日立ビルシステム Guide robot system and control method thereof
JP2020512592A (en) * 2017-03-31 2020-04-23 ソニー株式会社 Device and method
JP7165235B1 (en) 2021-04-28 2022-11-02 ベア ロボティクス インク Method, system and non-transitory computer-readable recording medium for providing advertising content using robots
JP7481175B2 (en) 2020-06-25 2024-05-10 セコム株式会社 Response device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003050559A (en) * 2001-08-07 2003-02-21 Honda Motor Co Ltd Autonomously movable robot
JP2004302328A (en) * 2003-04-01 2004-10-28 Sony Corp Unit and method for controlling robot, recording medium and program
JP2008003860A (en) * 2006-06-22 2008-01-10 Fujitsu Ltd Guide robot and guide method
JP2009248193A (en) * 2008-04-01 2009-10-29 Toyota Motor Corp Reception system and reception method
EP2157570A1 (en) * 2008-08-20 2010-02-24 Aruze Corp. Automatic conversation system and conversation scenario editing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003050559A (en) * 2001-08-07 2003-02-21 Honda Motor Co Ltd Autonomously movable robot
JP2004302328A (en) * 2003-04-01 2004-10-28 Sony Corp Unit and method for controlling robot, recording medium and program
JP2008003860A (en) * 2006-06-22 2008-01-10 Fujitsu Ltd Guide robot and guide method
JP2009248193A (en) * 2008-04-01 2009-10-29 Toyota Motor Corp Reception system and reception method
EP2157570A1 (en) * 2008-08-20 2010-02-24 Aruze Corp. Automatic conversation system and conversation scenario editing device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018018150A (en) * 2016-07-25 2018-02-01 ユニティガードシステム株式会社 Crime prevention system, crime prevention method, and robot
CN106313082A (en) * 2016-11-21 2017-01-11 深圳哈乐派科技有限公司 Accompanying robot
JP2020512592A (en) * 2017-03-31 2020-04-23 ソニー株式会社 Device and method
JP2019144674A (en) * 2018-02-16 2019-08-29 シャープ株式会社 Display device, content distribution device, content distribution system, content distribution method, and content distribution program
KR101891698B1 (en) * 2018-03-02 2018-08-27 주식회사 공훈 A speaker identification system and method through voice recognition using location information of the speaker
JP2019184969A (en) * 2018-04-17 2019-10-24 株式会社日立ビルシステム Guidance robot system and language selection method
JP2020009201A (en) * 2018-07-09 2020-01-16 株式会社日立ビルシステム Guide robot system and control method thereof
JP7481175B2 (en) 2020-06-25 2024-05-10 セコム株式会社 Response device
JP7165235B1 (en) 2021-04-28 2022-11-02 ベア ロボティクス インク Method, system and non-transitory computer-readable recording medium for providing advertising content using robots
JP2022170622A (en) * 2021-04-28 2022-11-10 ベア ロボティクス インク Method, system, and non-transitory computer-readable recording medium for providing advertising content using robot
US11568445B2 (en) 2021-04-28 2023-01-31 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for providing an advertising content using a robot

Also Published As

Publication number Publication date
JP6440483B2 (en) 2018-12-19

Similar Documents

Publication Publication Date Title
JP6440483B2 (en) COMMUNICATION SYSTEM, SERVER DEVICE, ROBOT, INFORMATION PROCESSING METHOD, AND PROGRAM
US10783476B2 (en) System for customized interactions-related assistance
US9082149B2 (en) System and method for providing sales assistance to a consumer wearing an augmented reality device in a physical store
US10244111B1 (en) System for providing data to an interactive response system
US20150084838A1 (en) Public Signage
WO2014057704A1 (en) Product information provision system, product information provision device, and product information output device
KR20180111197A (en) Information providing method and electronic device supporting the same
US20090287534A1 (en) System and method for providing contemporaneous product information and sales support for retail customers
KR20150058286A (en) Leveraging head mounted displays to enable person-to-person interactions
JP5142306B1 (en) Product information providing system, product information providing device, and product information output device
CN109313897A (en) Utilize the communication of multiple virtual assistant services
US20130332860A1 (en) User terminal apparatus, server and controlling method thereof
JP6772686B2 (en) Customer service support program, customer service support method, customer service support system and information processing equipment
JP6462628B2 (en) Product sales support system and product sales support method
JP5220953B1 (en) Product information providing system, product information providing device, and product information output device
WO2020129182A1 (en) Interactive device, interactive system, and interactive program
JP2016061996A (en) Advertisement distribution device, advertisement distribution method, and advertisement distribution program
US20120242860A1 (en) Arrangement and method relating to audio recognition
WO2020116026A1 (en) Response processing device, response processing method, and response processing program
US20200410994A1 (en) Voice-based transaction processing with location-based activation
JP2019036201A (en) Output controller, output control method, and output control program
JP7106879B2 (en) Information processing device and program
JP2018041230A (en) Reception support program, reception support method, reception support system and information processor
JP6406954B2 (en) Advertisement distribution apparatus, advertisement distribution method, and advertisement distribution program
JP6496220B2 (en) Information distribution apparatus and information distribution program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181120

R150 Certificate of patent or registration of utility model

Ref document number: 6440483

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees