JP2019087047A - Control program, control method and control device - Google Patents

Control program, control method and control device Download PDF

Info

Publication number
JP2019087047A
JP2019087047A JP2017214978A JP2017214978A JP2019087047A JP 2019087047 A JP2019087047 A JP 2019087047A JP 2017214978 A JP2017214978 A JP 2017214978A JP 2017214978 A JP2017214978 A JP 2017214978A JP 2019087047 A JP2019087047 A JP 2019087047A
Authority
JP
Japan
Prior art keywords
visitor
interest
region
information
resource
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017214978A
Other languages
Japanese (ja)
Other versions
JP7009939B2 (en
Inventor
渡辺 理
Osamu Watanabe
理 渡辺
美穂 村田
Miho Murata
美穂 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017214978A priority Critical patent/JP7009939B2/en
Publication of JP2019087047A publication Critical patent/JP2019087047A/en
Application granted granted Critical
Publication of JP7009939B2 publication Critical patent/JP7009939B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To improve the efficiency of attendance to a plurality of visitors.SOLUTION: When a computer detects a first visitor and a second visitor, the computer identifies respective regions of interest based on an image in which the first visitor and the second visitor are imaged, or on the orientation of a part of one of the first visitor and the second visitor which is detected by a sensor. The computer determines whether the identified region of interest of the first visitor is different from the identified region of interest of the second visitor. When the region of interest of the first visitor is different from the region of interest of the second visitor, the computer executes information providing processing using a plurality of information providing resources possessed by an information providing device. The computer executes information providing processing for the first visitor using the information providing resources according to the region of interest of the first visitor. The computer also executes information providing processing for the second visitor using the information providing resources according to the region of interest of the second visitor.SELECTED DRAWING: Figure 2

Description

本発明は、制御プログラム、制御方法および制御装置に関する。   The present invention relates to a control program, a control method, and a control device.

近年、展示会場や業務窓口において、接客ロボットの導入が試行されている。接客ロボットは、展示会場のブースや窓口に訪れた来訪者に対して、順番に接客対応を行う。ところが、接客ロボットに対して複数の来訪者が近づいた場合、例えば接客ロボットに最も近い来訪者から順番に対応すると、関心の高い来訪者が関心の低い来訪者よりも後回しになることがある。これに対し、所定の領域内の来訪者について、関心度を判定し、判定した関心度に基づいて接客を行うことが提案されている。また、来訪者の移動ベクトルを検出し、来訪者がグループであるか個人であるかに応じて提供するサービスを変更することが提案されている。   In recent years, introduction of a customer service robot has been tried at an exhibition hall or a business window. The customer service robot responds to customers in turn for visitors who visit the booths and windows in the exhibition hall. However, in the case where a plurality of visitors approach the customer-service robot, for example, in order from the closest visitor to the customer-service robot, a high-interest visitor may be postponed to a low-interest visitor. On the other hand, it is proposed that the degree of interest is determined for visitors in a predetermined area, and customer service is performed based on the determined degree of interest. It has also been proposed to detect the movement vector of the visitor and change the service provided depending on whether the visitor is a group or an individual.

特開2009−248193号公報JP, 2009-248193, A 特開2014−014899号公報JP, 2014-014899, A

しかしながら、接客ロボットが特定の来訪者に対応すると、他の来訪者は待たされたり、提供サービスが変更されたりするので、不満を抱きやすい。すなわち、接客ロボットは、複数の来訪者に対して同時に対応することで接客効率を向上させることが困難である。   However, when the customer-service robot responds to a specific visitor, other visitors are likely to be dissatisfied because they are kept waiting or the provided service is changed. That is, it is difficult for the customer service robot to improve service efficiency by simultaneously responding to a plurality of visitors.

一つの側面では、複数の来訪者に対する接客効率を向上できる制御プログラム、制御方法および制御装置を提供することにある。   An aspect of the present invention is to provide a control program, a control method and a control device capable of improving the efficiency of customer service to a plurality of visitors.

一つの態様では、制御プログラムは、以下の処理をコンピュータに実行させる。コンピュータは、第1の来訪者と第2の来訪者とを検出すると、前記第1の来訪者と前記第2の来訪者とが撮像されている撮像画像、または、センサにより検出された前記第1の来訪者の特定のいずれかの部位の向きおよび前記第2の来訪者のいずれかの部位の向きに基づき、前記第1の来訪者と前記第2の来訪者とのそれぞれの関心領域を特定する。コンピュータは、特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なるか否かを判定する。コンピュータは、前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なる場合、情報提供装置が有する複数の情報提供リソースを用いて、情報提供処理を実行する。すなわち、コンピュータは、前記複数の情報提供リソースのうち、前記第1の来訪者の関心領域に応じた情報提供リソースを用いて、前記第1の来訪者に対する情報提供処理を実行する。また、コンピュータは、前記複数の情報提供リソースのうち、前記第2の来訪者の関心領域に応じた情報提供リソースを用いて、前記第2の来訪者に対する情報提供処理を実行する。   In one aspect, the control program causes the computer to execute the following processing. When the computer detects the first visitor and the second visitor, the computer detects an image in which the first visitor and the second visitor have been imaged, or the first image detected by a sensor The respective regions of interest of the first visitor and the second visitor based on the orientation of any one part of the visitor and the orientation of any part of the second visitor. Identify. The computer determines whether or not the identified first visitor's region of interest and the second visitor's region of interest are different. The computer executes the information provision process using a plurality of information provision resources possessed by the information provision apparatus, when the first visitor's interest area and the second visitor's interest area are different. That is, the computer executes the information provision processing for the first visitor using the information provision resource according to the region of interest of the first visitor among the plurality of information provision resources. Further, the computer executes an information provision process for the second visitor using an information provision resource corresponding to the region of interest of the second visitor among the plurality of information provision resources.

複数の来訪者に対する接客効率を向上できる。   It is possible to improve the efficiency of service for multiple visitors.

図1は、実施例の接客ロボットの配置の一例を示す図である。FIG. 1 is a view showing an example of arrangement of a customer service robot of the embodiment. 図2は、実施例の接客ロボットの構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of the customer service robot of the embodiment. 図3は、サービス提供空間に設定するブロックの座標の一例を示す図である。FIG. 3 is a diagram showing an example of the coordinates of a block set in the service providing space. 図4は、関心空間情報記憶部の一例を示す図である。FIG. 4 is a diagram showing an example of a space of interest information storage unit. 図5は、関心空間の一例を示す図である。FIG. 5 is a diagram showing an example of a space of interest. 図6は、関心空間の他の一例を示す図である。FIG. 6 is a diagram showing another example of the space of interest. 図7は、来訪者空間情報記憶部の一例を示す図である。FIG. 7 is a diagram showing an example of the visitor space information storage unit. 図8は、来訪者への働きかけが気付かれる範囲の一例を示す図である。FIG. 8 is a diagram showing an example of a range in which the approach to the visitor is noticed. 図9は、資源活用情報記憶部の一例を示す図である。FIG. 9 is a diagram illustrating an example of the resource utilization information storage unit. 図10は、資源活用情報記憶部の一例を示す図である。FIG. 10 is a diagram illustrating an example of the resource utilization information storage unit. 図11は、資源活用情報記憶部の一例を示す図である。FIG. 11 is a diagram illustrating an example of the resource utilization information storage unit. 図12は、資源活用情報記憶部の一例を示す図である。FIG. 12 is a diagram illustrating an example of the resource utilization information storage unit. 図13は、資源活用情報記憶部の一例を示す図である。FIG. 13 is a diagram illustrating an example of the resource utilization information storage unit. 図14は、サービスシナリオ記憶部の一例を示す図である。FIG. 14 is a diagram illustrating an example of the service scenario storage unit. 図15は、実施例の制御処理の一例を示すフローチャートである。FIG. 15 is a flowchart showing an example of control processing of the embodiment. 図16は、関心空間特定処理の一例を示すフローチャートである。FIG. 16 is a flowchart illustrating an example of the interest space identification process. 図17は、特定処理の一例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of the identification process. 図18は、第1推定処理の一例を示すフローチャートである。FIG. 18 is a flowchart illustrating an example of the first estimation process. 図19は、第2推定処理の一例を示すフローチャートである。FIG. 19 is a flowchart illustrating an example of the second estimation process. 図20は、第3推定処理の一例を示すフローチャートである。FIG. 20 is a flowchart illustrating an example of the third estimation process. 図21は、第4推定処理の一例を示すフローチャートである。FIG. 21 is a flowchart illustrating an example of the fourth estimation process. 図22は、第5推定処理の一例を示すフローチャートである。FIG. 22 is a flowchart illustrating an example of the fifth estimation process. 図23は、資源活用係数算出処理の一例を示すフローチャートである。FIG. 23 is a flowchart showing an example of the resource utilization coefficient calculation process. 図24は、算出処理の一例を示すフローチャートである。FIG. 24 is a flowchart showing an example of the calculation process. 図25は、資源配分処理の一例を示すフローチャートである。FIG. 25 is a flowchart illustrating an example of the resource allocation process. 図26は、複数の来訪者に対する接客の具体的な一例を示す図である。FIG. 26 is a diagram showing a specific example of customer service for a plurality of visitors. 図27は、サービスシナリオの具体的な一例を示す図である。FIG. 27 is a diagram showing a specific example of a service scenario. 図28は、サービスシナリオの具体的な一例を示す図である。FIG. 28 is a diagram illustrating a specific example of a service scenario. 図29は、サービスシナリオの具体的な一例を示す図である。FIG. 29 is a diagram showing a specific example of a service scenario. 図30は、サービスシナリオの具体的な一例を示す図である。FIG. 30 is a diagram showing a specific example of a service scenario. 図31は、複数の来訪者に対する接客の具体的な一例を示す図である。FIG. 31 is a diagram showing a specific example of customer service for a plurality of visitors. 図32は、サービスシナリオの具体的な一例を示す図である。FIG. 32 is a diagram illustrating a specific example of a service scenario. 図33は、サービスシナリオの具体的な一例を示す図である。FIG. 33 is a diagram illustrating a specific example of a service scenario. 図34は、サービスシナリオの具体的な一例を示す図である。FIG. 34 is a diagram illustrating a specific example of a service scenario. 図35は、サービスシナリオの具体的な一例を示す図である。FIG. 35 shows a specific example of a service scenario. 図36は、サービスシナリオの具体的な一例を示す図である。FIG. 36 is a diagram illustrating a specific example of a service scenario. 図37は、複数の来訪者に対する接客の具体的な一例を示す図である。FIG. 37 is a diagram showing a specific example of customer service for a plurality of visitors. 図38は、複数の園児を誘導する場合の一例を示す図である。FIG. 38 is a diagram showing an example of guiding a plurality of children. 図39は、制御プログラムを実行するコンピュータの一例を示す図である。FIG. 39 is a diagram illustrating an example of a computer that executes a control program.

以下、図面に基づいて、本願の開示する制御プログラム、制御方法および制御装置の実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。   Hereinafter, embodiments of the control program, control method, and control device disclosed in the present application will be described in detail based on the drawings. The disclosed technology is not limited by the present embodiment. In addition, the following embodiments may be combined as appropriate as long as no contradiction arises.

図1は、実施例の接客ロボットの配置の一例を示す図である。まず、図1を用いて接客ロボット(以下、単にロボットともいう。)100の配置について説明する。図1に示すように、接客ロボット100は、例えば、展示会場のブースに配置される。接客ロボット100の周囲には、接客ロボット100によってサービスの提供を行うことができるサービス提供空間20が設定される。また、当該ブースには、テーブル21、壁22、および、映像投影用のスクリーン23が配置されている。接客ロボット100は、サービス提供空間20に対して座標系を設定し、例えば1cm単位の空間ブロック群を設定する。接客ロボット100は、空間ブロック群を用いて、来訪者の関心領域を特定する等の各種の処理を行う。 FIG. 1 is a view showing an example of arrangement of a customer service robot of the embodiment. First, the arrangement of the customer service robot (hereinafter, also simply referred to as a robot) 100 will be described with reference to FIG. As shown in FIG. 1, the customer robot 100 is disposed, for example, at a booth of the exhibition hall. Around the customer-service robot 100, a service providing space 20 where service can be provided by the customer-service robot 100 is set. In the booth, a table 21, a wall 22, and a screen 23 for image projection are disposed. The customer robot 100 sets a coordinate system in the service providing space 20, and sets, for example, a space block group of 1 cm 3 units. The customer service robot 100 performs various processing such as specifying the region of interest of the visitor using the space block group.

図2は、実施例の接客ロボットの構成の一例を示すブロック図である。接客ロボット100は、例えばブース内に設置された外部センサ10から取得したセンサ情報に基づいて、第1の来訪者と第2の来訪者とを検出する。接客ロボット100は、第1の来訪者と第2の来訪者とを検出すると、第1の来訪者と第2の来訪者とが撮像されている撮像画像、または、センサにより検出された第1の来訪者の特定のいずれかの部位の向きおよび第2の来訪者のいずれかの部位の向きに基づき、第1の来訪者と第2の来訪者とのそれぞれの関心領域を特定する。接客ロボット100は、特定した第1の来訪者の関心領域と、第2の来訪者の関心領域とが異なるか否かを判定する。接客ロボット100は、第1の来訪者の関心領域と、第2の来訪者の関心領域とが異なる場合、情報提供装置が有する複数の情報提供リソースのうち、第1の来訪者の関心領域に応じた情報提供リソースを用いて、第1の来訪者に対する情報提供処理を実行する。また、接客ロボット100は、複数の情報提供リソースのうち、第2の来訪者の関心領域に応じた情報提供リソースを用いて、第2の来訪者に対する情報提供処理を実行する。これにより、接客ロボット100は、複数の来訪者に対する接客効率を向上できる。   FIG. 2 is a block diagram showing an example of the configuration of the customer service robot of the embodiment. The customer robot 100 detects the first visitor and the second visitor based on sensor information acquired from the external sensor 10 installed in, for example, a booth. Upon detecting the first visitor and the second visitor, the customer robot 100 detects the first visitor and the second visitor, or the first detected by the sensor. The region of interest of each of the first visitor and the second visitor is identified based on the orientation of any particular region of the visitor and the orientation of any region of the second visitor. The customer service robot 100 determines whether the identified first visitor's region of interest is different from the second visitor's region of interest. When the region of interest of the first visitor and the region of interest of the second visitor differ, the customer service robot 100 selects the region of interest of the first visitor among the plurality of information provision resources possessed by the information provision device. The information provision processing for the first visitor is executed using the corresponding information provision resource. Further, the customer robot 100 executes the information provision processing for the second visitor using the information provision resource corresponding to the region of interest of the second visitor among the plurality of information provision resources. As a result, the customer service robot 100 can improve the service efficiency for a plurality of visitors.

次に、図2を用いて接客ロボット100の機能構成について説明する。図2に示すように、接客ロボット100は、通信部110と、頭部111と、眼部112と、右腕部113と、左腕部114と、対話部115と、表示部116と、記憶部120と、制御部130とを有する。なお、以下の説明では、頭部111と、眼部112と、右腕部113と、左腕部114と、対話部115と、表示部116とを纏めて表す場合、ロボット資源117と表す。すなわち、本実施例では、情報提供装置は、例えば接客ロボット100であり、情報提供リソースは、ロボット資源117である。また、接客ロボット100は、図2に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイス等の機能部を有することとしてもかまわない。なお、以下の説明では、関心領域を関心空間とも表現する。   Next, the functional configuration of the customer service robot 100 will be described with reference to FIG. As shown in FIG. 2, the customer service robot 100 includes a communication unit 110, a head 111, an eye unit 112, a right arm unit 113, a left arm unit 114, a dialogue unit 115, a display unit 116, and a storage unit 120. And a control unit 130. In the following description, when the head 111, the eye unit 112, the right arm unit 113, the left arm unit 114, the dialogue unit 115, and the display unit 116 are collectively referred to, the robot resource 117 is used. That is, in the present embodiment, the information providing apparatus is, for example, the customer service robot 100, and the information providing resource is the robot resource 117. In addition to the functional units shown in FIG. 2, the customer robot 100 may have various functional units of a known computer, for example, functional units such as various input devices. In the following description, a region of interest is also referred to as a space of interest.

通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、図示しないネットワークを介して外部センサ10や他の情報処理装置と有線または無線で接続され、外部センサ10や他の情報処理装置との間で情報の通信を司る通信インタフェースである。   The communication unit 110 is realized by, for example, a network interface card (NIC). The communication unit 110 is a communication interface connected to the external sensor 10 or another information processing apparatus by wire or wirelessly via a network (not shown), and manages communication of information with the external sensor 10 or another information processing apparatus. .

なお、外部センサ10には、例えば、カメラ、赤外線センサ、超音波センサ、レーダー、LIDAR(Laser Imaging Detection and Ranging)、歪みゲージ、音声定位マイク、押圧マット、接触センサ等を用いることができる。また、外部センサ10には、例えば、来訪者にビーコン発振器、GPS(Global Positioning System)受信機、加速度センサ、方位センサ等を内蔵したヘッドセット等のウェアラブル端末を装着してもらい、これらの各種センサのセンサ情報を用いてもよい。外部センサ10は、これらの各種センサのセンサ情報を、例えば、1秒ごとのように、所定間隔で接客ロボット100に対して送信する。   For the external sensor 10, for example, a camera, an infrared sensor, an ultrasonic sensor, a radar, LIDAR (Laser Imaging Detection and Ranging), a strain gauge, a voice localization microphone, a pressing mat, a contact sensor, or the like can be used. In addition, for example, the external sensor 10 is asked to wear a visitor a wearable terminal such as a headset incorporating a beacon oscillator, a GPS (Global Positioning System) receiver, an acceleration sensor, a direction sensor, etc. The sensor information of may be used. The external sensor 10 transmits sensor information of these various sensors to the customer robot 100 at predetermined intervals, for example, every second.

頭部111は、接客ロボット100の頭であり、例えば、眼部112と、対話部115とを有する。頭部111は、制御部130からの指示に従って、例えば上下左右に頭を動かす動作を行うことができる。   The head 111 is a head of the customer-service robot 100, and includes, for example, an eye unit 112 and a dialogue unit 115. The head 111 can perform, for example, an operation of moving the head vertically and horizontally in accordance with an instruction from the control unit 130.

眼部112は、接客ロボット100の眼であり、例えば、制御部130からの指示に従って、所定の範囲で動くことによって表情や視線を表現することができる。なお、眼部112は、カメラを内蔵して撮像画像を取得するようにしてもよい。   The eye unit 112 is an eye of the customer service robot 100, and can express an expression or a sight line by moving within a predetermined range according to an instruction from the control unit 130, for example. The eye unit 112 may incorporate a camera to acquire a captured image.

右腕部113および左腕部114は、それぞれ接客ロボット100の右腕および左腕である。右腕部113および左腕部114は、例えば、制御部130からの指示に従って、腕を上げる、方向を指し示す等の各種の動作を行うことができる。   The right arm 113 and the left arm 114 are the right arm and the left arm of the customer robot 100, respectively. The right arm unit 113 and the left arm unit 114 can perform various operations such as raising an arm and pointing a direction according to an instruction from the control unit 130, for example.

対話部115は、マイクとスピーカとを有し、来訪者との対話を実現する。対話部115は、例えばマイクによって入力された来訪者の音声を制御部130に出力し、制御部130から入力された音声信号を、スピーカを用いて出力する。なお、対話部115は、頭部111だけではなく、その他の場所、例えば接客ロボット100の胴体に設けられてもよい。   The dialogue unit 115 has a microphone and a speaker, and realizes dialogue with the visitor. The dialogue unit 115 outputs, for example, the voice of the visitor input by the microphone to the control unit 130, and outputs the voice signal input from the control unit 130 using a speaker. The dialogue unit 115 may be provided not only at the head 111 but also at other places, for example, the body of the customer service robot 100.

表示部116は、各種情報を表示するための表示デバイスである。表示部116は、例えば、表示デバイスとして液晶ディスプレイ等によって実現される。表示部116は、制御部130から入力された表示画面等の各種画面を表示する。表示部116は、例えば、接客ロボット100の胴体に設けることができる。また、これらのロボット資源117の各資源は、各資源に対する来訪者の接触を検知すると、接触情報を制御部130に出力する。なお、以下の説明では、ロボット資源117および各資源を接客資源と表現する場合がある。   The display unit 116 is a display device for displaying various information. The display unit 116 is realized by, for example, a liquid crystal display as a display device. The display unit 116 displays various screens such as a display screen input from the control unit 130. The display unit 116 can be provided, for example, on the trunk of the customer service robot 100. Also, each of the resources of the robot resource 117 outputs contact information to the control unit 130 when it detects a visitor's contact with each resource. In the following description, the robot resource 117 and each resource may be expressed as a customer service resource.

記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部120は、サービス提供空間記憶部121と、関心空間情報記憶部122と、来訪者空間情報記憶部123と、資源活用情報記憶部124と、サービスシナリオ記憶部125とを有する。また、記憶部120は、制御部130での処理に用いる情報を記憶する。   The storage unit 120 is realized by, for example, a storage device such as a random access memory (RAM), a semiconductor memory device such as a flash memory, or a hard disk or an optical disk. The storage unit 120 includes a service providing space storage unit 121, an interest space information storage unit 122, a visitor space information storage unit 123, a resource utilization information storage unit 124, and a service scenario storage unit 125. Further, the storage unit 120 stores information used for processing in the control unit 130.

サービス提供空間記憶部121は、接客ロボット100の周囲に設定されるサービス提供空間20の座標系の空間ブロック群(以下、ブロック群ともいう。)の情報を記憶する。サービス提供空間記憶部121では、例えば、机や壁等の遮蔽物がある場合、対象のブロックに対して遮蔽情報が設定される。   The service provision space storage unit 121 stores information of space block groups (hereinafter also referred to as block groups) of the coordinate system of the service provision space 20 set around the customer robot 100. In the service providing space storage unit 121, for example, when there is a shielding object such as a desk or a wall, shielding information is set for the target block.

ここで、図3を用いてサービス提供空間20に設定するブロックについて説明する。図3は、サービス提供空間に設定するブロックの座標の一例を示す図である。図3に示すように、ブロックは、例えば1cmの立方体であり、ブロックの各頂点(以下、各端点ともいう。)の座標をブロックID(Identifier)と対応付けてサービス提供空間記憶部121に記憶する。 Here, blocks to be set in the service providing space 20 will be described using FIG. 3. FIG. 3 is a diagram showing an example of the coordinates of a block set in the service providing space. As shown in FIG. 3, the block is, for example, a cube of 1 cm 3 , and the coordinates of each vertex (hereinafter also referred to as each end point) of the block are associated with the block ID (Identifier) to be provided in the service provision space storage unit 121. Remember.

図2の説明に戻って、関心空間情報記憶部122は、来訪者ごとの関心空間情報を記憶する。図4は、関心空間情報記憶部の一例を示す図である。図4に示すように、関心空間情報記憶部122は、例えば、来訪者(ユーザ)ごとに1つの関心空間テーブルを有する。関心空間テーブルは、「ユーザID」、「関心空間判定」、「関心対象判定」、「関心対象種別」、「開始時刻」、「終了時刻」、「ブロックID」、「端点座標値」、「関心フラグ値」、「判定フラグ」といった項目を有する。   Returning to the explanation of FIG. 2, the space of interest information storage unit 122 stores the space of interest information for each visitor. FIG. 4 is a diagram showing an example of a space of interest information storage unit. As shown in FIG. 4, the space of interest information storage unit 122 has, for example, one space of interest table for each visitor (user). The interest space table includes "user ID", "interest space determination", "interest object determination", "interest object type", "start time", "end time", "block ID", "end point coordinate value", " It has items such as "interest flag value" and "determination flag".

「ユーザID」は、来訪者(ユーザ)を識別する識別子である。「関心空間判定」は、来訪者に対応する関心空間があるか否かを示す情報である。「関心対象判定」は、来訪者が関心を寄せている関心対象があるか否かを示す情報である。「関心対象種別」は、関心対象の種別、例えば、ロボット、スクリーン等の情報を示す情報である。「開始時刻」は、関心空間テーブルの生成開始時刻を示す情報である。「終了時刻」は、関心空間テーブルの生成終了時刻を示す情報である。「ブロックID」は、関心空間内の各ブロックを識別する識別子である。「端点座標値」は、ブロックの各端点のサービス提供空間20における座標値を示す情報である。「関心フラグ値」は、来訪者が関心を寄せている場合に数値が加算される情報である。「判定フラグ」は、関心フラグ値が閾値以上である場合に関心空間と設定される情報である。   The "user ID" is an identifier for identifying a visitor (user). The “interest space determination” is information indicating whether or not there is an interest space corresponding to the visitor. The “interested object determination” is information indicating whether or not there is an interest object that the visitor is interested in. The “interest object type” is information indicating the type of the object of interest, for example, information such as a robot or a screen. The “start time” is information indicating the generation start time of the space of interest table. The “end time” is information indicating the generation end time of the space of interest table. The “block ID” is an identifier that identifies each block in the space of interest. The “end point coordinate value” is information indicating a coordinate value in the service providing space 20 of each end point of the block. The "interest flag value" is information to which a numerical value is added when the visitor is interested. The “determination flag” is information that is set as the interest space when the interest flag value is equal to or greater than the threshold.

ここで、図5および図6を用いて関心空間について説明する。図5は、関心空間の一例を示す図である。図5の例では、来訪者Aがスクリーン24を見ているとすると、来訪者Aの視線がスクリーン24の方向で静止しており、視線方向の延長線上にスクリーン24があるので、関心空間はスクリーン24とその近傍の空間となる。   Here, the space of interest will be described using FIGS. 5 and 6. FIG. 5 is a diagram showing an example of a space of interest. In the example of FIG. 5, assuming that the visitor A looks at the screen 24, the line of sight of the visitor A is stationary in the direction of the screen 24, and the screen 24 is on the extension of the line of sight. It becomes the space of the screen 24 and its vicinity.

図6は、関心空間の他の一例を示す図である。図6の例では、スクリーン24と接客ロボット100とが並んで配置されており、来訪者Aが接客ロボット100を見ている。この場合は、来訪者Aの視線が接客ロボット100の方向で静止しており、視線方向の延長線上に接客ロボット100があるので、関心空間は接客ロボット100とその近傍の空間となる。   FIG. 6 is a diagram showing another example of the space of interest. In the example of FIG. 6, the screen 24 and the customer service robot 100 are arranged side by side, and the visitor A looks at the customer service robot 100. In this case, since the line of sight of the visitor A is stationary in the direction of the customer robot 100 and the customer robot 100 is on the extension of the line of sight direction, the space of interest is the customer robot 100 and a space in the vicinity thereof.

図2の説明に戻って、来訪者空間情報記憶部123は、来訪者の眼や耳等の感覚器ごとに、サービス開始時およびサービス終了時に来訪者が気付く確率を記憶する。図7は、来訪者空間情報記憶部の一例を示す図である。図7に示すように、来訪者空間情報記憶部123は、例えば、眼に対応する来訪者空間テーブル123aと、耳に対応する来訪者空間テーブル123bとを有する。来訪者空間テーブル123aは、「ユーザID」、「ユーザ感覚器」、「ロボット資源」、「サービス開始時に気付く確率」、「サービス終了時に気付く確率」、「開始時刻」、「終了時刻」といった項目を有する。また、来訪者空間テーブル123aは、「感覚器近傍ブロックID」、「端点座標値」、「ロボット資源が示す視差」、「開始に気付く確率」、「終了に気付く確率」といった項目を有する。   Returning to the explanation of FIG. 2, the visitor space information storage unit 123 stores the probability that the visitor notices at the start of the service and at the end of the service, for each sensor such as the visitor's eyes and ears. FIG. 7 is a diagram showing an example of the visitor space information storage unit. As shown in FIG. 7, the visitor space information storage unit 123 has, for example, a visitor space table 123a corresponding to an eye, and a visitor space table 123b corresponding to an ear. The visitor space table 123a includes items such as "user ID", "user sense device", "robot resource", "probability of noticing at start of service", "probability of noticing at end of service", "start time", "end time" Have. Further, the visitor space table 123a has items such as "sensor sense neighborhood block ID", "end point coordinate value", "disparity indicated by robot resource", "probability of noticing start", and "probability of noticing end".

「ユーザID」は、来訪者(ユーザ)を識別する識別子である。「ユーザ感覚器」は、来訪者の眼や耳といった感覚器を識別する情報である。「ロボット資源」は、来訪者の感覚器に対して接客ロボット100がアクションを起こす際に用いるロボット資源117、例えば、右腕部113および左腕部114を示す腕、頭部111を示す頭といった情報である。「サービス開始時に気付く確率」は、来訪者に対してロボット資源117を用いて起こしたアクションに、来訪者が気付く確率を示す情報である。「サービス終了時に気付く確率」は、来訪者に対してロボット資源117を用いて起こしていたアクションを終了した場合に、来訪者が気付く確率を示す情報である。「開始時刻」は、来訪者空間テーブル123aの生成開始時刻を示す情報である。「終了時刻」は、来訪者空間テーブル123aの生成終了時刻を示す情報である。   The "user ID" is an identifier for identifying a visitor (user). The "user sense" is information for identifying a sense such as a visitor's eye or ear. “Robot resource” is information such as a robot resource 117 used when the customer service robot 100 takes action on the visitor's sensei, for example, an arm indicating the right arm 113 and the left arm 114, and a head indicating the head 111. is there. The “probability of noticing at the start of service” is information indicating the probability that the visitor notices the action taken for the visitor using the robot resource 117. The “probability of noticing at the end of the service” is information indicating the probability of being noticed by the visitor when the action being performed using the robot resource 117 is ended for the visitor. The "start time" is information indicating the generation start time of the visitor space table 123a. The "end time" is information indicating the generation end time of the visitor space table 123a.

「感覚器近傍ブロックID」は、ユーザ感覚器の近傍に存在する各ブロックを識別する識別子である。「端点座標値」は、ブロックの各端点のサービス提供空間20における座標値を示す情報である。「ロボット資源が示す視差」は、例えば、腕を振る動作を行った場合における腕の動く範囲に対応する視差を示す情報である。なお、視差の単位はラジアン(rad)を用いることができる。「開始に気付く確率」は、各ブロックにおいて、来訪者に対してロボット資源117を用いて起こしたアクションに、来訪者が気付く確率を示す情報である。「終了に気付く確率」は、各ブロックにおいて、来訪者に対してロボット資源117を用いて起こしていたアクションを終了した場合に、来訪者が気付く確率を示す情報である。   “Sensor proximity block ID” is an identifier for identifying each block present in the vicinity of the user sensation. The “end point coordinate value” is information indicating a coordinate value in the service providing space 20 of each end point of the block. The “parallax indicated by the robot resource” is, for example, information indicating a parallax corresponding to a moving range of the arm when an operation of shaking the arm is performed. Note that the unit of parallax can be radians (rad). The “probability of noticing the start” is information indicating the probability that the visitor notices the action taken for the visitor using the robot resource 117 in each block. The “probability of noticing the end” is information indicating the probability that the visitor notices when the action being performed using the robot resource 117 is finished for the visitor in each block.

なお、来訪者空間テーブル123bは、来訪者空間テーブル123aと比較して、「ロボット資源」が「音声」となり、「ロボット資源が示す視差」が「ロボット資源が示す音圧レベル」となるが、その他の項目については同様であるので説明を省略する。   In the visitor space table 123b, "robot resources" is "voice" and "disparity indicated by robot resources" is "sound pressure level indicated by robot resources" compared to the visitor space table 123a. The other items are the same, so the description will be omitted.

ここで、図8を用いて来訪者への働きかけが気付かれる範囲、すなわち、来訪者空間テーブル123aおよび来訪者空間テーブル123bの「感覚器近傍ブロックID」に対応する範囲について説明する。図8は、来訪者への働きかけが気付かれる範囲の一例を示す図である。図8に示すように、来訪者Aの視野に含まれる各ブロックは、眼に対応する来訪者空間テーブル123aの「感覚器近傍ブロックID」に設定される。また、来訪者Aの可聴範囲に含まれる各ブロックは、耳に対応する来訪者空間テーブル123bの「感覚器近傍ブロックID」に設定される。これにより、来訪者空間情報記憶部123には、来訪者の感覚器ごとに気付かれる範囲を設定することができる。   Here, the range in which the approach to the visitor is noticed using FIG. 8, that is, the range corresponding to the “visitor space table 123a” and the “sensor near block ID” of the visitor space table 123b will be described. FIG. 8 is a diagram showing an example of a range in which the approach to the visitor is noticed. As shown in FIG. 8, each block included in the field of view of the visitor A is set to the “sensor near block ID” of the visitor space table 123 a corresponding to the eye. In addition, each block included in the audible range of the visitor A is set to the “sensor near block ID” of the visitor space table 123 b corresponding to the ear. As a result, in the visitor space information storage unit 123, it is possible to set a range to be noticed for each sense of the visitor.

図2の説明に戻って、資源活用情報記憶部124は、ロボット資源117を各来訪者にどの様に配分するかの情報を記憶する。図9から図13は、資源活用情報記憶部の一例を示す図である。資源活用情報記憶部124は、例えば、複数の来訪者の状況に応じたロボット資源117(接客資源)の配分を示す資源活用テーブル124a〜124eを有する。なお、以下の説明では、簡単のために来訪者はAとBの2人の場合について説明するが、これに限定されず、資源活用情報記憶部124は、3人以上の来訪者に対応するようにしてもよい。また、資源活用情報記憶部124の各資源活用テーブル124a等は、来訪者に応じて、動的に配分が算出されるようにしてもよい。なお、以下の説明では、資源活用テーブル124aを一例として項目を説明し、接客ロボット100の右側に来訪者A、左側に来訪者Bが居るものとする。   Returning to the explanation of FIG. 2, the resource utilization information storage unit 124 stores information on how to allocate the robot resource 117 to each visitor. 9 to 13 are diagrams showing an example of the resource utilization information storage unit. The resource utilization information storage unit 124 has, for example, resource utilization tables 124 a to 124 e indicating the distribution of robot resources 117 (service resources) according to the conditions of a plurality of visitors. In the following description, although the case of two visitors A and B will be described for simplicity, the present invention is not limited to this, and the resource utilization information storage unit 124 corresponds to three or more visitors. You may do so. Further, the allocation of each resource utilization table 124 a or the like of the resource utilization information storage unit 124 may be dynamically calculated according to the visitor. In the following description, it is assumed that the resource utilization table 124a is an example, and the visitor A is on the right side of the customer robot 100 and the visitor B is on the left side.

図9に示すように、資源活用テーブル124aは、「状況」、「ロボット資源」、「現状の配分」、「単位」、各アクションに対応する来訪者AまたはBが気付く確率「(1)」〜「(4)」といった項目を有する。また、資源活用テーブル124aは、「B向けに変更する場合の効用を示す値」、「資源割り当ての見直し後の配分」といった項目を有する。   As shown in FIG. 9, the resource utilization table 124 a includes “condition”, “robot resource”, “allocation of current status”, “unit”, and probability that the visitor A or B corresponding to each action notices “(1)”. ~ Have an item such as "(4)". Also, the resource utilization table 124 a has items such as “value indicating the utility when changing to B” and “allocation after review of resource allocation”.

「状況」は、来訪者AとBの状況を示す情報である。また、「状況」は、配分を変更する状況を示す情報も含む。資源活用テーブル124aの例では、先行者である来訪者Aは、例えば図1に示すスクリーン23のみに関心があり、後から訪れた来訪者Bは、接客ロボット100を凝視している状況である。資源活用テーブル124aは、この状況において、来訪者Aが先行サービス受益者で(来訪者Aは接客ロボット100から目を離してほとんどスクリーン23を見ていて)、後から現れた来訪者Bにロボット資源117の付け替えを検討する場合である。   "Situation" is information indicating the situations of the visitors A and B. Also, "status" includes information indicating the status of changing the allocation. In the example of the resource utilization table 124a, the visitor A who is the predecessor is interested in only the screen 23 shown in FIG. 1, for example, and the visitor B who visited later looks at the customer robot 100 at a glance. In the resource utilization table 124a, in this situation, the visitor A is the preceding service beneficiary (the visitor A looks almost at the screen 23 away from the customer service robot 100), and the robot appears for the visitor B who appears later This is a case of considering reassignment of the resource 117.

「ロボット資源」は、来訪者に対して接客ロボット100がアクションを起こす際に用いるロボット資源117を示す情報である。「現状の配分」は、ロボット資源117の現状の配分を示す情報である。図9の例では、ロボット資源117のうち、頭部111〜対話部115は来訪者Aに配分され、表示部116は、来訪者A,Bいずれにも配分されていないことを示す。「単位」は、ロボット資源117の各資源を配分する場合における単位である。   The “robot resource” is information indicating the robot resource 117 used when the customer service robot 100 takes action on the visitor. The “current allocation” is information indicating the current allocation of the robot resource 117. In the example of FIG. 9, of the robot resource 117, the head 111 to the dialogue unit 115 are allocated to the visitor A, and the display unit 116 indicates that the robot resource 117 is not allocated to either the visitor A or B. The “unit” is a unit in the case of allocating each resource of the robot resource 117.

「(1)」は、ロボット資源117の各資源が来訪者A向けのアクションを開始し、来訪者Aが便益を受ける場合、つまり、接客ロボット100が来訪者A向けアクションを開始して(右側に居る)来訪者Aが気付く確率を示す。「(2)」は、ロボット資源117の各資源が既存の来訪者A向けのアクションを停止し、来訪者Aが阻害を受ける場合、つまり、接客ロボット100が既存の来訪者A向けアクションを停止して(右側に居る)来訪者Aが気付く確率を示す。「(3)」は、ロボット資源117の各資源が新規の来訪者B向けのアクションを開始し、来訪者Bが便益を受ける場合、つまり、接客ロボット100が新規の来訪者B向けアクションを開始して(左側に居る)来訪者Bが気付く確率を示す。「(4)」は、ロボット資源117の各資源が新規の来訪者B向けのアクションを開始し、来訪者Aが阻害を受ける場合、つまり、接客ロボット100が新規の来訪者B向けアクションを開始して(右側に居る)来訪者Aが気付く確率を示す。   In “(1)”, when each resource of the robot resource 117 starts an action for the visitor A and the visitor A receives a benefit, that is, the service robot 100 starts an action for the visitor A (right side Show the probability that the visitor A notices. In (2), when each resource of the robot resource 117 stops the action for the existing visitor A and the visitor A suffers an obstruction, that is, the customer service robot 100 stops the action for the existing visitor A And show the probability that visitor A (not to the right) notices. In “(3)”, when each resource of the robot resource 117 starts an action for a new visitor B, and the visitor B receives a benefit, that is, the customer service robot 100 starts an action for a new visitor B And the probability that visitor B (not on the left) notices. In “(4)”, when each resource of the robot resource 117 starts an action for a new visitor B, and the visitor A receives a hindrance, that is, the customer service robot 100 starts an action for a new visitor B And show the probability that visitor A (not to the right) notices.

「B向けに変更する場合の効用を示す値」は、例えば、正の値であれば、ロボット資源117の配分を来訪者Bに変更することで、接客ロボット100がアクションを起こす効用が期待される場合を示す。負の値であれば、ロボット資源117の配分を来訪者Bに変更しない方が、来訪者A,Bの接客対応の満足度の低下を抑制できる場合を示す。すなわち、「B向けに変更する場合の効用を示す値」は、正の値であれば、ロボット資源117の配分を来訪者Bに変更し、負の値であれば、ロボット資源117の配分を来訪者Aのままとする。「B向けに変更する場合の効用を示す値」は、例えば、各アクションに対応する来訪者AまたはBが気付く確率「(1)」〜「(4)」に基づいて算出できる。ロボット資源117の頭部111〜対話部115は、「(3)−(2)−(4)」で「B向けに変更する場合の効用を示す値」を算出できる。ロボット資源117の表示部116は、「現状の配分」で来訪者A,Bのいずれにも配分されていないので、「(3)−(1)−(4)」で「B向けに変更する場合の効用を示す値」を算出できる。   For example, if the “value indicating the effect of changing to B” is a positive value, changing the distribution of the robot resource 117 to the visitor B is expected to be useful to cause the customer-service robot 100 to take action. Show the case. If the value is a negative value, it indicates that a decrease in satisfaction of the customer service for the visitors A and B can be suppressed if the allocation of the robot resource 117 is not changed to the visitor B. That is, “value indicating utility when changing to B” is a positive value, changes the allocation of robot resource 117 to visitor B, and a negative value changes the allocation of robot resource 117. Leave Visitor A. The “value indicating the utility when changing to B” can be calculated, for example, based on the probability “(1)” to “(4)” that the visitor A or B corresponding to each action notices. The head 111 to the dialogue unit 115 of the robot resource 117 can calculate “the value indicating the effect when changing to B” in “(3) − (2) − (4)”. Since the display unit 116 of the robot resource 117 is not allocated to any of the visitors A and B in the "current allocation", the display unit 116 changes to "B" in "(3)-(1)-(4)". A value indicating the utility of the case can be calculated.

「資源割り当ての見直し後の配分」は、「B向けに変更する場合の効用を示す値」に基づいて、ロボット資源117の各資源を来訪者A,Bのいずれかに配分した値を示す。図9の例では、ロボット資源117の各資源は、全て来訪者Bに配分されている。すなわち、図9の例では、来訪者Aが接客ロボット100に無関心なので、ロボット資源117の全部の資源を来訪者Bに割り当てることができる。   “Distribution after review of resource allocation” indicates a value in which each resource of the robot resource 117 is allocated to either of the visitors A and B based on “the value indicating the utility when changing to B”. In the example of FIG. 9, all the resources of the robot resource 117 are allocated to the visitor B. That is, in the example of FIG. 9, since the visitor A is not interested in the customer service robot 100, all resources of the robot resource 117 can be allocated to the visitor B.

図10に示す資源活用テーブル124bは、「状況」が、先行者である来訪者Aは、接客ロボット100にも関心を持ちつつスクリーン23にも関心を示す状況である。資源活用テーブル124bは、この状況において、来訪者Aが先行サービス受益者で(接客ロボット100とスクリーン23とを半々くらいに見ていて)、後から現れた来訪者Bにロボット資源117の付け替えを検討する場合である。資源活用テーブル124bでは、「現状の配分」は、ロボット資源117が全て来訪者Aに配分されている。資源活用テーブル124bでは、資源活用テーブル124aと同様に「B向けに変更する場合の効用を示す値」を算出すると、左腕部114が正の値で残りが負の値となる。従って、資源活用テーブル124bでは、資源割り当ての見直し後の配分は、左腕部114が来訪者Aから来訪者Bに配分が変更される。すなわち、図10の例では、来訪者Aが接客ロボット100にも関心を残しているため、来訪者Bに割り当てられるロボット資源117の資源は左腕部114のみとなる。   In the resource utilization table 124b shown in FIG. 10, the "status" indicates that the visitor A who is the predecessor has an interest in the customer robot 100 and also an interest in the screen 23. In the resource utilization table 124b, in this situation, the visitor A is the preceding service beneficiary (looking at the customer robot 100 and the screen 23 in half), and the robot resource 117 is replaced by the visitor B who appears later It is a case to consider. In the resource utilization table 124 b, in the “current allocation”, all the robot resources 117 are allocated to the visitor A. In the resource utilization table 124b, as in the resource utilization table 124a, when "a value indicating the utility when changing to B" is calculated, the left arm 114 is a positive value and the remaining is a negative value. Therefore, in the resource utilization table 124b, the allocation after the review of the resource allocation is changed from the visitor A to the visitor B in the left arm part 114. That is, in the example of FIG. 10, since the visitor A also has an interest in the customer service robot 100, the resource of the robot resource 117 allocated to the visitor B is only the left arm 114.

図11に示す資源活用テーブル124cは、「状況」が、先行者である来訪者Aは、接客ロボット100をほとんど占有している状況である。資源活用テーブル124cは、この状況において、来訪者Aが先行サービス受益者で(接客ロボット100をほとんど占有していて)、後から現れた来訪者Bにロボット資源117の付け替えを検討する場合である。資源活用テーブル124cでは、「現状の配分」は、ロボット資源117が全て来訪者Aに配分されている。資源活用テーブル124cでは、資源活用テーブル124aと同様に「B向けに変更する場合の効用を示す値」を算出すると、ロボット資源117の全ての資源が負の値となる。従って、資源活用テーブル124cでは、資源割り当ての見直し後の配分は、ロボット資源117の全ての資源が来訪者Aに配分されたままとなり、来訪者Bに配分されるロボット資源117はないことになる。すなわち、図11の例では、来訪者Aが接客ロボット100を占有しているため、来訪者Bに割り当てられるロボット資源117の資源はない状態となる。   The resource utilization table 124c illustrated in FIG. 11 is a state in which the “status” is such that the visitor A who is the predecessor occupies most of the customer service robot 100. In the resource utilization table 124c, in this situation, the visitor A is a precedent service beneficiary (with almost all of the customer service robot 100 occupied), and is considering a change of the robot resource 117 to the visitor B who appears later . In the resource utilization table 124 c, in the “current allocation”, all the robot resources 117 are allocated to the visitor A. In the resource utilization table 124c, all values of the robot resource 117 become negative values when “a value indicating the effect when changing to B” is calculated as in the resource utilization table 124a. Therefore, in the resource utilization table 124c, in the allocation after the review of the resource allocation, all the resources of the robot resource 117 remain allocated to the visitor A, and there is no robot resource 117 allocated to the visitor B . That is, in the example of FIG. 11, since visitor A occupies service robot 100, there is no resource of robot resource 117 allocated to visitor B.

図12に示す資源活用テーブル124dは、「状況」が、来訪者Aが先行者ではなく、来訪者Aも来訪者Bも同時に接客ロボット100にアクセスする状況である。資源活用テーブル124dは、この状況において、来訪者Aも来訪者Bも同時に現れて、ロボット資源117をどちらに割り当てるかを検討する場合である。資源活用テーブル124dでは、「現状の配分」は、ロボット資源117が来訪者A,Bのいずれにも配分されていない。資源活用テーブル124dでは、各アクションに対応する来訪者AまたはBが気付く確率「(1)」〜「(4)」のうち、「(2)」〜「(4)」が資源活用テーブル124aと異なる。   In the resource utilization table 124 d shown in FIG. 12, the “condition” is a situation where the visitor A is not the predecessor and both the visitor A and the visitor B simultaneously access the customer service robot 100. The resource utilization table 124 d is a case where, in this situation, both the visitor A and the visitor B simultaneously appear to consider to which of the robot resources 117 is to be allocated. In the resource utilization table 124d, in the “current allocation”, the robot resource 117 is not allocated to either of the visitors A and B. In the resource utilization table 124 d, among the probabilities “(1)” to “(4)” that the visitor A or B corresponding to each action notices, “(2)” to “(4)” are the resource utilization table 124 a and It is different.

「(2)」は、ロボット資源117の各資源が来訪者A向けのアクションを開始し、来訪者Bが阻害を受ける場合、つまり、接客ロボット100が来訪者A向けアクションを開始して(左側に居る)来訪者Bが気付く確率を示す。「(3)」は、ロボット資源117の各資源が来訪者B向けのアクションを開始し、来訪者Bが便益を受ける場合、つまり、接客ロボット100が来訪者B向けアクションを開始して(左側に居る)来訪者Bが気付く確率を示す。「(4)」は、ロボット資源117の各資源が来訪者B向けのアクションを開始し、来訪者Aが阻害を受ける場合、つまり、接客ロボット100が来訪者B向けアクションを開始して(右側に居る)来訪者Aが気付く確率を示す。   In “(2)”, when each resource of the robot resource 117 starts an action for the visitor A and the visitor B suffers an obstruction, that is, the service robot 100 starts an action for the visitor A (left side Show the probability that the visitor B notices. In “(3)”, when each resource of the robot resource 117 starts an action for the visitor B and the visitor B receives a benefit, that is, the service robot 100 starts an action for the visitor B (left side Show the probability that the visitor B notices. In “(4)”, when each resource of the robot resource 117 starts an action for the visitor B, and the visitor A receives a hindrance, that is, the customer service robot 100 starts an action for the visitor B (right side Show the probability that the visitor A notices.

「A向けを基準とした場合の効用を示す値」は、例えば、正の値であれば、ロボット資源117の配分を来訪者Aに変更することで、接客ロボット100がアクションを起こす効用が期待される場合を示す。負の値であれば、ロボット資源117の配分を来訪者Bに変更することで、接客ロボット100がアクションを起こす効用が期待される場合を示す。すなわち、「A向けを基準とした場合の効用を示す値」は、正の値であれば、ロボット資源117の配分を来訪者Aに変更し、負の値であれば、ロボット資源117の配分を来訪者Bに変更する。「A向けを基準とした場合の効用を示す値」は、上述の「B向けに変更する場合の効用を示す値」と同様に、例えば、各アクションに対応する来訪者AまたはBが気付く確率「(1)」〜「(4)」に基づいて算出できる。ロボット資源117の各資源は、「((1)−(2))−((3)−(4))」で「A向けを基準とした場合の効用を示す値」を算出できる。   For example, if “value indicating the utility based on A direction” is a positive value, the utility of the customer robot 100 is expected to take action by changing the distribution of the robot resource 117 to the visitor A. Show the case. If the value is a negative value, changing the distribution of the robot resource 117 to the visitor B indicates a case where the service robot 100 is expected to be effective in causing an action. That is, “value indicating utility when based on A” is a positive value, changing the allocation of robot resource 117 to visitor A, and a negative value, allocating robot resource 117 Is changed to visitor B. The “value indicating the utility based on A direction” is, for example, the probability that the visitor A or B corresponding to each action notices the same value as the “value indicating the utility when changing to B direction” described above. It can be calculated based on “(1)” to “(4)”. For each resource of the robot resource 117, “((1) − (2)) − ((3) − (4))” can be calculated “a value indicating the effect based on A direction”.

「資源割り当ての見直し後の配分」は、「A向けを基準とした場合の効用を示す値」に基づいて、ロボット資源117の各資源を来訪者A,Bのいずれかに配分した値を示す。   “Distribution after review of resource allocation” indicates a value obtained by allocating each resource of the robot resource 117 to any one of the visitors A and B based on “value indicating utility when using A as a standard”. .

資源活用テーブル124dでは、「A向けを基準とした場合の効用を示す値」が算出されると、ロボット資源117の各資源のうち、頭部111および眼部112、右腕部113、ならびに、対話部115が正の値となり、来訪者Aに配分される。また、資源活用テーブル124dでは、左腕部114および表示部116が負の値となり、来訪者Bに配分される。すなわち、図12の例では、来訪者Aが先行者ではなく、来訪者A,Bが同時にサービスを受けるため、来訪者A,Bの位置や関心度に応じてロボット資源117の各資源の割り当てが変わる。図12の例では、来訪者Aが3つの資源、来訪者Bが2つの資源を割り当てられている。   In the resource utilization table 124 d, when “a value indicating the utility based on A direction” is calculated, the head 111 and the eye 112, the right arm 113, and the dialogue among the resources of the robot resource 117 are calculated. The part 115 has a positive value and is distributed to the visitor A. Further, in the resource utilization table 124 d, the left arm portion 114 and the display unit 116 have negative values, and are distributed to the visitor B. That is, in the example of FIG. 12, since visitor A is not a predecessor and visitor A and B receive service simultaneously, allocation of each resource of robot resource 117 is made according to the position and interest degree of visitor A and B. change. In the example of FIG. 12, the visitor A is allocated three resources, and the visitor B is allocated two resources.

図13に示す資源活用テーブル124eは、接客ロボット100が、例えばイルカロボットの様に、左右の眼を同時に別々に使用可能な場合における資源活用テーブルの例である。資源活用テーブル124eは、「状況」が、来訪者Aも来訪者Bも同時に接客ロボット100にアクセスし、接客ロボット100が左右の眼を同時に別々に使用する状況である。資源活用テーブル124eは、この状況において、来訪者Aと来訪者Bが左右から同時に現れ、接客ロボット100が最終的には胸の表示部116に誘導するが、それまでの間は同時並行接客である場合である。なお、資源活用テーブル124eでは、ロボット資源117の各資源うち、眼部112を右眼部と左眼部とに分割している。   The resource utilization table 124e shown in FIG. 13 is an example of a resource utilization table in a case where the customer-handling robot 100 can simultaneously use the left and right eyes separately, for example, like a dolphin robot. In the resource utilization table 124e, the “condition” is a situation in which both the visitor A and the visitor B simultaneously access the reception robot 100, and the reception robot 100 simultaneously uses the left and right eyes separately. In the resource utilization table 124e, in this situation, the visitor A and the visitor B simultaneously appear from the left and right, and the customer service robot 100 eventually guides the display 116 of the chest, but until then, it is a simultaneous and parallel customer service There is a case. In the resource utilization table 124e, among the resources of the robot resource 117, the eye 112 is divided into a right eye and a left eye.

資源活用テーブル124eでは、「現状の配分」は、ロボット資源117が来訪者A,Bのいずれにも配分されていない。資源活用テーブル124eでは、資源活用テーブル124dと同様に「A向けを基準とした場合の効用を示す値」が算出されると、頭部111、対話部115および表示部116はゼロとなり、これらの資源は来訪者A,Bいずれにも配分されない。右眼部および右腕部113は、正の値となり、来訪者Aに配分される。また、左眼部および左腕部114は、負の値となり、来訪者Bに配分される。すなわち、図13の例では、来訪者Aが先行者ではなく、来訪者A,Bが同時にサービスを受けるため、来訪者A,Bの位置や関心度に応じてロボット資源117の各資源の割り当てが変わる。図13の例では、来訪者A,Bに対して左右対称にロボット資源117の各資源が割り当てられる。   In the resource utilization table 124e, in the “current allocation”, the robot resource 117 is not allocated to either of the visitors A and B. In the resource utilization table 124e, as in the resource utilization table 124d, when the “value indicating the utility based on A direction” is calculated, the head 111, the dialogue unit 115, and the display unit 116 become zero, and Resources are not allocated to either visitor A or B. The right eye and right arm 113 have positive values and are distributed to the visitor A. Also, the left eye and the left arm 114 have negative values, and are distributed to the visitor B. That is, in the example of FIG. 13, since visitor A and B are not the precedents, and visitors A and B receive service simultaneously, allocation of each resource of robot resource 117 is made according to the positions and interests of visitors A and B. change. In the example of FIG. 13, each resource of the robot resource 117 is allocated to the visitors A and B in a symmetrical manner.

図2の説明に戻って、サービスシナリオ記憶部125は、接客ロボット100が提供するサービスのシナリオに応じた動作等を記憶する。図14は、サービスシナリオ記憶部の一例を示す図である。図14に示すように、サービスシナリオ記憶部125は、「フェーズ」、「サービス展開空間」、「発話」、「動作(標準)」といった項目を有する。サービスシナリオ記憶部125は、例えば、フェーズごとに1レコードとして記憶する。   Returning to the explanation of FIG. 2, the service scenario storage unit 125 stores an operation or the like corresponding to the scenario of the service provided by the customer service robot 100. FIG. 14 is a diagram illustrating an example of the service scenario storage unit. As shown in FIG. 14, the service scenario storage unit 125 has items such as “phase”, “service development space”, “utterance”, and “operation (standard)”. The service scenario storage unit 125 stores, for example, one record for each phase.

「フェーズ」は、サービスのシナリオの局面を示す情報である。「サービス展開空間」は、接客ロボット100が当該フェーズにてサービスを提供する空間を示す情報である。「発話」は、接客ロボット100が当該フェーズにて発話する内容を示す情報である。なお、フェーズが「コア価値の提供」である場合には、発話内容はコア価値のコンテンツに応じた内容となるため、図14では大項目の一例を表している。「動作(標準)」は、接客ロボット100が当該フェーズにて頭部111、右腕部113および左腕部114等を動作させる標準的な内容を示す情報である。なお、フェーズによっては接客ロボット100の動きがない場合があり、例えば発話のみである場合には動作としての内容を省略している。   The “phase” is information indicating a service scenario aspect. The “service development space” is information indicating a space where the customer robot 100 provides a service in the phase. The "utterance" is information indicating the content that the customer-service robot 100 utters in the phase. When the phase is “provision of core value”, the utterance content corresponds to the content of the core value, so FIG. 14 shows an example of the major items. “Operation (standard)” is information indicating the standard content for the customer-service robot 100 to operate the head 111, the right arm 113, the left arm 114, and the like in this phase. In addition, depending on the phase, there may be no movement of the customer-service robot 100. For example, in the case of only speech, the content as the operation is omitted.

図2の説明に戻って、制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。   Returning to the explanation of FIG. 2, the control unit 130 executes, for example, a program stored in the internal storage device by using a RAM as a work area by a central processing unit (CPU), a micro processing unit (MPU) or the like. Is realized by Further, the control unit 130 may be realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

制御部130は、検出部131と、特定部132と、判定部133と、情報提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。   The control unit 130 includes a detection unit 131, a specification unit 132, a determination unit 133, and an information provision unit 134, and implements or executes the function and action of the information processing described below. Note that the internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 2, and any other configuration may be used as long as the information processing described later is performed.

検出部131は、まず、初期設定として、接客ロボット100が接客を行うためのサービス提供空間20を設定する。つまり、検出部131は、サービス提供空間20の座標系およびブロック群を設定する。次に、検出部131は、サービス提供空間20に配置されたテーブル21、壁22およびスクリーン23等の遮蔽物について、サービス提供空間20の遮蔽情報を設定する。   The detection unit 131 first sets, as an initial setting, a service providing space 20 for the customer service robot 100 to service the customer. That is, the detection unit 131 sets the coordinate system of the service providing space 20 and the block group. Next, the detection unit 131 sets shielding information of the service providing space 20 for shielding objects such as the table 21, the wall 22, and the screen 23 disposed in the service providing space 20.

検出部131は、通信部110を介して、例えばブース内に設置された外部センサ10からセンサ情報を取得する。検出部131は、取得したセンサ情報に基づいて、来訪者を検出する。すなわち、検出部131は、取得したセンサ情報に基づいて、サービス提供空間20に来訪者がいるか否かを判定する。検出部131は、サービス提供空間20に来訪者がいないと判定した場合には、引き続き、取得したセンサ情報に基づいて、サービス提供空間20に来訪者がいるか否かの判定を行う。   The detection unit 131 acquires sensor information from, for example, the external sensor 10 installed in the booth via the communication unit 110. The detection unit 131 detects a visitor based on the acquired sensor information. That is, the detection unit 131 determines whether a visitor is in the service providing space 20 based on the acquired sensor information. If it is determined that there is no visitor in the service providing space 20, the detecting unit 131 continues to determine whether there is a visitor in the service providing space 20 based on the acquired sensor information.

検出部131は、サービス提供空間20に来訪者がいると判定した場合には、来訪者が複数であるか否かを判定する。検出部131は、来訪者が複数でない場合には、情報提供部134に来訪者が単独である旨の来訪者情報を出力する。検出部131は、来訪者が複数である場合には、センサ情報のうち、来訪者が撮像されている撮像画像と、来訪者数Nとを含む特定指示を特定部132に出力する。また、検出部131は、来訪者が複数である場合には、音声、撮像画像および来訪者数Nを含む検出情報を判定部133に出力する。言い換えると、検出部131は、センサ情報に基づいて、第1の来訪者と第2の来訪者とを検出する。   If the detection unit 131 determines that there is a visitor in the service providing space 20, the detection unit 131 determines whether there are a plurality of visitors. If there are not a plurality of visitors, the detection unit 131 outputs, to the information providing unit 134, visitor information indicating that the visitor is a single visitor. When there are a plurality of visitors, the detection unit 131 outputs, to the identification unit 132, a specific instruction including, among sensor information, a captured image in which a visitor is imaged and the number N of visitors. In addition, when there are a plurality of visitors, the detection unit 131 outputs detection information including voice, a captured image, and the number N of visitors to the determination unit 133. In other words, the detection unit 131 detects the first visitor and the second visitor based on the sensor information.

特定部132は、検出部131から特定指示が入力されると、関心空間特定処理を実行する。まず、特定部132は、関心空間特定処理を開始すると、複数の来訪者を識別するための変数iを、例えばi=1と初期化する。特定部132は、特定指示に基づいて、サービス提供空間20内の来訪者数Nを検出する。特定部132は、来訪者数Nを検出すると、N人分の関心空間テーブルを生成する。特定部132は、関心空間テーブルの生成開始時刻を、当該関心空間テーブルに記憶する。なお、N人分の関心空間テーブルは、{(N×ブロック数×フラグ種類数)+(N×テーブル種別判断用フラグ)}といった式で表すことができる。   When the specifying unit 132 receives a specifying instruction from the detecting unit 131, the specifying unit 132 executes an interest space specifying process. First, when the identification unit 132 starts the interest space identification process, the identification unit 132 initializes a variable i for identifying a plurality of visitors, for example, to i = 1. The identifying unit 132 detects the number N of visitors in the service providing space 20 based on the identifying instruction. When the identification unit 132 detects the number N of visitors, the identification unit 132 generates an interest space table for N persons. The identifying unit 132 stores the generation start time of the space of interest table in the space of interest table. In addition, the interest space table for N persons can be represented by an equation such as {(N × number of blocks × number of flag types) + (N × flag for table type determination)}.

特定部132は、未処理の来訪者がいるか否かを判定する。特定部132は、未処理の来訪者がいると判定した場合には、来訪者iを特定対象に設定する。特定部132は、来訪者iに対する特定処理を実行する。   The identifying unit 132 determines whether or not there is an unprocessed visitor. When it is determined that there is an unprocessed visitor, the identifying unit 132 sets the visitor i as an identification target. The identifying unit 132 executes a identifying process for the visitor i.

特定部132は、特定処理を開始すると、まず、特定指示に含まれる撮像画像に基づいて、来訪者iの位置、頭部の向きおよび視線を取得する。なお、特定部132は、特定指示に含まれるレーダー、歪みゲージ、音声定位マイク等の情報に基づいて、来訪者iの位置、頭部の向きおよび視線を取得するようにしてもよい。特定部132は、来訪者iの位置、頭部の向きおよび視線を取得すると、第1推定処理を実行する。   When the identification unit 132 starts the identification process, first, the position of the visitor i, the head orientation, and the line of sight are acquired based on the captured image included in the identification instruction. The specifying unit 132 may acquire the position of the visitor i, the direction of the head, and the line of sight based on the information such as the radar, the strain gauge, and the sound localization microphone included in the specifying instruction. When acquiring the position of the visitor i, the direction of the head, and the line of sight, the identifying unit 132 executes a first estimation process.

特定部132は、第1推定処理を開始すると、来訪者iの位置、頭部の向きまたは視線の方向ベクトルが同じ方向で静止しているか否かを判定する。特定部132は、方向ベクトルが同じ方向で静止していないと判定した場合には、関心空間非特定として特定処理を終了し、関心空間特定処理へ戻る。特定部132は、方向ベクトルが同じ方向で静止していると判定した場合には、来訪者iの静止している位置、頭部の向きおよび視線の方向ベクトルに基づいて、関心空間情報記憶部122の関心空間テーブルの対応するブロック群に関心フラグ値を加算する。関心フラグ値を加算するブロック群は、例えば、来訪者iの位置の方向ベクトルの前方160度、頭部の方向ベクトルの前方160度の円周、眼球(視線)の方向ベクトルに基づく視野方向等が挙げられる。なお、以下の説明では、関心フラグ値の加算は、関心空間情報記憶部122の関心空間テーブルに行うものとする。また、特定部132は、静止時間の信頼性の指標値、例えば、平均値、偏差値等を関心空間テーブルに記憶するようにしてもよい。   When the identification unit 132 starts the first estimation process, it determines whether the position of the visitor i, the head orientation or the direction vector of the sight line is stationary in the same direction. When it is determined that the direction vector is not stationary in the same direction, the identification unit 132 ends the identification processing as non-interest space identification, and returns to the interest space identification processing. If the identification unit 132 determines that the direction vector is stationary in the same direction, the spatial information storage unit for interest is based on the stationary position of the visitor i, the head direction, and the direction vector of the sight line. An interest flag value is added to the corresponding blocks of the 122 interest space table. The block group to which the interest flag value is added is, for example, a circumference of 160 degrees ahead of the direction vector of the position of the visitor i, a circumference of 160 degrees ahead of the direction vector of the head, a viewing direction based on the direction vector of the eye Can be mentioned. In the following description, the addition of the interest flag value is performed on the interest space table of the interest space information storage unit 122. Further, the specifying unit 132 may store an index value of the reliability of the stationary time, for example, an average value, a deviation value, and the like in the space of interest table.

特定部132は、方向ベクトルに基づいて関心フラグ値を加算すると、サービス提供空間記憶部121を参照し、各方向ベクトルの延長線上に関心対象候補があるか否かを判定する。特定部132は、各方向ベクトルの延長線上に関心対象候補がないと判定した場合には、関心対象非特定として特定処理を終了し、関心空間特定処理へ戻る。特定部132は、各方向ベクトルの延長線上に関心対象候補があると判定した場合には、来訪者iの視野角ベクトル空間と、関心対象候補の外縁に基づく空間とのうち、小さい方の空間内のブロック群に関心フラグ値を加算する。なお、特定部132は、関心対象候補の近傍ブロック群の関心フラグ値を重点的に加算するようにしてもよい。また、特定部132は、関心対象候補の近傍のブロック群に関心フラグ値を加算し、第1推定処理を終了して特定処理に戻る。   When the specifying unit 132 adds the interest flag value based on the direction vector, the specifying unit 132 refers to the service provision space storage unit 121 and determines whether there is a candidate of interest on the extension of each direction vector. If the identification unit 132 determines that there is no candidate of interest on the extension of each direction vector, the identification unit 132 ends the identification processing as non-interest identification, and returns to the interest space identification processing. If the identification unit 132 determines that there is a candidate of interest on the extension of each direction vector, the smaller one of the view angle vector space of the visitor i and the space based on the outer edge of the candidate of interest Add the interest flag value to the blocks in The identifying unit 132 may add the interest flag values of the neighboring block group of the interest target candidate on a priority basis. Further, the identifying unit 132 adds the interest flag value to a block group in the vicinity of the interest target candidate, ends the first estimation processing, and returns to the identification processing.

特定部132は、第1推定処理が終了すると、例えば、外部センサ10や情報提供部134から、関心対象候補の情報提示、動作および対話等のタイミングと、来訪者iの動作情報とを取得する。すなわち、特定部132は、関心対象候補および来訪者iの動作情報を取得する。特定部132は、関心対象候補および来訪者iの動作情報を取得すると、第2推定処理を実行する。   When the first estimation process ends, the identifying unit 132 acquires, for example, the timing of information presentation, an operation, a dialogue, and the like of an object of interest candidate from the external sensor 10 or the information providing unit 134 and operation information of the visitor i. . That is, the identifying unit 132 acquires the motion information of the interest object candidate and the visitor i. When acquiring the motion information of the object of interest candidate and the visitor i, the identifying unit 132 executes a second estimation process.

特定部132は、第2推定処理を開始すると、取得した動作情報に基づいて、来訪者iの反応動作タイミングが関心対象候補からの働きかけタイミングと合っているか否かを判定する。特定部132は、来訪者iの反応動作タイミングが関心対象候補からの働きかけタイミングと合っている場合には、関心対象候補の近傍のブロック群に関心フラグ値を加算する。特定部132は、来訪者iの反応動作タイミングが関心対象候補からの働きかけタイミングと合っていない場合には、関心フラグ値を加算せずに次の処理に進む。   When the second estimation process is started, the identifying unit 132 determines, based on the acquired motion information, whether the reaction operation timing of the visitor i matches the operation timing from the interest target candidate. The identifying unit 132 adds the interest flag value to the block group in the vicinity of the candidate of interest, when the reaction operation timing of the visitor i matches the timing of action from the candidate of interest. The identifying unit 132 proceeds to the next process without adding the interest flag value when the reaction operation timing of the visitor i does not match the action timing from the interest target candidate.

特定部132は、取得した動作情報に基づいて、来訪者iの反応動作内容が関心対象候補からの働きかけ内容と合っているか否かを判定する。特定部132は、来訪者iの反応動作内容が関心対象候補からの働きかけ内容と合っている場合には、関心対象候補の近傍のブロック群に関心フラグ値を加算する。特定部132は、来訪者iの反応動作内容が関心対象候補からの働きかけ内容と合っていない場合には、関心フラグ値を加算せずに次の処理に進む。   The identifying unit 132 determines, based on the acquired motion information, whether or not the reaction content of the visitor i matches the content of the action from the candidate of interest. The identifying unit 132 adds the interest flag value to a block group in the vicinity of the candidate of interest when the reaction action content of the visitor i matches the content of the action from the candidate of interest. The identifying unit 132 proceeds to the next process without adding the interest flag value when the reaction action content of the visitor i does not match the action content from the interest object candidate.

特定部132は、例えば、情報提供部134から、関心対象候補の情報提示ログと、来訪者iの操作ログとを取得する。なお、特定部132は、通信部110を介して、外部センサ10や他の情報処理装置から情報提示ログと、操作ログとを取得するようにしてもよい。特定部132は、取得した情報提示ログと操作ログとに基づいて、来訪者iの操作タイミングが関心対象候補からの情報提示タイミングと合っているか否かを判定する。特定部132は、来訪者iの操作タイミングが関心対象候補からの情報提示タイミングと合っている場合には、関心対象候補の近傍のブロック群に関心フラグ値を加算する。特定部132は、来訪者iの操作タイミングが関心対象候補からの情報提示タイミングと合っていない場合には、関心フラグ値を加算せずに次の処理に進む。   For example, the identifying unit 132 acquires, from the information providing unit 134, the information presentation log of the object of interest candidate and the operation log of the visitor i. The identifying unit 132 may acquire the information presentation log and the operation log from the external sensor 10 or another information processing apparatus via the communication unit 110. The identifying unit 132 determines whether the operation timing of the visitor i matches the information presentation timing from the interest target candidate based on the acquired information presentation log and the operation log. When the operation timing of the visitor i matches the information presentation timing from the candidate of interest, the identifying unit 132 adds the interest flag value to the block group in the vicinity of the candidate of interest. If the operation timing of the visitor i does not match the information presentation timing from the candidate of interest, the identifying unit 132 proceeds to the next process without adding the interest flag value.

特定部132は、取得した情報提示ログと操作ログとに基づいて、来訪者iの操作内容が関心対象候補からの情報提示内容と合っているか否かを判定する。特定部132は、来訪者iの操作内容が関心対象候補からの情報提示内容と合っている場合には、関心対象候補の近傍のブロック群に関心フラグ値を加算して元の処理に戻る。特定部132は、来訪者iの操作内容が関心対象候補からの情報提示内容と合っていない場合には、関心フラグ値を加算せずに元の処理に戻る。   The identifying unit 132 determines, based on the acquired information presentation log and the operation log, whether the operation content of the visitor i matches the information presentation content from the interest target candidate. When the operation content of the visitor i matches the information presentation content from the interest object candidate, the identification unit 132 adds the interest flag value to the block group in the vicinity of the interest object candidate, and returns to the original processing. If the operation content of the visitor i does not match the information presentation content from the interest target candidate, the identification unit 132 returns to the original processing without adding the interest flag value.

特定部132は、第2推定処理が終了すると、例えば、情報提供部134から、関心対象候補および来訪者iの対話情報を取得する。特定部132は、関心対象候補および来訪者iの対話情報を取得すると、第3推定処理を実行する。   When the second estimation process ends, the identifying unit 132 acquires, for example, interaction information of the candidate of interest and the visitor i from the information providing unit 134. When acquiring the dialogue information of the candidate of interest and the visitor i, the identifying unit 132 executes the third estimation process.

特定部132は、第3推定処理を開始すると、取得した対話情報に基づいて、来訪者iの対話タイミングが関心対象候補からの対話タイミングと合っているか否かを判定する。特定部132は、来訪者iの対話タイミングが関心対象候補からの対話タイミングと合っている場合には、関心対象候補の近傍のブロック群に関心フラグ値を加算する。特定部132は、来訪者iの対話タイミングが関心対象候補からの対話タイミングと合っていない場合には、関心フラグ値を加算せずに次の処理に進む。   When the identification unit 132 starts the third estimation process, it determines whether the dialog timing of the visitor i matches the dialog timing from the interest target candidate based on the acquired dialog information. The identifying unit 132 adds the interest flag value to blocks near the candidate of interest when the interaction timing of the visitor i matches the timing of interaction from the candidate of interest. If the dialogue timing of the visitor i does not match the dialogue timing from the candidate of interest, the identifying unit 132 proceeds to the next process without adding the interest flag value.

特定部132は、取得した対話情報に基づいて、来訪者iの対話情報が関心対象候補からの対話情報と合っているか否かを判定する。特定部132は、来訪者iの対話情報が関心対象候補からの対話情報と合っている場合には、関心対象候補の近傍のブロック群に関心フラグ値を加算して元の処理に戻る。特定部132は、来訪者iの対話情報が関心対象候補からの対話情報と合っていない場合には、関心フラグ値を加算せずに元の処理に戻る。   The identifying unit 132 determines, based on the acquired dialogue information, whether the dialogue information of the visitor i matches the dialogue information from the candidate of interest. If the dialog information of the visitor i matches the dialog information from the candidate of interest, the identifying unit 132 adds the flag value of interest to blocks in the vicinity of the candidate of interest and returns to the original processing. If the dialog information of the visitor i does not match the dialog information from the candidate of interest, the identifying unit 132 returns to the original processing without adding the flag value of interest.

特定部132は、第3推定処理が終了すると、例えば、通信部110を介して外部センサ10から人物である関心対象候補および来訪者iの撮像画像と音声情報とを取得する。すなわち、特定部132は、人物である関心対象候補および来訪者iの行動情報を取得する。特定部132は、人物である関心対象候補および来訪者iの行動情報を取得すると、第4推定処理を実行する。   When the third estimation process ends, the identifying unit 132 acquires, for example, from the external sensor 10 via the communication unit 110, the image of the candidate of interest, who is a person, and the image of the visitor i and audio information. That is, the specifying unit 132 acquires the action information of the object of interest candidate who is a person and the visitor i. When acquiring the behavior information of the candidate of interest which is a person and the visitor i, the identifying unit 132 executes a fourth estimation process.

特定部132は、第4推定処理を開始すると、取得した行動情報に基づいて、来訪者iと、人物である関心対象候補との行動が、展示ブース等の所定空間内で、所定期間、例えば1分間継続して同調しているか否かを判定する。すなわち、特定部132は、来訪者iと、人物である関心対象候補とのインタラクション履歴(動作同調、発話交替同調、音声意味同調)が、一定期間、固定空間内で継続発生しているか否かを判定する。特定部132は、来訪者iと関心対象候補との行動が所定空間内で所定期間継続して同調していると判定した場合には、来訪者iと関心対象候補との間の空間のブロック群に関心フラグ値を加算して元の処理に戻る。特定部132は、来訪者iと関心対象候補との行動が所定空間内で所定期間継続して同調していないと判定した場合には、関心フラグ値を加算せずに元の処理に戻る。   When the identification unit 132 starts the fourth estimation process, the behavior of the visitor i and the candidate of interest which is a person is, for example, for a predetermined period, in a predetermined space such as an exhibition booth, based on the acquired behavior information. It is determined whether or not tuning is continued for one minute continuously. In other words, the identifying unit 132 determines whether the interaction history (action tuning, speech alternation tuning, voice meaning tuning) of the visitor i with the candidate of interest which is a person continues to occur in the fixed space for a certain period. Determine If the identifying unit 132 determines that the behavior of the visitor i and the candidate of interest is continuously synchronized in the predetermined space for a predetermined period, the block of the space between the visitor i and the candidate of interest Add interest flag value to group and return to original processing. If the identification unit 132 determines that the behavior of the visitor i and the candidate of interest is not synchronized in a predetermined space continuously for a predetermined period, the process returns to the original processing without adding the interest flag value.

特定部132は、第4推定処理が終了すると、例えば、関心対象候補が接客ロボット100である場合に、ロボット資源117の各資源から接触情報を取得する。すなわち、特定部132は、関心対象候補への接触情報(接触部位および接触継続時間を含む。)を取得する。特定部132は、関心対象候補への接触情報を取得すると、第5推定処理を実行する。   When the fourth estimation process ends, for example, when the interest target candidate is the customer service robot 100, the specifying unit 132 acquires contact information from each resource of the robot resource 117. That is, the identifying unit 132 acquires contact information (including the contact site and the contact duration time) on the candidate of interest. When acquiring the contact information on the target of interest, the identifying unit 132 executes a fifth estimation process.

特定部132は、第5推定処理を開始すると、取得した接触情報に基づいて、来訪者iと関心対象候補との接触が所定期間継続しているか否かを判定する。特定部132は、来訪者iと関心対象候補との接触が所定期間継続していると判定した場合には、関心対象候補の接触部位の近傍のブロック群に関心フラグ値を加算して元の処理に戻る。特定部132は、来訪者iと関心対象候補との接触が所定期間継続していないと判定した場合には、関心フラグ値を加算せずに元の処理に戻る。   When the identifying unit 132 starts the fifth estimation process, the identifying unit 132 determines whether the contact between the visitor i and the candidate of interest continues for a predetermined period, based on the acquired contact information. When it is determined that the contact between the visitor i and the candidate of interest continues for a predetermined period, the identifying unit 132 adds the flag value of interest to the group of blocks in the vicinity of the contact portion of the candidate of interest and Return to processing. When it is determined that the contact between the visitor i and the candidate of interest does not continue for a predetermined period, the identifying unit 132 returns to the original process without adding the interest flag value.

特定部132は、第5推定処理が終了すると、関心空間情報記憶部122の関心空間テーブルの各ブロックについて、関心フラグ値が閾値以上のブロックに関心空間フラグを設定する。なお、閾値は、例えば「6」以上とすることができる。特定部132は、関心空間フラグの設定が完了すると、特定処理を終了して関心空間特定処理に戻る。   When the fifth estimation process ends, the identification unit 132 sets an interest space flag for each block in the interest space table of the interest space information storage unit 122 in a block where the interest flag value is equal to or higher than the threshold. The threshold may be, for example, "6" or more. When the setting of the interest space flag is completed, the identification unit 132 ends the identification processing and returns to the interest space identification processing.

特定部132は、特定処理が終了すると、来訪者を特定するための変数iをインクリメントし、未処理の来訪者がいるか否かの判定に戻る。特定部132は、未処理の来訪者がいないと判定した場合には、関心空間テーブルの生成終了時刻を、当該関心空間テーブルに記憶して、関心空間特定処理を終了する。特定部132は、関心空間特定処理を終了すると、判定部133に算出指示を出力する。   When the identification processing ends, the identification unit 132 increments a variable i for identifying a visitor, and returns to the determination of whether or not there is an unprocessed visitor. When it is determined that there is no unprocessed visitor, the identification unit 132 stores the generation end time of the interest space table in the interest space table, and ends the interest space identification process. When the identification unit 132 ends the interest space identification process, the identification unit 132 outputs a calculation instruction to the determination unit 133.

言い換えると、特定部132は、センサ情報に含まれる第1の来訪者と第2の来訪者とが撮像されている撮像画像に基づき、第1の来訪者と第2の来訪者とのそれぞれの関心領域(関心空間)を特定する。または、特定部132は、センサ情報に含まれるセンサにより検出された第1の来訪者の特定のいずれかの部位の向きおよび第2の来訪者のいずれかの部位の向きに基づき、第1の来訪者と第2の来訪者とのそれぞれの関心領域(関心空間)を特定する。   In other words, the identifying unit 132 determines each of the first visitor and the second visitor based on the captured image in which the first visitor and the second visitor included in the sensor information are imaged. Identify a region of interest (space of interest). Alternatively, the identifying unit 132 may be configured to set the first visitor based on the orientation of any one of the first visitor's particular sites detected by the sensor included in the sensor information and the orientation of any one of the second visitors. Identify the region of interest (space of interest) of the visitor and the second visitor.

判定部133には、検出部131から検出情報が入力される。判定部133は、特定部132から算出指示が入力されると、資源活用係数算出処理を実行する。   Detection information is input to the determination unit 133 from the detection unit 131. When the calculation instruction is input from the identification unit 132, the determination unit 133 executes resource utilization coefficient calculation processing.

判定部133は、資源活用係数算出処理を開始すると、検出情報に基づいて、サービス提供空間20内の来訪者数Nを検出する。判定部133は、検出した来訪者数Nに基づいて、N人分の来訪者空間テーブルを来訪者空間情報記憶部123に生成する。なお、判定部133は、1人分の来訪者空間テーブルとして、ロボット資源117の資源の数である接客資源数Mの数に応じたテーブルを生成する。また、判定部133は、1つの資源に対応する来訪者の感覚器の数が複数ある場合には、感覚器の数に応じたテーブルを生成するようにしてもよい。来訪者空間テーブルのサイズは、例えば、来訪者数N人×接客資源数M個×{Σ(感覚器官数K個×感覚器官近傍ブロックL個)}といった式で表すことができる。また、来訪者空間テーブルごとの代表値の個数は、例えば、{来訪者数N人×接客資源数M個×感覚器官数K個}といった式で表すことができる。さらに、判定部133は、来訪者空間テーブルの生成開始時刻を、当該来訪者空間テーブルに記憶する。   When the resource utilization coefficient calculation process is started, the determination unit 133 detects the number N of visitors in the service providing space 20 based on the detection information. The determination unit 133 generates a visitor space table for N persons in the visitor space information storage unit 123 based on the detected number N of visitors. Note that the determination unit 133 generates a table according to the number of customer service resources M, which is the number of resources of the robot resource 117, as a visitor space table for one person. In addition, when there are a plurality of the number of senses of the visitor corresponding to one resource, the determination unit 133 may generate a table according to the number of the senses. The size of the visitor space table can be expressed, for example, by the following equation: N number of visitors × M number of service resources × M × (Σ (K number of sensory organs × L number of sensory organ neighboring blocks)). Further, the number of representative values for each visitor space table can be expressed, for example, by the formula {N number of visitors N number of service resources M number of sensory organs K number of K}. Furthermore, the determination unit 133 stores the generation start time of the visitor space table in the visitor space table.

判定部133は、未処理の来訪者がいるか否かを判定する。判定部133は、未処理の来訪者がいると判定した場合には、来訪者iを算出対象に設定する。判定部133は、来訪者iに対する算出処理を実行する。   The determination unit 133 determines whether there is an unprocessed visitor. When it is determined that there is an unprocessed visitor, the determination unit 133 sets the visitor i as a calculation target. The determination unit 133 executes a calculation process for the visitor i.

判定部133は、算出処理を開始すると、まず、検出情報に含まれる撮像画像に基づいて、来訪者iの眼および耳の位置を取得する。なお、判定部133は、検出情報に含まれるレーダー、歪みゲージ、音声定位マイク等の情報に基づいて、来訪者iの眼および耳の位置を取得するようにしてもよい。判定部133は、取得した眼および耳の位置に基づいて、関心空間情報記憶部122を参照し、来訪者iの関心空間を取得する。判定部133は、取得した来訪者iの関心空間に基づいて、来訪者iの周辺空間における視差および音圧レベルを推定する。すなわち、判定部133は、接客ロボット100と来訪者iとの位置関係に基づいて、来訪者iの可視性および可聴性を推定する。ここで、判定部133は、来訪者iの関心空間が特定できている場合、来訪者iの視野および頭部の方向を固定して、視差および音圧レベルを推定する。判定部133は、来訪者iの関心空間が特定できていない場合、来訪者iの視野を頭部前方に旋回可能、つまり空間を広げて、視差および音圧レベルを推定する。判定部133は、推定した来訪者iの周辺空間における視差および音圧レベルを、来訪者空間情報記憶部123の各来訪者空間テーブルに、ブロックごとに記憶する。   When the calculation process is started, the determination unit 133 first acquires the positions of the eyes and ears of the visitor i based on the captured image included in the detection information. The determination unit 133 may acquire the positions of the eyes and ears of the visitor i based on the information such as the radar, the strain gauge, and the voice localization microphone included in the detection information. The determination unit 133 refers to the space-of-interest information storage unit 122 based on the acquired eye and ear positions, and acquires the space of interest of the visitor i. The determination unit 133 estimates the parallax and the sound pressure level in the surrounding space of the visitor i based on the acquired space of interest of the visitor i. That is, the determination unit 133 estimates the visibility and audibility of the visitor i based on the positional relationship between the customer service robot 100 and the visitor i. Here, when the space of interest of the visitor i can be specified, the determination unit 133 fixes the direction of the field of view and the head of the visitor i, and estimates the parallax and the sound pressure level. If the space of interest of the visitor i can not be identified, the determination unit 133 can turn the field of view of the visitor i forward of the head, that is, expand the space to estimate the parallax and the sound pressure level. The determination unit 133 stores the estimated disparity and sound pressure level in the surrounding space of the visitor i in each visitor space table of the visitor space information storage unit 123 for each block.

判定部133は、サービス提供空間記憶部121、および、予め設定されたロボット資源117の各接客資源の可動範囲の情報を参照し、各接客資源の動作空間を算出する。判定部133は、算出した各接客資源の動作空間と、来訪者iに対応する来訪者空間テーブルとに基づいて、来訪者iの眼の位置における各接客資源の動作空間での動作による視差を算出する。   The determination unit 133 refers to the service providing space storage unit 121 and information on the movable range of each customer service resource of the robot resource 117 set in advance, and calculates the operation space of each customer service resource. Based on the calculated operation space of each customer service resource and the visitor space table corresponding to the visitor i, the determination unit 133 determines the parallax due to the operation of each customer resource in the operation space of the visitor i at the eye position. calculate.

判定部133は、予め設定されたロボット資源117の各接客資源の音源の情報を参照し、各接客資源が出す音の音圧レベル(dB)を算出する。判定部133は、算出した音圧レベルと、来訪者iに対応する来訪者空間テーブルとに基づいて、来訪者iの耳の位置における各接客資源の音の音圧レベルを算出する。   The determination unit 133 refers to the information of the sound source of each customer service resource of the robot resource 117 set in advance, and calculates the sound pressure level (dB) of the sound emitted by each customer service resource. The determination unit 133 calculates the sound pressure level of the sound of each customer service resource at the position of the visitor i's ear based on the calculated sound pressure level and the visitor space table corresponding to the visitor i.

判定部133は、算出した来訪者iの眼および耳の位置に対応する視差および音圧レベルと、推定した来訪者iの周辺空間における視差および音圧レベルとを比較して、来訪者iが各接客資源の動作および音に対して、気付く確率および気付かない確率を算出する。判定部133は、算出結果、つまり、来訪者iの眼および耳の位置に対応する視差および音圧レベルと、各接客資源の動作および音に対して気付く確率および気付かない確率とを、来訪者iに対応する来訪者空間テーブルに記憶して元の処理に戻る。   The determination unit 133 compares the parallax and sound pressure level corresponding to the calculated position of the eye and ear of the visitor i with the parallax and sound pressure level in the surrounding space of the visitor i estimated, and the visitor i The probability of noticing and the probability of noticing are calculated for the operation and sound of each customer service resource. The determination unit 133 determines whether the calculation result, that is, the parallax and sound pressure level corresponding to the positions of the eyes and ears of the visitor i, the probability of noticing the operation and sound of each customer service resource, and the probability of not being noticed It stores in the visitor space table corresponding to i and returns to the original processing.

判定部133は、算出処理が終了すると、来訪者を特定するための変数iをインクリメントし、未処理の来訪者がいるか否かの判定に戻る。判定部133は、未処理の来訪者がいないと判定した場合には、来訪者空間テーブルの生成終了時刻を、当該来訪者空間テーブルに記憶する。判定部133は、対象となる来訪者全ての来訪者空間テーブルを参照し、資源活用情報記憶部124の資源活用テーブルを生成して元の処理に戻る。なお、生成する資源活用テーブルは、ロボット資源117の接客資源(M個)を基準に、来訪者数(N人)への影響を記載した係数表(M×N)を含むものとなる。資源活用テーブルは、例えば、図9から図13に示すように、複数の来訪者の状況に応じたテーブルとなる。なお、本実施例では、資源活用テーブルは、来訪者の視覚と聴覚とに働きかける資源について説明したが、これに限定されない。例えば、資源活用テーブルに、匂いに対応するための嗅覚、風等に対応するための触覚、味覚等の他の感覚器官への影響(到達係数)を含むようにしてもよい。   When the calculation process ends, the determination unit 133 increments a variable i for identifying a visitor, and returns to the determination of whether or not there is an unprocessed visitor. When it is determined that there is no unprocessed visitor, the determination unit 133 stores the generation end time of the visitor space table in the visitor space table. The determination unit 133 refers to the visitor space table of all the target visitors, generates the resource utilization table of the resource utilization information storage unit 124, and returns to the original processing. The resource utilization table to be generated includes a coefficient table (M × N) in which the influence on the number of visitors (N persons) is described based on the service resource (M) of the robot resource 117. The resource utilization table is, for example, a table corresponding to the status of a plurality of visitors, as shown in FIGS. 9 to 13. In addition, although a resource utilization table demonstrated the resource which works for a visitor's vision and hearing in a present Example, it is not limited to this. For example, the resource utilization table may include effects (reach coefficients) on other sense organs such as olfactory sense to cope with odor, tactile sense to cope with wind, etc., taste.

判定部133は、資源活用係数算出処理が終了すると、資源配分処理を実行する。判定部133は、資源配分処理を開始すると、資源活用情報記憶部124を参照し、来訪者数Nおよび接客資源数Mに対応する資源活用テーブルを取得する。判定部133は、取得した資源活用テーブルに基づいて、一部の来訪者Nにサービス提供中であるか否かを判定する。すなわち、判定部133は、資源活用テーブルの「現状の配分」欄を参照して、一部の来訪者Nにサービス提供中であるか否かを判定する。判定部133は、一部の来訪者Nにサービス提供中でないと判定した場合には、来訪者数Nに対して接客資源数Mを配分する。判定部133は、当該配分では、N人に対して接客資源数Mの割り当てを算出するので、MのN乗通りの割り当てを算出する。判定部133は、資源活用テーブルの各資源について、例えば、効用を示す値の合計値が最も高い組み合わせの配分を採用する。判定部133は、配分した結果を資源活用情報記憶部124の対応する資源活用テーブルに記憶する。判定部133は、配分した結果を資源活用テーブルに記憶すると、配分完了情報を情報提供部134に出力して元の処理に戻る。 When the resource utilization coefficient calculation process ends, the determination unit 133 executes the resource allocation process. When the resource allocation process is started, the determination unit 133 refers to the resource utilization information storage unit 124 and acquires a resource utilization table corresponding to the number N of visitors and the number M of service resources. The determination unit 133 determines whether or not the service is being provided to some of the visitors N 1 based on the acquired resource utilization table. That is, the determination unit 133 determines, by referring to the column "allocation" basis of resource utilization table, whether it is part of a visitor N serving during 1. Determining section 133, if it is determined not to be part of the visitor N serving during 1 allocate customer resource number M with respect to visitors number N. In the distribution, the determination unit 133 calculates the allocation of the number M of customer service resources to N, and thus calculates the allocation of M to the Nth power. The determination unit 133, for each resource of the resource utilization table, for example, adopts allocation of a combination in which the total value of values indicating utility is the highest. The determination unit 133 stores the distributed result in the corresponding resource utilization table of the resource utilization information storage unit 124. After storing the allocation result in the resource utilization table, the determination unit 133 outputs the allocation completion information to the information providing unit 134 and returns to the original processing.

判定部133は、一部の来訪者Nにサービス提供中であると判定した場合には、来訪者Nのうち来訪者Nが適切にサービスを受けていないか否かを判定する。判定部133は、来訪者Nのうち来訪者Nが適切にサービスを受けていると判定した場合には、来訪者Nの1群と、来訪者(N−N)とに対して、接客資源数Mを配分する。すなわち、この場合では、来訪者Nは、来訪者Nに対して遅れてきた人物であり、来訪者Nと同一のサービスを適切に受けている状態である。判定部133は、当該配分では、(1+(N−N))人に対して接客資源数Mの割り当てを算出するので、Mの(1+(N−N))乗通りの割り当てを算出する。判定部133は、資源活用テーブルの各資源について、例えば、効用を示す値の合計値が最も高い組み合わせの配分を採用する。この場合、判定部133は、来訪者Nに対してサービスを提供中であるので、来訪者Nに気付かれる場合も考慮する。判定部133は、配分した結果を資源活用情報記憶部124の対応する資源活用テーブルに記憶する。判定部133は、配分した結果を資源活用テーブルに記憶すると、配分完了情報を情報提供部134に出力して元の処理に戻る。 Determination unit 133, when it is determined that the part of the visitor N serving during 1 determines whether the visitor N 2 of the visitor N 1 is not receiving appropriate services. When the judging unit 133 judges that the visitor N 2 among the visitors N 1 receives the service properly, the judging unit 133 responds to the group of the visitor N 1 and the visitor (N-N 1 ). Distribute the number M of customer service resources. That is, in this case, the visitor N 2 is a person that has delayed relative visitor N 1, a state in which properly received the visitor N 1 and the same service. Since the determination unit 133 calculates the allocation of the number M of customer service resources to (1+ (N−N 1 )) in the distribution, the determination unit 133 calculates an allocation of (1+ (N−N 1 )) times M. Do. The determination unit 133, for each resource of the resource utilization table, for example, adopts allocation of a combination in which the total value of values indicating utility is the highest. In this case, the determination unit 133 are the in providing services to visitors N 1, also considered when notice visitors N 1. The determination unit 133 stores the distributed result in the corresponding resource utilization table of the resource utilization information storage unit 124. After storing the allocation result in the resource utilization table, the determination unit 133 outputs the allocation completion information to the information providing unit 134 and returns to the original processing.

判定部133は、来訪者Nのうち来訪者Nが適切にサービスを受けていないと判定した場合には、来訪者(N−N)の1群と、来訪者(N−N+N)とに対して、接客資源数Mを配分する。すなわち、この場合では、例えば、来訪者Nは、来訪者Nと同一のグループであるが、既存のサービスとは異なるもの、例えば展示物等に興味を示している状態である。判定部133は、当該配分では、(1+(N−N+N))人に対して接客資源数Mの割り当てを算出するので、Mの(1+(N−N+N))乗通りの割り当てを算出する。判定部133は、資源活用テーブルの各資源について、例えば、効用を示す値の合計値が最も高い組み合わせの配分を採用する。この場合、判定部133は、来訪者(N−N)に対してサービスを提供中であるので、来訪者(N−N)に気付かれる場合も考慮する。判定部133は、配分した結果を資源活用情報記憶部124の対応する資源活用テーブルに記憶する。判定部133は、配分した結果を資源活用テーブルに記憶すると、配分完了情報を情報提供部134に出力して元の処理に戻る。 Determining section 133, when the visitor N 2 of the visitor N 1 is determined to not receiving proper services, and a group of visitors (N 1 -N 2), the visitor (N-N The number M of customer service resources is allocated to 1 + N 2 ). That is, in this case, for example, visitor N 2 is the visitor N 1 identical to the group, which is different from the existing service, a state in which an interest in, for example, exhibit the like. As the determination unit 133, in the allocation, multiply (1+ (N-N 1 + N 2)) is calculated. Therefore the assignment of the number of customer resources to human M, of M (1+ (N-N 1 + N 2)) Calculate the allocation of The determination unit 133, for each resource of the resource utilization table, for example, adopts allocation of a combination in which the total value of values indicating utility is the highest. In this case, since the determination unit 133 is providing a service to the visitor (N 1 -N 2 ), the determination unit 133 also considers the case where the visitor (N 1 -N 2 ) is noticed. The determination unit 133 stores the distributed result in the corresponding resource utilization table of the resource utilization information storage unit 124. After storing the allocation result in the resource utilization table, the determination unit 133 outputs the allocation completion information to the information providing unit 134 and returns to the original processing.

言い換えると、判定部133は、特定した第1の来訪者の関心領域(関心空間)と、第2の来訪者の関心領域(関心空間)とが異なるか否かを判定する。また、判定部133は、特定した第1の来訪者の関心領域(関心空間)と、第2の来訪者の関心領域(関心空間)とについて共通する関心領域がある否かを判定する。   In other words, the determination unit 133 determines whether or not the identified first visitor's region of interest (interesting space) is different from the second visitor's region of interest (interesting space). In addition, the determination unit 133 determines whether there is a common region of interest between the first visitor's identified region of interest (interesting space) and the second visitor's region of interest (interesting space).

また、判定部133は、第1の来訪者または第2の来訪者の位置、頭部の向きおよび視線に基づいて、関心領域(関心空間)を特定する。また、判定部133は、第1の来訪者または第2の来訪者に対する働きかけへの反応行動、対話、他の人物との関係性、情報提供装置への接触のうち、1つまたは複数に基づいて、関心領域(関心空間)を特定する。   In addition, the determination unit 133 identifies a region of interest (space of interest) based on the position of the first visitor or the second visitor, the orientation of the head, and the line of sight. In addition, the determination unit 133 is based on one or more of a reaction response to an action on the first visitor or the second visitor, a dialogue, a relationship with another person, and a contact with the information providing apparatus. And identify a region of interest (space of interest).

情報提供部134には、検出部131から来訪者情報が入力され、判定部133から配分完了情報が入力される。情報提供部134は、来訪者情報が入力された場合には、来訪者が1人であるので、当該来訪者にロボット資源117の全ての資源を配分する。情報提供部134は、配分完了情報が入力された場合には、資源活用情報記憶部124を参照し、各資源の配分の情報(見直し後の配分)に応じて複数の来訪者に対してロボット資源117の各資源を配分する。情報提供部134は、サービスシナリオ記憶部125を参照し、資源配分に基づいて、サービスシナリオを実行する。なお、資源配分によっては、サービスが提供されない来訪者も存在する場合がある。   Visitor information is input to the information providing unit 134 from the detection unit 131, and distribution completion information is input from the determination unit 133. When the visitor information is input, the information provision unit 134 distributes all resources of the robot resource 117 to the visitor, since the visitor is one person. When the allocation completion information is input, the information providing unit 134 refers to the resource utilization information storage unit 124, and the robot for a plurality of visitors according to the information on allocation of each resource (allocation after review) Allocate each resource of resource 117. The information provision unit 134 refers to the service scenario storage unit 125, and executes the service scenario based on the resource allocation. Depending on the resource allocation, there may be visitors who do not provide services.

情報提供部134は、サービスシナリオを実行すると、再判定イベントが発生したか否かを判定する。再判定イベントは、例えば、一定時間の経過、来訪者が立ち去る等の来訪者の状態変化、来訪者に対する問いかけに応答がない等の接客ロボット100の状態変化等が挙げられる。情報提供部134は、再判定イベントが発生していないと判定した場合には、引き続き再判定イベントの判定を行う。   When the information providing unit 134 executes the service scenario, the information providing unit 134 determines whether a re-determination event has occurred. The re-determination event may include, for example, the elapse of a predetermined time, a change in the state of the visitor such as the visitor leaving, or a change in the state of the customer service robot 100 such as no response to the inquiry to the visitor. If the information providing unit 134 determines that the re-determination event has not occurred, the information providing unit 134 continues to determine the re-determination event.

情報提供部134は、再判定イベントが発生したと判定した場合には、例えば、接客ロボット100の管理者等の操作によって、サービスを終了するか否かを判定する。情報提供部134は、サービスを終了しないと判定した場合には、サービス提供空間に来訪者がいるか否かの判定を行うように、検出部131に指示を出力する。情報提供部134は、サービスを終了すると判定した場合には、接客ロボット100によるサービスの提供を終了する。   If the information providing unit 134 determines that the re-determination event has occurred, the information providing unit 134 determines whether to end the service, for example, by the operation of the administrator of the customer service robot 100 or the like. When it is determined that the service is not ended, the information providing unit 134 outputs an instruction to the detecting unit 131 to determine whether a visitor is in the service providing space. When it is determined that the service is to be ended, the information providing unit 134 ends the provision of the service by the customer service robot 100.

言い換えると、情報提供部134は、第1の来訪者の関心領域と、第2の来訪者の関心領域とが異なる場合、情報提供装置(接客ロボット100)が有する複数の情報提供リソース(ロボット資源117)を用いて、情報提供処理を実行する。すなわち、情報提供部134は、複数の情報提供リソースのうち、第1の来訪者の関心領域に応じた情報提供リソースを用いて、第1の来訪者に対する情報提供処理を実行する。また、情報提供部134は、複数の情報提供リソースのうち、第2の来訪者の関心領域に応じた情報提供リソースを用いて、第2の来訪者に対する情報提供処理を実行する。   In other words, when the region of interest of the first visitor and the region of interest of the second visitor are different, the information provision unit 134 has a plurality of information provision resources (robot resources) possessed by the information provision device (service robot 100). An information provision process is performed using 117). That is, the information provision unit 134 executes the information provision process for the first visitor using the information provision resource corresponding to the region of interest of the first visitor among the plurality of information provision resources. In addition, the information providing unit 134 executes an information providing process for the second visitor using the information providing resource according to the region of interest of the second visitor among the plurality of information providing resources.

また、情報提供部134は、複数の情報提供リソースのそれぞれの情報提供リソースが情報提供処理を実行した際に、第1の来訪者と第2の来訪者とが該情報提供処理の実行に気付く確率を求める。情報提供部134は、求めた気付く確率に基づいて、複数の情報提供リソースを第1の来訪者および第2の来訪者に配分する。   In addition, when the information provision resource of each of the plurality of information provision resources executes the information provision process, the information provision unit 134 notices that the first visitor and the second visitor perform the information provision process. Find the probability. The information provision unit 134 distributes the plurality of information provision resources to the first visitor and the second visitor based on the obtained notice probability.

また、情報提供部134は、第1の来訪者に対する情報提供処理を実行中に、第2の来訪者の関心領域が特定されると、情報提供リソースの配分を変更する。すなわち、情報提供部134は、第1の来訪者に対する情報提供処理を実行中の情報提供リソースの配分を減じて、第2の来訪者の関心領域に応じた情報提供リソースの配分を増加させる。   In addition, the information provision unit 134 changes the allocation of information provision resources when the region of interest of the second visitor is specified while the information provision process for the first visitor is being executed. That is, the information provision unit 134 reduces the allocation of the information provision resource in execution of the information provision process to the first visitor, and increases the allocation of the information provision resource according to the second visitor's region of interest.

また、情報提供部134は、第1の来訪者の関心領域と、第2の来訪者の関心領域とについて共通する関心領域がある場合、該共通する関心領域に対する情報提供リソースを、第1の来訪者と第2の来訪者とで共用して情報提供処理を実行する。   Further, when there is a common region of interest for the first visitor's region of interest and the second visitor's region of interest, the information provision unit 134 uses the information provision resource for the common region of interest as the first information resource. The visitor and the second visitor share the information provision process.

また、情報提供部134は、第1の来訪者の関心領域と、第2の来訪者の関心領域とについて共通する関心領域があるか否かを判定する。情報提供部134は、共通する関心領域がある場合、情報提供装置が有する複数の情報提供リソースのうち、共通する関心領域に応じた情報提供リソースを用いて、第1の来訪者および第2の来訪者に対する情報提供処理を実行する。   In addition, the information providing unit 134 determines whether there is a common region of interest for the first visitor's region of interest and the second visitor's region of interest. When there is a common region of interest, the information provision unit 134 uses the information provision resource corresponding to the common region of interest among the plurality of information provision resources possessed by the information provision device, to use the first visitor and the second visitor. Execute information provision processing for visitors.

次に、実施例の接客ロボット100の動作について説明する。図15は、実施例の制御処理の一例を示すフローチャートである。   Next, the operation of the customer service robot 100 of the embodiment will be described. FIG. 15 is a flowchart showing an example of control processing of the embodiment.

接客ロボット100の検出部131は、サービス提供空間20の座標系およびブロック群を設定する(ステップS1)。次に、検出部131は、サービス提供空間20に配置された遮蔽物について、サービス提供空間20の遮蔽情報を設定する(ステップS2)。   The detection unit 131 of the customer robot 100 sets the coordinate system and block group of the service providing space 20 (step S1). Next, the detection unit 131 sets shielding information of the service providing space 20 for the shielding disposed in the service providing space 20 (step S2).

検出部131は、外部センサ10からセンサ情報を取得する。検出部131は、取得したセンサ情報に基づいて、サービス提供空間20に来訪者がいるか否かを判定する(ステップS3)。検出部131は、サービス提供空間20に来訪者がいないと判定した場合には(ステップS3:否定)、ステップS3の判定を繰り返す。   The detection unit 131 acquires sensor information from the external sensor 10. The detection unit 131 determines whether there is a visitor in the service providing space 20 based on the acquired sensor information (step S3). If the detection unit 131 determines that there are no visitors in the service providing space 20 (step S3: negative), the determination in step S3 is repeated.

検出部131は、サービス提供空間20に来訪者がいると判定した場合には(ステップS3:肯定)、来訪者が複数であるか否かを判定する(ステップS4)。検出部131は、来訪者が複数でない場合には(ステップS4:否定)、情報提供部134に来訪者が単独である旨の来訪者情報を出力し、ステップS8に進む。検出部131は、来訪者が複数である場合には(ステップS4:肯定)、特定指示を特定部132に出力する。また、検出部131は、検出情報を判定部133に出力する。   When the detecting unit 131 determines that there is a visitor in the service providing space 20 (Step S3: Yes), the detecting unit 131 determines whether there are a plurality of visitors (Step S4). If there are not a plurality of visitors (step S4: negative), the detection unit 131 outputs visitor information indicating that the visitor is a single person to the information providing unit 134, and the process proceeds to step S8. The detecting unit 131 outputs a specifying instruction to the specifying unit 132 when there are a plurality of visitors (Step S4: Yes). The detection unit 131 also outputs detection information to the determination unit 133.

特定部132は、検出部131から特定指示が入力されると、関心空間特定処理を実行する(ステップS5)。ここで、図16を用いて関心空間特定処理について説明する。図16は、関心空間特定処理の一例を示すフローチャートである。   When the specification instruction is input from the detection unit 131, the specification unit 132 executes a space of interest specification process (step S5). Here, the space of interest identification process will be described with reference to FIG. FIG. 16 is a flowchart illustrating an example of the interest space identification process.

特定部132は、複数の来訪者を識別するための変数iを初期化する。特定部132は、特定指示に基づいて、サービス提供空間20内の来訪者数Nを検出する(ステップS51)。特定部132は、来訪者数Nを検出すると、N人分の関心空間テーブルを生成する(ステップS52)。特定部132は、関心空間テーブルの生成開始時刻を、当該関心空間テーブルに記憶する(ステップS53)。   The identifying unit 132 initializes a variable i for identifying a plurality of visitors. The identifying unit 132 detects the number N of visitors in the service providing space 20 based on the identifying instruction (step S51). When the identification unit 132 detects the number N of visitors, the identification unit 132 generates an interest space table for N persons (step S52). The identifying unit 132 stores the generation start time of the space of interest table in the space of interest table (step S53).

特定部132は、未処理の来訪者がいるか否かを判定する(ステップS54)。特定部132は、未処理の来訪者がいると判定した場合には(ステップS54:肯定)、来訪者iを特定対象に設定する(ステップS55)。特定部132は、来訪者iに対する特定処理を実行する(ステップS56)。   The identifying unit 132 determines whether there is an unprocessed visitor (step S54). When it is determined that there is an unprocessed visitor (Step S54: Yes), the identifying unit 132 sets the visitor i as the identification target (Step S55). The identifying unit 132 executes a identifying process for the visitor i (step S56).

ここで、図17を用いて特定処理について説明する。図17は、特定処理の一例を示すフローチャートである。特定部132は、特定指示に含まれる撮像画像に基づいて、来訪者iの位置、頭部の向きおよび視線を取得する(ステップS561)。特定部132は、来訪者iの位置、頭部の向きおよび視線を取得すると、第1推定処理を実行する(ステップS562)。   Here, the identification processing will be described with reference to FIG. FIG. 17 is a flowchart illustrating an example of the identification process. The identifying unit 132 acquires the position of the visitor i, the direction of the head, and the line of sight based on the captured image included in the identification instruction (step S561). When acquiring the position of the visitor i, the direction of the head, and the line of sight, the identifying unit 132 executes a first estimation process (step S562).

ここで、図18を用いて第1推定処理について説明する。図18は、第1推定処理の一例を示すフローチャートである。特定部132は、来訪者iの位置、頭部の向きまたは視線の方向ベクトルが同じ方向で静止しているか否かを判定する(ステップS101)。特定部132は、方向ベクトルが同じ方向で静止していないと判定した場合には(ステップS101:否定)、関心空間非特定として特定処理を終了し(ステップS102)、関心空間特定処理へ戻る。   Here, the first estimation process will be described with reference to FIG. FIG. 18 is a flowchart illustrating an example of the first estimation process. The identifying unit 132 determines whether the position vector of the visitor i, the direction of the head, or the direction vector of the sight line is stationary in the same direction (step S101). When it is determined that the direction vector is not stationary in the same direction (step S101: negative), the identification unit 132 ends the identification processing as non-interest space identification (step S102), and returns to the interest space identification processing.

特定部132は、方向ベクトルが同じ方向で静止していると判定した場合には(ステップS101:肯定)、来訪者iの静止している位置、頭部の向きおよび視線の方向ベクトルに基づいて、対応するブロック群に関心フラグ値を加算する(ステップS103)。特定部132は、サービス提供空間記憶部121を参照し、各方向ベクトルの延長線上に関心対象候補があるか否かを判定する(ステップS104)。特定部132は、延長線上に関心対象候補がないと判定した場合には(ステップS104:否定)、関心対象非特定として特定処理を終了し(ステップS105)、関心空間特定処理へ戻る。   When it is determined that the direction vector is stationary in the same direction (Step S101: Yes), the identifying unit 132 is based on the stationary position of the visitor i, the head orientation, and the direction vector of the sight line. Then, the interest flag value is added to the corresponding block group (step S103). The identifying unit 132 refers to the service provision space storage unit 121 and determines whether there is a candidate of interest on the extension of each direction vector (step S104). If the identification unit 132 determines that there is no candidate of interest on the extension (step S104: negative), it ends the identification processing as non-interest identification (step S105), and returns to the interest space identification processing.

特定部132は、延長線上に関心対象候補があると判定した場合には(ステップS104:肯定)、来訪者iの視野角ベクトル空間と、関心対象候補の外縁に基づく空間とのうち、小さい方の空間内のブロック群に関心フラグ値を加算する(ステップS106)。また、特定部132は、関心対象候補の近傍のブロック群に関心フラグ値を加算し(ステップS107)、第1推定処理を終了して特定処理に戻る。   If the identification unit 132 determines that there is a candidate of interest on the extension (step S104: affirmative), the smaller one of the view angle vector space of the visitor i and the space based on the outer edge of the candidate of interest The interest flag value is added to blocks in the space of (step S106). Further, the identifying unit 132 adds the interest flag value to the block group in the vicinity of the interest target candidate (step S107), ends the first estimation processing, and returns to the identification processing.

図17の説明に戻って、特定部132は、第1推定処理が終了すると、関心対象候補および来訪者iの動作情報を取得する(ステップS563)。特定部132は、関心対象候補および来訪者iの動作情報を取得すると、第2推定処理を実行する(ステップS564)。   Returning to the description of FIG. 17, when the first estimation process ends, the identifying unit 132 acquires operation information of the object of interest candidate and the visitor i (step S563). When acquiring the motion information of the object of interest candidate and the visitor i, the identifying unit 132 executes a second estimation process (step S564).

ここで、図19を用いて第2推定処理について説明する。図19は、第2推定処理の一例を示すフローチャートである。特定部132は、取得した動作情報に基づいて、来訪者iの反応動作タイミングが関心対象候補からの働きかけタイミングと合っているか否かを判定する(ステップS111)。特定部132は、来訪者iの反応動作タイミングが関心対象候補からの働きかけタイミングと合っている場合には(ステップS111:肯定)、関心対象候補の近傍のブロック群に関心フラグ値を加算する(ステップS112)。   Here, the second estimation process will be described with reference to FIG. FIG. 19 is a flowchart illustrating an example of the second estimation process. The identifying unit 132 determines whether the reaction operation timing of the visitor i matches the operation timing from the target candidate based on the acquired operation information (step S111). The identifying unit 132 adds an interest flag value to a group of blocks in the vicinity of the candidate of interest, when the reaction operation timing of the visitor i matches the action timing from the candidate of interest (Step S111: Yes) ( Step S112).

特定部132は、来訪者iの反応動作タイミングが関心対象候補からの働きかけタイミングと合っていない場合には(ステップS111:否定)、関心フラグ値を加算せずにステップS113に進む。   If the reaction operation timing of the visitor i does not match the operation timing from the candidate of interest (step S111: negative), the identifying unit 132 proceeds to step S113 without adding the interest flag value.

特定部132は、取得した動作情報に基づいて、来訪者iの反応動作内容が関心対象候補からの働きかけ内容と合っているか否かを判定する(ステップS113)。特定部132は、来訪者iの反応動作内容が関心対象候補からの働きかけ内容と合っている場合には(ステップS113:肯定)、関心対象候補の近傍のブロック群に関心フラグ値を加算する(ステップS114)。   The identifying unit 132 determines, based on the acquired motion information, whether or not the reaction motion content of the visitor i matches the challenge content from the interest target candidate (step S113). The identifying unit 132 adds the interest flag value to a block group in the vicinity of the candidate of interest when the reaction action content of the visitor i matches the content of the action from the candidate of interest (Step S113: Yes) ( Step S114).

特定部132は、来訪者iの反応動作内容が関心対象候補からの働きかけ内容と合っていない場合には(ステップS113:否定)、関心フラグ値を加算せずにステップS115に進む。   If the reaction operation content of the visitor i does not match the action content from the interest target candidate (step S113: negative), the identification unit 132 proceeds to step S115 without adding the interest flag value.

特定部132は、関心対象候補の情報提示ログと、来訪者iの操作ログとを取得する(ステップS115)。特定部132は、取得した情報提示ログと操作ログとに基づいて、来訪者iの操作タイミングが関心対象候補からの情報提示タイミングと合っているか否かを判定する(ステップS116)。特定部132は、来訪者iの操作タイミングが関心対象候補からの情報提示タイミングと合っている場合には(ステップS116:肯定)、関心対象候補の近傍のブロック群に関心フラグ値を加算する(ステップS117)。   The identifying unit 132 acquires the information presentation log of the object of interest candidate and the operation log of the visitor i (step S115). The identifying unit 132 determines whether the operation timing of the visitor i matches the information presentation timing from the interest target candidate based on the acquired information presentation log and the operation log (step S116). When the operation timing of the visitor i matches the information presentation timing from the candidate of interest (Step S116: Yes), the identifying unit 132 adds the interest flag value to the group of blocks near the candidate of interest (A). Step S117).

特定部132は、来訪者iの操作タイミングが関心対象候補からの情報提示タイミングと合っていない場合には(ステップS116:否定)、関心フラグ値を加算せずにステップS118に進む。   If the operation timing of the visitor i does not match the information presentation timing from the candidate of interest (step S116: negative), the identifying unit 132 proceeds to step S118 without adding the interest flag value.

特定部132は、取得した情報提示ログと操作ログとに基づいて、来訪者iの操作内容が関心対象候補からの情報提示内容と合っているか否かを判定する(ステップS118)。特定部132は、来訪者iの操作内容が関心対象候補からの情報提示内容と合っている場合には(ステップS118:肯定)、関心対象候補の近傍のブロック群に関心フラグ値を加算し(ステップS119)、元の処理に戻る。   The identifying unit 132 determines whether the operation content of the visitor i matches the information presentation content from the interest target candidate based on the acquired information presentation log and the operation log (step S118). When the operation content of the visitor i matches the information presentation content from the target of interest (Step S118: Yes), the identifying unit 132 adds the interest flag value to the block group in the vicinity of the target of interest Step S119), return to the original process.

特定部132は、来訪者iの操作内容が関心対象候補からの情報提示内容と合っていない場合には(ステップS118:否定)、関心フラグ値を加算せずに元の処理に戻る。   If the operation content of the visitor i does not match the information presentation content from the interest target candidate (step S118: negative), the identification unit 132 returns to the original processing without adding the interest flag value.

図17の説明に戻って、特定部132は、第2推定処理が終了すると、関心対象候補および来訪者iの対話情報を取得する(ステップS565)。特定部132は、関心対象候補および来訪者iの対話情報を取得すると、第3推定処理を実行する(ステップS566)。   Returning to the description of FIG. 17, when the second estimation process ends, the identifying unit 132 acquires dialogue information of the candidate of interest and the visitor i (step S 565). When acquiring the dialogue information of the candidate of interest and the visitor i, the identifying unit 132 executes the third estimation process (step S566).

ここで、図20を用いて第3推定処理について説明する。図20は、第3推定処理の一例を示すフローチャートである。特定部132は、取得した対話情報に基づいて、来訪者iの対話タイミングが関心対象候補からの対話タイミングと合っているか否かを判定する(ステップS121)。特定部132は、来訪者iの対話タイミングが関心対象候補からの対話タイミングと合っている場合には(ステップS121:肯定)、関心対象候補の近傍のブロック群に関心フラグ値を加算する(ステップS122)。   Here, the third estimation process will be described with reference to FIG. FIG. 20 is a flowchart illustrating an example of the third estimation process. The identifying unit 132 determines whether the dialog timing of the visitor i matches the dialog timing from the candidate of interest based on the acquired dialog information (step S121). The identifying unit 132 adds the interest flag value to a block group in the vicinity of the candidate of interest when the timing of interaction of the visitor i matches the timing of interaction from the candidate of interest (Step S121: affirmative) S122).

特定部132は、来訪者iの対話タイミングが関心対象候補からの対話タイミングと合っていない場合には(ステップS121:否定)、関心フラグ値を加算せずにステップS123に進む。   If the dialogue timing of the visitor i does not match the dialogue timing from the candidate of interest (step S121: negative), the identifying unit 132 proceeds to step S123 without adding the interest flag value.

特定部132は、取得した対話情報に基づいて、来訪者iの対話情報が関心対象候補からの対話情報と合っているか否かを判定する(ステップS123)。特定部132は、来訪者iの対話情報が関心対象候補からの対話情報と合っている場合には(ステップS123:肯定)、関心対象候補の近傍のブロック群に関心フラグ値を加算し(ステップS124)、元の処理に戻る。   The identifying unit 132 determines whether the dialog information of the visitor i matches the dialog information from the candidate of interest based on the acquired dialog information (step S123). When the dialogue information of the visitor i matches the dialogue information from the candidate of interest (Step S123: Yes), the identifying unit 132 adds the interest flag value to the block group in the vicinity of the candidate of interest (Step S124), return to the original processing.

特定部132は、来訪者iの対話情報が関心対象候補からの対話情報と合っていない場合には(ステップS123:否定)、関心フラグ値を加算せずに元の処理に戻る。   If the dialogue information of the visitor i does not match the dialogue information from the candidate of interest (step S123: negative), the identifying unit 132 returns to the original process without adding the interest flag value.

図17の説明に戻って、特定部132は、第3推定処理が終了すると、人物である関心対象候補および来訪者iの行動情報を取得する(ステップS567)。特定部132は、人物である関心対象候補および来訪者iの行動情報を取得すると、第4推定処理を実行する(ステップS568)。   Returning to the explanation of FIG. 17, when the third estimation process ends, the identifying unit 132 acquires action information of a person of interest object candidate and a visitor i (step S 567). When acquiring the behavior information of the candidate of interest and the visitor i who are persons, the identifying unit 132 executes a fourth estimation process (step S568).

ここで、図21を用いて第4推定処理について説明する。図21は、第4推定処理の一例を示すフローチャートである。特定部132は、取得した行動情報に基づいて、来訪者iと関心対象候補との行動が所定空間内で所定期間継続して同調しているか否かを判定する(ステップS131)。特定部132は、来訪者iと関心対象候補との行動が所定空間内で所定期間継続して同調していると判定した場合には(ステップS131:肯定)、来訪者iと関心対象候補との間の空間のブロック群に関心フラグ値を加算し(ステップS132)、元の処理に戻る。   Here, the fourth estimation process will be described with reference to FIG. FIG. 21 is a flowchart illustrating an example of the fourth estimation process. The identifying unit 132 determines, based on the acquired behavior information, whether the behavior of the visitor i and the candidate of interest is continuously synchronized in a predetermined space for a predetermined period (step S131). When the identification unit 132 determines that the behavior of the visitor i and the candidate of interest is continuously synchronized in the predetermined space for a predetermined period (Yes at step S131), the visitor i and the candidate of interest The interest flag value is added to the blocks in the space in between (step S132), and the process returns to the original process.

特定部132は、来訪者iと関心対象候補との行動が所定空間内で所定期間継続して同調していないと判定した場合には(ステップS131:否定)、関心フラグ値を加算せずに元の処理に戻る。   If the identification unit 132 determines that the behavior of the visitor i and the candidate of interest is not synchronized in the predetermined space continuously for a predetermined period (step S131: negative), the interest flag value is not added. Return to the original process.

図17の説明に戻って、特定部132は、第4推定処理が終了すると、関心対象候補への接触情報を取得する(ステップS569)。特定部132は、関心対象候補への接触情報を取得すると、第5推定処理を実行する(ステップS570)。   Returning to the description of FIG. 17, when the fourth estimation process ends, the identifying unit 132 acquires contact information on a target of interest (step S569). When acquiring the contact information on the target of interest, the identifying unit 132 executes a fifth estimation process (step S570).

ここで、図22を用いて第5推定処理について説明する。図22は、第5推定処理の一例を示すフローチャートである。特定部132は、取得した接触情報に基づいて、来訪者iと関心対象候補との接触が所定期間継続しているか否かを判定する(ステップS141)。特定部132は、来訪者iと関心対象候補との接触が所定期間継続していると判定した場合には(ステップS141:肯定)、関心対象候補の接触部位の近傍のブロック群に関心フラグ値を加算し(ステップS142)、元の処理に戻る。   Here, the fifth estimation process will be described with reference to FIG. FIG. 22 is a flowchart illustrating an example of the fifth estimation process. The identifying unit 132 determines whether the contact between the visitor i and the candidate of interest continues for a predetermined period based on the acquired contact information (step S141). When the identifying unit 132 determines that the contact between the visitor i and the candidate of interest continues for a predetermined period (Step S141: Yes), the interest flag value is set to blocks near the contact portion of the candidate of interest. Are added (step S142), and the process returns to the original process.

特定部132は、来訪者iと関心対象候補との接触が所定期間継続していないと判定した場合には(ステップS141:否定)、関心フラグ値を加算せずに元の処理に戻る。   When the identification unit 132 determines that the contact between the visitor i and the candidate of interest does not continue for a predetermined period (step S141: negative), the process returns to the original process without adding the interest flag value.

図17の説明に戻って、特定部132は、第5推定処理が終了すると、関心空間情報記憶部122の関心空間テーブルの各ブロックについて、関心フラグ値が閾値以上のブロックに関心空間フラグを設定する(ステップS571)。特定部132は、関心空間フラグの設定が完了すると、特定処理を終了して関心空間特定処理に戻る。   Returning to the description of FIG. 17, when the fifth estimation process ends, the identification unit 132 sets the interest space flag in each block of the interest space table in the interest space information storage unit 122 to a block whose interest flag value is equal to or higher than the threshold. (Step S571). When the setting of the interest space flag is completed, the identification unit 132 ends the identification processing and returns to the interest space identification processing.

図16の説明に戻って、特定部132は、特定処理が終了すると、来訪者を特定するための変数iをインクリメントし(ステップS57)、ステップS54に戻る。特定部132は、未処理の来訪者がいないと判定した場合には(ステップS54:否定)、関心空間テーブルの生成終了時刻を記憶し(ステップS58)、関心空間特定処理を終了する。特定部132は、関心空間特定処理を終了すると、判定部133に算出指示を出力する。   Returning to the description of FIG. 16, when the identification processing ends, the identification unit 132 increments a variable i for identifying a visitor (step S57), and returns to step S54. When it is determined that there is no unprocessed visitor (No at Step S54), the identifying unit 132 stores the generation end time of the space of interest table (Step S58), and ends the space of interest identification process. When the identification unit 132 ends the interest space identification process, the identification unit 132 outputs a calculation instruction to the determination unit 133.

図15の説明に戻って、判定部133は、特定部132から算出指示が入力されると、資源活用係数算出処理を実行する(ステップS6)。   Returning to the explanation of FIG. 15, when the calculation instruction is input from the specification unit 132, the determination unit 133 executes resource utilization coefficient calculation processing (step S6).

ここで、図23を用いて資源活用係数算出処理について説明する。図23は、資源活用係数算出処理の一例を示すフローチャートである。判定部133は、検出情報に基づいて、サービス提供空間20内の来訪者数Nを検出する(ステップS61)。判定部133は、検出した来訪者数Nに基づいて、N人分の来訪者空間テーブルを来訪者空間情報記憶部123に生成する(ステップS62)。判定部133は、来訪者空間テーブルの生成開始時刻を記憶する(ステップS63)。   Here, resource utilization coefficient calculation processing will be described with reference to FIG. FIG. 23 is a flowchart showing an example of the resource utilization coefficient calculation process. The determination unit 133 detects the number N of visitors in the service providing space 20 based on the detection information (step S61). The determination unit 133 generates a visitor space table for N people in the visitor space information storage unit 123 based on the detected number N of visitors (step S62). The determination unit 133 stores the generation start time of the visitor space table (step S63).

判定部133は、未処理の来訪者がいるか否かを判定する(ステップS64)。判定部133は、未処理の来訪者がいると判定した場合には(ステップS64:肯定)、来訪者iを算出対象に設定する(ステップS65)。判定部133は、来訪者iに対する算出処理を実行する(ステップS66)。   The determination unit 133 determines whether there is an unprocessed visitor (step S64). If the determination unit 133 determines that there is an unprocessed visitor (Step S64: affirmative), the determination unit 133 sets the visitor i as a calculation target (Step S65). The determination unit 133 executes calculation processing for the visitor i (step S66).

ここで、図24を用いて算出処理を説明する。図24は、算出処理の一例を示すフローチャートである。判定部133は、検出情報に含まれる撮像画像に基づいて、来訪者iの眼および耳の位置を取得する(ステップS661)。判定部133は、取得した眼および耳の位置に基づいて、関心空間情報記憶部122を参照し、来訪者iの関心空間を取得する(ステップS662)。判定部133は、取得した来訪者iの関心空間に基づいて、来訪者iの周辺空間における視差および音圧レベルを推定する(ステップS663)。判定部133は、推定した来訪者iの周辺空間における視差および音圧レベルを来訪者空間情報記憶部123に記憶する。   Here, the calculation process will be described with reference to FIG. FIG. 24 is a flowchart showing an example of the calculation process. The determination unit 133 acquires the positions of the eyes and ears of the visitor i based on the captured image included in the detection information (step S661). The determination unit 133 refers to the space-of-interest information storage unit 122 based on the acquired positions of the eyes and ears, and acquires the space of interest of the visitor i (step S662). The determination unit 133 estimates the parallax and the sound pressure level in the space around the visitor i based on the acquired space of interest of the visitor i (step S663). The determination unit 133 stores the parallax and the sound pressure level in the space around the visitor i in the visitor space information storage unit 123.

判定部133は、サービス提供空間記憶部121、および、予め設定されたロボット資源117の各接客資源の可動範囲の情報を参照し、各接客資源の動作空間を算出する(ステップS664)。判定部133は、算出した各接客資源の動作空間と、来訪者iに対応する来訪者空間テーブルとに基づいて、来訪者iの眼の位置における各接客資源の動作空間での動作による視差を算出する(ステップS665)。   The determination unit 133 refers to the service providing space storage unit 121 and the information of the movable range of each customer service resource of the robot resource 117 set in advance, and calculates the operation space of each customer service resource (step S664). Based on the calculated operation space of each customer service resource and the visitor space table corresponding to the visitor i, the determination unit 133 determines the parallax due to the operation of each customer resource in the operation space of the visitor i at the eye position. Calculate (step S665).

判定部133は、予め設定されたロボット資源117の各接客資源の音源の情報を参照し、各接客資源が出す音の音圧レベルを算出する(ステップS666)。判定部133は、算出した音圧レベルと、来訪者iに対応する来訪者空間テーブルとに基づいて、来訪者iの耳の位置における各接客資源の音の音圧レベルを算出する(ステップS667)。   The determination unit 133 refers to the information of the sound source of each customer service resource of the robot resource 117 set in advance, and calculates the sound pressure level of the sound emitted by each customer service resource (step S666). The determination unit 133 calculates the sound pressure level of the sound of each customer service resource at the position of the visitor i's ear based on the calculated sound pressure level and the visitor space table corresponding to the visitor i (step S667) ).

判定部133は、来訪者iの眼および耳の位置における視差および音圧レベルと、来訪者iの周辺空間における視差および音圧レベルとを比較して、来訪者iが各接客資源の動作および音に対して、気付く確率および気付かない確率を算出する(ステップS668)。判定部133は、算出結果を来訪者空間テーブルに記憶し(ステップS669)、元の処理に戻る。   The determination unit 133 compares the parallax and sound pressure level at the positions of the eyes and ears of the visitor i with the parallax and sound pressure level in the space around the visitor i, and the visitor i operates the respective customer resources and For the sound, the probability of noticing and the probability of noticing are calculated (step S668). The determination unit 133 stores the calculation result in the visitor space table (step S669), and returns to the original process.

図23の説明に戻って、判定部133は、算出処理が終了すると、来訪者を特定するための変数iをインクリメントし(ステップS67)、ステップS64に戻る。判定部133は、未処理の来訪者がいないと判定した場合には(ステップS64:否定)、来訪者空間テーブルの生成終了時刻を記憶する(ステップS68)。判定部133は、対象となる来訪者全ての来訪者空間テーブルを参照し、資源活用情報記憶部124の資源活用テーブルを生成し(ステップS69)、元の処理に戻る。   Returning to the explanation of FIG. 23, when the calculation process is completed, the determination unit 133 increments a variable i for identifying a visitor (step S67), and returns to step S64. When it is determined that there is no unprocessed visitor (No at Step S64), the determination unit 133 stores the generation end time of the visitor space table (Step S68). The determination unit 133 refers to the visitor space table of all the targeted visitors, generates the resource utilization table of the resource utilization information storage unit 124 (step S69), and returns to the original processing.

図15の説明に戻って、判定部133は、資源活用係数算出処理が終了すると、資源配分処理を実行する(ステップS7)。ここで、図25を用いて資源配分処理を説明する。図25は、資源配分処理の一例を示すフローチャートである。判定部133は、資源活用情報記憶部124を参照し、来訪者数Nおよび接客資源数Mに対応する資源活用テーブルを取得する(ステップS71)。   Returning to the explanation of FIG. 15, when the resource utilization coefficient calculation process ends, the determination unit 133 executes the resource allocation process (step S7). Here, resource allocation processing will be described with reference to FIG. FIG. 25 is a flowchart illustrating an example of the resource allocation process. The determination unit 133 refers to the resource utilization information storage unit 124, and acquires a resource utilization table corresponding to the number N of visitors and the number M of customer service resources (step S71).

判定部133は、取得した資源活用テーブルに基づいて、一部の来訪者Nにサービス提供中であるか否かを判定する(ステップS72)。判定部133は、一部の来訪者Nにサービス提供中でないと判定した場合には(ステップS72:否定)、来訪者数Nに対して接客資源数Mを配分する(ステップS73)。判定部133は、配分した結果を資源活用テーブルに記憶し、配分完了情報を情報提供部134に出力して元の処理に戻る。 The determination unit 133 determines whether or not the service is being provided to some of the visitors N 1 based on the acquired resource utilization table (step S72). Determining section 133, when it is determined that the part of the visitor N 1 is not in service provision (step S72: No), allocate customer resource number M with respect to visitors number N (step S73). The determination unit 133 stores the distributed result in the resource utilization table, outputs the distribution completion information to the information providing unit 134, and returns to the original process.

判定部133は、一部の来訪者Nにサービス提供中であると判定した場合には(ステップS72:肯定)、来訪者Nのうち来訪者Nが適切にサービスを受けていないか否かを判定する(ステップS74)。判定部133は、来訪者Nのうち来訪者Nが適切にサービスを受けていると判定した場合には(ステップS74:否定)、来訪者Nの1群と、来訪者(N−N)とに対して、接客資源数Mを配分する(ステップS75)。判定部133は、配分した結果を資源活用テーブルに記憶し、配分完了情報を情報提供部134に出力して元の処理に戻る。 If the determination unit 133 determines that the service is being provided to some of the visitors N 1 (Step S 72: Yes), is the visitor N 2 not properly receiving the service among the visitors N 1 ? It is determined whether or not it is (step S74). Determining section 133, when it is determined that the visitor N 2 of the visitor N 1 is under appropriate service (step S74: No), 1 and group visitors N 1, visitor (N- The number M of customer service resources is allocated to N 1 ) (step S75). The determination unit 133 stores the distributed result in the resource utilization table, outputs the distribution completion information to the information providing unit 134, and returns to the original process.

判定部133は、来訪者Nのうち来訪者Nが適切にサービスを受けていないと判定した場合には(ステップS74:肯定)、来訪者(N−N)の1群と、来訪者(N−N+N)とに対して、接客資源数Mを配分する(ステップS76)。判定部133は、配分した結果を資源活用テーブルに記憶し、配分完了情報を情報提供部134に出力して元の処理に戻る。 If the determination unit 133 determines that the visitor N 2 is not properly receiving the service among the visitor N 1 (Step S 74: affirmative), one group of the visitors (N 1 -N 2 ), against the visitor (N-N 1 + N 2 ), to allocate the customer resource count M (step S76). The determination unit 133 stores the distributed result in the resource utilization table, outputs the distribution completion information to the information providing unit 134, and returns to the original process.

図15の説明に戻って、情報提供部134は、来訪者情報が入力された場合には、当該来訪者にロボット資源117の全ての資源を配分する。情報提供部134は、配分完了情報が入力された場合には、資源活用情報記憶部124を参照し、各資源の配分の情報に応じて複数の来訪者に対してロボット資源117の各資源を配分する。情報提供部134は、サービスシナリオ記憶部125を参照し、資源配分に基づいて、サービスシナリオを実行する(ステップS8)。   Returning to the explanation of FIG. 15, when the visitor information is input, the information providing unit 134 allocates all resources of the robot resource 117 to the visitor. When the allocation completion information is input, the information providing unit 134 refers to the resource utilization information storage unit 124, and each resource of the robot resource 117 is transmitted to a plurality of visitors according to the information on the allocation of each resource. Distribute. The information provision unit 134 refers to the service scenario storage unit 125, and executes the service scenario based on the resource allocation (step S8).

情報提供部134は、サービスシナリオを実行すると、再判定イベントが発生したか否かを判定する(ステップS9)。情報提供部134は、再判定イベントが発生していないと判定した場合には(ステップS9:否定)、ステップS9の判定を繰り返す。情報提供部134は、再判定イベントが発生したと判定した場合には(ステップS9:肯定)、サービスを終了するか否かを判定する(ステップS10)。   After executing the service scenario, the information providing unit 134 determines whether a re-determination event has occurred (step S9). If the information providing unit 134 determines that the re-determination event has not occurred (No at Step S9), the determination at Step S9 is repeated. If the information providing unit 134 determines that a re-determination event has occurred (Yes at Step S9), the information providing unit 134 determines whether to end the service (Step S10).

情報提供部134は、サービスを終了しないと判定した場合には(ステップS10:否定)、検出部131に対してステップS3の判定を行うように指示を出力し、ステップS3に戻る。情報提供部134は、サービスを終了すると判定した場合には(ステップS10:肯定)、接客ロボット100によるサービスの提供を終了する。これにより、接客ロボット100は、複数の来訪者に対する接客効率を向上できる。また、接客ロボット100は、第1の来訪者(A)が不満を抱きにくい範囲で接客の質を下げて資源を確保し、第2の来訪者(B)が効果を得やすい範囲で、確保した資源を第2の来訪者(B)への接客に回すので、トータルで接客の品質を保つことができる。また、接客ロボット100は、来訪者のインタラクション不全を改善することができる。   When it is determined that the service is not ended (Step S10: No), the information providing unit 134 outputs an instruction to the detection unit 131 to perform the determination of Step S3, and the process returns to Step S3. When it is determined that the service is to be ended (Step S10: Yes), the information provision unit 134 ends the provision of the service by the customer-service robot 100. As a result, the customer service robot 100 can improve the service efficiency for a plurality of visitors. In addition, the service robot 100 lowers the quality of service to the extent that the first visitor (A) is less likely to be dissatisfied, secures the resources, and secures the second visitor (B) in the range where the effect is easily obtained. The above resources are diverted to serving the second visitor (B), so that the quality of serving can be maintained in total. Also, the customer robot 100 can improve the interaction failure of the visitor.

続いて、図26から図38を用いて接客の具体例について説明する。   Subsequently, a specific example of the customer service will be described with reference to FIGS.

図26は、複数の来訪者に対する接客の具体的な一例を示す図である。図26に示すように、接客ロボット100は、例えば、展示会場のブースに設置され、来訪者Aを受け付ける。接客ロボット100は、来訪者Aを受け付けると、来訪者Aに対して場所を誘導する。接客ロボット100は、例えば、プレゼンテーション画面が表示されているスクリーン25が見やすい位置に来訪者Aを誘導する。接客ロボット100は、来訪者Aにコア価値を提供、つまり、スクリーン25に表示されるプレゼンテーション画面を用いて説明を開始する。このとき、ブースに来訪者Bが遅れて現れ、接客ロボット100を見続けているとする。すると、接客ロボット100は、来訪者Bの出現を検出し、来訪者Bの関心空間が自身に向いていると判定する。   FIG. 26 is a diagram showing a specific example of customer service for a plurality of visitors. As shown in FIG. 26, for example, the customer service robot 100 is installed at a booth of the exhibition hall and receives the visitor A. When receiving the visitor A, the customer robot 100 guides the visitor A to a location. The customer service robot 100, for example, guides the visitor A to a position where the screen 25 on which the presentation screen is displayed can be easily viewed. The customer robot 100 provides the visitor A with the core value, that is, starts the explanation using the presentation screen displayed on the screen 25. At this time, it is assumed that the visitor B appears behind the booth and keeps looking at the customer service robot 100. Then, the customer service robot 100 detects the appearance of the visitor B, and determines that the space of interest of the visitor B is directed to itself.

また、接客ロボット100は、来訪者Aがスクリーン25を向いており、接客ロボット100を見ていない状態を検出する。すなわち、接客ロボット100は、来訪者Aの関心空間がスクリーン25に長期間固定されていると判定する。接客ロボット100は、来訪者A,Bに対して、並行してサービスを提供するために、来訪者A,Bの各関心空間の相互非干渉性が高いか否かを判定する。すなわち、接客ロボット100は、来訪者Aがスクリーン25を見ており、来訪者Bが接客ロボット100を見ているため、相互非干渉性が高いと判定する。つまり、接客ロボット100は、ロボット資源117の各資源を来訪者A,Bに配分可能と判定する。   Further, the customer robot 100 detects a state in which the visitor A faces the screen 25 and does not look at the customer robot 100. That is, the customer robot 100 determines that the space of interest of the visitor A is fixed to the screen 25 for a long time. In order to provide services to the visitors A and B in parallel, the customer service robot 100 determines whether the mutual incoherence of the respective interest spaces of the visitors A and B is high or not. That is, since the visitor A looks at the screen 25 and the visitor B looks at the customer robot 100, the customer robot 100 determines that the mutual incoherence is high. That is, the customer service robot 100 determines that each resource of the robot resource 117 can be distributed to the visitors A and B.

接客ロボット100は、来訪者A,Bのそれぞれに対して接客効果が上がるように、ロボット資源117の各資源を配分する。接客ロボット100は、来訪者Aに右腕部113および対話部115を配分し、来訪者Bに頭部111、左腕部114および表示部116を配分する。接客ロボット100は、配分に応じて複数のサービスを並行して実行する。このとき、接客ロボット100は、スクリーン25で行っているプレゼンテーションについて、可制御性を増強する。つまり、接客ロボット100は、プレゼンテーションのうち、動画サービスを前倒しして質問受付は後回しとすることで、並行してサービスを行う時間を確保する。接客ロボット100は、来訪者Aに右腕部113を用いてスクリーン25を指し示して音声で説明しつつ、来訪者Bに頭部111を向けて左腕部114を振り、表示部116に予告情報26を表示する。接客ロボット100は、このようにロボット資源117の各資源を配分することで、動画に見入る来訪者Aと、対応待ちの来訪者Bとの双方に対して接客でき、接客効率を向上することができる。   The customer service robot 100 allocates each resource of the robot resource 117 so as to increase the service effect for each of the visitors A and B. The robot 100 distributes the right arm 113 and the dialogue 115 to the visitor A, and distributes the head 111, the left arm 114, and the display 116 to the visitor B. The customer service robot 100 executes a plurality of services in parallel according to the allocation. At this time, the customer-service robot 100 enhances the controllability of the presentation given on the screen 25. That is, the customer service robot 100 secures time to perform the service in parallel by advancing the moving image service in the presentation and setting the question acceptance behind. The customer service robot 100 points the screen 25 to the visitor A using the right arm 113 and explains with voice while pointing the head 111 to the visitor B and waving the left arm 114, and displays the advance notice information 26 on the display unit 116. indicate. By distributing each resource of the robot resource 117 in this manner, the customer service robot 100 can service both the visitor A who sees the moving image and the visitor B who is waiting for the response, thereby improving the service efficiency. it can.

図27から図30は、サービスシナリオの具体的な一例を示す図である。図27から図30は、図26に示すプレゼンテーションサービスの具体例におけるサービスシナリオの一例である。図27から図30のサービスシナリオは、図26の例において、サービスシナリオ記憶部125に記憶される。当該サービスシナリオでは、例えば、プレゼンテーションを行うフェーズ「コア価値提供」について、さらに7つのサブフェーズが設定されている。当該サービスシナリオでは、サブフェーズ単位で資源配分を行うことで、複数の来訪者(来訪者A,B)に対して並行してサービスを提供できる機会を増加させることができる。   FIGS. 27 to 30 are diagrams showing specific examples of service scenarios. 27 to 30 show an example of a service scenario in the specific example of the presentation service shown in FIG. The service scenario of FIG. 27 to FIG. 30 is stored in the service scenario storage unit 125 in the example of FIG. In the service scenario, for example, seven more sub-phases are set for the phase "providing core value" for presentation. In the service scenario, resource allocation can be performed in sub-phase units, thereby increasing the opportunity to provide services to a plurality of visitors (visitors A and B) in parallel.

図31は、複数の来訪者に対する接客の具体的な一例を示す図である。図31に示すように、接客ロボット100aは、例えば、F市役所の窓口に設置され、来訪者Aを受け付ける。接客ロボット100aは、来訪者Aを受け付けると、来訪者Aに対して場所を誘導する。接客ロボット100aは、例えば、申請書の記入指導ができるロボット資源117が設置された机に来訪者Aを誘導する。接客ロボット100aは、来訪者Aにコア価値を提供、つまり、申請書に対して説明27を表示する等して記入指導を開始する。このとき、ブースに来訪者Bが遅れて現れ、接客ロボット100aの前に立ったとする。すると、接客ロボット100aは、来訪者Bの出現を検出し、来訪者Bの関心空間が自身に向いていると判定する。   FIG. 31 is a diagram showing a specific example of customer service for a plurality of visitors. As shown in FIG. 31, for example, the customer-service robot 100 a is installed at the window of the F city hall and receives the visitor A. When receiving the visitor A, the customer-service robot 100a guides the visitor A to a location. The customer service robot 100a, for example, guides the visitor A to a desk on which a robot resource 117 capable of completing the application form can be installed. The customer service robot 100a provides the core value to the visitor A, that is, displays the explanation 27 for the application form and starts the filling instruction. At this time, it is assumed that the visitor B appears behind the booth and stands in front of the customer service robot 100a. Then, the customer robot 100a detects the appearance of the visitor B, and determines that the space of interest of the visitor B is directed to itself.

また、接客ロボット100aは、来訪者Aが机上を凝視しており、接客ロボット100aを見ていない状態を検出する。すなわち、接客ロボット100aは、来訪者Aの関心空間が机上に長期間固定されていると判定する。接客ロボット100aは、来訪者A,Bに対して、並行してサービスを提供するために、来訪者A,Bの各関心空間の相互非干渉性が高いか否かを判定する。すなわち、接客ロボット100aは、来訪者Aが机上を見ており、来訪者Bが接客ロボット100aを見ているため、相互非干渉性が高いと判定する。つまり、接客ロボット100aは、ロボット資源117の各資源を来訪者A,Bに配分可能と判定する。なお、接客ロボット100aは、来訪者Aの関心空間を確認するために、来訪者A側の左腕部114を用いて手振り動作をしてもよい。   Further, the customer robot 100a detects a state in which the visitor A gazes at the desk and does not look at the customer robot 100a. That is, the robot 100a determines that the space of interest of the visitor A is fixed on the desk for a long time. In order to provide services to the visitors A and B in parallel, the customer service robot 100 a determines whether the mutual incoherence of the respective interest spaces of the visitors A and B is high or not. That is, since the visitor A looks at the desk and the visitor B looks at the customer robot 100a, the customer robot 100a determines that the mutual incoherence is high. That is, the customer service robot 100a determines that each resource of the robot resource 117 can be distributed to the visitors A and B. In addition, in order to confirm the interest space of the visitor A, the customer-service robot 100a may perform a waving motion using the left arm 114 on the visitor A side.

接客ロボット100aは、来訪者A,Bのそれぞれに対して接客効果が上がるように、ロボット資源117の各資源を再配分する。接客ロボット100aは、来訪者Aに左腕部114を配分し、来訪者Bに頭部111、右腕部113および対話部115を配分する。接客ロボット100aは、配分に応じて複数のサービスを並行して実行する。このとき、接客ロボット100aは、机上で行っている記入指導について、可制御性を増強する。つまり、接客ロボット100aは、記入指導のうち、記入内容の自己確認依頼を前倒しして質問受付は後回しとすることで、並行してサービスを行う時間を確保する。接客ロボット100aは、来訪者Aに左腕部114で指し示し、来訪者Bに頭部111を向けてお辞儀をし、「受付の発話」の後、右腕部113を用いて来訪者Bを他の机に誘導して申請書記入を指示する。接客ロボット100aは、このようにロボット資源117の各資源を配分することで、先に申請書に記入を始めている来訪者Aと、後から来た来訪者Bとの双方に対して接客でき、接客効率を向上することができる。   The customer service robot 100a redistributes each resource of the robot resource 117 so as to increase the service effect for each of the visitors A and B. The robot 100a distributes the left arm 114 to the visitor A, and distributes the head 111, the right arm 113, and the dialogue 115 to the visitor B. The customer service robot 100a executes a plurality of services in parallel according to the allocation. At this time, the customer-service robot 100a enhances the controllability of the writing instruction given on the desk. That is, the customer-service robot 100a secures a time for performing the service in parallel by advancing the self-confirmation request of the entry content in the entry instruction and advancing the question acceptance afterward. The robot 100a points to the visitor A with the left arm 114, bows to the visitor B with the head 111 facing, and uses the right arm 113 to "visit" the visitor B with another desk after the "reception utterance". Instruct the applicant to complete the application form. By distributing each resource of the robot resource 117 in this manner, the customer service robot 100a can service both the visitor A who is beginning to fill in the application form and the visitor B who comes later, Service efficiency can be improved.

図32から図36は、サービスシナリオの具体的な一例を示す図である。図32から図36は、図31に示す申請書記入支援サービスの具体例におけるサービスシナリオの一例である。図32から図36のサービスシナリオは、図31の例において、サービスシナリオ記憶部125に記憶される。当該サービスシナリオでは、例えば、申請書記入支援を行うフェーズ「コア価値提供」について、さらに7つのサブフェーズが設定されている。当該サービスシナリオでは、サブフェーズ単位で資源配分を行うことで、複数の来訪者(来訪者A,B)に対して並行してサービスを提供できる機会を増加させることができる。   32 to 36 illustrate specific examples of service scenarios. FIGS. 32 to 36 illustrate an example of a service scenario in the specific example of the application support service shown in FIG. The service scenarios of FIGS. 32 to 36 are stored in the service scenario storage unit 125 in the example of FIG. In the service scenario, for example, seven more sub-phases are set for the “filling core value” phase for providing application filling support. In the service scenario, resource allocation can be performed in sub-phase units, thereby increasing the opportunity to provide services to a plurality of visitors (visitors A and B) in parallel.

図37は、複数の来訪者に対する接客の具体的な一例を示す図である。図37に示すように、接客ロボット100bは、例えば、水族館等に設置され、複数の来訪者に対して案内サービスを提供する。まず、例えば、ある時刻tに接客ロボット100bの左右に同時に来訪者A,Bが現れたとする。このとき、接客ロボット100bは、来訪者A,Bを検出すると、例えば、図13に示す資源活用テーブル124eを参照し、接客ロボット100bに向かって左側から現れた来訪者Aに対して、右腕部113および眼部112のうち右眼部を配分する。また、接客ロボット100bは、接客ロボット100bに向かって右側から現れた来訪者Bに対して、左腕部114および眼部112のうち左眼部を配分する。 FIG. 37 is a diagram showing a specific example of customer service for a plurality of visitors. As shown in FIG. 37, the customer service robot 100b is installed, for example, in an aquarium or the like, and provides a guidance service to a plurality of visitors. First, for example, and at the same time visitor A on the left and right of the customer robot 100b at a certain time t 0, and B appeared. At this time, when the customer service robot 100b detects the visitors A and B, for example, the service robot 100b refers to the resource utilization table 124e shown in FIG. The right eye of the eye 113 and the eye 112 is distributed. Further, the customer robot 100b distributes the left eye portion of the left arm portion 114 and the eye portion 112 to the visitor B who appears from the right side toward the customer robot 100b.

つまり、接客ロボット100bの頭部111を左右のどちらかの来訪者に向けると、逆側の来訪者も(自分が相手にされていない状態として)気付きやすいが、眼は左右別々に来訪者A,Bに向けても逆側の来訪者は気付きにくい。また、対話部115(例えば、口。)や表示部116は、左右のどちらかの来訪者に向けると、逆側の来訪者も(自分が相手にされていない状態として)気付きやすい。   In other words, if the head 111 of the customer robot 100b is directed to either the left or the right visitor, the opposite visitor is likely to notice (as not being the other party), but the eyes are left and right separately And B, it is difficult for the other visitor to notice. In addition, when the dialogue unit 115 (for example, the mouth) or the display unit 116 is directed to either the left or the right visitor, the visitor on the opposite side is also easily noticed (as a state in which the other party is not the other party).

接客ロボット100bは、配分に応じてロボット資源117の各資源を動かし、手振りやアイコンタクト等によって、来訪者A,Bを自身の正面方向へと誘導する。接客ロボット100bは、自身の正面方向に誘導された来訪者A,Bに対して、コア価値である情報表示サービスを開始する。接客ロボット100bは、このようにロボット資源117の各資源を配分することで、同時に現れた来訪者A,Bをそれぞれ誘導し、接客効率を向上することができる。   The customer service robot 100b moves each resource of the robot resource 117 according to the allocation, and guides the visitors A and B in the front direction of themselves by hand gesture, eye contact, or the like. The customer robot 100b starts an information display service which is a core value for the visitors A and B guided in the front direction of the robot. By distributing the resources of the robot resource 117 in this manner, the customer service robot 100b can guide the visitors A and B that have simultaneously appeared, and can improve the service efficiency.

図38は、複数の園児を誘導する場合の一例を示す図である。図38に示すように、ある幼稚園では、接客ロボット100cを導入しているとする。園児C,Dは、接客ロボット100cから遠い場所で遊んでいる。園児E,Fは、接客ロボット100cの近傍で遊んでいる。接客ロボット100cは、所定の時間になると、お話の先生32の方向へ園児C〜Fを誘導するものとする。   FIG. 38 is a diagram showing an example of guiding a plurality of children. As shown in FIG. 38, in a certain kindergarten, it is assumed that a customer service robot 100c is introduced. The children C and D play at a place far from the customer service robot 100c. The children E and F play near the customer service robot 100c. When the predetermined time is reached, the customer robot 100c guides the children C to F in the direction of the story teacher 32.

接客ロボット100cは、園児C〜Fの4人への手振りのリーチ28,29と、視線のリーチ30,31との可能性を確認する。接客ロボット100cは、確認結果に基づいて、右腕部113を園児C,Dに配分し、左腕部114および表示部116を園児E,Fに配分する。また、対話部115は、園児C〜Fに対して誘導メッセージを発声するので、両方に配分する。   The customer service robot 100 c confirms the possibility of the hand gesture reach 28, 29 to the four children C to F and the sight reach 30, 31. The customer service robot 100c distributes the right arm 113 to the children C and D, and distributes the left arm 114 and the display 116 to the children E and F based on the confirmation result. In addition, since the dialogue unit 115 utters the guidance message to the children C to F, the dialogue unit 115 allocates the message to both.

接客ロボット100cは、配分に応じて、右腕部113を動かしつつ、対話部115を用いて誘導メッセージを発声し、園児C,Dをお話の先生32の方向へ誘導する。また、接客ロボット100cは、配分に応じて、左腕部114を動かしつつ、表示部116に誘導用の矢印33を表示し、対話部115を用いて誘導メッセージを発声して、園児E,Fをお話の先生32の方向へ誘導する。接客ロボット100cは、このようにロボット資源117の各資源を配分することで、方向指示という同一種別のサービスであっても、指示先の異なるタスクを並行して実行することができ、接客効率を向上することができる。   The customer service robot 100c moves the right arm 113 according to the allocation, and utters a guidance message using the dialogue unit 115 to guide the children C and D in the direction of the story teacher 32. Further, the customer-service robot 100c moves the left arm 114 according to the distribution, displays the guidance arrow 33 on the display unit 116, utters a guidance message using the dialogue unit 115, and causes the children E and F to Guide in the direction of the story teacher 32. By distributing the resources of the robot resource 117 in this manner, the customer service robot 100c can execute tasks with different designation destinations in parallel, even for services of the same type, that is, direction indication, and the customer service efficiency can be improved. It can be improved.

このように、接客ロボット100は、第1の来訪者と第2の来訪者とを検出すると、第1の来訪者と第2の来訪者とが撮像されている撮像画像、または、センサにより検出された第1の来訪者の特定のいずれかの部位の向きおよび第2の来訪者のいずれかの部位の向きに基づき、第1の来訪者と第2の来訪者とのそれぞれの関心領域を特定する。また、接客ロボット100は、特定した第1の来訪者の関心領域と、第2の来訪者の関心領域とが異なるか否かを判定する。また、接客ロボット100は、第1の来訪者の関心領域と、第2の来訪者の関心領域とが異なる場合、情報提供装置が有する複数の情報提供リソースのうち、第1の来訪者の関心領域に応じた情報提供リソースを用いて、第1の来訪者に対する情報提供処理を実行する。また、接客ロボット100は、複数の情報提供リソースのうち、第2の来訪者の関心領域に応じた情報提供リソースを用いて、第2の来訪者に対する情報提供処理を実行する。その結果、接客ロボット100は、複数の来訪者に対する接客効率を向上できる。   As described above, when the customer robot 100 detects the first visitor and the second visitor, the customer robot 100 detects the first visitor and the second visitor by the captured image or the sensor in which the first visitor and the second visitor are imaged. Based on the orientation of any specific part of the first visitor and the orientation of any part of the second visitor, the respective regions of interest of the first visitor and the second visitor are Identify. Further, the customer service robot 100 determines whether the identified first visitor's region of interest is different from the second visitor's region of interest. In addition, when the service area of the first visitor is different from the area of interest of the second visitor, the customer robot 100 is interested in the first visitor among the plurality of information provision resources possessed by the information providing apparatus. The information provision process according to the area is performed to the first visitor using the information provision resource. Further, the customer robot 100 executes the information provision processing for the second visitor using the information provision resource corresponding to the region of interest of the second visitor among the plurality of information provision resources. As a result, the customer service robot 100 can improve the service efficiency for a plurality of visitors.

また、接客ロボット100は、複数の情報提供リソースのそれぞれの情報提供リソースが情報提供処理を実行した際に、第1の来訪者と第2の来訪者とが該情報提供処理の実行に気付く確率を求める。また、接客ロボット100は、求めた気付く確率に基づいて、複数の情報提供リソースを第1の来訪者および第2の来訪者に配分する。その結果、接客ロボット100は、第1の来訪者が不満を抱きにくい範囲で接客の質を下げて資源を確保し、第2の来訪者が効果を得やすい範囲で、確保した資源を第2の来訪者への接客に回すので、トータルで接客の品質を保つことができる。   In addition, when the information provision resource of each of the plurality of information provision resources executes the information provision process, the customer robot 100 may notice that the first visitor and the second visitor notice the execution of the information provision process. Ask for Further, the customer service robot 100 distributes a plurality of information provision resources to the first visitor and the second visitor based on the obtained notice probability. As a result, the customer service robot 100 lowers the quality of customer service within a range in which the first visitor is less likely to be dissatisfied, secures the resource, and secures the resource within the range where the second visitor can easily obtain the second effect. Since it is turned into customer service to visitors, it is possible to maintain the quality of customer service in total.

また、接客ロボット100は、第1の来訪者に対する情報提供処理を実行中に、第2の来訪者の関心領域が特定されると、情報提供リソースの配分を変更する。すなわち、接客ロボット100は、第1の来訪者に対する情報提供処理を実行中の情報提供リソースの配分を減じて、第2の来訪者の関心領域に応じた情報提供リソースの配分を増加させる。その結果、接客ロボット100は、第1の来訪者が不満を抱きにくい範囲で接客の質を下げて資源を確保し、第2の来訪者が効果を得やすい範囲で、確保した資源を第2の来訪者への接客に回すので、トータルで接客の品質を保つことができる。   Also, when the service robot 100 executes the process of providing information to the first visitor, if the region of interest of the second visitor is specified, the distribution of information resources is changed. That is, the customer-service robot 100 reduces the allocation of the information provision resource in execution of the information provision process for the first visitor, and increases the allocation of the information provision resource according to the second visitor's region of interest. As a result, the customer service robot 100 lowers the quality of customer service within a range in which the first visitor is less likely to be dissatisfied, secures the resource, and secures the resource within the range where the second visitor can easily obtain the second effect. Since it is turned into customer service to visitors, it is possible to maintain the quality of customer service in total.

また、接客ロボット100は、第1の来訪者または第2の来訪者の位置、頭部の向きおよび視線に基づいて、関心領域を特定する。その結果、接客ロボット100は、関心領域(関心空間)に応じたサービスを提供できる。   Further, the customer robot 100 specifies the region of interest based on the position of the first visitor or the second visitor, the orientation of the head, and the line of sight. As a result, the customer robot 100 can provide a service according to the region of interest (space of interest).

また、接客ロボット100は、第1の来訪者または第2の来訪者に対する働きかけへの反応行動、対話、他の人物との関係性、情報提供装置への接触のうち、1つまたは複数に基づいて、関心領域を特定する。その結果、接客ロボット100は、関心領域(関心空間)に応じたサービスを提供できる。   In addition, the customer service robot 100 is based on one or more of a reaction response to an action on the first visitor or the second visitor, a dialogue, a relationship with another person, and a contact to the information providing apparatus. Identify the region of interest. As a result, the customer robot 100 can provide a service according to the region of interest (space of interest).

また、接客ロボット100は、第1の来訪者の関心領域と、第2の来訪者の関心領域とについて共通する関心領域がある場合、該共通する関心領域に対する情報提供リソースを、第1の来訪者と第2の来訪者とで共用して情報提供処理を実行する。その結果、接客ロボット100は、複数の来訪者に対する接客効率を向上できる。   Also, if there is a region of interest common to the region of interest of the first visitor and the region of interest of the second visitor, the customer robot 100 visits the information providing resource for the common region of interest as the first visit. Sharing information between the person and the second visitor to execute the information providing process. As a result, the customer service robot 100 can improve the service efficiency for a plurality of visitors.

また、接客ロボット100は、第1の来訪者と第2の来訪者とを検出すると、第1の来訪者と第2の来訪者とが撮像されている撮像画像、または、センサにより検出された第1の来訪者の特定のいずれかの部位の向きおよび第2の来訪者のいずれかの部位の向きに基づき、第1の来訪者と第2の来訪者とのそれぞれの関心領域を特定する。また、接客ロボット100は、特定した第1の来訪者の関心領域と、第2の来訪者の関心領域とについて共通する関心領域がある否かを判定する。また、接客ロボット100は、共通する関心領域がある場合、情報提供装置が有する複数の情報提供リソースのうち、共通する関心領域に応じた情報提供リソースを用いて、第1の来訪者および第2の来訪者に対する情報提供処理を実行する。その結果、接客ロボット100は、複数の来訪者に対する接客効率を向上できる。   Further, when the customer robot 100 detects the first visitor and the second visitor, the customer robot 100 detects the first visitor and the second visitor by a captured image or a sensor in which the first visitor and the second visitor are imaged. Identify the respective regions of interest of the first visitor and the second visitor based on the orientation of any particular region of the first visitor and the orientation of any region of the second visitor . Further, the customer service robot 100 determines whether there is a common region of interest for the first visitor's identified region of interest and the second visitor's region of interest. Furthermore, when there is a common region of interest, the customer robot 100 uses the information provision resource corresponding to the common region of interest among the plurality of information provision resources possessed by the information provision device, and the first visitor and the second visitor Execute information provision processing for the visitors of As a result, the customer service robot 100 can improve the service efficiency for a plurality of visitors.

なお、上記実施例では、来訪者の検出に外部センサ10を用いたが、これに限定されない。例えば、接客ロボット100にカメラ、赤外線センサ、超音波センサ、レーダー、LIDAR、音声定位マイク等を設け、来訪者を検出してもよい。また、これらの各種センサを用いて来訪者の関心空間等を検出するようにしてもよい。   In addition, although the external sensor 10 was used for the detection of a visitor in the said Example, it is not limited to this. For example, the customer robot 100 may be provided with a camera, an infrared sensor, an ultrasonic sensor, a radar, a LIDAR, a voice localization microphone or the like to detect a visitor. In addition, a visitor's interest space or the like may be detected using these various sensors.

また、上記実施例では、撮像画像を用いて第1の来訪者と第2の来訪者とのそれぞれの関心領域を特定したが、これに限定されない。例えば、各種センサにより検出された第1の来訪者の特定のいずれかの部位の向きおよび第2の来訪者のいずれかの部位の向きに基づき、第1の来訪者と第2の来訪者とのそれぞれの関心領域を特定してもよい。ここで、来訪者の向き等は、例えば、来訪者にGPSの受信機と加速度センサとを内蔵したヘッドセットを装着してもらい、GPSの位置情報と、加速度情報の積算とに基づいて、来訪者の位置と頭の方向を特定することができる。また、来訪者の向き等は、例えば、床に押圧マットを敷いて、来訪者の足型がどの方向を向いているかを検出することで、来訪者の位置と足型の方向を特定することができる。さらに、来訪者の向き等は、例えば、来訪者に方位センサを内蔵したヘッドセットを装着してもらい、押圧マットと組み合わせることで、来訪者の位置と足型および頭の方向を特定することができる。   Moreover, in the said Example, although the region of interest of each of a 1st visitor and a 2nd visitor was specified using the captured image, it is not limited to this. For example, the first visitor and the second visitor based on the direction of any one specific part of the first visitor detected by various sensors and the direction of any part of the second visitor. Each region of interest may be identified. Here, the direction of the visitor, for example, has the visitor wear a headset incorporating a GPS receiver and an acceleration sensor, and the visitor is visited based on the GPS position information and the integration of the acceleration information. The position of the person and the direction of the head can be identified. In addition, for the direction of the visitor, for example, by placing a pressing mat on the floor and detecting which direction the foot form of the visitor is facing, specify the position of the visitor and the direction of the foot form Can. Further, the orientation of the visitor can be determined by, for example, having the visitor wear a headset having a built-in direction sensor and combining it with the pressing mat to specify the visitor's position, foot type and head direction. it can.

また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、特定部132と判定部133とを統合してもよい。また、図示した各処理は、上記の順番に限定されるものでなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。   Further, each component of each unit shown in the drawings does not necessarily have to be physically configured as shown in the drawings. That is, the specific form of the dispersion and integration of each part is not limited to the illustrated one, and all or a part thereof is functionally or physically dispersed or integrated in any unit according to various loads, usage conditions, etc. Can be configured. For example, the identification unit 132 and the determination unit 133 may be integrated. Further, the illustrated processes are not limited to the above-described order, and may be performed simultaneously within the range in which the process contents do not contradict each other, or may be performed by changing the order.

さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。   Furthermore, all or any part of various processing functions performed by each device may be executed on a CPU (or a microcomputer such as an MPU or an MCU (Micro Controller Unit)). In addition, various processing functions may be executed in whole or any part on a program analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or on hardware by wired logic. It goes without saying that it is good.

ところで、上記の各実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の各実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図39は、制御プログラムを実行するコンピュータの一例を示す図である。   The various processes described in the above embodiments can be realized by executing a prepared program on a computer. So, below, an example of a computer which runs a program which has the same function as each above-mentioned example is explained. FIG. 39 is a diagram illustrating an example of a computer that executes a control program.

図39に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、データ入力を受け付ける入力装置202と、モニタ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る媒体読取装置204と、各種装置と接続するためのインタフェース装置205と、外部センサ10や、他の情報処理装置等と有線または無線により接続するための通信装置206とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM207と、ハードディスク装置208とを有する。また、各装置201〜208は、バス209に接続される。   As shown in FIG. 39, the computer 200 has a CPU 201 that executes various types of arithmetic processing, an input device 202 that receives data input, and a monitor 203. In addition, the computer 200 is connected by wire or wirelessly to the medium reading device 204 which reads a program or the like from a storage medium, the interface device 205 for connecting to various devices, the external sensor 10, and other information processing devices. And the communication device 206 of The computer 200 also has a RAM 207 for temporarily storing various information, and a hard disk drive 208. Each of the devices 201 to 208 is connected to the bus 209.

ハードディスク装置208には、図2に示した検出部131、特定部132、判定部133および情報提供部134の各処理部と同様の機能を有する制御プログラムが記憶される。また、ハードディスク装置208には、サービス提供空間記憶部121、関心空間情報記憶部122、来訪者空間情報記憶部123、資源活用情報記憶部124、サービスシナリオ記憶部125、および、制御プログラムを実現するための各種データが記憶される。入力装置202は、例えば、コンピュータ200が制御する情報提供装置が対応する来訪者から操作情報等の各種情報の入力を受け付ける。モニタ203は、例えば、コンピュータ200が制御する情報提供装置が対応する来訪者に対して表示画面等の各種画面を表示する。インタフェース装置205は、例えば情報提供装置や印刷装置等が接続される。通信装置206は、例えば、図2に示した通信部110と同様の機能を有し外部センサ10や図示しないネットワークと接続され、外部センサ10や図示しない他の情報処理装置等と各種情報をやりとりする。   The hard disk drive 208 stores control programs having the same functions as the processing units of the detection unit 131, the identification unit 132, the determination unit 133, and the information providing unit 134 illustrated in FIG. In the hard disk drive 208, the service providing space storage unit 121, the interest space information storage unit 122, the visitor space information storage unit 123, the resource utilization information storage unit 124, the service scenario storage unit 125, and the control program are realized. Various data for storing are stored. The input device 202 receives, for example, an input of various information such as operation information from a visitor to which the information providing device controlled by the computer 200 corresponds. The monitor 203 displays, for example, various screens such as a display screen to the visitor corresponding to the information providing apparatus controlled by the computer 200. The interface device 205 is connected to, for example, an information providing device and a printing device. The communication device 206 has, for example, the same function as the communication unit 110 shown in FIG. 2 and is connected to the external sensor 10 and a network not shown, and exchanges various information with the external sensor 10 and other information processing devices not shown Do.

CPU201は、ハードディスク装置208に記憶された各プログラムを読み出して、RAM207に展開して実行することで、各種の処理を行う。また、これらのプログラムは、コンピュータ200を図2に示した検出部131、特定部132、判定部133および情報提供部134として機能させることができる。   The CPU 201 reads out each program stored in the hard disk device 208, develops the program in the RAM 207, and executes the program to perform various processes. Also, these programs can cause the computer 200 to function as the detection unit 131, the identification unit 132, the determination unit 133, and the information providing unit 134 illustrated in FIG.

なお、上記の制御プログラムは、必ずしもハードディスク装置208に記憶されている必要はない。例えば、コンピュータ200が読み取り可能な記憶媒体に記憶されたプログラムを、コンピュータ200が読み出して実行するようにしてもよい。コンピュータ200が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこの制御プログラムを記憶させておき、コンピュータ200がこれらから制御プログラムを読み出して実行するようにしてもよい。   The above control program does not necessarily have to be stored in the hard disk drive 208. For example, the computer 200 may read out and execute a program stored in a storage medium readable by the computer 200. The storage medium readable by the computer 200 corresponds to, for example, a CD-ROM, a DVD disk, a portable recording medium such as a USB (Universal Serial Bus) memory, a semiconductor memory such as a flash memory, a hard disk drive, or the like. Alternatively, the control program may be stored in a device connected to a public line, the Internet, a LAN or the like, and the computer 200 may read out the control program from these and execute it.

10 外部センサ
100 接客ロボット
110 通信部
111 頭部
112 眼部
113 右腕部
114 左腕部
115 対話部
116 表示部
117 ロボット資源
120 記憶部
121 サービス提供空間記憶部
122 関心空間情報記憶部
123 来訪者空間情報記憶部
124 資源活用情報記憶部
125 サービスシナリオ記憶部
130 制御部
131 検出部
132 特定部
133 判定部
134 情報提供部
10 external sensor 100 customer service robot 110 communication unit 111 head 112 eye unit 113 right arm unit 114 left arm unit 115 dialogue unit 116 display unit 117 robot resource 120 storage unit 121 service providing space storage unit 122 interest space information storage unit 123 visitor space information Storage unit 124 Resource utilization information storage unit 125 Service scenario storage unit 130 Control unit 131 Detection unit 132 Identification unit 133 Determination unit 134 Information provision unit

Claims (11)

第1の来訪者と第2の来訪者とを検出すると、前記第1の来訪者と前記第2の来訪者とが撮像されている撮像画像、または、センサにより検出された前記第1の来訪者の特定のいずれかの部位の向きおよび前記第2の来訪者のいずれかの部位の向きに基づき、前記第1の来訪者と前記第2の来訪者とのそれぞれの関心領域を特定し、
特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なるか否かを判定し、
前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なる場合、情報提供装置が有する複数の情報提供リソースのうち、前記第1の来訪者の関心領域に応じた情報提供リソースを用いて、前記第1の来訪者に対する情報提供処理を実行し、前記複数の情報提供リソースのうち、前記第2の来訪者の関心領域に応じた情報提供リソースを用いて、前記第2の来訪者に対する情報提供処理を実行する、
処理をコンピュータに実行させることを特徴とする制御プログラム。
When the first visitor and the second visitor are detected, a captured image in which the first visitor and the second visitor are imaged, or the first visit detected by a sensor Identifying the respective regions of interest of the first visitor and the second visitor based on the orientation of any part of the person and the orientation of any part of the second visitor,
It is determined whether or not the identified first visitor's region of interest and the second visitor's region of interest are different.
In the case where the region of interest of the first visitor and the region of interest of the second visitor differ, according to the region of interest of the first visitor among a plurality of information provision resources possessed by the information provision apparatus The information providing process is performed using the information providing resource, and the information providing process according to the region of interest of the second visitor among the plurality of information providing resources is performed using the information providing resource. Execute information provision processing for the second visitor,
A control program causing a computer to execute a process.
前記情報提供処理を実行する処理は、前記複数の情報提供リソースのそれぞれの情報提供リソースが情報提供処理を実行した際に、前記第1の来訪者と前記第2の来訪者とが該情報提供処理の実行に気付く確率に基づいて、前記複数の情報提供リソースを前記第1の来訪者および前記第2の来訪者に配分する、
ことを特徴とする請求項1に記載の制御プログラム。
In the process of executing the information provision process, the first visitor and the second visitor provide the information when the information provision resource of each of the plurality of information provision resources executes the information provision process. Allocating the plurality of information provision resources to the first visitor and the second visitor based on the probability of noticing the execution of the process;
The control program according to claim 1, characterized in that:
前記情報提供処理を実行する処理は、前記第1の来訪者に対する情報提供処理を実行中に、前記第2の来訪者の関心領域が特定されると、前記第1の来訪者に対する情報提供処理を実行中の情報提供リソースの配分を減じて、前記第2の来訪者の関心領域に応じた情報提供リソースの配分を増加させる、
ことを特徴とする請求項1または2に記載の制御プログラム。
The process for executing the information provision process is the process for providing information to the first visitor when the region of interest of the second visitor is specified while the information provision process for the first visitor is performed. Reduce the allocation of informational resources in progress to increase the allocation of informational resources according to the area of interest of the second visitor,
The control program according to claim 1 or 2, characterized in that:
前記特定する処理は、前記第1の来訪者または前記第2の来訪者の位置、頭部の向きおよび視線に基づいて、前記関心領域を特定する、
ことを特徴とする請求項1〜3のいずれか1つに記載の制御プログラム。
The identifying process identifies the region of interest based on the position of the first visitor or the second visitor, the head orientation, and the line of sight.
The control program as described in any one of the Claims 1-3 characterized by the above-mentioned.
前記特定する処理は、前記第1の来訪者または前記第2の来訪者に対する働きかけへの反応行動、対話、他の人物との関係性、前記情報提供装置への接触のうち、1つまたは複数に基づいて、前記関心領域を特定する、
ことを特徴とする請求項4に記載の制御プログラム。
The identifying process may be one or more of a reaction to an action on the first visitor or the second visitor, an interaction, a relationship with another person, or a contact with the information providing apparatus. Identifying the region of interest based on
The control program according to claim 4, characterized in that:
前記情報提供処理を実行する処理は、前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とについて共通する関心領域がある場合、該共通する関心領域に対する情報提供リソースを、前記第1の来訪者と前記第2の来訪者とで共用して情報提供処理を実行する、
ことを特徴とする請求項1に記載の制御プログラム。
When the processing for executing the information provision processing has a common region of interest for the first visitor's region of interest and the second visitor's region of interest, the information provision resource for the common region of interest is The information providing process is executed by sharing the first visitor and the second visitor;
The control program according to claim 1, characterized in that:
第1の来訪者と第2の来訪者とを検出すると、前記第1の来訪者と前記第2の来訪者とが撮像されている撮像画像、または、センサにより検出された前記第1の来訪者の特定のいずれかの部位の向きおよび前記第2の来訪者のいずれかの部位の向きに基づき、前記第1の来訪者と前記第2の来訪者とのそれぞれの関心領域を特定し、
特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とについて共通する関心領域がある否かを判定し、
前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とについて共通する関心領域がある場合、情報提供装置が有する複数の情報提供リソースのうち、前記共通する関心領域に応じた情報提供リソースを用いて、前記第1の来訪者および前記第2の来訪者に対する情報提供処理を実行する、
処理をコンピュータに実行させることを特徴とする制御プログラム。
When the first visitor and the second visitor are detected, a captured image in which the first visitor and the second visitor are imaged, or the first visit detected by a sensor Identifying the respective regions of interest of the first visitor and the second visitor based on the orientation of any part of the person and the orientation of any part of the second visitor,
It is determined whether there is an area of interest common to the identified area of interest of the first visitor and the area of interest of the second visitor,
When there is a common region of interest for the first visitor's region of interest and the second visitor's region of interest, the common region of interest among the plurality of information provision resources possessed by the information provision apparatus Executing an information provision process for the first visitor and the second visitor using the specified information provision resource;
A control program causing a computer to execute a process.
第1の来訪者と第2の来訪者とを検出すると、前記第1の来訪者と前記第2の来訪者とが撮像されている撮像画像、または、センサにより検出された前記第1の来訪者の特定のいずれかの部位の向きおよび前記第2の来訪者のいずれかの部位の向きに基づき、前記第1の来訪者と前記第2の来訪者とのそれぞれの関心領域を特定し、
特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なるか否かを判定し、
前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なる場合、情報提供装置が有する複数の情報提供リソースのうち、前記第1の来訪者の関心領域に応じた情報提供リソースを用いて、前記第1の来訪者に対する情報提供処理を実行し、前記複数の情報提供リソースのうち、前記第2の来訪者の関心領域に応じた情報提供リソースを用いて、前記第2の来訪者に対する情報提供処理を実行する、
処理をコンピュータが実行することを特徴とする制御方法。
When the first visitor and the second visitor are detected, a captured image in which the first visitor and the second visitor are imaged, or the first visit detected by a sensor Identifying the respective regions of interest of the first visitor and the second visitor based on the orientation of any part of the person and the orientation of any part of the second visitor,
It is determined whether or not the identified first visitor's region of interest and the second visitor's region of interest are different.
In the case where the region of interest of the first visitor and the region of interest of the second visitor differ, according to the region of interest of the first visitor among a plurality of information provision resources possessed by the information provision apparatus The information providing process is performed using the information providing resource, and the information providing process according to the region of interest of the second visitor among the plurality of information providing resources is performed using the information providing resource. Execute information provision processing for the second visitor,
A control method, characterized in that a computer executes a process.
第1の来訪者と第2の来訪者とを検出すると、前記第1の来訪者と前記第2の来訪者とが撮像されている撮像画像、または、センサにより検出された前記第1の来訪者の特定のいずれかの部位の向きおよび前記第2の来訪者のいずれかの部位の向きに基づき、前記第1の来訪者と前記第2の来訪者とのそれぞれの関心領域を特定し、
特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とについて共通する関心領域がある否かを判定し、
前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とについて共通する関心領域がある場合、情報提供装置が有する複数の情報提供リソースのうち、前記共通する関心領域に応じた情報提供リソースを用いて、前記第1の来訪者および前記第2の来訪者に対する情報提供処理を実行する、
処理をコンピュータが実行することを特徴とする制御方法。
When the first visitor and the second visitor are detected, a captured image in which the first visitor and the second visitor are imaged, or the first visit detected by a sensor Identifying the respective regions of interest of the first visitor and the second visitor based on the orientation of any part of the person and the orientation of any part of the second visitor,
It is determined whether there is an area of interest common to the identified area of interest of the first visitor and the area of interest of the second visitor,
When there is a common region of interest for the first visitor's region of interest and the second visitor's region of interest, the common region of interest among the plurality of information provision resources possessed by the information provision apparatus Executing an information provision process for the first visitor and the second visitor using the specified information provision resource;
A control method, characterized in that a computer executes a process.
第1の来訪者と第2の来訪者とを検出すると、前記第1の来訪者と前記第2の来訪者とが撮像されている撮像画像、または、センサにより検出された前記第1の来訪者の特定のいずれかの部位の向きおよび前記第2の来訪者のいずれかの部位の向きに基づき、前記第1の来訪者と前記第2の来訪者とのそれぞれの関心領域を特定する特定部と、
特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なるか否かを判定する判定部と、
前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なる場合、情報提供装置が有する複数の情報提供リソースのうち、前記第1の来訪者の関心領域に応じた情報提供リソースを用いて、前記第1の来訪者に対する情報提供処理を実行し、前記複数の情報提供リソースのうち、前記第2の来訪者の関心領域に応じた情報提供リソースを用いて、前記第2の来訪者に対する情報提供処理を実行する情報提供部と、
を有することを特徴とする制御装置。
When the first visitor and the second visitor are detected, a captured image in which the first visitor and the second visitor are imaged, or the first visit detected by a sensor Specifying the respective regions of interest of the first visitor and the second visitor based on the orientation of any part of the person and the orientation of any part of the second visitor Department,
A determination unit that determines whether the identified first visitor's region of interest is different from the second visitor's region of interest;
In the case where the region of interest of the first visitor and the region of interest of the second visitor differ, according to the region of interest of the first visitor among a plurality of information provision resources possessed by the information provision apparatus The information providing process is performed using the information providing resource, and the information providing process according to the region of interest of the second visitor among the plurality of information providing resources is performed using the information providing resource. An information providing unit that executes an information providing process for a second visitor;
A control device characterized by having.
第1の来訪者と第2の来訪者とを検出すると、前記第1の来訪者と前記第2の来訪者とが撮像されている撮像画像、または、センサにより検出された前記第1の来訪者の特定のいずれかの部位の向きおよび前記第2の来訪者のいずれかの部位の向きに基づき、前記第1の来訪者と前記第2の来訪者とのそれぞれの関心領域を特定する特定部と、
特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とについて共通する関心領域がある否かを判定する判定部と、
前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とについて共通する関心領域がある場合、情報提供装置が有する複数の情報提供リソースのうち、前記共通する関心領域に応じた情報提供リソースを用いて、前記第1の来訪者および前記第2の来訪者に対する情報提供処理を実行する情報提供部と、
を有することを特徴とする制御装置。
When the first visitor and the second visitor are detected, a captured image in which the first visitor and the second visitor are imaged, or the first visit detected by a sensor Specifying the respective regions of interest of the first visitor and the second visitor based on the orientation of any part of the person and the orientation of any part of the second visitor Department,
A determination unit that determines whether there is a region of interest common to the identified region of interest of the first visitor and the region of interest of the second visitor;
When there is a common region of interest for the first visitor's region of interest and the second visitor's region of interest, the common region of interest among the plurality of information provision resources possessed by the information provision apparatus An information providing unit that executes an information providing process for the first visitor and the second visitor using the specified information providing resource;
A control device characterized by having.
JP2017214978A 2017-11-07 2017-11-07 Control programs, control methods and controls Active JP7009939B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017214978A JP7009939B2 (en) 2017-11-07 2017-11-07 Control programs, control methods and controls

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017214978A JP7009939B2 (en) 2017-11-07 2017-11-07 Control programs, control methods and controls

Publications (2)

Publication Number Publication Date
JP2019087047A true JP2019087047A (en) 2019-06-06
JP7009939B2 JP7009939B2 (en) 2022-02-10

Family

ID=66763118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017214978A Active JP7009939B2 (en) 2017-11-07 2017-11-07 Control programs, control methods and controls

Country Status (1)

Country Link
JP (1) JP7009939B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004114285A (en) * 2002-09-02 2004-04-15 Sony Corp Robotic device and its behavior control method
JP2009248193A (en) * 2008-04-01 2009-10-29 Toyota Motor Corp Reception system and reception method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004114285A (en) * 2002-09-02 2004-04-15 Sony Corp Robotic device and its behavior control method
JP2009248193A (en) * 2008-04-01 2009-10-29 Toyota Motor Corp Reception system and reception method

Also Published As

Publication number Publication date
JP7009939B2 (en) 2022-02-10

Similar Documents

Publication Publication Date Title
US10798509B1 (en) Wearable electronic device displays a 3D zone from where binaural sound emanates
US11290836B2 (en) Providing binaural sound behind an image being displayed with an electronic device
US10880670B2 (en) Systems and methods for determining estimated head orientation and position with ear pieces
CN104765444B (en) Vehicle-mounted gesture interaction space audio system
CN105324811B (en) Speech to text conversion
US10027888B1 (en) Determining area of interest in a panoramic video or photo
US20190313201A1 (en) Systems and methods for sound externalization over headphones
KR20160113666A (en) Audio navigation assistance
JP6821795B2 (en) Virtual reality, augmented reality, and mixed reality systems with spatialized audio
US9594148B2 (en) Estimation device and estimation method using sound image localization processing
JP2019087047A (en) Control program, control method and control device
US11032659B2 (en) Augmented reality for directional sound
US20180063384A1 (en) Information processing apparatus, information processing method, and program
US10820132B2 (en) Voice providing device and voice providing method
JP2020004392A (en) Data transmission apparatus, terminal, and program
JP7428189B2 (en) Information processing device, control method and control program
CN116610825A (en) Information providing system, method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211227

R150 Certificate of patent or registration of utility model

Ref document number: 7009939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150