JP2019087047A - Control program, control method and control device - Google Patents
Control program, control method and control device Download PDFInfo
- Publication number
- JP2019087047A JP2019087047A JP2017214978A JP2017214978A JP2019087047A JP 2019087047 A JP2019087047 A JP 2019087047A JP 2017214978 A JP2017214978 A JP 2017214978A JP 2017214978 A JP2017214978 A JP 2017214978A JP 2019087047 A JP2019087047 A JP 2019087047A
- Authority
- JP
- Japan
- Prior art keywords
- visitor
- interest
- region
- information
- resource
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、制御プログラム、制御方法および制御装置に関する。 The present invention relates to a control program, a control method, and a control device.
近年、展示会場や業務窓口において、接客ロボットの導入が試行されている。接客ロボットは、展示会場のブースや窓口に訪れた来訪者に対して、順番に接客対応を行う。ところが、接客ロボットに対して複数の来訪者が近づいた場合、例えば接客ロボットに最も近い来訪者から順番に対応すると、関心の高い来訪者が関心の低い来訪者よりも後回しになることがある。これに対し、所定の領域内の来訪者について、関心度を判定し、判定した関心度に基づいて接客を行うことが提案されている。また、来訪者の移動ベクトルを検出し、来訪者がグループであるか個人であるかに応じて提供するサービスを変更することが提案されている。 In recent years, introduction of a customer service robot has been tried at an exhibition hall or a business window. The customer service robot responds to customers in turn for visitors who visit the booths and windows in the exhibition hall. However, in the case where a plurality of visitors approach the customer-service robot, for example, in order from the closest visitor to the customer-service robot, a high-interest visitor may be postponed to a low-interest visitor. On the other hand, it is proposed that the degree of interest is determined for visitors in a predetermined area, and customer service is performed based on the determined degree of interest. It has also been proposed to detect the movement vector of the visitor and change the service provided depending on whether the visitor is a group or an individual.
しかしながら、接客ロボットが特定の来訪者に対応すると、他の来訪者は待たされたり、提供サービスが変更されたりするので、不満を抱きやすい。すなわち、接客ロボットは、複数の来訪者に対して同時に対応することで接客効率を向上させることが困難である。 However, when the customer-service robot responds to a specific visitor, other visitors are likely to be dissatisfied because they are kept waiting or the provided service is changed. That is, it is difficult for the customer service robot to improve service efficiency by simultaneously responding to a plurality of visitors.
一つの側面では、複数の来訪者に対する接客効率を向上できる制御プログラム、制御方法および制御装置を提供することにある。 An aspect of the present invention is to provide a control program, a control method and a control device capable of improving the efficiency of customer service to a plurality of visitors.
一つの態様では、制御プログラムは、以下の処理をコンピュータに実行させる。コンピュータは、第1の来訪者と第2の来訪者とを検出すると、前記第1の来訪者と前記第2の来訪者とが撮像されている撮像画像、または、センサにより検出された前記第1の来訪者の特定のいずれかの部位の向きおよび前記第2の来訪者のいずれかの部位の向きに基づき、前記第1の来訪者と前記第2の来訪者とのそれぞれの関心領域を特定する。コンピュータは、特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なるか否かを判定する。コンピュータは、前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なる場合、情報提供装置が有する複数の情報提供リソースを用いて、情報提供処理を実行する。すなわち、コンピュータは、前記複数の情報提供リソースのうち、前記第1の来訪者の関心領域に応じた情報提供リソースを用いて、前記第1の来訪者に対する情報提供処理を実行する。また、コンピュータは、前記複数の情報提供リソースのうち、前記第2の来訪者の関心領域に応じた情報提供リソースを用いて、前記第2の来訪者に対する情報提供処理を実行する。 In one aspect, the control program causes the computer to execute the following processing. When the computer detects the first visitor and the second visitor, the computer detects an image in which the first visitor and the second visitor have been imaged, or the first image detected by a sensor The respective regions of interest of the first visitor and the second visitor based on the orientation of any one part of the visitor and the orientation of any part of the second visitor. Identify. The computer determines whether or not the identified first visitor's region of interest and the second visitor's region of interest are different. The computer executes the information provision process using a plurality of information provision resources possessed by the information provision apparatus, when the first visitor's interest area and the second visitor's interest area are different. That is, the computer executes the information provision processing for the first visitor using the information provision resource according to the region of interest of the first visitor among the plurality of information provision resources. Further, the computer executes an information provision process for the second visitor using an information provision resource corresponding to the region of interest of the second visitor among the plurality of information provision resources.
複数の来訪者に対する接客効率を向上できる。 It is possible to improve the efficiency of service for multiple visitors.
以下、図面に基づいて、本願の開示する制御プログラム、制御方法および制御装置の実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。 Hereinafter, embodiments of the control program, control method, and control device disclosed in the present application will be described in detail based on the drawings. The disclosed technology is not limited by the present embodiment. In addition, the following embodiments may be combined as appropriate as long as no contradiction arises.
図1は、実施例の接客ロボットの配置の一例を示す図である。まず、図1を用いて接客ロボット(以下、単にロボットともいう。)100の配置について説明する。図1に示すように、接客ロボット100は、例えば、展示会場のブースに配置される。接客ロボット100の周囲には、接客ロボット100によってサービスの提供を行うことができるサービス提供空間20が設定される。また、当該ブースには、テーブル21、壁22、および、映像投影用のスクリーン23が配置されている。接客ロボット100は、サービス提供空間20に対して座標系を設定し、例えば1cm3単位の空間ブロック群を設定する。接客ロボット100は、空間ブロック群を用いて、来訪者の関心領域を特定する等の各種の処理を行う。
FIG. 1 is a view showing an example of arrangement of a customer service robot of the embodiment. First, the arrangement of the customer service robot (hereinafter, also simply referred to as a robot) 100 will be described with reference to FIG. As shown in FIG. 1, the
図2は、実施例の接客ロボットの構成の一例を示すブロック図である。接客ロボット100は、例えばブース内に設置された外部センサ10から取得したセンサ情報に基づいて、第1の来訪者と第2の来訪者とを検出する。接客ロボット100は、第1の来訪者と第2の来訪者とを検出すると、第1の来訪者と第2の来訪者とが撮像されている撮像画像、または、センサにより検出された第1の来訪者の特定のいずれかの部位の向きおよび第2の来訪者のいずれかの部位の向きに基づき、第1の来訪者と第2の来訪者とのそれぞれの関心領域を特定する。接客ロボット100は、特定した第1の来訪者の関心領域と、第2の来訪者の関心領域とが異なるか否かを判定する。接客ロボット100は、第1の来訪者の関心領域と、第2の来訪者の関心領域とが異なる場合、情報提供装置が有する複数の情報提供リソースのうち、第1の来訪者の関心領域に応じた情報提供リソースを用いて、第1の来訪者に対する情報提供処理を実行する。また、接客ロボット100は、複数の情報提供リソースのうち、第2の来訪者の関心領域に応じた情報提供リソースを用いて、第2の来訪者に対する情報提供処理を実行する。これにより、接客ロボット100は、複数の来訪者に対する接客効率を向上できる。
FIG. 2 is a block diagram showing an example of the configuration of the customer service robot of the embodiment. The
次に、図2を用いて接客ロボット100の機能構成について説明する。図2に示すように、接客ロボット100は、通信部110と、頭部111と、眼部112と、右腕部113と、左腕部114と、対話部115と、表示部116と、記憶部120と、制御部130とを有する。なお、以下の説明では、頭部111と、眼部112と、右腕部113と、左腕部114と、対話部115と、表示部116とを纏めて表す場合、ロボット資源117と表す。すなわち、本実施例では、情報提供装置は、例えば接客ロボット100であり、情報提供リソースは、ロボット資源117である。また、接客ロボット100は、図2に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイス等の機能部を有することとしてもかまわない。なお、以下の説明では、関心領域を関心空間とも表現する。
Next, the functional configuration of the
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、図示しないネットワークを介して外部センサ10や他の情報処理装置と有線または無線で接続され、外部センサ10や他の情報処理装置との間で情報の通信を司る通信インタフェースである。
The communication unit 110 is realized by, for example, a network interface card (NIC). The communication unit 110 is a communication interface connected to the
なお、外部センサ10には、例えば、カメラ、赤外線センサ、超音波センサ、レーダー、LIDAR(Laser Imaging Detection and Ranging)、歪みゲージ、音声定位マイク、押圧マット、接触センサ等を用いることができる。また、外部センサ10には、例えば、来訪者にビーコン発振器、GPS(Global Positioning System)受信機、加速度センサ、方位センサ等を内蔵したヘッドセット等のウェアラブル端末を装着してもらい、これらの各種センサのセンサ情報を用いてもよい。外部センサ10は、これらの各種センサのセンサ情報を、例えば、1秒ごとのように、所定間隔で接客ロボット100に対して送信する。
For the
頭部111は、接客ロボット100の頭であり、例えば、眼部112と、対話部115とを有する。頭部111は、制御部130からの指示に従って、例えば上下左右に頭を動かす動作を行うことができる。
The
眼部112は、接客ロボット100の眼であり、例えば、制御部130からの指示に従って、所定の範囲で動くことによって表情や視線を表現することができる。なお、眼部112は、カメラを内蔵して撮像画像を取得するようにしてもよい。
The eye unit 112 is an eye of the
右腕部113および左腕部114は、それぞれ接客ロボット100の右腕および左腕である。右腕部113および左腕部114は、例えば、制御部130からの指示に従って、腕を上げる、方向を指し示す等の各種の動作を行うことができる。
The
対話部115は、マイクとスピーカとを有し、来訪者との対話を実現する。対話部115は、例えばマイクによって入力された来訪者の音声を制御部130に出力し、制御部130から入力された音声信号を、スピーカを用いて出力する。なお、対話部115は、頭部111だけではなく、その他の場所、例えば接客ロボット100の胴体に設けられてもよい。
The dialogue unit 115 has a microphone and a speaker, and realizes dialogue with the visitor. The dialogue unit 115 outputs, for example, the voice of the visitor input by the microphone to the
表示部116は、各種情報を表示するための表示デバイスである。表示部116は、例えば、表示デバイスとして液晶ディスプレイ等によって実現される。表示部116は、制御部130から入力された表示画面等の各種画面を表示する。表示部116は、例えば、接客ロボット100の胴体に設けることができる。また、これらのロボット資源117の各資源は、各資源に対する来訪者の接触を検知すると、接触情報を制御部130に出力する。なお、以下の説明では、ロボット資源117および各資源を接客資源と表現する場合がある。
The
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部120は、サービス提供空間記憶部121と、関心空間情報記憶部122と、来訪者空間情報記憶部123と、資源活用情報記憶部124と、サービスシナリオ記憶部125とを有する。また、記憶部120は、制御部130での処理に用いる情報を記憶する。
The storage unit 120 is realized by, for example, a storage device such as a random access memory (RAM), a semiconductor memory device such as a flash memory, or a hard disk or an optical disk. The storage unit 120 includes a service providing space storage unit 121, an interest space
サービス提供空間記憶部121は、接客ロボット100の周囲に設定されるサービス提供空間20の座標系の空間ブロック群(以下、ブロック群ともいう。)の情報を記憶する。サービス提供空間記憶部121では、例えば、机や壁等の遮蔽物がある場合、対象のブロックに対して遮蔽情報が設定される。
The service provision space storage unit 121 stores information of space block groups (hereinafter also referred to as block groups) of the coordinate system of the
ここで、図3を用いてサービス提供空間20に設定するブロックについて説明する。図3は、サービス提供空間に設定するブロックの座標の一例を示す図である。図3に示すように、ブロックは、例えば1cm3の立方体であり、ブロックの各頂点(以下、各端点ともいう。)の座標をブロックID(Identifier)と対応付けてサービス提供空間記憶部121に記憶する。
Here, blocks to be set in the
図2の説明に戻って、関心空間情報記憶部122は、来訪者ごとの関心空間情報を記憶する。図4は、関心空間情報記憶部の一例を示す図である。図4に示すように、関心空間情報記憶部122は、例えば、来訪者(ユーザ)ごとに1つの関心空間テーブルを有する。関心空間テーブルは、「ユーザID」、「関心空間判定」、「関心対象判定」、「関心対象種別」、「開始時刻」、「終了時刻」、「ブロックID」、「端点座標値」、「関心フラグ値」、「判定フラグ」といった項目を有する。
Returning to the explanation of FIG. 2, the space of interest
「ユーザID」は、来訪者(ユーザ)を識別する識別子である。「関心空間判定」は、来訪者に対応する関心空間があるか否かを示す情報である。「関心対象判定」は、来訪者が関心を寄せている関心対象があるか否かを示す情報である。「関心対象種別」は、関心対象の種別、例えば、ロボット、スクリーン等の情報を示す情報である。「開始時刻」は、関心空間テーブルの生成開始時刻を示す情報である。「終了時刻」は、関心空間テーブルの生成終了時刻を示す情報である。「ブロックID」は、関心空間内の各ブロックを識別する識別子である。「端点座標値」は、ブロックの各端点のサービス提供空間20における座標値を示す情報である。「関心フラグ値」は、来訪者が関心を寄せている場合に数値が加算される情報である。「判定フラグ」は、関心フラグ値が閾値以上である場合に関心空間と設定される情報である。
The "user ID" is an identifier for identifying a visitor (user). The “interest space determination” is information indicating whether or not there is an interest space corresponding to the visitor. The “interested object determination” is information indicating whether or not there is an interest object that the visitor is interested in. The “interest object type” is information indicating the type of the object of interest, for example, information such as a robot or a screen. The “start time” is information indicating the generation start time of the space of interest table. The “end time” is information indicating the generation end time of the space of interest table. The “block ID” is an identifier that identifies each block in the space of interest. The “end point coordinate value” is information indicating a coordinate value in the
ここで、図5および図6を用いて関心空間について説明する。図5は、関心空間の一例を示す図である。図5の例では、来訪者Aがスクリーン24を見ているとすると、来訪者Aの視線がスクリーン24の方向で静止しており、視線方向の延長線上にスクリーン24があるので、関心空間はスクリーン24とその近傍の空間となる。
Here, the space of interest will be described using FIGS. 5 and 6. FIG. 5 is a diagram showing an example of a space of interest. In the example of FIG. 5, assuming that the visitor A looks at the
図6は、関心空間の他の一例を示す図である。図6の例では、スクリーン24と接客ロボット100とが並んで配置されており、来訪者Aが接客ロボット100を見ている。この場合は、来訪者Aの視線が接客ロボット100の方向で静止しており、視線方向の延長線上に接客ロボット100があるので、関心空間は接客ロボット100とその近傍の空間となる。
FIG. 6 is a diagram showing another example of the space of interest. In the example of FIG. 6, the
図2の説明に戻って、来訪者空間情報記憶部123は、来訪者の眼や耳等の感覚器ごとに、サービス開始時およびサービス終了時に来訪者が気付く確率を記憶する。図7は、来訪者空間情報記憶部の一例を示す図である。図7に示すように、来訪者空間情報記憶部123は、例えば、眼に対応する来訪者空間テーブル123aと、耳に対応する来訪者空間テーブル123bとを有する。来訪者空間テーブル123aは、「ユーザID」、「ユーザ感覚器」、「ロボット資源」、「サービス開始時に気付く確率」、「サービス終了時に気付く確率」、「開始時刻」、「終了時刻」といった項目を有する。また、来訪者空間テーブル123aは、「感覚器近傍ブロックID」、「端点座標値」、「ロボット資源が示す視差」、「開始に気付く確率」、「終了に気付く確率」といった項目を有する。
Returning to the explanation of FIG. 2, the visitor space
「ユーザID」は、来訪者(ユーザ)を識別する識別子である。「ユーザ感覚器」は、来訪者の眼や耳といった感覚器を識別する情報である。「ロボット資源」は、来訪者の感覚器に対して接客ロボット100がアクションを起こす際に用いるロボット資源117、例えば、右腕部113および左腕部114を示す腕、頭部111を示す頭といった情報である。「サービス開始時に気付く確率」は、来訪者に対してロボット資源117を用いて起こしたアクションに、来訪者が気付く確率を示す情報である。「サービス終了時に気付く確率」は、来訪者に対してロボット資源117を用いて起こしていたアクションを終了した場合に、来訪者が気付く確率を示す情報である。「開始時刻」は、来訪者空間テーブル123aの生成開始時刻を示す情報である。「終了時刻」は、来訪者空間テーブル123aの生成終了時刻を示す情報である。
The "user ID" is an identifier for identifying a visitor (user). The "user sense" is information for identifying a sense such as a visitor's eye or ear. “Robot resource” is information such as a
「感覚器近傍ブロックID」は、ユーザ感覚器の近傍に存在する各ブロックを識別する識別子である。「端点座標値」は、ブロックの各端点のサービス提供空間20における座標値を示す情報である。「ロボット資源が示す視差」は、例えば、腕を振る動作を行った場合における腕の動く範囲に対応する視差を示す情報である。なお、視差の単位はラジアン(rad)を用いることができる。「開始に気付く確率」は、各ブロックにおいて、来訪者に対してロボット資源117を用いて起こしたアクションに、来訪者が気付く確率を示す情報である。「終了に気付く確率」は、各ブロックにおいて、来訪者に対してロボット資源117を用いて起こしていたアクションを終了した場合に、来訪者が気付く確率を示す情報である。
“Sensor proximity block ID” is an identifier for identifying each block present in the vicinity of the user sensation. The “end point coordinate value” is information indicating a coordinate value in the
なお、来訪者空間テーブル123bは、来訪者空間テーブル123aと比較して、「ロボット資源」が「音声」となり、「ロボット資源が示す視差」が「ロボット資源が示す音圧レベル」となるが、その他の項目については同様であるので説明を省略する。 In the visitor space table 123b, "robot resources" is "voice" and "disparity indicated by robot resources" is "sound pressure level indicated by robot resources" compared to the visitor space table 123a. The other items are the same, so the description will be omitted.
ここで、図8を用いて来訪者への働きかけが気付かれる範囲、すなわち、来訪者空間テーブル123aおよび来訪者空間テーブル123bの「感覚器近傍ブロックID」に対応する範囲について説明する。図8は、来訪者への働きかけが気付かれる範囲の一例を示す図である。図8に示すように、来訪者Aの視野に含まれる各ブロックは、眼に対応する来訪者空間テーブル123aの「感覚器近傍ブロックID」に設定される。また、来訪者Aの可聴範囲に含まれる各ブロックは、耳に対応する来訪者空間テーブル123bの「感覚器近傍ブロックID」に設定される。これにより、来訪者空間情報記憶部123には、来訪者の感覚器ごとに気付かれる範囲を設定することができる。
Here, the range in which the approach to the visitor is noticed using FIG. 8, that is, the range corresponding to the “visitor space table 123a” and the “sensor near block ID” of the visitor space table 123b will be described. FIG. 8 is a diagram showing an example of a range in which the approach to the visitor is noticed. As shown in FIG. 8, each block included in the field of view of the visitor A is set to the “sensor near block ID” of the visitor space table 123 a corresponding to the eye. In addition, each block included in the audible range of the visitor A is set to the “sensor near block ID” of the visitor space table 123 b corresponding to the ear. As a result, in the visitor space
図2の説明に戻って、資源活用情報記憶部124は、ロボット資源117を各来訪者にどの様に配分するかの情報を記憶する。図9から図13は、資源活用情報記憶部の一例を示す図である。資源活用情報記憶部124は、例えば、複数の来訪者の状況に応じたロボット資源117(接客資源)の配分を示す資源活用テーブル124a〜124eを有する。なお、以下の説明では、簡単のために来訪者はAとBの2人の場合について説明するが、これに限定されず、資源活用情報記憶部124は、3人以上の来訪者に対応するようにしてもよい。また、資源活用情報記憶部124の各資源活用テーブル124a等は、来訪者に応じて、動的に配分が算出されるようにしてもよい。なお、以下の説明では、資源活用テーブル124aを一例として項目を説明し、接客ロボット100の右側に来訪者A、左側に来訪者Bが居るものとする。
Returning to the explanation of FIG. 2, the resource utilization information storage unit 124 stores information on how to allocate the
図9に示すように、資源活用テーブル124aは、「状況」、「ロボット資源」、「現状の配分」、「単位」、各アクションに対応する来訪者AまたはBが気付く確率「(1)」〜「(4)」といった項目を有する。また、資源活用テーブル124aは、「B向けに変更する場合の効用を示す値」、「資源割り当ての見直し後の配分」といった項目を有する。 As shown in FIG. 9, the resource utilization table 124 a includes “condition”, “robot resource”, “allocation of current status”, “unit”, and probability that the visitor A or B corresponding to each action notices “(1)”. ~ Have an item such as "(4)". Also, the resource utilization table 124 a has items such as “value indicating the utility when changing to B” and “allocation after review of resource allocation”.
「状況」は、来訪者AとBの状況を示す情報である。また、「状況」は、配分を変更する状況を示す情報も含む。資源活用テーブル124aの例では、先行者である来訪者Aは、例えば図1に示すスクリーン23のみに関心があり、後から訪れた来訪者Bは、接客ロボット100を凝視している状況である。資源活用テーブル124aは、この状況において、来訪者Aが先行サービス受益者で(来訪者Aは接客ロボット100から目を離してほとんどスクリーン23を見ていて)、後から現れた来訪者Bにロボット資源117の付け替えを検討する場合である。
"Situation" is information indicating the situations of the visitors A and B. Also, "status" includes information indicating the status of changing the allocation. In the example of the resource utilization table 124a, the visitor A who is the predecessor is interested in only the
「ロボット資源」は、来訪者に対して接客ロボット100がアクションを起こす際に用いるロボット資源117を示す情報である。「現状の配分」は、ロボット資源117の現状の配分を示す情報である。図9の例では、ロボット資源117のうち、頭部111〜対話部115は来訪者Aに配分され、表示部116は、来訪者A,Bいずれにも配分されていないことを示す。「単位」は、ロボット資源117の各資源を配分する場合における単位である。
The “robot resource” is information indicating the
「(1)」は、ロボット資源117の各資源が来訪者A向けのアクションを開始し、来訪者Aが便益を受ける場合、つまり、接客ロボット100が来訪者A向けアクションを開始して(右側に居る)来訪者Aが気付く確率を示す。「(2)」は、ロボット資源117の各資源が既存の来訪者A向けのアクションを停止し、来訪者Aが阻害を受ける場合、つまり、接客ロボット100が既存の来訪者A向けアクションを停止して(右側に居る)来訪者Aが気付く確率を示す。「(3)」は、ロボット資源117の各資源が新規の来訪者B向けのアクションを開始し、来訪者Bが便益を受ける場合、つまり、接客ロボット100が新規の来訪者B向けアクションを開始して(左側に居る)来訪者Bが気付く確率を示す。「(4)」は、ロボット資源117の各資源が新規の来訪者B向けのアクションを開始し、来訪者Aが阻害を受ける場合、つまり、接客ロボット100が新規の来訪者B向けアクションを開始して(右側に居る)来訪者Aが気付く確率を示す。
In “(1)”, when each resource of the
「B向けに変更する場合の効用を示す値」は、例えば、正の値であれば、ロボット資源117の配分を来訪者Bに変更することで、接客ロボット100がアクションを起こす効用が期待される場合を示す。負の値であれば、ロボット資源117の配分を来訪者Bに変更しない方が、来訪者A,Bの接客対応の満足度の低下を抑制できる場合を示す。すなわち、「B向けに変更する場合の効用を示す値」は、正の値であれば、ロボット資源117の配分を来訪者Bに変更し、負の値であれば、ロボット資源117の配分を来訪者Aのままとする。「B向けに変更する場合の効用を示す値」は、例えば、各アクションに対応する来訪者AまたはBが気付く確率「(1)」〜「(4)」に基づいて算出できる。ロボット資源117の頭部111〜対話部115は、「(3)−(2)−(4)」で「B向けに変更する場合の効用を示す値」を算出できる。ロボット資源117の表示部116は、「現状の配分」で来訪者A,Bのいずれにも配分されていないので、「(3)−(1)−(4)」で「B向けに変更する場合の効用を示す値」を算出できる。
For example, if the “value indicating the effect of changing to B” is a positive value, changing the distribution of the
「資源割り当ての見直し後の配分」は、「B向けに変更する場合の効用を示す値」に基づいて、ロボット資源117の各資源を来訪者A,Bのいずれかに配分した値を示す。図9の例では、ロボット資源117の各資源は、全て来訪者Bに配分されている。すなわち、図9の例では、来訪者Aが接客ロボット100に無関心なので、ロボット資源117の全部の資源を来訪者Bに割り当てることができる。
“Distribution after review of resource allocation” indicates a value in which each resource of the
図10に示す資源活用テーブル124bは、「状況」が、先行者である来訪者Aは、接客ロボット100にも関心を持ちつつスクリーン23にも関心を示す状況である。資源活用テーブル124bは、この状況において、来訪者Aが先行サービス受益者で(接客ロボット100とスクリーン23とを半々くらいに見ていて)、後から現れた来訪者Bにロボット資源117の付け替えを検討する場合である。資源活用テーブル124bでは、「現状の配分」は、ロボット資源117が全て来訪者Aに配分されている。資源活用テーブル124bでは、資源活用テーブル124aと同様に「B向けに変更する場合の効用を示す値」を算出すると、左腕部114が正の値で残りが負の値となる。従って、資源活用テーブル124bでは、資源割り当ての見直し後の配分は、左腕部114が来訪者Aから来訪者Bに配分が変更される。すなわち、図10の例では、来訪者Aが接客ロボット100にも関心を残しているため、来訪者Bに割り当てられるロボット資源117の資源は左腕部114のみとなる。
In the resource utilization table 124b shown in FIG. 10, the "status" indicates that the visitor A who is the predecessor has an interest in the
図11に示す資源活用テーブル124cは、「状況」が、先行者である来訪者Aは、接客ロボット100をほとんど占有している状況である。資源活用テーブル124cは、この状況において、来訪者Aが先行サービス受益者で(接客ロボット100をほとんど占有していて)、後から現れた来訪者Bにロボット資源117の付け替えを検討する場合である。資源活用テーブル124cでは、「現状の配分」は、ロボット資源117が全て来訪者Aに配分されている。資源活用テーブル124cでは、資源活用テーブル124aと同様に「B向けに変更する場合の効用を示す値」を算出すると、ロボット資源117の全ての資源が負の値となる。従って、資源活用テーブル124cでは、資源割り当ての見直し後の配分は、ロボット資源117の全ての資源が来訪者Aに配分されたままとなり、来訪者Bに配分されるロボット資源117はないことになる。すなわち、図11の例では、来訪者Aが接客ロボット100を占有しているため、来訪者Bに割り当てられるロボット資源117の資源はない状態となる。
The resource utilization table 124c illustrated in FIG. 11 is a state in which the “status” is such that the visitor A who is the predecessor occupies most of the
図12に示す資源活用テーブル124dは、「状況」が、来訪者Aが先行者ではなく、来訪者Aも来訪者Bも同時に接客ロボット100にアクセスする状況である。資源活用テーブル124dは、この状況において、来訪者Aも来訪者Bも同時に現れて、ロボット資源117をどちらに割り当てるかを検討する場合である。資源活用テーブル124dでは、「現状の配分」は、ロボット資源117が来訪者A,Bのいずれにも配分されていない。資源活用テーブル124dでは、各アクションに対応する来訪者AまたはBが気付く確率「(1)」〜「(4)」のうち、「(2)」〜「(4)」が資源活用テーブル124aと異なる。
In the resource utilization table 124 d shown in FIG. 12, the “condition” is a situation where the visitor A is not the predecessor and both the visitor A and the visitor B simultaneously access the
「(2)」は、ロボット資源117の各資源が来訪者A向けのアクションを開始し、来訪者Bが阻害を受ける場合、つまり、接客ロボット100が来訪者A向けアクションを開始して(左側に居る)来訪者Bが気付く確率を示す。「(3)」は、ロボット資源117の各資源が来訪者B向けのアクションを開始し、来訪者Bが便益を受ける場合、つまり、接客ロボット100が来訪者B向けアクションを開始して(左側に居る)来訪者Bが気付く確率を示す。「(4)」は、ロボット資源117の各資源が来訪者B向けのアクションを開始し、来訪者Aが阻害を受ける場合、つまり、接客ロボット100が来訪者B向けアクションを開始して(右側に居る)来訪者Aが気付く確率を示す。
In “(2)”, when each resource of the
「A向けを基準とした場合の効用を示す値」は、例えば、正の値であれば、ロボット資源117の配分を来訪者Aに変更することで、接客ロボット100がアクションを起こす効用が期待される場合を示す。負の値であれば、ロボット資源117の配分を来訪者Bに変更することで、接客ロボット100がアクションを起こす効用が期待される場合を示す。すなわち、「A向けを基準とした場合の効用を示す値」は、正の値であれば、ロボット資源117の配分を来訪者Aに変更し、負の値であれば、ロボット資源117の配分を来訪者Bに変更する。「A向けを基準とした場合の効用を示す値」は、上述の「B向けに変更する場合の効用を示す値」と同様に、例えば、各アクションに対応する来訪者AまたはBが気付く確率「(1)」〜「(4)」に基づいて算出できる。ロボット資源117の各資源は、「((1)−(2))−((3)−(4))」で「A向けを基準とした場合の効用を示す値」を算出できる。
For example, if “value indicating the utility based on A direction” is a positive value, the utility of the
「資源割り当ての見直し後の配分」は、「A向けを基準とした場合の効用を示す値」に基づいて、ロボット資源117の各資源を来訪者A,Bのいずれかに配分した値を示す。
“Distribution after review of resource allocation” indicates a value obtained by allocating each resource of the
資源活用テーブル124dでは、「A向けを基準とした場合の効用を示す値」が算出されると、ロボット資源117の各資源のうち、頭部111および眼部112、右腕部113、ならびに、対話部115が正の値となり、来訪者Aに配分される。また、資源活用テーブル124dでは、左腕部114および表示部116が負の値となり、来訪者Bに配分される。すなわち、図12の例では、来訪者Aが先行者ではなく、来訪者A,Bが同時にサービスを受けるため、来訪者A,Bの位置や関心度に応じてロボット資源117の各資源の割り当てが変わる。図12の例では、来訪者Aが3つの資源、来訪者Bが2つの資源を割り当てられている。
In the resource utilization table 124 d, when “a value indicating the utility based on A direction” is calculated, the
図13に示す資源活用テーブル124eは、接客ロボット100が、例えばイルカロボットの様に、左右の眼を同時に別々に使用可能な場合における資源活用テーブルの例である。資源活用テーブル124eは、「状況」が、来訪者Aも来訪者Bも同時に接客ロボット100にアクセスし、接客ロボット100が左右の眼を同時に別々に使用する状況である。資源活用テーブル124eは、この状況において、来訪者Aと来訪者Bが左右から同時に現れ、接客ロボット100が最終的には胸の表示部116に誘導するが、それまでの間は同時並行接客である場合である。なお、資源活用テーブル124eでは、ロボット資源117の各資源うち、眼部112を右眼部と左眼部とに分割している。
The resource utilization table 124e shown in FIG. 13 is an example of a resource utilization table in a case where the customer-handling
資源活用テーブル124eでは、「現状の配分」は、ロボット資源117が来訪者A,Bのいずれにも配分されていない。資源活用テーブル124eでは、資源活用テーブル124dと同様に「A向けを基準とした場合の効用を示す値」が算出されると、頭部111、対話部115および表示部116はゼロとなり、これらの資源は来訪者A,Bいずれにも配分されない。右眼部および右腕部113は、正の値となり、来訪者Aに配分される。また、左眼部および左腕部114は、負の値となり、来訪者Bに配分される。すなわち、図13の例では、来訪者Aが先行者ではなく、来訪者A,Bが同時にサービスを受けるため、来訪者A,Bの位置や関心度に応じてロボット資源117の各資源の割り当てが変わる。図13の例では、来訪者A,Bに対して左右対称にロボット資源117の各資源が割り当てられる。
In the resource utilization table 124e, in the “current allocation”, the
図2の説明に戻って、サービスシナリオ記憶部125は、接客ロボット100が提供するサービスのシナリオに応じた動作等を記憶する。図14は、サービスシナリオ記憶部の一例を示す図である。図14に示すように、サービスシナリオ記憶部125は、「フェーズ」、「サービス展開空間」、「発話」、「動作(標準)」といった項目を有する。サービスシナリオ記憶部125は、例えば、フェーズごとに1レコードとして記憶する。
Returning to the explanation of FIG. 2, the service
「フェーズ」は、サービスのシナリオの局面を示す情報である。「サービス展開空間」は、接客ロボット100が当該フェーズにてサービスを提供する空間を示す情報である。「発話」は、接客ロボット100が当該フェーズにて発話する内容を示す情報である。なお、フェーズが「コア価値の提供」である場合には、発話内容はコア価値のコンテンツに応じた内容となるため、図14では大項目の一例を表している。「動作(標準)」は、接客ロボット100が当該フェーズにて頭部111、右腕部113および左腕部114等を動作させる標準的な内容を示す情報である。なお、フェーズによっては接客ロボット100の動きがない場合があり、例えば発話のみである場合には動作としての内容を省略している。
The “phase” is information indicating a service scenario aspect. The “service development space” is information indicating a space where the
図2の説明に戻って、制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。
Returning to the explanation of FIG. 2, the
制御部130は、検出部131と、特定部132と、判定部133と、情報提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
The
検出部131は、まず、初期設定として、接客ロボット100が接客を行うためのサービス提供空間20を設定する。つまり、検出部131は、サービス提供空間20の座標系およびブロック群を設定する。次に、検出部131は、サービス提供空間20に配置されたテーブル21、壁22およびスクリーン23等の遮蔽物について、サービス提供空間20の遮蔽情報を設定する。
The
検出部131は、通信部110を介して、例えばブース内に設置された外部センサ10からセンサ情報を取得する。検出部131は、取得したセンサ情報に基づいて、来訪者を検出する。すなわち、検出部131は、取得したセンサ情報に基づいて、サービス提供空間20に来訪者がいるか否かを判定する。検出部131は、サービス提供空間20に来訪者がいないと判定した場合には、引き続き、取得したセンサ情報に基づいて、サービス提供空間20に来訪者がいるか否かの判定を行う。
The
検出部131は、サービス提供空間20に来訪者がいると判定した場合には、来訪者が複数であるか否かを判定する。検出部131は、来訪者が複数でない場合には、情報提供部134に来訪者が単独である旨の来訪者情報を出力する。検出部131は、来訪者が複数である場合には、センサ情報のうち、来訪者が撮像されている撮像画像と、来訪者数Nとを含む特定指示を特定部132に出力する。また、検出部131は、来訪者が複数である場合には、音声、撮像画像および来訪者数Nを含む検出情報を判定部133に出力する。言い換えると、検出部131は、センサ情報に基づいて、第1の来訪者と第2の来訪者とを検出する。
If the
特定部132は、検出部131から特定指示が入力されると、関心空間特定処理を実行する。まず、特定部132は、関心空間特定処理を開始すると、複数の来訪者を識別するための変数iを、例えばi=1と初期化する。特定部132は、特定指示に基づいて、サービス提供空間20内の来訪者数Nを検出する。特定部132は、来訪者数Nを検出すると、N人分の関心空間テーブルを生成する。特定部132は、関心空間テーブルの生成開始時刻を、当該関心空間テーブルに記憶する。なお、N人分の関心空間テーブルは、{(N×ブロック数×フラグ種類数)+(N×テーブル種別判断用フラグ)}といった式で表すことができる。
When the specifying unit 132 receives a specifying instruction from the detecting
特定部132は、未処理の来訪者がいるか否かを判定する。特定部132は、未処理の来訪者がいると判定した場合には、来訪者iを特定対象に設定する。特定部132は、来訪者iに対する特定処理を実行する。 The identifying unit 132 determines whether or not there is an unprocessed visitor. When it is determined that there is an unprocessed visitor, the identifying unit 132 sets the visitor i as an identification target. The identifying unit 132 executes a identifying process for the visitor i.
特定部132は、特定処理を開始すると、まず、特定指示に含まれる撮像画像に基づいて、来訪者iの位置、頭部の向きおよび視線を取得する。なお、特定部132は、特定指示に含まれるレーダー、歪みゲージ、音声定位マイク等の情報に基づいて、来訪者iの位置、頭部の向きおよび視線を取得するようにしてもよい。特定部132は、来訪者iの位置、頭部の向きおよび視線を取得すると、第1推定処理を実行する。 When the identification unit 132 starts the identification process, first, the position of the visitor i, the head orientation, and the line of sight are acquired based on the captured image included in the identification instruction. The specifying unit 132 may acquire the position of the visitor i, the direction of the head, and the line of sight based on the information such as the radar, the strain gauge, and the sound localization microphone included in the specifying instruction. When acquiring the position of the visitor i, the direction of the head, and the line of sight, the identifying unit 132 executes a first estimation process.
特定部132は、第1推定処理を開始すると、来訪者iの位置、頭部の向きまたは視線の方向ベクトルが同じ方向で静止しているか否かを判定する。特定部132は、方向ベクトルが同じ方向で静止していないと判定した場合には、関心空間非特定として特定処理を終了し、関心空間特定処理へ戻る。特定部132は、方向ベクトルが同じ方向で静止していると判定した場合には、来訪者iの静止している位置、頭部の向きおよび視線の方向ベクトルに基づいて、関心空間情報記憶部122の関心空間テーブルの対応するブロック群に関心フラグ値を加算する。関心フラグ値を加算するブロック群は、例えば、来訪者iの位置の方向ベクトルの前方160度、頭部の方向ベクトルの前方160度の円周、眼球(視線)の方向ベクトルに基づく視野方向等が挙げられる。なお、以下の説明では、関心フラグ値の加算は、関心空間情報記憶部122の関心空間テーブルに行うものとする。また、特定部132は、静止時間の信頼性の指標値、例えば、平均値、偏差値等を関心空間テーブルに記憶するようにしてもよい。
When the identification unit 132 starts the first estimation process, it determines whether the position of the visitor i, the head orientation or the direction vector of the sight line is stationary in the same direction. When it is determined that the direction vector is not stationary in the same direction, the identification unit 132 ends the identification processing as non-interest space identification, and returns to the interest space identification processing. If the identification unit 132 determines that the direction vector is stationary in the same direction, the spatial information storage unit for interest is based on the stationary position of the visitor i, the head direction, and the direction vector of the sight line. An interest flag value is added to the corresponding blocks of the 122 interest space table. The block group to which the interest flag value is added is, for example, a circumference of 160 degrees ahead of the direction vector of the position of the visitor i, a circumference of 160 degrees ahead of the direction vector of the head, a viewing direction based on the direction vector of the eye Can be mentioned. In the following description, the addition of the interest flag value is performed on the interest space table of the interest space
特定部132は、方向ベクトルに基づいて関心フラグ値を加算すると、サービス提供空間記憶部121を参照し、各方向ベクトルの延長線上に関心対象候補があるか否かを判定する。特定部132は、各方向ベクトルの延長線上に関心対象候補がないと判定した場合には、関心対象非特定として特定処理を終了し、関心空間特定処理へ戻る。特定部132は、各方向ベクトルの延長線上に関心対象候補があると判定した場合には、来訪者iの視野角ベクトル空間と、関心対象候補の外縁に基づく空間とのうち、小さい方の空間内のブロック群に関心フラグ値を加算する。なお、特定部132は、関心対象候補の近傍ブロック群の関心フラグ値を重点的に加算するようにしてもよい。また、特定部132は、関心対象候補の近傍のブロック群に関心フラグ値を加算し、第1推定処理を終了して特定処理に戻る。 When the specifying unit 132 adds the interest flag value based on the direction vector, the specifying unit 132 refers to the service provision space storage unit 121 and determines whether there is a candidate of interest on the extension of each direction vector. If the identification unit 132 determines that there is no candidate of interest on the extension of each direction vector, the identification unit 132 ends the identification processing as non-interest identification, and returns to the interest space identification processing. If the identification unit 132 determines that there is a candidate of interest on the extension of each direction vector, the smaller one of the view angle vector space of the visitor i and the space based on the outer edge of the candidate of interest Add the interest flag value to the blocks in The identifying unit 132 may add the interest flag values of the neighboring block group of the interest target candidate on a priority basis. Further, the identifying unit 132 adds the interest flag value to a block group in the vicinity of the interest target candidate, ends the first estimation processing, and returns to the identification processing.
特定部132は、第1推定処理が終了すると、例えば、外部センサ10や情報提供部134から、関心対象候補の情報提示、動作および対話等のタイミングと、来訪者iの動作情報とを取得する。すなわち、特定部132は、関心対象候補および来訪者iの動作情報を取得する。特定部132は、関心対象候補および来訪者iの動作情報を取得すると、第2推定処理を実行する。
When the first estimation process ends, the identifying unit 132 acquires, for example, the timing of information presentation, an operation, a dialogue, and the like of an object of interest candidate from the
特定部132は、第2推定処理を開始すると、取得した動作情報に基づいて、来訪者iの反応動作タイミングが関心対象候補からの働きかけタイミングと合っているか否かを判定する。特定部132は、来訪者iの反応動作タイミングが関心対象候補からの働きかけタイミングと合っている場合には、関心対象候補の近傍のブロック群に関心フラグ値を加算する。特定部132は、来訪者iの反応動作タイミングが関心対象候補からの働きかけタイミングと合っていない場合には、関心フラグ値を加算せずに次の処理に進む。 When the second estimation process is started, the identifying unit 132 determines, based on the acquired motion information, whether the reaction operation timing of the visitor i matches the operation timing from the interest target candidate. The identifying unit 132 adds the interest flag value to the block group in the vicinity of the candidate of interest, when the reaction operation timing of the visitor i matches the timing of action from the candidate of interest. The identifying unit 132 proceeds to the next process without adding the interest flag value when the reaction operation timing of the visitor i does not match the action timing from the interest target candidate.
特定部132は、取得した動作情報に基づいて、来訪者iの反応動作内容が関心対象候補からの働きかけ内容と合っているか否かを判定する。特定部132は、来訪者iの反応動作内容が関心対象候補からの働きかけ内容と合っている場合には、関心対象候補の近傍のブロック群に関心フラグ値を加算する。特定部132は、来訪者iの反応動作内容が関心対象候補からの働きかけ内容と合っていない場合には、関心フラグ値を加算せずに次の処理に進む。 The identifying unit 132 determines, based on the acquired motion information, whether or not the reaction content of the visitor i matches the content of the action from the candidate of interest. The identifying unit 132 adds the interest flag value to a block group in the vicinity of the candidate of interest when the reaction action content of the visitor i matches the content of the action from the candidate of interest. The identifying unit 132 proceeds to the next process without adding the interest flag value when the reaction action content of the visitor i does not match the action content from the interest object candidate.
特定部132は、例えば、情報提供部134から、関心対象候補の情報提示ログと、来訪者iの操作ログとを取得する。なお、特定部132は、通信部110を介して、外部センサ10や他の情報処理装置から情報提示ログと、操作ログとを取得するようにしてもよい。特定部132は、取得した情報提示ログと操作ログとに基づいて、来訪者iの操作タイミングが関心対象候補からの情報提示タイミングと合っているか否かを判定する。特定部132は、来訪者iの操作タイミングが関心対象候補からの情報提示タイミングと合っている場合には、関心対象候補の近傍のブロック群に関心フラグ値を加算する。特定部132は、来訪者iの操作タイミングが関心対象候補からの情報提示タイミングと合っていない場合には、関心フラグ値を加算せずに次の処理に進む。
For example, the identifying unit 132 acquires, from the information providing unit 134, the information presentation log of the object of interest candidate and the operation log of the visitor i. The identifying unit 132 may acquire the information presentation log and the operation log from the
特定部132は、取得した情報提示ログと操作ログとに基づいて、来訪者iの操作内容が関心対象候補からの情報提示内容と合っているか否かを判定する。特定部132は、来訪者iの操作内容が関心対象候補からの情報提示内容と合っている場合には、関心対象候補の近傍のブロック群に関心フラグ値を加算して元の処理に戻る。特定部132は、来訪者iの操作内容が関心対象候補からの情報提示内容と合っていない場合には、関心フラグ値を加算せずに元の処理に戻る。 The identifying unit 132 determines, based on the acquired information presentation log and the operation log, whether the operation content of the visitor i matches the information presentation content from the interest target candidate. When the operation content of the visitor i matches the information presentation content from the interest object candidate, the identification unit 132 adds the interest flag value to the block group in the vicinity of the interest object candidate, and returns to the original processing. If the operation content of the visitor i does not match the information presentation content from the interest target candidate, the identification unit 132 returns to the original processing without adding the interest flag value.
特定部132は、第2推定処理が終了すると、例えば、情報提供部134から、関心対象候補および来訪者iの対話情報を取得する。特定部132は、関心対象候補および来訪者iの対話情報を取得すると、第3推定処理を実行する。 When the second estimation process ends, the identifying unit 132 acquires, for example, interaction information of the candidate of interest and the visitor i from the information providing unit 134. When acquiring the dialogue information of the candidate of interest and the visitor i, the identifying unit 132 executes the third estimation process.
特定部132は、第3推定処理を開始すると、取得した対話情報に基づいて、来訪者iの対話タイミングが関心対象候補からの対話タイミングと合っているか否かを判定する。特定部132は、来訪者iの対話タイミングが関心対象候補からの対話タイミングと合っている場合には、関心対象候補の近傍のブロック群に関心フラグ値を加算する。特定部132は、来訪者iの対話タイミングが関心対象候補からの対話タイミングと合っていない場合には、関心フラグ値を加算せずに次の処理に進む。 When the identification unit 132 starts the third estimation process, it determines whether the dialog timing of the visitor i matches the dialog timing from the interest target candidate based on the acquired dialog information. The identifying unit 132 adds the interest flag value to blocks near the candidate of interest when the interaction timing of the visitor i matches the timing of interaction from the candidate of interest. If the dialogue timing of the visitor i does not match the dialogue timing from the candidate of interest, the identifying unit 132 proceeds to the next process without adding the interest flag value.
特定部132は、取得した対話情報に基づいて、来訪者iの対話情報が関心対象候補からの対話情報と合っているか否かを判定する。特定部132は、来訪者iの対話情報が関心対象候補からの対話情報と合っている場合には、関心対象候補の近傍のブロック群に関心フラグ値を加算して元の処理に戻る。特定部132は、来訪者iの対話情報が関心対象候補からの対話情報と合っていない場合には、関心フラグ値を加算せずに元の処理に戻る。 The identifying unit 132 determines, based on the acquired dialogue information, whether the dialogue information of the visitor i matches the dialogue information from the candidate of interest. If the dialog information of the visitor i matches the dialog information from the candidate of interest, the identifying unit 132 adds the flag value of interest to blocks in the vicinity of the candidate of interest and returns to the original processing. If the dialog information of the visitor i does not match the dialog information from the candidate of interest, the identifying unit 132 returns to the original processing without adding the flag value of interest.
特定部132は、第3推定処理が終了すると、例えば、通信部110を介して外部センサ10から人物である関心対象候補および来訪者iの撮像画像と音声情報とを取得する。すなわち、特定部132は、人物である関心対象候補および来訪者iの行動情報を取得する。特定部132は、人物である関心対象候補および来訪者iの行動情報を取得すると、第4推定処理を実行する。
When the third estimation process ends, the identifying unit 132 acquires, for example, from the
特定部132は、第4推定処理を開始すると、取得した行動情報に基づいて、来訪者iと、人物である関心対象候補との行動が、展示ブース等の所定空間内で、所定期間、例えば1分間継続して同調しているか否かを判定する。すなわち、特定部132は、来訪者iと、人物である関心対象候補とのインタラクション履歴(動作同調、発話交替同調、音声意味同調)が、一定期間、固定空間内で継続発生しているか否かを判定する。特定部132は、来訪者iと関心対象候補との行動が所定空間内で所定期間継続して同調していると判定した場合には、来訪者iと関心対象候補との間の空間のブロック群に関心フラグ値を加算して元の処理に戻る。特定部132は、来訪者iと関心対象候補との行動が所定空間内で所定期間継続して同調していないと判定した場合には、関心フラグ値を加算せずに元の処理に戻る。 When the identification unit 132 starts the fourth estimation process, the behavior of the visitor i and the candidate of interest which is a person is, for example, for a predetermined period, in a predetermined space such as an exhibition booth, based on the acquired behavior information. It is determined whether or not tuning is continued for one minute continuously. In other words, the identifying unit 132 determines whether the interaction history (action tuning, speech alternation tuning, voice meaning tuning) of the visitor i with the candidate of interest which is a person continues to occur in the fixed space for a certain period. Determine If the identifying unit 132 determines that the behavior of the visitor i and the candidate of interest is continuously synchronized in the predetermined space for a predetermined period, the block of the space between the visitor i and the candidate of interest Add interest flag value to group and return to original processing. If the identification unit 132 determines that the behavior of the visitor i and the candidate of interest is not synchronized in a predetermined space continuously for a predetermined period, the process returns to the original processing without adding the interest flag value.
特定部132は、第4推定処理が終了すると、例えば、関心対象候補が接客ロボット100である場合に、ロボット資源117の各資源から接触情報を取得する。すなわち、特定部132は、関心対象候補への接触情報(接触部位および接触継続時間を含む。)を取得する。特定部132は、関心対象候補への接触情報を取得すると、第5推定処理を実行する。
When the fourth estimation process ends, for example, when the interest target candidate is the
特定部132は、第5推定処理を開始すると、取得した接触情報に基づいて、来訪者iと関心対象候補との接触が所定期間継続しているか否かを判定する。特定部132は、来訪者iと関心対象候補との接触が所定期間継続していると判定した場合には、関心対象候補の接触部位の近傍のブロック群に関心フラグ値を加算して元の処理に戻る。特定部132は、来訪者iと関心対象候補との接触が所定期間継続していないと判定した場合には、関心フラグ値を加算せずに元の処理に戻る。 When the identifying unit 132 starts the fifth estimation process, the identifying unit 132 determines whether the contact between the visitor i and the candidate of interest continues for a predetermined period, based on the acquired contact information. When it is determined that the contact between the visitor i and the candidate of interest continues for a predetermined period, the identifying unit 132 adds the flag value of interest to the group of blocks in the vicinity of the contact portion of the candidate of interest and Return to processing. When it is determined that the contact between the visitor i and the candidate of interest does not continue for a predetermined period, the identifying unit 132 returns to the original process without adding the interest flag value.
特定部132は、第5推定処理が終了すると、関心空間情報記憶部122の関心空間テーブルの各ブロックについて、関心フラグ値が閾値以上のブロックに関心空間フラグを設定する。なお、閾値は、例えば「6」以上とすることができる。特定部132は、関心空間フラグの設定が完了すると、特定処理を終了して関心空間特定処理に戻る。
When the fifth estimation process ends, the identification unit 132 sets an interest space flag for each block in the interest space table of the interest space
特定部132は、特定処理が終了すると、来訪者を特定するための変数iをインクリメントし、未処理の来訪者がいるか否かの判定に戻る。特定部132は、未処理の来訪者がいないと判定した場合には、関心空間テーブルの生成終了時刻を、当該関心空間テーブルに記憶して、関心空間特定処理を終了する。特定部132は、関心空間特定処理を終了すると、判定部133に算出指示を出力する。 When the identification processing ends, the identification unit 132 increments a variable i for identifying a visitor, and returns to the determination of whether or not there is an unprocessed visitor. When it is determined that there is no unprocessed visitor, the identification unit 132 stores the generation end time of the interest space table in the interest space table, and ends the interest space identification process. When the identification unit 132 ends the interest space identification process, the identification unit 132 outputs a calculation instruction to the determination unit 133.
言い換えると、特定部132は、センサ情報に含まれる第1の来訪者と第2の来訪者とが撮像されている撮像画像に基づき、第1の来訪者と第2の来訪者とのそれぞれの関心領域(関心空間)を特定する。または、特定部132は、センサ情報に含まれるセンサにより検出された第1の来訪者の特定のいずれかの部位の向きおよび第2の来訪者のいずれかの部位の向きに基づき、第1の来訪者と第2の来訪者とのそれぞれの関心領域(関心空間)を特定する。 In other words, the identifying unit 132 determines each of the first visitor and the second visitor based on the captured image in which the first visitor and the second visitor included in the sensor information are imaged. Identify a region of interest (space of interest). Alternatively, the identifying unit 132 may be configured to set the first visitor based on the orientation of any one of the first visitor's particular sites detected by the sensor included in the sensor information and the orientation of any one of the second visitors. Identify the region of interest (space of interest) of the visitor and the second visitor.
判定部133には、検出部131から検出情報が入力される。判定部133は、特定部132から算出指示が入力されると、資源活用係数算出処理を実行する。
Detection information is input to the determination unit 133 from the
判定部133は、資源活用係数算出処理を開始すると、検出情報に基づいて、サービス提供空間20内の来訪者数Nを検出する。判定部133は、検出した来訪者数Nに基づいて、N人分の来訪者空間テーブルを来訪者空間情報記憶部123に生成する。なお、判定部133は、1人分の来訪者空間テーブルとして、ロボット資源117の資源の数である接客資源数Mの数に応じたテーブルを生成する。また、判定部133は、1つの資源に対応する来訪者の感覚器の数が複数ある場合には、感覚器の数に応じたテーブルを生成するようにしてもよい。来訪者空間テーブルのサイズは、例えば、来訪者数N人×接客資源数M個×{Σ(感覚器官数K個×感覚器官近傍ブロックL個)}といった式で表すことができる。また、来訪者空間テーブルごとの代表値の個数は、例えば、{来訪者数N人×接客資源数M個×感覚器官数K個}といった式で表すことができる。さらに、判定部133は、来訪者空間テーブルの生成開始時刻を、当該来訪者空間テーブルに記憶する。
When the resource utilization coefficient calculation process is started, the determination unit 133 detects the number N of visitors in the
判定部133は、未処理の来訪者がいるか否かを判定する。判定部133は、未処理の来訪者がいると判定した場合には、来訪者iを算出対象に設定する。判定部133は、来訪者iに対する算出処理を実行する。 The determination unit 133 determines whether there is an unprocessed visitor. When it is determined that there is an unprocessed visitor, the determination unit 133 sets the visitor i as a calculation target. The determination unit 133 executes a calculation process for the visitor i.
判定部133は、算出処理を開始すると、まず、検出情報に含まれる撮像画像に基づいて、来訪者iの眼および耳の位置を取得する。なお、判定部133は、検出情報に含まれるレーダー、歪みゲージ、音声定位マイク等の情報に基づいて、来訪者iの眼および耳の位置を取得するようにしてもよい。判定部133は、取得した眼および耳の位置に基づいて、関心空間情報記憶部122を参照し、来訪者iの関心空間を取得する。判定部133は、取得した来訪者iの関心空間に基づいて、来訪者iの周辺空間における視差および音圧レベルを推定する。すなわち、判定部133は、接客ロボット100と来訪者iとの位置関係に基づいて、来訪者iの可視性および可聴性を推定する。ここで、判定部133は、来訪者iの関心空間が特定できている場合、来訪者iの視野および頭部の方向を固定して、視差および音圧レベルを推定する。判定部133は、来訪者iの関心空間が特定できていない場合、来訪者iの視野を頭部前方に旋回可能、つまり空間を広げて、視差および音圧レベルを推定する。判定部133は、推定した来訪者iの周辺空間における視差および音圧レベルを、来訪者空間情報記憶部123の各来訪者空間テーブルに、ブロックごとに記憶する。
When the calculation process is started, the determination unit 133 first acquires the positions of the eyes and ears of the visitor i based on the captured image included in the detection information. The determination unit 133 may acquire the positions of the eyes and ears of the visitor i based on the information such as the radar, the strain gauge, and the voice localization microphone included in the detection information. The determination unit 133 refers to the space-of-interest
判定部133は、サービス提供空間記憶部121、および、予め設定されたロボット資源117の各接客資源の可動範囲の情報を参照し、各接客資源の動作空間を算出する。判定部133は、算出した各接客資源の動作空間と、来訪者iに対応する来訪者空間テーブルとに基づいて、来訪者iの眼の位置における各接客資源の動作空間での動作による視差を算出する。
The determination unit 133 refers to the service providing space storage unit 121 and information on the movable range of each customer service resource of the
判定部133は、予め設定されたロボット資源117の各接客資源の音源の情報を参照し、各接客資源が出す音の音圧レベル(dB)を算出する。判定部133は、算出した音圧レベルと、来訪者iに対応する来訪者空間テーブルとに基づいて、来訪者iの耳の位置における各接客資源の音の音圧レベルを算出する。
The determination unit 133 refers to the information of the sound source of each customer service resource of the
判定部133は、算出した来訪者iの眼および耳の位置に対応する視差および音圧レベルと、推定した来訪者iの周辺空間における視差および音圧レベルとを比較して、来訪者iが各接客資源の動作および音に対して、気付く確率および気付かない確率を算出する。判定部133は、算出結果、つまり、来訪者iの眼および耳の位置に対応する視差および音圧レベルと、各接客資源の動作および音に対して気付く確率および気付かない確率とを、来訪者iに対応する来訪者空間テーブルに記憶して元の処理に戻る。 The determination unit 133 compares the parallax and sound pressure level corresponding to the calculated position of the eye and ear of the visitor i with the parallax and sound pressure level in the surrounding space of the visitor i estimated, and the visitor i The probability of noticing and the probability of noticing are calculated for the operation and sound of each customer service resource. The determination unit 133 determines whether the calculation result, that is, the parallax and sound pressure level corresponding to the positions of the eyes and ears of the visitor i, the probability of noticing the operation and sound of each customer service resource, and the probability of not being noticed It stores in the visitor space table corresponding to i and returns to the original processing.
判定部133は、算出処理が終了すると、来訪者を特定するための変数iをインクリメントし、未処理の来訪者がいるか否かの判定に戻る。判定部133は、未処理の来訪者がいないと判定した場合には、来訪者空間テーブルの生成終了時刻を、当該来訪者空間テーブルに記憶する。判定部133は、対象となる来訪者全ての来訪者空間テーブルを参照し、資源活用情報記憶部124の資源活用テーブルを生成して元の処理に戻る。なお、生成する資源活用テーブルは、ロボット資源117の接客資源(M個)を基準に、来訪者数(N人)への影響を記載した係数表(M×N)を含むものとなる。資源活用テーブルは、例えば、図9から図13に示すように、複数の来訪者の状況に応じたテーブルとなる。なお、本実施例では、資源活用テーブルは、来訪者の視覚と聴覚とに働きかける資源について説明したが、これに限定されない。例えば、資源活用テーブルに、匂いに対応するための嗅覚、風等に対応するための触覚、味覚等の他の感覚器官への影響(到達係数)を含むようにしてもよい。
When the calculation process ends, the determination unit 133 increments a variable i for identifying a visitor, and returns to the determination of whether or not there is an unprocessed visitor. When it is determined that there is no unprocessed visitor, the determination unit 133 stores the generation end time of the visitor space table in the visitor space table. The determination unit 133 refers to the visitor space table of all the target visitors, generates the resource utilization table of the resource utilization information storage unit 124, and returns to the original processing. The resource utilization table to be generated includes a coefficient table (M × N) in which the influence on the number of visitors (N persons) is described based on the service resource (M) of the
判定部133は、資源活用係数算出処理が終了すると、資源配分処理を実行する。判定部133は、資源配分処理を開始すると、資源活用情報記憶部124を参照し、来訪者数Nおよび接客資源数Mに対応する資源活用テーブルを取得する。判定部133は、取得した資源活用テーブルに基づいて、一部の来訪者N1にサービス提供中であるか否かを判定する。すなわち、判定部133は、資源活用テーブルの「現状の配分」欄を参照して、一部の来訪者N1にサービス提供中であるか否かを判定する。判定部133は、一部の来訪者N1にサービス提供中でないと判定した場合には、来訪者数Nに対して接客資源数Mを配分する。判定部133は、当該配分では、N人に対して接客資源数Mの割り当てを算出するので、MのN乗通りの割り当てを算出する。判定部133は、資源活用テーブルの各資源について、例えば、効用を示す値の合計値が最も高い組み合わせの配分を採用する。判定部133は、配分した結果を資源活用情報記憶部124の対応する資源活用テーブルに記憶する。判定部133は、配分した結果を資源活用テーブルに記憶すると、配分完了情報を情報提供部134に出力して元の処理に戻る。 When the resource utilization coefficient calculation process ends, the determination unit 133 executes the resource allocation process. When the resource allocation process is started, the determination unit 133 refers to the resource utilization information storage unit 124 and acquires a resource utilization table corresponding to the number N of visitors and the number M of service resources. The determination unit 133 determines whether or not the service is being provided to some of the visitors N 1 based on the acquired resource utilization table. That is, the determination unit 133 determines, by referring to the column "allocation" basis of resource utilization table, whether it is part of a visitor N serving during 1. Determining section 133, if it is determined not to be part of the visitor N serving during 1 allocate customer resource number M with respect to visitors number N. In the distribution, the determination unit 133 calculates the allocation of the number M of customer service resources to N, and thus calculates the allocation of M to the Nth power. The determination unit 133, for each resource of the resource utilization table, for example, adopts allocation of a combination in which the total value of values indicating utility is the highest. The determination unit 133 stores the distributed result in the corresponding resource utilization table of the resource utilization information storage unit 124. After storing the allocation result in the resource utilization table, the determination unit 133 outputs the allocation completion information to the information providing unit 134 and returns to the original processing.
判定部133は、一部の来訪者N1にサービス提供中であると判定した場合には、来訪者N1のうち来訪者N2が適切にサービスを受けていないか否かを判定する。判定部133は、来訪者N1のうち来訪者N2が適切にサービスを受けていると判定した場合には、来訪者N1の1群と、来訪者(N−N1)とに対して、接客資源数Mを配分する。すなわち、この場合では、来訪者N2は、来訪者N1に対して遅れてきた人物であり、来訪者N1と同一のサービスを適切に受けている状態である。判定部133は、当該配分では、(1+(N−N1))人に対して接客資源数Mの割り当てを算出するので、Mの(1+(N−N1))乗通りの割り当てを算出する。判定部133は、資源活用テーブルの各資源について、例えば、効用を示す値の合計値が最も高い組み合わせの配分を採用する。この場合、判定部133は、来訪者N1に対してサービスを提供中であるので、来訪者N1に気付かれる場合も考慮する。判定部133は、配分した結果を資源活用情報記憶部124の対応する資源活用テーブルに記憶する。判定部133は、配分した結果を資源活用テーブルに記憶すると、配分完了情報を情報提供部134に出力して元の処理に戻る。 Determination unit 133, when it is determined that the part of the visitor N serving during 1 determines whether the visitor N 2 of the visitor N 1 is not receiving appropriate services. When the judging unit 133 judges that the visitor N 2 among the visitors N 1 receives the service properly, the judging unit 133 responds to the group of the visitor N 1 and the visitor (N-N 1 ). Distribute the number M of customer service resources. That is, in this case, the visitor N 2 is a person that has delayed relative visitor N 1, a state in which properly received the visitor N 1 and the same service. Since the determination unit 133 calculates the allocation of the number M of customer service resources to (1+ (N−N 1 )) in the distribution, the determination unit 133 calculates an allocation of (1+ (N−N 1 )) times M. Do. The determination unit 133, for each resource of the resource utilization table, for example, adopts allocation of a combination in which the total value of values indicating utility is the highest. In this case, the determination unit 133 are the in providing services to visitors N 1, also considered when notice visitors N 1. The determination unit 133 stores the distributed result in the corresponding resource utilization table of the resource utilization information storage unit 124. After storing the allocation result in the resource utilization table, the determination unit 133 outputs the allocation completion information to the information providing unit 134 and returns to the original processing.
判定部133は、来訪者N1のうち来訪者N2が適切にサービスを受けていないと判定した場合には、来訪者(N1−N2)の1群と、来訪者(N−N1+N2)とに対して、接客資源数Mを配分する。すなわち、この場合では、例えば、来訪者N2は、来訪者N1と同一のグループであるが、既存のサービスとは異なるもの、例えば展示物等に興味を示している状態である。判定部133は、当該配分では、(1+(N−N1+N2))人に対して接客資源数Mの割り当てを算出するので、Mの(1+(N−N1+N2))乗通りの割り当てを算出する。判定部133は、資源活用テーブルの各資源について、例えば、効用を示す値の合計値が最も高い組み合わせの配分を採用する。この場合、判定部133は、来訪者(N1−N2)に対してサービスを提供中であるので、来訪者(N1−N2)に気付かれる場合も考慮する。判定部133は、配分した結果を資源活用情報記憶部124の対応する資源活用テーブルに記憶する。判定部133は、配分した結果を資源活用テーブルに記憶すると、配分完了情報を情報提供部134に出力して元の処理に戻る。 Determining section 133, when the visitor N 2 of the visitor N 1 is determined to not receiving proper services, and a group of visitors (N 1 -N 2), the visitor (N-N The number M of customer service resources is allocated to 1 + N 2 ). That is, in this case, for example, visitor N 2 is the visitor N 1 identical to the group, which is different from the existing service, a state in which an interest in, for example, exhibit the like. As the determination unit 133, in the allocation, multiply (1+ (N-N 1 + N 2)) is calculated. Therefore the assignment of the number of customer resources to human M, of M (1+ (N-N 1 + N 2)) Calculate the allocation of The determination unit 133, for each resource of the resource utilization table, for example, adopts allocation of a combination in which the total value of values indicating utility is the highest. In this case, since the determination unit 133 is providing a service to the visitor (N 1 -N 2 ), the determination unit 133 also considers the case where the visitor (N 1 -N 2 ) is noticed. The determination unit 133 stores the distributed result in the corresponding resource utilization table of the resource utilization information storage unit 124. After storing the allocation result in the resource utilization table, the determination unit 133 outputs the allocation completion information to the information providing unit 134 and returns to the original processing.
言い換えると、判定部133は、特定した第1の来訪者の関心領域(関心空間)と、第2の来訪者の関心領域(関心空間)とが異なるか否かを判定する。また、判定部133は、特定した第1の来訪者の関心領域(関心空間)と、第2の来訪者の関心領域(関心空間)とについて共通する関心領域がある否かを判定する。 In other words, the determination unit 133 determines whether or not the identified first visitor's region of interest (interesting space) is different from the second visitor's region of interest (interesting space). In addition, the determination unit 133 determines whether there is a common region of interest between the first visitor's identified region of interest (interesting space) and the second visitor's region of interest (interesting space).
また、判定部133は、第1の来訪者または第2の来訪者の位置、頭部の向きおよび視線に基づいて、関心領域(関心空間)を特定する。また、判定部133は、第1の来訪者または第2の来訪者に対する働きかけへの反応行動、対話、他の人物との関係性、情報提供装置への接触のうち、1つまたは複数に基づいて、関心領域(関心空間)を特定する。 In addition, the determination unit 133 identifies a region of interest (space of interest) based on the position of the first visitor or the second visitor, the orientation of the head, and the line of sight. In addition, the determination unit 133 is based on one or more of a reaction response to an action on the first visitor or the second visitor, a dialogue, a relationship with another person, and a contact with the information providing apparatus. And identify a region of interest (space of interest).
情報提供部134には、検出部131から来訪者情報が入力され、判定部133から配分完了情報が入力される。情報提供部134は、来訪者情報が入力された場合には、来訪者が1人であるので、当該来訪者にロボット資源117の全ての資源を配分する。情報提供部134は、配分完了情報が入力された場合には、資源活用情報記憶部124を参照し、各資源の配分の情報(見直し後の配分)に応じて複数の来訪者に対してロボット資源117の各資源を配分する。情報提供部134は、サービスシナリオ記憶部125を参照し、資源配分に基づいて、サービスシナリオを実行する。なお、資源配分によっては、サービスが提供されない来訪者も存在する場合がある。
Visitor information is input to the information providing unit 134 from the
情報提供部134は、サービスシナリオを実行すると、再判定イベントが発生したか否かを判定する。再判定イベントは、例えば、一定時間の経過、来訪者が立ち去る等の来訪者の状態変化、来訪者に対する問いかけに応答がない等の接客ロボット100の状態変化等が挙げられる。情報提供部134は、再判定イベントが発生していないと判定した場合には、引き続き再判定イベントの判定を行う。
When the information providing unit 134 executes the service scenario, the information providing unit 134 determines whether a re-determination event has occurred. The re-determination event may include, for example, the elapse of a predetermined time, a change in the state of the visitor such as the visitor leaving, or a change in the state of the
情報提供部134は、再判定イベントが発生したと判定した場合には、例えば、接客ロボット100の管理者等の操作によって、サービスを終了するか否かを判定する。情報提供部134は、サービスを終了しないと判定した場合には、サービス提供空間に来訪者がいるか否かの判定を行うように、検出部131に指示を出力する。情報提供部134は、サービスを終了すると判定した場合には、接客ロボット100によるサービスの提供を終了する。
If the information providing unit 134 determines that the re-determination event has occurred, the information providing unit 134 determines whether to end the service, for example, by the operation of the administrator of the
言い換えると、情報提供部134は、第1の来訪者の関心領域と、第2の来訪者の関心領域とが異なる場合、情報提供装置(接客ロボット100)が有する複数の情報提供リソース(ロボット資源117)を用いて、情報提供処理を実行する。すなわち、情報提供部134は、複数の情報提供リソースのうち、第1の来訪者の関心領域に応じた情報提供リソースを用いて、第1の来訪者に対する情報提供処理を実行する。また、情報提供部134は、複数の情報提供リソースのうち、第2の来訪者の関心領域に応じた情報提供リソースを用いて、第2の来訪者に対する情報提供処理を実行する。 In other words, when the region of interest of the first visitor and the region of interest of the second visitor are different, the information provision unit 134 has a plurality of information provision resources (robot resources) possessed by the information provision device (service robot 100). An information provision process is performed using 117). That is, the information provision unit 134 executes the information provision process for the first visitor using the information provision resource corresponding to the region of interest of the first visitor among the plurality of information provision resources. In addition, the information providing unit 134 executes an information providing process for the second visitor using the information providing resource according to the region of interest of the second visitor among the plurality of information providing resources.
また、情報提供部134は、複数の情報提供リソースのそれぞれの情報提供リソースが情報提供処理を実行した際に、第1の来訪者と第2の来訪者とが該情報提供処理の実行に気付く確率を求める。情報提供部134は、求めた気付く確率に基づいて、複数の情報提供リソースを第1の来訪者および第2の来訪者に配分する。 In addition, when the information provision resource of each of the plurality of information provision resources executes the information provision process, the information provision unit 134 notices that the first visitor and the second visitor perform the information provision process. Find the probability. The information provision unit 134 distributes the plurality of information provision resources to the first visitor and the second visitor based on the obtained notice probability.
また、情報提供部134は、第1の来訪者に対する情報提供処理を実行中に、第2の来訪者の関心領域が特定されると、情報提供リソースの配分を変更する。すなわち、情報提供部134は、第1の来訪者に対する情報提供処理を実行中の情報提供リソースの配分を減じて、第2の来訪者の関心領域に応じた情報提供リソースの配分を増加させる。 In addition, the information provision unit 134 changes the allocation of information provision resources when the region of interest of the second visitor is specified while the information provision process for the first visitor is being executed. That is, the information provision unit 134 reduces the allocation of the information provision resource in execution of the information provision process to the first visitor, and increases the allocation of the information provision resource according to the second visitor's region of interest.
また、情報提供部134は、第1の来訪者の関心領域と、第2の来訪者の関心領域とについて共通する関心領域がある場合、該共通する関心領域に対する情報提供リソースを、第1の来訪者と第2の来訪者とで共用して情報提供処理を実行する。 Further, when there is a common region of interest for the first visitor's region of interest and the second visitor's region of interest, the information provision unit 134 uses the information provision resource for the common region of interest as the first information resource. The visitor and the second visitor share the information provision process.
また、情報提供部134は、第1の来訪者の関心領域と、第2の来訪者の関心領域とについて共通する関心領域があるか否かを判定する。情報提供部134は、共通する関心領域がある場合、情報提供装置が有する複数の情報提供リソースのうち、共通する関心領域に応じた情報提供リソースを用いて、第1の来訪者および第2の来訪者に対する情報提供処理を実行する。 In addition, the information providing unit 134 determines whether there is a common region of interest for the first visitor's region of interest and the second visitor's region of interest. When there is a common region of interest, the information provision unit 134 uses the information provision resource corresponding to the common region of interest among the plurality of information provision resources possessed by the information provision device, to use the first visitor and the second visitor. Execute information provision processing for visitors.
次に、実施例の接客ロボット100の動作について説明する。図15は、実施例の制御処理の一例を示すフローチャートである。
Next, the operation of the
接客ロボット100の検出部131は、サービス提供空間20の座標系およびブロック群を設定する(ステップS1)。次に、検出部131は、サービス提供空間20に配置された遮蔽物について、サービス提供空間20の遮蔽情報を設定する(ステップS2)。
The
検出部131は、外部センサ10からセンサ情報を取得する。検出部131は、取得したセンサ情報に基づいて、サービス提供空間20に来訪者がいるか否かを判定する(ステップS3)。検出部131は、サービス提供空間20に来訪者がいないと判定した場合には(ステップS3:否定)、ステップS3の判定を繰り返す。
The
検出部131は、サービス提供空間20に来訪者がいると判定した場合には(ステップS3:肯定)、来訪者が複数であるか否かを判定する(ステップS4)。検出部131は、来訪者が複数でない場合には(ステップS4:否定)、情報提供部134に来訪者が単独である旨の来訪者情報を出力し、ステップS8に進む。検出部131は、来訪者が複数である場合には(ステップS4:肯定)、特定指示を特定部132に出力する。また、検出部131は、検出情報を判定部133に出力する。
When the detecting
特定部132は、検出部131から特定指示が入力されると、関心空間特定処理を実行する(ステップS5)。ここで、図16を用いて関心空間特定処理について説明する。図16は、関心空間特定処理の一例を示すフローチャートである。
When the specification instruction is input from the
特定部132は、複数の来訪者を識別するための変数iを初期化する。特定部132は、特定指示に基づいて、サービス提供空間20内の来訪者数Nを検出する(ステップS51)。特定部132は、来訪者数Nを検出すると、N人分の関心空間テーブルを生成する(ステップS52)。特定部132は、関心空間テーブルの生成開始時刻を、当該関心空間テーブルに記憶する(ステップS53)。
The identifying unit 132 initializes a variable i for identifying a plurality of visitors. The identifying unit 132 detects the number N of visitors in the
特定部132は、未処理の来訪者がいるか否かを判定する(ステップS54)。特定部132は、未処理の来訪者がいると判定した場合には(ステップS54:肯定)、来訪者iを特定対象に設定する(ステップS55)。特定部132は、来訪者iに対する特定処理を実行する(ステップS56)。 The identifying unit 132 determines whether there is an unprocessed visitor (step S54). When it is determined that there is an unprocessed visitor (Step S54: Yes), the identifying unit 132 sets the visitor i as the identification target (Step S55). The identifying unit 132 executes a identifying process for the visitor i (step S56).
ここで、図17を用いて特定処理について説明する。図17は、特定処理の一例を示すフローチャートである。特定部132は、特定指示に含まれる撮像画像に基づいて、来訪者iの位置、頭部の向きおよび視線を取得する(ステップS561)。特定部132は、来訪者iの位置、頭部の向きおよび視線を取得すると、第1推定処理を実行する(ステップS562)。 Here, the identification processing will be described with reference to FIG. FIG. 17 is a flowchart illustrating an example of the identification process. The identifying unit 132 acquires the position of the visitor i, the direction of the head, and the line of sight based on the captured image included in the identification instruction (step S561). When acquiring the position of the visitor i, the direction of the head, and the line of sight, the identifying unit 132 executes a first estimation process (step S562).
ここで、図18を用いて第1推定処理について説明する。図18は、第1推定処理の一例を示すフローチャートである。特定部132は、来訪者iの位置、頭部の向きまたは視線の方向ベクトルが同じ方向で静止しているか否かを判定する(ステップS101)。特定部132は、方向ベクトルが同じ方向で静止していないと判定した場合には(ステップS101:否定)、関心空間非特定として特定処理を終了し(ステップS102)、関心空間特定処理へ戻る。 Here, the first estimation process will be described with reference to FIG. FIG. 18 is a flowchart illustrating an example of the first estimation process. The identifying unit 132 determines whether the position vector of the visitor i, the direction of the head, or the direction vector of the sight line is stationary in the same direction (step S101). When it is determined that the direction vector is not stationary in the same direction (step S101: negative), the identification unit 132 ends the identification processing as non-interest space identification (step S102), and returns to the interest space identification processing.
特定部132は、方向ベクトルが同じ方向で静止していると判定した場合には(ステップS101:肯定)、来訪者iの静止している位置、頭部の向きおよび視線の方向ベクトルに基づいて、対応するブロック群に関心フラグ値を加算する(ステップS103)。特定部132は、サービス提供空間記憶部121を参照し、各方向ベクトルの延長線上に関心対象候補があるか否かを判定する(ステップS104)。特定部132は、延長線上に関心対象候補がないと判定した場合には(ステップS104:否定)、関心対象非特定として特定処理を終了し(ステップS105)、関心空間特定処理へ戻る。 When it is determined that the direction vector is stationary in the same direction (Step S101: Yes), the identifying unit 132 is based on the stationary position of the visitor i, the head orientation, and the direction vector of the sight line. Then, the interest flag value is added to the corresponding block group (step S103). The identifying unit 132 refers to the service provision space storage unit 121 and determines whether there is a candidate of interest on the extension of each direction vector (step S104). If the identification unit 132 determines that there is no candidate of interest on the extension (step S104: negative), it ends the identification processing as non-interest identification (step S105), and returns to the interest space identification processing.
特定部132は、延長線上に関心対象候補があると判定した場合には(ステップS104:肯定)、来訪者iの視野角ベクトル空間と、関心対象候補の外縁に基づく空間とのうち、小さい方の空間内のブロック群に関心フラグ値を加算する(ステップS106)。また、特定部132は、関心対象候補の近傍のブロック群に関心フラグ値を加算し(ステップS107)、第1推定処理を終了して特定処理に戻る。 If the identification unit 132 determines that there is a candidate of interest on the extension (step S104: affirmative), the smaller one of the view angle vector space of the visitor i and the space based on the outer edge of the candidate of interest The interest flag value is added to blocks in the space of (step S106). Further, the identifying unit 132 adds the interest flag value to the block group in the vicinity of the interest target candidate (step S107), ends the first estimation processing, and returns to the identification processing.
図17の説明に戻って、特定部132は、第1推定処理が終了すると、関心対象候補および来訪者iの動作情報を取得する(ステップS563)。特定部132は、関心対象候補および来訪者iの動作情報を取得すると、第2推定処理を実行する(ステップS564)。 Returning to the description of FIG. 17, when the first estimation process ends, the identifying unit 132 acquires operation information of the object of interest candidate and the visitor i (step S563). When acquiring the motion information of the object of interest candidate and the visitor i, the identifying unit 132 executes a second estimation process (step S564).
ここで、図19を用いて第2推定処理について説明する。図19は、第2推定処理の一例を示すフローチャートである。特定部132は、取得した動作情報に基づいて、来訪者iの反応動作タイミングが関心対象候補からの働きかけタイミングと合っているか否かを判定する(ステップS111)。特定部132は、来訪者iの反応動作タイミングが関心対象候補からの働きかけタイミングと合っている場合には(ステップS111:肯定)、関心対象候補の近傍のブロック群に関心フラグ値を加算する(ステップS112)。 Here, the second estimation process will be described with reference to FIG. FIG. 19 is a flowchart illustrating an example of the second estimation process. The identifying unit 132 determines whether the reaction operation timing of the visitor i matches the operation timing from the target candidate based on the acquired operation information (step S111). The identifying unit 132 adds an interest flag value to a group of blocks in the vicinity of the candidate of interest, when the reaction operation timing of the visitor i matches the action timing from the candidate of interest (Step S111: Yes) ( Step S112).
特定部132は、来訪者iの反応動作タイミングが関心対象候補からの働きかけタイミングと合っていない場合には(ステップS111:否定)、関心フラグ値を加算せずにステップS113に進む。 If the reaction operation timing of the visitor i does not match the operation timing from the candidate of interest (step S111: negative), the identifying unit 132 proceeds to step S113 without adding the interest flag value.
特定部132は、取得した動作情報に基づいて、来訪者iの反応動作内容が関心対象候補からの働きかけ内容と合っているか否かを判定する(ステップS113)。特定部132は、来訪者iの反応動作内容が関心対象候補からの働きかけ内容と合っている場合には(ステップS113:肯定)、関心対象候補の近傍のブロック群に関心フラグ値を加算する(ステップS114)。 The identifying unit 132 determines, based on the acquired motion information, whether or not the reaction motion content of the visitor i matches the challenge content from the interest target candidate (step S113). The identifying unit 132 adds the interest flag value to a block group in the vicinity of the candidate of interest when the reaction action content of the visitor i matches the content of the action from the candidate of interest (Step S113: Yes) ( Step S114).
特定部132は、来訪者iの反応動作内容が関心対象候補からの働きかけ内容と合っていない場合には(ステップS113:否定)、関心フラグ値を加算せずにステップS115に進む。 If the reaction operation content of the visitor i does not match the action content from the interest target candidate (step S113: negative), the identification unit 132 proceeds to step S115 without adding the interest flag value.
特定部132は、関心対象候補の情報提示ログと、来訪者iの操作ログとを取得する(ステップS115)。特定部132は、取得した情報提示ログと操作ログとに基づいて、来訪者iの操作タイミングが関心対象候補からの情報提示タイミングと合っているか否かを判定する(ステップS116)。特定部132は、来訪者iの操作タイミングが関心対象候補からの情報提示タイミングと合っている場合には(ステップS116:肯定)、関心対象候補の近傍のブロック群に関心フラグ値を加算する(ステップS117)。 The identifying unit 132 acquires the information presentation log of the object of interest candidate and the operation log of the visitor i (step S115). The identifying unit 132 determines whether the operation timing of the visitor i matches the information presentation timing from the interest target candidate based on the acquired information presentation log and the operation log (step S116). When the operation timing of the visitor i matches the information presentation timing from the candidate of interest (Step S116: Yes), the identifying unit 132 adds the interest flag value to the group of blocks near the candidate of interest (A). Step S117).
特定部132は、来訪者iの操作タイミングが関心対象候補からの情報提示タイミングと合っていない場合には(ステップS116:否定)、関心フラグ値を加算せずにステップS118に進む。 If the operation timing of the visitor i does not match the information presentation timing from the candidate of interest (step S116: negative), the identifying unit 132 proceeds to step S118 without adding the interest flag value.
特定部132は、取得した情報提示ログと操作ログとに基づいて、来訪者iの操作内容が関心対象候補からの情報提示内容と合っているか否かを判定する(ステップS118)。特定部132は、来訪者iの操作内容が関心対象候補からの情報提示内容と合っている場合には(ステップS118:肯定)、関心対象候補の近傍のブロック群に関心フラグ値を加算し(ステップS119)、元の処理に戻る。 The identifying unit 132 determines whether the operation content of the visitor i matches the information presentation content from the interest target candidate based on the acquired information presentation log and the operation log (step S118). When the operation content of the visitor i matches the information presentation content from the target of interest (Step S118: Yes), the identifying unit 132 adds the interest flag value to the block group in the vicinity of the target of interest Step S119), return to the original process.
特定部132は、来訪者iの操作内容が関心対象候補からの情報提示内容と合っていない場合には(ステップS118:否定)、関心フラグ値を加算せずに元の処理に戻る。 If the operation content of the visitor i does not match the information presentation content from the interest target candidate (step S118: negative), the identification unit 132 returns to the original processing without adding the interest flag value.
図17の説明に戻って、特定部132は、第2推定処理が終了すると、関心対象候補および来訪者iの対話情報を取得する(ステップS565)。特定部132は、関心対象候補および来訪者iの対話情報を取得すると、第3推定処理を実行する(ステップS566)。 Returning to the description of FIG. 17, when the second estimation process ends, the identifying unit 132 acquires dialogue information of the candidate of interest and the visitor i (step S 565). When acquiring the dialogue information of the candidate of interest and the visitor i, the identifying unit 132 executes the third estimation process (step S566).
ここで、図20を用いて第3推定処理について説明する。図20は、第3推定処理の一例を示すフローチャートである。特定部132は、取得した対話情報に基づいて、来訪者iの対話タイミングが関心対象候補からの対話タイミングと合っているか否かを判定する(ステップS121)。特定部132は、来訪者iの対話タイミングが関心対象候補からの対話タイミングと合っている場合には(ステップS121:肯定)、関心対象候補の近傍のブロック群に関心フラグ値を加算する(ステップS122)。 Here, the third estimation process will be described with reference to FIG. FIG. 20 is a flowchart illustrating an example of the third estimation process. The identifying unit 132 determines whether the dialog timing of the visitor i matches the dialog timing from the candidate of interest based on the acquired dialog information (step S121). The identifying unit 132 adds the interest flag value to a block group in the vicinity of the candidate of interest when the timing of interaction of the visitor i matches the timing of interaction from the candidate of interest (Step S121: affirmative) S122).
特定部132は、来訪者iの対話タイミングが関心対象候補からの対話タイミングと合っていない場合には(ステップS121:否定)、関心フラグ値を加算せずにステップS123に進む。 If the dialogue timing of the visitor i does not match the dialogue timing from the candidate of interest (step S121: negative), the identifying unit 132 proceeds to step S123 without adding the interest flag value.
特定部132は、取得した対話情報に基づいて、来訪者iの対話情報が関心対象候補からの対話情報と合っているか否かを判定する(ステップS123)。特定部132は、来訪者iの対話情報が関心対象候補からの対話情報と合っている場合には(ステップS123:肯定)、関心対象候補の近傍のブロック群に関心フラグ値を加算し(ステップS124)、元の処理に戻る。 The identifying unit 132 determines whether the dialog information of the visitor i matches the dialog information from the candidate of interest based on the acquired dialog information (step S123). When the dialogue information of the visitor i matches the dialogue information from the candidate of interest (Step S123: Yes), the identifying unit 132 adds the interest flag value to the block group in the vicinity of the candidate of interest (Step S124), return to the original processing.
特定部132は、来訪者iの対話情報が関心対象候補からの対話情報と合っていない場合には(ステップS123:否定)、関心フラグ値を加算せずに元の処理に戻る。 If the dialogue information of the visitor i does not match the dialogue information from the candidate of interest (step S123: negative), the identifying unit 132 returns to the original process without adding the interest flag value.
図17の説明に戻って、特定部132は、第3推定処理が終了すると、人物である関心対象候補および来訪者iの行動情報を取得する(ステップS567)。特定部132は、人物である関心対象候補および来訪者iの行動情報を取得すると、第4推定処理を実行する(ステップS568)。 Returning to the explanation of FIG. 17, when the third estimation process ends, the identifying unit 132 acquires action information of a person of interest object candidate and a visitor i (step S 567). When acquiring the behavior information of the candidate of interest and the visitor i who are persons, the identifying unit 132 executes a fourth estimation process (step S568).
ここで、図21を用いて第4推定処理について説明する。図21は、第4推定処理の一例を示すフローチャートである。特定部132は、取得した行動情報に基づいて、来訪者iと関心対象候補との行動が所定空間内で所定期間継続して同調しているか否かを判定する(ステップS131)。特定部132は、来訪者iと関心対象候補との行動が所定空間内で所定期間継続して同調していると判定した場合には(ステップS131:肯定)、来訪者iと関心対象候補との間の空間のブロック群に関心フラグ値を加算し(ステップS132)、元の処理に戻る。 Here, the fourth estimation process will be described with reference to FIG. FIG. 21 is a flowchart illustrating an example of the fourth estimation process. The identifying unit 132 determines, based on the acquired behavior information, whether the behavior of the visitor i and the candidate of interest is continuously synchronized in a predetermined space for a predetermined period (step S131). When the identification unit 132 determines that the behavior of the visitor i and the candidate of interest is continuously synchronized in the predetermined space for a predetermined period (Yes at step S131), the visitor i and the candidate of interest The interest flag value is added to the blocks in the space in between (step S132), and the process returns to the original process.
特定部132は、来訪者iと関心対象候補との行動が所定空間内で所定期間継続して同調していないと判定した場合には(ステップS131:否定)、関心フラグ値を加算せずに元の処理に戻る。 If the identification unit 132 determines that the behavior of the visitor i and the candidate of interest is not synchronized in the predetermined space continuously for a predetermined period (step S131: negative), the interest flag value is not added. Return to the original process.
図17の説明に戻って、特定部132は、第4推定処理が終了すると、関心対象候補への接触情報を取得する(ステップS569)。特定部132は、関心対象候補への接触情報を取得すると、第5推定処理を実行する(ステップS570)。 Returning to the description of FIG. 17, when the fourth estimation process ends, the identifying unit 132 acquires contact information on a target of interest (step S569). When acquiring the contact information on the target of interest, the identifying unit 132 executes a fifth estimation process (step S570).
ここで、図22を用いて第5推定処理について説明する。図22は、第5推定処理の一例を示すフローチャートである。特定部132は、取得した接触情報に基づいて、来訪者iと関心対象候補との接触が所定期間継続しているか否かを判定する(ステップS141)。特定部132は、来訪者iと関心対象候補との接触が所定期間継続していると判定した場合には(ステップS141:肯定)、関心対象候補の接触部位の近傍のブロック群に関心フラグ値を加算し(ステップS142)、元の処理に戻る。 Here, the fifth estimation process will be described with reference to FIG. FIG. 22 is a flowchart illustrating an example of the fifth estimation process. The identifying unit 132 determines whether the contact between the visitor i and the candidate of interest continues for a predetermined period based on the acquired contact information (step S141). When the identifying unit 132 determines that the contact between the visitor i and the candidate of interest continues for a predetermined period (Step S141: Yes), the interest flag value is set to blocks near the contact portion of the candidate of interest. Are added (step S142), and the process returns to the original process.
特定部132は、来訪者iと関心対象候補との接触が所定期間継続していないと判定した場合には(ステップS141:否定)、関心フラグ値を加算せずに元の処理に戻る。 When the identification unit 132 determines that the contact between the visitor i and the candidate of interest does not continue for a predetermined period (step S141: negative), the process returns to the original process without adding the interest flag value.
図17の説明に戻って、特定部132は、第5推定処理が終了すると、関心空間情報記憶部122の関心空間テーブルの各ブロックについて、関心フラグ値が閾値以上のブロックに関心空間フラグを設定する(ステップS571)。特定部132は、関心空間フラグの設定が完了すると、特定処理を終了して関心空間特定処理に戻る。
Returning to the description of FIG. 17, when the fifth estimation process ends, the identification unit 132 sets the interest space flag in each block of the interest space table in the interest space
図16の説明に戻って、特定部132は、特定処理が終了すると、来訪者を特定するための変数iをインクリメントし(ステップS57)、ステップS54に戻る。特定部132は、未処理の来訪者がいないと判定した場合には(ステップS54:否定)、関心空間テーブルの生成終了時刻を記憶し(ステップS58)、関心空間特定処理を終了する。特定部132は、関心空間特定処理を終了すると、判定部133に算出指示を出力する。 Returning to the description of FIG. 16, when the identification processing ends, the identification unit 132 increments a variable i for identifying a visitor (step S57), and returns to step S54. When it is determined that there is no unprocessed visitor (No at Step S54), the identifying unit 132 stores the generation end time of the space of interest table (Step S58), and ends the space of interest identification process. When the identification unit 132 ends the interest space identification process, the identification unit 132 outputs a calculation instruction to the determination unit 133.
図15の説明に戻って、判定部133は、特定部132から算出指示が入力されると、資源活用係数算出処理を実行する(ステップS6)。 Returning to the explanation of FIG. 15, when the calculation instruction is input from the specification unit 132, the determination unit 133 executes resource utilization coefficient calculation processing (step S6).
ここで、図23を用いて資源活用係数算出処理について説明する。図23は、資源活用係数算出処理の一例を示すフローチャートである。判定部133は、検出情報に基づいて、サービス提供空間20内の来訪者数Nを検出する(ステップS61)。判定部133は、検出した来訪者数Nに基づいて、N人分の来訪者空間テーブルを来訪者空間情報記憶部123に生成する(ステップS62)。判定部133は、来訪者空間テーブルの生成開始時刻を記憶する(ステップS63)。
Here, resource utilization coefficient calculation processing will be described with reference to FIG. FIG. 23 is a flowchart showing an example of the resource utilization coefficient calculation process. The determination unit 133 detects the number N of visitors in the
判定部133は、未処理の来訪者がいるか否かを判定する(ステップS64)。判定部133は、未処理の来訪者がいると判定した場合には(ステップS64:肯定)、来訪者iを算出対象に設定する(ステップS65)。判定部133は、来訪者iに対する算出処理を実行する(ステップS66)。 The determination unit 133 determines whether there is an unprocessed visitor (step S64). If the determination unit 133 determines that there is an unprocessed visitor (Step S64: affirmative), the determination unit 133 sets the visitor i as a calculation target (Step S65). The determination unit 133 executes calculation processing for the visitor i (step S66).
ここで、図24を用いて算出処理を説明する。図24は、算出処理の一例を示すフローチャートである。判定部133は、検出情報に含まれる撮像画像に基づいて、来訪者iの眼および耳の位置を取得する(ステップS661)。判定部133は、取得した眼および耳の位置に基づいて、関心空間情報記憶部122を参照し、来訪者iの関心空間を取得する(ステップS662)。判定部133は、取得した来訪者iの関心空間に基づいて、来訪者iの周辺空間における視差および音圧レベルを推定する(ステップS663)。判定部133は、推定した来訪者iの周辺空間における視差および音圧レベルを来訪者空間情報記憶部123に記憶する。
Here, the calculation process will be described with reference to FIG. FIG. 24 is a flowchart showing an example of the calculation process. The determination unit 133 acquires the positions of the eyes and ears of the visitor i based on the captured image included in the detection information (step S661). The determination unit 133 refers to the space-of-interest
判定部133は、サービス提供空間記憶部121、および、予め設定されたロボット資源117の各接客資源の可動範囲の情報を参照し、各接客資源の動作空間を算出する(ステップS664)。判定部133は、算出した各接客資源の動作空間と、来訪者iに対応する来訪者空間テーブルとに基づいて、来訪者iの眼の位置における各接客資源の動作空間での動作による視差を算出する(ステップS665)。
The determination unit 133 refers to the service providing space storage unit 121 and the information of the movable range of each customer service resource of the
判定部133は、予め設定されたロボット資源117の各接客資源の音源の情報を参照し、各接客資源が出す音の音圧レベルを算出する(ステップS666)。判定部133は、算出した音圧レベルと、来訪者iに対応する来訪者空間テーブルとに基づいて、来訪者iの耳の位置における各接客資源の音の音圧レベルを算出する(ステップS667)。
The determination unit 133 refers to the information of the sound source of each customer service resource of the
判定部133は、来訪者iの眼および耳の位置における視差および音圧レベルと、来訪者iの周辺空間における視差および音圧レベルとを比較して、来訪者iが各接客資源の動作および音に対して、気付く確率および気付かない確率を算出する(ステップS668)。判定部133は、算出結果を来訪者空間テーブルに記憶し(ステップS669)、元の処理に戻る。 The determination unit 133 compares the parallax and sound pressure level at the positions of the eyes and ears of the visitor i with the parallax and sound pressure level in the space around the visitor i, and the visitor i operates the respective customer resources and For the sound, the probability of noticing and the probability of noticing are calculated (step S668). The determination unit 133 stores the calculation result in the visitor space table (step S669), and returns to the original process.
図23の説明に戻って、判定部133は、算出処理が終了すると、来訪者を特定するための変数iをインクリメントし(ステップS67)、ステップS64に戻る。判定部133は、未処理の来訪者がいないと判定した場合には(ステップS64:否定)、来訪者空間テーブルの生成終了時刻を記憶する(ステップS68)。判定部133は、対象となる来訪者全ての来訪者空間テーブルを参照し、資源活用情報記憶部124の資源活用テーブルを生成し(ステップS69)、元の処理に戻る。 Returning to the explanation of FIG. 23, when the calculation process is completed, the determination unit 133 increments a variable i for identifying a visitor (step S67), and returns to step S64. When it is determined that there is no unprocessed visitor (No at Step S64), the determination unit 133 stores the generation end time of the visitor space table (Step S68). The determination unit 133 refers to the visitor space table of all the targeted visitors, generates the resource utilization table of the resource utilization information storage unit 124 (step S69), and returns to the original processing.
図15の説明に戻って、判定部133は、資源活用係数算出処理が終了すると、資源配分処理を実行する(ステップS7)。ここで、図25を用いて資源配分処理を説明する。図25は、資源配分処理の一例を示すフローチャートである。判定部133は、資源活用情報記憶部124を参照し、来訪者数Nおよび接客資源数Mに対応する資源活用テーブルを取得する(ステップS71)。 Returning to the explanation of FIG. 15, when the resource utilization coefficient calculation process ends, the determination unit 133 executes the resource allocation process (step S7). Here, resource allocation processing will be described with reference to FIG. FIG. 25 is a flowchart illustrating an example of the resource allocation process. The determination unit 133 refers to the resource utilization information storage unit 124, and acquires a resource utilization table corresponding to the number N of visitors and the number M of customer service resources (step S71).
判定部133は、取得した資源活用テーブルに基づいて、一部の来訪者N1にサービス提供中であるか否かを判定する(ステップS72)。判定部133は、一部の来訪者N1にサービス提供中でないと判定した場合には(ステップS72:否定)、来訪者数Nに対して接客資源数Mを配分する(ステップS73)。判定部133は、配分した結果を資源活用テーブルに記憶し、配分完了情報を情報提供部134に出力して元の処理に戻る。 The determination unit 133 determines whether or not the service is being provided to some of the visitors N 1 based on the acquired resource utilization table (step S72). Determining section 133, when it is determined that the part of the visitor N 1 is not in service provision (step S72: No), allocate customer resource number M with respect to visitors number N (step S73). The determination unit 133 stores the distributed result in the resource utilization table, outputs the distribution completion information to the information providing unit 134, and returns to the original process.
判定部133は、一部の来訪者N1にサービス提供中であると判定した場合には(ステップS72:肯定)、来訪者N1のうち来訪者N2が適切にサービスを受けていないか否かを判定する(ステップS74)。判定部133は、来訪者N1のうち来訪者N2が適切にサービスを受けていると判定した場合には(ステップS74:否定)、来訪者N1の1群と、来訪者(N−N1)とに対して、接客資源数Mを配分する(ステップS75)。判定部133は、配分した結果を資源活用テーブルに記憶し、配分完了情報を情報提供部134に出力して元の処理に戻る。 If the determination unit 133 determines that the service is being provided to some of the visitors N 1 (Step S 72: Yes), is the visitor N 2 not properly receiving the service among the visitors N 1 ? It is determined whether or not it is (step S74). Determining section 133, when it is determined that the visitor N 2 of the visitor N 1 is under appropriate service (step S74: No), 1 and group visitors N 1, visitor (N- The number M of customer service resources is allocated to N 1 ) (step S75). The determination unit 133 stores the distributed result in the resource utilization table, outputs the distribution completion information to the information providing unit 134, and returns to the original process.
判定部133は、来訪者N1のうち来訪者N2が適切にサービスを受けていないと判定した場合には(ステップS74:肯定)、来訪者(N1−N2)の1群と、来訪者(N−N1+N2)とに対して、接客資源数Mを配分する(ステップS76)。判定部133は、配分した結果を資源活用テーブルに記憶し、配分完了情報を情報提供部134に出力して元の処理に戻る。 If the determination unit 133 determines that the visitor N 2 is not properly receiving the service among the visitor N 1 (Step S 74: affirmative), one group of the visitors (N 1 -N 2 ), against the visitor (N-N 1 + N 2 ), to allocate the customer resource count M (step S76). The determination unit 133 stores the distributed result in the resource utilization table, outputs the distribution completion information to the information providing unit 134, and returns to the original process.
図15の説明に戻って、情報提供部134は、来訪者情報が入力された場合には、当該来訪者にロボット資源117の全ての資源を配分する。情報提供部134は、配分完了情報が入力された場合には、資源活用情報記憶部124を参照し、各資源の配分の情報に応じて複数の来訪者に対してロボット資源117の各資源を配分する。情報提供部134は、サービスシナリオ記憶部125を参照し、資源配分に基づいて、サービスシナリオを実行する(ステップS8)。
Returning to the explanation of FIG. 15, when the visitor information is input, the information providing unit 134 allocates all resources of the
情報提供部134は、サービスシナリオを実行すると、再判定イベントが発生したか否かを判定する(ステップS9)。情報提供部134は、再判定イベントが発生していないと判定した場合には(ステップS9:否定)、ステップS9の判定を繰り返す。情報提供部134は、再判定イベントが発生したと判定した場合には(ステップS9:肯定)、サービスを終了するか否かを判定する(ステップS10)。 After executing the service scenario, the information providing unit 134 determines whether a re-determination event has occurred (step S9). If the information providing unit 134 determines that the re-determination event has not occurred (No at Step S9), the determination at Step S9 is repeated. If the information providing unit 134 determines that a re-determination event has occurred (Yes at Step S9), the information providing unit 134 determines whether to end the service (Step S10).
情報提供部134は、サービスを終了しないと判定した場合には(ステップS10:否定)、検出部131に対してステップS3の判定を行うように指示を出力し、ステップS3に戻る。情報提供部134は、サービスを終了すると判定した場合には(ステップS10:肯定)、接客ロボット100によるサービスの提供を終了する。これにより、接客ロボット100は、複数の来訪者に対する接客効率を向上できる。また、接客ロボット100は、第1の来訪者(A)が不満を抱きにくい範囲で接客の質を下げて資源を確保し、第2の来訪者(B)が効果を得やすい範囲で、確保した資源を第2の来訪者(B)への接客に回すので、トータルで接客の品質を保つことができる。また、接客ロボット100は、来訪者のインタラクション不全を改善することができる。
When it is determined that the service is not ended (Step S10: No), the information providing unit 134 outputs an instruction to the
続いて、図26から図38を用いて接客の具体例について説明する。 Subsequently, a specific example of the customer service will be described with reference to FIGS.
図26は、複数の来訪者に対する接客の具体的な一例を示す図である。図26に示すように、接客ロボット100は、例えば、展示会場のブースに設置され、来訪者Aを受け付ける。接客ロボット100は、来訪者Aを受け付けると、来訪者Aに対して場所を誘導する。接客ロボット100は、例えば、プレゼンテーション画面が表示されているスクリーン25が見やすい位置に来訪者Aを誘導する。接客ロボット100は、来訪者Aにコア価値を提供、つまり、スクリーン25に表示されるプレゼンテーション画面を用いて説明を開始する。このとき、ブースに来訪者Bが遅れて現れ、接客ロボット100を見続けているとする。すると、接客ロボット100は、来訪者Bの出現を検出し、来訪者Bの関心空間が自身に向いていると判定する。
FIG. 26 is a diagram showing a specific example of customer service for a plurality of visitors. As shown in FIG. 26, for example, the
また、接客ロボット100は、来訪者Aがスクリーン25を向いており、接客ロボット100を見ていない状態を検出する。すなわち、接客ロボット100は、来訪者Aの関心空間がスクリーン25に長期間固定されていると判定する。接客ロボット100は、来訪者A,Bに対して、並行してサービスを提供するために、来訪者A,Bの各関心空間の相互非干渉性が高いか否かを判定する。すなわち、接客ロボット100は、来訪者Aがスクリーン25を見ており、来訪者Bが接客ロボット100を見ているため、相互非干渉性が高いと判定する。つまり、接客ロボット100は、ロボット資源117の各資源を来訪者A,Bに配分可能と判定する。
Further, the
接客ロボット100は、来訪者A,Bのそれぞれに対して接客効果が上がるように、ロボット資源117の各資源を配分する。接客ロボット100は、来訪者Aに右腕部113および対話部115を配分し、来訪者Bに頭部111、左腕部114および表示部116を配分する。接客ロボット100は、配分に応じて複数のサービスを並行して実行する。このとき、接客ロボット100は、スクリーン25で行っているプレゼンテーションについて、可制御性を増強する。つまり、接客ロボット100は、プレゼンテーションのうち、動画サービスを前倒しして質問受付は後回しとすることで、並行してサービスを行う時間を確保する。接客ロボット100は、来訪者Aに右腕部113を用いてスクリーン25を指し示して音声で説明しつつ、来訪者Bに頭部111を向けて左腕部114を振り、表示部116に予告情報26を表示する。接客ロボット100は、このようにロボット資源117の各資源を配分することで、動画に見入る来訪者Aと、対応待ちの来訪者Bとの双方に対して接客でき、接客効率を向上することができる。
The
図27から図30は、サービスシナリオの具体的な一例を示す図である。図27から図30は、図26に示すプレゼンテーションサービスの具体例におけるサービスシナリオの一例である。図27から図30のサービスシナリオは、図26の例において、サービスシナリオ記憶部125に記憶される。当該サービスシナリオでは、例えば、プレゼンテーションを行うフェーズ「コア価値提供」について、さらに7つのサブフェーズが設定されている。当該サービスシナリオでは、サブフェーズ単位で資源配分を行うことで、複数の来訪者(来訪者A,B)に対して並行してサービスを提供できる機会を増加させることができる。
FIGS. 27 to 30 are diagrams showing specific examples of service scenarios. 27 to 30 show an example of a service scenario in the specific example of the presentation service shown in FIG. The service scenario of FIG. 27 to FIG. 30 is stored in the service
図31は、複数の来訪者に対する接客の具体的な一例を示す図である。図31に示すように、接客ロボット100aは、例えば、F市役所の窓口に設置され、来訪者Aを受け付ける。接客ロボット100aは、来訪者Aを受け付けると、来訪者Aに対して場所を誘導する。接客ロボット100aは、例えば、申請書の記入指導ができるロボット資源117が設置された机に来訪者Aを誘導する。接客ロボット100aは、来訪者Aにコア価値を提供、つまり、申請書に対して説明27を表示する等して記入指導を開始する。このとき、ブースに来訪者Bが遅れて現れ、接客ロボット100aの前に立ったとする。すると、接客ロボット100aは、来訪者Bの出現を検出し、来訪者Bの関心空間が自身に向いていると判定する。
FIG. 31 is a diagram showing a specific example of customer service for a plurality of visitors. As shown in FIG. 31, for example, the customer-
また、接客ロボット100aは、来訪者Aが机上を凝視しており、接客ロボット100aを見ていない状態を検出する。すなわち、接客ロボット100aは、来訪者Aの関心空間が机上に長期間固定されていると判定する。接客ロボット100aは、来訪者A,Bに対して、並行してサービスを提供するために、来訪者A,Bの各関心空間の相互非干渉性が高いか否かを判定する。すなわち、接客ロボット100aは、来訪者Aが机上を見ており、来訪者Bが接客ロボット100aを見ているため、相互非干渉性が高いと判定する。つまり、接客ロボット100aは、ロボット資源117の各資源を来訪者A,Bに配分可能と判定する。なお、接客ロボット100aは、来訪者Aの関心空間を確認するために、来訪者A側の左腕部114を用いて手振り動作をしてもよい。
Further, the
接客ロボット100aは、来訪者A,Bのそれぞれに対して接客効果が上がるように、ロボット資源117の各資源を再配分する。接客ロボット100aは、来訪者Aに左腕部114を配分し、来訪者Bに頭部111、右腕部113および対話部115を配分する。接客ロボット100aは、配分に応じて複数のサービスを並行して実行する。このとき、接客ロボット100aは、机上で行っている記入指導について、可制御性を増強する。つまり、接客ロボット100aは、記入指導のうち、記入内容の自己確認依頼を前倒しして質問受付は後回しとすることで、並行してサービスを行う時間を確保する。接客ロボット100aは、来訪者Aに左腕部114で指し示し、来訪者Bに頭部111を向けてお辞儀をし、「受付の発話」の後、右腕部113を用いて来訪者Bを他の机に誘導して申請書記入を指示する。接客ロボット100aは、このようにロボット資源117の各資源を配分することで、先に申請書に記入を始めている来訪者Aと、後から来た来訪者Bとの双方に対して接客でき、接客効率を向上することができる。
The
図32から図36は、サービスシナリオの具体的な一例を示す図である。図32から図36は、図31に示す申請書記入支援サービスの具体例におけるサービスシナリオの一例である。図32から図36のサービスシナリオは、図31の例において、サービスシナリオ記憶部125に記憶される。当該サービスシナリオでは、例えば、申請書記入支援を行うフェーズ「コア価値提供」について、さらに7つのサブフェーズが設定されている。当該サービスシナリオでは、サブフェーズ単位で資源配分を行うことで、複数の来訪者(来訪者A,B)に対して並行してサービスを提供できる機会を増加させることができる。
32 to 36 illustrate specific examples of service scenarios. FIGS. 32 to 36 illustrate an example of a service scenario in the specific example of the application support service shown in FIG. The service scenarios of FIGS. 32 to 36 are stored in the service
図37は、複数の来訪者に対する接客の具体的な一例を示す図である。図37に示すように、接客ロボット100bは、例えば、水族館等に設置され、複数の来訪者に対して案内サービスを提供する。まず、例えば、ある時刻t0に接客ロボット100bの左右に同時に来訪者A,Bが現れたとする。このとき、接客ロボット100bは、来訪者A,Bを検出すると、例えば、図13に示す資源活用テーブル124eを参照し、接客ロボット100bに向かって左側から現れた来訪者Aに対して、右腕部113および眼部112のうち右眼部を配分する。また、接客ロボット100bは、接客ロボット100bに向かって右側から現れた来訪者Bに対して、左腕部114および眼部112のうち左眼部を配分する。
FIG. 37 is a diagram showing a specific example of customer service for a plurality of visitors. As shown in FIG. 37, the
つまり、接客ロボット100bの頭部111を左右のどちらかの来訪者に向けると、逆側の来訪者も(自分が相手にされていない状態として)気付きやすいが、眼は左右別々に来訪者A,Bに向けても逆側の来訪者は気付きにくい。また、対話部115(例えば、口。)や表示部116は、左右のどちらかの来訪者に向けると、逆側の来訪者も(自分が相手にされていない状態として)気付きやすい。
In other words, if the
接客ロボット100bは、配分に応じてロボット資源117の各資源を動かし、手振りやアイコンタクト等によって、来訪者A,Bを自身の正面方向へと誘導する。接客ロボット100bは、自身の正面方向に誘導された来訪者A,Bに対して、コア価値である情報表示サービスを開始する。接客ロボット100bは、このようにロボット資源117の各資源を配分することで、同時に現れた来訪者A,Bをそれぞれ誘導し、接客効率を向上することができる。
The
図38は、複数の園児を誘導する場合の一例を示す図である。図38に示すように、ある幼稚園では、接客ロボット100cを導入しているとする。園児C,Dは、接客ロボット100cから遠い場所で遊んでいる。園児E,Fは、接客ロボット100cの近傍で遊んでいる。接客ロボット100cは、所定の時間になると、お話の先生32の方向へ園児C〜Fを誘導するものとする。
FIG. 38 is a diagram showing an example of guiding a plurality of children. As shown in FIG. 38, in a certain kindergarten, it is assumed that a
接客ロボット100cは、園児C〜Fの4人への手振りのリーチ28,29と、視線のリーチ30,31との可能性を確認する。接客ロボット100cは、確認結果に基づいて、右腕部113を園児C,Dに配分し、左腕部114および表示部116を園児E,Fに配分する。また、対話部115は、園児C〜Fに対して誘導メッセージを発声するので、両方に配分する。
The
接客ロボット100cは、配分に応じて、右腕部113を動かしつつ、対話部115を用いて誘導メッセージを発声し、園児C,Dをお話の先生32の方向へ誘導する。また、接客ロボット100cは、配分に応じて、左腕部114を動かしつつ、表示部116に誘導用の矢印33を表示し、対話部115を用いて誘導メッセージを発声して、園児E,Fをお話の先生32の方向へ誘導する。接客ロボット100cは、このようにロボット資源117の各資源を配分することで、方向指示という同一種別のサービスであっても、指示先の異なるタスクを並行して実行することができ、接客効率を向上することができる。
The
このように、接客ロボット100は、第1の来訪者と第2の来訪者とを検出すると、第1の来訪者と第2の来訪者とが撮像されている撮像画像、または、センサにより検出された第1の来訪者の特定のいずれかの部位の向きおよび第2の来訪者のいずれかの部位の向きに基づき、第1の来訪者と第2の来訪者とのそれぞれの関心領域を特定する。また、接客ロボット100は、特定した第1の来訪者の関心領域と、第2の来訪者の関心領域とが異なるか否かを判定する。また、接客ロボット100は、第1の来訪者の関心領域と、第2の来訪者の関心領域とが異なる場合、情報提供装置が有する複数の情報提供リソースのうち、第1の来訪者の関心領域に応じた情報提供リソースを用いて、第1の来訪者に対する情報提供処理を実行する。また、接客ロボット100は、複数の情報提供リソースのうち、第2の来訪者の関心領域に応じた情報提供リソースを用いて、第2の来訪者に対する情報提供処理を実行する。その結果、接客ロボット100は、複数の来訪者に対する接客効率を向上できる。
As described above, when the
また、接客ロボット100は、複数の情報提供リソースのそれぞれの情報提供リソースが情報提供処理を実行した際に、第1の来訪者と第2の来訪者とが該情報提供処理の実行に気付く確率を求める。また、接客ロボット100は、求めた気付く確率に基づいて、複数の情報提供リソースを第1の来訪者および第2の来訪者に配分する。その結果、接客ロボット100は、第1の来訪者が不満を抱きにくい範囲で接客の質を下げて資源を確保し、第2の来訪者が効果を得やすい範囲で、確保した資源を第2の来訪者への接客に回すので、トータルで接客の品質を保つことができる。
In addition, when the information provision resource of each of the plurality of information provision resources executes the information provision process, the
また、接客ロボット100は、第1の来訪者に対する情報提供処理を実行中に、第2の来訪者の関心領域が特定されると、情報提供リソースの配分を変更する。すなわち、接客ロボット100は、第1の来訪者に対する情報提供処理を実行中の情報提供リソースの配分を減じて、第2の来訪者の関心領域に応じた情報提供リソースの配分を増加させる。その結果、接客ロボット100は、第1の来訪者が不満を抱きにくい範囲で接客の質を下げて資源を確保し、第2の来訪者が効果を得やすい範囲で、確保した資源を第2の来訪者への接客に回すので、トータルで接客の品質を保つことができる。
Also, when the
また、接客ロボット100は、第1の来訪者または第2の来訪者の位置、頭部の向きおよび視線に基づいて、関心領域を特定する。その結果、接客ロボット100は、関心領域(関心空間)に応じたサービスを提供できる。
Further, the
また、接客ロボット100は、第1の来訪者または第2の来訪者に対する働きかけへの反応行動、対話、他の人物との関係性、情報提供装置への接触のうち、1つまたは複数に基づいて、関心領域を特定する。その結果、接客ロボット100は、関心領域(関心空間)に応じたサービスを提供できる。
In addition, the
また、接客ロボット100は、第1の来訪者の関心領域と、第2の来訪者の関心領域とについて共通する関心領域がある場合、該共通する関心領域に対する情報提供リソースを、第1の来訪者と第2の来訪者とで共用して情報提供処理を実行する。その結果、接客ロボット100は、複数の来訪者に対する接客効率を向上できる。
Also, if there is a region of interest common to the region of interest of the first visitor and the region of interest of the second visitor, the
また、接客ロボット100は、第1の来訪者と第2の来訪者とを検出すると、第1の来訪者と第2の来訪者とが撮像されている撮像画像、または、センサにより検出された第1の来訪者の特定のいずれかの部位の向きおよび第2の来訪者のいずれかの部位の向きに基づき、第1の来訪者と第2の来訪者とのそれぞれの関心領域を特定する。また、接客ロボット100は、特定した第1の来訪者の関心領域と、第2の来訪者の関心領域とについて共通する関心領域がある否かを判定する。また、接客ロボット100は、共通する関心領域がある場合、情報提供装置が有する複数の情報提供リソースのうち、共通する関心領域に応じた情報提供リソースを用いて、第1の来訪者および第2の来訪者に対する情報提供処理を実行する。その結果、接客ロボット100は、複数の来訪者に対する接客効率を向上できる。
Further, when the
なお、上記実施例では、来訪者の検出に外部センサ10を用いたが、これに限定されない。例えば、接客ロボット100にカメラ、赤外線センサ、超音波センサ、レーダー、LIDAR、音声定位マイク等を設け、来訪者を検出してもよい。また、これらの各種センサを用いて来訪者の関心空間等を検出するようにしてもよい。
In addition, although the
また、上記実施例では、撮像画像を用いて第1の来訪者と第2の来訪者とのそれぞれの関心領域を特定したが、これに限定されない。例えば、各種センサにより検出された第1の来訪者の特定のいずれかの部位の向きおよび第2の来訪者のいずれかの部位の向きに基づき、第1の来訪者と第2の来訪者とのそれぞれの関心領域を特定してもよい。ここで、来訪者の向き等は、例えば、来訪者にGPSの受信機と加速度センサとを内蔵したヘッドセットを装着してもらい、GPSの位置情報と、加速度情報の積算とに基づいて、来訪者の位置と頭の方向を特定することができる。また、来訪者の向き等は、例えば、床に押圧マットを敷いて、来訪者の足型がどの方向を向いているかを検出することで、来訪者の位置と足型の方向を特定することができる。さらに、来訪者の向き等は、例えば、来訪者に方位センサを内蔵したヘッドセットを装着してもらい、押圧マットと組み合わせることで、来訪者の位置と足型および頭の方向を特定することができる。 Moreover, in the said Example, although the region of interest of each of a 1st visitor and a 2nd visitor was specified using the captured image, it is not limited to this. For example, the first visitor and the second visitor based on the direction of any one specific part of the first visitor detected by various sensors and the direction of any part of the second visitor. Each region of interest may be identified. Here, the direction of the visitor, for example, has the visitor wear a headset incorporating a GPS receiver and an acceleration sensor, and the visitor is visited based on the GPS position information and the integration of the acceleration information. The position of the person and the direction of the head can be identified. In addition, for the direction of the visitor, for example, by placing a pressing mat on the floor and detecting which direction the foot form of the visitor is facing, specify the position of the visitor and the direction of the foot form Can. Further, the orientation of the visitor can be determined by, for example, having the visitor wear a headset having a built-in direction sensor and combining it with the pressing mat to specify the visitor's position, foot type and head direction. it can.
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、特定部132と判定部133とを統合してもよい。また、図示した各処理は、上記の順番に限定されるものでなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。 Further, each component of each unit shown in the drawings does not necessarily have to be physically configured as shown in the drawings. That is, the specific form of the dispersion and integration of each part is not limited to the illustrated one, and all or a part thereof is functionally or physically dispersed or integrated in any unit according to various loads, usage conditions, etc. Can be configured. For example, the identification unit 132 and the determination unit 133 may be integrated. Further, the illustrated processes are not limited to the above-described order, and may be performed simultaneously within the range in which the process contents do not contradict each other, or may be performed by changing the order.
さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。 Furthermore, all or any part of various processing functions performed by each device may be executed on a CPU (or a microcomputer such as an MPU or an MCU (Micro Controller Unit)). In addition, various processing functions may be executed in whole or any part on a program analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or on hardware by wired logic. It goes without saying that it is good.
ところで、上記の各実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の各実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図39は、制御プログラムを実行するコンピュータの一例を示す図である。 The various processes described in the above embodiments can be realized by executing a prepared program on a computer. So, below, an example of a computer which runs a program which has the same function as each above-mentioned example is explained. FIG. 39 is a diagram illustrating an example of a computer that executes a control program.
図39に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、データ入力を受け付ける入力装置202と、モニタ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る媒体読取装置204と、各種装置と接続するためのインタフェース装置205と、外部センサ10や、他の情報処理装置等と有線または無線により接続するための通信装置206とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM207と、ハードディスク装置208とを有する。また、各装置201〜208は、バス209に接続される。
As shown in FIG. 39, the
ハードディスク装置208には、図2に示した検出部131、特定部132、判定部133および情報提供部134の各処理部と同様の機能を有する制御プログラムが記憶される。また、ハードディスク装置208には、サービス提供空間記憶部121、関心空間情報記憶部122、来訪者空間情報記憶部123、資源活用情報記憶部124、サービスシナリオ記憶部125、および、制御プログラムを実現するための各種データが記憶される。入力装置202は、例えば、コンピュータ200が制御する情報提供装置が対応する来訪者から操作情報等の各種情報の入力を受け付ける。モニタ203は、例えば、コンピュータ200が制御する情報提供装置が対応する来訪者に対して表示画面等の各種画面を表示する。インタフェース装置205は、例えば情報提供装置や印刷装置等が接続される。通信装置206は、例えば、図2に示した通信部110と同様の機能を有し外部センサ10や図示しないネットワークと接続され、外部センサ10や図示しない他の情報処理装置等と各種情報をやりとりする。
The
CPU201は、ハードディスク装置208に記憶された各プログラムを読み出して、RAM207に展開して実行することで、各種の処理を行う。また、これらのプログラムは、コンピュータ200を図2に示した検出部131、特定部132、判定部133および情報提供部134として機能させることができる。
The
なお、上記の制御プログラムは、必ずしもハードディスク装置208に記憶されている必要はない。例えば、コンピュータ200が読み取り可能な記憶媒体に記憶されたプログラムを、コンピュータ200が読み出して実行するようにしてもよい。コンピュータ200が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこの制御プログラムを記憶させておき、コンピュータ200がこれらから制御プログラムを読み出して実行するようにしてもよい。
The above control program does not necessarily have to be stored in the
10 外部センサ
100 接客ロボット
110 通信部
111 頭部
112 眼部
113 右腕部
114 左腕部
115 対話部
116 表示部
117 ロボット資源
120 記憶部
121 サービス提供空間記憶部
122 関心空間情報記憶部
123 来訪者空間情報記憶部
124 資源活用情報記憶部
125 サービスシナリオ記憶部
130 制御部
131 検出部
132 特定部
133 判定部
134 情報提供部
10
Claims (11)
特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なるか否かを判定し、
前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なる場合、情報提供装置が有する複数の情報提供リソースのうち、前記第1の来訪者の関心領域に応じた情報提供リソースを用いて、前記第1の来訪者に対する情報提供処理を実行し、前記複数の情報提供リソースのうち、前記第2の来訪者の関心領域に応じた情報提供リソースを用いて、前記第2の来訪者に対する情報提供処理を実行する、
処理をコンピュータに実行させることを特徴とする制御プログラム。 When the first visitor and the second visitor are detected, a captured image in which the first visitor and the second visitor are imaged, or the first visit detected by a sensor Identifying the respective regions of interest of the first visitor and the second visitor based on the orientation of any part of the person and the orientation of any part of the second visitor,
It is determined whether or not the identified first visitor's region of interest and the second visitor's region of interest are different.
In the case where the region of interest of the first visitor and the region of interest of the second visitor differ, according to the region of interest of the first visitor among a plurality of information provision resources possessed by the information provision apparatus The information providing process is performed using the information providing resource, and the information providing process according to the region of interest of the second visitor among the plurality of information providing resources is performed using the information providing resource. Execute information provision processing for the second visitor,
A control program causing a computer to execute a process.
ことを特徴とする請求項1に記載の制御プログラム。 In the process of executing the information provision process, the first visitor and the second visitor provide the information when the information provision resource of each of the plurality of information provision resources executes the information provision process. Allocating the plurality of information provision resources to the first visitor and the second visitor based on the probability of noticing the execution of the process;
The control program according to claim 1, characterized in that:
ことを特徴とする請求項1または2に記載の制御プログラム。 The process for executing the information provision process is the process for providing information to the first visitor when the region of interest of the second visitor is specified while the information provision process for the first visitor is performed. Reduce the allocation of informational resources in progress to increase the allocation of informational resources according to the area of interest of the second visitor,
The control program according to claim 1 or 2, characterized in that:
ことを特徴とする請求項1〜3のいずれか1つに記載の制御プログラム。 The identifying process identifies the region of interest based on the position of the first visitor or the second visitor, the head orientation, and the line of sight.
The control program as described in any one of the Claims 1-3 characterized by the above-mentioned.
ことを特徴とする請求項4に記載の制御プログラム。 The identifying process may be one or more of a reaction to an action on the first visitor or the second visitor, an interaction, a relationship with another person, or a contact with the information providing apparatus. Identifying the region of interest based on
The control program according to claim 4, characterized in that:
ことを特徴とする請求項1に記載の制御プログラム。 When the processing for executing the information provision processing has a common region of interest for the first visitor's region of interest and the second visitor's region of interest, the information provision resource for the common region of interest is The information providing process is executed by sharing the first visitor and the second visitor;
The control program according to claim 1, characterized in that:
特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とについて共通する関心領域がある否かを判定し、
前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とについて共通する関心領域がある場合、情報提供装置が有する複数の情報提供リソースのうち、前記共通する関心領域に応じた情報提供リソースを用いて、前記第1の来訪者および前記第2の来訪者に対する情報提供処理を実行する、
処理をコンピュータに実行させることを特徴とする制御プログラム。 When the first visitor and the second visitor are detected, a captured image in which the first visitor and the second visitor are imaged, or the first visit detected by a sensor Identifying the respective regions of interest of the first visitor and the second visitor based on the orientation of any part of the person and the orientation of any part of the second visitor,
It is determined whether there is an area of interest common to the identified area of interest of the first visitor and the area of interest of the second visitor,
When there is a common region of interest for the first visitor's region of interest and the second visitor's region of interest, the common region of interest among the plurality of information provision resources possessed by the information provision apparatus Executing an information provision process for the first visitor and the second visitor using the specified information provision resource;
A control program causing a computer to execute a process.
特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なるか否かを判定し、
前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なる場合、情報提供装置が有する複数の情報提供リソースのうち、前記第1の来訪者の関心領域に応じた情報提供リソースを用いて、前記第1の来訪者に対する情報提供処理を実行し、前記複数の情報提供リソースのうち、前記第2の来訪者の関心領域に応じた情報提供リソースを用いて、前記第2の来訪者に対する情報提供処理を実行する、
処理をコンピュータが実行することを特徴とする制御方法。 When the first visitor and the second visitor are detected, a captured image in which the first visitor and the second visitor are imaged, or the first visit detected by a sensor Identifying the respective regions of interest of the first visitor and the second visitor based on the orientation of any part of the person and the orientation of any part of the second visitor,
It is determined whether or not the identified first visitor's region of interest and the second visitor's region of interest are different.
In the case where the region of interest of the first visitor and the region of interest of the second visitor differ, according to the region of interest of the first visitor among a plurality of information provision resources possessed by the information provision apparatus The information providing process is performed using the information providing resource, and the information providing process according to the region of interest of the second visitor among the plurality of information providing resources is performed using the information providing resource. Execute information provision processing for the second visitor,
A control method, characterized in that a computer executes a process.
特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とについて共通する関心領域がある否かを判定し、
前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とについて共通する関心領域がある場合、情報提供装置が有する複数の情報提供リソースのうち、前記共通する関心領域に応じた情報提供リソースを用いて、前記第1の来訪者および前記第2の来訪者に対する情報提供処理を実行する、
処理をコンピュータが実行することを特徴とする制御方法。 When the first visitor and the second visitor are detected, a captured image in which the first visitor and the second visitor are imaged, or the first visit detected by a sensor Identifying the respective regions of interest of the first visitor and the second visitor based on the orientation of any part of the person and the orientation of any part of the second visitor,
It is determined whether there is an area of interest common to the identified area of interest of the first visitor and the area of interest of the second visitor,
When there is a common region of interest for the first visitor's region of interest and the second visitor's region of interest, the common region of interest among the plurality of information provision resources possessed by the information provision apparatus Executing an information provision process for the first visitor and the second visitor using the specified information provision resource;
A control method, characterized in that a computer executes a process.
特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なるか否かを判定する判定部と、
前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とが異なる場合、情報提供装置が有する複数の情報提供リソースのうち、前記第1の来訪者の関心領域に応じた情報提供リソースを用いて、前記第1の来訪者に対する情報提供処理を実行し、前記複数の情報提供リソースのうち、前記第2の来訪者の関心領域に応じた情報提供リソースを用いて、前記第2の来訪者に対する情報提供処理を実行する情報提供部と、
を有することを特徴とする制御装置。 When the first visitor and the second visitor are detected, a captured image in which the first visitor and the second visitor are imaged, or the first visit detected by a sensor Specifying the respective regions of interest of the first visitor and the second visitor based on the orientation of any part of the person and the orientation of any part of the second visitor Department,
A determination unit that determines whether the identified first visitor's region of interest is different from the second visitor's region of interest;
In the case where the region of interest of the first visitor and the region of interest of the second visitor differ, according to the region of interest of the first visitor among a plurality of information provision resources possessed by the information provision apparatus The information providing process is performed using the information providing resource, and the information providing process according to the region of interest of the second visitor among the plurality of information providing resources is performed using the information providing resource. An information providing unit that executes an information providing process for a second visitor;
A control device characterized by having.
特定した前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とについて共通する関心領域がある否かを判定する判定部と、
前記第1の来訪者の関心領域と、前記第2の来訪者の関心領域とについて共通する関心領域がある場合、情報提供装置が有する複数の情報提供リソースのうち、前記共通する関心領域に応じた情報提供リソースを用いて、前記第1の来訪者および前記第2の来訪者に対する情報提供処理を実行する情報提供部と、
を有することを特徴とする制御装置。 When the first visitor and the second visitor are detected, a captured image in which the first visitor and the second visitor are imaged, or the first visit detected by a sensor Specifying the respective regions of interest of the first visitor and the second visitor based on the orientation of any part of the person and the orientation of any part of the second visitor Department,
A determination unit that determines whether there is a region of interest common to the identified region of interest of the first visitor and the region of interest of the second visitor;
When there is a common region of interest for the first visitor's region of interest and the second visitor's region of interest, the common region of interest among the plurality of information provision resources possessed by the information provision apparatus An information providing unit that executes an information providing process for the first visitor and the second visitor using the specified information providing resource;
A control device characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017214978A JP7009939B2 (en) | 2017-11-07 | 2017-11-07 | Control programs, control methods and controls |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017214978A JP7009939B2 (en) | 2017-11-07 | 2017-11-07 | Control programs, control methods and controls |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019087047A true JP2019087047A (en) | 2019-06-06 |
JP7009939B2 JP7009939B2 (en) | 2022-02-10 |
Family
ID=66763118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017214978A Active JP7009939B2 (en) | 2017-11-07 | 2017-11-07 | Control programs, control methods and controls |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7009939B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004114285A (en) * | 2002-09-02 | 2004-04-15 | Sony Corp | Robotic device and its behavior control method |
JP2009248193A (en) * | 2008-04-01 | 2009-10-29 | Toyota Motor Corp | Reception system and reception method |
-
2017
- 2017-11-07 JP JP2017214978A patent/JP7009939B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004114285A (en) * | 2002-09-02 | 2004-04-15 | Sony Corp | Robotic device and its behavior control method |
JP2009248193A (en) * | 2008-04-01 | 2009-10-29 | Toyota Motor Corp | Reception system and reception method |
Also Published As
Publication number | Publication date |
---|---|
JP7009939B2 (en) | 2022-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10798509B1 (en) | Wearable electronic device displays a 3D zone from where binaural sound emanates | |
US11290836B2 (en) | Providing binaural sound behind an image being displayed with an electronic device | |
US10880670B2 (en) | Systems and methods for determining estimated head orientation and position with ear pieces | |
CN104765444B (en) | Vehicle-mounted gesture interaction space audio system | |
CN105324811B (en) | Speech to text conversion | |
US10027888B1 (en) | Determining area of interest in a panoramic video or photo | |
US20190313201A1 (en) | Systems and methods for sound externalization over headphones | |
KR20160113666A (en) | Audio navigation assistance | |
JP6821795B2 (en) | Virtual reality, augmented reality, and mixed reality systems with spatialized audio | |
US9594148B2 (en) | Estimation device and estimation method using sound image localization processing | |
JP2019087047A (en) | Control program, control method and control device | |
US11032659B2 (en) | Augmented reality for directional sound | |
US20180063384A1 (en) | Information processing apparatus, information processing method, and program | |
US10820132B2 (en) | Voice providing device and voice providing method | |
JP2020004392A (en) | Data transmission apparatus, terminal, and program | |
JP7428189B2 (en) | Information processing device, control method and control program | |
CN116610825A (en) | Information providing system, method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7009939 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |