JP2014014899A - Information processing apparatus, information processing system, service provider system, and information processing method - Google Patents

Information processing apparatus, information processing system, service provider system, and information processing method Download PDF

Info

Publication number
JP2014014899A
JP2014014899A JP2012153647A JP2012153647A JP2014014899A JP 2014014899 A JP2014014899 A JP 2014014899A JP 2012153647 A JP2012153647 A JP 2012153647A JP 2012153647 A JP2012153647 A JP 2012153647A JP 2014014899 A JP2014014899 A JP 2014014899A
Authority
JP
Japan
Prior art keywords
group
unit
service
information processing
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012153647A
Other languages
Japanese (ja)
Other versions
JP5439549B2 (en
Inventor
Yuto Yamaji
雄土 山地
Daisuke Yamamoto
大介 山本
Takeshi Tazaki
豪 田崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012153647A priority Critical patent/JP5439549B2/en
Publication of JP2014014899A publication Critical patent/JP2014014899A/en
Application granted granted Critical
Publication of JP5439549B2 publication Critical patent/JP5439549B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus, an information processing system, a service provider system, and an information processing method that are able to make a switchover to an appropriate service depending on the circumstance of a target that receives the service.SOLUTION: An information processing apparatus according to an embodiment includes an acquisition unit, a first detection unit, a second detection unit, a selection unit, and a first determination unit. The acquisition unit acquires motion vectors of a plurality of individual targets. The first detection unit detects a first group indicating a collection of motion vectors that are equal to or larger than a threshold value and are similar to one another. The second detection unit detects a second group indicating a collection of motion vectors that are smaller than the threshold value. The selection unit selects one of the first group and the second group. The first determination unit decides to provide a first service if the selection unit selects the first group, and decides to provide a second service different from the first service if the selection unit selects the second group.

Description

本発明の実施形態は、情報処理装置、情報処理システム、サービス提供システムおよび情報処理方法に関する。   Embodiments described herein relate generally to an information processing apparatus, an information processing system, a service providing system, and an information processing method.

従来、例えば公共の空間(ショッピングモール内や路上等)において、商品や広告などの情報を示す商品情報の提供などのサービスを行うサービス提供装置が知られている。例えば、商品情報などを表示するディスプレイを備えた表示装置を、サービス提供装置として利用する形態が知られている。この形態では、ディスプレイの表示内容をリアルタイムに変更できるという特性を活かし、サービスを提供する対象(例えば人物)を検出するセンサと組み合わせることで、対話式の情報を提供する(インタラクティブなサービスを行う)こともできる。また、提供するサービスのインタラクティブ性を追求するものとして、商品情報の報知などのサービスを行うロボット装置を、サービス提供装置として利用する形態も知られている。   2. Description of the Related Art Conventionally, service providing apparatuses that perform services such as provision of product information indicating information such as products and advertisements in public spaces (such as shopping malls and on the street) are known. For example, a form in which a display device including a display for displaying product information is used as a service providing device is known. In this form, interactive information is provided (interactive service is performed) by combining with a sensor that detects an object (for example, a person) to provide a service, taking advantage of the property that display contents can be changed in real time. You can also. Also, in order to pursue the interactivity of the service to be provided, a form in which a robot apparatus that performs services such as notification of product information is used as a service providing apparatus is also known.

ここで、例えば複数の人物が固まってサービス提供装置に近づいてきている場合は、行動を共にするグループがサービス提供装置に近づいてきていると推定することができる。互いに意思疎通を行うなどの関係が成立している人物の集合で構成されるグループに対しては、密な会話によるサービスを行うことで(対話式の情報を提供することで)、そのグループに属する人物全員を満足させることができると考えられる。   Here, for example, when a plurality of persons are gathered and approaching the service providing apparatus, it can be estimated that a group that performs actions is approaching the service providing apparatus. For a group consisting of a set of people who have established a relationship such as mutual communication, by providing a service with close conversation (providing interactive information), It is thought that all the persons who belong can be satisfied.

一方、例えばサービス提供装置の周囲を大勢の人物が取り囲んでいるような場合は、意思疎通を行うなどの関係が成立していない人物も含まれている可能性がある。このような場合に、サービス提供装置の周囲を取り囲んでいる複数の人物を1つのグループとみなして、密な会話によるサービスを行うことは適切ではない。このような場合は、演技的や説明的なサービス、つまり、非インタラクティブ性のサービスを行う方が、サービスを提供する対象となる各人物に対して均一に働きかけることができるので、サービス提供の効果が大きい。   On the other hand, for example, when a large number of people surround the service providing apparatus, there may be a person who does not have a relationship such as communication. In such a case, it is not appropriate to perform a service based on close conversation by regarding a plurality of persons surrounding the service providing apparatus as one group. In such cases, acting and descriptive services, that is, non-interactive services, can work uniformly on each person who provides the service, so the effect of providing the service Is big.

しかしながら、従来においては、サービスを提供する対象が、互いに意思疎通を行うなどの関係が成立している人物の集合である場合と、互いに意思疎通を行うなどの関係が成立しているのか否かが不明な人物の集合である場合とで、提供するサービスを適切なものに切り替えるという技術は存在しなかった。   However, in the past, whether the target to provide the service is a set of persons who have established a relationship such as communicating with each other and whether the relationship such as communicating with each other has been established. There is no technology for switching the service to be provided to an appropriate one when there is a group of unknown persons.

特開2011−194507号公報JP 2011-194507 A 特開2005−347321号公報JP 2005-347321 A 特開2008−213082号公報JP 2008-213082 A 国際公開第WO2006/085383号International Publication No. WO2006 / 085383

本発明が解決しようとする課題は、サービスを提供する対象の状況に応じて、適切なサービスに切り替え可能な情報処理装置、情報処理システム、サービス提供システムおよび情報処理方法を提供することである。   The problem to be solved by the present invention is to provide an information processing apparatus, an information processing system, a service providing system, and an information processing method that can be switched to an appropriate service according to the situation of an object to provide the service.

実施形態の情報処理装置は、取得部と第1検出部と第2検出部と選択部と第1決定部とを備える。取得部は、複数の対象物の各々の移動ベクトルを取得する。第1検出部は、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出部は、閾値未満である移動ベクトルの集合を示す第2群を検出する。選択部は、第1群または第2群の何れかを選択する。第1決定部は、選択部により第1群が選択された場合は、第1サービスを行うことを決定し、選択部により第2群が選択された場合は、第1サービスとは異なる第2サービスを行うことを決定する。   The information processing apparatus according to the embodiment includes an acquisition unit, a first detection unit, a second detection unit, a selection unit, and a first determination unit. The acquisition unit acquires each movement vector of the plurality of objects. The first detection unit detects a first group indicating a set of movement vectors similar in size to each other that have a size equal to or greater than a threshold value. The second detection unit detects a second group indicating a set of movement vectors that are less than the threshold. The selection unit selects either the first group or the second group. The first determination unit determines to perform the first service when the selection unit selects the first group, and when the selection unit selects the second group, the second determination unit is different from the first service. Decide to perform the service.

実施形態の情報処理システムは、情報処理装置と、1以上のサーバ装置とを備える情報処理システムであって、取得部と第1検出部と第2検出部と選択部と第1決定部とを備える。取得部は、複数の対象物の各々の移動ベクトルを取得する。第1検出部は、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出部は、閾値未満である移動ベクトルの集合を示す第2群を検出する。選択部は、第1群または第2群の何れかを選択する。第1決定部は、選択部により第1群が選択された場合は、第1サービスを行うことを決定し、選択部により第2群が選択された場合は、第1サービスとは異なる第2サービスを行うことを決定する。   An information processing system according to an embodiment is an information processing system including an information processing device and one or more server devices, and includes an acquisition unit, a first detection unit, a second detection unit, a selection unit, and a first determination unit. Prepare. The acquisition unit acquires each movement vector of the plurality of objects. The first detection unit detects a first group indicating a set of movement vectors similar in size to each other that have a size equal to or greater than a threshold value. The second detection unit detects a second group indicating a set of movement vectors that are less than the threshold. The selection unit selects either the first group or the second group. The first determination unit determines to perform the first service when the selection unit selects the first group, and when the selection unit selects the second group, the second determination unit is different from the first service. Decide to perform the service.

実施形態のサービス提供システムは、1以上のサーバ装置と、出力装置とを備えるサービス提供システムであって、1以上のサーバ装置は、取得部と第1検出部と第2検出部と選択部と決定部とを備える。取得部は、複数の対象物の各々の移動ベクトルを取得する。第2検出部は、閾値未満である移動ベクトルの集合を示す第2群を検出する。選択部は、第1群または第2群の何れかを選択する。決定部は、選択部により第1群が選択された場合は、第1サービスを行うことを決定し、選択部により第2群が選択された場合は、第1サービスとは異なる第2サービスを行うことを決定する。一方、出力装置は、決定部による決定に応じた出力を行う出力部を少なくとも備える。   The service providing system according to the embodiment is a service providing system including one or more server devices and an output device, and the one or more server devices include an acquisition unit, a first detection unit, a second detection unit, and a selection unit. A determination unit. The acquisition unit acquires each movement vector of the plurality of objects. The second detection unit detects a second group indicating a set of movement vectors that are less than the threshold. The selection unit selects either the first group or the second group. The determination unit determines to perform the first service when the selection unit selects the first group, and determines the second service different from the first service when the selection unit selects the second group. Decide what to do. On the other hand, the output device includes at least an output unit that performs output according to the determination by the determination unit.

実施形態の情報処理方法は、取得ステップと第1検出ステップと第2検出ステップと選択ステップと第1決定ステップとを含む。取得ステップは、複数の対象物の各々の移動ベクトルを取得する。第1検出ステップは、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出ステップは、閾値未満である移動ベクトルの集合を示す第2群を検出する。選択ステップは、第1群または第2群の何れかを選択する。第1決定ステップは、第1群が選択された場合は、第1サービスを行うことを決定し、第2群が選択された場合は、第1サービスとは異なる第2サービスを行うことを決定する。   The information processing method of the embodiment includes an acquisition step, a first detection step, a second detection step, a selection step, and a first determination step. In the acquisition step, each movement vector of the plurality of objects is acquired. In the first detection step, a first group indicating a set of movement vectors having magnitudes equal to or larger than a threshold and similar to each other is detected. The second detection step detects a second group indicating a set of movement vectors that are less than the threshold value. The selection step selects either the first group or the second group. The first determining step determines to perform the first service when the first group is selected, and determines to perform the second service different from the first service when the second group is selected. To do.

実施形態のロボット装置の外観例を示す図。The figure which shows the example of an external appearance of the robot apparatus of embodiment. 実施形態のロボット装置のハードウェア構成例を示す図。The figure which shows the hardware structural example of the robot apparatus of embodiment. 実施形態のロボット装置の機能構成例を示す図。The figure which shows the function structural example of the robot apparatus of embodiment. 実施形態の検出される群の一例を示す図。The figure which shows an example of the group detected of embodiment. 実施形態の人物位置記憶部に記憶されるデータの例を示す図。The figure which shows the example of the data memorize | stored in the person position memory | storage part of embodiment. 実施形態の声かけ内容記憶部に記憶されるデータの例を示す図。The figure which shows the example of the data memorize | stored in the voice call content storage part of embodiment. 実施形態の用途別アプリケーション記憶部内のデータの例を示す図。The figure which shows the example of the data in the application memory | storage part classified by use of embodiment. 実施形態のロボット装置による処理動作の一例を示すフローチャート。6 is a flowchart illustrating an example of a processing operation performed by the robot apparatus according to the embodiment.

以下、添付図面を参照しながら、本発明に係る情報処理装置、情報処理システム、サービス提供システムおよび情報処理方法の実施形態を詳細に説明する。   Hereinafter, embodiments of an information processing apparatus, an information processing system, a service providing system, and an information processing method according to the present invention will be described in detail with reference to the accompanying drawings.

(第1実施形態)
第1実施形態では、ロボット装置が、サービス提供装置として利用される形態を想定している。図1は、本実施形態のロボット装置1の外観例を示す図である。図1に示すように、ロボット装置1は、人の形を模したロボットで構成され、頭部10と、右腕部20と、左腕部30と、胴体部40と、右脚部50と、左脚部60とを備える。また、ロボット装置1は、第1カメラ101と、第2カメラ102と、スピーカ161と、マイク162と、を備えている。第1カメラ101は、頭部10に配置され、第2カメラ102、スピーカ161およびマイク162は、胴体部40に配置される。
(First embodiment)
In the first embodiment, it is assumed that the robot apparatus is used as a service providing apparatus. FIG. 1 is a diagram showing an example of the appearance of the robot apparatus 1 of the present embodiment. As shown in FIG. 1, the robot apparatus 1 is configured by a robot imitating a human shape, and includes a head 10, a right arm 20, a left arm 30, a body 40, a right leg 50, and a left. Leg portion 60. In addition, the robot apparatus 1 includes a first camera 101, a second camera 102, a speaker 161, and a microphone 162. The first camera 101 is disposed on the head 10, and the second camera 102, the speaker 161, and the microphone 162 are disposed on the body portion 40.

また、詳細な図示は省略するが、頭部10には、Tilt方向(上下方向)に当該頭部10を駆動するためのモータ171Tと、Pan方向(左右方向)に当該頭部10を駆動するためのモータ172Pとが配置される。頭部10に設けられた第1カメラ101の位置(撮影位置)は、モータ171T,172Pを回転させることにより変更可能である。また、胴体部40には、当該胴体部40を駆動するためのモータ177Wが配置される。この例では、胴体部40に設けられた第2カメラ102は、頭部10に設けられた第1カメラ101よりも広角なカメラレンズを備えており、より広範囲にわたる対象物(例えば人物)の撮影が可能である。また、この例では、ロボットの脚部(50,60)には、当該脚部を駆動するための駆動部(モータ)は配置されない。つまり、この例のロボットは、据え置き型のロボットである。   Although not shown in detail, the head 10 is driven by the motor 171T for driving the head 10 in the tilt direction (up and down direction) and the head 10 in the Pan direction (left and right direction). A motor 172P is disposed. The position (imaging position) of the first camera 101 provided on the head 10 can be changed by rotating the motors 171T and 172P. The body portion 40 is provided with a motor 177W for driving the body portion 40. In this example, the second camera 102 provided in the body 40 has a wider-angle camera lens than the first camera 101 provided in the head 10 and can capture a wider range of objects (for example, a person). Is possible. Further, in this example, a drive unit (motor) for driving the leg part is not arranged on the leg part (50, 60) of the robot. That is, the robot in this example is a stationary robot.

図2は、ロボット装置1のハードウェア構成例を示す図である。図2に示すように、ロボット装置1は、情報処理装置100と、第1カメラ101と、第2カメラ102と、スピーカ161と、マイク162と、駆動部170とを少なくとも備えている。情報処理装置100は、CPU181と、メモリ182と、HDD183と、外部I/O184と、通信部185とを備える。CPU181は、メモリ182またはHDD183等に格納されたプログラムを実行することにより、ロボット装置1全体の動作を制御する。外部I/O184は、ロボットの動作に関するデータの入出力を行う。通信部185は、無線LAN等を介して、店舗端末200との間でデータの送受信を行う。   FIG. 2 is a diagram illustrating a hardware configuration example of the robot apparatus 1. As shown in FIG. 2, the robot apparatus 1 includes at least an information processing apparatus 100, a first camera 101, a second camera 102, a speaker 161, a microphone 162, and a driving unit 170. The information processing apparatus 100 includes a CPU 181, a memory 182, an HDD 183, an external I / O 184, and a communication unit 185. The CPU 181 controls the overall operation of the robot apparatus 1 by executing a program stored in the memory 182 or the HDD 183. The external I / O 184 inputs and outputs data related to the robot operation. The communication unit 185 transmits / receives data to / from the store terminal 200 via a wireless LAN or the like.

この例では、駆動部170には、上述のモータ171T、172Pおよび177Wが含まれる。なお、図2に示すロボット装置1のハードウェア構成は一例であり、例えば通信部185が設けられない形態であってもよい。また、図2の例では、後述の出力部150に対応するスピーカ161および駆動部170が、情報処理装置100とは別に設けられているが、例えば出力部150が情報処理装置100に搭載される形態であってもよい。   In this example, the drive unit 170 includes the motors 171T, 172P, and 177W described above. Note that the hardware configuration of the robot apparatus 1 shown in FIG. 2 is an example, and for example, a configuration in which the communication unit 185 is not provided may be employed. In the example of FIG. 2, a speaker 161 and a driving unit 170 corresponding to an output unit 150 described later are provided separately from the information processing apparatus 100, but the output unit 150 is mounted on the information processing apparatus 100, for example. Form may be sufficient.

図3は、ロボット装置1の機能構成例を示すブロック図である。図3の例では、ロボット装置1が有する機能には、人物移動ベクトル検出部110と、取得部117と、群検出/選択部120と、初期動作制御部130と、第1決定部140と、用途別アプリケーション記憶部141と、アプリケーション実行部142と、出力部150とが含まれる。以下、各機能の具体的な内容を説明する。   FIG. 3 is a block diagram illustrating a functional configuration example of the robot apparatus 1. In the example of FIG. 3, the functions of the robot apparatus 1 include a person movement vector detection unit 110, an acquisition unit 117, a group detection / selection unit 120, an initial operation control unit 130, a first determination unit 140, A use-specific application storage unit 141, an application execution unit 142, and an output unit 150 are included. The specific contents of each function will be described below.

人物移動ベクトル検出部110は、ロボット装置1の周囲における人物の位置を検出し、人物の位置の時系列変化から、当該人物の移動ベクトルを検出する。また、本実施形態では、人物移動ベクトル検出部110は、人物の顔がロボット装置1を向いているかどうかを検出して、当該人物の性別や年齢などの属性を示す属性情報を付加し、人物ごとに、当該人物の属性情報を管理することもできる。図3に示すように、人物移動ベクトル検出部110は、顔検出部111と、属性判定部112と、人物検出部113と、人物位置算出部114と、移動ベクトル検出部115と、人物位置記憶部116とを有する。   The person movement vector detection unit 110 detects the position of the person around the robot apparatus 1 and detects the movement vector of the person from the time series change of the person position. In the present embodiment, the person movement vector detection unit 110 detects whether a person's face is facing the robot apparatus 1 and adds attribute information indicating attributes such as the gender and age of the person. It is also possible to manage the attribute information of each person. As shown in FIG. 3, the person movement vector detection unit 110 includes a face detection unit 111, an attribute determination unit 112, a person detection unit 113, a person position calculation unit 114, a movement vector detection unit 115, and a person position storage. Part 116.

第2カメラ102による撮影が行われるたびに、人物位置算出部114は、第2カメラ102によって撮影された画像を取得し、取得した画像内における人物の位置を示す位置情報を算出する。一例として、本実施形態の人物位置算出部114は、人物検出部113の頭部検出アルゴリズムを用いて、第2カメラ102から取得した画像内における人物の頭部の位置と大きさを検出する。第2カメラ102から取得した画像内に複数の人物が写っている場合は、人物検出部113は、その複数の人物の各々の頭部の位置と大きさを検出することができる。人物位置算出部114は、検出した頭部の大きさ、カメラ(この例では第2カメラ102)の設置位置、カメラの画角などの情報から、ロボット装置1と人物との相対的な角度と距離を計算することができる。この計算結果は、地面を基準平面とし、ロボット装置1の位置が原点となるように設定されたXY座標系に変換されて、人物位置記憶部116に出力(記録)される。以上のように変換された計算結果が、人物の位置を示す位置情報となり、人物を識別する人物情報と対応付けられて人物位置記憶部116に記録される。   Each time shooting by the second camera 102 is performed, the person position calculation unit 114 acquires an image shot by the second camera 102 and calculates position information indicating the position of the person in the acquired image. As an example, the person position calculation unit 114 according to the present embodiment detects the position and size of the person's head in the image acquired from the second camera 102 using the head detection algorithm of the person detection unit 113. When a plurality of persons are shown in the image acquired from the second camera 102, the person detection unit 113 can detect the position and size of each head of the plurality of persons. The person position calculation unit 114 calculates the relative angle between the robot apparatus 1 and the person based on information such as the detected head size, the installation position of the camera (second camera 102 in this example), and the angle of view of the camera. The distance can be calculated. This calculation result is converted into an XY coordinate system set so that the ground is the reference plane and the position of the robot apparatus 1 is the origin, and is output (recorded) to the person position storage unit 116. The calculation result converted as described above becomes position information indicating the position of the person, and is recorded in the person position storage unit 116 in association with the person information for identifying the person.

なお、本実施形態では、カメラ(第2カメラ102)により撮影された画像を用いて、位置情報を算出しているが、位置情報を算出することができるものであるなら、カメラ以外のいかなるデバイスを利用してもよい。例えばレーザレンジファインダや、人感センサ、床圧力センサなどのデバイスを利用する形態であってもよい。また、以上に挙げたデバイスを組み合わせて利用する形態であってもよい。   In the present embodiment, the position information is calculated using an image captured by the camera (second camera 102). However, any device other than the camera can be used as long as the position information can be calculated. May be used. For example, a form using a device such as a laser range finder, a human sensor, or a floor pressure sensor may be used. Moreover, the form using combining the above-mentioned device may be sufficient.

顔検出部111は、第1カメラ101を用いて、人物位置算出部114によって算出された位置情報が示す位置(人物位置)に対して顔検出を行う。本実施形態では、第1カメラ101は、モータ171Tおよび172Pによって、Tilt方向またはPan方向にカメラ角度を制御可能な雲台に取り付けられている。そして、顔検出を行おうとする人物位置が、第1カメラ101の画角の範囲外である場合は、顔検出部111は、当該人物位置がカメラの画角に収まるよう、カメラ雲台を制御することもできる。なお、顔検出部111による顔検出については、公知の様々な技術を利用することができる。顔検出部111により顔が検出された場合、属性判定部112は、公知の属性判定アルゴリズムを使用して、性別と年齢を判定する。そして、属性判定部112は、性別と年齢を示す属性情報を、顔が検出された人物の位置を示す位置情報に対応付けて人物位置記憶部116に記録する。   The face detection unit 111 uses the first camera 101 to perform face detection on the position (person position) indicated by the position information calculated by the person position calculation unit 114. In the present embodiment, the first camera 101 is attached to a pan / tilt head whose camera angle can be controlled in the Tilt direction or the Pan direction by motors 171T and 172P. If the position of the person who wants to perform face detection is outside the range of the angle of view of the first camera 101, the face detection unit 111 controls the camera platform so that the position of the person falls within the angle of view of the camera. You can also For the face detection by the face detection unit 111, various known techniques can be used. When a face is detected by the face detection unit 111, the attribute determination unit 112 determines gender and age using a known attribute determination algorithm. Then, the attribute determination unit 112 records the attribute information indicating the gender and the age in the person position storage unit 116 in association with the position information indicating the position of the person whose face is detected.

移動ベクトル検出部115は、人物位置算出部114による位置情報の算出が行われるたびに、算出された位置情報が示す位置に対応する人物の移動ベクトルを検出する。移動ベクトル検出部115は、人物位置算出部114による前回の位置情報の算出タイミングから、今回の位置情報の算出タイミングまでの時間長に応じて、前回の位置情報の算出タイミングで算出された位置情報が示す位置ごとに、当該位置に対応する人物が今回の位置情報の算出タイミングまでに移動する範囲を推測する。そして、移動ベクトル検出部115は、今回の位置情報の算出タイミングにより算出された位置情報が示す位置のうち、推測した範囲に最も近い位置に対応する人物と、当該範囲の算出元となる位置に対応する人物とを同一の人物とみなして当該人物の移動ベクトルを検出し、検出した移動ベクトルと当該人物を識別する人物情報とを対応付けて人物位置記憶部116に記録する。   The movement vector detection unit 115 detects the movement vector of the person corresponding to the position indicated by the calculated position information every time the position information is calculated by the person position calculation unit 114. The movement vector detection unit 115 calculates the position information calculated at the previous position information calculation timing according to the time length from the previous position information calculation timing by the person position calculation unit 114 to the current position information calculation timing. For each position indicated by, a range in which the person corresponding to the position moves before the current position information calculation timing is estimated. Then, the movement vector detection unit 115 sets the person corresponding to the position closest to the estimated range among the positions indicated by the position information calculated at the current position information calculation timing, and the position from which the range is calculated. The corresponding person is regarded as the same person, the movement vector of the person is detected, and the detected movement vector and person information for identifying the person are associated and recorded in the person position storage unit 116.

なお、人物の移動ベクトルを検出する方法は、上述の方法に限らず、公知の様々な技術を利用することができる。例えば、移動ベクトル検出部115は、人物位置算出部114により算出された位置情報が示す位置に対応する人物の特徴点の変化を検出することで、人物位置算出部114により算出された位置情報が示す位置に対応する人物を識別し、識別した人物ごとに、移動ベクトルを検出することもできる。また、例えば、移動ベクトル検出部115は、顔検出部111により検出された顔情報を用いて、人物位置算出部114により算出された位置情報が示す位置に対応する人物を識別し、識別した人物ごとに、移動ベクトルを検出することもできる。   Note that the method for detecting the movement vector of the person is not limited to the above-described method, and various known techniques can be used. For example, the movement vector detection unit 115 detects the change in the feature point of the person corresponding to the position indicated by the position information calculated by the person position calculation unit 114, so that the position information calculated by the person position calculation unit 114 is obtained. A person corresponding to the indicated position can be identified, and a movement vector can be detected for each identified person. For example, the movement vector detection unit 115 uses the face information detected by the face detection unit 111 to identify a person corresponding to the position indicated by the position information calculated by the person position calculation unit 114, and identifies the identified person. The movement vector can also be detected for each.

本実施形態の人物位置記憶部116は、人物ごとに(人物情報ごとに)、位置情報と、移動ベクトルと、属性情報とが対応付けられたデータ(「検出データ」と呼ぶ)を記憶する。移動ベクトル検出部115は、人物位置算出部114による位置情報の算出が行われるたびに、算出された位置情報が示す位置に対応する人物の移動ベクトルを検出し、その位置情報と、検出した移動ベクトルとを、人物位置記憶部116のうち当該人物の検出データが記憶される領域に記録する。つまり、移動ベクトル検出部115は、人物位置算出部114により算出された位置情報と、自身が検出した移動ベクトルとを、その位置情報が示す位置に対応する人物を識別する人物情報に対応付けて人物位置記憶部116に記録すると捉えることもできる。なお、各人物のデータの履歴は、当該人物がカメラの検出範囲から消失するまでの間、人物位置記憶部116に保持される。   The person position storage unit 116 of the present embodiment stores data (referred to as “detection data”) in which position information, a movement vector, and attribute information are associated with each person (for each person information). The movement vector detection unit 115 detects a movement vector of a person corresponding to the position indicated by the calculated position information each time position information is calculated by the person position calculation unit 114, and the position information and the detected movement are detected. The vector is recorded in an area in the person position storage unit 116 where the detection data of the person is stored. In other words, the movement vector detection unit 115 associates the position information calculated by the person position calculation unit 114 and the movement vector detected by the person with the person information for identifying the person corresponding to the position indicated by the position information. It can also be understood that it is recorded in the person position storage unit 116. The data history of each person is held in the person position storage unit 116 until the person disappears from the camera detection range.

取得部117は、ロボット装置1の周囲に存在する(カメラの検出範囲に存在する)人物の移動ベクトルを取得する。より具体的には、取得部117は、移動ベクトル検出部115による移動ベクトルの検出処理が行われるたびに、人物位置記憶部116にアクセスし、その時点における各人物の位置情報と移動ベクトルを取得する。   The acquisition unit 117 acquires a movement vector of a person existing around the robot apparatus 1 (existing in the camera detection range). More specifically, the acquisition unit 117 accesses the person position storage unit 116 each time movement vector detection processing is performed by the movement vector detection unit 115, and acquires position information and movement vectors of each person at that time. To do.

群検出/選択部120は、取得部117により取得された移動ベクトルに基づいて、図4(a)に示すように、互いに意思疎通を行うなどの関係が成立しており、行動を共にしていることが想定される人物の集合がロボット装置1に近づいてきている状況を検出することができる。また、群検出/選択部120は、取得部117により取得された移動ベクトルに基づいて、図4(b)に示すように、互いに意思疎通を行うなどの関係が成立しているか否かが不明な人物の集合が、ロボット装置1の周辺を取り巻いている状況を検出することができる。そして、群検出/選択部120は、効果的にサービスを提供できる群を選択する機能を有する。   Based on the movement vector acquired by the acquisition unit 117, the group detection / selection unit 120 has a relationship such as mutual communication as shown in FIG. It is possible to detect a situation in which a set of persons assumed to be approaching the robot apparatus 1. Further, based on the movement vector acquired by the acquisition unit 117, the group detection / selection unit 120 is unknown whether a relationship such as mutual communication is established as shown in FIG. 4B. It is possible to detect a situation in which a group of people is surrounding the robot apparatus 1. The group detection / selection unit 120 has a function of selecting a group that can effectively provide a service.

図3に示すように、群検出/選択部120は、第1検出部121と第2検出部122と選択部123とを有する。第1検出部121は、取得部117による取得処理が行われるたびに、取得部117により取得された複数の移動ベクトルのうち、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第1群とは、互いに意思疎通を行うなどの関係が成立している人物の移動ベクトルの集合であると捉えることができる。より具体的には以下のとおりである。   As illustrated in FIG. 3, the group detection / selection unit 120 includes a first detection unit 121, a second detection unit 122, and a selection unit 123. Each time the acquisition process by the acquisition unit 117 is performed, the first detection unit 121 has a plurality of movement vectors acquired by the acquisition unit 117, the magnitudes of which are equal to or larger than a threshold value and similar to each other. A first group indicating a set is detected. The first group can be regarded as a set of movement vectors of persons who have a relationship such as mutual communication. More specifically, it is as follows.

第1検出部121は、取得部117により取得された複数の移動ベクトルと1対1に対応する複数の人物の中から、1人の人物Haを選出し、選出した人物Haに対して、第1群同士を識別可能な第1ラベル番号を割り当てる。第1ラベル番号は、初期値から第1群の数だけカウントアップされていく数字である。この例では、人物Haに対して、既に第1ラベル番号が割り当てられている場合は、新たな第1ラベル番号を人物Haに割り当てることはしない。次に、第1検出部121は、選出した人物Haの位置情報が示す位置を中心として、パーソナルスペースによって規定される範囲内(例えば半径1.2m以内等)に存在する人物Hbの移動ベクトルと、人物Haの移動ベクトルとの類似度を判定する。ただし、人物HaまたはHbの移動ベクトルが閾値未満(例えば時速0.5km未満)の場合は判定を行わず、移動ベクトルが閾値未満の人物は、検出対象から除外する。2つの移動ベクトルの類似度は、移動量が大きい方をベクトルx、小さい方をベクトルyとしたとき、以下の式1で求めることができる。

Figure 2014014899
The first detection unit 121 selects one person Ha from a plurality of persons corresponding one-to-one with the plurality of movement vectors acquired by the acquisition unit 117, and selects the first person Ha for the selected person Ha. A first label number that can identify one group is assigned. The first label number is a number that is counted up from the initial value by the number of the first group. In this example, when the first label number is already assigned to the person Ha, a new first label number is not assigned to the person Ha. Next, the first detection unit 121 uses the movement vector of the person Hb existing within the range defined by the personal space (for example, within a radius of 1.2 m) around the position indicated by the position information of the selected person Ha. The similarity with the movement vector of the person Ha is determined. However, if the movement vector of the person Ha or Hb is less than the threshold (for example, less than 0.5 km / h), the determination is not performed, and the person whose movement vector is less than the threshold is excluded from the detection target. The similarity between the two movement vectors can be obtained by the following equation 1, where the larger movement amount is the vector x and the smaller movement vector is the vector y.
Figure 2014014899

上記式1で求められた類似度が基準値以上(例えば0.6以上)ならば、同じ第1群に属すると判断し、人物Hbに対して、人物Haと同じ第1ラベル番号を割り当てる。この例では、人物Hbに対して、既に他の第1ラベル番号が割り当てられていた場合は、人物Haに割り当てられた第1ラベル番号を、第1ラベル候補番号として人物Hbに割り当てる。ここでは、第1検出部121は、割り当てられた第1ラベル番号とは異なる第1ラベル候補番号が一定時間以上(例えば3秒以上)にわたって割り当てられた人物については、割り当てられた第1ラベル番号で識別される第1群から抜けた人物とみなし、当該人物に割り当てられた第1ラベル番号を、第1ラベル候補番号が示す番号に書き換える。   If the similarity obtained by the above equation 1 is equal to or higher than a reference value (for example, 0.6 or higher), it is determined that they belong to the same first group, and the same first label number as the person Ha is assigned to the person Hb. In this example, when another first label number has already been assigned to the person Hb, the first label number assigned to the person Ha is assigned to the person Hb as the first label candidate number. Here, the first detection unit 121 assigns a first label number assigned to a person to whom a first label candidate number that is different from the assigned first label number is assigned for a predetermined time or longer (eg, 3 seconds or longer). The first label number assigned to the person is rewritten to the number indicated by the first label candidate number.

また、第1検出部121は、選出した人物Haの位置情報が示す位置を中心として、パーソナルスペースによって規定される範囲内に他の人物が存在しない場合であっても、人物Haの移動ベクトルが閾値以上であれば、人物Haのみから第1群が構成されるとみなし、人物Haに対して第1ラベル番号を割り当てる。第1検出部121は、以上のようなラベリングを、第1ラベル番号が割り当てられていない人物がいなくなるまで繰り返す。これにより、同じ第1ラベル番号が割り当てられた人物の集合は、当該第1ラベル番号で識別される第1群として検出される。見方を変えれば、第1検出部121は、取得部117により取得された複数の移動ベクトルのうち、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出している。また、第1検出部121は、第1ラベル番号または第1ラベル候補番号を割り当てる人物の位置情報に、第1ラベル番号または第1ラベル候補番号を対応付けて人物位置記憶部116に記録する。ラベリングが終了した場合、第1検出部121は、検出した第1群を示す情報(例えば当該第1群を識別する第1ラベル番号、当該第1群に含まれる人物の人物情報と検出データ等)を、選択部123に出力する。   Further, the first detection unit 121 sets the movement vector of the person Ha even when there is no other person within the range defined by the personal space around the position indicated by the position information of the selected person Ha. If it is equal to or greater than the threshold value, it is considered that the first group is composed only of the person Ha, and a first label number is assigned to the person Ha. The first detection unit 121 repeats the above labeling until there is no person to whom the first label number is not assigned. Thereby, a set of persons assigned with the same first label number is detected as a first group identified by the first label number. In other words, the first detection unit 121 selects a first group indicating a set of movement vectors that are similar in size to each other among the plurality of movement vectors acquired by the acquisition unit 117. Detected. In addition, the first detection unit 121 records the first label number or the first label candidate number in the person position storage unit 116 in association with the position information of the person to whom the first label number or the first label candidate number is assigned. When the labeling is completed, the first detection unit 121 includes information indicating the detected first group (for example, a first label number identifying the first group, personal information and detection data of a person included in the first group, etc. ) Is output to the selection unit 123.

なお、この例では、第1検出部121は、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合に属する移動ベクトルの数が第3閾値以上の場合は、当該集合を第1群として検出しない。より具体的には、第1検出部121は、同じ第1ラベル番号が割り当てられた人物の数が第3閾値以上(例えば7人以上)の場合は、ロボット装置1の周囲を通過する通行人の集合であるとみなし、第1群として検出することはしない。   In this example, the first detection unit 121 determines that the set is the first when the size is equal to or larger than the threshold and the number of movement vectors belonging to a set of similar movement vectors is equal to or greater than the third threshold. Not detected as a group. More specifically, when the number of persons assigned the same first label number is equal to or greater than a third threshold (for example, 7 or more), the first detection unit 121 is a passerby who passes around the robot apparatus 1. Are not detected as the first group.

第2検出部122は、取得部117による取得処理が行われるたびに、取得部117により取得された複数の移動ベクトルのうち、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する。より具体的には、第2検出部122は、大きさが閾値未満である複数の移動ベクトルと1対1に対応する複数の人物のうち、顔検出部111により顔が検出された人物の数が第2閾値以上の場合は、大きさが閾値未満である複数の移動ベクトルを、第2群として検出する。さらに詳述すれば以下のとおりである。なお、第2群とは、互いに意思疎通を行うなどの関係が成立しているのか否かが不明な人物の移動ベクトルの集合であると捉えることができる。   Each time the acquisition process by the acquisition unit 117 is performed, the second detection unit 122 selects a second group indicating a set of movement vectors whose magnitude is less than the threshold among the plurality of movement vectors acquired by the acquisition unit 117. To detect. More specifically, the second detection unit 122 counts the number of persons whose faces are detected by the face detection unit 111 among a plurality of persons corresponding to a plurality of movement vectors whose sizes are less than the threshold. Is equal to or greater than the second threshold, a plurality of movement vectors having magnitudes less than the threshold are detected as the second group. Further details are as follows. It should be noted that the second group can be regarded as a set of movement vectors of persons whose unknown whether or not a relationship such as mutual communication is established.

第2検出部122は、取得部117により取得された複数の移動ベクトルと1対1に対応する複数の人物の中から、ロボット装置1の位置を中心として規定される範囲(例えば半径2.4m±50cm)内に存在し、かつ、移動ベクトルが基準値未満(例えば時速0.5km未満)の複数の人物Hdを選出する。そして、第2検出部122は、複数の人物Hdのうち顔が検出されている人物の数(属性情報が付加されている人物の数)をカウントし、複数の人物Hdのうち顔が検出されている人物の数が第2閾値以上(例えば5人以上)ならば、複数の人物Hdの各々に対して、傍観者群を示す第2ラベル番号を割り当て、第2群として検出する。見方を変えれば、第2検出部122は、取得部117により取得された複数の移動ベクトルのうち、大きさが閾値未満である複数の移動ベクトルの集合を、第2群として検出していると捉えることもできる。第2検出部122は、検出した第2群を示す情報(例えば第2ラベル番号、当該第2群に含まれる人物の人物情報と検出データ等)を、選択部123へ出力する。   The second detection unit 122 has a range (for example, a radius of 2.4 m) defined around the position of the robot apparatus 1 from among a plurality of persons corresponding to the movement vectors acquired by the acquisition unit 117 on a one-to-one basis. A plurality of persons Hd that are within ± 50 cm) and whose movement vector is less than a reference value (for example, less than 0.5 km / h) are selected. Then, the second detection unit 122 counts the number of persons whose faces are detected among the plurality of persons Hd (the number of persons to which attribute information is added), and detects the faces among the plurality of persons Hd. If the number of persons who are present is equal to or more than the second threshold (for example, five or more), a second label number indicating the bystander group is assigned to each of the plurality of persons Hd and detected as the second group. In other words, the second detection unit 122 detects, as the second group, a set of a plurality of movement vectors whose sizes are less than the threshold among the plurality of movement vectors acquired by the acquisition unit 117. It can also be captured. The second detection unit 122 outputs information indicating the detected second group (for example, the second label number, personal information of persons included in the second group, detection data, and the like) to the selection unit 123.

なお、第2検出部122は、一定時間以上(例えば3秒以上)にわたって、顔が検出されないか、上記の人物Hdとして検出されない人物については、第2ラベル番号を削除する。この場合、第2ラベル番号が割り当てられている人物の数が一定人数を下回る場合は、第2ラベル番号が割り当てられている全ての人物から第2ラベル番号を削除する。   Note that the second detection unit 122 deletes the second label number for a person whose face is not detected or is not detected as the person Hd for a predetermined time or longer (for example, 3 seconds or longer). In this case, if the number of persons assigned with the second label number is less than a certain number, the second label number is deleted from all persons assigned with the second label number.

また、第2検出部122は、第2ラベル番号を割り当てる人物の位置情報に、第2ラベル番号を対応付けて人物位置記憶部116に記録する。図5に示すように、人物位置記憶部116は、人物ごとに、当該人物の検出データが記憶される位置軌跡記憶領域と、当該人物に割り当てられるラベル番号(第1ラベル番号、第1ラベル候補番号および第2ラベル番号のうちの少なくとも1つ)を特定可能なラベルデータが記憶されるラベル記憶領域とを有する。位置軌跡記憶領域には、第2カメラ102によって撮影された画像を取得した時刻Tごとに、当該時刻Tにおける位置情報、移動ベクトル、属性情報から構成される検出データが記憶される。ラベル記憶領域には、第2カメラ102によって撮影された画像を取得した時刻Tごとに、当該時刻Tにおけるラベルデータが記憶される。   In addition, the second detection unit 122 records the position information of the person to whom the second label number is assigned in the person position storage unit 116 in association with the second label number. As shown in FIG. 5, the person position storage unit 116 includes, for each person, a position locus storage area in which detection data of the person is stored, and a label number (first label number, first label candidate) assigned to the person. A label storage area in which label data capable of specifying at least one of the number and the second label number is stored. In the position trajectory storage area, detection data including position information, movement vectors, and attribute information at the time T is stored for each time T at which an image captured by the second camera 102 is acquired. In the label storage area, label data at the time T is stored for each time T at which an image captured by the second camera 102 is acquired.

選択部123は、第1群または第2群の何れかを選択する。本実施形態では、選択部123は、第2検出部122により第2群が検出された場合は、第1検出部121により第1群が検出されているか否かに関わらず、第2群を選択する。第2群が検出されている場合は、互いに意思疎通を行うなどの関係が成立しているか否かが不明な人物の集合が、ロボット装置1の周囲を取り巻いている状況であることが想定され、例えば密な会話によるサービスを行うことは適切ではないので、第1群を選択することはしない。   The selection unit 123 selects either the first group or the second group. In the present embodiment, when the second group is detected by the second detection unit 122, the selection unit 123 selects the second group regardless of whether or not the first group is detected by the first detection unit 121. select. When the second group is detected, it is assumed that a set of persons whose unknown relationship is established such as mutual communication is surrounding the robot apparatus 1. For example, since it is not appropriate to perform a service by a close conversation, the first group is not selected.

選択部123は、第2検出部122により第2群が検出されずに、第1検出部121により複数の第1群が検出された場合は、選択対象となる第1群ごとに、当該第1群に属する移動ベクトルに基づいて、サービスを行う対象としての適格性(見方を変えれば働きかけ易さ)を示す評価値を算出し、最も評価値が高い第1群を選択する。より具体的には以下のとおりである。まず、選択部123は、ロボット装置1を原点とするXY平面上において、所定の角度(例えば5度)ごとに、原点を起点とする仮想直線を延ばし、仮想直線上に複数の第1群(第1検出部121により検出された第1群)が存在する場合は、最も原点に近い位置に存在する(最もロボット装置1に近い位置に存在する)第1群を、選択対象として選出する。このようにして、選択部123は、第1検出部121により検出された複数の第1群の中から、選択対象となる第1群を選出する。選択対象として選出された第1群が1つの場合、選択部123は、その第1群を選択する。   When the second detection unit 122 does not detect the second group and the first detection unit 121 detects a plurality of first groups, the selection unit 123 sets the first group for each first group to be selected. Based on the movement vector belonging to the first group, an evaluation value indicating the suitability of the service target (ease of working if the viewpoint is changed) is calculated, and the first group having the highest evaluation value is selected. More specifically, it is as follows. First, the selection unit 123 extends a virtual straight line starting from the origin at every predetermined angle (for example, 5 degrees) on the XY plane with the robot apparatus 1 as the origin, and a plurality of first groups ( When the first group detected by the first detection unit 121 is present, the first group present at the position closest to the origin (the position closest to the robot apparatus 1) is selected as the selection target. In this way, the selection unit 123 selects the first group to be selected from the plurality of first groups detected by the first detection unit 121. When there is one first group selected as a selection target, the selection unit 123 selects the first group.

一方、選択対象として選出された第1群が複数存在する場合、選択部123は、選択対象となる第1群ごとに、当該第1群に属する移動ベクトルに基づいて評価値を算出する。以下、具体的に説明する。選択部123は、選択対象となる各第1群について、当該第1群に含まれる人物(当該第1群に属する移動ベクトルに対応する人物)に対応する検出データの履歴を人物位置記憶部116から読み出す。そして、当該第1群に含まれる人物ごとに、当該人物に対応する検出データの履歴から、現時点よりも一定時間長だけ過去の時点(例えば現時点よりも3秒前の時点)から、現時点に至るまでの期間内の各時点で記録された移動ベクトルを取得する。そして、上記期間内の時点ごとに、当該時点における各人物の移動ベクトルの平均値(平均移動ベクトル)を求め、当該第1群の移動ベクトル遷移Vaとして保持する。   On the other hand, when there are a plurality of first groups selected as selection targets, the selection unit 123 calculates an evaluation value for each first group to be selected based on a movement vector belonging to the first group. This will be specifically described below. For each first group to be selected, the selection unit 123 stores a history of detection data corresponding to a person included in the first group (a person corresponding to a movement vector belonging to the first group) as a person position storage unit 116. Read from. Then, for each person included in the first group, from the history of detection data corresponding to the person, the current time is reached from the past time point (for example, the time point 3 seconds before the current time) from the past by a certain time length. The movement vector recorded at each time point in the period until is acquired. Then, for each time point within the above period, an average value (average movement vector) of the movement vectors of each person at the time point is obtained and held as the movement vector transition Va of the first group.

選択部123は、選択対象となる各第1群について、当該第1群の移動ベクトル遷移Vaの減少量Daを算出する。より具体的には、例えば選択部123は、上記期間内の時点(最も過去の時点は除く)ごとに、当該時点に対応する平均移動ベクトルと当該時点の直前の時点に対応する平均移動ベクトルとの差分を算出し、各差分の平均を、移動ベクトル減少量Daとして保持する。   For each first group to be selected, the selection unit 123 calculates a reduction amount Da of the movement vector transition Va of the first group. More specifically, for example, for each time point within the above period (excluding the most past time point), the selection unit 123 calculates an average movement vector corresponding to the time point and an average movement vector corresponding to the time point immediately before the time point. And the average of each difference is held as the movement vector decrease amount Da.

次に、選択部123は、移動ベクトルの方向について、ロボット装置1の正面方向、且つ、ロボット装置1に近づいてくる方向をプラスとして重み付けを行い、選択対象となる各第1群について、上記期間内の時点ごとに、当該時点の平均移動ベクトルの方向が、ロボット装置1の正面方向、且つ、ロボット装置1に近づいてくる方向に近いほど値が増大するベクトル方向評価値を算出し、各時点で算出したベクトル方向評価値の平均を、当該第1群の移動ベクトル方向評価値Dbとして保持する。見方を変えれば、第1群の移動ベクトル方向評価値Dbは、移動ベクトルの方向が、サービスに関する出力を行う出力部(この例ではスピーカ161等)へ向かう第1方向に近いほど高い値を示すと捉えることもできる。   Next, the selection unit 123 weights the direction of the movement vector with the front direction of the robot apparatus 1 and the direction approaching the robot apparatus 1 as plus, and for each first group to be selected, the period For each time point, a vector direction evaluation value that increases as the direction of the average movement vector at that time point approaches the front direction of the robot apparatus 1 and the direction approaching the robot apparatus 1 is calculated. The average of the vector direction evaluation values calculated in step 1 is held as the movement vector direction evaluation value Db of the first group. In other words, the movement vector direction evaluation value Db of the first group shows a higher value as the direction of the movement vector is closer to the first direction toward the output unit (in this example, the speaker 161) that performs output related to the service. It can also be taken as.

そして、選択部123は、選択対象となる第1群ごとに、算出した移動ベクトル減少量Daと、移動ベクトル方向評価値Dbと、当該第1群に含まれる移動ベクトルに対応する人物の数Num、顔検出部111により検出された顔の数Face、ロボット装置1と当該第1群との相対的な距離Disとを重み付け加算し、この重み付け加算結果を、当該第1群の評価値(サービスを行う対象としての適格性を示す評価値)とする。選択部123は、選択対象となる第1群のうち、最も評価値が高い第1群を選択する。なお、評価値をVとすると、重み付け加算の式は、例えば以下の式2で表すことができる。

Figure 2014014899
Then, for each first group to be selected, the selection unit 123 calculates the calculated movement vector reduction amount Da, the movement vector direction evaluation value Db, and the number Num of persons corresponding to the movement vectors included in the first group. The number of faces detected by the face detection unit 111 and the relative distance Dis between the robot apparatus 1 and the first group are weighted and added, and the weighted addition result is used as an evaluation value (service for the first group). (Evaluation value indicating eligibility as a target to be conducted). The selection unit 123 selects the first group having the highest evaluation value from the first group to be selected. When the evaluation value is V, the weighted addition formula can be expressed by the following formula 2, for example.
Figure 2014014899

上記式2におけるW1〜W5は重み係数であり、定数であってもよいし、関数による出力値であってもよい。上記式2からも理解されるように、第1群の移動ベクトル減少量Daが大きいほど、当該第1群の評価値Vは大きくなる。第1群の移動ベクトル減少量Daが大きいということは、当該第1群に属する人物群は、ロボット装置1に興味を示して立ちどまろうとしている可能性が高いと推定されるためである。また、第1群の移動ベクトル方向評価値Dbが大きいほど、当該第1群の評価値Vは大きくなる。第1群の移動ベクトル方向評価値Dbが大きいということは、ロボット装置1に興味を示して近づいてきている可能性が高いと推定されるためである。サービス提供の効果を大きくするためには、ロボット装置1に興味を示している可能性が高い人物の集合に対してサービスを提供することが好ましいので、移動ベクトル減少量Daや移動ベクトル方向評価値Dbの値が大きい第1群は、サービスを行う対象としての適格性が高いとみなされ、評価値Vが高くなる。また、上記式2からも理解されるように、検出された顔の数が多いほど、評価値Vは高い値を示す。検出された顔の数が多いということは、ロボット装置1の方に顔を向けている、つまり、ロボット装置1に興味を示している可能性が高い人物が多く存在すると推定されるので、サービスを行う対象としての適格性が高いとみなされるためである。   W1 to W5 in the above formula 2 are weighting factors, which may be constants or output values by functions. As understood from the above formula 2, the evaluation value V of the first group increases as the movement vector decrease amount Da of the first group increases. The movement vector decrease amount Da of the first group is large because it is estimated that there is a high possibility that the group of persons belonging to the first group is interested in the robot apparatus 1 and is standing. . Moreover, the evaluation value V of the said 1st group becomes large, so that the movement vector direction evaluation value Db of the 1st group is large. The fact that the movement vector direction evaluation value Db of the first group is large is because it is estimated that there is a high possibility that the robot apparatus 1 is approaching with interest. In order to increase the effect of providing the service, it is preferable to provide the service to a set of persons who are highly likely to be interested in the robot apparatus 1, so the movement vector reduction amount Da and the movement vector direction evaluation value The first group having a large value of Db is considered to have high eligibility as a service target, and the evaluation value V becomes high. Further, as can be understood from Equation 2, the evaluation value V indicates a higher value as the number of detected faces increases. Since the number of detected faces is large, it is presumed that there are many persons who are turning their faces toward the robot apparatus 1, that is, there is a high possibility that they are interested in the robot apparatus 1. This is because it is considered to be highly qualified as a subject to be conducted.

以上のようにして第1群を選択した場合、選択部123は、選択した第1群とロボット装置1との距離が、対話可能な距離(例えば3.6m以下)を上回るまでは、上述の選択処理を停止する。本実施形態では、最も評価値Vが高い第1群とロボット装置1との距離が、対話可能な距離を上回る場合、選択部123は、その最も評価値Vが高い第1群を選択することはせず、上述の選択処理をやり直す。また、選択部123は、選択した第1群とロボット装置1との距離が対話可能な距離を上回った場合は、その第1群の選択を一旦解除し、上述の選択処理を再開して、新たな第1群を選択し直す。また、選択部123は、選択した第1群の評価値Vが第4閾値以下になった場合に、その第1群の選択を解除し、上述の選択処理を再開することもできる。   When the first group is selected as described above, the selection unit 123 determines that the distance between the selected first group and the robot apparatus 1 exceeds the distance that allows interaction (for example, 3.6 m or less). Stop the selection process. In the present embodiment, when the distance between the first group having the highest evaluation value V and the robot apparatus 1 exceeds the distance at which dialogue is possible, the selection unit 123 selects the first group having the highest evaluation value V. Without doing so, the above selection process is performed again. Further, when the distance between the selected first group and the robot apparatus 1 exceeds the distance at which the conversation can be performed, the selection unit 123 temporarily cancels the selection of the first group, and restarts the above selection process. Re-select a new first group. Moreover, the selection part 123 can cancel | release the selection of the 1st group, and can restart the above-mentioned selection process, when the evaluation value V of the selected 1st group becomes below a 4th threshold value.

選択部123は、第1群を選択した場合、選択した第1群を識別可能な第1ラベル番号を、初期動作制御部130および第1決定部140へ通知する。また、選択部123は、第2群を選択した場合、選択した第2群を識別可能な第2ラベル番号を初期動作制御部130および第1決定部140へ通知する。   When selecting the first group, the selection unit 123 notifies the initial operation control unit 130 and the first determination unit 140 of a first label number that can identify the selected first group. When the second group is selected, the selection unit 123 notifies the initial operation control unit 130 and the first determination unit 140 of a second label number that can identify the selected second group.

図3に戻って説明を続ける。初期動作制御部130は、選択部123により第1群が選択された場合は、選択された第1群に対する初期動作(サービスを行う前の動作)の実行を制御する。より具体的には以下のとおりである。   Returning to FIG. 3, the description will be continued. When the selection unit 123 selects the first group, the initial operation control unit 130 controls the execution of the initial operation (operation before performing the service) for the selected first group. More specifically, it is as follows.

初期動作制御部130は、第2決定部132と、声かけ内容記憶部133と、群追従部134と、モータ制御部135とを備える。第2決定部132は、選択部123により第1群が選択された場合は、サービスを行う前に行う初期動作の内容を決定する。第2決定部132は、選択部123から通知された第1ラベル番号を用いて、当該第1ラベル番号で識別される第1群(選択部123により選択された第1群)に含まれる人物の検出データを人物位置記憶部116から取得する。第2決定部132は、選択された第1群に含まれる人物のうち属性情報が対応付けられた人物が存在する場合は、声かけ内容記憶部133を参照し、属性情報に応じて、声かけ内容を決定(選択)する。つまり、第2決定部132は、属性判定部112により判定された属性に応じて、第1サービスを行う前に行う初期動作の内容を決定する。   The initial operation control unit 130 includes a second determination unit 132, a voice call content storage unit 133, a group tracking unit 134, and a motor control unit 135. When the selection unit 123 selects the first group, the second determination unit 132 determines the content of the initial operation performed before performing the service. The second determination unit 132 uses the first label number notified from the selection unit 123, and is included in the first group (the first group selected by the selection unit 123) identified by the first label number. Is detected from the person position storage unit 116. When there is a person associated with the attribute information among the persons included in the selected first group, the second determination unit 132 refers to the call content storage unit 133 and determines the voice according to the attribute information. Determine (select) the details of the call. That is, the second determination unit 132 determines the content of the initial operation to be performed before performing the first service, according to the attribute determined by the attribute determination unit 112.

本実施形態では、図6に示すように、声かけ内容記憶部133は、性別と年齢の組み合わせごとに、複数の声かけデータ(この例では音声データ)を記憶している。図6において、「F1−2」は、性別「女性」と、年齢「10代〜20代」との組み合わせを表す。「F3−4」は、性別「女性」と、年齢「30代〜40代」との組み合わせを表す。「F5−6」は、性別「女性」と、年齢「50代〜60代」との組み合わせを表す。「M1−2」は、性別「男性」と、年齢「10代〜20代」との組み合わせを表す。「M3−4」は、性別「男性」と、年齢「30代〜40代」との組み合わせを表す。「M5−6」は、性別「男性」と、年齢「50代〜60代」との組み合わせを表す。例えば属性情報が、性別「女性」と、年齢「10代〜20代」との組み合わせである場合、第2決定部132は、「F1−2」に対応付けられた複数の声かけデータのうちの1つの声かけデータを、声かけ内容として決定する。図6の例では、第2決定部132は、「こんにちは、お嬢さん」という声かけデータを、声かけ内容として決定することもできる。   In the present embodiment, as shown in FIG. 6, the voice call content storage unit 133 stores a plurality of voice call data (voice data in this example) for each combination of gender and age. In FIG. 6, “F1-2” represents a combination of the sex “female” and the age “10 to 20”. “F3-4” represents a combination of the sex “female” and the age “30s to 40s”. “F5-6” represents a combination of the sex “female” and the age “50s-60s”. “M1-2” represents a combination of a sex “male” and an age “10's to 20's”. “M3-4” represents a combination of the sex “male” and the age “30s to 40s”. “M5-6” represents a combination of the sex “male” and the age “50s-60s”. For example, when the attribute information is a combination of the gender “female” and the age “10's to 20's”, the second determination unit 132 includes a plurality of voice call data associated with “F1-2”. The voice call data is determined as the voice call content. In the example of FIG. 6, the second determining unit 132, "Hello, Miss" voice over data that can also be determined as a voice over contents.

また、第2決定部132は、選択された第1群に属する移動ベクトルの方向と、ロボット装置1の正面方向、且つ、ロボット装置1に近づいてくる方向(見方を変えれば、サービスに関する出力を行う出力部へ向かう第1方向)との一致度に応じて、声かけ内容を決定することもできる。例えば、移動ベクトルの方向が、ロボット装置1の前を横切るものであり、上記の一致度が低い場合は、移動している人物を呼び止めるような声かけデータを、声かけ内容として決定することもできる。一方、移動ベクトルの方向が、ロボット装置1に近づいてくる方向であり、上記の一致度が高い場合は、人物がこちらに注目していることを前提とした声かけデータを、声かけ内容として決定することもできる。   Further, the second determination unit 132 outputs the direction related to the selected movement vector belonging to the first group, the front direction of the robot apparatus 1 and the direction approaching the robot apparatus 1 (if the view is changed, the service-related output is changed). The content of the voice call can be determined according to the degree of coincidence with the first direction toward the output unit to be performed. For example, when the direction of the movement vector crosses the front of the robot apparatus 1 and the degree of coincidence is low, the voice call data that calls the moving person may be determined as the voice call content. it can. On the other hand, when the direction of the movement vector is the direction approaching the robot apparatus 1 and the above-mentioned degree of coincidence is high, the voice call data on the assumption that the person is paying attention to this is used as the voice call content. It can also be determined.

以上のようにして第2決定部132で決定(選択)された声かけデータは、スピーカ161から出力される。第2決定部132は、決定した声かけデータを出力するタイミングを任意に設定可能であり、例えば選択された第1群の評価値Vが一定以上になるタイミングで、決定した声かけデータをスピーカ161から出力する制御を行うこともできる。なお、本実施形態では、以上の初期動作(声かけ動作)は、選択された1つの第1群に対して、1回しか行われない。   The voice call data determined (selected) by the second determination unit 132 as described above is output from the speaker 161. The second determination unit 132 can arbitrarily set the timing for outputting the determined voice call data. For example, the second determination unit 132 outputs the determined voice call data to the speaker at the timing when the selected first group evaluation value V becomes equal to or greater than a certain value. It is also possible to perform control to output from 161. In the present embodiment, the above initial operation (voice call operation) is performed only once for one selected first group.

群追従部134は、選択された第1群の位置座標Paとロボット装置1との距離を算出し、その距離が対話可能な距離以下(例えば3.6m以下)である場合、第1カメラ101の撮影方向が、位置座標Paを向くよう、モータ制御部135に命令を出力する。モータ制御部135は、群追従部134からの命令に従い、駆動部170の駆動を制御する。これにより、第1カメラ101からの視線を、選択された第1群に向かせることができる。   The group follower 134 calculates the distance between the position coordinate Pa of the selected first group and the robot apparatus 1, and if the distance is less than or equal to a distance that allows dialogue (for example, 3.6 m or less), the first camera 101. A command is output to the motor control unit 135 so that the image capturing direction is directed to the position coordinate Pa. The motor control unit 135 controls driving of the driving unit 170 in accordance with a command from the group tracking unit 134. Thereby, the line of sight from the first camera 101 can be directed to the selected first group.

図3に戻って説明を続ける。第1決定部140は、選択部123により第1群が選択された場合は、第1サービスを行うことを決定し、選択部123により第2群が選択された場合は、第1サービスとは異なる第2サービスを行うことを決定する。本実施形態では、第1サービスは、対話式の情報を提供することであり、第2サービスは、非対話式の情報を提供することである。以下、具体的に説明する。なお、第1決定部140は、選択部123から、第1群の選択を解除する旨の通知を受けた場合は、その第1群に対するサービスを行わないことを決定する。   Returning to FIG. 3, the description will be continued. When the selection unit 123 selects the first group, the first determination unit 140 determines to perform the first service, and when the selection unit 123 selects the second group, what is the first service? Decide to perform a different second service. In the present embodiment, the first service is to provide interactive information, and the second service is to provide non-interactive information. This will be specifically described below. In addition, when the first determination unit 140 receives a notification from the selection unit 123 to cancel the selection of the first group, the first determination unit 140 determines not to perform the service for the first group.

選択部123により第1群が選択された場合、第1決定部140は、選択部123から通知された第1ラベル番号を用いて、当該第1ラベル番号で識別される第1群(選択部123により選択された第1群)に含まれる人物の検出データを人物位置記憶部116から取得する。そして、第1決定部140は、用途別アプリケーション記憶部141を参照し、選択された第1群に含まれる人物の数に応じて、第1サービスの内容を決定(選択)する。また、選択部123により第2群が選択された場合、第1決定部140は、用途別アプリケーション記憶部141を参照し、第2サービスの内容を決定(選択)する。   When the selection unit 123 selects the first group, the first determination unit 140 uses the first label number notified from the selection unit 123 to identify the first group identified by the first label number (selection unit The detection data of the persons included in the first group selected by 123 is acquired from the person position storage unit 116. Then, the first determination unit 140 refers to the application-specific application storage unit 141 and determines (selects) the content of the first service according to the number of persons included in the selected first group. Further, when the second group is selected by the selection unit 123, the first determination unit 140 refers to the application storage unit 141 for each use and determines (selects) the content of the second service.

本実施形態では、図7に示すように、用途別アプリケーション記憶部141は、選択された群が第1群であり、その第1群に含まれる人物の人数が3人未満の場合に起動されるアプリケーションを示す個別対応アプリケーション(以下、「個別対応APP」と呼ぶ)に対応付けられた複数のアプリケーションと、選択された群が第1群であり、その第1群に含まれる人物の人数が3人以上の場合に起動されるアプリケーションを示すクループ対応アプリケーション(以下、「グループ対応APP」と呼ぶ)に対応付けられた複数のアプリケーションと、選択された群が第2群である場合に起動されるアプリケーションを示す多人数対応アプリケーション(以下、「多人数対応APP」と呼ぶ)に対応付けられた複数のアプリケーションとが記憶される。   In this embodiment, as shown in FIG. 7, the application-specific application storage unit 141 is activated when the selected group is the first group and the number of persons included in the first group is less than three. A plurality of applications associated with an individually corresponding application (hereinafter referred to as “individually-applicable APP”) and a selected group are the first group, and the number of persons included in the first group is Multiple applications associated with a group-compatible application (hereinafter referred to as “group-compatible APP”) indicating an application to be activated when there are three or more persons, and activated when the selected group is the second group A plurality of applications associated with a multi-person application (hereinafter referred to as “multi-person APP”) indicating It is.

第1決定部140は、選択部123により選択された群が第1群であり、その第1群に含まれる人物の人数が3人未満の場合、個別対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択する。また、第1決定部140は、選択部123により選択された群が第1群であり、その第1群に含まれる人物の人数が3人以上の場合、グループ対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択する。さらに、第1決定部140は、選択部123により選択された群が第2群である場合は、多人数対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択する。第1決定部140により選択されたアプリケーションは、アプリケーション実行部142によって実行される。   When the group selected by the selection unit 123 is the first group and the number of persons included in the first group is less than three, the first determination unit 140 includes a plurality of applications associated with the individual corresponding APP. Is selected. In addition, the first determination unit 140 includes a plurality of groups associated with the group-corresponding APP when the group selected by the selection unit 123 is the first group and the number of persons included in the first group is three or more. One of the applications is selected. Furthermore, when the group selected by the selection unit 123 is the second group, the first determination unit 140 selects any one of a plurality of applications associated with the multi-person APP. The application selected by the first determination unit 140 is executed by the application execution unit 142.

個別対応APPは、対話式の情報を提供する第1サービスを行うためのアプリケーションである。第1決定部140により、個別対応APPに対応付けられた複数のアプリケーションのうちの何れかが選択された場合、アプリケーション実行部142は、その選択されたアプリケーションを実行する。これにより、スピーカ161および駆動部170は、選択されたアプリケーションに応じた出力を行い、第1サービスが実現される。この場合の第1サービスの例としては、複数回にわたる質問を行い、質問に対する回答を受け付けるなどの密なやり取りを行った上、受け付けた回答に応じた情報(商品情報や施設の案内情報など)を、ロボット装置1の振る舞いを交えながら提供するという形態が考えられる。
本実施形態では、第1決定部140は、選択部123により選択された群が第1群であり、その第1群に含まれる人物の人数が3人未満の場合、個別対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択することで、以上のような第1サービスを行うことを決定する。
The individual correspondence APP is an application for performing a first service that provides interactive information. When any of the plurality of applications associated with the individual corresponding APP is selected by the first determination unit 140, the application execution unit 142 executes the selected application. Thereby, the speaker 161 and the drive part 170 perform the output according to the selected application, and a 1st service is implement | achieved. As an example of the first service in this case, information is exchanged (such as product information or facility guidance information) after a close exchange such as asking a question multiple times and accepting an answer to the question. Can be provided while exchanging the behavior of the robot apparatus 1.
In the present embodiment, the first determination unit 140 associates with the individual correspondence APP when the group selected by the selection unit 123 is the first group and the number of persons included in the first group is less than three. By selecting one of the plurality of applications, it is determined to perform the first service as described above.

また、グループ対応APPは、個別対応APPと同様、対話式の情報を提供する第1サービスを実現するためのアプリケーションであるが、サービスの提供対象となる人数が多くなるため、このグループ対応APPの実行により実現される第1サービスの例としては、答えが多数決となるような質問や属性情報を利用することで、平均的な要求を取得し、取得した要求に応じた情報を、ロボット装置1の振る舞いを交えながら提供するという形態が考えられる。本実施形態では、第1決定部140は、選択部123により選択された群が第1群であり、その第1群に含まれる人物の人数が3人以上の場合、グループ対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択することで、以上のような第1サービスを行うことを決定する。   In addition, the group-compatible APP is an application for realizing the first service that provides interactive information, as with the individual-compatible APP. However, since the number of people to whom the service is provided increases, As an example of the first service realized by execution, an average request is obtained by using a question or attribute information whose answer is a majority decision, and information corresponding to the obtained request is obtained from the robot apparatus 1. It is possible to provide it while providing the behavior of. In the present embodiment, when the group selected by the selection unit 123 is the first group and the number of persons included in the first group is three or more, the first determination unit 140 associates with the group correspondence APP. By selecting one of the plurality of applications, it is determined to perform the first service as described above.

なお、個別対応APPを実行する場合は、音声認識を用いた対話が有効であるが、グループ対応APPを実行する場合は、各人物の発話が衝突して認識が困難になることが予測されるので、画像を用いた顔属性認識やジェスチャ認識を利用することが有効である。また、アプリケーション実行中のロボット装置1の視線の振り方については、個別対応APPを実行する場合は、特定の1人の人物に視線を向け、グループ対応APPを実行する場合は、複数の人物の各々に対して、視線を順次に切り替えるなど、人数によって視線の振り方を変化させてもよい。   In addition, when executing individually-applicable APP, dialogue using voice recognition is effective. However, when executing group-applicable APP, it is predicted that the utterances of each person collide and recognition becomes difficult. Therefore, it is effective to use face attribute recognition or gesture recognition using an image. In addition, regarding the way of gazing of the robot apparatus 1 that is executing the application, when executing the individually corresponding APP, direct the line of sight to a specific person, and when executing the group corresponding APP, For each, the way of gazing may be changed depending on the number of people, such as switching the sight line sequentially.

多人数対応APPは、非対話式の情報を提供する第2サービスを行うためのアプリケーションである。第1決定部140により、多人数対応APPに対応付けられた複数のアプリケーションのうちの何れかが選択された場合、アプリケーション実行部142は、その選択されたアプリケーションを実行する。これにより、スピーカ161および駆動部170は、選択されたアプリケーションに応じた出力を行い、第2サービスが実現される。この場合の第2サービスの例としては、対話などは行わずに(サービスの提供を受ける側の要求とは無関係に)、商品や店舗を宣伝する情報を、ロボット装置1の演劇的な振る舞い(予め決められた動作)を交えながら提供するという形態が考えられる。この場合、ロボット装置1の視線の振り方は、人物に追従するよりも、宣伝効果を狙った方向に向けられる形態であってもよい。本実施形態では、第1決定部140は、選択部123により選択された群が第2群である場合、多人数対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択することで、以上のような第2サービスを行うことを決定する。   The multi-person APP is an application for performing a second service that provides non-interactive information. When the first determination unit 140 selects any one of a plurality of applications associated with the multi-person APP, the application execution unit 142 executes the selected application. Thereby, the speaker 161 and the drive part 170 perform the output according to the selected application, and a 2nd service is implement | achieved. As an example of the second service in this case, without performing a dialogue or the like (regardless of the request from the side receiving the service provision), information that advertises a product or a store is used for the dramatic behavior of the robot apparatus 1 ( It is possible to provide the information while providing a predetermined operation). In this case, the way of swinging the line of sight of the robot apparatus 1 may be in a direction directed to the advertising effect rather than following the person. In the present embodiment, when the group selected by the selection unit 123 is the second group, the first determination unit 140 selects one of a plurality of applications associated with the multi-person APP. Then, it is determined to perform the second service as described above.

本実施形態では、用途別アプリケーション記憶部141は、通信部185を介して店舗端末200と接続されており、用途別アプリケーション記憶部141に記憶されるアプリケーションは、店舗での用途に応じた内容に変更することもできる。なお、用途別アプリケーション記憶部141に記憶されるアプリケーションの内容を変更する必要が無く、店舗端末200および通信部185が設けられない形態であってもよい。   In the present embodiment, the application-specific application storage unit 141 is connected to the store terminal 200 via the communication unit 185, and the application stored in the application-specific application storage unit 141 has contents according to the application at the store. It can also be changed. In addition, it is not necessary to change the content of the application memorize | stored in the application storage part 141 classified by use, and the form in which the shop terminal 200 and the communication part 185 are not provided may be sufficient.

ここで、対話式の情報を提供するサービス(第1サービス)とは、サービスを提供する側とサービスの提供を受ける側との間で双方向にやり取りを行いながら、情報提供を行うサービスを指す。ここでの「やり取り」とは、人、もしくは、ロボットの言語情報・非言語情報(例えばジェスチャ等)の相互伝達を示すものであり、短期的に見て変化のない情報の取得や出力は「やり取り」に含まれない。例えばサービスの提供対象の人物の顔から判断される年齢・性別などの情報を取得し、その取得した情報に応じて、商品情報を提供する場合は、「やり取り」は行われていないと判断される。一方、サービスの提供対象の人物の顔の表情の変化など短期的に変化した情報を取得し、その取得した情報に応じて、商品情報を提供する場合は、「やり取り」が行われていると判断される。また、非対話式の情報を提供するサービス(第2サービス)とは、サービスを提供する側とサービスの提供を受ける側との間でやり取りを行うことなく、情報提供を行うサービスを指す。   Here, the service that provides interactive information (first service) refers to a service that provides information while interactively exchanging between the service providing side and the service receiving side. . “Interaction” here refers to the mutual transmission of linguistic information and non-linguistic information (for example, gestures) of people or robots. Acquisition and output of information that does not change in the short term is “ It is not included in “Interaction”. For example, when acquiring information such as age and gender determined from the face of the person to whom the service is provided and providing product information according to the acquired information, it is determined that no "exchange" has occurred. The On the other hand, when acquiring information that has changed in the short term, such as changes in facial expression of the person to whom the service is provided, and providing product information according to the acquired information, To be judged. Further, the service that provides non-interactive information (second service) refers to a service that provides information without exchanging between the service providing side and the service receiving side.

図3に戻って説明を続ける。出力部150は、第1決定部140または第2決定部132による決定に応じた出力を行う。出力部150は、スピーカ161と、駆動部170とを含む。スピーカ161は、第1決定部140により決定されたアプリケーションまたは第2決定部132により決定された声かけデータに応じた音声出力を行う。駆動部170は、第1決定部140により決定されたアプリケーションに応じた動作出力を行う。また、駆動部170は、モータ制御部135からの命令に応じた動作出力を行う。   Returning to FIG. 3, the description will be continued. The output unit 150 performs output according to the determination by the first determination unit 140 or the second determination unit 132. The output unit 150 includes a speaker 161 and a drive unit 170. The speaker 161 performs audio output according to the application determined by the first determination unit 140 or the voice call data determined by the second determination unit 132. The driving unit 170 performs an operation output according to the application determined by the first determination unit 140. Further, the drive unit 170 performs an operation output according to a command from the motor control unit 135.

以上に説明した顔検出部111、属性判定部112、人物検出部113、人物位置算出部114、移動ベクトル検出部115、取得部117、第1検出部121、第2検出部122、選択部123、第2決定部132、群追従部134、モータ制御部135、第1決定部140、アプリケーション実行部142の各々の機能は、図2のCPU181が、メモリ182やHDD183等に格納されたプログラムを実行することにより実現される。なお、これに限らず、例えば上述の顔検出部111、属性判定部112、人物検出部113、人物位置算出部114、移動ベクトル検出部115、取得部117、第1検出部121、第2検出部122、選択部123、第2決定部132、群追従部134、モータ制御部135、第1決定部140、アプリケーション実行部142のうちの少なくとも一部が専用のハードウェア回路で実現される構成であってもよい。   The face detection unit 111, the attribute determination unit 112, the person detection unit 113, the person position calculation unit 114, the movement vector detection unit 115, the acquisition unit 117, the first detection unit 121, the second detection unit 122, and the selection unit 123 described above. Each of the functions of the second determination unit 132, the group tracking unit 134, the motor control unit 135, the first determination unit 140, and the application execution unit 142 is executed by the CPU 181 in FIG. 2 by executing a program stored in the memory 182 or the HDD 183. It is realized by executing. For example, the face detection unit 111, the attribute determination unit 112, the person detection unit 113, the person position calculation unit 114, the movement vector detection unit 115, the acquisition unit 117, the first detection unit 121, and the second detection described above. Configuration in which at least a part of unit 122, selection unit 123, second determination unit 132, group tracking unit 134, motor control unit 135, first determination unit 140, and application execution unit 142 is realized by a dedicated hardware circuit It may be.

図8は、本実施形態のロボット装置1による処理動作の一例を示すフローチャートである。ステップS100において、群検出/選択部120は、第1群または第2群の検出を行い、検出した第1群または第2群の何れかを選択する。選択部123が、第1群または第2群の何れかを選択した場合(ステップS101の結果:YESの場合)、処理はステップS102へ移行する。選択部123により選択された群が第2群の場合(ステップS102の結果:NOの場合)、第1決定部140は、非対話式の情報を提供する第2サービスを行うことを決定し、用途別アプリケーション記憶部141から、多人数対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択する。そして、アプリケーション実行部142は、その選択されたアプリケーションを実行する(ステップS103)。   FIG. 8 is a flowchart illustrating an example of a processing operation performed by the robot apparatus 1 according to the present embodiment. In step S100, the group detection / selection unit 120 detects the first group or the second group, and selects either the detected first group or the second group. When the selection unit 123 selects either the first group or the second group (result of step S101: YES), the process proceeds to step S102. When the group selected by the selection unit 123 is the second group (result of Step S102: NO), the first determination unit 140 determines to perform the second service that provides non-interactive information, From the application-specific application storage unit 141, one of a plurality of applications associated with the multi-person APP is selected. Then, the application execution unit 142 executes the selected application (step S103).

一方、上述のステップS102において、選択部123により選択された群が第1群の場合(ステップS102の結果:YESの場合)、初期動作制御部130は、選択部123により選択された第1群に対する初期動作の実行を制御する(ステップS104)。次に、第1決定部140は、選択部123により選択された第1群に含まれる人物の数が3人未満であるか否かを判断する(ステップS105)。第1群に含まれる人物の数が3人未満であると判断した場合(ステップS105の結果:YESの場合)、第1決定部140は、用途別アプリケーション記憶部141から、個別対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択する。そして、アプリケーション実行部142は、その選択されたアプリケーションを実行する(ステップS106)。   On the other hand, in the above-described step S102, when the group selected by the selection unit 123 is the first group (result of step S102: YES), the initial operation control unit 130 selects the first group selected by the selection unit 123. The execution of the initial operation is controlled (step S104). Next, the first determination unit 140 determines whether the number of persons included in the first group selected by the selection unit 123 is less than three (step S105). When it is determined that the number of persons included in the first group is less than three (result of step S105: YES), the first determination unit 140 corresponds to the individual correspondence APP from the application storage unit 141 by use. One of a plurality of attached applications is selected. Then, the application execution unit 142 executes the selected application (step S106).

また、上述のステップS105において、第1群に含まれる人物の数が3人以上であると判断した場合(ステップS105の結果:NOの場合)、第1決定部140は、用途別アプリケーション記憶部141から、グループ対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択する。そして、アプリケーション実行部142は、その選択されたアプリケーションを実行する(ステップS107)。   When it is determined in step S105 described above that the number of persons included in the first group is three or more (result of step S105: NO), the first determination unit 140 uses the application storage unit by usage. From 141, one of a plurality of applications associated with the group-compatible APP is selected. Then, the application execution unit 142 executes the selected application (step S107).

なお、本実施形態では、選択部123により第1群が選択された場合、選択された第1群に対して初期動作が行われているが、これに限らず、例えば初期動作が行われない形態であってもよい。   In the present embodiment, when the first group is selected by the selection unit 123, the initial operation is performed on the selected first group. However, the present invention is not limited thereto, and for example, the initial operation is not performed. Form may be sufficient.

以上に説明したように、本実施形態では、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群が選択された場合、対話式の情報を提供する第1サービスを行うことを決定する一方、大きさが閾値未満である移動ベクトルの集合を示す第2群が選択された場合、非対話式の情報を提供する第2サービスを行うことを決定する。つまり、サービスの提供対象が、互いに意思疎通を行うなどの関係が成立している人物の集合である場合は、密なやり取りに基づいた情報を提供する第1サービスを行うことを決定する一方、サービスの提供対象が、互いに意思疎通を行うなどの関係が成立しているか否かが不明な人物の集合である場合は、やり取りを行わずに、一方的に情報を提供するサービス(非インタラクティブ性のサービス)を行うことを決定するので、サービスの提供対象の状況に応じて、適切なサービスを行うことができる。   As described above, in the present embodiment, the first group that provides interactive information when the first group that has a size equal to or larger than the threshold and indicates a set of similar movement vectors is selected. While deciding to perform a service, if a second group representing a set of motion vectors whose magnitude is less than a threshold is selected, it is determined to perform a second service that provides non-interactive information. In other words, when the service provision target is a set of persons who have established a relationship such as communicating with each other, it is determined to perform the first service that provides information based on close communication, If the target of the service is a set of people whose relationship is unknown, such as communicating with each other, a service that provides information unilaterally (non-interactive nature) Therefore, an appropriate service can be performed according to the situation of the service provision target.

(第2実施形態)
上述の第1実施形態では、ロボットを用いて、サービスを行う形態を例示したが、本実施形態では、ロボットの代わりに、CG(コンピュータグラフィックス)で表現されるキャラクタが画面に表示されるディスプレイを用いて、サービスを行う。本実施形態では、上述の駆動部170を、ディスプレイに置き換え、駆動部170によるロボットの振る舞いは、CGアニメーション等によって表現する。本実施形態のサービス提供装置は、上述のロボット装置1の構成のうち、駆動部170を、ディスプレイに置き換えた形態である。
(Second Embodiment)
In the above-described first embodiment, a form in which a service is performed using a robot is exemplified. However, in this embodiment, a display in which characters represented by CG (computer graphics) are displayed on the screen instead of the robot. Use to service. In the present embodiment, the above-described driving unit 170 is replaced with a display, and the behavior of the robot by the driving unit 170 is expressed by CG animation or the like. The service providing apparatus according to the present embodiment has a configuration in which the driving unit 170 is replaced with a display in the configuration of the robot apparatus 1 described above.

画面に表示するCGキャラクタは、少なくとも目を示すシンボルがあり、その目線方向を変えられることができる容姿であればよい。また、言語情報の出力は、ディスプレイに取り付けられたスピーカで音声出力を行ってもよいし、ディスプレイに表示されたCGキャラクタに対して吹き出しをつけ、文字として表示してもよい。また、群の検出の際には、自装置から一定の距離で検出を行うが、ディスプレイのような平面の場合、検出する群は直線的に並んだものとなる。しかし、エレベータでの広告などでは、円弧上に取り囲むことがあることから、自装置からの距離の基準としては、ディスプレイの中心点または平面を選択するものとする。また、上記一定の距離は、ディスプレイの大きさや設置の高さによって変化させてもよい。   The CG character displayed on the screen may have at least a symbol indicating an eye and can change its eye direction. In addition, the language information may be output by voice output with a speaker attached to the display, or may be displayed as a character by adding a speech balloon to the CG character displayed on the display. Further, when detecting a group, detection is performed at a fixed distance from the own apparatus. However, in the case of a flat surface such as a display, the groups to be detected are arranged in a straight line. However, since an advertisement in an elevator or the like may be enclosed on an arc, the center point or plane of the display is selected as a reference for the distance from the device itself. Further, the fixed distance may be changed depending on the size of the display or the height of installation.

また、CGキャラクタの目線の制御は、あらかじめアニメーションデータを蓄積しておき、人物位置算出部114によって算出された人物位置から相対的な角度を計算し、その角度を向くアニメーションを呼び出し、表示を行う。なお、アニメーションデータが逐次生成可能なCGキャラクタ(たとえば3次元情報をもったポリゴンで表現されるキャラクタ)であるならば、データを生成しながら表示してもよい。最終的に情報を提供する場面において、商品・施設情報とCGキャラクタを同時に表示することで視覚的にも伝達性が高い広告効果を得ることができる。また、人からの情報入力装置として、タッチパネル、または、ハプティックデバイスをディスプレイに設置し、触覚的なやり取りを行うこととしてもよい。以上のような構成にすることで、ロボットと同様の振舞いを行うことができ、第1実施形態と同様の内容を、ディスプレイによっても実現することが可能である。   The control of the line of sight of the CG character is performed by accumulating animation data in advance, calculating a relative angle from the person position calculated by the person position calculating unit 114, and calling and displaying an animation facing the angle. . If the animation data is a CG character that can be generated sequentially (for example, a character represented by a polygon having three-dimensional information), the data may be displayed while being generated. In the scene where information is finally provided, by displaying the product / facility information and the CG character at the same time, it is possible to obtain an advertisement effect with high visual transmission. In addition, as an information input device from a person, a touch panel or a haptic device may be installed on a display to perform tactile communication. With the above configuration, the same behavior as that of the robot can be performed, and the same contents as those of the first embodiment can be realized by a display.

以上、本発明の実施形態を説明したが、上述の各実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although embodiment of this invention was described, each above-mentioned embodiment was shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

例えば上述の人物移動ベクトル検出部110(顔検出部111、属性判定部112、人物検出部113、人物位置算出部114、移動ベクトル検出部115、人物位置記憶部116)の機能が、ロボット装置1から抜き出されて、外部装置(サーバ装置)に搭載される形態であってもよい。この場合、取得部117は、ロボット装置1の周囲に存在する(カメラの検出範囲に存在する)人物の移動ベクトルを、外部装置から取得する。要するに、本発明の情報処理装置は、複数の対象物の各々の移動ベクトルを取得する取得部117と、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する第1検出部121と、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する第2検出部122と、第1群または第2群の何れかを選択する選択部123と、選択部123により第1群が選択された場合は、第1サービスを行うことを決定し、選択部123により第2群が選択された場合は、第2サービスを行うことを決定する第1決定部140と、を備える形態であればよい。また、本発明のサービス提供装置は、上述の情報処理装置の構成に加えて、第1決定部140による決定に応じた出力を行う出力部150をさらに備える形態であればよい。   For example, the functions of the above-described person movement vector detection unit 110 (the face detection unit 111, the attribute determination unit 112, the person detection unit 113, the person position calculation unit 114, the movement vector detection unit 115, and the person position storage unit 116) are the functions of the robot apparatus 1. It may be a form extracted from and mounted on an external device (server device). In this case, the acquisition unit 117 acquires a movement vector of a person existing around the robot apparatus 1 (existing in the camera detection range) from the external apparatus. In short, the information processing apparatus according to the present invention includes an acquisition unit 117 that acquires movement vectors of each of a plurality of objects, and a first group that indicates a set of movement vectors that are similar in size to each other and that have a size equal to or larger than a threshold value. A first detection unit 121 for detecting the second detection unit 122 for detecting a second group indicating a set of movement vectors whose magnitude is less than a threshold, and a selection for selecting either the first group or the second group When the first group is selected by the selection unit 123 and the selection unit 123, it is determined to perform the first service, and when the second group is selected by the selection unit 123, the second service is determined to be performed. The 1st determination part 140 to be performed should just be a form provided. In addition to the configuration of the information processing apparatus described above, the service providing apparatus according to the present invention only needs to further include an output unit 150 that performs output according to the determination by the first determination unit 140.

また、例えば上述の情報処理装置100が有する機能が、情報処理装置と、1以上のサーバ装置とに分散される形態であってもよい。つまり、上述の情報処理装置100は、情報処理装置と、1以上のサーバ装置とが互いに通信する情報処理システムの形態に置き換えることもできる。例えば上述の顔検出部111、属性判定部112、人物検出部113、人物位置算出部114、移動ベクトル検出部115、人物位置記憶部116、取得部117、第1検出部121、第2検出部122、選択部123、第2決定部132、声かけ内容記憶部133、群追従部134、モータ制御部135、第1決定部140、用途別アプリケーション記憶部141、アプリケーション実行部142の各々の機能が、情報処理装置と、1以上のサーバ装置とに分散されて搭載されてもよい。要するに、本発明は、情報処理装置と、1以上のサーバ装置とを備える情報処理システムであって、複数の対象物の各々の移動ベクトルを取得する取得部117と、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する第1検出部121と、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する第2検出部122と、第1群または第2群の何れかを選択する選択部123と、選択部123により第1群が選択された場合は、第1サービスを行うことを決定し、選択部123により第2群が選択された場合は、第2サービスを行うことを決定する第1決定部140と、を備える形態であればよい。   Further, for example, the function of the information processing apparatus 100 described above may be distributed to the information processing apparatus and one or more server apparatuses. That is, the information processing apparatus 100 described above can be replaced with an information processing system in which the information processing apparatus and one or more server apparatuses communicate with each other. For example, the face detection unit 111, the attribute determination unit 112, the person detection unit 113, the person position calculation unit 114, the movement vector detection unit 115, the person position storage unit 116, the acquisition unit 117, the first detection unit 121, and the second detection unit described above. 122, the selection unit 123, the second determination unit 132, the calling content storage unit 133, the group tracking unit 134, the motor control unit 135, the first determination unit 140, the application-specific application storage unit 141, and the application execution unit 142. However, the information processing apparatus and one or more server apparatuses may be distributed and mounted. In short, the present invention is an information processing system including an information processing device and one or more server devices, and an acquisition unit 117 that acquires a movement vector of each of a plurality of objects, and a size that is equal to or larger than a threshold value. In addition, a first detection unit 121 that detects a first group indicating a set of movement vectors similar to each other, and a second detection unit 122 that detects a second group indicating a set of movement vectors whose magnitude is less than a threshold value. When the first unit is selected by the selection unit 123 and the selection unit 123 that selects either the first group or the second group, it is determined to perform the first service, and the selection unit 123 performs the second operation. When the group is selected, the first determination unit 140 that determines to perform the second service may be used.

また、例えば上述の情報処理装置100が有する各機能が、1以上のサーバ装置に分散して搭載され、当該1以上のサーバ装置と、上述のロボット装置1の構成のうち、情報処理装置100を除いた要素から構成される装置(出力装置)とが相互に通信する形態であってもよい。つまり、上述のロボット装置1は、1以上のサーバ装置と、出力装置とを備えたサービス提供システムの形態に置き換えることもできる。要するに、本発明は、1以上のサーバ装置と、出力装置とを備えるサービス提供システムであって、1以上のサーバ装置は、複数の対象物の各々の移動ベクトルを取得する取得部117と、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する第1検出部121と、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する第2検出部122と、第1群または第2群の何れかを選択する選択部123と、選択部123により第1群が選択された場合は、第1サービスを行うことを決定し、選択部123により第2群が選択された場合は、第2サービスを行うことを決定する第1決定部140と、を備え、出力装置は、第1決定部140による決定に応じた出力を行う出力部150を少なくとも備える形態であればよい。   Further, for example, each function of the above-described information processing apparatus 100 is distributed and installed in one or more server apparatuses. Among the configurations of the one or more server apparatuses and the robot apparatus 1 described above, the information processing apparatus 100 is included. The form which the apparatus (output device) comprised from the element excepted may mutually communicate may be sufficient. That is, the above-described robot device 1 can be replaced with a service providing system including one or more server devices and an output device. In short, the present invention is a service providing system including one or more server devices and an output device, and the one or more server devices include an acquisition unit 117 that acquires each movement vector of a plurality of objects, and a large size. A first detection unit 121 for detecting a first group indicating a set of similar movement vectors whose length is equal to or greater than a threshold, and a second group indicating a set of movement vectors having a size less than the threshold The second detection unit 122, the selection unit 123 that selects either the first group or the second group, and the first unit is selected by the selection unit 123, the first service is determined, When the second group is selected by the selection unit 123, a first determination unit 140 that determines to perform the second service is provided, and the output device performs output according to the determination by the first determination unit 140 Less output unit 150 It may be any form provided also.

なお、上述のCPU181が実行するプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上述のCPU181が実行するプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上述のCPU181が実行するプログラムを、ROM等の不揮発性記録媒体に予め組み込んで提供するようにしてもよい。   Note that the program executed by the CPU 181 may be provided by storing it on a computer connected to a network such as the Internet and downloading it via the network. The program executed by the CPU 181 may be provided or distributed via a network such as the Internet. The program executed by the CPU 181 may be provided by being incorporated in advance in a nonvolatile recording medium such as a ROM.

1 ロボット装置
10 頭部
20 右腕部
30 左腕部
40 胴体部
50 右脚部
60 左脚部
100 情報処理装置
101 第1カメラ
102 第2カメラ
110 人物移動ベクトル検出部
111 顔検出部
112 属性判定部
113 人物検出部
114 人物位置算出部
115 移動ベクトル検出部
116 人物位置記憶部
117 取得部
120 群検出/選択部
121 第1検出部
122 第2検出部
123 選択部
130 初期動作制御部
132 第2決定部
133 声かけ内容記憶部
134 群追従部
135 モータ制御部
140 第1決定部
141 用途別アプリケーション記憶部
142 アプリケーション実行部
150 出力部
161 スピーカ
162 マイク
170 駆動部
171T モータ
172P モータ
177W モータ
181 CPU
182 メモリ
183 HDD
184 外部I/O
185 通信部
200 店舗端末
DESCRIPTION OF SYMBOLS 1 Robot apparatus 10 Head 20 Right arm part 30 Left arm part 40 Body part 50 Right leg part 60 Left leg part 100 Information processing apparatus 101 1st camera 102 2nd camera 110 Person movement vector detection part 111 Face detection part 112 Attribute determination part 113 Human detection unit 114 Human position calculation unit 115 Movement vector detection unit 116 Human position storage unit 117 Acquisition unit 120 Group detection / selection unit 121 First detection unit 122 Second detection unit 123 Selection unit 130 Initial operation control unit 132 Second determination unit 133 Calling content storage unit 134 Group follow-up unit 135 Motor control unit 140 First determination unit 141 Application-specific application storage unit 142 Application execution unit 150 Output unit 161 Speaker 162 Microphone 170 Drive unit 171T Motor 172P Motor 177W Motor 181 CPU
182 Memory 183 HDD
184 External I / O
185 Communication unit 200 Store terminal

実施形態の情報処理装置は、取得部と第1検出部と第2検出部と選択部と第1決定部とを備える。取得部は、複数の対象物の各々の移動ベクトルを取得する。第1検出部は、対象物の移動ベクトルと、当該対象物のパーソナルスペースによって規定される範囲内に存在する他の対象物の移動ベクトルとの類似度に基づいて、類似度が基準値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出部は、サービス提供装置から所定範囲内に存在し、かつ、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する。選択部は、第1群または第2群の何れかを選択する。第1決定部は、選択部により第1群が選択された場合は、対話式の情報を提供する第1サービスを行うことを決定し、選択部により第2群が選択された場合は、非対話式の情報を提供する第2サービスを行うことを決定する。 The information processing apparatus according to the embodiment includes an acquisition unit, a first detection unit, a second detection unit, a selection unit, and a first determination unit. The acquisition unit acquires each movement vector of the plurality of objects. Based on the similarity between the movement vector of the object and the movement vector of another object existing within the range defined by the personal space of the object , the first detection unit has a similarity that is greater than or equal to a reference value . A first group indicating a set of movement vectors similar to each other is detected. The second detection unit detects a second group that represents a set of movement vectors that exist within a predetermined range from the service providing apparatus and that have a size less than a threshold value. The selection unit selects either the first group or the second group. The first determination unit, if the first group is selected by the selection unit, decides to perform the first service that provides information interactively when the second group is selected by the selection unit, the non Decide to perform a second service that provides interactive information .

実施形態の情報処理システムは、サービス提供装置の動作を制御する情報処理装置、および、1以上のサーバ装置備える情報処理システムであって、取得部と第1検出部と第2検出部と選択部と第1決定部とを備える。取得部は、複数の対象物の各々の移動ベクトルを取得する。第1検出部は、対象物の移動ベクトルと、当該対象物のパーソナルスペースによって規定される範囲内に存在する他の対象物の移動ベクトルとの類似度に基づいて、類似度が基準値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出部は、サービス提供装置から所定範囲内に存在し、かつ、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する。選択部は、第1群または第2群の何れかを選択する。第1決定部は、選択部により第1群が選択された場合は、対話式の情報を提供する第1サービスを行うことを決定し、選択部により第2群が選択された場合は、非対話式の情報を提供する第2サービスを行うことを決定する。 An information processing system according to an embodiment is an information processing apparatus that controls an operation of a service providing device , and one or more server devices , and an acquisition unit, a first detection unit, and a second detection unit are selected. And a first determination unit. The acquisition unit acquires each movement vector of the plurality of objects. Based on the similarity between the movement vector of the object and the movement vector of another object existing within the range defined by the personal space of the object , the first detection unit has a similarity that is greater than or equal to a reference value . A first group indicating a set of movement vectors similar to each other is detected. The second detection unit detects a second group that represents a set of movement vectors that exist within a predetermined range from the service providing apparatus and that have a size less than a threshold value. The selection unit selects either the first group or the second group. The first determination unit, if the first group is selected by the selection unit, decides to perform the first service that provides information interactively when the second group is selected by the selection unit, the non Decide to perform a second service that provides interactive information .

実施形態のサービス提供システムは、1以上のサーバ装置と、出力装置とを備えるサービス提供システムであって、1以上のサーバ装置は、取得部と第1検出部と第2検出部と選択部と決定部とを備える。取得部は、複数の対象物の各々の移動ベクトルを取得する。第1検出部は、対象物の移動ベクトルと、当該対象物のパーソナルスペースによって規定される範囲内に存在する他の対象物の移動ベクトルとの類似度に基づいて、類似度が基準値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出部は、出力装置から所定範囲内に存在し、かつ、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する。選択部は、第1群または第2群の何れかを選択する。決定部は、選択部により第1群が選択された場合は、対話式の情報を提供する第1サービスを行うことを決定し、選択部により第2群が選択された場合は、非対話式の情報を提供する第2サービスを行うことを決定する。一方、出力装置は、決定部による決定に応じた出力を行う出力部を少なくとも備える。 The service providing system according to the embodiment is a service providing system including one or more server devices and an output device, and the one or more server devices include an acquisition unit, a first detection unit, a second detection unit, and a selection unit. A determination unit. The acquisition unit acquires each movement vector of the plurality of objects. Based on the similarity between the movement vector of the object and the movement vector of another object existing within the range defined by the personal space of the object, the first detection unit has a similarity that is greater than or equal to a reference value. A first group indicating a set of movement vectors similar to each other is detected. The second detection unit detects a second group that represents a set of movement vectors that exist within a predetermined range from the output device and that have a magnitude less than a threshold value. The selection unit selects either the first group or the second group. The determining unit determines to perform the first service that provides interactive information when the first group is selected by the selecting unit, and is non-interactive when the second group is selected by the selecting unit. The second service providing the information is determined to be performed. On the other hand, the output device includes at least an output unit that performs output according to the determination by the determination unit.

実施形態の情報処理方法は、取得ステップと第1検出ステップと第2検出ステップと選択ステップと第1決定ステップとを含む。取得ステップは、複数の対象物の各々の移動ベクトルを取得する。第1検出ステップは、対象物の移動ベクトルと、当該対象物のパーソナルスペースによって規定される範囲内に存在する他の対象物の移動ベクトルとの類似度に基づいて、類似度が基準値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出ステップは、サービス提供装置から所定範囲内に存在し、かつ、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する。選択ステップは、第1群または第2群の何れかを選択する。第1決定ステップは、第1群が選択された場合は、対話式の情報を提供する第1サービスを行うことを決定し、第2群が選択された場合は、非対話式の情報を提供する第2サービスを行うことを決定する。 The information processing method of the embodiment includes an acquisition step, a first detection step, a second detection step, a selection step, and a first determination step. In the acquisition step, each movement vector of the plurality of objects is acquired. In the first detection step , based on the similarity between the movement vector of the object and the movement vector of another object existing within the range defined by the personal space of the object, the similarity is equal to or greater than a reference value . A first group indicating a set of movement vectors similar to each other is detected. The second detection step detects a second group indicating a set of movement vectors that are within a predetermined range from the service providing apparatus and that have a magnitude less than a threshold value. The selection step selects either the first group or the second group. The first determining step determines to perform a first service that provides interactive information when the first group is selected, and provides non-interactive information when the second group is selected. It determines the execution of the second service.

Claims (15)

複数の対象物の各々の移動ベクトルを取得する取得部と、
大きさが閾値以上であって、かつ、互いに類似する前記移動ベクトルの集合を示す第1群を検出する第1検出部と、
前記閾値未満である前記移動ベクトルの集合を示す第2群を検出する第2検出部と、
前記第1群または前記第2群の何れかを選択する選択部と、
前記選択部により前記第1群が選択された場合は、第1サービスを行うことを決定し、前記選択部により前記第2群が選択された場合は、前記第1サービスとは異なる第2サービスを行うことを決定する第1決定部と、を備える、
情報処理装置。
An acquisition unit for acquiring a movement vector of each of a plurality of objects;
A first detection unit for detecting a first group having a set of movement vectors similar in size to each other, the magnitude of which is equal to or greater than a threshold;
A second detector for detecting a second group indicating the set of movement vectors that is less than the threshold;
A selection unit for selecting either the first group or the second group;
When the first group is selected by the selection unit, the first service is determined to be performed, and when the second group is selected by the selection unit, a second service different from the first service is determined. A first determination unit that determines to perform
Information processing device.
前記第1サービスは、対話式の情報を提供することである、
請求項1の情報処理装置。
The first service is to provide interactive information;
The information processing apparatus according to claim 1.
前記第2サービスは、非対話式の情報を提供することである、
請求項1の情報処理装置。
The second service is to provide non-interactive information;
The information processing apparatus according to claim 1.
前記対象物は人物であり、
撮像装置により撮像された画像から、前記対象物の顔を検出する顔検出部をさらに備え、
前記第2検出部は、大きさが前記閾値未満である複数の前記移動ベクトルと1対1に対応する複数の前記対象物のうち、前記顔検出部により顔が検出された前記対象物の数が第2閾値以上の場合は、前記大きさが前記閾値未満である複数の前記移動ベクトルを、前記第2群として検出する、
請求項1の情報処理装置。
The object is a person;
A face detection unit for detecting a face of the object from an image captured by the imaging device;
The second detection unit has a number of objects whose faces are detected by the face detection unit among a plurality of the objects corresponding one-to-one with the plurality of movement vectors having a size less than the threshold. A plurality of movement vectors whose magnitude is less than the threshold value are detected as the second group in the case of two or more threshold values;
The information processing apparatus according to claim 1.
前記第1検出部は、大きさが前記閾値以上であって、かつ、互いに類似する前記移動ベクトルの集合に属する前記移動ベクトルの数が第3閾値以上の場合は、当該集合を前記第1群として検出しない、
請求項1の情報処理装置。
When the number of the movement vectors belonging to the set of movement vectors similar to each other is equal to or larger than a third threshold, the first detection unit determines the set as the first group. Not detect as,
The information processing apparatus according to claim 1.
前記選択部は、前記第2検出部により前記第2群が検出された場合は、前記第1検出部により前記第1群が検出されているか否かに関わらず、前記第2群を選択する、
請求項1の情報処理装置。
When the second detection unit detects the second group, the selection unit selects the second group regardless of whether or not the first detection unit detects the first group. ,
The information processing apparatus according to claim 1.
前記選択部は、前記第2検出部により前記第2群が検出されずに、前記第1検出部により複数の前記第1群が検出された場合は、選択対象となる前記第1群ごとに、前記移動ベクトルに基づいて、サービスを行う対象としての適格性を示す評価値を算出し、最も前記評価値が高い前記第1群を選択する、
請求項1の情報処理装置。
If the second detection unit detects a plurality of the first groups without the second detection unit being detected by the second detection unit, the selection unit selects each of the first groups to be selected. , Based on the movement vector, to calculate an evaluation value indicating eligibility as a target to be serviced, and select the first group having the highest evaluation value,
The information processing apparatus according to claim 1.
前記評価値は、前記移動ベクトルの方向が、前記第1決定部による決定に応じた出力を行う出力部へ向かう第1方向に近いほど高い値を示す、
請求項7の情報処理装置。
The evaluation value indicates a higher value as the direction of the movement vector is closer to the first direction toward the output unit that performs output according to the determination by the first determination unit.
The information processing apparatus according to claim 7.
前記対象物は人物であり、
撮像装置により撮像された画像から、前記対象物の顔を検出する顔検出部をさらに備え、
前記評価値は、前記顔検出部により検出された顔の数が多いほど高い値を示す、
請求項7の情報処理装置。
The object is a person;
A face detection unit for detecting a face of the object from an image captured by the imaging device;
The evaluation value indicates a higher value as the number of faces detected by the face detection unit is larger.
The information processing apparatus according to claim 7.
前記選択部により前記第1群が選択された場合は、選択された前記第1群に含まれる前記移動ベクトルの方向と、前記第1決定部による決定に応じた出力を行う出力部へ向かう第1方向との一致度に応じて、前記第1サービスを行う前に行う初期動作の内容を決定する第2決定部をさらに備える、
請求項1の情報処理装置。
When the first group is selected by the selection unit, the direction toward the movement vector included in the selected first group and the output unit that performs output according to the determination by the first determination unit A second determination unit configured to determine the content of an initial operation performed before performing the first service according to the degree of coincidence with one direction;
The information processing apparatus according to claim 1.
前記対象物は人物であり、
撮像装置により撮像された画像から、前記対象物の顔を検出する顔検出部と、
前記顔検出部により顔が検出された前記対象物の属性を判定する属性判定部と、を備え、
前記選択部により前記第1群が選択された場合は、前記属性判定部により判定された属性に応じて、前記第1サービスを行う前に行う初期動作の内容を決定する第2決定部をさらに備える、
請求項1の情報処理装置。
The object is a person;
A face detection unit that detects a face of the object from an image captured by an imaging device;
An attribute determination unit that determines an attribute of the object whose face is detected by the face detection unit,
When the first group is selected by the selection unit, a second determination unit that determines the content of the initial operation performed before performing the first service according to the attribute determined by the attribute determination unit Prepare
The information processing apparatus according to claim 1.
前記第1決定部による決定に応じた出力を行う出力部をさらに備える、
請求項1の情報処理装置。
An output unit that performs output according to the determination by the first determination unit;
The information processing apparatus according to claim 1.
情報処理装置と、1以上のサーバ装置とを備える情報処理システムであって、
複数の対象物の各々の移動ベクトルを取得する取得部と、
大きさが閾値以上であって、かつ、互いに類似する前記移動ベクトルの集合を示す第1群を検出する第1検出部と、
前記閾値未満である前記移動ベクトルの集合を示す第2群を検出する第2検出部と、
前記第1群または前記第2群の何れかを選択する選択部と、
前記選択部により前記第1群が選択された場合は、第1サービスを行うことを決定し、前記選択部により前記第2群が選択された場合は、前記第1サービスとは異なる第2サービスを行うことを決定する決定部と、を備える、
情報処理システム。
An information processing system comprising an information processing device and one or more server devices,
An acquisition unit for acquiring a movement vector of each of a plurality of objects;
A first detection unit for detecting a first group having a set of movement vectors similar in size to each other, the magnitude of which is equal to or greater than a threshold;
A second detector for detecting a second group indicating the set of movement vectors that is less than the threshold;
A selection unit for selecting either the first group or the second group;
When the first group is selected by the selection unit, the first service is determined to be performed, and when the second group is selected by the selection unit, a second service different from the first service is determined. A determination unit that determines to perform
Information processing system.
1以上のサーバ装置と、出力装置とを備えるサービス提供システムであって、
前記1以上のサーバ装置は、
複数の対象物の各々の移動ベクトルを取得する取得部と、
大きさが閾値以上であって、かつ、互いに類似する前記移動ベクトルの集合を示す第1群を検出する第1検出部と、
閾値未満である前記移動ベクトルの集合を示す第2群を検出する第2検出部と、
前記第1群または前記第2群の何れかを選択する選択部と、
前記選択部により前記第1群が選択された場合は、第1サービスを行うことを決定し、前記選択部により前記第2群が選択された場合は、前記第1サービスとは異なる第2サービスを行うことを決定する決定部と、を備え、
前記出力装置は、
前記決定部による決定に応じた出力を行う出力部を少なくとも備える、
サービス提供システム。
A service providing system comprising one or more server devices and an output device,
The one or more server devices are:
An acquisition unit for acquiring a movement vector of each of a plurality of objects;
A first detection unit for detecting a first group having a set of movement vectors similar in size to each other, the magnitude of which is equal to or greater than a threshold;
A second detection unit for detecting a second group indicating the set of movement vectors that is less than a threshold;
A selection unit for selecting either the first group or the second group;
When the first group is selected by the selection unit, the first service is determined to be performed, and when the second group is selected by the selection unit, a second service different from the first service is determined. A decision unit that decides to perform
The output device is
At least an output unit that performs output according to the determination by the determination unit;
Service provision system.
複数の対象物の各々の移動ベクトルを取得する取得ステップと、
大きさが閾値以上であって、かつ、互いに類似する前記移動ベクトルの集合を示す第1群を検出する第1検出ステップと、
前記閾値未満である前記移動ベクトルの集合を示す第2群を検出する第2検出ステップと、
前記第1群または前記第2群の何れかを選択する選択ステップと、
前記第1群が選択された場合は、第1サービスを行うことを決定し、前記第2群が選択された場合は、前記第1サービスとは異なる第2サービスを行うことを決定する第1決定ステップと、を含む、
情報処理方法。
An obtaining step for obtaining a movement vector of each of the plurality of objects;
A first detection step of detecting a first group having a set of movement vectors similar in size to each other, the magnitude of which is equal to or greater than a threshold;
A second detection step of detecting a second group indicating the set of movement vectors that is less than the threshold;
A selection step of selecting either the first group or the second group;
When the first group is selected, it is determined to perform the first service, and when the second group is selected, the first service is determined to perform the second service different from the first service. A determination step,
Information processing method.
JP2012153647A 2012-07-09 2012-07-09 Information processing apparatus, information processing system, service providing system, and information processing method Active JP5439549B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012153647A JP5439549B2 (en) 2012-07-09 2012-07-09 Information processing apparatus, information processing system, service providing system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012153647A JP5439549B2 (en) 2012-07-09 2012-07-09 Information processing apparatus, information processing system, service providing system, and information processing method

Publications (2)

Publication Number Publication Date
JP2014014899A true JP2014014899A (en) 2014-01-30
JP5439549B2 JP5439549B2 (en) 2014-03-12

Family

ID=50110057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012153647A Active JP5439549B2 (en) 2012-07-09 2012-07-09 Information processing apparatus, information processing system, service providing system, and information processing method

Country Status (1)

Country Link
JP (1) JP5439549B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018171696A (en) * 2017-03-31 2018-11-08 大日本印刷株式会社 Guiding device, guiding method, guiding system and program
CN109129460A (en) * 2017-06-16 2019-01-04 株式会社日立大厦系统 robot management system
WO2019039507A1 (en) * 2017-08-22 2019-02-28 株式会社 東芝 Smart camera, image processing device, and data communication method
JP2019047214A (en) * 2017-08-30 2019-03-22 株式会社東芝 Smart camera, image processing device, smart camera system, data transmission method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007118129A (en) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International Communication robot and caution control system using the same
JP2009116510A (en) * 2007-11-05 2009-05-28 Fujitsu Ltd Attention degree calculation device, attention degree calculation method, attention degree calculation program, information providing system and information providing device
JP2011158534A (en) * 2010-01-29 2011-08-18 Toppan Printing Co Ltd Moving body link type advertisement display method
JP2011248548A (en) * 2010-05-25 2011-12-08 Fujitsu Ltd Content determination program and content determination device
JP2012058476A (en) * 2010-09-08 2012-03-22 Sharp Corp Content output system, output control device, output control method, and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007118129A (en) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International Communication robot and caution control system using the same
JP2009116510A (en) * 2007-11-05 2009-05-28 Fujitsu Ltd Attention degree calculation device, attention degree calculation method, attention degree calculation program, information providing system and information providing device
JP2011158534A (en) * 2010-01-29 2011-08-18 Toppan Printing Co Ltd Moving body link type advertisement display method
JP2011248548A (en) * 2010-05-25 2011-12-08 Fujitsu Ltd Content determination program and content determination device
JP2012058476A (en) * 2010-09-08 2012-03-22 Sharp Corp Content output system, output control device, output control method, and computer program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018171696A (en) * 2017-03-31 2018-11-08 大日本印刷株式会社 Guiding device, guiding method, guiding system and program
JP7013667B2 (en) 2017-03-31 2022-02-01 大日本印刷株式会社 Guidance device and guidance system
CN109129460A (en) * 2017-06-16 2019-01-04 株式会社日立大厦系统 robot management system
WO2019039507A1 (en) * 2017-08-22 2019-02-28 株式会社 東芝 Smart camera, image processing device, and data communication method
JP2019047214A (en) * 2017-08-30 2019-03-22 株式会社東芝 Smart camera, image processing device, smart camera system, data transmission method and program

Also Published As

Publication number Publication date
JP5439549B2 (en) 2014-03-12

Similar Documents

Publication Publication Date Title
US11750767B2 (en) Selective identification and order of image modifiers
US10748390B2 (en) Dynamic haptic generation based on detected video events
US8022948B2 (en) Image capture and buffering in a virtual world using situational measurement averages
US8810513B2 (en) Method for controlling interactive display system
US8723796B2 (en) Multi-user interactive display system
US9349131B2 (en) Interactive digital advertising system
EP3079042B1 (en) Device and method for displaying screen based on event
WO2019216419A1 (en) Program, recording medium, augmented reality presentation device, and augmented reality presentation method
JP7224488B2 (en) Interactive method, apparatus, device and storage medium
JP5605725B2 (en) Information notification system, information notification method, information processing apparatus, control method thereof, and control program
JP5439549B2 (en) Information processing apparatus, information processing system, service providing system, and information processing method
CN104508597A (en) Method and apparatus for controlling augmented reality
CN112148188A (en) Interaction method and device in augmented reality scene, electronic equipment and storage medium
US10008041B2 (en) Image generating device, image generating method, and image generating program
CN112632349B (en) Exhibition area indication method and device, electronic equipment and storage medium
CN110253595A (en) A kind of smart machine control method and device
CN112261420B (en) Live video processing method and related device
WO2019155735A1 (en) Information processing device, information processing method, and program
CN110716641B (en) Interaction method, device, equipment and storage medium
JP2019051568A (en) Guide apparatus, guide system, guidance method and program
JP2020155944A (en) Speaker detection system, speaker detection method, and program
JP2018205534A (en) Display control device, display control method and program
JP2021196741A (en) Image processing device, image processing method and program
JP6287527B2 (en) Information processing apparatus, method, and program
US20180292980A1 (en) System, information processing method, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131216

R151 Written notification of patent or utility model registration

Ref document number: 5439549

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151