JP2014014899A - Information processing apparatus, information processing system, service provider system, and information processing method - Google Patents
Information processing apparatus, information processing system, service provider system, and information processing method Download PDFInfo
- Publication number
- JP2014014899A JP2014014899A JP2012153647A JP2012153647A JP2014014899A JP 2014014899 A JP2014014899 A JP 2014014899A JP 2012153647 A JP2012153647 A JP 2012153647A JP 2012153647 A JP2012153647 A JP 2012153647A JP 2014014899 A JP2014014899 A JP 2014014899A
- Authority
- JP
- Japan
- Prior art keywords
- group
- unit
- service
- information processing
- detection unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明の実施形態は、情報処理装置、情報処理システム、サービス提供システムおよび情報処理方法に関する。 Embodiments described herein relate generally to an information processing apparatus, an information processing system, a service providing system, and an information processing method.
従来、例えば公共の空間(ショッピングモール内や路上等)において、商品や広告などの情報を示す商品情報の提供などのサービスを行うサービス提供装置が知られている。例えば、商品情報などを表示するディスプレイを備えた表示装置を、サービス提供装置として利用する形態が知られている。この形態では、ディスプレイの表示内容をリアルタイムに変更できるという特性を活かし、サービスを提供する対象(例えば人物)を検出するセンサと組み合わせることで、対話式の情報を提供する(インタラクティブなサービスを行う)こともできる。また、提供するサービスのインタラクティブ性を追求するものとして、商品情報の報知などのサービスを行うロボット装置を、サービス提供装置として利用する形態も知られている。 2. Description of the Related Art Conventionally, service providing apparatuses that perform services such as provision of product information indicating information such as products and advertisements in public spaces (such as shopping malls and on the street) are known. For example, a form in which a display device including a display for displaying product information is used as a service providing device is known. In this form, interactive information is provided (interactive service is performed) by combining with a sensor that detects an object (for example, a person) to provide a service, taking advantage of the property that display contents can be changed in real time. You can also. Also, in order to pursue the interactivity of the service to be provided, a form in which a robot apparatus that performs services such as notification of product information is used as a service providing apparatus is also known.
ここで、例えば複数の人物が固まってサービス提供装置に近づいてきている場合は、行動を共にするグループがサービス提供装置に近づいてきていると推定することができる。互いに意思疎通を行うなどの関係が成立している人物の集合で構成されるグループに対しては、密な会話によるサービスを行うことで(対話式の情報を提供することで)、そのグループに属する人物全員を満足させることができると考えられる。 Here, for example, when a plurality of persons are gathered and approaching the service providing apparatus, it can be estimated that a group that performs actions is approaching the service providing apparatus. For a group consisting of a set of people who have established a relationship such as mutual communication, by providing a service with close conversation (providing interactive information), It is thought that all the persons who belong can be satisfied.
一方、例えばサービス提供装置の周囲を大勢の人物が取り囲んでいるような場合は、意思疎通を行うなどの関係が成立していない人物も含まれている可能性がある。このような場合に、サービス提供装置の周囲を取り囲んでいる複数の人物を1つのグループとみなして、密な会話によるサービスを行うことは適切ではない。このような場合は、演技的や説明的なサービス、つまり、非インタラクティブ性のサービスを行う方が、サービスを提供する対象となる各人物に対して均一に働きかけることができるので、サービス提供の効果が大きい。 On the other hand, for example, when a large number of people surround the service providing apparatus, there may be a person who does not have a relationship such as communication. In such a case, it is not appropriate to perform a service based on close conversation by regarding a plurality of persons surrounding the service providing apparatus as one group. In such cases, acting and descriptive services, that is, non-interactive services, can work uniformly on each person who provides the service, so the effect of providing the service Is big.
しかしながら、従来においては、サービスを提供する対象が、互いに意思疎通を行うなどの関係が成立している人物の集合である場合と、互いに意思疎通を行うなどの関係が成立しているのか否かが不明な人物の集合である場合とで、提供するサービスを適切なものに切り替えるという技術は存在しなかった。 However, in the past, whether the target to provide the service is a set of persons who have established a relationship such as communicating with each other and whether the relationship such as communicating with each other has been established. There is no technology for switching the service to be provided to an appropriate one when there is a group of unknown persons.
本発明が解決しようとする課題は、サービスを提供する対象の状況に応じて、適切なサービスに切り替え可能な情報処理装置、情報処理システム、サービス提供システムおよび情報処理方法を提供することである。 The problem to be solved by the present invention is to provide an information processing apparatus, an information processing system, a service providing system, and an information processing method that can be switched to an appropriate service according to the situation of an object to provide the service.
実施形態の情報処理装置は、取得部と第1検出部と第2検出部と選択部と第1決定部とを備える。取得部は、複数の対象物の各々の移動ベクトルを取得する。第1検出部は、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出部は、閾値未満である移動ベクトルの集合を示す第2群を検出する。選択部は、第1群または第2群の何れかを選択する。第1決定部は、選択部により第1群が選択された場合は、第1サービスを行うことを決定し、選択部により第2群が選択された場合は、第1サービスとは異なる第2サービスを行うことを決定する。 The information processing apparatus according to the embodiment includes an acquisition unit, a first detection unit, a second detection unit, a selection unit, and a first determination unit. The acquisition unit acquires each movement vector of the plurality of objects. The first detection unit detects a first group indicating a set of movement vectors similar in size to each other that have a size equal to or greater than a threshold value. The second detection unit detects a second group indicating a set of movement vectors that are less than the threshold. The selection unit selects either the first group or the second group. The first determination unit determines to perform the first service when the selection unit selects the first group, and when the selection unit selects the second group, the second determination unit is different from the first service. Decide to perform the service.
実施形態の情報処理システムは、情報処理装置と、1以上のサーバ装置とを備える情報処理システムであって、取得部と第1検出部と第2検出部と選択部と第1決定部とを備える。取得部は、複数の対象物の各々の移動ベクトルを取得する。第1検出部は、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出部は、閾値未満である移動ベクトルの集合を示す第2群を検出する。選択部は、第1群または第2群の何れかを選択する。第1決定部は、選択部により第1群が選択された場合は、第1サービスを行うことを決定し、選択部により第2群が選択された場合は、第1サービスとは異なる第2サービスを行うことを決定する。 An information processing system according to an embodiment is an information processing system including an information processing device and one or more server devices, and includes an acquisition unit, a first detection unit, a second detection unit, a selection unit, and a first determination unit. Prepare. The acquisition unit acquires each movement vector of the plurality of objects. The first detection unit detects a first group indicating a set of movement vectors similar in size to each other that have a size equal to or greater than a threshold value. The second detection unit detects a second group indicating a set of movement vectors that are less than the threshold. The selection unit selects either the first group or the second group. The first determination unit determines to perform the first service when the selection unit selects the first group, and when the selection unit selects the second group, the second determination unit is different from the first service. Decide to perform the service.
実施形態のサービス提供システムは、1以上のサーバ装置と、出力装置とを備えるサービス提供システムであって、1以上のサーバ装置は、取得部と第1検出部と第2検出部と選択部と決定部とを備える。取得部は、複数の対象物の各々の移動ベクトルを取得する。第2検出部は、閾値未満である移動ベクトルの集合を示す第2群を検出する。選択部は、第1群または第2群の何れかを選択する。決定部は、選択部により第1群が選択された場合は、第1サービスを行うことを決定し、選択部により第2群が選択された場合は、第1サービスとは異なる第2サービスを行うことを決定する。一方、出力装置は、決定部による決定に応じた出力を行う出力部を少なくとも備える。 The service providing system according to the embodiment is a service providing system including one or more server devices and an output device, and the one or more server devices include an acquisition unit, a first detection unit, a second detection unit, and a selection unit. A determination unit. The acquisition unit acquires each movement vector of the plurality of objects. The second detection unit detects a second group indicating a set of movement vectors that are less than the threshold. The selection unit selects either the first group or the second group. The determination unit determines to perform the first service when the selection unit selects the first group, and determines the second service different from the first service when the selection unit selects the second group. Decide what to do. On the other hand, the output device includes at least an output unit that performs output according to the determination by the determination unit.
実施形態の情報処理方法は、取得ステップと第1検出ステップと第2検出ステップと選択ステップと第1決定ステップとを含む。取得ステップは、複数の対象物の各々の移動ベクトルを取得する。第1検出ステップは、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出ステップは、閾値未満である移動ベクトルの集合を示す第2群を検出する。選択ステップは、第1群または第2群の何れかを選択する。第1決定ステップは、第1群が選択された場合は、第1サービスを行うことを決定し、第2群が選択された場合は、第1サービスとは異なる第2サービスを行うことを決定する。 The information processing method of the embodiment includes an acquisition step, a first detection step, a second detection step, a selection step, and a first determination step. In the acquisition step, each movement vector of the plurality of objects is acquired. In the first detection step, a first group indicating a set of movement vectors having magnitudes equal to or larger than a threshold and similar to each other is detected. The second detection step detects a second group indicating a set of movement vectors that are less than the threshold value. The selection step selects either the first group or the second group. The first determining step determines to perform the first service when the first group is selected, and determines to perform the second service different from the first service when the second group is selected. To do.
以下、添付図面を参照しながら、本発明に係る情報処理装置、情報処理システム、サービス提供システムおよび情報処理方法の実施形態を詳細に説明する。 Hereinafter, embodiments of an information processing apparatus, an information processing system, a service providing system, and an information processing method according to the present invention will be described in detail with reference to the accompanying drawings.
(第1実施形態)
第1実施形態では、ロボット装置が、サービス提供装置として利用される形態を想定している。図1は、本実施形態のロボット装置1の外観例を示す図である。図1に示すように、ロボット装置1は、人の形を模したロボットで構成され、頭部10と、右腕部20と、左腕部30と、胴体部40と、右脚部50と、左脚部60とを備える。また、ロボット装置1は、第1カメラ101と、第2カメラ102と、スピーカ161と、マイク162と、を備えている。第1カメラ101は、頭部10に配置され、第2カメラ102、スピーカ161およびマイク162は、胴体部40に配置される。
(First embodiment)
In the first embodiment, it is assumed that the robot apparatus is used as a service providing apparatus. FIG. 1 is a diagram showing an example of the appearance of the
また、詳細な図示は省略するが、頭部10には、Tilt方向(上下方向)に当該頭部10を駆動するためのモータ171Tと、Pan方向(左右方向)に当該頭部10を駆動するためのモータ172Pとが配置される。頭部10に設けられた第1カメラ101の位置(撮影位置)は、モータ171T,172Pを回転させることにより変更可能である。また、胴体部40には、当該胴体部40を駆動するためのモータ177Wが配置される。この例では、胴体部40に設けられた第2カメラ102は、頭部10に設けられた第1カメラ101よりも広角なカメラレンズを備えており、より広範囲にわたる対象物(例えば人物)の撮影が可能である。また、この例では、ロボットの脚部(50,60)には、当該脚部を駆動するための駆動部(モータ)は配置されない。つまり、この例のロボットは、据え置き型のロボットである。
Although not shown in detail, the
図2は、ロボット装置1のハードウェア構成例を示す図である。図2に示すように、ロボット装置1は、情報処理装置100と、第1カメラ101と、第2カメラ102と、スピーカ161と、マイク162と、駆動部170とを少なくとも備えている。情報処理装置100は、CPU181と、メモリ182と、HDD183と、外部I/O184と、通信部185とを備える。CPU181は、メモリ182またはHDD183等に格納されたプログラムを実行することにより、ロボット装置1全体の動作を制御する。外部I/O184は、ロボットの動作に関するデータの入出力を行う。通信部185は、無線LAN等を介して、店舗端末200との間でデータの送受信を行う。
FIG. 2 is a diagram illustrating a hardware configuration example of the
この例では、駆動部170には、上述のモータ171T、172Pおよび177Wが含まれる。なお、図2に示すロボット装置1のハードウェア構成は一例であり、例えば通信部185が設けられない形態であってもよい。また、図2の例では、後述の出力部150に対応するスピーカ161および駆動部170が、情報処理装置100とは別に設けられているが、例えば出力部150が情報処理装置100に搭載される形態であってもよい。
In this example, the drive unit 170 includes the
図3は、ロボット装置1の機能構成例を示すブロック図である。図3の例では、ロボット装置1が有する機能には、人物移動ベクトル検出部110と、取得部117と、群検出/選択部120と、初期動作制御部130と、第1決定部140と、用途別アプリケーション記憶部141と、アプリケーション実行部142と、出力部150とが含まれる。以下、各機能の具体的な内容を説明する。
FIG. 3 is a block diagram illustrating a functional configuration example of the
人物移動ベクトル検出部110は、ロボット装置1の周囲における人物の位置を検出し、人物の位置の時系列変化から、当該人物の移動ベクトルを検出する。また、本実施形態では、人物移動ベクトル検出部110は、人物の顔がロボット装置1を向いているかどうかを検出して、当該人物の性別や年齢などの属性を示す属性情報を付加し、人物ごとに、当該人物の属性情報を管理することもできる。図3に示すように、人物移動ベクトル検出部110は、顔検出部111と、属性判定部112と、人物検出部113と、人物位置算出部114と、移動ベクトル検出部115と、人物位置記憶部116とを有する。
The person movement
第2カメラ102による撮影が行われるたびに、人物位置算出部114は、第2カメラ102によって撮影された画像を取得し、取得した画像内における人物の位置を示す位置情報を算出する。一例として、本実施形態の人物位置算出部114は、人物検出部113の頭部検出アルゴリズムを用いて、第2カメラ102から取得した画像内における人物の頭部の位置と大きさを検出する。第2カメラ102から取得した画像内に複数の人物が写っている場合は、人物検出部113は、その複数の人物の各々の頭部の位置と大きさを検出することができる。人物位置算出部114は、検出した頭部の大きさ、カメラ(この例では第2カメラ102)の設置位置、カメラの画角などの情報から、ロボット装置1と人物との相対的な角度と距離を計算することができる。この計算結果は、地面を基準平面とし、ロボット装置1の位置が原点となるように設定されたXY座標系に変換されて、人物位置記憶部116に出力(記録)される。以上のように変換された計算結果が、人物の位置を示す位置情報となり、人物を識別する人物情報と対応付けられて人物位置記憶部116に記録される。
Each time shooting by the
なお、本実施形態では、カメラ(第2カメラ102)により撮影された画像を用いて、位置情報を算出しているが、位置情報を算出することができるものであるなら、カメラ以外のいかなるデバイスを利用してもよい。例えばレーザレンジファインダや、人感センサ、床圧力センサなどのデバイスを利用する形態であってもよい。また、以上に挙げたデバイスを組み合わせて利用する形態であってもよい。 In the present embodiment, the position information is calculated using an image captured by the camera (second camera 102). However, any device other than the camera can be used as long as the position information can be calculated. May be used. For example, a form using a device such as a laser range finder, a human sensor, or a floor pressure sensor may be used. Moreover, the form using combining the above-mentioned device may be sufficient.
顔検出部111は、第1カメラ101を用いて、人物位置算出部114によって算出された位置情報が示す位置(人物位置)に対して顔検出を行う。本実施形態では、第1カメラ101は、モータ171Tおよび172Pによって、Tilt方向またはPan方向にカメラ角度を制御可能な雲台に取り付けられている。そして、顔検出を行おうとする人物位置が、第1カメラ101の画角の範囲外である場合は、顔検出部111は、当該人物位置がカメラの画角に収まるよう、カメラ雲台を制御することもできる。なお、顔検出部111による顔検出については、公知の様々な技術を利用することができる。顔検出部111により顔が検出された場合、属性判定部112は、公知の属性判定アルゴリズムを使用して、性別と年齢を判定する。そして、属性判定部112は、性別と年齢を示す属性情報を、顔が検出された人物の位置を示す位置情報に対応付けて人物位置記憶部116に記録する。
The face detection unit 111 uses the
移動ベクトル検出部115は、人物位置算出部114による位置情報の算出が行われるたびに、算出された位置情報が示す位置に対応する人物の移動ベクトルを検出する。移動ベクトル検出部115は、人物位置算出部114による前回の位置情報の算出タイミングから、今回の位置情報の算出タイミングまでの時間長に応じて、前回の位置情報の算出タイミングで算出された位置情報が示す位置ごとに、当該位置に対応する人物が今回の位置情報の算出タイミングまでに移動する範囲を推測する。そして、移動ベクトル検出部115は、今回の位置情報の算出タイミングにより算出された位置情報が示す位置のうち、推測した範囲に最も近い位置に対応する人物と、当該範囲の算出元となる位置に対応する人物とを同一の人物とみなして当該人物の移動ベクトルを検出し、検出した移動ベクトルと当該人物を識別する人物情報とを対応付けて人物位置記憶部116に記録する。
The movement
なお、人物の移動ベクトルを検出する方法は、上述の方法に限らず、公知の様々な技術を利用することができる。例えば、移動ベクトル検出部115は、人物位置算出部114により算出された位置情報が示す位置に対応する人物の特徴点の変化を検出することで、人物位置算出部114により算出された位置情報が示す位置に対応する人物を識別し、識別した人物ごとに、移動ベクトルを検出することもできる。また、例えば、移動ベクトル検出部115は、顔検出部111により検出された顔情報を用いて、人物位置算出部114により算出された位置情報が示す位置に対応する人物を識別し、識別した人物ごとに、移動ベクトルを検出することもできる。
Note that the method for detecting the movement vector of the person is not limited to the above-described method, and various known techniques can be used. For example, the movement
本実施形態の人物位置記憶部116は、人物ごとに(人物情報ごとに)、位置情報と、移動ベクトルと、属性情報とが対応付けられたデータ(「検出データ」と呼ぶ)を記憶する。移動ベクトル検出部115は、人物位置算出部114による位置情報の算出が行われるたびに、算出された位置情報が示す位置に対応する人物の移動ベクトルを検出し、その位置情報と、検出した移動ベクトルとを、人物位置記憶部116のうち当該人物の検出データが記憶される領域に記録する。つまり、移動ベクトル検出部115は、人物位置算出部114により算出された位置情報と、自身が検出した移動ベクトルとを、その位置情報が示す位置に対応する人物を識別する人物情報に対応付けて人物位置記憶部116に記録すると捉えることもできる。なお、各人物のデータの履歴は、当該人物がカメラの検出範囲から消失するまでの間、人物位置記憶部116に保持される。
The person position storage unit 116 of the present embodiment stores data (referred to as “detection data”) in which position information, a movement vector, and attribute information are associated with each person (for each person information). The movement
取得部117は、ロボット装置1の周囲に存在する(カメラの検出範囲に存在する)人物の移動ベクトルを取得する。より具体的には、取得部117は、移動ベクトル検出部115による移動ベクトルの検出処理が行われるたびに、人物位置記憶部116にアクセスし、その時点における各人物の位置情報と移動ベクトルを取得する。
The acquisition unit 117 acquires a movement vector of a person existing around the robot apparatus 1 (existing in the camera detection range). More specifically, the acquisition unit 117 accesses the person position storage unit 116 each time movement vector detection processing is performed by the movement
群検出/選択部120は、取得部117により取得された移動ベクトルに基づいて、図4(a)に示すように、互いに意思疎通を行うなどの関係が成立しており、行動を共にしていることが想定される人物の集合がロボット装置1に近づいてきている状況を検出することができる。また、群検出/選択部120は、取得部117により取得された移動ベクトルに基づいて、図4(b)に示すように、互いに意思疎通を行うなどの関係が成立しているか否かが不明な人物の集合が、ロボット装置1の周辺を取り巻いている状況を検出することができる。そして、群検出/選択部120は、効果的にサービスを提供できる群を選択する機能を有する。
Based on the movement vector acquired by the acquisition unit 117, the group detection /
図3に示すように、群検出/選択部120は、第1検出部121と第2検出部122と選択部123とを有する。第1検出部121は、取得部117による取得処理が行われるたびに、取得部117により取得された複数の移動ベクトルのうち、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第1群とは、互いに意思疎通を行うなどの関係が成立している人物の移動ベクトルの集合であると捉えることができる。より具体的には以下のとおりである。
As illustrated in FIG. 3, the group detection /
第1検出部121は、取得部117により取得された複数の移動ベクトルと1対1に対応する複数の人物の中から、1人の人物Haを選出し、選出した人物Haに対して、第1群同士を識別可能な第1ラベル番号を割り当てる。第1ラベル番号は、初期値から第1群の数だけカウントアップされていく数字である。この例では、人物Haに対して、既に第1ラベル番号が割り当てられている場合は、新たな第1ラベル番号を人物Haに割り当てることはしない。次に、第1検出部121は、選出した人物Haの位置情報が示す位置を中心として、パーソナルスペースによって規定される範囲内(例えば半径1.2m以内等)に存在する人物Hbの移動ベクトルと、人物Haの移動ベクトルとの類似度を判定する。ただし、人物HaまたはHbの移動ベクトルが閾値未満(例えば時速0.5km未満)の場合は判定を行わず、移動ベクトルが閾値未満の人物は、検出対象から除外する。2つの移動ベクトルの類似度は、移動量が大きい方をベクトルx、小さい方をベクトルyとしたとき、以下の式1で求めることができる。
上記式1で求められた類似度が基準値以上(例えば0.6以上)ならば、同じ第1群に属すると判断し、人物Hbに対して、人物Haと同じ第1ラベル番号を割り当てる。この例では、人物Hbに対して、既に他の第1ラベル番号が割り当てられていた場合は、人物Haに割り当てられた第1ラベル番号を、第1ラベル候補番号として人物Hbに割り当てる。ここでは、第1検出部121は、割り当てられた第1ラベル番号とは異なる第1ラベル候補番号が一定時間以上(例えば3秒以上)にわたって割り当てられた人物については、割り当てられた第1ラベル番号で識別される第1群から抜けた人物とみなし、当該人物に割り当てられた第1ラベル番号を、第1ラベル候補番号が示す番号に書き換える。
If the similarity obtained by the
また、第1検出部121は、選出した人物Haの位置情報が示す位置を中心として、パーソナルスペースによって規定される範囲内に他の人物が存在しない場合であっても、人物Haの移動ベクトルが閾値以上であれば、人物Haのみから第1群が構成されるとみなし、人物Haに対して第1ラベル番号を割り当てる。第1検出部121は、以上のようなラベリングを、第1ラベル番号が割り当てられていない人物がいなくなるまで繰り返す。これにより、同じ第1ラベル番号が割り当てられた人物の集合は、当該第1ラベル番号で識別される第1群として検出される。見方を変えれば、第1検出部121は、取得部117により取得された複数の移動ベクトルのうち、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出している。また、第1検出部121は、第1ラベル番号または第1ラベル候補番号を割り当てる人物の位置情報に、第1ラベル番号または第1ラベル候補番号を対応付けて人物位置記憶部116に記録する。ラベリングが終了した場合、第1検出部121は、検出した第1群を示す情報(例えば当該第1群を識別する第1ラベル番号、当該第1群に含まれる人物の人物情報と検出データ等)を、選択部123に出力する。 Further, the first detection unit 121 sets the movement vector of the person Ha even when there is no other person within the range defined by the personal space around the position indicated by the position information of the selected person Ha. If it is equal to or greater than the threshold value, it is considered that the first group is composed only of the person Ha, and a first label number is assigned to the person Ha. The first detection unit 121 repeats the above labeling until there is no person to whom the first label number is not assigned. Thereby, a set of persons assigned with the same first label number is detected as a first group identified by the first label number. In other words, the first detection unit 121 selects a first group indicating a set of movement vectors that are similar in size to each other among the plurality of movement vectors acquired by the acquisition unit 117. Detected. In addition, the first detection unit 121 records the first label number or the first label candidate number in the person position storage unit 116 in association with the position information of the person to whom the first label number or the first label candidate number is assigned. When the labeling is completed, the first detection unit 121 includes information indicating the detected first group (for example, a first label number identifying the first group, personal information and detection data of a person included in the first group, etc. ) Is output to the selection unit 123.
なお、この例では、第1検出部121は、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合に属する移動ベクトルの数が第3閾値以上の場合は、当該集合を第1群として検出しない。より具体的には、第1検出部121は、同じ第1ラベル番号が割り当てられた人物の数が第3閾値以上(例えば7人以上)の場合は、ロボット装置1の周囲を通過する通行人の集合であるとみなし、第1群として検出することはしない。
In this example, the first detection unit 121 determines that the set is the first when the size is equal to or larger than the threshold and the number of movement vectors belonging to a set of similar movement vectors is equal to or greater than the third threshold. Not detected as a group. More specifically, when the number of persons assigned the same first label number is equal to or greater than a third threshold (for example, 7 or more), the first detection unit 121 is a passerby who passes around the
第2検出部122は、取得部117による取得処理が行われるたびに、取得部117により取得された複数の移動ベクトルのうち、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する。より具体的には、第2検出部122は、大きさが閾値未満である複数の移動ベクトルと1対1に対応する複数の人物のうち、顔検出部111により顔が検出された人物の数が第2閾値以上の場合は、大きさが閾値未満である複数の移動ベクトルを、第2群として検出する。さらに詳述すれば以下のとおりである。なお、第2群とは、互いに意思疎通を行うなどの関係が成立しているのか否かが不明な人物の移動ベクトルの集合であると捉えることができる。 Each time the acquisition process by the acquisition unit 117 is performed, the second detection unit 122 selects a second group indicating a set of movement vectors whose magnitude is less than the threshold among the plurality of movement vectors acquired by the acquisition unit 117. To detect. More specifically, the second detection unit 122 counts the number of persons whose faces are detected by the face detection unit 111 among a plurality of persons corresponding to a plurality of movement vectors whose sizes are less than the threshold. Is equal to or greater than the second threshold, a plurality of movement vectors having magnitudes less than the threshold are detected as the second group. Further details are as follows. It should be noted that the second group can be regarded as a set of movement vectors of persons whose unknown whether or not a relationship such as mutual communication is established.
第2検出部122は、取得部117により取得された複数の移動ベクトルと1対1に対応する複数の人物の中から、ロボット装置1の位置を中心として規定される範囲(例えば半径2.4m±50cm)内に存在し、かつ、移動ベクトルが基準値未満(例えば時速0.5km未満)の複数の人物Hdを選出する。そして、第2検出部122は、複数の人物Hdのうち顔が検出されている人物の数(属性情報が付加されている人物の数)をカウントし、複数の人物Hdのうち顔が検出されている人物の数が第2閾値以上(例えば5人以上)ならば、複数の人物Hdの各々に対して、傍観者群を示す第2ラベル番号を割り当て、第2群として検出する。見方を変えれば、第2検出部122は、取得部117により取得された複数の移動ベクトルのうち、大きさが閾値未満である複数の移動ベクトルの集合を、第2群として検出していると捉えることもできる。第2検出部122は、検出した第2群を示す情報(例えば第2ラベル番号、当該第2群に含まれる人物の人物情報と検出データ等)を、選択部123へ出力する。
The second detection unit 122 has a range (for example, a radius of 2.4 m) defined around the position of the
なお、第2検出部122は、一定時間以上(例えば3秒以上)にわたって、顔が検出されないか、上記の人物Hdとして検出されない人物については、第2ラベル番号を削除する。この場合、第2ラベル番号が割り当てられている人物の数が一定人数を下回る場合は、第2ラベル番号が割り当てられている全ての人物から第2ラベル番号を削除する。 Note that the second detection unit 122 deletes the second label number for a person whose face is not detected or is not detected as the person Hd for a predetermined time or longer (for example, 3 seconds or longer). In this case, if the number of persons assigned with the second label number is less than a certain number, the second label number is deleted from all persons assigned with the second label number.
また、第2検出部122は、第2ラベル番号を割り当てる人物の位置情報に、第2ラベル番号を対応付けて人物位置記憶部116に記録する。図5に示すように、人物位置記憶部116は、人物ごとに、当該人物の検出データが記憶される位置軌跡記憶領域と、当該人物に割り当てられるラベル番号(第1ラベル番号、第1ラベル候補番号および第2ラベル番号のうちの少なくとも1つ)を特定可能なラベルデータが記憶されるラベル記憶領域とを有する。位置軌跡記憶領域には、第2カメラ102によって撮影された画像を取得した時刻Tごとに、当該時刻Tにおける位置情報、移動ベクトル、属性情報から構成される検出データが記憶される。ラベル記憶領域には、第2カメラ102によって撮影された画像を取得した時刻Tごとに、当該時刻Tにおけるラベルデータが記憶される。
In addition, the second detection unit 122 records the position information of the person to whom the second label number is assigned in the person position storage unit 116 in association with the second label number. As shown in FIG. 5, the person position storage unit 116 includes, for each person, a position locus storage area in which detection data of the person is stored, and a label number (first label number, first label candidate) assigned to the person. A label storage area in which label data capable of specifying at least one of the number and the second label number is stored. In the position trajectory storage area, detection data including position information, movement vectors, and attribute information at the time T is stored for each time T at which an image captured by the
選択部123は、第1群または第2群の何れかを選択する。本実施形態では、選択部123は、第2検出部122により第2群が検出された場合は、第1検出部121により第1群が検出されているか否かに関わらず、第2群を選択する。第2群が検出されている場合は、互いに意思疎通を行うなどの関係が成立しているか否かが不明な人物の集合が、ロボット装置1の周囲を取り巻いている状況であることが想定され、例えば密な会話によるサービスを行うことは適切ではないので、第1群を選択することはしない。
The selection unit 123 selects either the first group or the second group. In the present embodiment, when the second group is detected by the second detection unit 122, the selection unit 123 selects the second group regardless of whether or not the first group is detected by the first detection unit 121. select. When the second group is detected, it is assumed that a set of persons whose unknown relationship is established such as mutual communication is surrounding the
選択部123は、第2検出部122により第2群が検出されずに、第1検出部121により複数の第1群が検出された場合は、選択対象となる第1群ごとに、当該第1群に属する移動ベクトルに基づいて、サービスを行う対象としての適格性(見方を変えれば働きかけ易さ)を示す評価値を算出し、最も評価値が高い第1群を選択する。より具体的には以下のとおりである。まず、選択部123は、ロボット装置1を原点とするXY平面上において、所定の角度(例えば5度)ごとに、原点を起点とする仮想直線を延ばし、仮想直線上に複数の第1群(第1検出部121により検出された第1群)が存在する場合は、最も原点に近い位置に存在する(最もロボット装置1に近い位置に存在する)第1群を、選択対象として選出する。このようにして、選択部123は、第1検出部121により検出された複数の第1群の中から、選択対象となる第1群を選出する。選択対象として選出された第1群が1つの場合、選択部123は、その第1群を選択する。
When the second detection unit 122 does not detect the second group and the first detection unit 121 detects a plurality of first groups, the selection unit 123 sets the first group for each first group to be selected. Based on the movement vector belonging to the first group, an evaluation value indicating the suitability of the service target (ease of working if the viewpoint is changed) is calculated, and the first group having the highest evaluation value is selected. More specifically, it is as follows. First, the selection unit 123 extends a virtual straight line starting from the origin at every predetermined angle (for example, 5 degrees) on the XY plane with the
一方、選択対象として選出された第1群が複数存在する場合、選択部123は、選択対象となる第1群ごとに、当該第1群に属する移動ベクトルに基づいて評価値を算出する。以下、具体的に説明する。選択部123は、選択対象となる各第1群について、当該第1群に含まれる人物(当該第1群に属する移動ベクトルに対応する人物)に対応する検出データの履歴を人物位置記憶部116から読み出す。そして、当該第1群に含まれる人物ごとに、当該人物に対応する検出データの履歴から、現時点よりも一定時間長だけ過去の時点(例えば現時点よりも3秒前の時点)から、現時点に至るまでの期間内の各時点で記録された移動ベクトルを取得する。そして、上記期間内の時点ごとに、当該時点における各人物の移動ベクトルの平均値(平均移動ベクトル)を求め、当該第1群の移動ベクトル遷移Vaとして保持する。 On the other hand, when there are a plurality of first groups selected as selection targets, the selection unit 123 calculates an evaluation value for each first group to be selected based on a movement vector belonging to the first group. This will be specifically described below. For each first group to be selected, the selection unit 123 stores a history of detection data corresponding to a person included in the first group (a person corresponding to a movement vector belonging to the first group) as a person position storage unit 116. Read from. Then, for each person included in the first group, from the history of detection data corresponding to the person, the current time is reached from the past time point (for example, the time point 3 seconds before the current time) from the past by a certain time length. The movement vector recorded at each time point in the period until is acquired. Then, for each time point within the above period, an average value (average movement vector) of the movement vectors of each person at the time point is obtained and held as the movement vector transition Va of the first group.
選択部123は、選択対象となる各第1群について、当該第1群の移動ベクトル遷移Vaの減少量Daを算出する。より具体的には、例えば選択部123は、上記期間内の時点(最も過去の時点は除く)ごとに、当該時点に対応する平均移動ベクトルと当該時点の直前の時点に対応する平均移動ベクトルとの差分を算出し、各差分の平均を、移動ベクトル減少量Daとして保持する。 For each first group to be selected, the selection unit 123 calculates a reduction amount Da of the movement vector transition Va of the first group. More specifically, for example, for each time point within the above period (excluding the most past time point), the selection unit 123 calculates an average movement vector corresponding to the time point and an average movement vector corresponding to the time point immediately before the time point. And the average of each difference is held as the movement vector decrease amount Da.
次に、選択部123は、移動ベクトルの方向について、ロボット装置1の正面方向、且つ、ロボット装置1に近づいてくる方向をプラスとして重み付けを行い、選択対象となる各第1群について、上記期間内の時点ごとに、当該時点の平均移動ベクトルの方向が、ロボット装置1の正面方向、且つ、ロボット装置1に近づいてくる方向に近いほど値が増大するベクトル方向評価値を算出し、各時点で算出したベクトル方向評価値の平均を、当該第1群の移動ベクトル方向評価値Dbとして保持する。見方を変えれば、第1群の移動ベクトル方向評価値Dbは、移動ベクトルの方向が、サービスに関する出力を行う出力部(この例ではスピーカ161等)へ向かう第1方向に近いほど高い値を示すと捉えることもできる。
Next, the selection unit 123 weights the direction of the movement vector with the front direction of the
そして、選択部123は、選択対象となる第1群ごとに、算出した移動ベクトル減少量Daと、移動ベクトル方向評価値Dbと、当該第1群に含まれる移動ベクトルに対応する人物の数Num、顔検出部111により検出された顔の数Face、ロボット装置1と当該第1群との相対的な距離Disとを重み付け加算し、この重み付け加算結果を、当該第1群の評価値(サービスを行う対象としての適格性を示す評価値)とする。選択部123は、選択対象となる第1群のうち、最も評価値が高い第1群を選択する。なお、評価値をVとすると、重み付け加算の式は、例えば以下の式2で表すことができる。
上記式2におけるW1〜W5は重み係数であり、定数であってもよいし、関数による出力値であってもよい。上記式2からも理解されるように、第1群の移動ベクトル減少量Daが大きいほど、当該第1群の評価値Vは大きくなる。第1群の移動ベクトル減少量Daが大きいということは、当該第1群に属する人物群は、ロボット装置1に興味を示して立ちどまろうとしている可能性が高いと推定されるためである。また、第1群の移動ベクトル方向評価値Dbが大きいほど、当該第1群の評価値Vは大きくなる。第1群の移動ベクトル方向評価値Dbが大きいということは、ロボット装置1に興味を示して近づいてきている可能性が高いと推定されるためである。サービス提供の効果を大きくするためには、ロボット装置1に興味を示している可能性が高い人物の集合に対してサービスを提供することが好ましいので、移動ベクトル減少量Daや移動ベクトル方向評価値Dbの値が大きい第1群は、サービスを行う対象としての適格性が高いとみなされ、評価値Vが高くなる。また、上記式2からも理解されるように、検出された顔の数が多いほど、評価値Vは高い値を示す。検出された顔の数が多いということは、ロボット装置1の方に顔を向けている、つまり、ロボット装置1に興味を示している可能性が高い人物が多く存在すると推定されるので、サービスを行う対象としての適格性が高いとみなされるためである。
W1 to W5 in the above formula 2 are weighting factors, which may be constants or output values by functions. As understood from the above formula 2, the evaluation value V of the first group increases as the movement vector decrease amount Da of the first group increases. The movement vector decrease amount Da of the first group is large because it is estimated that there is a high possibility that the group of persons belonging to the first group is interested in the
以上のようにして第1群を選択した場合、選択部123は、選択した第1群とロボット装置1との距離が、対話可能な距離(例えば3.6m以下)を上回るまでは、上述の選択処理を停止する。本実施形態では、最も評価値Vが高い第1群とロボット装置1との距離が、対話可能な距離を上回る場合、選択部123は、その最も評価値Vが高い第1群を選択することはせず、上述の選択処理をやり直す。また、選択部123は、選択した第1群とロボット装置1との距離が対話可能な距離を上回った場合は、その第1群の選択を一旦解除し、上述の選択処理を再開して、新たな第1群を選択し直す。また、選択部123は、選択した第1群の評価値Vが第4閾値以下になった場合に、その第1群の選択を解除し、上述の選択処理を再開することもできる。
When the first group is selected as described above, the selection unit 123 determines that the distance between the selected first group and the
選択部123は、第1群を選択した場合、選択した第1群を識別可能な第1ラベル番号を、初期動作制御部130および第1決定部140へ通知する。また、選択部123は、第2群を選択した場合、選択した第2群を識別可能な第2ラベル番号を初期動作制御部130および第1決定部140へ通知する。
When selecting the first group, the selection unit 123 notifies the initial
図3に戻って説明を続ける。初期動作制御部130は、選択部123により第1群が選択された場合は、選択された第1群に対する初期動作(サービスを行う前の動作)の実行を制御する。より具体的には以下のとおりである。
Returning to FIG. 3, the description will be continued. When the selection unit 123 selects the first group, the initial
初期動作制御部130は、第2決定部132と、声かけ内容記憶部133と、群追従部134と、モータ制御部135とを備える。第2決定部132は、選択部123により第1群が選択された場合は、サービスを行う前に行う初期動作の内容を決定する。第2決定部132は、選択部123から通知された第1ラベル番号を用いて、当該第1ラベル番号で識別される第1群(選択部123により選択された第1群)に含まれる人物の検出データを人物位置記憶部116から取得する。第2決定部132は、選択された第1群に含まれる人物のうち属性情報が対応付けられた人物が存在する場合は、声かけ内容記憶部133を参照し、属性情報に応じて、声かけ内容を決定(選択)する。つまり、第2決定部132は、属性判定部112により判定された属性に応じて、第1サービスを行う前に行う初期動作の内容を決定する。
The initial
本実施形態では、図6に示すように、声かけ内容記憶部133は、性別と年齢の組み合わせごとに、複数の声かけデータ(この例では音声データ)を記憶している。図6において、「F1−2」は、性別「女性」と、年齢「10代〜20代」との組み合わせを表す。「F3−4」は、性別「女性」と、年齢「30代〜40代」との組み合わせを表す。「F5−6」は、性別「女性」と、年齢「50代〜60代」との組み合わせを表す。「M1−2」は、性別「男性」と、年齢「10代〜20代」との組み合わせを表す。「M3−4」は、性別「男性」と、年齢「30代〜40代」との組み合わせを表す。「M5−6」は、性別「男性」と、年齢「50代〜60代」との組み合わせを表す。例えば属性情報が、性別「女性」と、年齢「10代〜20代」との組み合わせである場合、第2決定部132は、「F1−2」に対応付けられた複数の声かけデータのうちの1つの声かけデータを、声かけ内容として決定する。図6の例では、第2決定部132は、「こんにちは、お嬢さん」という声かけデータを、声かけ内容として決定することもできる。
In the present embodiment, as shown in FIG. 6, the voice call
また、第2決定部132は、選択された第1群に属する移動ベクトルの方向と、ロボット装置1の正面方向、且つ、ロボット装置1に近づいてくる方向(見方を変えれば、サービスに関する出力を行う出力部へ向かう第1方向)との一致度に応じて、声かけ内容を決定することもできる。例えば、移動ベクトルの方向が、ロボット装置1の前を横切るものであり、上記の一致度が低い場合は、移動している人物を呼び止めるような声かけデータを、声かけ内容として決定することもできる。一方、移動ベクトルの方向が、ロボット装置1に近づいてくる方向であり、上記の一致度が高い場合は、人物がこちらに注目していることを前提とした声かけデータを、声かけ内容として決定することもできる。
Further, the second determination unit 132 outputs the direction related to the selected movement vector belonging to the first group, the front direction of the
以上のようにして第2決定部132で決定(選択)された声かけデータは、スピーカ161から出力される。第2決定部132は、決定した声かけデータを出力するタイミングを任意に設定可能であり、例えば選択された第1群の評価値Vが一定以上になるタイミングで、決定した声かけデータをスピーカ161から出力する制御を行うこともできる。なお、本実施形態では、以上の初期動作(声かけ動作)は、選択された1つの第1群に対して、1回しか行われない。
The voice call data determined (selected) by the second determination unit 132 as described above is output from the
群追従部134は、選択された第1群の位置座標Paとロボット装置1との距離を算出し、その距離が対話可能な距離以下(例えば3.6m以下)である場合、第1カメラ101の撮影方向が、位置座標Paを向くよう、モータ制御部135に命令を出力する。モータ制御部135は、群追従部134からの命令に従い、駆動部170の駆動を制御する。これにより、第1カメラ101からの視線を、選択された第1群に向かせることができる。
The group follower 134 calculates the distance between the position coordinate Pa of the selected first group and the
図3に戻って説明を続ける。第1決定部140は、選択部123により第1群が選択された場合は、第1サービスを行うことを決定し、選択部123により第2群が選択された場合は、第1サービスとは異なる第2サービスを行うことを決定する。本実施形態では、第1サービスは、対話式の情報を提供することであり、第2サービスは、非対話式の情報を提供することである。以下、具体的に説明する。なお、第1決定部140は、選択部123から、第1群の選択を解除する旨の通知を受けた場合は、その第1群に対するサービスを行わないことを決定する。 Returning to FIG. 3, the description will be continued. When the selection unit 123 selects the first group, the first determination unit 140 determines to perform the first service, and when the selection unit 123 selects the second group, what is the first service? Decide to perform a different second service. In the present embodiment, the first service is to provide interactive information, and the second service is to provide non-interactive information. This will be specifically described below. In addition, when the first determination unit 140 receives a notification from the selection unit 123 to cancel the selection of the first group, the first determination unit 140 determines not to perform the service for the first group.
選択部123により第1群が選択された場合、第1決定部140は、選択部123から通知された第1ラベル番号を用いて、当該第1ラベル番号で識別される第1群(選択部123により選択された第1群)に含まれる人物の検出データを人物位置記憶部116から取得する。そして、第1決定部140は、用途別アプリケーション記憶部141を参照し、選択された第1群に含まれる人物の数に応じて、第1サービスの内容を決定(選択)する。また、選択部123により第2群が選択された場合、第1決定部140は、用途別アプリケーション記憶部141を参照し、第2サービスの内容を決定(選択)する。 When the selection unit 123 selects the first group, the first determination unit 140 uses the first label number notified from the selection unit 123 to identify the first group identified by the first label number (selection unit The detection data of the persons included in the first group selected by 123 is acquired from the person position storage unit 116. Then, the first determination unit 140 refers to the application-specific application storage unit 141 and determines (selects) the content of the first service according to the number of persons included in the selected first group. Further, when the second group is selected by the selection unit 123, the first determination unit 140 refers to the application storage unit 141 for each use and determines (selects) the content of the second service.
本実施形態では、図7に示すように、用途別アプリケーション記憶部141は、選択された群が第1群であり、その第1群に含まれる人物の人数が3人未満の場合に起動されるアプリケーションを示す個別対応アプリケーション(以下、「個別対応APP」と呼ぶ)に対応付けられた複数のアプリケーションと、選択された群が第1群であり、その第1群に含まれる人物の人数が3人以上の場合に起動されるアプリケーションを示すクループ対応アプリケーション(以下、「グループ対応APP」と呼ぶ)に対応付けられた複数のアプリケーションと、選択された群が第2群である場合に起動されるアプリケーションを示す多人数対応アプリケーション(以下、「多人数対応APP」と呼ぶ)に対応付けられた複数のアプリケーションとが記憶される。 In this embodiment, as shown in FIG. 7, the application-specific application storage unit 141 is activated when the selected group is the first group and the number of persons included in the first group is less than three. A plurality of applications associated with an individually corresponding application (hereinafter referred to as “individually-applicable APP”) and a selected group are the first group, and the number of persons included in the first group is Multiple applications associated with a group-compatible application (hereinafter referred to as “group-compatible APP”) indicating an application to be activated when there are three or more persons, and activated when the selected group is the second group A plurality of applications associated with a multi-person application (hereinafter referred to as “multi-person APP”) indicating It is.
第1決定部140は、選択部123により選択された群が第1群であり、その第1群に含まれる人物の人数が3人未満の場合、個別対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択する。また、第1決定部140は、選択部123により選択された群が第1群であり、その第1群に含まれる人物の人数が3人以上の場合、グループ対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択する。さらに、第1決定部140は、選択部123により選択された群が第2群である場合は、多人数対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択する。第1決定部140により選択されたアプリケーションは、アプリケーション実行部142によって実行される。 When the group selected by the selection unit 123 is the first group and the number of persons included in the first group is less than three, the first determination unit 140 includes a plurality of applications associated with the individual corresponding APP. Is selected. In addition, the first determination unit 140 includes a plurality of groups associated with the group-corresponding APP when the group selected by the selection unit 123 is the first group and the number of persons included in the first group is three or more. One of the applications is selected. Furthermore, when the group selected by the selection unit 123 is the second group, the first determination unit 140 selects any one of a plurality of applications associated with the multi-person APP. The application selected by the first determination unit 140 is executed by the application execution unit 142.
個別対応APPは、対話式の情報を提供する第1サービスを行うためのアプリケーションである。第1決定部140により、個別対応APPに対応付けられた複数のアプリケーションのうちの何れかが選択された場合、アプリケーション実行部142は、その選択されたアプリケーションを実行する。これにより、スピーカ161および駆動部170は、選択されたアプリケーションに応じた出力を行い、第1サービスが実現される。この場合の第1サービスの例としては、複数回にわたる質問を行い、質問に対する回答を受け付けるなどの密なやり取りを行った上、受け付けた回答に応じた情報(商品情報や施設の案内情報など)を、ロボット装置1の振る舞いを交えながら提供するという形態が考えられる。
本実施形態では、第1決定部140は、選択部123により選択された群が第1群であり、その第1群に含まれる人物の人数が3人未満の場合、個別対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択することで、以上のような第1サービスを行うことを決定する。
The individual correspondence APP is an application for performing a first service that provides interactive information. When any of the plurality of applications associated with the individual corresponding APP is selected by the first determination unit 140, the application execution unit 142 executes the selected application. Thereby, the
In the present embodiment, the first determination unit 140 associates with the individual correspondence APP when the group selected by the selection unit 123 is the first group and the number of persons included in the first group is less than three. By selecting one of the plurality of applications, it is determined to perform the first service as described above.
また、グループ対応APPは、個別対応APPと同様、対話式の情報を提供する第1サービスを実現するためのアプリケーションであるが、サービスの提供対象となる人数が多くなるため、このグループ対応APPの実行により実現される第1サービスの例としては、答えが多数決となるような質問や属性情報を利用することで、平均的な要求を取得し、取得した要求に応じた情報を、ロボット装置1の振る舞いを交えながら提供するという形態が考えられる。本実施形態では、第1決定部140は、選択部123により選択された群が第1群であり、その第1群に含まれる人物の人数が3人以上の場合、グループ対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択することで、以上のような第1サービスを行うことを決定する。
In addition, the group-compatible APP is an application for realizing the first service that provides interactive information, as with the individual-compatible APP. However, since the number of people to whom the service is provided increases, As an example of the first service realized by execution, an average request is obtained by using a question or attribute information whose answer is a majority decision, and information corresponding to the obtained request is obtained from the
なお、個別対応APPを実行する場合は、音声認識を用いた対話が有効であるが、グループ対応APPを実行する場合は、各人物の発話が衝突して認識が困難になることが予測されるので、画像を用いた顔属性認識やジェスチャ認識を利用することが有効である。また、アプリケーション実行中のロボット装置1の視線の振り方については、個別対応APPを実行する場合は、特定の1人の人物に視線を向け、グループ対応APPを実行する場合は、複数の人物の各々に対して、視線を順次に切り替えるなど、人数によって視線の振り方を変化させてもよい。
In addition, when executing individually-applicable APP, dialogue using voice recognition is effective. However, when executing group-applicable APP, it is predicted that the utterances of each person collide and recognition becomes difficult. Therefore, it is effective to use face attribute recognition or gesture recognition using an image. In addition, regarding the way of gazing of the
多人数対応APPは、非対話式の情報を提供する第2サービスを行うためのアプリケーションである。第1決定部140により、多人数対応APPに対応付けられた複数のアプリケーションのうちの何れかが選択された場合、アプリケーション実行部142は、その選択されたアプリケーションを実行する。これにより、スピーカ161および駆動部170は、選択されたアプリケーションに応じた出力を行い、第2サービスが実現される。この場合の第2サービスの例としては、対話などは行わずに(サービスの提供を受ける側の要求とは無関係に)、商品や店舗を宣伝する情報を、ロボット装置1の演劇的な振る舞い(予め決められた動作)を交えながら提供するという形態が考えられる。この場合、ロボット装置1の視線の振り方は、人物に追従するよりも、宣伝効果を狙った方向に向けられる形態であってもよい。本実施形態では、第1決定部140は、選択部123により選択された群が第2群である場合、多人数対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択することで、以上のような第2サービスを行うことを決定する。
The multi-person APP is an application for performing a second service that provides non-interactive information. When the first determination unit 140 selects any one of a plurality of applications associated with the multi-person APP, the application execution unit 142 executes the selected application. Thereby, the
本実施形態では、用途別アプリケーション記憶部141は、通信部185を介して店舗端末200と接続されており、用途別アプリケーション記憶部141に記憶されるアプリケーションは、店舗での用途に応じた内容に変更することもできる。なお、用途別アプリケーション記憶部141に記憶されるアプリケーションの内容を変更する必要が無く、店舗端末200および通信部185が設けられない形態であってもよい。
In the present embodiment, the application-specific application storage unit 141 is connected to the
ここで、対話式の情報を提供するサービス(第1サービス)とは、サービスを提供する側とサービスの提供を受ける側との間で双方向にやり取りを行いながら、情報提供を行うサービスを指す。ここでの「やり取り」とは、人、もしくは、ロボットの言語情報・非言語情報(例えばジェスチャ等)の相互伝達を示すものであり、短期的に見て変化のない情報の取得や出力は「やり取り」に含まれない。例えばサービスの提供対象の人物の顔から判断される年齢・性別などの情報を取得し、その取得した情報に応じて、商品情報を提供する場合は、「やり取り」は行われていないと判断される。一方、サービスの提供対象の人物の顔の表情の変化など短期的に変化した情報を取得し、その取得した情報に応じて、商品情報を提供する場合は、「やり取り」が行われていると判断される。また、非対話式の情報を提供するサービス(第2サービス)とは、サービスを提供する側とサービスの提供を受ける側との間でやり取りを行うことなく、情報提供を行うサービスを指す。 Here, the service that provides interactive information (first service) refers to a service that provides information while interactively exchanging between the service providing side and the service receiving side. . “Interaction” here refers to the mutual transmission of linguistic information and non-linguistic information (for example, gestures) of people or robots. Acquisition and output of information that does not change in the short term is “ It is not included in “Interaction”. For example, when acquiring information such as age and gender determined from the face of the person to whom the service is provided and providing product information according to the acquired information, it is determined that no "exchange" has occurred. The On the other hand, when acquiring information that has changed in the short term, such as changes in facial expression of the person to whom the service is provided, and providing product information according to the acquired information, To be judged. Further, the service that provides non-interactive information (second service) refers to a service that provides information without exchanging between the service providing side and the service receiving side.
図3に戻って説明を続ける。出力部150は、第1決定部140または第2決定部132による決定に応じた出力を行う。出力部150は、スピーカ161と、駆動部170とを含む。スピーカ161は、第1決定部140により決定されたアプリケーションまたは第2決定部132により決定された声かけデータに応じた音声出力を行う。駆動部170は、第1決定部140により決定されたアプリケーションに応じた動作出力を行う。また、駆動部170は、モータ制御部135からの命令に応じた動作出力を行う。
Returning to FIG. 3, the description will be continued. The
以上に説明した顔検出部111、属性判定部112、人物検出部113、人物位置算出部114、移動ベクトル検出部115、取得部117、第1検出部121、第2検出部122、選択部123、第2決定部132、群追従部134、モータ制御部135、第1決定部140、アプリケーション実行部142の各々の機能は、図2のCPU181が、メモリ182やHDD183等に格納されたプログラムを実行することにより実現される。なお、これに限らず、例えば上述の顔検出部111、属性判定部112、人物検出部113、人物位置算出部114、移動ベクトル検出部115、取得部117、第1検出部121、第2検出部122、選択部123、第2決定部132、群追従部134、モータ制御部135、第1決定部140、アプリケーション実行部142のうちの少なくとも一部が専用のハードウェア回路で実現される構成であってもよい。
The face detection unit 111, the attribute determination unit 112, the person detection unit 113, the person position calculation unit 114, the movement
図8は、本実施形態のロボット装置1による処理動作の一例を示すフローチャートである。ステップS100において、群検出/選択部120は、第1群または第2群の検出を行い、検出した第1群または第2群の何れかを選択する。選択部123が、第1群または第2群の何れかを選択した場合(ステップS101の結果:YESの場合)、処理はステップS102へ移行する。選択部123により選択された群が第2群の場合(ステップS102の結果:NOの場合)、第1決定部140は、非対話式の情報を提供する第2サービスを行うことを決定し、用途別アプリケーション記憶部141から、多人数対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択する。そして、アプリケーション実行部142は、その選択されたアプリケーションを実行する(ステップS103)。
FIG. 8 is a flowchart illustrating an example of a processing operation performed by the
一方、上述のステップS102において、選択部123により選択された群が第1群の場合(ステップS102の結果:YESの場合)、初期動作制御部130は、選択部123により選択された第1群に対する初期動作の実行を制御する(ステップS104)。次に、第1決定部140は、選択部123により選択された第1群に含まれる人物の数が3人未満であるか否かを判断する(ステップS105)。第1群に含まれる人物の数が3人未満であると判断した場合(ステップS105の結果:YESの場合)、第1決定部140は、用途別アプリケーション記憶部141から、個別対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択する。そして、アプリケーション実行部142は、その選択されたアプリケーションを実行する(ステップS106)。
On the other hand, in the above-described step S102, when the group selected by the selection unit 123 is the first group (result of step S102: YES), the initial
また、上述のステップS105において、第1群に含まれる人物の数が3人以上であると判断した場合(ステップS105の結果:NOの場合)、第1決定部140は、用途別アプリケーション記憶部141から、グループ対応APPに対応付けられた複数のアプリケーションのうちの何れかを選択する。そして、アプリケーション実行部142は、その選択されたアプリケーションを実行する(ステップS107)。 When it is determined in step S105 described above that the number of persons included in the first group is three or more (result of step S105: NO), the first determination unit 140 uses the application storage unit by usage. From 141, one of a plurality of applications associated with the group-compatible APP is selected. Then, the application execution unit 142 executes the selected application (step S107).
なお、本実施形態では、選択部123により第1群が選択された場合、選択された第1群に対して初期動作が行われているが、これに限らず、例えば初期動作が行われない形態であってもよい。 In the present embodiment, when the first group is selected by the selection unit 123, the initial operation is performed on the selected first group. However, the present invention is not limited thereto, and for example, the initial operation is not performed. Form may be sufficient.
以上に説明したように、本実施形態では、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群が選択された場合、対話式の情報を提供する第1サービスを行うことを決定する一方、大きさが閾値未満である移動ベクトルの集合を示す第2群が選択された場合、非対話式の情報を提供する第2サービスを行うことを決定する。つまり、サービスの提供対象が、互いに意思疎通を行うなどの関係が成立している人物の集合である場合は、密なやり取りに基づいた情報を提供する第1サービスを行うことを決定する一方、サービスの提供対象が、互いに意思疎通を行うなどの関係が成立しているか否かが不明な人物の集合である場合は、やり取りを行わずに、一方的に情報を提供するサービス(非インタラクティブ性のサービス)を行うことを決定するので、サービスの提供対象の状況に応じて、適切なサービスを行うことができる。 As described above, in the present embodiment, the first group that provides interactive information when the first group that has a size equal to or larger than the threshold and indicates a set of similar movement vectors is selected. While deciding to perform a service, if a second group representing a set of motion vectors whose magnitude is less than a threshold is selected, it is determined to perform a second service that provides non-interactive information. In other words, when the service provision target is a set of persons who have established a relationship such as communicating with each other, it is determined to perform the first service that provides information based on close communication, If the target of the service is a set of people whose relationship is unknown, such as communicating with each other, a service that provides information unilaterally (non-interactive nature) Therefore, an appropriate service can be performed according to the situation of the service provision target.
(第2実施形態)
上述の第1実施形態では、ロボットを用いて、サービスを行う形態を例示したが、本実施形態では、ロボットの代わりに、CG(コンピュータグラフィックス)で表現されるキャラクタが画面に表示されるディスプレイを用いて、サービスを行う。本実施形態では、上述の駆動部170を、ディスプレイに置き換え、駆動部170によるロボットの振る舞いは、CGアニメーション等によって表現する。本実施形態のサービス提供装置は、上述のロボット装置1の構成のうち、駆動部170を、ディスプレイに置き換えた形態である。
(Second Embodiment)
In the above-described first embodiment, a form in which a service is performed using a robot is exemplified. However, in this embodiment, a display in which characters represented by CG (computer graphics) are displayed on the screen instead of the robot. Use to service. In the present embodiment, the above-described driving unit 170 is replaced with a display, and the behavior of the robot by the driving unit 170 is expressed by CG animation or the like. The service providing apparatus according to the present embodiment has a configuration in which the driving unit 170 is replaced with a display in the configuration of the
画面に表示するCGキャラクタは、少なくとも目を示すシンボルがあり、その目線方向を変えられることができる容姿であればよい。また、言語情報の出力は、ディスプレイに取り付けられたスピーカで音声出力を行ってもよいし、ディスプレイに表示されたCGキャラクタに対して吹き出しをつけ、文字として表示してもよい。また、群の検出の際には、自装置から一定の距離で検出を行うが、ディスプレイのような平面の場合、検出する群は直線的に並んだものとなる。しかし、エレベータでの広告などでは、円弧上に取り囲むことがあることから、自装置からの距離の基準としては、ディスプレイの中心点または平面を選択するものとする。また、上記一定の距離は、ディスプレイの大きさや設置の高さによって変化させてもよい。 The CG character displayed on the screen may have at least a symbol indicating an eye and can change its eye direction. In addition, the language information may be output by voice output with a speaker attached to the display, or may be displayed as a character by adding a speech balloon to the CG character displayed on the display. Further, when detecting a group, detection is performed at a fixed distance from the own apparatus. However, in the case of a flat surface such as a display, the groups to be detected are arranged in a straight line. However, since an advertisement in an elevator or the like may be enclosed on an arc, the center point or plane of the display is selected as a reference for the distance from the device itself. Further, the fixed distance may be changed depending on the size of the display or the height of installation.
また、CGキャラクタの目線の制御は、あらかじめアニメーションデータを蓄積しておき、人物位置算出部114によって算出された人物位置から相対的な角度を計算し、その角度を向くアニメーションを呼び出し、表示を行う。なお、アニメーションデータが逐次生成可能なCGキャラクタ(たとえば3次元情報をもったポリゴンで表現されるキャラクタ)であるならば、データを生成しながら表示してもよい。最終的に情報を提供する場面において、商品・施設情報とCGキャラクタを同時に表示することで視覚的にも伝達性が高い広告効果を得ることができる。また、人からの情報入力装置として、タッチパネル、または、ハプティックデバイスをディスプレイに設置し、触覚的なやり取りを行うこととしてもよい。以上のような構成にすることで、ロボットと同様の振舞いを行うことができ、第1実施形態と同様の内容を、ディスプレイによっても実現することが可能である。 The control of the line of sight of the CG character is performed by accumulating animation data in advance, calculating a relative angle from the person position calculated by the person position calculating unit 114, and calling and displaying an animation facing the angle. . If the animation data is a CG character that can be generated sequentially (for example, a character represented by a polygon having three-dimensional information), the data may be displayed while being generated. In the scene where information is finally provided, by displaying the product / facility information and the CG character at the same time, it is possible to obtain an advertisement effect with high visual transmission. In addition, as an information input device from a person, a touch panel or a haptic device may be installed on a display to perform tactile communication. With the above configuration, the same behavior as that of the robot can be performed, and the same contents as those of the first embodiment can be realized by a display.
以上、本発明の実施形態を説明したが、上述の各実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As mentioned above, although embodiment of this invention was described, each above-mentioned embodiment was shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
例えば上述の人物移動ベクトル検出部110(顔検出部111、属性判定部112、人物検出部113、人物位置算出部114、移動ベクトル検出部115、人物位置記憶部116)の機能が、ロボット装置1から抜き出されて、外部装置(サーバ装置)に搭載される形態であってもよい。この場合、取得部117は、ロボット装置1の周囲に存在する(カメラの検出範囲に存在する)人物の移動ベクトルを、外部装置から取得する。要するに、本発明の情報処理装置は、複数の対象物の各々の移動ベクトルを取得する取得部117と、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する第1検出部121と、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する第2検出部122と、第1群または第2群の何れかを選択する選択部123と、選択部123により第1群が選択された場合は、第1サービスを行うことを決定し、選択部123により第2群が選択された場合は、第2サービスを行うことを決定する第1決定部140と、を備える形態であればよい。また、本発明のサービス提供装置は、上述の情報処理装置の構成に加えて、第1決定部140による決定に応じた出力を行う出力部150をさらに備える形態であればよい。
For example, the functions of the above-described person movement vector detection unit 110 (the face detection unit 111, the attribute determination unit 112, the person detection unit 113, the person position calculation unit 114, the movement
また、例えば上述の情報処理装置100が有する機能が、情報処理装置と、1以上のサーバ装置とに分散される形態であってもよい。つまり、上述の情報処理装置100は、情報処理装置と、1以上のサーバ装置とが互いに通信する情報処理システムの形態に置き換えることもできる。例えば上述の顔検出部111、属性判定部112、人物検出部113、人物位置算出部114、移動ベクトル検出部115、人物位置記憶部116、取得部117、第1検出部121、第2検出部122、選択部123、第2決定部132、声かけ内容記憶部133、群追従部134、モータ制御部135、第1決定部140、用途別アプリケーション記憶部141、アプリケーション実行部142の各々の機能が、情報処理装置と、1以上のサーバ装置とに分散されて搭載されてもよい。要するに、本発明は、情報処理装置と、1以上のサーバ装置とを備える情報処理システムであって、複数の対象物の各々の移動ベクトルを取得する取得部117と、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する第1検出部121と、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する第2検出部122と、第1群または第2群の何れかを選択する選択部123と、選択部123により第1群が選択された場合は、第1サービスを行うことを決定し、選択部123により第2群が選択された場合は、第2サービスを行うことを決定する第1決定部140と、を備える形態であればよい。
Further, for example, the function of the
また、例えば上述の情報処理装置100が有する各機能が、1以上のサーバ装置に分散して搭載され、当該1以上のサーバ装置と、上述のロボット装置1の構成のうち、情報処理装置100を除いた要素から構成される装置(出力装置)とが相互に通信する形態であってもよい。つまり、上述のロボット装置1は、1以上のサーバ装置と、出力装置とを備えたサービス提供システムの形態に置き換えることもできる。要するに、本発明は、1以上のサーバ装置と、出力装置とを備えるサービス提供システムであって、1以上のサーバ装置は、複数の対象物の各々の移動ベクトルを取得する取得部117と、大きさが閾値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する第1検出部121と、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する第2検出部122と、第1群または第2群の何れかを選択する選択部123と、選択部123により第1群が選択された場合は、第1サービスを行うことを決定し、選択部123により第2群が選択された場合は、第2サービスを行うことを決定する第1決定部140と、を備え、出力装置は、第1決定部140による決定に応じた出力を行う出力部150を少なくとも備える形態であればよい。
Further, for example, each function of the above-described
なお、上述のCPU181が実行するプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上述のCPU181が実行するプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上述のCPU181が実行するプログラムを、ROM等の不揮発性記録媒体に予め組み込んで提供するようにしてもよい。 Note that the program executed by the CPU 181 may be provided by storing it on a computer connected to a network such as the Internet and downloading it via the network. The program executed by the CPU 181 may be provided or distributed via a network such as the Internet. The program executed by the CPU 181 may be provided by being incorporated in advance in a nonvolatile recording medium such as a ROM.
1 ロボット装置
10 頭部
20 右腕部
30 左腕部
40 胴体部
50 右脚部
60 左脚部
100 情報処理装置
101 第1カメラ
102 第2カメラ
110 人物移動ベクトル検出部
111 顔検出部
112 属性判定部
113 人物検出部
114 人物位置算出部
115 移動ベクトル検出部
116 人物位置記憶部
117 取得部
120 群検出/選択部
121 第1検出部
122 第2検出部
123 選択部
130 初期動作制御部
132 第2決定部
133 声かけ内容記憶部
134 群追従部
135 モータ制御部
140 第1決定部
141 用途別アプリケーション記憶部
142 アプリケーション実行部
150 出力部
161 スピーカ
162 マイク
170 駆動部
171T モータ
172P モータ
177W モータ
181 CPU
182 メモリ
183 HDD
184 外部I/O
185 通信部
200 店舗端末
DESCRIPTION OF
182 Memory 183 HDD
184 External I / O
185
実施形態の情報処理装置は、取得部と第1検出部と第2検出部と選択部と第1決定部とを備える。取得部は、複数の対象物の各々の移動ベクトルを取得する。第1検出部は、対象物の移動ベクトルと、当該対象物のパーソナルスペースによって規定される範囲内に存在する他の対象物の移動ベクトルとの類似度に基づいて、類似度が基準値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出部は、サービス提供装置から所定範囲内に存在し、かつ、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する。選択部は、第1群または第2群の何れかを選択する。第1決定部は、選択部により第1群が選択された場合は、対話式の情報を提供する第1サービスを行うことを決定し、選択部により第2群が選択された場合は、非対話式の情報を提供する第2サービスを行うことを決定する。 The information processing apparatus according to the embodiment includes an acquisition unit, a first detection unit, a second detection unit, a selection unit, and a first determination unit. The acquisition unit acquires each movement vector of the plurality of objects. Based on the similarity between the movement vector of the object and the movement vector of another object existing within the range defined by the personal space of the object , the first detection unit has a similarity that is greater than or equal to a reference value . A first group indicating a set of movement vectors similar to each other is detected. The second detection unit detects a second group that represents a set of movement vectors that exist within a predetermined range from the service providing apparatus and that have a size less than a threshold value. The selection unit selects either the first group or the second group. The first determination unit, if the first group is selected by the selection unit, decides to perform the first service that provides information interactively when the second group is selected by the selection unit, the non Decide to perform a second service that provides interactive information .
実施形態の情報処理システムは、サービス提供装置の動作を制御する情報処理装置、および、1以上のサーバ装置を備える情報処理システムであって、取得部と第1検出部と第2検出部と選択部と第1決定部とを備える。取得部は、複数の対象物の各々の移動ベクトルを取得する。第1検出部は、対象物の移動ベクトルと、当該対象物のパーソナルスペースによって規定される範囲内に存在する他の対象物の移動ベクトルとの類似度に基づいて、類似度が基準値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出部は、サービス提供装置から所定範囲内に存在し、かつ、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する。選択部は、第1群または第2群の何れかを選択する。第1決定部は、選択部により第1群が選択された場合は、対話式の情報を提供する第1サービスを行うことを決定し、選択部により第2群が選択された場合は、非対話式の情報を提供する第2サービスを行うことを決定する。 An information processing system according to an embodiment is an information processing apparatus that controls an operation of a service providing device , and one or more server devices , and an acquisition unit, a first detection unit, and a second detection unit are selected. And a first determination unit. The acquisition unit acquires each movement vector of the plurality of objects. Based on the similarity between the movement vector of the object and the movement vector of another object existing within the range defined by the personal space of the object , the first detection unit has a similarity that is greater than or equal to a reference value . A first group indicating a set of movement vectors similar to each other is detected. The second detection unit detects a second group that represents a set of movement vectors that exist within a predetermined range from the service providing apparatus and that have a size less than a threshold value. The selection unit selects either the first group or the second group. The first determination unit, if the first group is selected by the selection unit, decides to perform the first service that provides information interactively when the second group is selected by the selection unit, the non Decide to perform a second service that provides interactive information .
実施形態のサービス提供システムは、1以上のサーバ装置と、出力装置とを備えるサービス提供システムであって、1以上のサーバ装置は、取得部と第1検出部と第2検出部と選択部と決定部とを備える。取得部は、複数の対象物の各々の移動ベクトルを取得する。第1検出部は、対象物の移動ベクトルと、当該対象物のパーソナルスペースによって規定される範囲内に存在する他の対象物の移動ベクトルとの類似度に基づいて、類似度が基準値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出部は、出力装置から所定範囲内に存在し、かつ、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する。選択部は、第1群または第2群の何れかを選択する。決定部は、選択部により第1群が選択された場合は、対話式の情報を提供する第1サービスを行うことを決定し、選択部により第2群が選択された場合は、非対話式の情報を提供する第2サービスを行うことを決定する。一方、出力装置は、決定部による決定に応じた出力を行う出力部を少なくとも備える。 The service providing system according to the embodiment is a service providing system including one or more server devices and an output device, and the one or more server devices include an acquisition unit, a first detection unit, a second detection unit, and a selection unit. A determination unit. The acquisition unit acquires each movement vector of the plurality of objects. Based on the similarity between the movement vector of the object and the movement vector of another object existing within the range defined by the personal space of the object, the first detection unit has a similarity that is greater than or equal to a reference value. A first group indicating a set of movement vectors similar to each other is detected. The second detection unit detects a second group that represents a set of movement vectors that exist within a predetermined range from the output device and that have a magnitude less than a threshold value. The selection unit selects either the first group or the second group. The determining unit determines to perform the first service that provides interactive information when the first group is selected by the selecting unit, and is non-interactive when the second group is selected by the selecting unit. The second service providing the information is determined to be performed. On the other hand, the output device includes at least an output unit that performs output according to the determination by the determination unit.
実施形態の情報処理方法は、取得ステップと第1検出ステップと第2検出ステップと選択ステップと第1決定ステップとを含む。取得ステップは、複数の対象物の各々の移動ベクトルを取得する。第1検出ステップは、対象物の移動ベクトルと、当該対象物のパーソナルスペースによって規定される範囲内に存在する他の対象物の移動ベクトルとの類似度に基づいて、類似度が基準値以上であって、かつ、互いに類似する移動ベクトルの集合を示す第1群を検出する。第2検出ステップは、サービス提供装置から所定範囲内に存在し、かつ、大きさが閾値未満である移動ベクトルの集合を示す第2群を検出する。選択ステップは、第1群または第2群の何れかを選択する。第1決定ステップは、第1群が選択された場合は、対話式の情報を提供する第1サービスを行うことを決定し、第2群が選択された場合は、非対話式の情報を提供する第2サービスを行うことを決定する。 The information processing method of the embodiment includes an acquisition step, a first detection step, a second detection step, a selection step, and a first determination step. In the acquisition step, each movement vector of the plurality of objects is acquired. In the first detection step , based on the similarity between the movement vector of the object and the movement vector of another object existing within the range defined by the personal space of the object, the similarity is equal to or greater than a reference value . A first group indicating a set of movement vectors similar to each other is detected. The second detection step detects a second group indicating a set of movement vectors that are within a predetermined range from the service providing apparatus and that have a magnitude less than a threshold value. The selection step selects either the first group or the second group. The first determining step determines to perform a first service that provides interactive information when the first group is selected, and provides non-interactive information when the second group is selected. It determines the execution of the second service.
Claims (15)
大きさが閾値以上であって、かつ、互いに類似する前記移動ベクトルの集合を示す第1群を検出する第1検出部と、
前記閾値未満である前記移動ベクトルの集合を示す第2群を検出する第2検出部と、
前記第1群または前記第2群の何れかを選択する選択部と、
前記選択部により前記第1群が選択された場合は、第1サービスを行うことを決定し、前記選択部により前記第2群が選択された場合は、前記第1サービスとは異なる第2サービスを行うことを決定する第1決定部と、を備える、
情報処理装置。 An acquisition unit for acquiring a movement vector of each of a plurality of objects;
A first detection unit for detecting a first group having a set of movement vectors similar in size to each other, the magnitude of which is equal to or greater than a threshold;
A second detector for detecting a second group indicating the set of movement vectors that is less than the threshold;
A selection unit for selecting either the first group or the second group;
When the first group is selected by the selection unit, the first service is determined to be performed, and when the second group is selected by the selection unit, a second service different from the first service is determined. A first determination unit that determines to perform
Information processing device.
請求項1の情報処理装置。 The first service is to provide interactive information;
The information processing apparatus according to claim 1.
請求項1の情報処理装置。 The second service is to provide non-interactive information;
The information processing apparatus according to claim 1.
撮像装置により撮像された画像から、前記対象物の顔を検出する顔検出部をさらに備え、
前記第2検出部は、大きさが前記閾値未満である複数の前記移動ベクトルと1対1に対応する複数の前記対象物のうち、前記顔検出部により顔が検出された前記対象物の数が第2閾値以上の場合は、前記大きさが前記閾値未満である複数の前記移動ベクトルを、前記第2群として検出する、
請求項1の情報処理装置。 The object is a person;
A face detection unit for detecting a face of the object from an image captured by the imaging device;
The second detection unit has a number of objects whose faces are detected by the face detection unit among a plurality of the objects corresponding one-to-one with the plurality of movement vectors having a size less than the threshold. A plurality of movement vectors whose magnitude is less than the threshold value are detected as the second group in the case of two or more threshold values;
The information processing apparatus according to claim 1.
請求項1の情報処理装置。 When the number of the movement vectors belonging to the set of movement vectors similar to each other is equal to or larger than a third threshold, the first detection unit determines the set as the first group. Not detect as,
The information processing apparatus according to claim 1.
請求項1の情報処理装置。 When the second detection unit detects the second group, the selection unit selects the second group regardless of whether or not the first detection unit detects the first group. ,
The information processing apparatus according to claim 1.
請求項1の情報処理装置。 If the second detection unit detects a plurality of the first groups without the second detection unit being detected by the second detection unit, the selection unit selects each of the first groups to be selected. , Based on the movement vector, to calculate an evaluation value indicating eligibility as a target to be serviced, and select the first group having the highest evaluation value,
The information processing apparatus according to claim 1.
請求項7の情報処理装置。 The evaluation value indicates a higher value as the direction of the movement vector is closer to the first direction toward the output unit that performs output according to the determination by the first determination unit.
The information processing apparatus according to claim 7.
撮像装置により撮像された画像から、前記対象物の顔を検出する顔検出部をさらに備え、
前記評価値は、前記顔検出部により検出された顔の数が多いほど高い値を示す、
請求項7の情報処理装置。 The object is a person;
A face detection unit for detecting a face of the object from an image captured by the imaging device;
The evaluation value indicates a higher value as the number of faces detected by the face detection unit is larger.
The information processing apparatus according to claim 7.
請求項1の情報処理装置。 When the first group is selected by the selection unit, the direction toward the movement vector included in the selected first group and the output unit that performs output according to the determination by the first determination unit A second determination unit configured to determine the content of an initial operation performed before performing the first service according to the degree of coincidence with one direction;
The information processing apparatus according to claim 1.
撮像装置により撮像された画像から、前記対象物の顔を検出する顔検出部と、
前記顔検出部により顔が検出された前記対象物の属性を判定する属性判定部と、を備え、
前記選択部により前記第1群が選択された場合は、前記属性判定部により判定された属性に応じて、前記第1サービスを行う前に行う初期動作の内容を決定する第2決定部をさらに備える、
請求項1の情報処理装置。 The object is a person;
A face detection unit that detects a face of the object from an image captured by an imaging device;
An attribute determination unit that determines an attribute of the object whose face is detected by the face detection unit,
When the first group is selected by the selection unit, a second determination unit that determines the content of the initial operation performed before performing the first service according to the attribute determined by the attribute determination unit Prepare
The information processing apparatus according to claim 1.
請求項1の情報処理装置。 An output unit that performs output according to the determination by the first determination unit;
The information processing apparatus according to claim 1.
複数の対象物の各々の移動ベクトルを取得する取得部と、
大きさが閾値以上であって、かつ、互いに類似する前記移動ベクトルの集合を示す第1群を検出する第1検出部と、
前記閾値未満である前記移動ベクトルの集合を示す第2群を検出する第2検出部と、
前記第1群または前記第2群の何れかを選択する選択部と、
前記選択部により前記第1群が選択された場合は、第1サービスを行うことを決定し、前記選択部により前記第2群が選択された場合は、前記第1サービスとは異なる第2サービスを行うことを決定する決定部と、を備える、
情報処理システム。 An information processing system comprising an information processing device and one or more server devices,
An acquisition unit for acquiring a movement vector of each of a plurality of objects;
A first detection unit for detecting a first group having a set of movement vectors similar in size to each other, the magnitude of which is equal to or greater than a threshold;
A second detector for detecting a second group indicating the set of movement vectors that is less than the threshold;
A selection unit for selecting either the first group or the second group;
When the first group is selected by the selection unit, the first service is determined to be performed, and when the second group is selected by the selection unit, a second service different from the first service is determined. A determination unit that determines to perform
Information processing system.
前記1以上のサーバ装置は、
複数の対象物の各々の移動ベクトルを取得する取得部と、
大きさが閾値以上であって、かつ、互いに類似する前記移動ベクトルの集合を示す第1群を検出する第1検出部と、
閾値未満である前記移動ベクトルの集合を示す第2群を検出する第2検出部と、
前記第1群または前記第2群の何れかを選択する選択部と、
前記選択部により前記第1群が選択された場合は、第1サービスを行うことを決定し、前記選択部により前記第2群が選択された場合は、前記第1サービスとは異なる第2サービスを行うことを決定する決定部と、を備え、
前記出力装置は、
前記決定部による決定に応じた出力を行う出力部を少なくとも備える、
サービス提供システム。 A service providing system comprising one or more server devices and an output device,
The one or more server devices are:
An acquisition unit for acquiring a movement vector of each of a plurality of objects;
A first detection unit for detecting a first group having a set of movement vectors similar in size to each other, the magnitude of which is equal to or greater than a threshold;
A second detection unit for detecting a second group indicating the set of movement vectors that is less than a threshold;
A selection unit for selecting either the first group or the second group;
When the first group is selected by the selection unit, the first service is determined to be performed, and when the second group is selected by the selection unit, a second service different from the first service is determined. A decision unit that decides to perform
The output device is
At least an output unit that performs output according to the determination by the determination unit;
Service provision system.
大きさが閾値以上であって、かつ、互いに類似する前記移動ベクトルの集合を示す第1群を検出する第1検出ステップと、
前記閾値未満である前記移動ベクトルの集合を示す第2群を検出する第2検出ステップと、
前記第1群または前記第2群の何れかを選択する選択ステップと、
前記第1群が選択された場合は、第1サービスを行うことを決定し、前記第2群が選択された場合は、前記第1サービスとは異なる第2サービスを行うことを決定する第1決定ステップと、を含む、
情報処理方法。 An obtaining step for obtaining a movement vector of each of the plurality of objects;
A first detection step of detecting a first group having a set of movement vectors similar in size to each other, the magnitude of which is equal to or greater than a threshold;
A second detection step of detecting a second group indicating the set of movement vectors that is less than the threshold;
A selection step of selecting either the first group or the second group;
When the first group is selected, it is determined to perform the first service, and when the second group is selected, the first service is determined to perform the second service different from the first service. A determination step,
Information processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012153647A JP5439549B2 (en) | 2012-07-09 | 2012-07-09 | Information processing apparatus, information processing system, service providing system, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012153647A JP5439549B2 (en) | 2012-07-09 | 2012-07-09 | Information processing apparatus, information processing system, service providing system, and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014014899A true JP2014014899A (en) | 2014-01-30 |
JP5439549B2 JP5439549B2 (en) | 2014-03-12 |
Family
ID=50110057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012153647A Active JP5439549B2 (en) | 2012-07-09 | 2012-07-09 | Information processing apparatus, information processing system, service providing system, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5439549B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018171696A (en) * | 2017-03-31 | 2018-11-08 | 大日本印刷株式会社 | Guiding device, guiding method, guiding system and program |
CN109129460A (en) * | 2017-06-16 | 2019-01-04 | 株式会社日立大厦系统 | robot management system |
WO2019039507A1 (en) * | 2017-08-22 | 2019-02-28 | 株式会社 東芝 | Smart camera, image processing device, and data communication method |
JP2019047214A (en) * | 2017-08-30 | 2019-03-22 | 株式会社東芝 | Smart camera, image processing device, smart camera system, data transmission method and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007118129A (en) * | 2005-10-27 | 2007-05-17 | Advanced Telecommunication Research Institute International | Communication robot and caution control system using the same |
JP2009116510A (en) * | 2007-11-05 | 2009-05-28 | Fujitsu Ltd | Attention degree calculation device, attention degree calculation method, attention degree calculation program, information providing system and information providing device |
JP2011158534A (en) * | 2010-01-29 | 2011-08-18 | Toppan Printing Co Ltd | Moving body link type advertisement display method |
JP2011248548A (en) * | 2010-05-25 | 2011-12-08 | Fujitsu Ltd | Content determination program and content determination device |
JP2012058476A (en) * | 2010-09-08 | 2012-03-22 | Sharp Corp | Content output system, output control device, output control method, and computer program |
-
2012
- 2012-07-09 JP JP2012153647A patent/JP5439549B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007118129A (en) * | 2005-10-27 | 2007-05-17 | Advanced Telecommunication Research Institute International | Communication robot and caution control system using the same |
JP2009116510A (en) * | 2007-11-05 | 2009-05-28 | Fujitsu Ltd | Attention degree calculation device, attention degree calculation method, attention degree calculation program, information providing system and information providing device |
JP2011158534A (en) * | 2010-01-29 | 2011-08-18 | Toppan Printing Co Ltd | Moving body link type advertisement display method |
JP2011248548A (en) * | 2010-05-25 | 2011-12-08 | Fujitsu Ltd | Content determination program and content determination device |
JP2012058476A (en) * | 2010-09-08 | 2012-03-22 | Sharp Corp | Content output system, output control device, output control method, and computer program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018171696A (en) * | 2017-03-31 | 2018-11-08 | 大日本印刷株式会社 | Guiding device, guiding method, guiding system and program |
JP7013667B2 (en) | 2017-03-31 | 2022-02-01 | 大日本印刷株式会社 | Guidance device and guidance system |
CN109129460A (en) * | 2017-06-16 | 2019-01-04 | 株式会社日立大厦系统 | robot management system |
WO2019039507A1 (en) * | 2017-08-22 | 2019-02-28 | 株式会社 東芝 | Smart camera, image processing device, and data communication method |
JP2019047214A (en) * | 2017-08-30 | 2019-03-22 | 株式会社東芝 | Smart camera, image processing device, smart camera system, data transmission method and program |
Also Published As
Publication number | Publication date |
---|---|
JP5439549B2 (en) | 2014-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11750767B2 (en) | Selective identification and order of image modifiers | |
US10748390B2 (en) | Dynamic haptic generation based on detected video events | |
US8022948B2 (en) | Image capture and buffering in a virtual world using situational measurement averages | |
US8810513B2 (en) | Method for controlling interactive display system | |
US8723796B2 (en) | Multi-user interactive display system | |
US9349131B2 (en) | Interactive digital advertising system | |
EP3079042B1 (en) | Device and method for displaying screen based on event | |
WO2019216419A1 (en) | Program, recording medium, augmented reality presentation device, and augmented reality presentation method | |
JP7224488B2 (en) | Interactive method, apparatus, device and storage medium | |
JP5605725B2 (en) | Information notification system, information notification method, information processing apparatus, control method thereof, and control program | |
JP5439549B2 (en) | Information processing apparatus, information processing system, service providing system, and information processing method | |
CN104508597A (en) | Method and apparatus for controlling augmented reality | |
CN112148188A (en) | Interaction method and device in augmented reality scene, electronic equipment and storage medium | |
US10008041B2 (en) | Image generating device, image generating method, and image generating program | |
CN112632349B (en) | Exhibition area indication method and device, electronic equipment and storage medium | |
CN110253595A (en) | A kind of smart machine control method and device | |
CN112261420B (en) | Live video processing method and related device | |
WO2019155735A1 (en) | Information processing device, information processing method, and program | |
CN110716641B (en) | Interaction method, device, equipment and storage medium | |
JP2019051568A (en) | Guide apparatus, guide system, guidance method and program | |
JP2020155944A (en) | Speaker detection system, speaker detection method, and program | |
JP2018205534A (en) | Display control device, display control method and program | |
JP2021196741A (en) | Image processing device, image processing method and program | |
JP6287527B2 (en) | Information processing apparatus, method, and program | |
US20180292980A1 (en) | System, information processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131216 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5439549 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |