JP2008225852A - Population state estimation system, population caution control system, and active sensing system - Google Patents

Population state estimation system, population caution control system, and active sensing system Download PDF

Info

Publication number
JP2008225852A
JP2008225852A JP2007063356A JP2007063356A JP2008225852A JP 2008225852 A JP2008225852 A JP 2008225852A JP 2007063356 A JP2007063356 A JP 2007063356A JP 2007063356 A JP2007063356 A JP 2007063356A JP 2008225852 A JP2008225852 A JP 2008225852A
Authority
JP
Japan
Prior art keywords
cluster
state
collective
robot
collective state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007063356A
Other languages
Japanese (ja)
Other versions
JP5076081B2 (en
Inventor
Kenta Nohara
健太 野原
Masahiro Shiomi
昌裕 塩見
Tomohito Koizumi
智史 小泉
Takayuki Kanda
崇行 神田
Hiroshi Ishiguro
浩 石黒
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007063356A priority Critical patent/JP5076081B2/en
Publication of JP2008225852A publication Critical patent/JP2008225852A/en
Application granted granted Critical
Publication of JP5076081B2 publication Critical patent/JP5076081B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new population state estimation system which can precisely estimate human being's population state with respect to an object. <P>SOLUTION: In a population state estimation system (100), a computer (14) uses an output (reaction spot data) from a floor sensor (18) and estimates a population state of human being near the object like a communication robot (10). The reaction spot is clustered and a population is divided into a plurality of clusters. Each cluster is classified into a "lump cluster" or a "stray cluster". According to a positional relation to the objects of the "lump cluster" or the "stray cluster", it is estimated whether the population state at that time corresponds to a population state 1 or a population state 12. Since the population state around the object can be estimated with sufficient accuracy, the population caution control and active sensing can be performed exactly and efficiently. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は集団状態推定システムおよび集団注意制御システムならびにアクティブセンシングシステムに関し、特にたとえば、コミュニケーションロボットや展示物などの対象物(オブジェクト)と同一閉空間に存在する人間の集団状態を推定して集団注意制御やアクティブセンシングなどに応用する、集団状態推定システムおよびそれを利用した集団注意制御システムならびにアクティブセンシングシステムに関する。   The present invention relates to a collective state estimation system, a collective attention control system, and an active sensing system, and more particularly to collective attention by estimating a collective state of a human that exists in the same closed space as an object (object) such as a communication robot or an exhibit. The present invention relates to a collective state estimation system, a collective attention control system using the same, and an active sensing system, which are applied to control and active sensing.

たとえば、非特許文献1には、ロボットと人間との間の距離に応じて適切なモデルを構築し、同時に複数の人間と相互作用を行うロボットが開示されている。ただし、非特許文献1のシステムは、多数の人間が存在する集団とロボットとの対話に対応したものではなかった。   For example, Non-Patent Document 1 discloses a robot that constructs an appropriate model according to the distance between a robot and a human and simultaneously interacts with a plurality of humans. However, the system of Non-Patent Document 1 is not compatible with a dialogue between a group of many humans and a robot.

一方、非特許文献2には、本件発明者等によって、人間の集団とロボットとの相互作用を円滑に行える手法を開示している。
Tasaki, T., Matsumoto S., Yamamoto S., Toda M., Komatani, K., Ogata T., and Okuno, H.G. “Dynamic Communication of Humanoido Robot with Multiple Peaple Based on Interaction Distance,” 人工知能学会論文誌、Vol. 20, No.3, pp.209-219, 2005 塩見昌裕、小泉智史、神田宗行、石黒浩、萩田紀博「コミュニケーションロボットによる集団注意制御」ヒューマンインターフェースシンポジウム2006, CD‐ROM 2006
On the other hand, Non-Patent Document 2 discloses a technique by which the inventors can smoothly interact with a human group and a robot.
Tasaki, T., Matsumoto S., Yamamoto S., Toda M., Komatani, K., Ogata T., and Okuno, HG “Dynamic Communication of Humanoido Robot with Multiple Peaple Based on Interaction Distance,” Journal of the Japanese Society for Artificial Intelligence , Vol. 20, No.3, pp.209-219, 2005 Masahiro Shiomi, Satoshi Koizumi, Muneyuki Kanda, Hiroshi Ishiguro, Norihiro Hirota “Communication Robotic Control of Communication” Human Interface Symposium 2006, CD-ROM 2006

非特許文献2に開示した手法がロボットと人々との相互作用をする上では有効であることが検証されたが、自律したシステムではなかった。   Although it was verified that the technique disclosed in Non-Patent Document 2 is effective in the interaction between the robot and people, it was not an autonomous system.

それゆえに、この発明の主たる目的は、新規な、集団状態推定システムを提供することである。   Therefore, the main object of the present invention is to provide a novel collective state estimation system.

この発明の他の目的は、オブジェクトに対する人間の集団状態を細かく推定できる、集団状態推定システムを提供することである。   Another object of the present invention is to provide a collective state estimation system capable of finely estimating a human collective state for an object.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、オブジェクトと同一閉空間に存在する複数の人間の集団状態を認識する集団状態推定システムであって、複数の人間のそれぞれの位置を検出して位置データを獲得する位置検出手段、位置データに従ってクラスタリングして複数のクラスタに区画するクラスタリング手段、複数のクラスタのそれぞれに含まれる人間の数に応じて各クラスタを第1クラスタと第2クラスタとに分類する分類手段、および第1クラスタおよび第2クラスタの存在とオブジェクトとの位置関係とに基づいて集団状態を推定し、集団状態データを出力する集団状態推定手段を備える、集団状態認識システムである。   A first invention is a collective state estimation system for recognizing a collective state of a plurality of humans existing in the same closed space as an object, and detects position of each of the plurality of humans to acquire position data Clustering means for performing clustering according to position data and partitioning into a plurality of clusters, classification means for classifying each cluster into a first cluster and a second cluster according to the number of persons included in each of the plurality of clusters, and a first A collective state recognition system comprising collective state estimation means for estimating collective states based on the presence of clusters and second clusters and the positional relationship between objects and outputting collective state data.

第1の発明では、集団状態推定システム(100)は、人間の位置データを取得するために、たとえば床(圧力)センサ(18)およびコンピュータ(14)を用いる。コンピュータ(14)のようなクラスタリング手段(S7,S35)では、たとえば階層的クラスタリングの手法で、まず全ての反応点(人間の位置)を1つのクラスタに併合した後、反応点の分布状態(たとえば、固体距離または公的距離)に応じて適切なクラスタ数を決定し、1つのクラスタを複数のクラスタに分割(区画)する。同じくコンピュータ(14)で構成できる分類手段(S7,S37,S61‐S83)で、各クラスタを、「かたまりクラスタ」(第1クラスタ)または「はぐれクラスタ」(第2クラスタ)に分類する。そして、コンピュータ(14)であってよい集団状態推定手段(S7,S91-S105)は、「かたまりクラスタ」および「はぐれクラスタ」の存在ならびにそれらとオブジェクト、実施例ではロボット(10)との位置関係(たとえば、近いとか遠いとか、距離が同じか同じでないかなど)に基づいて、集団状態をたとえば12の集団状態、「集団状態1」‐「集団状態12」のいずれであるか推定する。   In the first invention, the collective state estimation system (100) uses, for example, a floor (pressure) sensor (18) and a computer (14) to acquire human position data. In a clustering means (S7, S35) such as a computer (14), all reaction points (human positions) are first merged into one cluster by, for example, a hierarchical clustering technique, and then the reaction point distribution state (for example, The appropriate number of clusters is determined according to the solid distance or the public distance), and one cluster is divided (partitioned) into a plurality of clusters. Similarly, each cluster is classified into a “cluster cluster” (first cluster) or a “staggered cluster” (second cluster) by classification means (S7, S37, S61-S83) that can be configured by the computer (14). The collective state estimation means (S7, S91-S105), which may be a computer (14), is the presence of “cluster clusters” and “stray clusters” and the positional relationship between them and objects, in the embodiment, the robot (10). Based on (for example, near or far, whether the distance is the same or not), it is estimated whether the collective state is, for example, 12 collective states, “collective state 1” − “collective state 12”.

第1の発明によれば、クラスタリングの後、そのクラスタデータに基づいて集団状態を推定するようにしたので、集団状態を的確に推定できる。   According to the first invention, after clustering, the collective state is estimated based on the cluster data, and therefore the collective state can be estimated accurately.

なお、たとえば、第1クラスタおよび第2クラスタは、クラスタを構成する要素の数(人間の数。実施例でいえば、反応点の数。)で区分され得る。   For example, the first cluster and the second cluster can be classified by the number of elements constituting the cluster (the number of people. In the embodiment, the number of reaction points).

第2の発明は、第1の発明に従属し、集団状態推定手段は、第1クラスタおよび第2クラスタの数とそれらとオブジェクトとの間の距離に基づいて集団状態を推定する、集団状態推定システムである。   A second invention is dependent on the first invention, and the collective state estimating means estimates the collective state based on the number of the first clusters and the second clusters and the distance between them and the object. System.

第2の発明では、たとえば、「かたまりクラスタ」が1つかどうか、「はぐれクラスタ」があるかどうか、「はぐれクラスタ」がオブジェクトから遠いか近いかなどに基づいて集団状態を推定する。集団状態を細かく推定できる。   In the second invention, for example, the collective state is estimated based on whether there is one “cluster cluster”, whether there is a “stray cluster”, whether the “stray cluster” is far from or near the object, and the like. The population status can be estimated in detail.

第3の発明は、オブジェクトと同一閉空間に存在する複数の人間の集団状態を認識する集団状態認識システムであって、複数の人間のそれぞれの位置を検出して位置データを獲得する位置検出手段、位置データに従ってクラスタリングして複数のクラスタに区画するクラスタリング手段、および複数のクラスタの特徴量に基づいて、集団状態が整然とした状態であるか雑然とした状態であるかを判別する判別手段を備える、集団状態推定システムである。   A third aspect of the invention is a collective state recognition system for recognizing a collective state of a plurality of humans existing in the same closed space as an object, and detecting position of each of the plurality of humans to acquire position data , Clustering means for clustering according to the position data and partitioning into a plurality of clusters, and determination means for determining whether the collective state is in an orderly state or a cluttered state based on the feature quantities of the plurality of clusters It is a collective state estimation system.

第3の発明では、集団状態推定システム(100)は、人間の位置データを取得するために、たとえば床(圧力)センサ(18)およびコンピュータ(14)を用いる。コンピュータ(14)のようなクラスタリング手段(S7,S35)では、たとえば階層的クラスタリングの手法で、まず全ての反応点(人間の位置)を1つのクラスタに併合した後、反応点の分布状態(たとえば、固体距離または公的距離)に応じて適切なクラスタ数を決定し、1つのクラスタを複数のクラスタに分割(区画)する。同じくコンピュータ(14)で構成できる判別手段(S191‐S193)で、各クラスタの特徴量、たとえば、人間の数、クラスタ数、クラスタを構成する反応点とオブジェクトとの距離平均、それの標準偏差、クラスタの重心とオブジェクト正面との角度に基づいて、そのときの集団状態を「整然とした」状態か「雑然とした」状態か判別する。   In the third invention, the collective state estimation system (100) uses, for example, a floor (pressure) sensor (18) and a computer (14) to acquire human position data. In a clustering means (S7, S35) such as a computer (14), all reaction points (human positions) are first merged into one cluster by, for example, a hierarchical clustering technique, and then the reaction point distribution state (for example, The appropriate number of clusters is determined according to the solid distance or the public distance), and one cluster is divided (partitioned) into a plurality of clusters. In the discrimination means (S191-S193) that can also be configured by the computer (14), the feature amount of each cluster, for example, the number of humans, the number of clusters, the average of the distance between the reaction point and the object constituting the cluster, the standard deviation thereof, Based on the angle between the center of gravity of the cluster and the front of the object, it is determined whether the group state at that time is an “orderly” state or a “cluttered” state.

第3の発明では、クラスタの特徴量を利用することによって、「整然とした」か「雑然とした」かという極めて主観的な評価基準であっても精度よく判別することができる。   In the third invention, by using the feature amount of the cluster, it is possible to accurately discriminate even if it is an extremely subjective evaluation criterion of “orderly” or “cluttered”.

第4の発明は、第1ないし第3のいずれかの発明の集団状態推定システムを用いて集団状態を推定し、その集団状態に応じて集団注意制御を実行する集団注意制御手段を備える、集団注意制御システムである。   A fourth invention is a group comprising group attention control means for estimating a group state using the group state estimation system according to any one of the first to third inventions and executing group attention control according to the group state. Attention control system.

第4の発明では、前提としての集団状態の推定が適正であるので、そのときの集団状態に適合する適正な集団注意制御を行なうことができる。   In the fourth invention, since the presumption of the collective state is appropriate, proper collective attention control suitable for the collective state at that time can be performed.

第5の発明は、第4の発明に従属し、集団注意制御手段はコミュニケーションロボットを含み、コミュニケーションロボットは、集団状態の推定結果を受け取り、その集団状態に適合した集団注意制御を実行する、集団注意制御システムである。   A fifth invention is according to the fourth invention, wherein the group attention control means includes a communication robot, and the communication robot receives the estimation result of the group state and executes group attention control adapted to the group state. Attention control system.

第5の発明では、集団注意制御手段としてコミュニケーションロボットを用いたので、コミュニケーションロボットがそれ自身が出力する音声やジェスチャで集団注意制御を行なう。   In the fifth invention, since the communication robot is used as the group attention control means, the communication robot performs the group attention control by voice and gesture output by itself.

第6の発明は、第1ないし第3のいずれかの発明の集団状態推定システムを用いて集団状態を推定し、その集団状態に応じてアクティブセンシングを実行するアクティブセンシング手段を備える、アクティブセンシングシステムである。   A sixth aspect of the present invention is an active sensing system comprising active sensing means for estimating a collective state using the collective state estimation system according to any one of the first to third aspects and executing active sensing according to the collective state. It is.

第6の発明では、前提としての集団状態の推定が適正であるので、そのときの集団状態に適合する適正なアクティブセンシングを行なうことができる。   In the sixth invention, since the presumption of the collective state is appropriate, appropriate active sensing suitable for the collective state at that time can be performed.

第7の発明は、第6の発明に従属し、アクティブセンシング手段はコミュニケーションロボットを含み、コミュニケーションロボットは、集団状態の推定結果を受け取り、その集団状態に適合したアクティブセンシングを実行する、アクティブセンシングシステムである。   An seventh aspect of the present invention is an active sensing system according to the sixth aspect of the present invention, wherein the active sensing means includes a communication robot, and the communication robot receives the estimation result of the collective state and executes active sensing adapted to the collective state. It is.

第7の発明では、アクティブセンシング手段としてコミュニケーションロボットを用いたので、コミュニケーションロボットがそれ自身のカメラなどを用いて効率的にアクティブセンシングすることができる。   In the seventh invention, since the communication robot is used as the active sensing means, the communication robot can efficiently perform active sensing using its own camera or the like.

この発明によれば、たとえばロボットのようなオブジェクトの周囲の集団状態を精度よく推定できるので、集団注意制御に応用すれば、集団注意制御をより的確に行うことができる。また、アクティブセンシングに適用すれば、集団状態に応じて効率的にセンシングを行うことができる。   According to the present invention, the collective state around an object such as a robot can be estimated with high accuracy. Therefore, when applied to collective attention control, collective attention control can be performed more accurately. Moreover, if applied to active sensing, sensing can be performed efficiently according to the collective state.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例の集団状態推定システム(以下、単に「システム」という。)100は、コミュニケーションロボット(以下、単に「ロボット」という。)10、表示装置12、コンピュータ14、データベース16および床圧力センサ(床センサ)18を含む。このシステム100は、たとえばコンピュータ14から転送される人間の集団状態に応じてロボット10が集団注意制御行動を行うシステムである。   Referring to FIG. 1, a collective state estimation system (hereinafter simply referred to as “system”) 100 of this embodiment includes a communication robot (hereinafter simply referred to as “robot”) 10, a display device 12, a computer 14, and a database. 16 and a floor pressure sensor (floor sensor) 18. The system 100 is a system in which the robot 10 performs a group attention control action in accordance with a human group state transferred from the computer 14, for example.

ただし、コンピュータ14が集団状態を推定した後には、上述のような集団注意制御を行う他、集団の状態に応じてセンシングを行う領域を変更して効率的にセンシングを行うアクティブセンシングなどにも有効に適用され得る。つまり、コンピュータ14が集団状態推定を実行して得た集団状態データには様々な応用例があるということに予め留意され
たい。
However, after the computer 14 estimates the collective state, in addition to performing the collective attention control as described above, it is also effective for active sensing that efficiently performs sensing by changing the sensing area according to the collective state. Can be applied to. That is, it should be noted in advance that the collective state data obtained by the computer 14 executing the collective state estimation has various application examples.

たとえば、ロボット10は、たとえば、無線LANやBluetooth(商品名)に代表される近距離無線などによって通信可能に、コンピュータ14に接続され、このコンピュータ14には、表示装置12、データベース16および床センサ18が有線によって接続される。しかしながら、ロボット10とコンピュータ14とは、有線で接続されるようにしてもよい。   For example, the robot 10 is connected to a computer 14 so as to be communicable by, for example, short-range radio represented by a wireless LAN or Bluetooth (trade name). The computer 14 includes a display device 12, a database 16, and a floor sensor. 18 are connected by wire. However, the robot 10 and the computer 14 may be connected by wire.

ロボット10は、主として人間のようなコミュニケーションの対象とコミュニケーションを実行することを目的とした相互作用指向のもので、後に図3および図4を参照して詳細に説明するが、音声および身振り手振りなどの身体動作を用いてコミュニケーション(集団注意制御など)を実行する機能を備えている。   The robot 10 is interaction-oriented mainly for the purpose of performing communication with a communication target such as a human, and will be described in detail later with reference to FIGS. 3 and 4. It has a function to execute communication (group attention control, etc.) using the body movements.

表示装置12は、たとえばCRTディスプレイや液晶ディスプレイであり、上述したように、コンピュータ14が接続され、このコンピュータ14によって表示制御される。しかしながら、ロボット10の指示によって表示装置12に集団注意制御の際に必要な情報を可視的に表示することもできる。   The display device 12 is, for example, a CRT display or a liquid crystal display. As described above, the computer 14 is connected and display control is performed by the computer 14. However, information necessary for group attention control can be visually displayed on the display device 12 according to an instruction from the robot 10.

コンピュータ14は、汎用のパーソナルコンピュータ(PC)やワークステーションのようなコンピュータであり、基本的には、床センサ18からのセンサ値(「1」または「0」)に応じて集団状態を推定して状態データをロボット10などに提供する。コンピュータ14は、その他、上述したように表示装置12の表示を制御したり、ロボット10のコミュニケーション行動を制御したりすることもある。   The computer 14 is a computer such as a general-purpose personal computer (PC) or a workstation, and basically estimates a collective state according to a sensor value (“1” or “0”) from the floor sensor 18. Status data is provided to the robot 10 or the like. In addition, the computer 14 may control the display of the display device 12 or the communication behavior of the robot 10 as described above.

コンピュータ14はよく知られているように、たとえばROMやハードディスクなどからなり、後述のフローチャートを参照して説明するような集団状態推定のためのプログラムや、制御データ、画像データなどを予め設定しているプログラムメモリ15aを含む。コンピュータ14は、さらに、たとえばRAMやフラッシュメモリなどからなり、ワーキングメモリやバッファメモリとして利用されるデータメモリ15bを含む。データメモリ15bは、後述の床センサ18からのセンサ値やセンサが反応している点(位置)の座標データを一時的に記憶するための一時記憶領域や、さらには各種フラグや各種レジスタを設定しておくためのフラグ・レジスタ領域などに割り付けられている。   As is well known, the computer 14 is composed of, for example, a ROM, a hard disk, and the like, and presets a program for group state estimation, control data, image data, and the like as will be described with reference to a flowchart described later. Program memory 15a. The computer 14 further includes, for example, a data memory 15b that includes a RAM, a flash memory, and the like and is used as a working memory or a buffer memory. The data memory 15b sets a temporary storage area for temporarily storing sensor values from a floor sensor 18 (to be described later) and coordinate data of points (positions) at which the sensors are reacting, and various flags and various registers. It is allocated to the flag register area etc.

データベース16は、たとえば、対人サービスとして道案内するときに必要な地図データや、同じく展示説明するときに必要な説明用データなどを記憶しておくとともに、ロボット10の動作を制御するための制御コマンドのコマンド名を記憶している。このコマンド名は、ロボット10の行動モジュールの名称である。コンピュータ14は、ロボット10を制御するときには、ロボット10の制御コマンド(行動モジュール名)をロボット10に送信する。ロボット10は、コンピュータ14からの制御コマンドに従って、コミュニケーション行動(発話、身振りなど)を実行する。また、このデータベース16にはこのシステム100が適用される会場などのマップデータ(2次元データ)が設定される。ただし、このデータベース16を省略し、コンピュータ14および/またはロボット10に上述の地図データ、制御コマンドやマップデータなどを記憶させておくようにしてもよい。   The database 16 stores, for example, map data necessary for route guidance as an interpersonal service, explanation data necessary for explaining the exhibition, and the like, and a control command for controlling the operation of the robot 10. The command name is stored. This command name is the name of the behavior module of the robot 10. When the computer 14 controls the robot 10, the computer 14 transmits a control command (action module name) of the robot 10 to the robot 10. The robot 10 executes a communication action (speech, gesture, etc.) in accordance with a control command from the computer 14. Further, map data (two-dimensional data) such as a venue to which the system 100 is applied is set in the database 16. However, the database 16 may be omitted and the computer 14 and / or the robot 10 may store the above-described map data, control commands, map data, and the like.

床センサ(床圧力センサ)18は多数の検出素子(感圧センサ:たとえば、加重によってオン/オフされるスイッチ)の集合を含み、たとえば、500×500mmの正方形で厚みが15mm程度で、検出解像度は、一例として、100×100mm程度である。床センサ18のインタフェースにはたとえばRS232C(規格名)が用いられており、コンピュータ14は、たとえば200ミリ秒間隔でセンサ出力を取得することができる。実施例では、図2に示すように、システム100が適用される閉空間(部屋)101の床に多数の床センサ18が埋め込まれ(敷き詰められ)、同一閉空間内に存在するロボット10や人間を検知する。実施例では、部屋101の床にn個の床センサ18(S1,S2,…,Sh,Sh+1,…,Si,Si+1,…,Sn‐1,Sn)が設置される。これらの床センサ18(S1,…,Sn)の各々は、重さを感じているときハイレベルまたは「1」のセンサ値を、重さを感じないときローレベルまたは「0」のセンサ値をそれぞれ出力する。   The floor sensor (floor pressure sensor) 18 includes a set of a large number of detection elements (pressure-sensitive sensors: for example, switches that are turned on / off by weighting), for example, a square of 500 × 500 mm, a thickness of about 15 mm, and a detection resolution. Is about 100 × 100 mm as an example. For example, RS232C (standard name) is used for the interface of the floor sensor 18, and the computer 14 can acquire sensor outputs at intervals of 200 milliseconds, for example. In the embodiment, as shown in FIG. 2, a large number of floor sensors 18 are embedded (laid) on the floor of a closed space (room) 101 to which the system 100 is applied, and a robot 10 or a human that exists in the same closed space. Is detected. In the embodiment, n floor sensors 18 (S1, S2,..., Sh, Sh + 1,..., Si, Si + 1,..., Sn-1, Sn) are installed on the floor of the room 101. Each of the floor sensors 18 (S1,..., Sn) has a sensor value of high level or “1” when the weight is felt, and a sensor value of low level or “0” when the weight is not felt. Output each.

図3はロボット10の外観を示す正面図であり、この図3を参照して、ロボット10は台車20を含み、この台車20の下面にはロボット10を自律移動させる2つの車輪22および1つの従輪24が設けられる。2つの車輪22は車輪モータ26(図4参照)によってそれぞれ独立に駆動され、台車20すなわちロボット10を前後左右任意の方向に動かすことができる。また、従輪24は車輪22を補助する補助輪である。したがって、ロボット10は、配置された空間内を自由に移動することができる。   FIG. 3 is a front view showing the appearance of the robot 10. Referring to FIG. 3, the robot 10 includes a carriage 20, and two wheels 22 and one wheel for moving the robot 10 autonomously are provided on the lower surface of the carriage 20. A follower wheel 24 is provided. The two wheels 22 are independently driven by a wheel motor 26 (see FIG. 4), and the carriage 20, that is, the robot 10 can be moved in any direction, front, back, left, and right. The slave wheel 24 is an auxiliary wheel that assists the wheel 22. Therefore, the robot 10 can freely move in the arranged space.

台車20の上には、円柱形のセンサ取付パネル28が設けられ、このセンサ取付パネル28には、赤外線距離センサ30が取り付けられる。この赤外線距離センサ30は、センサ取付パネル28すなわちロボット10の周囲の物体(人間や障害物など)との距離を計測するものである。   A cylindrical sensor mounting panel 28 is provided on the carriage 20, and an infrared distance sensor 30 is mounted on the sensor mounting panel 28. The infrared distance sensor 30 measures the distance from the sensor mounting panel 28, that is, the object (human or obstacle) around the robot 10.

また、センサ取付パネル28の上には、胴体32が直立するように設けられる。胴体32の前方中央上部(胸に相当する位置)には、上述した赤外線距離センサ30とは別の赤外線センサ31がさらに設けられる。これは、ロボット10の前方の主として人間との距離を計測する。また、1つの全方位カメラ34が設けられる。この全方位カメラ34は、たとえば胴体32の背面側上端部のほぼ中央から上方に延びる支柱36上に設けられる。全方位カメラ34は、ロボット10の周囲を撮影するものであり、後述する眼カメラ60とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ30および全方位カメラ34の設置位置は当該部位に限られず適宜変更され得る。   Further, the body 32 is provided on the sensor mounting panel 28 so as to stand upright. An infrared sensor 31 different from the above-described infrared distance sensor 30 is further provided at the front upper center of the body 32 (a position corresponding to the chest). This measures the distance to the human mainly in front of the robot 10. One omnidirectional camera 34 is provided. The omnidirectional camera 34 is provided, for example, on a column 36 that extends upward from substantially the center of the upper end on the back side of the body 32. The omnidirectional camera 34 captures the surroundings of the robot 10 and is distinguished from an eye camera 60 described later. As this omnidirectional camera 34, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. In addition, the installation positions of the infrared distance sensor 30 and the omnidirectional camera 34 are not limited to the portions, and can be changed as appropriate.

胴体32の両側面上端部(肩に相当する位置)には、それぞれ、肩関節38Rおよび38Lによって、上腕40Rおよび40Lが設けられる。図示は省略するが、肩関節38Rおよび38Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節38Rは、直交する3軸のそれぞれの軸廻りにおいて上腕40Rの角度を制御できる。肩関節38Rの或る軸(ヨー軸)は、上腕40Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。同様に、肩関節38Lは、直交する3軸のそれぞれの軸廻りにおいて上腕40Lの角度を制御できる。肩関節38Lのヨー軸は、上腕40Lの長手方向(または軸)に平行な軸であり、他のピッチ軸およびロール軸は、それにそれぞれ異なる方向から直交する軸である。   Upper arms 40R and 40L are provided at upper end portions (positions corresponding to shoulders) on both side surfaces of the body 32 by shoulder joints 38R and 38L, respectively. Although illustration is omitted, the shoulder joints 38R and 38L each have three orthogonal degrees of freedom. That is, the shoulder joint 38R can control the angle of the upper arm 40R around each of the three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 38R is an axis parallel to the longitudinal direction (or axis) of the upper arm 40R, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other from different directions. It is. Similarly, the shoulder joint 38L can control the angle of the upper arm 40L around each of the three orthogonal axes. The yaw axis of the shoulder joint 38L is an axis parallel to the longitudinal direction (or axis) of the upper arm 40L, and the other pitch axis and roll axis are axes orthogonal to each other from different directions.

また、上腕40Rおよび40Lのそれぞれの先端には、肘関節42Rおよび42Lを介して、前腕44Rおよび44Lが設けられる。図示は省略するが、肘関節42Rおよび42Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸廻りにおいて前腕44Rおよび44Lの角度を制御できる。   Further, forearms 44R and 44L are provided at the tips of the upper arms 40R and 40L via elbow joints 42R and 42L, respectively. Although illustration is omitted, each of the elbow joints 42R and 42L has one degree of freedom, and the angle of the forearms 44R and 44L can be controlled around the axis (pitch axis).

前腕44Rおよび44Lのそれぞれの先端には、手に相当する球体46Rおよび46Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。   Spheres 46R and 46L corresponding to hands are fixedly provided at the tips of the forearms 44R and 44L, respectively. However, when a finger or palm function is required, a “hand” in the shape of a human hand can be used.

また、図示は省略するが、台車20の前面、肩関節38R,38Lを含む肩に相当する部位、上腕40R,40L、前腕44R,44Lおよび球体46R,46Lには、それぞれ、接触センサ(図4で包括的に示す。:48)が設けられている。台車20の前面の接触センサ48は、台車20への人間や他の障害物の接触を検知する。したがって、ロボット10の移動中に障害物との接触があると、それを検知し、直ちに車輪22の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ48は、主に、人間がロボット10の当該各部位に触れたかどうかを検知する。なお、接触センサ48の設置位置はこれらに限定されず、適宜な位置(胸、腹、脇、背中、腰、頭など)に設けられてよい。   Although not shown, the front surface of the carriage 20, the parts corresponding to the shoulders including the shoulder joints 38R and 38L, the upper arms 40R and 40L, the forearms 44R and 44L, and the spheres 46R and 46L are each provided with a contact sensor (FIG. 4). 48) is provided. The contact sensor 48 on the front surface of the carriage 20 detects contact of a person or another obstacle with the carriage 20. Therefore, if there is contact with an obstacle while the robot 10 is moving, it can be detected, and the driving of the wheel 22 can be immediately stopped to suddenly stop the movement of the robot 10. The other contact sensors 48 mainly detect whether or not a human has touched each part of the robot 10. The installation position of the contact sensor 48 is not limited to these, and may be provided at an appropriate position (chest, abdomen, side, back, waist, head, etc.).

胴体32の中央上部(首に相当する位置)には首関節50が設けられ、さらにその上には頭部52が設けられる。図示は省略するが、首関節50は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 50 is provided at the upper center of the body 32 (a position corresponding to the neck), and a head 52 is further provided thereon. Although illustration is omitted, the neck joint 50 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 10, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部52には、口に相当する位置に、スピーカ54が設けられる。スピーカ54は、ロボット10が、それの周辺の人間に対して音声ないし音によって、コミュニケーションを取ったり、集団注意制御を行なったりするために用いられる。また、耳に相当する位置には、マイク56Rおよび56Lが設けられる。以下、右耳に相当するマイク56Rと左耳に相当するマイク56Lとをまとめてマイク56ということがある。マイク56は、周囲の音、とりわけコミュニケーションを実行する対象である人間の声を取り込む。さらに、目に相当する位置には、眼球部58Rおよび58Lが設けられる。眼球部58Rおよび58Lは、それぞれ眼カメラ60Rおよび60Lを含む。以下、右の眼球部58Rと左の眼球部58Lとをまとめて眼球部58ということがあり、また、右の眼カメラ60Rと左の眼カメラ60Lとをまとめて眼カメラ60ということがある。   The head 52 is provided with a speaker 54 at a position corresponding to the mouth. The speaker 54 is used for the robot 10 to communicate or perform group attention control with a voice or sound with respect to the people around it. Further, microphones 56R and 56L are provided at positions corresponding to the ears. Hereinafter, the microphone 56R corresponding to the right ear and the microphone 56L corresponding to the left ear may be collectively referred to as the microphone 56. The microphone 56 captures ambient sounds, particularly a human voice that is an object for performing communication. Further, eyeball portions 58R and 58L are provided at positions corresponding to the eyes. Eyeball portions 58R and 58L include eye cameras 60R and 60L, respectively. Hereinafter, the right eyeball portion 58R and the left eyeball portion 58L may be collectively referred to as the eyeball portion 58, and the right eye camera 60R and the left eye camera 60L may be collectively referred to as the eye camera 60.

眼カメラ60は、ロボット10に接近した人間の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ60としては、上述した全方位カメラ34と同様のカメラを用いることができる。たとえば、眼カメラ60は眼球部58内に固定され、眼球部58は眼球支持部(図示せず)を介して頭部52内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部52の上へ向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部52の正面側(顔)が向く方向に直交する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部58ないし眼カメラ60の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。   The eye camera 60 captures a human face approaching the robot 10, other parts or objects, and captures a corresponding video signal. As the eye camera 60, a camera similar to the omnidirectional camera 34 described above can be used. For example, the eye camera 60 is fixed in the eyeball part 58, and the eyeball part 58 is attached to a predetermined position in the head 52 via an eyeball support part (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 52, and the other is orthogonal to one axis and the direction in which the front side (face) of the head 52 faces. It is an axis (pitch axis) in the direction to be. By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 58 or the eye camera 60 is displaced, and the camera axis, that is, the line-of-sight direction is moved.

なお、上述のスピーカ54、マイク56および眼カメラ60の設置位置は、これらに限定されず、適宜な位置に設けてよい。   The installation positions of the speaker 54, the microphone 56, and the eye camera 60 described above are not limited to these, and may be provided at appropriate positions.

図4はロボット10の電気的な構成を示すブロック図であり、この図4を参照して、ロボット10は、全体を制御するプロセサ62を含む。プロセサ62は、バス64を介して、メモリ66、モータ制御ボード68、センサ入力/出力ボード70および音声入力/出力ボード72に接続される。   FIG. 4 is a block diagram showing an electrical configuration of the robot 10. With reference to FIG. 4, the robot 10 includes a processor 62 for controlling the whole. The processor 62 is connected to the memory 66, the motor control board 68, the sensor input / output board 70, and the audio input / output board 72 via the bus 64.

メモリ66は、たとえばROMやハードディスクなどからなるプログラムメモリ66aを含み、このプログラムメモリ66aには、ロボット10の制御プログラム(人間との間でコミュニケーションを実行するための行動制御プログラムや集団注意制御プログラム、アクティブセンシングプログラムなど)が予め記憶されるとともに、コミュニケーションや集団注意制御動作を実行する際にスピーカ54から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データなども記憶される。また、このプログラムメモリ66aには、外部コンピュータ(コンピュータ14など)との間で必要な情報を送受信するための通信プログラムなどが記録される。メモリ66は、さらに、たとえばRAMやフラッシュメモリなどからなり、ワーキングメモリやバッファメモリとして利用されるデータメモリ66bを含む。データメモリ66bは、後述のようにしてコンピュータ14から送られてくる集団状態のデータなどを一時的に記憶するための一時記憶領域や、さらには後述する注意制御フラグAや各種レジスタを設定しておくためのフラグ・レジスタ領域などに割り付けられている。   The memory 66 includes a program memory 66a composed of, for example, a ROM or a hard disk. The program memory 66a includes a control program for the robot 10 (an action control program, a group attention control program for executing communication with humans, Active sensing program, etc.), and angles for presenting voice or voice data (speech synthesis data) and predetermined gestures to be generated from the speaker 54 when performing communication or group attention control operations Data etc. are also stored. In the program memory 66a, a communication program for transmitting / receiving necessary information to / from an external computer (such as the computer 14) is recorded. Memory 66 further includes, for example, a RAM or a flash memory, and includes a data memory 66b used as a working memory or a buffer memory. The data memory 66b sets a temporary storage area for temporarily storing group state data and the like sent from the computer 14 as will be described later, and also sets a caution control flag A and various registers described later. It is allocated to the flag register area etc.

なお、メモリ66は、プロセサ62に内蔵されたまたは組み込まれた記憶装置(内部メモリ)であってもよく、プロセサ62の内部メモリとは別に設けた記憶装置であってもよい。   The memory 66 may be a storage device (internal memory) built in or incorporated in the processor 62, or may be a storage device provided separately from the internal memory of the processor 62.

モータ制御ボード68は、たとえばDSPで構成され、各腕や首関節および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード68は、プロセサ62からの制御データを受け、右眼球部58Rの2軸のそれぞれの角度を制御する2つのモータ(図4では、まとめて「右眼球モータ」と示す。)74の回転角度を制御する。同様に、モータ制御ボード68は、プロセサ62からの制御データを受け、左眼球部58Lの2軸のそれぞれの角度を制御する2つのモータ(図4では、まとめて「左眼球モータ」と示す。)76の回転角度を制御する。   The motor control board 68 is composed of, for example, a DSP, and controls the driving of each axis motor such as each arm, neck joint, and eyeball. That is, the motor control board 68 receives the control data from the processor 62, and controls two angles of the two axes of the right eyeball part 58R (in FIG. 4, they are collectively referred to as “right eyeball motor”). The rotation angle of 74 is controlled. Similarly, the motor control board 68 receives the control data from the processor 62, and shows two motors for controlling the respective angles of the two axes of the left eyeball portion 58L (in FIG. 4, collectively referred to as “left eyeball motor”). ) The rotation angle of 76 is controlled.

また、モータ制御ボード68は、プロセサ62からの制御データを受け、右肩関節38Rの直交する3軸のそれぞれの角度を制御する3つのモータと右肘関節42Rの角度を制御する1つのモータとの計4つのモータ(図4では、まとめて「右腕モータ」と示す。)78の回転角度を調節する。同様に、モータ制御ボード68は、プロセサ62からの制御データを受け、左肩関節38Lの直交する3軸のそれぞれの角度を制御する3つのモータと左肘関節42Lの角度を制御する1つのモータとの計4つのモータ(図4では、まとめて「左腕モータ」と示す。)80の回転角度を調節する。   The motor control board 68 receives control data from the processor 62, three motors for controlling the angles of the three orthogonal axes of the right shoulder joint 38R, and one motor for controlling the angle of the right elbow joint 42R. The rotation angles of the four motors (collectively referred to as “right arm motor” in FIG. 4) 78 are adjusted. Similarly, the motor control board 68 receives control data from the processor 62, three motors for controlling the angles of the three orthogonal axes of the left shoulder joint 38L, and one motor for controlling the angle of the left elbow joint 42L. The rotation angles of the four motors (collectively referred to as “left arm motor” in FIG. 4) 80 are adjusted.

さらに、モータ制御ボード68は、プロセサ62からの制御データを受け、首間接50の直交する3軸のそれぞれの角度を制御する3つのモータ(図4では、まとめて「頭部モータ」と示す。)82の回転角度を制御する。さらにまた、モータ制御ボード68は、プロセサ62からの制御データを受け、車輪22を駆動する2つのモータ(図4では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。   Further, the motor control board 68 receives the control data from the processor 62 and controls three motors for controlling the respective angles of the three orthogonal axes of the neck indirect 50 (referred to collectively as “head motors” in FIG. 4). ) 82 is controlled. Furthermore, the motor control board 68 receives the control data from the processor 62 and controls the rotation angle of two motors (collectively referred to as “wheel motors” in FIG. 4) 26 that drive the wheels 22.

なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。   In this embodiment, stepping motors or pulse motors are used for the motors other than the wheel motor 26 in order to simplify the control. However, as with the wheel motor 26, a DC motor may be used.

センサ入力/出力ボード70もまた、同様に、DSPで構成され、各センサからの信号を取り込んでプロセサ62に与える。すなわち、赤外線距離センサ30のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード70を通してプロセサ62に入力される。また、全方位カメラ34からの映像信号が、必要に応じてこのセンサ入力/出力ボード70で所定の処理を施された後、プロセサ62に入力される。眼カメラ60からの映像信号も、同様にして、プロセサ62に入力される。また、上述した複数の接触センサ(図4では、まとめて「接触センサ48」と示す。)からの信号がセンサ入力/出力ボード70を介してプロセサ62に与えられる。   Similarly, the sensor input / output board 70 is also configured by a DSP, and takes in signals from each sensor and supplies them to the processor 62. That is, data relating to the reflection time from each of the infrared distance sensors 30 is input to the processor 62 through the sensor input / output board 70. The video signal from the omnidirectional camera 34 is input to the processor 62 after being subjected to predetermined processing by the sensor input / output board 70 as required. The video signal from the eye camera 60 is also input to the processor 62 in the same manner. In addition, signals from the plurality of contact sensors described above (collectively indicated as “contact sensors 48” in FIG. 4) are provided to the processor 62 via the sensor input / output board 70.

音声入力/出力ボード72もまた、同様に、DSPで構成され、プロセサ62から与えられる音声合成データに従った音声または声がスピーカ54から出力される。たとえば、道案内や集団注意制御などを実行するときに情報が音声または声としてスピーカ54から発せられる。また、マイク56からの音声入力が、音声入力/出力ボード72を介してプロセサ62に取り込まれる。   Similarly, the voice input / output board 72 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the processor 62 is output from the speaker 54. For example, information is emitted from the speaker 54 as voice or voice when performing route guidance or group attention control. Also, the voice input from the microphone 56 is taken into the processor 62 via the voice input / output board 72.

また、プロセサ62は、バス64を介して通信LANボード84に接続される。通信LANボード84は、DSPで構成され、プロセサ62から送られる送信データを無線通信装置86に与え、無線通信装置86から送信データを、たとえば、無線LANのようなネットワークを介して、外部コンピュータ(図1および図4ではコンピュータ14)などに送信する。また、通信LANボード84は、無線通信装置86を介してデータを受信し、受信したデータをプロセサ62に与える。つまり、この通信LANボード84および無線通信装置86によって、ロボット10はコンピュータ14などと無線通信を行うことができる。   The processor 62 is connected to the communication LAN board 84 via the bus 64. The communication LAN board 84 is configured by a DSP, gives transmission data sent from the processor 62 to the wireless communication device 86, and sends the transmission data from the wireless communication device 86 to an external computer (for example, via a network such as a wireless LAN). In FIG. 1 and FIG. 4, it is transmitted to a computer 14) or the like. The communication LAN board 84 receives data via the wireless communication device 86 and gives the received data to the processor 62. That is, the communication LAN board 84 and the wireless communication device 86 allow the robot 10 to perform wireless communication with the computer 14 and the like.

図5‐図13を参照して、コンピュータ14が集団状態を推定する手法とそのときの動作について説明する。   With reference to FIGS. 5 to 13, a method in which the computer 14 estimates the collective state and the operation at that time will be described.

図5のステップS1でオペレータによる停止命令を検出しなければ、コンピュータ14は、次のステップS3において、RS232Cなどを利用して、たとえば、ポーリングの手法を用いて、図2に示すように部屋101内に配列されたすべての床センサ18からセンサ情報、すなわち、センサ番号(n)、センサ値(Si=1または0)およびそのセンサ値を取得した時刻を読み取る。このセンサ情報は、図1に示すデータメモリ15bに一時的に格納される。   If the stop command by the operator is not detected in step S1 in FIG. 5, the computer 14 uses the RS232C or the like in the next step S3, for example, using a polling technique as shown in FIG. The sensor information, that is, the sensor number (n), the sensor value (Si = 1 or 0), and the time when the sensor value is acquired are read from all the floor sensors 18 arranged in the inside. This sensor information is temporarily stored in the data memory 15b shown in FIG.

続くステップS5において、コンピュータ14は、ステップS3で取得したセンサ情報をx-y座標に変換する。つまり、ロボット10や人間を検出した床センサの反応点の位置座標を計算する。ただし、ロボット10は2つの車輪22で床センサに加重しているのでロボット10の反応点は2つの車輪の中点として計算し、他方、人間も2本足で立っていることを前提にしているので、2本の足の中点が人間による床センサの反応点として計算される。このような反応点をx-y座標に変換するには、具体的には、図6に示す手順が実行される。   In subsequent step S5, the computer 14 converts the sensor information acquired in step S3 into xy coordinates. That is, the position coordinates of the reaction point of the floor sensor that detects the robot 10 or a human is calculated. However, since the robot 10 weights the floor sensor with two wheels 22, the reaction point of the robot 10 is calculated as the midpoint of the two wheels, and on the other hand, it is assumed that a human is also standing on two legs. Therefore, the midpoint of the two feet is calculated as the reaction point of the floor sensor by the human. In order to convert such reaction points into xy coordinates, specifically, the procedure shown in FIG. 6 is executed.

図6の最初のステップS21でオペレータによる停止命令を検出しなければ、コンピュータ14は、続くステップS23において、各床センサからセンサ情報を受信したかどうか判断し、“NO”なら、受信するまで待つ。センサ情報を受信していれば、次のステップS25で、コンピュータ14は、(1)式を用いて、床センサが反応している点の座標を計算する。
[数1]
xj = i%h
yj = i/h (Si = 1, j = 1, 2, …, m) …(1)
ただし、mは床センサが反応している点の総数であり、床センサは図2のように配置されているものとする。
If a stop command by the operator is not detected in the first step S21 in FIG. 6, the computer 14 determines whether sensor information has been received from each floor sensor in the subsequent step S23, and if “NO”, waits until it is received. . If the sensor information has been received, in the next step S25, the computer 14 uses the equation (1) to calculate the coordinates of the point at which the floor sensor is responding.
[Equation 1]
xj = i% h
yj = i / h (Si = 1, j = 1, 2,…, m)… (1)
However, m is the total number of points to which the floor sensor is responding, and the floor sensor is arranged as shown in FIG.

そして、次のステップS27において、コンピュータ14は、ステップS25で計算して得た、床センサが反応している点の座標(x1,y1),(x2,y2),…,(xm,ym)を、図5の次のステップS7に送信する。つまり、図1に示すデータメモリ15bにこれらの座標データを一時記憶する。このステップS7は集団状態推定プログラムであり、図7‐図11に詳細に示される。   Then, in the next step S27, the computer 14 obtains the coordinates (x1, y1), (x2, y2),..., (Xm, ym) of the points to which the floor sensor reacts, obtained by calculation in step S25. Is transmitted to the next step S7 in FIG. That is, these coordinate data are temporarily stored in the data memory 15b shown in FIG. This step S7 is a collective state estimation program and is shown in detail in FIGS.

図7の最初のステップS31でオペレータによる停止命令を検出しなければ、コンピュータ14は、続くステップS33において、床センサが反応している点の座標(x1,y1),(x2,y2),…,(xm,ym)を受信したかどうか判断し、“NO”なら受信するまで待つ。“YES”なら、次のステップS35で、コンピュータ14は、受信した座標データに基づいてクラスタリングを行い、反応点(床センサの)をいくつかのクラスタに分割または区画する。   If the stop command by the operator is not detected in the first step S31 in FIG. 7, the computer 14 coordinates (x1, y1), (x2, y2),... , (Xm, ym) is determined, and if “NO”, it waits until it is received. If “YES”, in the next step S35, the computer 14 performs clustering based on the received coordinate data, and divides or divides the reaction point (of the floor sensor) into several clusters.

ステップS35では、反応点と反応点との間のユークリッド距離を類似度としてクラスタリングを行う(距離が近いほど類似度が高い)。実施例では、いわゆる階層的クラスタリングの手法を採用した。階層的クラスタリングでは、m個の反応点データが与えられたとき、まず、1個のデータ(要素)だけを含むm個のクラスタを初期状態とする。この状態から、あるクラスタと他のあるクラスタとの距離(クラスタ間距離)を計算し、この距離がもっとも近い2つのクラスタを逐次的に併合し、すべての反応点が1つのクラスタに併合されるまで繰り返し処理することによって、クラスタ間の階層構造を獲得するという手法である。以下、図8を参照して詳しく説明する。   In step S35, clustering is performed using the Euclidean distance between the reaction points as the similarity (the similarity is higher as the distance is closer). In the embodiment, a so-called hierarchical clustering technique is employed. In hierarchical clustering, when m reaction point data are given, first, m clusters including only one data (element) are set as an initial state. From this state, the distance between one cluster and another cluster (intercluster distance) is calculated, and the two clusters with the closest distance are merged sequentially, and all reaction points are merged into one cluster. This is a technique of acquiring a hierarchical structure between clusters by repeatedly processing up to. Hereinafter, this will be described in detail with reference to FIG.

図8の最初のステップS41でオペレータによる停止命令を検出しなければ、コンピュータ14は、続くステップS43において、m個の反応点を、それぞれ、要素が1つだけのm個のクラスタとする。続いて、ステップS45で、コンピュータ14は、m個のクラスタのクラスタ間距離(図9)を計算する。   If no stop command is detected by the operator in the first step S41 in FIG. 8, the computer 14 sets m reaction points to m clusters each having only one element in the subsequent step S43. Subsequently, in step S45, the computer 14 calculates an intercluster distance (FIG. 9) of m clusters.

実施例では、特に限定するという意味ではないが、クラスタ間距離は最短距離法を用いて計算する。最短距離法とは、2つのクラスタに含まれている要素のうち最も近い要素どうしの間の距離をクラスタ距離とする方法である。   In the embodiment, the distance between clusters is calculated using the shortest distance method, although it is not particularly limited. The shortest distance method is a method in which the distance between the nearest elements among the elements included in two clusters is defined as a cluster distance.

クラスタ距離を計算するためには、その他、重心法、ウォード法などいくつかのアルゴリズムが存在するが、最短距離法では、最も近い要素どうしの間の距離をクラスタ間距離とするというアルゴリズムの特性上、鎖状のクラスタを作ることができる。一方、重心法やウォード法は、主に楕円体のクラスタを作る。実施例のようにロボット10と人間とが相互作用を行う場合、そのような人間の集団に対してクラスタリングを行う際には、楕円体のクラスタよりも鎖状のクラスタの方が適していると考えられる。人間がロボットに対して横に一列に並んでいるときに、その1列を1つのクラスタとして扱えるためである。   There are several other algorithms for calculating the cluster distance, such as the centroid method and the Ward method. However, the shortest distance method uses the distance between the nearest elements as the intercluster distance. Can make chain clusters. On the other hand, the center of gravity method and the Ward method mainly create ellipsoidal clusters. When the robot 10 interacts with a human as in the embodiment, when performing clustering on such a human group, a chain cluster is more suitable than an ellipsoidal cluster. Conceivable. This is because when one person is lined up horizontally with respect to the robot, that one line can be handled as one cluster.

そして、次のステップS47で、コンピュータ14は、クラスタ間距離がもっとも近いクラスタどうしを併合する。このステップS47は、先のステップS45とともに、ステップS49ですべての反応点(要素)が1つのクラスタに併合されたと判断するまで、繰り返し実行される。   In the next step S47, the computer 14 merges the clusters having the shortest inter-cluster distance. This step S47 is repeatedly executed together with the previous step S45 until it is determined in step S49 that all reaction points (elements) have been merged into one cluster.

ステップS49で1のクラスタにすべての反応点が併合できたと判断したとき、コンピュータ14は、次のステップS51で、データメモリ15b(図1)に記憶している反応点の座標データを参照して、各反応点の分布状態に応じて、適切なクラスタ数Cを決定する。クラスタ数Cは、対人距離に関する発明者等の知見に基づき、反応点と反応点との距離が70cm(固体距離)以下の反応点は必ず同じクラスタに属し、110cm(公的距離)以上離れた反応点どうしは必ず異なるクラスタに属するように、決められる。   When it is determined in step S49 that all reaction points have been merged into one cluster, the computer 14 refers to the coordinate data of the reaction points stored in the data memory 15b (FIG. 1) in the next step S51. The appropriate number of clusters C is determined according to the distribution state of each reaction point. The number C of clusters is based on the knowledge of the inventors regarding the interpersonal distance, and the reaction points whose reaction points are 70 cm (solid distance) or less always belong to the same cluster and are separated by 110 cm (official distance) or more. Reaction points are determined to belong to different clusters.

さらに、実施例では、このような距離条件に加えて、(2)式で表される擬似t2統計量に基づいてクラスタ数を決定する。擬似t2統計量は、よく知られているように、クラスタ数決定の指標として用いられている統計量である。   Furthermore, in the embodiment, in addition to such a distance condition, the number of clusters is determined based on the pseudo t2 statistic represented by the equation (2). The pseudo t2 statistic is a statistic used as an index for determining the number of clusters, as is well known.

クラスタPとクラスタQとを結合してクラスタRとなるときの擬似t2統計量は、(2)式で与えられる。ここで、Wは各クラスタの重心とクラスタに含まれる全要素(反応点)との距離の総和であり、Nは各クラスタ内の要素数である。そして、擬似t2統計量の値が大きく変化するクラスタ数が適切なクラスタ数Cの候補である。   The pseudo t2 statistic when cluster P and cluster Q are combined to form cluster R is given by equation (2). Here, W is the sum of the distances between the center of gravity of each cluster and all elements (reaction points) included in the cluster, and N is the number of elements in each cluster. The number of clusters for which the value of the pseudo t2 statistic greatly changes is a candidate for the appropriate number of clusters C.

Figure 2008225852
Figure 2008225852

つまり、この実施例では、対人距離と擬似t2統計量とに基づいて、以下の条件でクラスタ数Cを決定する。   That is, in this embodiment, the number of clusters C is determined under the following conditions based on the interpersonal distance and the pseudo t2 statistic.

1.クラスタ間距離が固体距離(70cm)以上となるクラスタ数を、分割するクラスタ数の候補とする。候補がない場合には、クラスタ数を1とする。   1. The number of clusters whose intercluster distance is equal to or greater than the solid distance (70 cm) is determined as a candidate number of clusters to be divided. If there is no candidate, the number of clusters is 1.

2.1.で選ばれた候補の中から、クラスタ間距離が公的距離(110cm)以下となるクラスタ数を、分割するクラスタ数の候補とする。候補がない場合には、クラスタ間距離が最も大きくなるクラスタ数を分割数とする。   2.1. The number of clusters in which the inter-cluster distance is equal to or less than the public distance (110 cm) is selected as the candidate number of clusters to be divided. If there is no candidate, the number of clusters with the largest inter-cluster distance is taken as the division number.

3.選択された候補の中で、擬似t2統計量の変化量が正の方向に最も大きく変化しているクラスタ数を、分割クラスタ数の候補とする。   3. Among the selected candidates, the number of clusters in which the amount of change in the pseudo t2 statistic changes the largest in the positive direction is set as a candidate for the number of divided clusters.

ステップS51でこのようにして適切なクラスタ数Cを決定した後、コンピュータ14は、ステップS53で、そのクラスタ数Cと各クラスタに含まれる反応点(要素)の数Pi(i=1,…,C。ただし、P1≦P2≦…≦Pcとする。)とを状態推定プログラムの次に実行すべきステップ(図7:ステップS37)に送信する。つまり、図1に示すデータメモリ15bに、クラスタ数Cおよび各クラスタに含まれる反応点の数Pi、さらに必要に応じてクラスタの重心位置をクラスタデータとして記憶する。   After determining the appropriate number of clusters C in this way at step S51, the computer 14 at step S53, the number of clusters C and the number Pi of reaction points (elements) included in each cluster (i = 1,...,. C. However, P1 ≦ P2 ≦... ≦ Pc) is transmitted to the step to be executed next to the state estimation program (FIG. 7: step S37). That is, the data memory 15b shown in FIG. 1 stores the number C of clusters, the number Pi of reaction points included in each cluster, and the cluster barycentric position as cluster data as necessary.

図7に戻って、ステップS37で、このようにして計算しあるいは決定したクラスタ数Cと各クラスタに含まれる要素の数Piとに基づいて、各クラスタが「かたまりクラスタ」であるのか「はぐれクラスタ」であるのかを決定する。ただし、「かたまりクラスタ」とは、第1クラスタのことであり、第2クラスタを意味する「はぐれクラスタ」に比べて、より多数の反応点(要素)で構成されるクラスタである。逆にいえば、「はぐれクラスタ」は「かたまりクラスタ」に比べて少数の要素で構成されているクラスタと定義できる。このようなクラスタ判別ステップは、具体的には、図10に示す手順で実行される。   Returning to FIG. 7, in step S37, based on the number C of clusters calculated or determined in this way and the number Pi of elements included in each cluster, whether each cluster is a “cluster cluster” is determined. Is determined. However, the “cluster” refers to the first cluster, and is a cluster composed of a larger number of reaction points (elements) than the “staggered cluster” that means the second cluster. In other words, a “staggered cluster” can be defined as a cluster composed of a smaller number of elements than a “cluster of clusters”. Specifically, such a cluster determination step is executed according to the procedure shown in FIG.

図10の最初のステップS61でオペレータによる停止命令を検出しなければ、コンピュータ14は、続くステップS63において、上述のクラスタリング結果、すなわち、クラスタデータを受信したかどうか判断し、“NO”なら受信するまで待つ。“YES”なら、次のステップS65で、(3)式に基づいて、最も反応点(要素)数の多いクラスタが全反応点のa%以上であるかどうか判断する。ただし、この判断式を含むすべての判断式は、最も要素数の多いクラスタが全要素数のa%以上であるとき、要素数が全要素数のb%以下となるクラスタを「はぐれクラスタ」の候補とし、かつ、すべての「はぐれクラスタ」の要素数がすべての「かたまりクラスタ」の要素数のc%以下となるように考慮した結果であることを予め理解されたい。
[数3]
Pc≧m(a/100) …(3)
このステップS65の判断結果が“NO”であるとき、最も要素数の多いクラスタが全要素数のa%以上ないので、ステップS67でコンピュータ14は、すべてのクラスタが「かたまりクラスタ」であると判定する。
If a stop command by the operator is not detected in the first step S61 in FIG. 10, the computer 14 determines in the subsequent step S63 whether or not the above-described clustering result, that is, cluster data has been received. Wait until. If “YES”, it is determined in the next step S65 whether or not the cluster having the largest number of reaction points (elements) is equal to or more than a% of all reaction points based on the equation (3). However, all judgment formulas including this judgment formula are such that when the cluster having the largest number of elements is a% or more of the total number of elements, the cluster having the number of elements of b% or less of the total number of elements is defined as the “stray cluster”. It should be understood in advance that the result is a candidate and is considered so that the number of elements of all “staggered clusters” is equal to or less than c% of the number of elements of all “cluster clusters”.
[Equation 3]
Pc ≧ m (a / 100) (3)
When the determination result in step S65 is “NO”, since the cluster having the largest number of elements does not exceed a% of the total number of elements, the computer 14 determines in step S67 that all the clusters are “cluster clusters”. To do.

次に、ステップS65で“YES”の判断をしたとき、最も要素数の多いクラスタが全要素数のa%以上あるので、コンピュータ14は、続くステップS69において、(4)式に基づく判断を行う。
[数4]
P1≦m(b/100) …(4)
そして、このステップS69で“NO”を判断したとき、要素数が全要素数のb%以下ではないので、コンピュータは、ステップS71で、すべてのクラスタは「かたまりクラスタ」であると判定する。
Next, when “YES” is determined in step S65, since the cluster having the largest number of elements is a% or more of the total number of elements, the computer 14 performs determination based on the expression (4) in the subsequent step S69. .
[Equation 4]
P1 ≦ m (b / 100) (4)
When “NO” is determined in step S69, the number of elements is not less than b% of the total number of elements. Therefore, in step S71, the computer determines that all clusters are “cluster clusters”.

ステップS69で“YES”を判断したときには、コンピュータ14は、次のステップS73で(5)式を満たす最大のiをH(はぐれ)とし、続くステップS75で(6)式を満たす最小のiをK(かたまり)として、ステップS77における判断式(7)に基づく判定を実行する。ただし、Cはクラスタ数である。
[数5]
Pi≦m(b/100) (i=1,2,…,C)…(5)
[数6]
Pi≧m(b/100) (i=1,2,…,C)…(6)
[数7]
≦P(c/100) …(7)
コンピュータ14がステップS77で“NO”を判断したとき、「はぐれクラスタ」の要素数がすべての「かたまりクラスタ」の要素数のc%以下とはならないので、次のステップS79で、すべてのクラスタは「かたまりクラスタ」であると判定する。また、ステップS77で“YES”の判断をしたときには、「はぐれクラスタ」の要素数がすべての「かたまりクラスタ」の要素数のc%以下であるので、コンピュータ14は、続くステップS81において、(5)式を満足するクラスタを「はぐれクラスタ」と判定し、それ以外のクラスタを「かたまりクラスタ」と判定する。
If "YES" is determined in the step S69, the computer 14 sets the maximum i satisfying the expression (5) to H (separation) in the next step S73, and the minimum i satisfying the expression (6) in the subsequent step S75. The determination based on the determination formula (7) in step S77 is executed as K (a mass). However, C is the number of clusters.
[Equation 5]
Pi ≦ m (b / 100) (i = 1, 2,..., C) (5)
[Equation 6]
Pi ≧ m (b / 100) (i = 1, 2,..., C) (6)
[Equation 7]
P H ≦ P K (c / 100) (7)
When the computer 14 determines “NO” in step S77, the number of elements of “stray cluster” is not less than c% of the number of elements of all “cluster clusters”. It is determined that the cluster is a “cluster”. Further, when “YES” is determined in step S77, the number of elements of “stray cluster” is equal to or less than c% of the number of elements of all “cluster clusters”. ) A cluster that satisfies the expression is determined as a “stray cluster”, and the other clusters are determined as a “cluster cluster”.

このようにして、ステップS67,S71,S79およびS81で各クラスタについてそれらが「かたまりクラスタ」であるのか「はぐれクラスタ」であるのかの種類判定を行ない、コンピュータ14は、その判定結果(各クラスタの種類)をクラスタデータとしてステップS83すなわち、図7のステップS39で、集団状態推定プログラムに送信する。つまり、図1のデータメモリ15bに格納する。   In this way, in step S67, S71, S79 and S81, the type of each cluster is determined as to whether it is a “cluster cluster” or “stray cluster”, and the computer 14 determines the result of the determination (for each cluster). Type) is transmitted as cluster data to the collective state estimation program in step S83, ie, step S39 in FIG. That is, it is stored in the data memory 15b of FIG.

集団状態推定プログラムはこの判定結果(クラスタの種類)に基づいて、集団状態推定動作(ステップS7:図5)を実行する。集団状態推定プログラムは、具体的には図11に詳細に示されるが、この実施例では、基本的に、図13に示すような3つの場合にまず分類し、最終的に[集団状態1]‐[集団状態12]に分類して推定する。   The collective state estimation program executes a collective state estimation operation (step S7: FIG. 5) based on this determination result (cluster type). The group state estimation program is specifically shown in FIG. 11 in detail, but in this embodiment, basically, the three cases as shown in FIG. 13 are first classified and finally [group state 1] -Estimate by classifying into [population state 12].

図11の最初のステップS91で、コンピュータ14は、データメモリ15bに格納されているクラスタデータの各クラスタの種類を参照して、「かたまりクラスタ」が1つだけ存在するかどうか、判断する。“YES”なら、図13に示す「1つのかたまりクラスタ」という区画に含まれる集団状態のいずれかであり、次のステップS93で、コンピュータ14は、「はぐれクラスタ」があるかどうか判断する。ステップS93で“NO”が判断されると、「かたまりクラスタ」が1つで「はぐれクラスタ」がない、たとえば、いわゆるひとかたまりの集団状態であるので、コンピュータ14は、このような集団状態を「集団状態1」と定義し、そのときの集団状態を集団状態1と推定する。   In the first step S91 in FIG. 11, the computer 14 refers to each cluster type of the cluster data stored in the data memory 15b and determines whether there is only one “cluster cluster”. If “YES”, it is one of the collective states included in the section “one cluster cluster” shown in FIG. 13, and in the next step S93, the computer 14 determines whether there is a “stray cluster”. If “NO” is determined in step S93, since there is one “cluster cluster” and no “stray cluster”, for example, a so-called collective group state, the computer 14 determines such a collective state as “group”. State 1 ”is defined, and the collective state at that time is estimated as collective state 1.

ステップS93で“YES”が判断されると、先のステップS91で“YES”が判断されているので、そのとき部屋101(図2)には、オブジェクトとしてのロボット10と1つの「かたまりクラスタ」と1つ以上の「はぐれクラスタ」があるということを意味し、図13で示す集団状態2,3および4のいずれかであることがわかる。そこで、ステップS95で、コンピュータ14は、クラスタデータや反応点データなどを参照して、「はぐれクラスタ」、「かたまりクラスタ」およびオブジェクト(ロボット10)の位置関係、特に「はぐれクラスタ」がオブジェクトすなわちロボット10に対して、「かたまりクラスタ」より近いかどうかでいずれの集団状態であるかを特定する。   If “YES” is determined in the step S93, since “YES” is determined in the previous step S91, the robot 101 as an object and one “cluster cluster” are present in the room 101 (FIG. 2). It means that there is one or more “staggered clusters” and it is one of the collective states 2, 3 and 4 shown in FIG. Therefore, in step S95, the computer 14 refers to the cluster data, reaction point data, etc., and the positional relationship between the “staggered cluster”, “cluster” and the object (robot 10), in particular, “stray cluster” is an object, that is, a robot. For 10, it is specified which group state is based on whether it is closer to the “cluster cluster”.

「はぐれクラスタ」の状況を判定するステップS95の詳細が図12に示されるが、この図12を参照して、ステップS111で、コンピュータ14は、「はぐれクラスタ」が「かたまりクラスタ」よりロボット10(オブジェクト)の近くにいるかどうか判断する。“YES”なら、その「はぐれクラスタ」に「+近はぐれ」とラベルを付す。ステップS11で“NO”と判断したら、次にコンピュータ14はステップS113で、「はぐれクラスタ」が「かたまりクラスタ」よりオブジェクトの遠くにいるかどうか判断する。“YES”ならその「はぐれクラスタ」に「+遠はぐれ」とラベルを付し、“NO”なら近くも遠くもないという意味で「+はぐれ」というラベルを付す。   FIG. 12 shows details of step S95 for determining the status of “stray cluster”. Referring to FIG. 12, in step S111, the computer 14 determines that the “stray cluster” is more than the “cluster cluster” than the robot 10 ( Judge whether it is near (object). If “YES”, the “stray cluster” is labeled “+ near stray”. If “NO” is determined in the step S11, the computer 14 then determines whether or not the “stray cluster” is farther from the object than the “cluster” in a step S113. If “YES”, the “stray cluster” is labeled “+ far away”, and “NO” is labeled “+ stray” in the sense that it is neither near nor far.

このようにして、図12では、オブジェクトから最も距離が近い反応点が「はぐれクラスタ」に属する場合「+近はぐれ」と判定し、オブジェクトから最も距離が遠い反応点が「はぐれクラスタ」に属する場合「+遠はぐれ」と判定し、それ以外の場合「+はぐれ」と認定する。   In this way, in FIG. 12, when the reaction point closest to the object belongs to the “stray cluster”, it is determined as “+ close stray”, and the reaction point farthest from the object belongs to the “stray cluster”. It is judged as “+ far away”, otherwise it is recognized as “+ far away”.

図13を参照すればわかるように、「かたまりクラスタ」か1つでかつ「+近はぐれ」とラベルが付された1つの「はぐれクラスタ」があるときには、そのときの集団状態は「集団状態2」である。「かたまりクラスタ」か1つでかつ「+遠はぐれ」とラベルが付された1つの「はぐれクラスタ」があるときには、そのときの集団状態は「集団状態3」である。そして、「かたまりクラスタ」か1つでかつ「+はぐれ」とラベルが付された1つの「はぐれクラスタ」があるときには、そのときの集団状態は「集団状態4」である。このようにして、ステップS91で“YES”を判定したとき、つまり1つだけの「かたまりクラスタ」が存在するとき、コンピュータ14は、集団状態1,2,3または4を推定する。   As can be seen from FIG. 13, when there is only one “cluster cluster” and one “stray cluster” labeled “+ stray”, the collective state at that time is “collective state 2”. It is. When there is only one “clump cluster” and one “stray cluster” labeled “+ far away”, the collective state at that time is “collective state 3”. When there is only one “cluster cluster” and one “stray cluster” labeled “+ stray”, the collective state at that time is “collective state 4”. In this way, when “YES” is determined in step S91, that is, when only one “cluster cluster” exists, the computer 14 estimates the collective states 1, 2, 3, or 4.

ステップS91で“NO”が判断されると、「かたまりクラスタ」が2つ以上あることを意味し、コンピュータ14は、次のステップS97で、それぞれの「かたまりクラスタ」とロボット10(オブジェクト)との距離が等しいかどうか判断する。「かたまりクラスタ」の中で最もオブジェクトに近い点とオブジェクトとの距離をdiとする。この距離diの最大値をdimax、最小値をdiminとしたとき、(8)式を満足すれば、各「かたまりクラスタ」とオブジェクトとの間の距離は等しい(等距離)と判定する。ただし、Dは閾値を示す定数である。
[数8]
dimax−dimin<D …(8)
ステップS97で“YES”と判断すると、コンピュータ14は次にステップS99で、「はぐれクラスタ」があるかどうか判断する。“NO”と判断した集団状態は、ロボット10(オブジェクト)に対して等距離の2つの「かたまりクラスタ」があるという集団状態であるので、図13で「複数のかたまりクラスタ(距離均等)」と区画された中の1つの集団状態、「集団状態5」である。
If “NO” is determined in step S91, it means that there are two or more “cluster clusters”, and the computer 14 determines whether each “cluster cluster” and the robot 10 (object) are in the next step S97. Determine if distances are equal. The distance between the point closest to the object in the “cluster of clusters” and the object is assumed to be di. When the maximum value of the distance di is dimax and the minimum value is dimin, if the equation (8) is satisfied, the distance between each “cluster cluster” and the object is determined to be equal (equal distance). However, D is a constant which shows a threshold value.
[Equation 8]
dimax−dimin <D (8)
If "YES" is determined in the step S97, the computer 14 then determines whether or not there is a "stray cluster" in a step S99. The collective state determined as “NO” is a collective state in which there are two “cluster clusters” that are equidistant with respect to the robot 10 (object). Therefore, “multiple cluster clusters (distance equal)” in FIG. One of the divided group states is “collection state 5”.

ステップS101でコンピュータ14は、先のステップS95と同様に、「はぐれクラスタ」、「かたまりクラスタ」およびオブジェクト(ロボット10)の位置関係で集団状態を分類する。   In step S <b> 101, the computer 14 classifies the collective state based on the positional relationship between the “stray cluster”, the “cluster cluster”, and the object (robot 10), as in step S <b> 95.

図13を参照すればわかるように、「かたまりクラスタ」か2つでかつそれらの「かたまりクラスタ」のオブジェクトからの距離が等しくてしかも「+近はぐれ」とラベルが付された1つの「はぐれクラスタ」があるときには、そのときの集団状態は「集団状態6」である。ロボット10から等距離の2つ「かたまりクラスタ」がありかつ「+遠はぐれ」とラベルが付された1つの「はぐれクラスタ」があるときには、そのときの集団状態は「集団状態7」である。そして、距離均等の2つの「かたまりクラスタ」と「+はぐれ」とラベルが付された1つの「はぐれクラスタ」とがあるときには、そのときの集団状態は「集団状態8」である。このようにして、2つの距離均等の「かたまりクラスタ」があるとき、すなわち、ステップS97で“YES”を判断したとき、コンピュータ14は、集団状態5,6,7または8を推定する。   As can be seen with reference to FIG. 13, there are two “clusters”, one of which is the same distance from the objects of the “clusters” and labeled “+ close”. ", The collective state at that time is" collective state 6 ". When there are two “cluster clusters” equidistant from the robot 10 and one “stray cluster” labeled “+ far away”, the collective state at that time is “collective state 7”. Then, when there are two “cluster clusters” with equal distance and one “stray cluster” labeled “+ stray”, the collective state at that time is “collective state 8”. In this way, when there are two “cluster clusters” having an equal distance, that is, when “YES” is determined in step S97, the computer 14 estimates the collective state 5, 6, 7 or 8.

ステップS97で“NO”が判断されるということは、オブジェクト(ロボット10)からの距離が不均等な2つの「かたまりクラスタ」が存在するということを意味している。そして、次のステップS103で、コンピュータ14は「はぐれクラスタ」があるかどうか判断する。“NO”と判断した集団状態は、ロボット10(オブジェクト)に対して不等距離の2つの「かたまりクラスタ」があるという集団状態であるので、図13で「複数のかたまりクラスタ(距離不均等)」と区画された中の1つの集団状態、「集団状態9」である。   If “NO” is determined in step S97, it means that there are two “cluster clusters” having unequal distances from the object (robot 10). In the next step S103, the computer 14 determines whether or not there is a “stray cluster”. Since the collective state determined as “NO” is a collective state in which there are two “cluster clusters” that are unequal to the robot 10 (object), “multiple cluster clusters (non-uniform distance)” in FIG. "A collective state 9", one of the collective states.

ステップS103で“YES”が判断されると、コンピュータ14は、ステップS105で、先のステップS95およびS101と同様に、「はぐれクラスタ」、「かたまりクラスタ」およびオブジェクト(ロボット10)の位置関係で集団状態を分類する。   If “YES” is determined in step S103, the computer 14 collects in a step S105 based on the positional relationship between the “stray cluster”, the “cluster cluster”, and the object (robot 10) as in the previous steps S95 and S101. Classify the state.

図13を参照すればわかるように、「かたまりクラスタ」か2つでかつそれらの「かたまりクラスタ」のオブジェクトからの距離が等しくなくてしかも「+近はぐれ」とラベルが付された1つの「はぐれクラスタ」があるときには、そのときの集団状態は「集団状態10」である。ロボット10から距離不均等の2つ「かたまりクラスタ」がありかつ「+遠はぐれ」とラベルが付された1つの「はぐれクラスタ」があるときには、そのときの集団状態は「集団状態11」である。そして、距離不均等の2つの「かたまりクラスタ」と「+はぐれ」とラベルが付された1つの「はぐれクラスタ」とがあるときには、そのときの集団状態は「集団状態12」である。このようにして、2つの距離不均等の「かたまりクラスタ」があるとき、すなわち、ステップS97で“NO”を判断したとき、コンピュータ14は、集団状態9,10,11または12を推定する。   As can be seen with reference to FIG. 13, there are two “chunk clusters” and the two “chunk clusters” that are not equal in distance from the object and that are labeled “+ close”. When there is a “cluster”, the collective state at that time is “collective state 10”. When there are two “cluster clusters” with unequal distances from the robot 10 and one “stray cluster” labeled “+ far away”, the collective state at that time is “collective state 11”. . When there are two “cluster clusters” with uneven distance and one “stray cluster” labeled “+ stray”, the collective state at that time is “collective state 12”. In this way, when there are two “clusters” with uneven distance, that is, when “NO” is determined in step S97, the computer 14 estimates the collective state 9, 10, 11 or 12.

このシステムで推定可能な12の集団状態と各クラスタの状態とを表1で一覧できるようにした。   Table 1 lists the twelve collective states that can be estimated by this system and the states of each cluster.

Figure 2008225852
Figure 2008225852

ここまでで、図1に示す実施例の集団状態推定システム100において、ロボット10(オブジェクト)と同じ閉空間101内に存在する人間の集団状態を正しく推定できることを説明した。そして、このようにして推定した集団状態1−集団状態12のいずれかを示すデータ(集団状態データ)は、図5のステップS9で、時刻データとともに、データメモリ15bに格納される。それとともに、この集団状態データおよび時刻データは、コンピュータ14が推定した集団状態を利用する装置、実施例ではロボット10に送信される。ロボット10では、そのようにして受信した集団状態データを自身のデータメモリ66bに一時的にストアする。なお、実施例では、集団状態データには、集団状態のデータだけでなく、各クラスタの位置(重心)データやそれらに含まれる反応点の位置データなども含むように意図している。したがって、集団状態データを参照すれば、そのときの集団状態だけでなく、「かたまりクラスタ」や「はぐれクラスタ」の個数や位置のデータ、および各反応点(要素)の個数や位置のデータがすべてわかるのである。   Up to this point, it has been described that the collective state estimation system 100 of the embodiment shown in FIG. 1 can correctly estimate the collective state of humans existing in the same closed space 101 as the robot 10 (object). Data (collective state data) indicating any one of the collective state 1 to the collective state 12 estimated in this way is stored in the data memory 15b together with the time data in step S9 of FIG. At the same time, the collective state data and the time data are transmitted to a device that uses the collective state estimated by the computer 14, in the embodiment, the robot 10. The robot 10 temporarily stores the collective state data received in this manner in its own data memory 66b. In the embodiment, the collective state data is intended to include not only the collective state data but also the position (center of gravity) data of each cluster and the position data of the reaction points included therein. Therefore, by referring to the collective state data, not only the collective state at that time, but also the number and position data of the “cluster cluster” and “stray cluster”, and the number and position data of each reaction point (element) are all included. I understand.

図14は、コンピュータ14から、コンピュータ14が推定した集団状態のデータ(集団状態データ)を受信したロボット10が実行する集団注意制御動作の一例を示すフロー図である。ここで、この図14を参照して集団注意制御の一例を説明する。   FIG. 14 is a flowchart illustrating an example of a group attention control operation performed by the robot 10 that has received the group state data (group state data) estimated by the computer 14 from the computer 14. Here, an example of group attention control will be described with reference to FIG.

図14の最初のステップS121でオペレータによる停止命令を検出しなければ、ロボット10のプロセサ62は、続くステップS123において、コンピュータ14から送信される集団状態データを受信したかどうか判断し、“NO”なら受信するまで待つ。“YES”なら、次のステップS125で、たとえば、データメモリ66bに設定されている注意制御フラグAを「0」にリセット(A=0)する。なお、この注意制御フラグAは、それがリセットされているときロボット10が集団に対して集団注意制御を実行する必要があることを示し、リセット(A=1)されているときたとえば、注意を向けた人に道案内や展示説明などの集団注意制御以外のサービスを提供すべきことを示す。   If the stop command by the operator is not detected in the first step S121 in FIG. 14, the processor 62 of the robot 10 determines whether or not the collective state data transmitted from the computer 14 is received in the subsequent step S123, and “NO”. Then wait until you receive it. If “YES”, in the next step S125, for example, the caution control flag A set in the data memory 66b is reset to “0” (A = 0). The attention control flag A indicates that the robot 10 needs to execute group attention control on the group when it is reset, and when it is reset (A = 1), for example, Indicates that services other than collective attention control, such as directions and exhibition explanations, should be provided to the intended audience.

ステップS127で、ロボット10のプロセサ62は、データメモリ66bにストアしている集団状態データを参照して、「はぐれクラスタ」があるかどうか判断する。つまり、そのとき受信した集団状態データが図13に示す「集団状態1」、「集団状態5」および「集団状態9」以外を示す集団状態データであるかどうか判断する。ステップS127で“YES”の判断をしたとき、ロボット10のプロセサ62は、ステップS129において、ロボット10の周囲に存在する人間に対して、「はぐれクラスタ」の解消を呼びかける音声メッセージ、たとえば、『みなさん、集まってください。』のような音声メッセージをスピーカ54(図3,図4)から出力して、終了する。   In step S127, the processor 62 of the robot 10 refers to the collective state data stored in the data memory 66b, and determines whether there is a “stray cluster”. That is, it is determined whether or not the collective state data received at that time is collective state data other than “collective state 1”, “collective state 5”, and “collective state 9” shown in FIG. When “YES” is determined in step S 127, the processor 62 of the robot 10 in step S 129 calls a voice message that calls for cancellation of the “stray cluster” to humans existing around the robot 10, for example, “everyone. ,Please gather around. Is output from the speaker 54 (FIGS. 3 and 4), and the process ends.

ステップS127で“NO”が判断されたとき、つまり、そのときの集団状態データが図13に示す「集団状態1」、「集団状態5」および「集団状態9」のいずれかを示す集団状態データである場合、続くステップS131において、ロボット10のプロセサ62は、「複数かたまり(距離不均等)」の状態、すなわち、「集団状態9」の状態かどうか判断する。“YES”なら、続くステップS133で、ロボット10のプロセサ62は、「複数かたまり(距離均等)」の状態、すなわち、「集団状態5」の状態になるか、もしくは「ひとかたまり」になるような音声メッセージ、たとえば、『みなさん、こちらに寄ってください。』のような音声メッセージをスピーカ54から出力して、終了する。   When “NO” is determined in step S127, that is, the collective state data at that time indicates any one of “collective state 1”, “collective state 5”, and “collective state 9” shown in FIG. In the subsequent step S131, the processor 62 of the robot 10 determines whether or not it is in the “multiple cluster (distance unevenness)” state, that is, the “collective state 9” state. If “YES”, in the subsequent step S133, the processor 62 of the robot 10 is in a “multiple cluster (distance equal)” state, that is, a “collective state 5” state or a “single group” voice. Message, for example, “Please come here, everyone. Is output from the speaker 54 and the process ends.

ステップS131で“NO”が判断されたとき、つまり、集団状態データが図13に示す「集団状態1」および「集団状態5」いずれか以外を示す集団状態データである場合、続くステップS135において、ロボット10のプロセサ62は、ロボット10と各人との間の距離を計算し、各「かたまりクラスタ」毎に、ロボット10と人間との距離の分散を求める。そして、ロボット10のプロセサ62は、次のステップS137で、上で計算した分散がD以上になる「かたまりクラスタ」が存在するかどうか、つまり、各「かたまりクラスタ」のなかで人間すなわち反応点が分散しているかどうか判断する。“YES”なら、たとえば、『みなさん、まとまってください。』のような音声メッセージを出力し、「かたまりクラスタ」がまとまるように呼びかけ、終了する。   When “NO” is determined in step S131, that is, when the collective state data is collective state data other than “collective state 1” and “collective state 5” shown in FIG. 13, in subsequent step S135, The processor 62 of the robot 10 calculates the distance between the robot 10 and each person, and obtains the variance of the distance between the robot 10 and the person for each “cluster cluster”. Then, in the next step S137, the processor 62 of the robot 10 determines whether there is a “cluster cluster” in which the variance calculated above is D or more, that is, a human, that is, a reaction point is included in each “cluster cluster”. Determine if it is distributed. If “YES”, for example, “Everyone, please come together. Is output, a call is made so that the “cluster” is gathered, and the process ends.

ステップS137で“NO”の判断をしたとき、ロボット10のプロセサ62は、ステップS141に進み、このステップS141で、必要に応じて、たとえば、『みなさん、もう少し離れてください。』あるいは『みなさん、もう少し近くに来てください。』『みなさん、こっち向いてください。』とか『みなさん向こう(または右または左など)を見てください。』などという適宜の音声メッセージを出力することで集団注意制御を実行して、ロボット10と人間との間の距離や人々の顔の向きなどを一斉に制御する。   When “NO” is determined in step S137, the processor 62 of the robot 10 proceeds to step S141. In this step S141, for example, “Everyone, please leave a little further. Or "Please come a little closer, everyone." "Thank you, everyone. ”Or“ Look over there (or right or left). The group attention control is executed by outputting an appropriate voice message such as “”, and the distance between the robot 10 and the human being, the orientation of people's faces, and the like are controlled at the same time.

ただし、上述のような音声メッセージによる以外に、たとえば、モータ制御ボード68に制御データを出力することによって右腕モータ78や左腕モータ80(いずれも図4)を制御して、右腕または左腕で「指さし」動作を行って、集団注意制御を行うようにしてもよい。あるいは、モータ制御ボード68に制御データを出力することによって頭部モータ82(図4)を制御して、「首かしげ」動作を行って、集団注意制御を行うようにしてもよい。さらには、モータ制御ボード68に制御データを出力することによって右眼球モータ74および左眼球モータ76(図4)を制御して、「目配せ」動作を行って、集団注意制御を行うこともできる。つまり、集団注意制御は任意の音声やジェスチャで実行することができる。   However, in addition to the voice message as described above, for example, the right arm motor 78 and the left arm motor 80 (both shown in FIG. 4) are controlled by outputting control data to the motor control board 68, and the right arm or the left arm is pointed. ”Operation may be performed to perform group attention control. Alternatively, group attention control may be performed by controlling the head motor 82 (FIG. 4) by outputting control data to the motor control board 68 and performing a “neck-raising” operation. Further, the group attention control can be performed by outputting the control data to the motor control board 68 to control the right eyeball motor 74 and the left eyeball motor 76 (FIG. 4) to perform the “gaze” operation. That is, the group attention control can be executed with an arbitrary voice or gesture.

ステップS141で集団注意制御を行った後には、ロボット10のプロセサ62は、ステップS143で注意制御フラグAを再びセット(A=1)して、プロセスを終了する。   After performing group attention control in step S141, the processor 62 of the robot 10 sets the attention control flag A again (A = 1) in step S143, and ends the process.

この実施例によれば、コンピュータ14で集団状態を正しく推定できるので、ロボット10はそのときの集団状態に適合した集団注意制御を適正に行うことができる。   According to this embodiment, since the computer 14 can correctly estimate the collective state, the robot 10 can appropriately perform collective attention control adapted to the collective state at that time.

なお、上述の実施例ではコンピュータ14が集団状態を推定し、その集団状態推定動作によって得られた集団状態データをコンピュータ14からロボット10に転送し、ロボット10がその集団状態に応じた集団注意制御を行うものとして説明した。しかしながら、コンピュータ14はロボット10に単に床センサ18の反応点データ(座標データ)を送るだけで、ロボット10自身がその座標データを用いて上で説明したアルゴリズムに従って集団状態を推定するようにしてもよいことは勿論である。   In the above-described embodiment, the computer 14 estimates the collective state, transfers collective state data obtained by the collective state estimation operation from the computer 14 to the robot 10, and the robot 10 performs collective attention control according to the collective state. It was explained as something to do. However, the computer 14 simply sends the reaction point data (coordinate data) of the floor sensor 18 to the robot 10, and the robot 10 itself estimates the collective state using the coordinate data according to the algorithm described above. Of course it is good.

実施例でロボット10がその周囲の人間に対して集団注意制御を実行したが、逆に、ロボット10ではなく、コンピュータ14やあるいは他の装置や手段で、推定した集団状態に応じて集団注意制御を実行することもできる。   In the embodiment, the robot 10 performs collective attention control on the surrounding humans. Conversely, the collective attention control is performed by the computer 14 or other devices or means instead of the robot 10 according to the estimated collective state. Can also be executed.

上述の実施例では、コンピュータ14が推定した集団状態のデータを用いてロボット10(あるいは他の装置、手段)が集団注意制御を行う実施例について説明した。しかしながら、集団状態の推定結果はこのような集団注意制御以外に、たとえば、図15にフロー図を示すアクティブセンシングなどにも有効に利用できる。   In the above-described embodiment, the embodiment in which the robot 10 (or another device or means) performs the group attention control using the group state data estimated by the computer 14 has been described. However, the group state estimation result can be effectively used for, for example, active sensing whose flowchart is shown in FIG. 15 in addition to such group attention control.

図15の最初のステップS151でオペレータによる停止命令を検出しなければ、ロボット10のプロセサ62は、続くステップS153において、コンピュータ14から送信される集団状態データを受信したかどうか判断し、“NO”なら受信するまで待つ。“YES”なら、次のステップS155で、たとえば、データメモリ66bに記憶されている集団状態データを参照して、そのとき「はぐれクラスタ」があるかどうか判断する。つまり、そのとき受信した集団状態データが図13に示す「集団状態1」、「集団状態5」および「集団状態9」以外を示す集団状態データであるかどうか判断する。“YES”のとき、ロボット10のプロセサ62は、次のステップS157で、自身はその「はぐれクラスタ」に注目したいかどうか判断する。たとえば、コンピュータ14によって「はぐれクラスタ」を注目すべき指令がロボット10に与えられているときなど、ステップS157で“YES”となり、次のステップS159に進む。   If a stop command by the operator is not detected in the first step S151 in FIG. 15, the processor 62 of the robot 10 determines whether or not the collective state data transmitted from the computer 14 has been received in the subsequent step S153, and “NO”. Then wait until you receive it. If “YES”, in the next step S155, for example, with reference to the collective state data stored in the data memory 66b, it is determined whether or not there is a “stray cluster” at that time. That is, it is determined whether or not the collective state data received at that time is collective state data other than “collective state 1”, “collective state 5”, and “collective state 9” shown in FIG. If “YES”, the processor 62 of the robot 10 determines whether or not he / she wants to pay attention to the “stray cluster” in the next step S157. For example, when a command to pay attention to “stray cluster” is given to the robot 10 by the computer 14, “YES” is determined in the step S157, and the process proceeds to the next step S159.

ステップS159では、集団状態データに含まれる「はぐれクラスタ」の重心位置を示す位置データを参照して、その位置の方向に眼カメラ60が向くように、モータ制御ボード68に制御データを送り、眼球モータ74,76を駆動する。つまり、「はぐれクラスタ」の位置に対してセンシングを行う。   In step S159, with reference to the position data indicating the center of gravity position of the “stray cluster” included in the collective state data, the control data is sent to the motor control board 68 so that the eye camera 60 faces in the direction of the position. The motors 74 and 76 are driven. That is, sensing is performed on the position of the “staggered cluster”.

ステップS155およびS157でともに“NO”と判断したとき、ロボット10のプロセサ62は、次のステップS161において、そのときの集団状態データを参照して、複数の「かたまりクラスタ」が存在するかどうか、判断する。「はぐれクラスタ」がなくて複数の「かたまりクラスタ」がある集団状態は、集団状態1か集団状態5か集団状態9のいずれかである。したがって、このステップS161では結局、集団状態1,集団状態5および集団状態9のいずれかであるかどうか判断していることになる。“NO”なら、そのときの集団状態は集団状態1(1つの「かたまりクラスタ」だけが存在する。)であり、ロボット10のプロセサ62は、続くステップS163で、上述の方法と同様にして眼カメラ60を制御して、その「かたまりクラスタ」の位置に対してセンシングを行う。   When it is determined as “NO” in both steps S155 and S157, the processor 62 of the robot 10 refers to the collective state data at that time in the next step S161, and whether or not there are a plurality of “cluster clusters”, to decide. A group state in which there is no “stray cluster” and there are a plurality of “cluster clusters” is any one of the group state 1, the group state 5, or the group state 9. Therefore, in step S161, it is determined whether or not any of the collective state 1, collective state 5, and collective state 9 is obtained. If “NO”, the collective state at that time is the collective state 1 (only one “cluster cluster” exists), and the processor 62 of the robot 10 continues to check the eye in the same manner as described above in step S163. The camera 60 is controlled to perform sensing for the position of the “cluster cluster”.

ステップS161で“YES”の判断をしたときには、そのときの集団状態は、集団状態5か集団状態9のいずれかであり、続くステップS165でロボット10のプロセサ62は、それぞれの「かたまりクラスタ」とオブジェクト(ロボット10)との距離が一定化どうか、つまり、集団状態5かどうか判断する。集団状態5であるとき、ロボット10のプロセサ62は、集団状態データに含まれるクラスタデータを参照して、ステップS167で、2つの「かたまりクラスタ」のうちどちらか人数の多い「かたまりクラスタ」に対してセンシングを行う。   When “YES” is determined in step S161, the collective state at that time is either the collective state 5 or the collective state 9, and in subsequent step S165, the processor 62 of the robot 10 refers to each “cluster cluster”. It is determined whether the distance to the object (robot 10) is constant, that is, whether the collective state 5 or not. When the state is the collective state 5, the processor 62 of the robot 10 refers to the cluster data included in the collective state data, and in step S167, the “cluster cluster” with the larger number of the two “cluster clusters” is selected. Sensing.

ただし、ステップS165で“NO”の判断をしたとき、つまり、集団状態が「9」のときには、ステップS169で、コンピュータ14は、集団状態データに含まれるクラスタ位置データに基づいて、ロボット10に近いほうの「かたまりクラスタ」をセンシングする。   However, when “NO” is determined in step S165, that is, when the collective state is “9”, in step S169, the computer 14 is close to the robot 10 based on the cluster position data included in the collective state data. Sensing the “cluster of clusters”.

この実施例によれば、コンピュータ14で集団状態を正しく推定できるので、ロボット10はそのときの集団状態に適合したアクティブセンシングを適正に行うことができる。   According to this embodiment, since the collective state can be correctly estimated by the computer 14, the robot 10 can appropriately perform active sensing adapted to the collective state at that time.

なお、上述の実施例ではコンピュータ14が集団状態を推定し、その集団状態推定動作によって得られた集団状態データをコンピュータ14からロボット10に転送し、ロボット10がその集団状態に応じたアクティブセンシングを行うものとして説明した。しかしながら、コンピュータ14はロボット10に単に床センサ18の反応点データ(座標データ)を送るだけで、ロボット10自身がその座標データを用いて上で説明したアルゴリズムに従って集団状態を推定し、その上でアクティブセンシングをするようにしてもよいことは勿論である。   In the above-described embodiment, the computer 14 estimates the collective state, transfers collective state data obtained by the collective state estimation operation from the computer 14 to the robot 10, and the robot 10 performs active sensing according to the collective state. Described as what to do. However, the computer 14 simply sends the reaction point data (coordinate data) of the floor sensor 18 to the robot 10, and the robot 10 itself uses the coordinate data to estimate the collective state according to the algorithm described above. Of course, active sensing may be performed.

逆に、ロボット10によってではなく、コンピュータ14あるいは他の手段や装置で、推定した集団状態に応じたアクティブセンシングを実行することもできる。   Conversely, the active sensing according to the estimated collective state can be executed not by the robot 10 but by the computer 14 or other means or apparatus.

また、アクティブセンシングの手法も、カメラを向けるだけでなく、カメラの解像度を変化させる方法、あるいはその方向に音声マイクを向けて音声を高感度で取得するなど任意の方法が考えられる。   As an active sensing method, not only the camera is pointed but also any method such as a method of changing the resolution of the camera or a voice microphone pointing in that direction to acquire sound with high sensitivity can be considered.

上述の実施例ではロボット10を取り巻く人間の集団状態を集団状態1‐12のいずれであるか推定するようにした。しかしながら、図16‐18に示すこの発明の他の実施例に従って、分類すべき集団状態をたとえば、「整然とした」状態または「雑然とした」状態の2種類だけとし、それによって種々の制御、たとえば、集団注意制御などに適用することも考えられる。ただし、「整然とした」状態とは、人々がロボットを中心にして集まり、かつ多くの人間にロボットが情報提供を行うのに適した状態をいい、「雑然とした」状態とは、人間がロボットを中心に集まっていない状態やロボットが人々に対して情報提供を行う上で適していない状態のことである。   In the above-described embodiment, the collective state of the humans surrounding the robot 10 is estimated as the collective state 1-12. However, according to another embodiment of the invention shown in FIGS. 16-18, there are only two types of group states to be classified, for example, “ordered” state or “cluttered” state, thereby allowing various controls, such as It can also be applied to group attention control. However, the “orderly” state is a state where people gather around the robot and the robot is suitable for providing information to many humans. The “cluttered” state is a state where humans are robots. It is a state where the robot is not gathered around the center and a state where the robot is not suitable for providing information to people.

2分類の実施例においても、基本的には、システムは図1に示す構成をとり、図3および図4に示すロボット10を用い、図2に示すように配置した多数の床センサを用いてロボットや人間の位置情報を取得する。そして、上述の方法と同様の方法でクラスタリングを行い、それによって種々の特徴量を求め、その特徴量をたとえば、SVM(Support Vector Machine)(Christianini, J., Shawe-Tylor, J.著(大北剛訳)「サポートベクターマシン入門」、共立出版2005)のような2状態分類器で上記2つの状態に分類する。ただし、この実施例では、SVMはコンピュータ14が持っているものとし、ロボット10はコンピュータ14が判別した2状態のデータを受け取り、集団注意制御などのように種々のサービスを人間に対して提供する。   Also in the two classification examples, the system basically has the configuration shown in FIG. 1, uses the robot 10 shown in FIGS. 3 and 4, and uses a large number of floor sensors arranged as shown in FIG. Get robot and human position information. Then, clustering is performed by the same method as described above, thereby obtaining various feature amounts, and the feature amounts are calculated by, for example, SVM (Support Vector Machine) (Christianini, J., Shawe-Tylor, J. (Large (Takeshi Kita) “Introduction to Support Vector Machine”, Kyoritsu Shuppan 2005) classifies the above two states. However, in this embodiment, the SVM is assumed to be possessed by the computer 14, and the robot 10 receives the two-state data determined by the computer 14 and provides various services such as group attention control to humans. .

図16を参照して、最初のステップS171でオペレータによる停止命令を検出しなければ、コンピュータ14は、続くステップS173において、ロボット10の位置情報を用いて床センサからロボット10の反応を消去する。これは床センサ18の反応点がロボットのものか人間のものかを混同しないようにするための工夫であるが、先の実施例と同様に、このステップを省略してもよい。   Referring to FIG. 16, if a stop command by the operator is not detected in the first step S171, the computer 14 deletes the reaction of the robot 10 from the floor sensor using the position information of the robot 10 in the subsequent step S173. This is a device for avoiding confusion as to whether the reaction point of the floor sensor 18 is a robot or a human, but this step may be omitted as in the previous embodiment.

次のステップS175で、コンピュータ14は、先に図8を参照して詳細に説明したと同じ手法を用いて床センサに対する反応点をクラスタリングする。ただし、説明は繰り返さない。   In the next step S175, the computer 14 clusters the reaction points for the floor sensor using the same method as previously described in detail with reference to FIG. However, the description will not be repeated.

続くステップS177で、コンピュータ14は、床センサの反応点数の割合FNを(9)式に従って、計算する。
[数9]
FN=m/n …(9)
ただし、nは床センサの総数(図2)であり、mは反応している点数である。
In subsequent step S177, the computer 14 calculates the ratio FN of the number of reaction points of the floor sensor according to the equation (9).
[Equation 9]
FN = m / n (9)
Here, n is the total number of floor sensors (FIG. 2), and m is the number of points reacting.

続くステップS179でコンピュータ14は、各クラスタC1-Ccを構成する反応点(要素)とロボット10との間の距離平均μi(i=1,…,c)を計算する。ただし、cはクラスタ数である。   In subsequent step S179, the computer 14 calculates a distance average μi (i = 1,..., C) between the reaction points (elements) constituting the clusters C1-Cc and the robot 10. Where c is the number of clusters.

ロボット10に対して集団が扇状に並んでいるときの模式図である図17に示す、クラスタAに属する反応点数をl(エル)としたとき、クラスタAに属する反応点をA1,…,Alとする。それぞれの反応点は先に説明したようにx-y座標で表される。反応点の座標をA1x,A1y,…,Alx,Alyとし、ロボット10の座標をRx,Ryとすると、ロボット10と反応点A1との距離Dist(A1)は(10)式で与えられる。   17 is a schematic diagram when a group is arranged in a fan shape with respect to the robot 10, and when the number of reaction points belonging to the cluster A is 1 (el), the reaction points belonging to the cluster A are A1,. And Each reaction point is expressed in xy coordinates as described above. When the coordinates of the reaction points are A1x, A1y,..., Alx, Aly, and the coordinates of the robot 10 are Rx, Ry, the distance Dist (A1) between the robot 10 and the reaction point A1 is given by the equation (10).

Figure 2008225852
Figure 2008225852

そして、クラスタAとロボット10との距離平均μAは、(11)式で算出できる。   Then, the distance average μA between the cluster A and the robot 10 can be calculated by the equation (11).

Figure 2008225852
Figure 2008225852

次のステップS181で、コンピュータ14は、ステップS179で求めた距離平均の標準偏差σi(i=1,…,l)を、(12)式に従って計算する。つまり、クラスタAとロボットとの距離平均の標準偏差σAは(12)式で計算できる。   In the next step S181, the computer 14 calculates the standard deviation σi (i = 1,..., L) of the distance average obtained in step S179 according to the equation (12). That is, the standard deviation σA of the average distance between the cluster A and the robot can be calculated by the equation (12).

Figure 2008225852
Figure 2008225852

ついで、コンピュータ14は、ステップS183で、各クラスタの重心を計算する。ただし、前述のように重心データがクラスタデータに含まれている場合には、このステップS183を省略できる。クラスタAの重心を図17に示す。クラスタAの重心G(CA)は(13)式を使って計算される。   Next, in step S183, the computer 14 calculates the center of gravity of each cluster. However, this step S183 can be omitted when the centroid data is included in the cluster data as described above. The center of gravity of cluster A is shown in FIG. The center of gravity G (CA) of cluster A is calculated using equation (13).

Figure 2008225852
Figure 2008225852

さらにコンピュータ14は、ステップS185で、ロボット10の正面方向と各クラスタの重心との角度θi(i=1,…,l)を計算する。角度θA(図17)は(14)式で与えられる直線の角度となる。   Further, in step S185, the computer 14 calculates an angle θi (i = 1,..., L) between the front direction of the robot 10 and the center of gravity of each cluster. The angle θA (FIG. 17) is a straight angle given by the equation (14).

Figure 2008225852
Figure 2008225852

床センサの総反応点数mおよびクラスタ数C、ならびに上述の各ステップで計算したFN、距離平均μi、それの標準偏差σi、クラスタの重心Giおよび角度θiなどのすべてのデータは、そのつど、コンピュータ14のデータメモリ15b(図1)に特徴量を示すデータとして記憶され保持される。   All data such as the total number of reaction points m and the number of clusters C of the floor sensor, and the FN, distance average μi, standard deviation σi thereof, center of gravity Gi and angle θi of the clusters calculated in the above-mentioned steps are calculated each time. 14 data memory 15b (FIG. 1) is stored and held as data indicating the feature amount.

したがって、図18のステップS191では、データメモリ15bからこれらのデータを取得することで、実行される。つまり、この実施例でSVMを用いて2分類判別モデルを作成するために、床センサの総反応点数m、クラスタ数C、クラスタを構成する反応点とロボットとの距離平均μi、それの標準偏差σi、クラスタの重心Gとロボット正面との角度θiの各特徴量を教師データとして用いる。距離平均、標準偏差、角度に関しては反応点が多い上位3つのクラスタに対してそれぞれ求めたため、特徴量は、計11個(=1+1+(3×3))である。   Therefore, in step S191 in FIG. 18, the data is acquired from the data memory 15b. That is, in order to create a 2-class discriminant model using SVM in this embodiment, the total number of reaction points m of the floor sensor, the number of clusters C, the distance average μi between the reaction points constituting the cluster and the robot, and the standard deviation thereof Each feature quantity of σi and an angle θi between the center of gravity G of the cluster and the robot front is used as teacher data. Since the distance average, the standard deviation, and the angle are obtained for the top three clusters having many reaction points, the feature amount is 11 in total (= 1 + 1 + (3 × 3)).

図17において、クラスタAを構成する反応点数l(エル)、1個目の反応点A1とロボットとの距離をDist(A1)とするとき、ロボットとクラスタAを構成するすべての反応点との距離平均μAは上述の(11)式で表される。そして、ロボットとクラスタAのすべての反応点との距離平均の標準偏差σAは、上述の(12)式で表される。ロボットの正面方向とクラスタAの重心との角度θAは図17に示すとおりである。   In FIG. 17, when the distance between the first reaction point A1 and the robot is Dist (A1), the number of reaction points l (el) constituting the cluster A is Dist (A1). The distance average μA is expressed by the above equation (11). The standard deviation σA of the distance average between the robot and all the reaction points of the cluster A is expressed by the above equation (12). The angle θA between the front direction of the robot and the center of gravity of cluster A is as shown in FIG.

床センサの総反応点数とクラスタ数は、ロボットの周辺にどれだけ人間や集団が存在しているかを表していて、距離平均μ、標準偏差、角度θは、集団がロボットに対してどのような形になっており、またどのような位置関係にあるかを表している。これらの特徴量を教師データとして用いることで、2分類判別モデルを作成し、他の実施例での集団状態推定を行う。   The total number of reaction points and the number of clusters of the floor sensor indicate how many people and groups exist around the robot. The distance average μ, standard deviation, and angle θ It has a shape and represents the positional relationship. By using these feature quantities as teacher data, a two-class discrimination model is created, and collective state estimation is performed in other embodiments.

発明者等の実験では、駅の構内に床センサを敷設し、その上にたとえば、図3に示すようなRobovie(商品名)のようなコミュニケーションロボットを置き、駅の利用者がロボットと自由に相互作用を行えるようにしておいた。   In the experiments by the inventors, a floor sensor is laid on the premises of a station, and a communication robot such as Robovie (product name) as shown in FIG. 3 is placed on the floor sensor. The interaction was made possible.

ロボットの周囲に存在する人々の集団状態を評定する者に対して映像を提示するために、6台のカメラでこの実験の様子を録画し、その映像、ロボットの位置、角度、床センサの出力などはすべてデータベース16(図1)に保存した。   In order to present a video to a person who evaluates the collective state of people around the robot, the video of this experiment was recorded with six cameras, and the video, robot position, angle, and floor sensor output were recorded. Etc. were all stored in the database 16 (FIG. 1).

実験では、ロボットの周囲に複数の人間が集まる状況が多数観察された。それらの状況の中には、人々がロボットの周囲に扇状に並ぶ場面や、人々が縦列に並ぶ場面が混在していた。   In the experiment, many situations where multiple people gathered around the robot were observed. In those situations, there were mixed scenes where people lined up around the robot and people lined up in tandem.

このような実験で取得したデータから、教師データを作成した。まず、録画した映像を観察し、ロボットと相互作用している人間が2秒以上静止している場面の切り出しを行った。切り出した177場面の映像を2人の評定者に提示し、「整然とした」か「雑然とした」のどちらかの状態に分類させた。評定者らには「整然とした」状態がロボットが情報提供を行う上で望ましい状態であることを予め伝えておいた。   Teacher data was created from the data obtained in such experiments. First, the recorded video was observed, and the scene where the person interacting with the robot was stationary for 2 seconds or more was cut out. The video of the 177 scenes cut out was presented to two evaluators and classified into either “orderly” or “cluttered” state. The graders were informed in advance that the “ordered” state was desirable for the robot to provide information.

2人の評定者の判断の一致度合いを測る尺度としてκ統計量を用いた。κ統計量は、一般に、2人の評定者間の一致度を測る尺度として用いられ、κ=0.40であれば中程度の、κ=0.60であればかなりの一致を示すとされている。実験を通じて算出したκ統計量は0.49であった。   The κ statistic was used as a measure for measuring the degree of agreement between the two raters. The κ statistic is generally used as a measure of the degree of agreement between two raters, and is said to be moderate if κ = 0.40 and fairly consistent if κ = 0.60. ing. The κ statistic calculated through the experiment was 0.49.

評定者間で意見が異なった場面数は44であった。また、意見が一致した場面の中から特徴量を計算するに必要な床センサ出力が欠落していたものを省くと、「整然とした」状態の数が36、「雑然とした」状態の数が72であった。そのうち実験の1週目で獲得した18の「整然とした」状態と36の「雑然とした」状態とを教師データの作成に利用した。   There were 44 scenes with different opinions among the graders. If the floor sensor output that is necessary to calculate the feature value is omitted from the scenes that agree, the number of “ordered” states is 36, and the number of “cluttered” states is 72. Among them, 18 “ordered” states and 36 “cluttered” states acquired in the first week of the experiment were used to create teacher data.

教師データの作成には、上述の特徴量を用いるが、「雑然とした」状態の教師データ作成には、各場面における1秒分の床センサ出力を利用して特徴量を計算した。「整然とした」状態は「雑然とした」状態の半分(36に対する18)であることから、データ数を等しくするために、各場面における2秒分の床センサ出力を利用して特徴量を計算した。   The above-described feature amount is used for creating the teacher data, but the feature amount is calculated by using the floor sensor output for one second in each scene for creating the teacher data in the “cluttered” state. Since the “ordered” state is half of the “cluttered” state (18 against 36), the feature quantity is calculated using the floor sensor output for 2 seconds in each scene in order to equalize the number of data. did.

また、床センサの出力をx軸方向、y軸方向、x-y軸方向にそれぞれ反転させることで、ダミーデータを作成した。これらの手順を経て、実験で用いた最終的な教師データの数は各状態ともに720となった。   In addition, dummy data was created by inverting the output of the floor sensor in the x-axis direction, y-axis direction, and xy-axis direction, respectively. Through these procedures, the final number of teacher data used in the experiment was 720 in each state.

判別モデルの性能を検証するためのテストデータには、実験の2週目で取得した計54データを用い、それらのデータに対して教師データ作成時と同様に、ダミーデータを作成することで、最終的なテストデータは各状態とも720になった。   As test data for verifying the performance of the discriminant model, a total of 54 data acquired in the second week of the experiment is used, and dummy data is created for these data in the same manner as when the teacher data is created, The final test data was 720 in each state.

SVMを用いて2状態判別モデルを作成するためのライブラリとして、LIBSVM(Chang, C,C., and Lin,C,J., “LIBSVM: Introduction and Benchmarks,” http://www.csie.ntu.edu.tw/cjlin/libsvm)を用いた。このライブラリは各種パラメータを変えることによって、判別モデルの性能を変化させることができる。そこで実験では、γ、Cost、Weightの3パラメータを表2に示す範囲内でそれぞれ変化させ、教師データに対する集団状態推定精度が平均で90%程度に収まるものを判別モデルとして採用した。判別率が100%になるパラメータも設定可能であるが、過学習による汎化性能の低下を防ぐために、そのモデルは利用しないこととした。   As a library for creating a two-state discrimination model using SVM, LIBSVM (Chang, C, C., and Lin, C, J., “LIBSVM: Introduction and Benchmarks,” http: //www.csie.ntu .Edu.tw / cjlin / libsvm). This library can change the performance of the discriminant model by changing various parameters. Therefore, in the experiment, the three parameters of γ, Cost, and Weight were changed within the range shown in Table 2, and the one in which the collective state estimation accuracy for the teacher data was about 90% on average was adopted as the discrimination model. Although a parameter with a discrimination rate of 100% can be set, the model is not used in order to prevent a decrease in generalization performance due to overlearning.

Figure 2008225852
Figure 2008225852

上述のようにして設計した2状態判別モデルによって教師データを判別した結果、「整然とした」状態を87.9%、「雑然とした」状態を93.2%の精度で推定することができた。この判別モデルのパラメータは、γ=2、Cost=100、Weight=2であった。   As a result of discriminating teacher data using the two-state discrimination model designed as described above, it was possible to estimate the “ordered” state with an accuracy of 87.9% and the “cluttered” state with an accuracy of 93.2%. . The parameters of this discrimination model were γ = 2, Cost = 100, and Weight = 2.

このような手順で作成したモデルによる教師データとテストデータの推定制度は、テストデータでは「整然とした」状態を84.6%、「雑然とした」状態を76.3%の精度で推定できた。   The estimation system for teacher data and test data based on the model created in such a procedure was able to estimate the “ordered” state with an accuracy of 84.6% and the “cluttered” state with an accuracy of 76.3%. .

このようにして、図18のステップS193で、上述の2分類判別モデルを用いてそのときの特徴量から、「整然とした」状態か「雑然とした」状態か判別できる。そして、このような判別結果(集団状態データ)をコンピュータ14からロボット10に送信する。   In this way, in step S193 of FIG. 18, it is possible to determine whether the state is “orderly” or “cluttered” from the feature amount at that time using the above-described two-classification determination model. Then, such a determination result (group state data) is transmitted from the computer 14 to the robot 10.

そして、そのような集団状態データを受信したロボット10は、そのときの集団状態に応じて、たとえば集団注意制御の仕方など、その振る舞いを変更することができ、より円滑な集団との相互作用を実現できる。なお、集団注意制御の具体的な方法は任意で、ロボット10が音声やジェスチャで行なう場合の他、コンピュータ14や他の手段もしくは装置が他の媒体を用いて行なう場合も考えられる。また、同様に、このように推定した2つの状態に応じて、たとえばロボット10、コンピュータ14などによって上述のようなアクティブセンシングを施すことができる。   Then, the robot 10 that has received such group status data can change its behavior, such as the method of group attention control, according to the group status at that time, thereby enabling smoother interaction with the group. realizable. The specific method of the group attention control is arbitrary, and the case where the computer 10 or other means or device uses other media is also conceivable in addition to the case where the robot 10 performs it by voice or gesture. Similarly, according to the two states estimated in this way, the active sensing as described above can be performed by the robot 10, the computer 14, or the like, for example.

なお、上述の実施例ではいずれも、オブジェクトやその周囲の人間の位置データを取得するために床センサを用いた。床センサはオクルージョンや環境光の変化などの外乱による影響を受けないので安定した動作が期待できる点で優位であるが、その他に、部屋101の天井に設けた天井カメラで撮影した画像データからロボットや人間の位置を特定するようにしてもよく、パッシブタグを各人が持ち、部屋101内に分布して受信機を配置することによっても(あるいはその逆でも)、人間の位置を検出することができる。   In any of the above-described embodiments, the floor sensor is used to acquire the position data of the object and the surrounding human. Since the floor sensor is not affected by disturbances such as occlusion and changes in ambient light, it is advantageous in that stable operation can be expected. In addition, a robot is obtained from image data captured by a ceiling camera provided on the ceiling of the room 101. The position of a person or a person may be specified. Each person has a passive tag, and the person's position is detected by arranging receivers distributed in the room 101 (or vice versa). Can do.

さらに、実施例ではオブジェクトがコミュニケーションロボット10である場合について説明した。しかしながら、オブジェクトとしては、他に、たとえば博物館などでの展示物など、人間と同一平空間にありかつ人間の集団がその周囲に存在する可能性のある、任意の物、人などが考えられる。   Furthermore, in the embodiment, the case where the object is the communication robot 10 has been described. However, other objects, such as an exhibition in a museum or the like, may be any object or person that is in the same plane space as a person and in which a group of people may exist around the object.

図1はこの発明の集団状態認識システムの一実施例を示す図解図である。FIG. 1 is an illustrative view showing one embodiment of a collective state recognition system of the present invention. 図2は図1の実施例が適用される閉空間(部屋)とそれの床に敷設した床センサ(S1,…,Sn)を示す図解図である。FIG. 2 is an illustrative view showing a closed space (room) to which the embodiment of FIG. 1 is applied and floor sensors (S1,..., Sn) laid on the floor thereof. 図3は図1の実施例に含まれるコミュニケーションロボットの外観を正面から見た図解図である。FIG. 3 is an illustrative view showing the appearance of the communication robot included in the embodiment of FIG. 1 from the front. 図4は図1に示すコミュニケーションロボットの電気的な構成を示すブロック図である。FIG. 4 is a block diagram showing an electrical configuration of the communication robot shown in FIG. 図5は図1の実施例のコンピュータ14における集団状態推定動作を示すフロー図である。FIG. 5 is a flowchart showing the collective state estimation operation in the computer 14 of the embodiment of FIG. 図6は図5におけるステップS5(反応点のx-y変換)の動作を詳細に示すフロー図である。FIG. 6 is a flowchart showing in detail the operation of step S5 (xy conversion of reaction points) in FIG. 図7は図5におけるステップS7(集団状態推定)の動作の一部を詳細に示すフロー図である。FIG. 7 is a flowchart showing in detail a part of the operation of step S7 (collection state estimation) in FIG. 図8は図7におけるステップS35(クラスタリング)の動作を詳細に示すフロー図である。FIG. 8 is a flowchart showing in detail the operation of step S35 (clustering) in FIG. 図9はクラスタリングの際のクラスタ間距離を示す図解図である。FIG. 9 is an illustrative view showing a distance between clusters at the time of clustering. 図10は図7におけるステップS37(クラスタ分類)の動作を詳細に示すフロー図である。FIG. 10 is a flowchart showing in detail the operation of step S37 (cluster classification) in FIG. 図11は図5におけるステップS7(集団状態推定)の最後の動作を詳細に示すフロー図である。FIG. 11 is a flowchart showing in detail the final operation of step S7 (collection state estimation) in FIG. 図12は図11において「はぐれクラスタ」が「+近はぐれ」、「+遠はぐれ」、「+はぐれ」のいずれに該当するかを決定する動作を示すフロー図である。FIG. 12 is a flowchart showing an operation of determining whether “stray cluster” in FIG. 11 corresponds to “+ near stray”, “+ far stray”, or “+ stray”. 図13は図11に示す集団状態推定プログラムによって推定した状態と「かたまりクラスタ」や「はぐれクラスタ」の関係を示す図解図である。FIG. 13 is an illustrative view showing a relationship between a state estimated by the collective state estimation program shown in FIG. 11 and a “cluster cluster” or “staggered cluster”. 図14はコンピュータ14から集団状態データを受信したロボット10が実行する集団注意制御の動作の一例を示すフロー図である。FIG. 14 is a flowchart showing an example of the group attention control operation executed by the robot 10 that has received the group state data from the computer 14. 図15はコンピュータ14から集団状態データを受信したロボット10が実行するアクティブセンシングの動作の一例を示すフロー図である。FIG. 15 is a flowchart showing an example of the active sensing operation performed by the robot 10 that has received the collective state data from the computer 14. 図16はこの発明の他の実施例においてコンピュータ14が特徴量を計算するときの動作の一例を示すフロー図である。FIG. 16 is a flowchart showing an example of the operation when the computer 14 calculates the feature amount in another embodiment of the present invention. 図17はクラスタの重心とロボットの正面方向との角度を図解する図解図である。FIG. 17 is an illustrative view illustrating the angle between the center of gravity of the cluster and the front direction of the robot. 図18は図16で取得した特徴量を2状態判別モデルで判別するときの動作を示すフロー図である。FIG. 18 is a flowchart showing an operation when the feature quantity acquired in FIG. 16 is discriminated by the two-state discrimination model.

符号の説明Explanation of symbols

100 …集団状態推定システム
101 …部屋(閉空間)
10 …コミュニケーションロボット
14,62 …コンピュータ
15a,66a …プログラムメモリ
15b,66b データメモリ
18 …床センサ
100 ... Group state estimation system 101 ... Room (closed space)
DESCRIPTION OF SYMBOLS 10 ... Communication robot 14, 62 ... Computer 15a, 66a ... Program memory 15b, 66b Data memory 18 ... Floor sensor

Claims (7)

オブジェクトと同一閉空間に存在する複数の人間の集団状態を推定する集団状態推定システムであって、
前記複数の人間のそれぞれの位置を検出して位置データを獲得する位置検出手段、
前記位置データに従ってクラスタリングして複数のクラスタに区画するクラスタリング手段、
前記複数のクラスタのそれぞれに含まれる人間の数に応じて各クラスタを第1クラスタと第2クラスタとに分類する分類手段、および
前記第1クラスタおよび前記第2クラスタの存在と前記オブジェクトとの位置関係とに基づいて集団状態を推定し、集団状態データを出力する集団状態推定手段を備える、集団状態推定システム。
A collective state estimation system for estimating a collective state of a plurality of humans existing in the same closed space as an object,
Position detecting means for detecting position of each of the plurality of humans and acquiring position data;
Clustering means for clustering according to the position data and dividing into a plurality of clusters,
Classification means for classifying each cluster into a first cluster and a second cluster according to the number of people included in each of the plurality of clusters, and the presence of the first cluster and the second cluster and the position of the object A collective state estimation system comprising collective state estimation means for estimating collective state based on the relationship and outputting collective state data.
前記集団状態推定手段は、前記第1クラスタおよび前記第2クラスタの数とそれらと前記オブジェクトとの間の距離に基づいて集団状態を推定する、請求項1記載の集団状態推定システム。   The collective state estimation system according to claim 1, wherein the collective state estimation unit estimates a collective state based on the number of the first cluster and the second cluster and a distance between them and the object. オブジェクトと同一閉空間に存在する複数の人間の集団状態を認識する集団状態認識システムであって、
前記複数の人間のそれぞれの位置を検出して位置データを獲得する位置検出手段、
前記位置データに従ってクラスタリングして複数のクラスタに区画するクラスタリング手段、および
前記複数のクラスタの特徴量に基づいて、集団状態が整然とした状態であるか雑然とした状態であるかを判別する判別手段を備える、集団状態推定システム。
A collective state recognition system for recognizing a collective state of a plurality of humans existing in the same closed space as an object,
Position detecting means for detecting position of each of the plurality of humans and acquiring position data;
Clustering means for performing clustering according to the position data and partitioning into a plurality of clusters, and determination means for determining whether the collective state is in an orderly state or a cluttered state based on the feature amounts of the plurality of clusters. A collective state estimation system.
請求項1ないし3のいずれかに記載の集団状態推定システムを用いて集団状態を推定し、
その集団状態に応じて集団注意制御を実行する集団注意制御手段を備える、集団注意制御システム。
A population state is estimated using the population state estimation system according to any one of claims 1 to 3,
A group attention control system comprising group attention control means for executing group attention control according to the group state.
前記集団注意制御手段はコミュニケーションロボットを含み、前記コミュニケーションロボットは、前記集団状態の推定結果を受け取り、その集団状態に適合した集団注意制御を実行する、請求項4記載の集団注意制御システム。   The group attention control system according to claim 4, wherein the group attention control means includes a communication robot, and the communication robot receives the estimation result of the group state and executes group attention control adapted to the group state. 請求項1ないし3のいずれかに記載の集団状態推定システムを用いて集団状態を推定し、
その集団状態に応じてアクティブセンシングを実行するアクティブセンシング手段を備える、アクティブセンシングシステム。
A population state is estimated using the population state estimation system according to any one of claims 1 to 3,
An active sensing system comprising active sensing means for performing active sensing according to the collective state.
前記アクティブセンシング手段はコミュニケーションロボットを含み、前記コミュニケーションロボットは、前記集団状態の推定結果を受け取り、その集団状態に適合したアクティブセンシングを実行する、請求項7記載のアクティブセンシングシステム。   The active sensing system according to claim 7, wherein the active sensing unit includes a communication robot, and the communication robot receives an estimation result of the collective state and performs active sensing adapted to the collective state.
JP2007063356A 2007-03-13 2007-03-13 Group state estimation system, group attention control system, and active sensing system Active JP5076081B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007063356A JP5076081B2 (en) 2007-03-13 2007-03-13 Group state estimation system, group attention control system, and active sensing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007063356A JP5076081B2 (en) 2007-03-13 2007-03-13 Group state estimation system, group attention control system, and active sensing system

Publications (2)

Publication Number Publication Date
JP2008225852A true JP2008225852A (en) 2008-09-25
JP5076081B2 JP5076081B2 (en) 2012-11-21

Family

ID=39844400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007063356A Active JP5076081B2 (en) 2007-03-13 2007-03-13 Group state estimation system, group attention control system, and active sensing system

Country Status (1)

Country Link
JP (1) JP5076081B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170811A (en) * 2010-02-22 2011-09-01 Nippon Telegr & Teleph Corp <Ntt> Staying place estimating device, method and program
JP2013232243A (en) * 2013-08-21 2013-11-14 Advanced Telecommunication Research Institute International Group behavior estimation device
WO2015025599A1 (en) * 2013-08-21 2015-02-26 シャープ株式会社 Autonomous mobile body

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06160507A (en) * 1992-09-24 1994-06-07 Matsushita Electric Ind Co Ltd Personnel existence state judging device
JPH08161292A (en) * 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd Method and system for detecting congestion degree
JPH10260485A (en) * 1997-03-19 1998-09-29 Atr Chinou Eizo Tsushin Kenkyusho:Kk Stereoscopic video display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06160507A (en) * 1992-09-24 1994-06-07 Matsushita Electric Ind Co Ltd Personnel existence state judging device
JPH08161292A (en) * 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd Method and system for detecting congestion degree
JPH10260485A (en) * 1997-03-19 1998-09-29 Atr Chinou Eizo Tsushin Kenkyusho:Kk Stereoscopic video display device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170811A (en) * 2010-02-22 2011-09-01 Nippon Telegr & Teleph Corp <Ntt> Staying place estimating device, method and program
JP2013232243A (en) * 2013-08-21 2013-11-14 Advanced Telecommunication Research Institute International Group behavior estimation device
WO2015025599A1 (en) * 2013-08-21 2015-02-26 シャープ株式会社 Autonomous mobile body
JP2015041203A (en) * 2013-08-21 2015-03-02 シャープ株式会社 Autonomous moving body
CN105247431A (en) * 2013-08-21 2016-01-13 夏普株式会社 Autonomous mobile body
CN105247431B (en) * 2013-08-21 2017-09-19 夏普株式会社 Autonomous body
US9804598B2 (en) 2013-08-21 2017-10-31 Sharp Kabushiki Kaisha Autonomous mobile body

Also Published As

Publication number Publication date
JP5076081B2 (en) 2012-11-21

Similar Documents

Publication Publication Date Title
US11914792B2 (en) Systems and methods of tracking moving hands and recognizing gestural interactions
US11126257B2 (en) System and method for detecting human gaze and gesture in unconstrained environments
CN110232433B (en) Method and system for generating instructions for robotic system to perform tasks
CA2822980C (en) Mobile robot system
JP6927938B2 (en) Robot system incorporating cloud service system
CA2928262C (en) Mobile robot system
KR102582863B1 (en) Electronic device and method for recognizing user gestures based on user intention
JP5318623B2 (en) Remote control device and remote control program
CN110045829B (en) Apparatus and method for event using user interface
CN108572586B (en) Information processing apparatus and information processing system
US20200322178A1 (en) Location determination for device control and configuration
Sun et al. Gesture-based piloting of an aerial robot using monocular vision
EP3115870B1 (en) Monitoring
AU2017201879B2 (en) Mobile robot system
US20210031378A1 (en) Information processor, information processing method, and program
KR20200128486A (en) Artificial intelligence device for determining user&#39;s location and method thereof
JP5076081B2 (en) Group state estimation system, group attention control system, and active sensing system
JP2005202578A (en) Communication device and communication method
WO2021033509A1 (en) Information processing device, information processing method, and program
US20210107156A1 (en) Robot and method of controlling same
JP5391505B2 (en) Area dividing device, area dividing program, area dividing method, and communication robot
WO2019054037A1 (en) Information processing device, information processing method and program
JP2022146417A (en) Control device, robot system, control method, and program
Hashimoto Intelligent interactive spaces-integration of IT and robotics
JP2006263874A (en) Communication robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120710

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120717

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5076081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250