JP3974098B2 - Relationship detection system - Google Patents

Relationship detection system Download PDF

Info

Publication number
JP3974098B2
JP3974098B2 JP2003371474A JP2003371474A JP3974098B2 JP 3974098 B2 JP3974098 B2 JP 3974098B2 JP 2003371474 A JP2003371474 A JP 2003371474A JP 2003371474 A JP2003371474 A JP 2003371474A JP 3974098 B2 JP3974098 B2 JP 3974098B2
Authority
JP
Japan
Prior art keywords
members
relationship
rule
predetermined area
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003371474A
Other languages
Japanese (ja)
Other versions
JP2005131748A (en
Inventor
崇行 神田
浩 石黒
潔 小暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003371474A priority Critical patent/JP3974098B2/en
Publication of JP2005131748A publication Critical patent/JP2005131748A/en
Application granted granted Critical
Publication of JP3974098B2 publication Critical patent/JP3974098B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Description

この発明は関係検知システムおよび接近装置に関し、特にたとえば、複数の構成員を含む組織における各構成員間の関係を検知する関係検知システム、および組織の存在する空間内に設けられて構成員を近付かせるための接近装置に関する。   The present invention relates to a relationship detection system and an approach device, and in particular, for example, a relationship detection system for detecting a relationship between members in an organization including a plurality of members, and a member provided in a space where the organization exists. It is related with the approach device for making it.

従来、組織内の構成員の人間関係を把握する手法として、たとえばモレノ(J.L.Moreno)によって考案されたソシオメトリ(sociometry)がよく知られている。ソシオメトリは、集団内における好き(受容)と嫌い(拒否)とを調査することで、集団内における個人の位置や人間関係等のような組織の構造を測定するものである。具体的には、学校教育における学級内の児童・生徒の人間関係を把握するために適用されることが多い。ソシオメトリックテストと呼ばれる調査では、たとえば「クラス内で好きな人は誰?一緒に遊びたくない人は誰?」や、「席替え時に誰の隣に座りたい?誰の隣には座りたくない?」などの設問がなされ、好きな人および嫌いな人の名前を各人に書かせている。このテストの結果に基づいて、必要に応じてソシオグラムと呼ばれる図やソシオマトリクスと呼ばれる表などを作成することで、たとえば集団内の人気者、孤立児,排斥児など、個々の集団内の位置や友人関係等が明らかになる。たとえば、非特許文献1や非特許文献2には、PCにおいて、ソシオメトリックテストによって得た情報を入力データとしてソシオグラム等を出力するソフトウェアが紹介されている。
“ソシオメトリックスふれん図”、[online]、スズキ教育ソフト株式会社、[平成15年9月17日検索]、インターネット<URL:http://www.suzukisoft.co.jp/products/frends/index.htm> “ソシオメトリックテスト for Windows”、[online]、シーイーエス開発室、[平成15年9月17日検索]、インターネット<URL:http://plaza5.mbn.or.jp/~cesdev/socio.html>
Conventionally, for example, sociometry devised by Moreno (JL Moreno) is well known as a method for grasping the human relationships of members in an organization. Sociometry measures the structure of an organization, such as individual positions and relationships within a group, by investigating likes (acceptance) and dislikes (rejections) within the group. Specifically, it is often applied in order to grasp the relationships between students in the class in school education. In a study called sociometric test, for example, “Who likes in the class? Who does not want to play together?” Or “Who wants to sit next to you when you change seats? Is asked, and the name of the person who likes and dislikes is written to each person. Based on the results of this test, a so-called sociogram or a so-called socio-matrix table is created as necessary, for example, the position within an individual group, such as a popular person, an isolated child, or a rejected child within a group. Friends relations become clear. For example, Non-Patent Document 1 and Non-Patent Document 2 introduce software that outputs a sociogram or the like using information obtained by a sociometric test as input data in a PC.
“Sociometrics Frenzu”, [online], Suzuki Education Software Co., Ltd., [searched September 17, 2003], Internet <URL: http://www.suzukisoft.co.jp/products/frends/index. htm> “Sociometric Test for Windows”, [online], CS Development Office, [searched on September 17, 2003], Internet <URL: http://plaza5.mbn.or.jp/~cesdev/socio.html >

従来では、ソシオメトリックテストで各構成員に直接好き嫌いを答えさせるので、そのあからさまな設問に各構成員は構えてしまってその回答に偽りが含まれるおそれがあった。また、設問の内容や時期等の調査の仕方によっては、人権問題となってしまったり、あるいはその後の人間関係に悪影響を及ぼしたりするおそれが強かった。したがって、正確な情報が得られず、構成員の関係を正確に把握することができないという問題があった。   In the past, each member directly answered the likes and dislikes in the sociometric test, so each member could set up an unclear question, and the answer could include a lie. In addition, depending on the method of surveying the content and timing of the questions, there was a strong risk of becoming a human rights issue or adversely affecting human relationships thereafter. Therefore, there is a problem that accurate information cannot be obtained and the relationship among members cannot be accurately grasped.

それゆえに、この発明の主たる目的は、構成員の関係の正確な把握を可能にする、関係検知システムおよび接近装置を提供することである。   Therefore, a main object of the present invention is to provide a relationship detection system and an access device that enable accurate grasping of member relationships.

請求項1の発明は、複数の構成員を含む組織における構成員間または構成員の特徴によって分類される単位間の関係を検知する関係検知システムであって、所定領域に存在する構成員を識別する識別手段、識別手段による識別に基づいて構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、記録手段によって記録された行動の履歴から抽出される所定領域における共存の仕方と、所定領域における共存の仕方に対応する関係を規定した所定の規則とに基づいて、構成員間または単位間の好き嫌いに関する情報を生成する関係把握手段を備え、所定の規則は、所定領域における構成員の共存の仕方に対応する構成員間の関係を規定した所定の規則であって、構成員同士が同時に滞在する場合当該構成員同士が相互に好意を持っているという規則、一方の構成員の後に他方の構成員が来る場合当該他方の構成員が当該一方の構成員に好意を持っているという規則、一方の構成員が来ると他方の構成員が去る場合当該他方の構成員が当該一方の構成員を嫌っているという規則、或る構成員が来ると他の構成員たちが集まる場合当該他の構成員たちが当該或る構成員に好意を持っているとともに当該或る構成員がリーダー的存在の者であるという規則、或る構成員が来ると他の構成員たちが去っていく場合当該他の構成員たちが当該或る構成員を嫌っているとともに当該或る構成員が嫌われ者的存在の者であるという規則、および、或る構成員が他に誰もいないときに存在する場合当該或る構成員が排他的傾向の者であるという規則の少なくとも1つを含む、関係検知システムである。 The invention according to claim 1 is a relationship detection system for detecting a relationship between members in an organization including a plurality of members or between units classified by member characteristics, and identifies members existing in a predetermined area. Identification means for recording, recording means for recording an action history regarding whether or not a member is present in the predetermined area based on identification by the identification means, coexistence in the predetermined area extracted from the action history recorded by the recording means And a relationship grasping means for generating information on likes and dislikes between members or units based on a method and a predetermined rule that defines a relationship corresponding to a coexistence method in the predetermined region. If the members stay together at the same time, the rules governing the relationship between the members corresponding to the way the members coexist The rule that the other member comes after one member, the rule that the other member favors the one member, and the other member when the other member comes When a member leaves, the rule that the other member dislikes the one member, and when another member comes together, when the other member gathers, the other member becomes the certain member. The rule that a certain member is a leader, and if the other member leaves when a certain member comes, the other member Rules that dislike a member and that the member is a disliked person, and that the member is exclusive if it exists when there is no other member comprising at least one of the rules that tend a person of Seki A detection system.

請求項1の発明では、記録手段は、構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する。所定領域はたとえばこのシステムの近くに設定される。この所定領域に対する構成員の行動は、各構成員の普段どおりの極自然な振る舞いであり、構成員間の関係性が反映されたものとなっている。そして、関係把握手段は、このような振る舞いすなわち行動の履歴から抽出される所定領域における共存の仕方と、所定領域における共存の仕方に対応する関係を規定した所定の規則とに基づいて、構成員間または単位間の好き嫌いに関する情報を生成し、関係を把握する。所定の規則は、構成員同士が同時に滞在する場合当該構成員同士が相互に好意を持っているという規則、一方の構成員の後に他方の構成員が来る場合当該他方の構成員が当該一方の構成員に好意を持っているという規則、一方の構成員が来ると他方の構成員が去る場合当該他方の構成員が当該一方の構成員を嫌っているという規則、或る構成員が来ると他の構成員たちが集まる場合当該他の構成員たちが当該或る構成員に好意を持っているとともに当該或る構成員がリーダー的存在の者であるという規則、或る構成員が来ると他の構成員たちが去っていく場合当該他の構成員たちが当該或る構成員を嫌っているとともに当該或る構成員が嫌われ者的存在の者であるという規則、および、或る構成員が他に誰もいないときに存在する場合当該或る構成員が排他的傾向の者であるという規則の少なくとも1つを含む。つまり、所定領域における他者との共存の仕方には人間関係が反映されているので、たとえば、その共存の仕方をパターン化した行動パターンと、それに対応する人間関係とを予め規定している。したがって、組織における構成員の関係を簡単かつ正確に把握することができる。したがって、請求項1の発明によれば、構成員の普段の関係の反映された極自然な行動を記録することができ、そのような情報に基づいて関係を明らかにすることができるので、組織における構成員の関係を正確に把握することができる。 According to the first aspect of the present invention, the recording means records a history of actions related to whether or not a member exists within a predetermined area. The predetermined area is set near the system, for example. The behavior of the members with respect to the predetermined area is the natural behavior of each member as usual, and the relationship between the members is reflected. Based on such behavior, that is, the coexistence method in the predetermined area extracted from the behavior history and the predetermined rule that defines the relationship corresponding to the coexistence method in the predetermined area, Generate information about likes and dislikes between units or units and understand relationships. The prescribed rule is that if the members stay at the same time, the members are in favor of each other. If the other member comes after one member, the other member Rule that favors a member, if one member arrives and the other member leaves, rule that the other member dislikes the other member, if a member comes When other members gather, the rule that the other members are favored by the certain member and that the certain member is a leader, and when a certain member comes A rule that other members dislike the certain member when the other member leaves, and that the certain member is a disliked person and a certain component If there is no other member Members comprises at least one rule that is a person exclusive tendencies. In other words, since the human relationship is reflected in the way of coexistence with others in the predetermined area, for example, an action pattern in which the coexistence method is patterned and the corresponding human relationship are defined in advance. Therefore, it is possible to easily and accurately grasp the relationship among members in the organization. Therefore, according to the invention of claim 1, it is possible to record extremely natural behaviors reflecting the usual relationships of members, and to clarify the relationship based on such information. It is possible to accurately grasp the relationship among members.

請求項2の発明は、複数の構成員を含む組織における構成員間または構成員の特徴によって分類される単位間の関係を検知する関係検知システムであって、組織の存在する空間内に設けられるかつ構成員をして自発的に近付かせるための接近装置、接近装置の近くの所定領域に存在する構成員を識別する識別手段、識別手段による識別に基づいて構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および記録手段によって記録された行動の履歴から抽出される所定領域における共存の仕方と、所定領域における共存の仕方に対応する関係を規定した所定の規則とに基づいて、構成員間または単位間の好き嫌いに関する情報を生成する関係把握手段を備え、所定の規則は、所定領域における構成員の共存の仕方に対応する構成員間の関係を規定した所定の規則であって、構成員同士が同時に滞在する場合当該構成員同士が相互に好意を持っているという規則、一方の構成員の後に他方の構成員が来る場合当該他方の構成員が当該一方の構成員に好意を持っているという規則、一方の構成員が来ると他方の構成員が去る場合当該他方の構成員が当該一方の構成員を嫌っているという規則、或る構成員が来ると他の構成員たちが集まる場合当該他の構成員たちが当該或る構成員に好意を持っているとともに当該或る構成員がリーダー的存在の者であるという規則、或る構成員が来ると他の構成員たちが去っていく場合当該他の構成員たちが当該或る構成員を嫌っているとともに当該或る構成員が嫌われ者的存在の者であるという規則、および、或る構成員が他に誰もいないときに存在する場合当該或る構成員が排他的傾向の者であるという規則の少なくとも1つを含む、関係検知システムである。 The invention according to claim 2 is a relation detection system for detecting a relation between members in an organization including a plurality of members or between units classified by the characteristics of the members, and is provided in a space where the organization exists. And the approach device for making the member approach spontaneously, the identification means for identifying the member existing in the predetermined area near the access device, the member exists in the predetermined area based on the identification by the identification means Recording means for recording behavior history regarding whether or not, and a coexistence method in a predetermined area extracted from the behavior history recorded by the recording means, and a predetermined rule defining a relationship corresponding to the coexistence method in the predetermined area based on the bets, including the relationship grasping means for generating information regarding likes and dislikes of between between members or units, predetermined rules on how the coexistence members in a predetermined region A predetermined rule that defines the relationship between the responding members, and when the members stay at the same time, the rule that the members have a mutual favor, the other member after one member The rule that the other member is favored by the other member, and if the other member leaves when the other member comes, the other member dislikes the one member Rule that, when a certain member comes and other members come together, the other member is favored by the certain member and the certain member is a leader The rule is that if a member comes and other members leave, the other member dislikes the certain member and the certain member is disliked The rules of being a member of the Nobody said one member when present when no includes at least one rule that is a person exclusive trend, a related detection system.

請求項2の発明では、構成員をして自発的に近付かせるための接近装置が、組織の存在する空間内に設けられる。このような接近装置は、たとえば、一般的に言えば、構成員の興味を引いたり、構成員の注目を集めたり、構成員の注意を引いたり、あるいは、親しみを感じさせたりするようなものであり、実施例では、請求項4に挙げるようにコミュニケーションロボットなどが用いられる。そして、記録手段は、その接近装置の近くの所定領域内に構成員が存在するかどうかに関する行動の履歴を記録する。したがって、記録される構成員の行動は、たとえば、接近装置の近くに来ているかどうかに関するものであり、つまり、たとえば誰と誰とが一緒に来ているといったものである。これは、各構成員の普段どおりの極自然な振る舞いであって、構成員間の関係性が反映されたものとなっている。そして、関係把握手段は、このような行動の履歴から抽出される所定領域における共存の仕方と、所定領域における共存の仕方に対応する関係を規定した所定の規則とに基づいて、構成員間または単位間の好き嫌いに関する情報を生成し、関係を把握する。所定の規則は、構成員同士が同時に滞在する場合当該構成員同士が相互に好意を持っているという規則、一方の構成員の後に他方の構成員が来る場合当該他方の構成員が当該一方の構成員に好意を持っているという規則、一方の構成員が来ると他方の構成員が去る場合当該他方の構成員が当該一方の構成員を嫌っているという規則、或る構成員が来ると他の構成員たちが集まる場合当該他の構成員たちが当該或る構成員に好意を持っているとともに当該或る構成員がリーダー的存在の者であるという規則、或る構成員が来ると他の構成員たちが去っていく場合当該他の構成員たちが当該或る構成員を嫌っているとともに当該或る構成員が嫌われ者的存在の者であるという規則、および、或る構成員が他に誰もいないときに存在する場合当該或る構成員が排他的傾向の者であるという規則の少なくとも1つを含む。つまり、所定領域における他者との共存の仕方には人間関係が反映されているので、たとえば、その共存の仕方をパターン化した行動パターンと、それに対応する人間関係とを予め規定している。したがって、組織における構成員の関係を簡単かつ正確に把握することができる。したがって、請求項2の発明によれば、構成員の普段の関係性の反映された極自然な行動を記録することができ、そのような情報に基づいて関係を明らかにすることができるので、組織における構成員の関係を正確に把握することができる。 In the invention of claim 2, an access device for allowing members to approach spontaneously is provided in the space where the tissue exists. Such access devices are, for example, generally speaking to attract members' attention, attract members' attention, draw members' attention, or make them feel familiar. In the embodiment, a communication robot or the like is used as recited in claim 4. And a recording means records the action | operation log | history regarding whether a member exists in the predetermined area | region near the approach apparatus. Thus, the recorded member behavior is, for example, whether it is near the access device, i.e., who and who are coming together, for example. This is the natural behavior of each member as usual and reflects the relationship between the members. Then, the relationship grasping means is based on a method of coexistence in a predetermined area extracted from such behavior history and a predetermined rule that defines a relationship corresponding to the coexistence method in the predetermined area. Generate information about likes and dislikes between units and grasp relationships. The prescribed rule is that if the members stay at the same time, the members are in favor of each other. If the other member comes after one member, the other member Rule that favors a member, if one member arrives and the other member leaves, rule that the other member dislikes the other member, if a member comes When other members gather, the rule that the other members are favored by the certain member and that the certain member is a leader, and when a certain member comes A rule that other members dislike the certain member when the other member leaves, and that the certain member is a disliked person and a certain component If there is no other member Members comprises at least one rule that is a person exclusive tendencies. In other words, since the human relationship is reflected in the way of coexistence with others in the predetermined area, for example, an action pattern in which the coexistence method is patterned and the corresponding human relationship are defined in advance. Therefore, it is possible to easily and accurately grasp the relationship among members in the organization. Therefore, according to the invention of claim 2, it is possible to record extremely natural behavior reflecting the usual relationships of members, and to clarify the relationship based on such information, It is possible to accurately grasp the relationships among members in the organization.

請求項3の発明は、請求項1または2に従属する関係検知システムであって、識別手段は、所定領域に存在する構成員の識別情報を取得する取得手段を含み、記録手段は、取得手段によって取得された識別情報に基づいて、行動の履歴を記録する。 The invention according to claim 3 is the relationship detection system according to claim 1 or 2, wherein the identification means includes an acquisition means for acquiring identification information of members existing in the predetermined area, and the recording means is the acquisition means. The action history is recorded based on the identification information acquired by.

請求項3の発明では、所定領域に存在する構成員の識別情報が取得手段によって取得され、記録手段は、取得された識別情報に基づいて、行動の履歴を記録する。したがって、構成員の識別情報を取得することによって、各構成員の行動を捕らえて見分けることができ、識別情報によって構成員の行動の履歴を確実に記録することができる。 In the invention of claim 3, the identification information of the members existing in the predetermined area is acquired by the acquisition means, and the recording means records the action history based on the acquired identification information. Therefore, by acquiring member identification information, the behavior of each member can be captured and distinguished, and the behavior history of the member can be reliably recorded by the identification information.

請求項4の発明は、請求項に従属する関係検知システムであって、接近装置は、自律移動するための自律移動手段および所定領域に存在する構成員の識別情報を取得する取得手段を備えるコミュニケーションロボットを含む。 The invention according to claim 4 is the relationship detection system according to claim 2 , wherein the access device includes an autonomous moving means for autonomously moving and an acquiring means for acquiring identification information of members existing in the predetermined area. Includes communication robots.

請求項4の発明では、構成員を近付かせるための接近装置として、自律移動するコミュニケーションロボットが組織の存在する空間内に設けられ、コミュニケーションロボットに設けられる取得手段によって、所定領域に存在する構成員の識別情報が取得される。所定領域は、たとえばコミュニケーションロボットの近くに設定され、したがって、この所定領域に対する構成員の行動は、たとえばコミュニケーションを図るためにコミュニケーションロボットのところにやって来ているかどうかである。このようなコミュニケーションロボットに対する行動は、構成員間の普段の関係性が反映されたものとなっている。つまり、たとえば、普段から好意的関係を有する構成員同士は一緒にコミュニケーションロボットとコミュニケーションを図って遊ぼうとするであろうし、逆に、嫌いな関係にある構成員同士は一緒には遊ぼうとはしないであろう。したがって、コミュニケーションロボットを組織の空間内に配置することによって、構成員の普段どおりの極自然な振る舞いの中に各構成員の関係を浮かび上がらせて記録することができるので、各構成員の関係を正確に把握できる。 In the invention of claim 4, as an approaching device for bringing members closer, a communication robot that moves autonomously is provided in a space where an organization exists, and members existing in a predetermined area by an acquisition means provided in the communication robot. The identification information is acquired. The predetermined area is set, for example, near the communication robot. Therefore, the behavior of the member with respect to the predetermined area is, for example, whether or not the communication robot is coming to communicate. Such behavior with respect to communication robots reflects the usual relationship between the members. In other words, for example, members who normally have a favorable relationship will try to play with the communication robot together, and conversely, members who have a disliked relationship will not play together. Will. Therefore, by placing communication robots in the organization's space, each member's relationship can be highlighted and recorded in the usual natural behavior of the member. Accurately grasp.

請求項5の発明は、請求項3または4に従属する関係検知システムであって、取得手段は、複数の構成員のそれぞれに取り付けられた無線タグからの識別情報を取得する無線タグ読取手段を含む。   The invention according to claim 5 is the relationship detection system according to claim 3 or 4, wherein the acquisition means includes a wireless tag reading means for acquiring identification information from a wireless tag attached to each of a plurality of members. Including.

請求項5の発明では、複数の構成員には識別情報の登録された無線タグがそれぞれ取り付けられ、取得手段は、無線タグからの識別情報を取得する無線タグ読取手段を含む。したがって、請求項5の発明によれば、各構成員に無線タグを装着させるだけで、所定領域に対する行動の履歴を簡単かつ確実に記録することができる。   According to a fifth aspect of the present invention, a plurality of members are each attached with a wireless tag in which identification information is registered, and the acquisition means includes a wireless tag reading means for acquiring identification information from the wireless tag. Therefore, according to the fifth aspect of the present invention, it is possible to easily and reliably record the action history for the predetermined area simply by attaching each member to the wireless tag.

請求項6の発明は、請求項3ないし5のいずれかに従属する関係検知システムであって、取得手段は、複数の構成員のそれぞれに取り付けられた赤外線LEDタグからの識別情報を取得する赤外線検出手段を含む。   A sixth aspect of the present invention is the relationship detection system according to any one of the third to fifth aspects, wherein the obtaining means obtains the identification information from the infrared LED tag attached to each of the plurality of members. Including detection means.

請求項6の発明では、複数の構成員には赤外線LEDタグがそれぞれ取り付けられ、取得手段は、赤外線LEDタグからの識別情報を取得する赤外線検出手段を含む。したがって、請求項6の発明によれば、各構成員に赤外線LEDタグを装着させるだけで、所定領域に対する行動の履歴を簡単かつ確実に記録することができる。   In the invention of claim 6, an infrared LED tag is attached to each of the plurality of members, and the acquisition means includes an infrared detection means for acquiring identification information from the infrared LED tag. Therefore, according to the sixth aspect of the present invention, it is possible to easily and surely record the history of the action on the predetermined area simply by attaching each member to the infrared LED tag.

請求項の発明は、請求項1ないしのいずれかに従属する関係検知システムであって、関係把握手段によって生成された好き嫌いに関する情報に基づいて、構成員間または単位間の関係を表示する表示手段をさらに備える。 The invention according to claim 7 is a relationship detection system according to any one of claims 1 to 6 , and displays a relationship between members or units based on information about likes and dislikes generated by the relationship grasping means. A display means is further provided.

請求項の発明では、表示手段が把握された関係を表示する。したがって、請求項の発明によれば、構成員の関係を明確かつ簡単に把握することができる。 In the invention of claim 7 , the relationship ascertained by the display means is displayed. Therefore, according to the invention of claim 7 , it is possible to clearly and easily grasp the relationship between members.

請求項の発明は、請求項に従属する関係検知システムであって、表示手段は関係をソシオグラムとして表示する。 The invention according to claim 8 is the relationship detection system according to claim 7 , wherein the display means displays the relationship as a sociogram.

請求項の発明では、把握された関係が図に表されたソシオグラムとして表示されるので、組織内の構成員の関係を明確かつ簡単に把握することができる。 In the invention of claim 8 , since the grasped relationship is displayed as a sociogram shown in the figure, the relationship of the members in the organization can be grasped clearly and easily.

請求項の発明は、請求項1ないしのいずれかに従属する関係検知システムであって、関係把握手段によって生成される好き嫌いに関する情報は、構成員間または単位間の好き度もしくは嫌い度、または組織におけるリーダー的存在の者、嫌われ者的存在の者もしくは排他的傾向の者の少なくとも一つを含む。 The invention according to claim 9 is the relationship detection system according to any one of claims 1 to 8 , wherein the information about likes and dislikes generated by the relationship grasping means is a degree of likes or dislikes between members or units, Or at least one of a leader, hated or exclusive in the organization.

請求項の発明では、構成員間または単位間の関係が、たとえば、好き度もしくは嫌い度によって把握され、あるいは、組織におけるリーダー的存在の者、嫌われ者的存在の者もしくは排他的傾向の者など特殊な関係が明らかにされる。したがって、組織における構成員間または単位間の関係を明確にかつ分かり易く把握することができる。 In the invention of claim 9 , the relationship between members or units is grasped by, for example, the degree of likes or dislikes, or the person who is a leader in the organization, the person who is disliked, or of the exclusive tendency A special relationship is revealed. Therefore, it is possible to grasp the relationship between members or units in the organization clearly and easily.

請求項1の発明は、複数の構成員を含む組織における構成員間または構成員の特徴によって分類される単位間の関係を検知するために組織が存在する空間内に設けられかつ構成員をして近付かせるための接近装置であって、所定領域に存在する構成員を識別する識別手段、識別手段による識別に基づいて構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および記録手段によって記録された行動の履歴から抽出される所定領域における共存の仕方と、所定領域における共存の仕方に対応する関係を規定した所定の規則とに基づいて、構成員間または単位間の好き嫌いに関する情報を生成する関係把握手段を備え、所定の規則は、所定領域における構成員の共存の仕方に対応する構成員間の関係を規定した所定の規則であって、構成員同士が同時に滞在する場合当該構成員同士が相互に好意を持っているという規則、一方の構成員の後に他方の構成員が来る場合当該他方の構成員が当該一方の構成員に好意を持っているという規則、一方の構成員が来ると他方の構成員が去る場合当該他方の構成員が当該一方の構成員を嫌っているという規則、或る構成員が来ると他の構成員たちが集まる場合当該他の構成員たちが当該或る構成員に好意を持っているとともに当該或る構成員がリーダー的存在の者であるという規則、或る構成員が来ると他の構成員たちが去っていく場合当該他の構成員たちが当該或る構成員を嫌っているとともに当該或る構成員が嫌われ者的存在の者であるという規則、および、或る構成員が他に誰もいないときに存在する場合当該或る構成員が排他的傾向の者であるという規則の少なくとも1つを含む、接近装置である。 The invention of claim 1 0, a and members provided in the space where the tissue is present in order to detect the relationship between units classified by members or between members of features in tissue comprising a plurality of members An identification device for identifying members existing in a predetermined area, and records an action history regarding whether the members exist in the predetermined area based on identification by the identification means Based on the recording means, and the coexistence method in the predetermined area extracted from the action history recorded by the recording means and the predetermined rule that defines the relationship corresponding to the coexistence method in the predetermined area, A relationship grasping means for generating information about likes and dislikes between units is provided , and the predetermined rule defines a relationship between members corresponding to the way members coexist in a predetermined area. If the members stay at the same time, the rule that the members have a mutual favor, if the other member comes after one member, the other member The rule that one member is favored, the rule that one member dislikes the other member when the other member leaves, the other member dislikes the one member And the other members come together, the rule that the other members are favored by the certain member and that the certain member is a leader, the certain member comes A rule that the other members dislike the certain member and that the certain member is disliked, and that the other member leaves Applicable when there are no other members That members includes at least one rule that is a person exclusive tendency is approaching device.

請求項1の発明では、複数の構成員を含む組織の存在する空間内に設けられて、構成員をして近付かせるための接近装置が、上述の関係検知システムとして機能する。つまり、識別手段は、所定領域に存在する構成員を識別し、記録手段は、構成員が所定領域内に存在するかどうかに関する行動の履歴を記録する。所定領域は、たとえば当該接近装置の近くに設定され、したがって、この所定領域に対する構成員の行動は、当該接近装置のところにやって来ているかどうかである。これは、各構成員の普段どおりの極自然な振る舞いであって、構成員間の関係性が反映されたものとなっている。そして、関係把握手段は、このような行動の履歴から抽出される所定領域における共存の仕方と、所定領域における共存の仕方に対応する関係を規定した所定の規則とに基づいて、構成員間または単位間の好き嫌いに関する情報を生成し、関係を把握する。所定の規則は、構成員同士が同時に滞在する場合当該構成員同士が相互に好意を持っているという規則、一方の構成員の後に他方の構成員が来る場合当該他方の構成員が当該一方の構成員に好意を持っているという規則、一方の構成員が来ると他方の構成員が去る場合当該他方の構成員が当該一方の構成員を嫌っているという規則、或る構成員が来ると他の構成員たちが集まる場合当該他の構成員たちが当該或る構成員に好意を持っているとともに当該或る構成員がリーダー的存在の者であるという規則、或る構成員が来ると他の構成員たちが去っていく場合当該他の構成員たちが当該或る構成員を嫌っているとともに当該或る構成員が嫌われ者的存在の者であるという規則、および、或る構成員が他に誰もいないときに存在する場合当該或る構成員が排他的傾向の者であるという規則の少なくとも1つを含む。したがって、請求項1の発明によれば、構成員の普段の関係性の反映された極自然な行動を記録することができ、そのような情報に基づいて関係を明らかにすることができるので、組織における構成員の関係を正確に把握することができる。 In the invention of claim 1 0, provided in a space existing tissues, including a plurality of members, access device for approach by a member function as the above relation detection system. That is, the identification unit identifies a member existing in the predetermined area, and the recording unit records an action history regarding whether the member exists in the predetermined area. The predetermined area is set, for example, in the vicinity of the access device, and therefore, the behavior of the member with respect to the predetermined area is whether or not the approach device has been reached. This is the natural behavior of each member as usual and reflects the relationship between the members. Then, the relationship grasping means is based on a method of coexistence in a predetermined area extracted from such behavior history and a predetermined rule that defines a relationship corresponding to the coexistence method in the predetermined area. Generate information about likes and dislikes between units and grasp relationships. The prescribed rule is that if the members stay at the same time, the members are in favor of each other. If the other member comes after one member, the other member Rule that favors a member, if one member arrives and the other member leaves, rule that the other member dislikes the other member, if a member comes When other members gather, the rule that the other members are favored by the certain member and that the certain member is a leader, and when a certain member comes A rule that other members dislike the certain member when the other member leaves, and that the certain member is a disliked person and a certain component If there is no other member Members comprises at least one rule that is a person exclusive tendencies. Therefore, according to the invention of claim 1 0, it is possible to record a very natural action that is usual relationships reflect members, it is possible to clarify the relationship on the basis of such information It is possible to accurately grasp the relationship among members in the organization.

請求項1の発明は、請求項1に従属する接近装置であって、動物の形状をしたぬいぐるみとして形成される。請求項1の発明では、たとえば構成員の興味を引いたり、親しみを感じさせたりすることが容易であるので、構成員を自発的に近付かせることができる。したがって、構成員の普段どおりの極自然な振る舞いを記録することができ、それに基づいて構成員の関係を正確に把握することができる。 The invention of claim 1 1, an access device dependent on claim 1 0, is formed as a stuffed animal in which the animal shape. In the invention of claim 1 1, for example, pulling the interest of members, since it is easy or feel an affinity, can be closer voluntarily members. Therefore, it is possible to record the usual natural behavior of the members, and to accurately grasp the relationship between the members based on the behavior.

請求項1の発明は、請求項1に従属する接近装置であって、律移動するための自律移動手段をさらに備えたコミュニケーションロボットとして形成される。請求項1の発明では、請求項1と同様に、たとえば構成員の興味を引いたりすることが容易であるので、構成員をして自発的に近付かせることができる。したがって、構成員の普段どおりの極自然な振る舞いを記録することができ、それに基づいて構成員の関係を正確に把握できる。 The invention of claim 1 2, a proximity device dependent on claim 1 0, is formed as a further communication robots with autonomous movement means for moving autonomously. In the invention of claim 1 2, similarly to the claim 1 1, for example because it is easy to pulling the interest of members, it is possible to approach voluntarily by the members. Therefore, it is possible to record the extremely natural behavior of the members as usual, and to accurately grasp the relationship between the members based on the behavior.

この発明によれば、各構成員の極自然な振る舞いを記録することができ、そのような振る舞いの履歴に基づいて、構成員の関係を把握することができる。したがって、各構成員に直接「好き」や「嫌い」やを尋ねて答えさせていないので、ありのままの情報を得ることができ、その結果構成員の関係を正確に把握することができる。   According to the present invention, the extremely natural behavior of each member can be recorded, and the relationship between the members can be grasped based on the history of such behavior. Therefore, since each member is not directly asked and answered “like” or “dislike”, the information as it is can be obtained, and as a result, the relationship between the members can be accurately grasped.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例の関係検知システム(以下、単に「システム」とも言う。)10は、複数の構成員A,B,C…を含む組織における各構成員間の関係を検知するためのものである。ここで、組織内の各構成員間の関係は、具体的には、組織を個別の構成員単位で捉える場合には個個の構成員間の関係性であり、組織を何らかの特徴ないし共通性を基にした所定のまとまった単位で捉える場合には当該単位間での関係性である。この各構成員間の関係は、詳しくは、たとえば好き―嫌いや受容―拒否等のような関係を含み、また、リーダー的存在、嫌われ者的存在等といった構成員の組織内での位置のような特殊な関係等も含む。このような各構成員間の関係は、組織全体を構成する部分部分の関係であるので、以下では「組織構造」とも言うものとする。   Referring to FIG. 1, a relationship detection system (hereinafter also simply referred to as “system”) 10 of this embodiment detects a relationship between members in an organization including a plurality of members A, B, C. Is to do. Here, the relationship between each member in the organization is specifically a relationship between individual members when the organization is regarded as an individual member unit, and the organization has some characteristic or commonality. In the case of capturing in a predetermined unit based on, it is a relationship between the units. This relationship among members includes, for example, relationships such as likes-dislikes, acceptances-rejects, etc., and the positions of members in the organization such as leaders and dislikes. Such special relationships are also included. Such a relationship between the members is a relationship of partial parts constituting the entire organization, and is hereinafter also referred to as “organization structure”.

システム10は、構成員をして自発的に近付かせるための接近装置としてコミュニケーションロボット(以下、単に「ロボット」とも言う。)12を含み、ロボット12は検知対象の組織の存在する実空間内に設けられる。つまり、たとえば組織構造として学級内の児童の人間関係を検知するような場合には、当該学級の教室内にロボット12を配置する。ロボット12の詳細な構成は後述するが、ロボット12は、自律移動するための機構を備えた自律移動型のコミュニケーションロボットであり、主として人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のもので、身振りおよび音声の少なくとも一方を用いてコミュニケーションを行う機能を備えている。   The system 10 includes a communication robot (hereinafter, also simply referred to as “robot”) 12 as an approach device for allowing members to approach spontaneously, and the robot 12 is located in a real space where the tissue to be detected exists. Provided. That is, for example, when detecting the human relationship of a child in a class as an organizational structure, the robot 12 is placed in the classroom of the class. Although the detailed configuration of the robot 12 will be described later, the robot 12 is an autonomous mobile communication robot having a mechanism for autonomously moving, and is mainly intended for communication with a communication target such as a human. It is action-oriented and has a function to communicate using at least one of gesture and voice.

このようなロボット12が組織内に配置されると、各構成員A,B,C…はロボット12に興味を持ち、ロボット12に自発的に近付いて、コミュニケーションを図ろうとすることが期待される。しかし、ロボット12が一度に大勢とコミュニケーションをとることは無理があり、限られた数の人しかロボット12の前に存在することができない。このため、各構成員がロボット12に対して接近したり離れたりする行動は、その人間関係が反映されたものとなると考えられる。すなわち、たとえば、普段から好意的関係にある構成員同士はロボット12の前に一緒に滞在しようとするであろうし、逆に嫌いな関係にある構成員同士は一緒に滞在しようとはしないであろう。このように、各構成員のロボット12の前の所定領域内での共存の仕方には、その組織構造が現れていると言える。したがって、ロボット12を対象組織に導入することによって、組織構造を自然に浮かび上がらせることができる。この組織構造は各構成員の普段どおりの極自然な振る舞いの中に現れたものであり、従来のあからさまで直接的な調査では得ることのできない正確性を有している。   When such a robot 12 is arranged in the organization, each member A, B, C,... Is interested in the robot 12 and is expected to spontaneously approach the robot 12 and attempt communication. . However, it is impossible for the robot 12 to communicate with many people at a time, and only a limited number of people can exist in front of the robot 12. For this reason, it is considered that the behavior of each member approaching or leaving the robot 12 reflects the human relationship. That is, for example, members who are normally in a friendly relationship will try to stay together in front of the robot 12, and conversely, members who have a disliked relationship will not try to stay together. Let's go. Thus, it can be said that the structure of each member appears in the manner of coexistence in the predetermined area in front of the robot 12 of each member. Therefore, by introducing the robot 12 into the target tissue, the tissue structure can be naturally raised. This organizational structure manifests itself in the usual natural behavior of each member, and has the accuracy that cannot be obtained through direct research.

したがって、そのような組織構造の反映されている所定領域内の構成員の行動をロボット12によって検知して、行動の履歴を記録する。行動を起こしている構成員を捕らえて見分けるために、たとえばロボット12に設けられた各種センサ等の取得手段によって構成員の識別情報が取得される。この実施例では、各構成員には、たとえばその正面側の胸や腹などの適宜な位置に、無線タグ14および赤外線LEDタグ16が取付または装着される。これらのタグ14および16からそれぞれ発せられた識別情報を取得することで、どの構成員がロボット12のところにやって来たのか、あるいは去っていったのかなど、ロボット12の近くに設定された所定領域内に対するその行動を確実に把握することが可能になる。   Therefore, the behavior of the members in the predetermined area in which such an organizational structure is reflected is detected by the robot 12, and the history of the behavior is recorded. In order to catch and distinguish the member who is taking action, the identification information of the member is acquired by acquisition means such as various sensors provided in the robot 12, for example. In this embodiment, the wireless tag 14 and the infrared LED tag 16 are attached to or attached to each member at an appropriate position such as a chest or an abdomen on the front side. Predetermined areas set near the robot 12 such as which member has come to the robot 12 or left by acquiring the identification information issued from each of these tags 14 and 16 It becomes possible to grasp the behavior to the inside with certainty.

無線タグ14にはたとえばRFIDタグが用いられる。RFID(Radio Frequency Identification)は、電磁波を利用した非接触ICタグによる自動認識技術のことである。RFIDタグ14は、識別情報用のメモリや通信用の制御回路等を備えるICチップおよびアンテナ等を含む。メモリには、構成員を識別可能な情報が予め記憶され、その識別情報が所定周波数の電磁波・電波等によってアンテナから出力される。伝送方式としては、この実施例では、構成員がロボット12のところにコミュニケーションを図りに来ているかどうかを記録するので、たとえば、交信距離の比較的長い電磁誘導方式(最大1m程度)またはマイクロ波方式(最大5m程度)のものを使用するのが望ましい。これらの場合には、各構成員はロボット12の検知可能な所定領域に入ると、無線タグ14を身に着けているだけで簡単に認識されることになる。   For example, an RFID tag is used as the wireless tag 14. RFID (Radio Frequency Identification) is an automatic recognition technology using a non-contact IC tag using electromagnetic waves. The RFID tag 14 includes an IC chip and an antenna provided with a memory for identification information, a control circuit for communication, and the like. Information that can identify the member is stored in advance in the memory, and the identification information is output from the antenna by electromagnetic waves, radio waves, or the like having a predetermined frequency. As a transmission method, in this embodiment, it is recorded whether or not a member is coming to the robot 12 for communication. For example, an electromagnetic induction method having a relatively long communication distance (up to about 1 m) or a microwave. It is desirable to use a system (up to about 5m). In these cases, each member can be easily recognized by wearing the wireless tag 14 when entering the predetermined detectable area of the robot 12.

なお、通信距離の比較的短い静電結合方式(数mm程度)や電磁結合方式(数cm程度)などを使用してもよいが、これらの場合にはロボット12のところに来た各構成員に、その無線タグ14を無線タグ読取装置18(図3参照)に近づけて読み取らせる作業をさせる必要がある。   An electrostatic coupling method (about several millimeters) or an electromagnetic coupling method (about several centimeters) having a relatively short communication distance may be used. In these cases, each member who comes to the robot 12 is used. In addition, it is necessary to make the wireless tag 14 read close to the wireless tag reader 18 (see FIG. 3).

また、この実施例のように赤外線LEDタグ16を併用する場合には、赤外線を使用した光方式のRFIDは使用しないのが望ましい。さらにまた、電源の方式は電池内蔵の能動型および電池無しの受動型のどちらでもよいが、適切な交信距離領域を確保する必要がある。また、タグの形態ないし形状も任意であり、たとえばカード形、ラベル形、コイン形、スティック形等のいずれでもよい。   Further, when the infrared LED tag 16 is used together as in this embodiment, it is desirable not to use an optical RFID using infrared rays. Furthermore, the power supply system may be either an active type with a built-in battery or a passive type without a battery, but it is necessary to ensure an appropriate communication distance region. The form or shape of the tag is also arbitrary, and may be any of a card shape, a label shape, a coin shape, a stick shape, and the like.

赤外線LEDタグ16は、赤外線LED,その駆動回路および内蔵電池等を含む。赤外線LEDは、そのタグ16が取り付けられた構成員を識別可能なように、所定の点滅パターンで発光するよう制御される。この赤外線LEDタグ16の形態もRFIDタグ16と同様に任意である。また、各構成員はロボット12の検知可能な所定領域に入ると、赤外線LEDタグ16を装着しているだけで簡単に認識されることになる。   The infrared LED tag 16 includes an infrared LED, its drive circuit, a built-in battery, and the like. The infrared LED is controlled to emit light in a predetermined blinking pattern so that the member to which the tag 16 is attached can be identified. The form of the infrared LED tag 16 is also arbitrary like the RFID tag 16. Further, when each member enters a predetermined area that can be detected by the robot 12, the member can be easily recognized only by wearing the infrared LED tag 16.

ロボット12によって記録されたデータは、ロボット12の内部で、あるいはPC等のような外部コンピュータ20に転送された後に処理され、構成員の関係性が把握されて、出力されることとなる。把握された組織構造はたとえばソシオグラムで出力され、外部コンピュータ20のCRTやLCD等の表示手段に表示される。   The data recorded by the robot 12 is processed inside the robot 12 or after being transferred to the external computer 20 such as a PC, and the relationship between the members is grasped and output. The grasped tissue structure is output as a sociogram, for example, and displayed on a display means such as a CRT or LCD of the external computer 20.

図2はロボット12の外観を示す正面図であり、この図2を参照して、ロボット12のハードウェアの構成について説明する。ロボット12は台車22を含み、この台車22の下面にはロボット12を自律移動させる車輪24が設けられる。車輪24は車輪モータ26(図3参照)によって駆動され、台車22すなわちロボット12を前後左右任意の方向に動かすことができる。このように、ロボット12は組織の空間内を移動可能なものであるが、場合によっては空間内の所定位置に固定的に設けられてもよい。   FIG. 2 is a front view showing the appearance of the robot 12, and the hardware configuration of the robot 12 will be described with reference to FIG. The robot 12 includes a carriage 22, and wheels 24 for autonomously moving the robot 12 are provided on the lower surface of the carriage 22. The wheel 24 is driven by a wheel motor 26 (see FIG. 3), and the carriage 22, that is, the robot 12, can be moved in any direction, front, rear, left, and right. As described above, the robot 12 is movable in the tissue space, but may be fixedly provided at a predetermined position in the space depending on circumstances.

なお、図2においては省略するが、台車22の前面には、衝突センサ28(図3参照)が取り付けられ、この衝突センサ28は台車22への人や他の障害物の接触を検知する。つまり、ロボット12の移動中に障害物との接触を検知すると、直ちに車輪24の駆動を停止してロボット12の移動を急停止させる。   Although omitted in FIG. 2, a collision sensor 28 (see FIG. 3) is attached to the front surface of the carriage 22, and the collision sensor 28 detects contact of a person and other obstacles to the carriage 22. That is, when contact with an obstacle is detected while the robot 12 is moving, the driving of the wheels 24 is immediately stopped and the movement of the robot 12 is suddenly stopped.

また、この実施例では、ロボット12の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。   In this embodiment, the height of the robot 12 is set to about 100 cm so as not to give intimidation to a person, particularly a child. However, this height can be changed.

台車22の上には、多角形柱のセンサ取付パネル30が設けられ、このセンサ取付パネル30の各面には、超音波距離センサ32が取り付けられる。この超音波距離センサ32は、センサ取付パネル30すなわちロボット12の周囲の主として人との距離を計測するものである。   A polygonal column sensor mounting panel 30 is provided on the carriage 22, and an ultrasonic distance sensor 32 is mounted on each surface of the sensor mounting panel 30. The ultrasonic distance sensor 32 measures the distance between the sensor mounting panel 30, that is, the person around the robot 12 mainly.

また、台車22の上には、さらに、その下部がセンサ取付パネル30に囲まれて、ロボット12の胴体が直立するように設けられる。この胴体は、下部胴体34と上部胴体36とによって構成され、下部胴体34および上部胴体36は、連結部38によって互いに連結される。図示は省略するが、連結部38には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体36の高さすなわちロボット12の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ40(図3参照)によって駆動される。   Further, on the carriage 22, the lower part is surrounded by the sensor mounting panel 30 so that the body of the robot 12 stands upright. This body is constituted by a lower body 34 and an upper body 36, and the lower body 34 and the upper body 36 are connected to each other by a connecting portion 38. Although illustration is omitted, the connecting portion 38 has a built-in lifting mechanism, and by using this lifting mechanism, the height of the upper body 36, that is, the height of the back of the robot 12 can be changed. The lifting mechanism is driven by a waist motor 40 (see FIG. 3), as will be described later.

なお、上述したロボット12の背の高さは、上部胴体36をそれの最下位置にしたときのものである。したがって、ロボット12の背の高さは、100cm以上にすることも可能である。   The height of the robot 12 described above is that when the upper body 36 is at its lowest position. Therefore, the height of the back of the robot 12 can be 100 cm or more.

上部胴体36のほぼ中央には、1つの全方位カメラ42と1つの赤外線カメラ44と1つのマイク46とが設けられる。全方位カメラ42は、ロボット12の周囲を撮影するものであり、後述する眼カメラ48とは区別される。この全方位カメラ42としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。   One omnidirectional camera 42, one infrared camera 44, and one microphone 46 are provided in the approximate center of the upper body 36. The omnidirectional camera 42 photographs the surroundings of the robot 12 and is distinguished from an eye camera 48 described later. As this omnidirectional camera 42, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted.

赤外線カメラ44は、赤外線を検出するためのものであり、所定数の赤外線検出素子を含む。この赤外線カメラ44の画角の領域内に構成員が存在する場合、その赤外線LEDタグ16から発せられた赤外線が取得され、赤外線の点滅パターンによってその構成員が識別されることとなる。また、マイク46は、周囲の音、とりわけコミュニケーション対象である人の声を取り込む。なお、これら全方位カメラ42,赤外線カメラ44およびマイク46の設置位置は上部胴体36に限られず適宜変更され得る。   The infrared camera 44 is for detecting infrared rays and includes a predetermined number of infrared detection elements. When a member exists in the field angle area of the infrared camera 44, infrared rays emitted from the infrared LED tag 16 are acquired, and the members are identified by the blinking pattern of the infrared rays. The microphone 46 captures ambient sounds, particularly voices of people who are communication targets. The installation positions of the omnidirectional camera 42, the infrared camera 44, and the microphone 46 are not limited to the upper body 36 and can be changed as appropriate.

上部胴体36の両肩には、それぞれ、肩関節50Rおよび50Lによって、上腕52Rおよび52Lが設けられる。肩関節50Rおよび50Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節50Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕52Rの角度を制御できる。Y軸は、上腕52Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節50Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕52Lの角度を制御できる。B軸は、上腕52Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。   Upper arms 52R and 52L are provided on both shoulders of the upper body 36 by shoulder joints 50R and 50L, respectively. The shoulder joints 50R and 50L each have three axes of freedom. That is, the shoulder joint 50R can control the angle of the upper arm 52R around each of the X axis, the Y axis, and the Z axis. The Y axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 52R, and the X axis and the Z axis are orthogonal to the Y axis from different directions. On the other hand, the shoulder joint 50L can control the angle of the upper arm 52L around each of the A axis, the B axis, and the C axis. The B axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 52L, and the A axis and the C axis are axes orthogonal to the B axis from different directions.

また、上腕52Rおよび52Lのそれぞれの先端には、肘関節54Rおよび54Lを介して、前腕56Rおよび56Lが設けられる。肘関節54Rおよび54Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕56Rおよび56Lの角度を制御できる。   Further, forearms 56R and 56L are provided at the respective distal ends of the upper arms 52R and 52L via elbow joints 54R and 54L. The elbow joints 54R and 54L can control the angles of the forearms 56R and 56L around the axes of the W axis and the D axis, respectively.

なお、上腕52Rおよび52Lならびに前腕56Rおよび56Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、上腕52Rおよび52Lならびに前腕56Rおよび56Lは下方に向けられる。   In the X axis, Y axis, Z axis, W axis, A axis, B axis, C axis, and D axis that control the displacement of the upper arms 52R and 52L and the forearms 56R and 56L, "0 degree" is the home position, respectively. In this home position, as shown in FIG. 2, the upper arms 52R and 52L and the forearms 56R and 56L are directed downward.

また、図示は省略するが、上部胴体36の肩関節50Rおよび50Lを含む肩の部分や上述の上腕52Rおよび52Lならびに前腕56Rおよび56Lには、それぞれ、タッチセンサ(図3で包括的に示す。:58)が設けられていて、これらのタッチセンサ58は、人がロボット12の当該各部位に触れたかどうかを検知する。   Although not shown in the figure, the shoulder portion including the shoulder joints 50R and 50L of the upper body 36, the upper arms 52R and 52L, and the forearms 56R and 56L described above are each shown by touch sensors (shown comprehensively in FIG. 3). : 58), and these touch sensors 58 detect whether or not a person has touched each part of the robot 12.

前腕56Rおよび56Lのそれぞれの先端には、手に相当する球体60Rおよび60Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。   Spheres 60R and 60L corresponding to hands are fixedly provided at the tips of the forearms 56R and 56L, respectively. However, if a finger or palm function is required, a “hand” in the shape of a human hand can be used.

なお、ロボット12の形状・寸法等は適宜設定されるが、他の実施例では、たとえば、上部胴体36は、前面、背面、右側面、左側面、上面および底面を含み、右側面および左側面は表面が斜め前方に向くように形成してもよい。つまり、前面の横幅が背面の横幅よりも短く、上部胴体36を上から見た形状が台形になるように形成されてもよい。   Although the shape, dimensions, etc. of the robot 12 are set as appropriate, in other embodiments, for example, the upper body 36 includes a front surface, a back surface, a right side surface, a left side surface, a top surface, and a bottom surface, and the right side surface and the left side surface. You may form so that the surface may face diagonally forward. That is, the width of the front surface may be shorter than the width of the back surface, and the shape of the upper body 36 viewed from above may be a trapezoid.

このような場合、肩関節50Rおよび50Lは、右側面および左側面に、その表面が左右両側面とそれぞれ平行である左右の支持部を介して設けられる。そして、上腕52Rおよび上腕52Lの回動範囲は、これら左右側面または支持部の表面(取り付け面)によって規制され、上腕52Rおよび52Lは取り付け面を超えて回動することはない。   In such a case, the shoulder joints 50R and 50L are provided on the right side surface and the left side surface via left and right support portions whose surfaces are parallel to the left and right side surfaces, respectively. The rotation range of the upper arm 52R and the upper arm 52L is restricted by the left and right side surfaces or the surface (attachment surface) of the support portion, and the upper arms 52R and 52L do not rotate beyond the attachment surface.

しかし、左右側面の傾斜角、B軸とY軸との間隔、上腕52Rおよび52Lの長さ、ならびに前腕56Rおよび56Lの長さ等を適宜に設定すれば、上腕52Rおよび52Lは前方を超えてより内側まで回動できるので、たとえW軸およびD軸による腕の自由度がなくてもロボット12の腕は前方で交差できる。したがって、腕の自由度が少ない場合でも正面に位置する人と抱き合うなどの密接で親密なコミュニケーション行動を実行することができる。   However, if the inclination angle of the left and right side surfaces, the distance between the B axis and the Y axis, the lengths of the upper arms 52R and 52L, the lengths of the forearms 56R and 56L, etc. are appropriately set, the upper arms 52R and 52L exceed the front. Since it can rotate to the inner side, the arms of the robot 12 can cross forward even if there is no degree of freedom of the arms by the W axis and the D axis. Therefore, even when the degree of freedom of arms is small, it is possible to execute close and intimate communication behavior such as embracing a person in front.

上部胴体36の中央上方には、首関節62を介して頭部64が設けられる。首関節62は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部64には、人の口に相当する位置に、スピーカ66が設けられる。スピーカ66は、ロボット12が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。ただし、スピーカ66は、ロボット12の他の部位、たとえば胴体などに設けられてもよい。   A head 64 is provided above the center of the upper body 36 via a neck joint 62. The neck joint 62 has a degree of freedom of three axes, and the angle can be controlled around each of the S axis, the T axis, and the U axis. The S-axis is an axis that extends from the neck directly upward (vertically upward), and the T-axis and the U-axis are axes that are orthogonal to the S-axis in different directions. The head 64 is provided with a speaker 66 at a position corresponding to a human mouth. The speaker 66 is used for the robot 12 to communicate with people around it by voice or sound. However, the speaker 66 may be provided in another part of the robot 12, for example, the trunk.

また、頭部64には、目に相当する位置に眼球部68Rおよび68Lが設けられる。眼球部68Rおよび68Lは、それぞれ眼カメラ48Rおよび48Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがあり、また、右の眼カメラ48Rと左の眼カメラ48Lとをまとめて眼カメラ48ということもある。   The head 64 is provided with eyeballs 68R and 68L at positions corresponding to the eyes. Eyeball portions 68R and 68L include eye cameras 48R and 48L, respectively. Hereinafter, the right eyeball portion 68R and the left eyeball portion 68L may be collectively referred to as the eyeball portion 68, and the right eye camera 48R and the left eye camera 48L may be collectively referred to as the eye camera 48.

眼カメラ48は、ロボット12に接近した人の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ48としては、上述した全方位カメラ42と同様のカメラを用いることができる。   The eye camera 48 captures a human face approaching the robot 12, other parts or objects, and captures a corresponding video signal. As the eye camera 48, a camera similar to the omnidirectional camera 42 described above can be used.

たとえば、眼カメラ48は眼球部68内に固定され、眼球部68は眼球支持部(図示せず)を介して頭部64内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部64に対して設けられる軸であり、α軸は頭部64の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部64の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部64がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部64において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ48の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。   For example, the eye camera 48 is fixed in the eyeball part 68, and the eyeball part 68 is attached to a predetermined position in the head 64 via an eyeball support part (not shown). The eyeball support unit has two degrees of freedom and can be controlled in angle around each of the α axis and the β axis. The α axis and the β axis are axes provided with respect to the head 64, the α axis is an axis in a direction toward the top of the head 64, the β axis is orthogonal to the α axis and the front side of the head 64 ( It is an axis in a direction perpendicular to the direction in which the face is facing. In this embodiment, when the head 64 is at the home position, the α axis is set to be parallel to the S axis, and the β axis is set to be parallel to the U axis. In such a head 64, when the eyeball support portion is rotated around each of the α axis and the β axis, the tip (front) side of the eyeball portion 68 or the eye camera 48 is displaced, and the camera axis, that is, the line-of-sight direction is changed. Moved.

なお、眼カメラ48の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ48のカメラ軸は頭部64の正面側(顔)が向く方向に向けられ、視線は正視状態となる。   In the α axis and β axis that control the displacement of the eye camera 48, “0 degree” is the home position. At this home position, the camera axis of the eye camera 48 is the head 64 as shown in FIG. The direction of the front side (face) is directed, and the line of sight is in the normal viewing state.

さらに、たとえば頭部64の横の右肩部には、無線タグ読取装置18のアンテナ70が設けられる。アンテナ70はRFIDタグ14から送信される識別情報が重畳された電磁波ないし電波を受信する。   Further, for example, an antenna 70 of the wireless tag reader 18 is provided on the right shoulder next to the head 64. The antenna 70 receives electromagnetic waves or radio waves on which identification information transmitted from the RFID tag 14 is superimposed.

図3はロボット12の電気的な構成を示すブロック図であり、この図3を参照して、ロボット12は、全体を制御するCPU72を含む。CPU72は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス74を介して、メモリ76、モータ制御ボード78、センサ入力/出力ボード80および音声入力/出力ボード82に接続される。   FIG. 3 is a block diagram showing an electrical configuration of the robot 12. With reference to FIG. 3, the robot 12 includes a CPU 72 for controlling the whole. The CPU 72 is also called a microcomputer or a processor, and is connected to the memory 76, the motor control board 78, the sensor input / output board 80, and the audio input / output board 82 via the bus 74.

メモリ76は、図示は省略するが、ROMやRAMを含み、ROMにはロボット12の制御プログラムが予め記憶され、RAMはワークメモリやバッファメモリとして用いられる。制御プログラムはたとえばコミュニケーション行動を実行するためのプログラム、外部コンピュータ20と通信するためのプログラム、および識別情報を取得して構成員の行動履歴を記録するためのプログラム等を含む。メモリ76にはまた、コミュニケーション行動の実行の際にスピーカ66から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データ等も記憶される。   Although not shown, the memory 76 includes a ROM and a RAM, in which a control program for the robot 12 is stored in advance, and the RAM is used as a work memory and a buffer memory. The control program includes, for example, a program for executing a communication action, a program for communicating with the external computer 20, and a program for acquiring identification information and recording a member's action history. The memory 76 also stores voice data or voice data (speech synthesis data) to be generated from the speaker 66 when performing the communication action, angle data for presenting a predetermined gesture, and the like.

モータ制御ボード78は、たとえばDSPで構成され、各腕や頭部および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード78は、CPU72からの制御データを受け、右眼球部68Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)84の回転角度を制御する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左眼球部68Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)86の回転角度を制御する。   The motor control board 78 is configured by a DSP, for example, and controls driving of each axis motor such as each arm, head, and eyeball. That is, the motor control board 78 receives the control data from the CPU 72 and controls two angles of the α axis and β axis of the right eyeball portion 68R (in FIG. 3, collectively referred to as “right eyeball motor”). .) Control the rotation angle of 84. Similarly, the motor control board 78 receives control data from the CPU 72, and controls two angles of the α axis and β axis of the left eyeball portion 68L (in FIG. 3, collectively referred to as “left eyeball motor”). Controls the rotation angle of 86.

また、モータ制御ボード78は、CPU72からの制御データを受け、右肩関節50RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節54RのW軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)88の回転角度を調節する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左肩関節50LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節54LのD軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)90の回転角度を調整する。   The motor control board 78 receives the control data from the CPU 72, and controls the angles of the X axis, Y axis and Z axis of the right shoulder joint 50R and the W axis angle of the right elbow joint 54R. The rotation angles of a total of four motors (one collectively shown as “right arm motor” in FIG. 3) 88 including one motor to be controlled are adjusted. Similarly, the motor control board 78 receives the control data from the CPU 72 and determines the angles of the three motors for controlling the angles of the A-axis, B-axis and C-axis of the left shoulder joint 50L and the D-axis angle of the left elbow joint 54L. The rotation angle of a total of four motors (one collectively shown as “left arm motor” in FIG. 3) 90 with one motor to be controlled is adjusted.

さらに、モータ制御ボード78は、CPU72からの制御データを受け、頭部64のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)92の回転角度を制御する。さらにまた、モータ制御ボード78は、CPU72からの制御データを受け、腰モータ40および車輪24を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。   Further, the motor control board 78 receives control data from the CPU 72, and controls three angles of the S-axis, T-axis, and U-axis of the head 64 (collectively "head motor" in FIG. 3). The rotation angle of 92 is controlled. Furthermore, the motor control board 78 receives the control data from the CPU 72 and controls the rotation angle of two motors 26 (hereinafter collectively referred to as “wheel motors”) 26 that drive the waist motor 40 and the wheels 24. To do.

なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。   In this embodiment, a motor other than the wheel motor 26 is a stepping motor or a pulse motor in order to simplify the control. However, as with the wheel motor 26, a DC motor may be used.

センサ入力/出力ボード80もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU72に与える。すなわち、超音波距離センサ32のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード80を通してCPU72に入力される。また、全方位カメラ42からの映像信号が、必要に応じてこのセンサ入力/出力ボード80で所定の処理を施された後、CPU72に入力される。眼カメラ48からの映像信号も、同様にして、CPU72に入力される。また、上述した複数のタッチセンサ(図3では、まとめて「タッチセンサ58」と示す。)からの信号がセンサ入力/出力ボード80を介してCPU72に与えられる。さらに、上述した衝突センサ28からの信号も、同様にして、CPU72に与えられる。赤外線カメラ44からの赤外線画像はこのセンサ入力/出力ボード80で処理されることによって、赤外線LEDタグ16から発せられる識別情報およびその画像内の位置情報等が取得された後、CPU72に与えられる。   Similarly, the sensor input / output board 80 is also constituted by a DSP, and takes in signals from each sensor and gives them to the CPU 72. That is, data relating to the reflection time from each of the ultrasonic distance sensors 32 is input to the CPU 72 through the sensor input / output board 80. Further, a video signal from the omnidirectional camera 42 is input to the CPU 72 after being subjected to predetermined processing by the sensor input / output board 80 as required. Similarly, the video signal from the eye camera 48 is also input to the CPU 72. Further, signals from the plurality of touch sensors described above (collectively indicated as “touch sensor 58” in FIG. 3) are provided to the CPU 72 via the sensor input / output board 80. Further, the signal from the collision sensor 28 described above is also given to the CPU 72 in the same manner. The infrared image from the infrared camera 44 is processed by the sensor input / output board 80, whereby the identification information emitted from the infrared LED tag 16, the positional information in the image, and the like are acquired and then given to the CPU 72.

音声入力/出力ボード82もまた、同様に、DSPで構成され、CPU72から与えられる音声合成データに従った音声または声がスピーカ66から出力される。また、マイク46からの音声入力が、音声入力/出力ボード82を介してCPU72に取り込まれる。   Similarly, the voice input / output board 82 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the CPU 72 is output from the speaker 66. Also, the voice input from the microphone 46 is taken into the CPU 72 via the voice input / output board 82.

また、CPU72は、バス74を介して通信LANボード94および無線タグ読取装置18に接続される。通信LANボード94は、DSPで構成され、CPU72から送られる送信データを無線通信装置96に与え、無線通信装置96から送信データを、図示は省略するが、たとえば、無線LANのようなネットワークを介して外部コンピュータ20に送信させる。また、通信LANボード94は、無線通信装置96を介してデータを受信し、受信したデータをCPU72に与える。つまり、この通信LANボード94および無線通信装置96によって、ロボット12は外部コンピュータ20等と無線通信を行うことができる。   The CPU 72 is connected to the communication LAN board 94 and the wireless tag reader 18 via the bus 74. The communication LAN board 94 is configured by a DSP, gives transmission data sent from the CPU 72 to the wireless communication device 96, and transmits the transmission data from the wireless communication device 96 to the wireless communication device 96 via a network such as a wireless LAN, although not shown. To be transmitted to the external computer 20. The communication LAN board 94 receives data via the wireless communication device 96 and gives the received data to the CPU 72. That is, the communication LAN board 94 and the wireless communication device 96 allow the robot 12 to perform wireless communication with the external computer 20 or the like.

無線タグ読取装置18は、RFIDタグ14から送信される識別情報の重畳された電波を、アンテナ70を介して受信し、電波信号を増幅し、当該電波信号から識別情報を分離し、当該情報を復調(デコード)してCPU72に与える。ただし、RFIDの情報は、外部コンピュータでデコードして、CPU72に与えるようにしてもよい。   The wireless tag reader 18 receives the radio wave on which the identification information transmitted from the RFID tag 14 is superimposed via the antenna 70, amplifies the radio signal, separates the identification information from the radio signal, and stores the information. Demodulate (decode) and give to CPU72. However, the RFID information may be decoded by an external computer and given to the CPU 72.

さらに、CPU72は、バス74を介してユーザ情報データベース(以下「ユーザDB」とする。)98および行動履歴データベース(以下「履歴DB」とする。)100に接続される。ただし、これらのデータベースは、外部コンピュータ20または外部のネットワーク上にアクセス可能に設けるようにしてもよい。   Further, the CPU 72 is connected to a user information database (hereinafter referred to as “user DB”) 98 and an action history database (hereinafter referred to as “history DB”) 100 via a bus 74. However, these databases may be provided so as to be accessible on the external computer 20 or an external network.

ユーザDB98は、ユーザ情報すなわち検知対象組織に属する構成員の情報を登録しているデータベースであり、この実施例では、図4に示すようなユーザ情報のテーブルを記憶している。ユーザDB98には、たとえば、構成員IDに対応付けて、構成員名、装着されるRFIDタグ14の識別情報および赤外線LEDタグ16の識別情報(点滅パターン)等が記憶される。図4では、たとえば構成員Aには、“AAAA”という識別情報の登録されたRFIDタグ14が装着され、また、“Ta”の点滅パターンで発光される赤外線LEDタグ16が装着されていることが分かる。   The user DB 98 is a database in which user information, that is, information on members belonging to the detection target organization is registered. In this embodiment, a user information table as shown in FIG. 4 is stored. In the user DB 98, for example, a member name, identification information of the RFID tag 14 to be attached, identification information (flashing pattern) of the infrared LED tag 16 and the like are stored in association with the member ID. In FIG. 4, for example, the member A is equipped with an RFID tag 14 in which identification information “AAAA” is registered, and an infrared LED tag 16 that emits light with a blinking pattern of “Ta”. I understand.

履歴DB100は、構成員の行動の履歴を記録するためのデータベースである。この行動は、構成員がロボット12のところにコミュニケーションを図りに来ているかどうかに関しての行動を意味する。つまり、取得手段(この実施例では無線タグ読取装置18および赤外線カメラ44)によって検知可能なロボット12の近くの所定領域内に構成員が存在しているかどうかについての時間変化が記録される。   The history DB 100 is a database for recording a history of member behavior. This action means an action regarding whether or not the member is coming to the robot 12 for communication. That is, a change with time is recorded as to whether or not a member is present in a predetermined area near the robot 12 that can be detected by the acquisition means (in this embodiment, the wireless tag reader 18 and the infrared camera 44).

コミュニケーション行動の一例として、ロボット12は次のような種々の行動を取ることが可能である。たとえば、「こんにちは」と話しかけて返事があった場合、「握手しよう」と言って一方の腕52および60を前方に差し出す。「こんにちは」と話しかけて返事がなかった場合、「バイバイ」と言う。眼カメラ48からの画像データに人の顔を認識した場合、その人の顔の方向に頭部64の顔側や眼球部68を向ける。触られた場合、触られた部位の方に頭部64の顔側を向ける。このように、ロボット12は、自ら能動的にコミュニケーション行動を提示して、それに対する人間の反応を認識し、その認識結果に応じて異なった行動をさらに提示することができるし、人間と同じような反応動作も行うことができる。   As an example of the communication behavior, the robot 12 can take the following various behaviors. For example, if there is a reply talking with "Hello", hold out one of the arms 52 and 60 to say "Let's shake hands" forward. If there is no reply talking with "Hello", I referred to as a "bye-bye". When a human face is recognized in the image data from the eye camera 48, the face side of the head 64 and the eyeball unit 68 are directed toward the face of the person. When touched, the face side of the head 64 is directed toward the touched part. As described above, the robot 12 can actively present a communication action by itself, recognize a human reaction to the action, and further present different actions according to the recognition result. Reaction operation can also be performed.

また、この実施例では、コミュニケーション相手となる各構成員にRFIDタグ14および赤外線LEDタグ16によって識別情報が与えられるので、実際のコミュニケーション相手に合わせた個別のコミュニケーション行動を実行することも可能である。たとえば、各構成員の名前に相当する音声データを記憶しておけば、識別情報を取得してコミュニケーションをとっている構成員を特定し、その構成員の名前を呼びかけることができる。また、どの構成員との間でどのようなコミュニケーション行動を実行したかが分かる実行履歴を記録しておいて、その履歴に基づいたコミュニケーション行動を実行することも可能である。たとえば、初めて来た構成員に対しては「はじめまして」と、久しぶりに来た構成員に対しては「久しぶり」と呼びかけることができるし、全員に連絡すべき情報がある場合、未だ聞いていない構成員が来たときのみその情報を伝えるといった適切な行動を実行できる。ロボット12がこのような個人的なコミュニケーション行動をも実行できるので、各構成員にRFIDタグ14や赤外線LEDタグ16等を装着させたとしても、特に違和感や疑問を覚えさせることもなく、自然な行動を記録することができる。   In this embodiment, since identification information is given to each member to be a communication partner by the RFID tag 14 and the infrared LED tag 16, it is also possible to execute an individual communication action in accordance with an actual communication partner. . For example, if voice data corresponding to each member's name is stored, identification information can be acquired to identify the member in communication and call the member's name. It is also possible to record an execution history that shows what communication behavior has been performed with which member, and to execute the communication behavior based on the history. For example, you can call “Nice to meet you” for members who have come for the first time, “Long time” for members who have come after a long time, and if you have information to contact everyone, you have not heard yet Appropriate actions can be performed such as conveying information only when members come. Since the robot 12 can also perform such personal communication behavior, even if each member is equipped with the RFID tag 14 or the infrared LED tag 16 or the like, there is no particular sense of incongruity or doubt, and it is natural. You can record your actions.

このようなロボット12が、組織の存在する空間内に、たとえば学級の児童の組織構造を検知する場合にはその学級の教室内に配置される。ロボット12は、コミュニケーションを図りに来た上記した各構成員に対してコミュニケーション行動を実行するとともに、一定時間ごと(たとえば1秒間隔など)に識別情報の取得を試み、取得したデータに基づいて構成員の行動の履歴を履歴DB100に記録する。具体的には、RFIDタグ14からの識別情報および赤外線LEDタグ16からの識別情報が一定時間ごとに取り込まれ、所定の領域内に存在している構成員の情報が記録される。   Such a robot 12 is disposed in a space where an organization exists, for example, in a classroom of a class when detecting the organizational structure of a class child. The robot 12 executes a communication action for each of the above-mentioned members who have come to communicate, attempts to acquire identification information at regular intervals (for example, at intervals of one second), and configures based on the acquired data. An employee's action history is recorded in the history DB 100. Specifically, the identification information from the RFID tag 14 and the identification information from the infrared LED tag 16 are fetched at regular intervals, and information on members existing in a predetermined area is recorded.

履歴DB100に記録されるデータは、たとえば図5に示すように、取り込み時刻ごとの、無線タグ読取装置18によって検知された構成員の情報、および赤外線カメラ44によって検知された構成員の情報等を含む。なお、赤外線LEDタグ16の識別情報はそのオン・オフのパターンであるので、取り込み時刻を含む所定の時間にわたってデータの取り込みを行って解析することによって、その点滅パターンを特定することができる。   For example, as shown in FIG. 5, the data recorded in the history DB 100 includes information on members detected by the wireless tag reader 18 and information on members detected by the infrared camera 44 at each capture time. Including. Since the identification information of the infrared LED tag 16 is an on / off pattern, the blinking pattern can be specified by performing data capture and analysis over a predetermined time including the capture time.

構成員の情報としては、たとえば、取得した識別情報とユーザDB98とを照合して求められた構成員IDが記述される。なお、構成員情報の記述はこれに限るものではなく、たとえば無線タグ読取装置18による検知としては、取得したRFIDの識別情報をそのまま記述してもよいし、あるいは構成員名等を記述してもよい。また、赤外線カメラ44による検知としても、同様に、取得した識別情報を記述してもよいし、構成員名等を記述してもよい。   As the member information, for example, the member ID obtained by collating the acquired identification information with the user DB 98 is described. The description of the member information is not limited to this. For example, as the detection by the RFID tag reader 18, the acquired RFID identification information may be described as it is, or the member name is described. Also good. Similarly, as the detection by the infrared camera 44, the acquired identification information may be described, or the member name or the like may be described.

この図5の例では、たとえば時刻t20においては、無線タグ読取装置18によって構成員A,BおよびCの3人が検知され、赤外線カメラ44によって構成員AおよびBの2人が検知されたことがわかる。この時刻t20のように取得手段の種類によって検知される構成員が異なるのは、取得手段ごとに検知可能な所定領域が異なるためである。   In the example of FIG. 5, for example, at time t <b> 20, three members A, B, and C are detected by the wireless tag reader 18, and two members A and B are detected by the infrared camera 44. I understand. The reason that the detected members differ depending on the type of acquisition means as at this time t20 is that the predetermined area that can be detected differs for each acquisition means.

図6には、無線タグ読取装置18によって検知可能な所定領域と、赤外線カメラ44によって検知可能な所定領域との関係の一例が示される。無線タグ読取装置18による検知領域(長破線表示)は、適用されるRFIDの通信距離によって決まるものであり、ロボット12(アンテナ70)からそのRFIDの通信距離までの範囲である。また、赤外線カメラ44による検知領域(点線表示)は、赤外線カメラ44の画角によって決まるものであり、赤外線カメラ44はロボット12の正面側に設けられるので、ロボット12の前方側にある。この図6では、無線タグ読取装置18による所定領域内に構成員A,BおよびCが存在しており、さらに構成員AおよびBは赤外線カメラ44による所定領域内にも存在している。したがって、この場合、上述の図5における時刻t20のような測定結果が得られることとなる。   FIG. 6 shows an example of a relationship between a predetermined area that can be detected by the wireless tag reader 18 and a predetermined area that can be detected by the infrared camera 44. The detection area (indicated by a long broken line) by the wireless tag reader 18 is determined by the communication distance of the applied RFID, and is a range from the robot 12 (antenna 70) to the communication distance of the RFID. Further, the detection area (dotted line display) by the infrared camera 44 is determined by the angle of view of the infrared camera 44, and the infrared camera 44 is provided on the front side of the robot 12, and thus is on the front side of the robot 12. In FIG. 6, members A, B, and C exist in a predetermined area by the wireless tag reader 18, and members A and B also exist in a predetermined area by the infrared camera 44. Therefore, in this case, a measurement result such as the time t20 in FIG. 5 described above is obtained.

このような構成員A,BおよびCの位置関係を考えると、構成員AおよびBはロボット12とコミュニケーションを図るためにロボット12の直前に一緒に存在しており、一方、構成員Cは、たとえば傍らで見ているのかあるいは仲間に加わろうとしているのかは不明であるが、いずれにせよ構成員AおよびBとは一緒に存在するには至っていないと判断できる。つまり、構成員A,BおよびCのうち、無線タグ読取装置18および赤外線カメラ44の両方で検知された構成員AおよびBだけが、ロボット12の前に来ているとみなすことができる。このように、無線タグ読取装置18および赤外線カメラ44の複数の取得手段を使用することで、ロボット12の前に来ていない構成員を排除して、各構成員の行動の測定精度を上げることができ、したがって、より正確な組織構造の検知が可能になる。   Considering the positional relationship between the members A, B and C, the members A and B exist together in front of the robot 12 in order to communicate with the robot 12, while the member C For example, it is unclear whether you are watching by the side or trying to join a friend, but in any case, it can be determined that members A and B are not present together. That is, among the members A, B, and C, only the members A and B detected by both the wireless tag reader 18 and the infrared camera 44 can be regarded as coming in front of the robot 12. In this way, by using a plurality of acquisition means of the wireless tag reader 18 and the infrared camera 44, members not coming in front of the robot 12 are eliminated, and the measurement accuracy of the behavior of each member is increased. Thus, more accurate tissue structure detection is possible.

なお、赤外線カメラ44の画角が比較的大きい場合には、ロボット12とコミュニケーションを図りに来ているわけではなく、離れた位置から傍観しているような構成員までも検知することとなるので、広い視野の端部で検出される情報を除外し、視野の所定範囲において検出される情報のみを適用して、検知した構成員の情報として記録することが望ましい。   In addition, when the angle of view of the infrared camera 44 is relatively large, communication with the robot 12 is not performed, and even members who are watching from a remote position are detected. It is desirable to record information as detected member information by excluding information detected at the end of a wide visual field and applying only information detected in a predetermined range of the visual field.

検知した構成員の情報を履歴DB100に記録した後、無線タグ読取装置18による検知結果と赤外線カメラ44による検知結果とに基づいて、一致する構成員を抽出する。そして、図7に示すように、その抽出された構成員が、その時刻において所定領域に存在していた構成員として確定される。つまり、この場合の所定領域は、無線タグ読取装置18による検知領域と赤外線カメラ44による検知領域との重なる部分である。たとえば時刻t20にロボット12の前に来ていた構成員はAおよびBとされる。この確定された行動履歴のデータは履歴DB100に記録してもよい。このように複数の取得手段を組み合わせることで、所定領域をより正確に設定することができ、より正確な行動の履歴を記録することができるので、より正確な組織構造を検知することができる。   After the detected member information is recorded in the history DB 100, the matching members are extracted based on the detection result by the wireless tag reader 18 and the detection result by the infrared camera 44. Then, as shown in FIG. 7, the extracted members are determined as members existing in the predetermined area at that time. That is, the predetermined region in this case is a portion where the detection region by the wireless tag reader 18 and the detection region by the infrared camera 44 overlap. For example, the members who came in front of the robot 12 at time t20 are A and B. The determined action history data may be recorded in the history DB 100. By combining a plurality of acquisition means in this way, the predetermined region can be set more accurately and a more accurate action history can be recorded, so that a more accurate tissue structure can be detected.

なお、このような行動履歴の確定処理は、記録した行動履歴データを外部コンピュータ20に転送して、外部コンピュータ20のCPUによって実行させるようにしてもよい。   Such action history determination processing may be performed by transferring the recorded action history data to the external computer 20 and executed by the CPU of the external computer 20.

そして、この確定された行動履歴に基づいて組織構造が把握される。この組織構造把握処理はロボット12の内部でCPU72によって行われてもよいし、または、記録した行動履歴データもしくは確定された行動履歴データを外部コンピュータ20に転送して、外部コンピュータ20のCPUによって行われてもよい。   Then, the organizational structure is grasped based on the confirmed action history. This organizational structure grasping process may be performed by the CPU 72 inside the robot 12, or the recorded action history data or confirmed action history data is transferred to the external computer 20 and executed by the CPU of the external computer 20. It may be broken.

具体的には、行動履歴を所定の変換規則に照合して構成員間の関係性を判定する。変換規則は、所定の領域における構成員の共存の仕方と、それに対応する人間関係を規定したものである。人間のロボット12を介在させた所定の領域における他者との共存の仕方にはその人間関係が現れていると考えられるので、その共存の仕方をパターン化し、その行動パターンごとに人間関係がどのようなものであるかをルールとして予め定めている。   Specifically, the relationship between the members is determined by comparing the action history with a predetermined conversion rule. The conversion rule defines how members coexist in a predetermined area and the corresponding human relationship. It is thought that the human relations appear in the way of coexistence with others in a predetermined area with the human robot 12 interposed. Therefore, the way of coexistence is patterned, and the human relations for each action pattern Whether it is such is determined in advance as a rule.

図8には変換規則の一例として、典型的なルールのいくつかが示される。図8(A)には、ロボット12の前に構成員AおよびBの二人が常に同時に滞在する場合が示されていて、この場合の人間関係は、構成員AおよびBが相互に好意を持っている関係であると判定される。図8(B)には、ロボット12の前に先に構成員Aが来ていて、その後に構成員Bが来た場合が示されている。この場合の人間関係は、構成員BはAに対して好意を持っている関係であると判定される。図8(C)には、ロボット12の前に構成員Bが滞在していて、その後に構成員Aが来るとBが去っていく場合が示されている。この場合の人間関係は、構成員BはAを嫌っている関係であると判定される。   FIG. 8 shows some typical rules as examples of conversion rules. FIG. 8A shows a case in which two members A and B always stay at the same time in front of the robot 12. In this case, the human relationship between members A and B favors each other. It is determined that the relationship is possessed. FIG. 8B shows a case where the member A comes before the robot 12 and the member B comes after that. The human relationship in this case is determined to be a relationship in which the member B has a favor for A. FIG. 8C shows a case where the member B stays in front of the robot 12 and B leaves when the member A comes after that. The human relationship in this case is determined to be a relationship in which member B hates A.

図9には変換規則の一例として、より複雑な場合のルールのいくつかが示される。図9(A)には、ロボット12の前に構成員Aが来ると人が集まる場合が示される。この場合、集まった人達は構成員Aに好意を持っている関係にあり、さらにAはリーダー的存在の者である可能性が高いと判定される。なお、この場合の好意の度合は図8で示した1対1の関係における好意よりも弱いものに設定される。図9(B)には、ロボット12の前に人が集まっていて、その後構成員Aが来るとその人達が去っていく場合が示される。この場合、去っていった人達は構成員Aを嫌っている関係にあり、さらにAは嫌われ者的存在の者である可能性が高いと判定される。なお、この場合の嫌いの度合は、図8で示した1対1の関係における嫌いよりも弱いものに設定される。図9(C)には、構成員Aが他に誰もいないときにロボット12と遊ぶ場合が示される。この場合、構成員Aは他の人を嫌う傾向(排他的傾向)を有する者と判定される。   FIG. 9 shows some of the more complex rules as examples of conversion rules. FIG. 9A shows a case where people gather when the member A comes in front of the robot 12. In this case, it is determined that the gathered people have a favorable relationship with the member A, and that A is highly likely to be a leader. In this case, the degree of favor is set to be weaker than the favor in the one-to-one relationship shown in FIG. FIG. 9B shows a case where people are gathering in front of the robot 12 and then they leave when the member A comes. In this case, the people who have left are in a relationship that hates the member A, and further, it is determined that A is likely to be a disliked person. In this case, the degree of dislike is set to be weaker than dislike in the one-to-one relationship shown in FIG. FIG. 9C shows a case where the robot 12 plays with the member A when there is no other member A. In this case, the member A is determined as a person who has a tendency to hate other people (exclusive tendency).

たとえば、図7に示した行動履歴の場合、時刻t10からt30までは構成員AおよびBが同時に滞在していたので、この間の取得時刻の回数分は構成員AとBとは相互に好意を持っていると判定される。また、時刻t30においては構成員Cがやって来たので、構成員Cは構成員AとBに対して好意を持っていると判定される。また、時刻t30で構成員Cが来たことによって時刻t40では構成員Bが既にいなくなってしまったので、構成員Bは構成員Cを嫌っていると判定される。   For example, in the case of the action history shown in FIG. 7, since the members A and B stayed at the same time from the time t10 to the time t30, the members A and B favor each other for the number of times of acquisition. It is determined that you have it. Further, since the member C arrives at time t30, it is determined that the member C has a favor for the members A and B. Further, since the member B has already disappeared at the time t40 due to the arrival of the member C at the time t30, the member B is determined to dislike the member C.

このようにして、行動履歴データと変換規則に基づいて構成員間の関係性を判定することで、簡単に組織構造を把握することができる。そして、その判定結果に基づいて関係データを生成する。関係データは、たとえば図10に示すように、構成員(構成員ID)ごとの、他の構成員のそれぞれに対する人間関係に関する情報、たとえば好き度,嫌い度等を含む。また、この関係データには、変換規則によって判定された、たとえばリーダー的存在の者、嫌われ者的存在の者および排他的傾向を有する者等のような特殊関係情報も含まれる。リーダー的存在や嫌われ者的存在等は、たとえばどの構成員に対してそのような特殊関係にあるのかも記述される。これによって、当該組織構造を明確に、また分かり易い態様で把握することができる。   Thus, the organization structure can be easily grasped by determining the relationship between the members based on the action history data and the conversion rules. Then, relation data is generated based on the determination result. For example, as shown in FIG. 10, the relationship data includes information related to the human relationship for each member (member ID), for example, the degree of likes and dislikes. The relationship data also includes special relationship information determined by the conversion rules, such as a person who is a leader, a person who is disliked, a person who has an exclusive tendency, and the like. For example, a member who is a leader or hated is also described as to which member has such a special relationship. As a result, the organizational structure can be clearly and easily understood.

好き度および嫌い度は、たとえば、他の構成員のそれぞれに対して、好きと判定された回数、および嫌いと判定された回数をそれぞれ累計し、各累計を全滞在回数で割ることによって算出される。したがって、好き度合いは一緒に滞在した時間が長い(滞在回数が多い)程大きくなる。また、図10では省略してあるが、好き嫌いの方向性については、たとえば、一方的に好き、相互に好き、または一方的に嫌い等と判定された回数をそれぞれ累計し、最も多いものに決定する。   The degree of likes and dislikes are calculated by, for example, accumulating the number of times determined to be like and the number of times determined to be dislike for each of the other members, and dividing each total by the total number of stays. The Therefore, the degree of liking increases as the time spent together (the number of stays increases). Further, although omitted in FIG. 10, for the direction of likes and dislikes, for example, the number of times determined to be unilaterally like, mutually like or unilaterally dislike is accumulated and determined to be the largest. To do.

このようにして得られる関係データは、測定時間を長く設定して、取得データ量を増やすことによって、その精度を向上させることができるのは言うまでもない。組織の規模にもよるが、たとえば、ロボット12を、1日から数日、あるいは1週間から数週間程度、組織内に配置することが考えられる。なお、少なくとも1度はすべての構成員にロボット12とコミュニケーションする機会を与えるのに充分な時間を確保する必要がある。   It goes without saying that the relational data obtained in this way can be improved in accuracy by setting the measurement time longer and increasing the amount of acquired data. Depending on the size of the organization, for example, it may be possible to arrange the robot 12 in the organization for one day to several days, or about one week to several weeks. In addition, it is necessary to ensure sufficient time to give all members the opportunity to communicate with the robot 12 at least once.

そして、生成された関係データに基づいて、組織構造を適宜な形態で出力する。つまり、たとえば、図11に示すような組織構造を図で表したソシオグラムや、表で示したソシオマトリックス(図示せず)などを、外部コンピュータ20のディスプレイに表示させたり、プリンタに出力したりする。なお、ロボット12の内部で関係データを生成する場合には、生成した関係データを外部コンピュータ20に転送してディスプレイに表示させる。   Then, based on the generated relational data, the organizational structure is output in an appropriate form. In other words, for example, a sociogram showing the organizational structure shown in FIG. 11 or a sociometric matrix (not shown) shown in the table is displayed on the display of the external computer 20 or outputted to a printer. To do. When the relation data is generated inside the robot 12, the generated relation data is transferred to the external computer 20 and displayed on the display.

ソシオグラムは、上述のような各構成員間の人間関係に関する情報を、たとえば、主成分分析,ばねモデル解析等のような一般的なグラフ解析の手法を用いて変換することによって生成することができる。このソシオグラムによって当該組織の構造を明確に示すことができる。   The sociogram can be generated by converting the information on the human relationship between the members as described above by using a general graph analysis technique such as principal component analysis, spring model analysis, etc. it can. This sociogram can clearly show the structure of the tissue.

たとえば図11のソシオグラム画面では、各構成員は名前の書かれた丸印によって示され、各構成員間の関係性は互いを接続する矢印で示されている。この矢印は図8および図9で示した判定結果において用いられる矢印と同様であり、黒い矢印は「好き」を示し、白抜きに×印が加えられた矢印は「嫌い」を示している。それらの度合いは、矢印の長さと太さで示されている。長さに関しては、好き度合いが高いほど短くされ、嫌い度が高いほど長くされる。また、太さに関しては、好きおよび嫌いの度合いが高いほど太くされる。   For example, in the sociogram screen of FIG. 11, each member is indicated by a circle with a name written thereon, and the relationship between each member is indicated by an arrow connecting each other. This arrow is the same as the arrow used in the determination results shown in FIG. 8 and FIG. 9, the black arrow indicates “like”, and the white arrow with an x mark indicates “dislike”. Their degree is indicated by the length and thickness of the arrows. The length is shortened as the degree of liking is high, and is lengthened as the degree of dislike is high. Also, regarding the thickness, the higher the degree of likes and dislikes, the thicker.

このソシオグラムによって、たとえば仲良しグループの存在が浮き彫りになるし、嫌われ者(いじめられっ子)も見つけることができる。また、誰が好き嫌いが激しく、全体の組織作りに最も関与しているか等も把握できる。たとえば図11のソシオグラムでは、組織内に、構成員A,B,CおよびDを含むグループと、構成員F,GおよびHを含むグループとが存在していることや、構成員Eが全体から排斥されていること等が明らかにわかる。したがって、組織構造を適宜な形態で表示出力することによって、組織構造を明確かつ簡単に把握することができる。そして、このシステム10によって見出された組織構造を用いて、たとえば学校教育では、いじめられっ子の発見や学級運営,生徒指導などのような、様々なコミュニケーション支援に役立てることができる。   This sociogram highlights, for example, the existence of a close group, and can also find dislikes (bullyed children). You can also see who likes and dislikes most and is most involved in the overall organization. For example, in the sociogram shown in FIG. 11, there are a group including members A, B, C, and D and a group including members F, G, and H in the organization. You can clearly see that it has been rejected. Therefore, the organizational structure can be clearly and easily grasped by displaying and outputting the organizational structure in an appropriate form. Using the organizational structure found by the system 10, for example, in school education, it can be used for various communication support such as discovery of a bullied child, class management, student guidance, and the like.

このようにして、ロボット12によって測定したときの当該組織における構成員の関係を明確に把握することができる。さらに、測定を継続的または定期的(たとえば毎月,毎学期,毎季など)に実施することによって、人間関係の動的な時間変化を捉えることも可能であり、たとえばいじめの解消等のようなコミュニケーション支援の成果等も確認することができる。   In this way, it is possible to clearly grasp the relationship among members in the organization as measured by the robot 12. Furthermore, by taking measurements continuously or periodically (for example, monthly, semester, season, etc.), it is possible to capture dynamic temporal changes in human relationships, such as the elimination of bullying. The results of communication support can also be confirmed.

図12には、ロボット12の行動履歴の記録処理の動作の一例が示される。ロボット12が対象組織内に配置されて、行動履歴の記録が開始されると、ロボット12のCPU72は、まず、ステップS1でコミュニケーション行動の開始を実行する。これによって、ロボット12は、行動履歴の記録と並行して構成員との間でのコミュニケーション行動を実行することとなる。次に、ステップS3でタイマのカウントを開始させ、ステップS5で現時刻がデータの取り込み時刻であるか否かを判断する。この実施例では一定周期(たとえば1秒間隔)でデータの取り込みが行われるので、一定時間が経過したかが判断される。ステップS5で“YES”であれば、続くステップS7で、CPU72は無線タグ読取装置18をチェックしてRFIDの識別情報があるかどうかを判断し、ある場合にはステップS9で、RFIDの識別情報を取得してメモリ76の所定エリアに記憶する。一方、ステップS7で“NO”であればそのままステップS11へ進む。   FIG. 12 shows an example of an operation history recording process operation of the robot 12. When the robot 12 is placed in the target tissue and the recording of the action history is started, the CPU 72 of the robot 12 first starts the communication action in step S1. As a result, the robot 12 executes the communication behavior with the members in parallel with the recording of the behavior history. Next, in step S3, the timer starts counting, and in step S5, it is determined whether or not the current time is the data fetch time. In this embodiment, since the data is taken in at a constant cycle (for example, at intervals of 1 second), it is determined whether a certain time has elapsed. If “YES” in the step S5, in a subsequent step S7, the CPU 72 checks the RFID tag reading device 18 to determine whether or not there is RFID identification information. If there is, the RFID identification information in the step S9. And is stored in a predetermined area of the memory 76. On the other hand, if “NO” in the step S7, the process proceeds to a step S11 as it is.

ステップS11では、CPU72はセンサ入力/出力ボード80をチェックして赤外線タグの識別情報があるかどうかを判断し、ある場合にはステップS13で赤外線タグの識別情報を取得してメモリ76の所定エリアに記憶する。一方、ステップS11で“NO”であればそのままステップS15へ進む。   In step S 11, the CPU 72 checks the sensor input / output board 80 to determine whether there is infrared tag identification information. If there is, the CPU 72 acquires the infrared tag identification information in step S 13 to obtain a predetermined area of the memory 76. To remember. On the other hand, if “NO” in the step S11, the process proceeds to a step S15 as it is.

ステップS15では、CPU72はユーザDB98(図4)を参照して、RFIDによる識別情報および赤外線LEDによる識別情報に対応する構成員IDをそれぞれ取得してメモリ76の所定エリアに記憶する。   In step S <b> 15, the CPU 72 refers to the user DB 98 (FIG. 4), acquires the member ID corresponding to the identification information by RFID and the identification information by infrared LED, and stores them in a predetermined area of the memory 76.

続いて、ステップS17で、CPU72は、当該識別情報の取り込み時刻と関連付けて、各構成員IDを履歴DB100に記録する(図5)。なお、取り込み時刻は一定時間ごとにあるので、この図5では取り込み時刻を順にtn(nは正の整数)で示している。そして、再びステップS5に戻って、取り込み時刻か否かを判断し、“YES”であれば識別情報の取得および記録を繰り返す。   Subsequently, in step S17, the CPU 72 records each member ID in the history DB 100 in association with the time of taking in the identification information (FIG. 5). Since the capture time is every fixed time, in FIG. 5, the capture times are sequentially indicated by tn (n is a positive integer). And it returns to step S5 again, it is judged whether it is taking-in time, and if it is "YES", acquisition and recording of identification information will be repeated.

一方、ステップS5で“NO”であれば、ステップS19で、所定の取り込み終了時刻を超えたか否かを判断する。このステップS19で“NO”であれば再びステップS5に戻って識別情報の取得および記録を繰り返す。他方、ステップS19で“YES”であれば、この行動履歴の記録処理を終了する。このようにして、図5に示したような行動履歴DB100を得ることができる。   On the other hand, if “NO” in the step S5, it is determined whether or not a predetermined capturing end time is exceeded in a step S19. If “NO” in the step S19, the process returns to the step S5 again to repeat the acquisition and recording of the identification information. On the other hand, if “YES” in the step S19, the action history recording process is ended. In this way, the action history DB 100 as shown in FIG. 5 can be obtained.

図13には、行動履歴の確定処理の動作の一例が示される。なお、この図13の処理、ならびに後述する図14および図16の処理は、上述のように場合によってはロボット12の内部でそのCPU72によって処理されてよいが、ここでは、ロボット12で行動履歴の記録を終了した後は、その履歴DB100のデータを外部コンピュータ20へ転送して、外部コンピュータ20で行動履歴データを処理するものとして説明する。   FIG. 13 shows an example of the action history determination process. The processing of FIG. 13 and the processing of FIG. 14 and FIG. 16 to be described later may be processed by the CPU 72 inside the robot 12 as described above. After the recording is finished, the data in the history DB 100 is transferred to the external computer 20 and the action history data is processed by the external computer 20.

図13に示すように、外部コンピュータ20のCPUは、まず、ステップS31で取り込み時刻を指定するための変数nの初期値を1に設定し、次に、ステップS33で、履歴データの時刻tnのデータについて、RFID読取装置18によって検知された構成員IDが記録されているかどうかを判断する。ここでは、履歴データについて最初の取り込み時刻のデータから順に処理を行っている。このステップS33で“NO”であれば、ステップS45へ進む。一方、ステップS33で“YES”であれば、続くステップS35でRFIDタグ14による構成員IDを履歴データから読み込んで取得する。   As shown in FIG. 13, the CPU of the external computer 20 first sets the initial value of the variable n for designating the fetch time in step S31 to 1, and then in step S33, the history data at the time tn. It is determined whether the member ID detected by the RFID reader 18 is recorded for the data. Here, the history data is processed in order from the data of the first capture time. If “NO” in the step S33, the process proceeds to a step S45. On the other hand, if “YES” in the step S33, the member ID by the RFID tag 14 is read from the history data and obtained in a succeeding step S35.

続いて、ステップS37で、履歴データの時刻tnのデータについて、赤外線タグによる構成員IDが記録されているかどうかを判断する。このステップS37で“NO”であればステップS45へ進む。一方、ステップS37で“YES”であれば、続くステップS39で、赤外線LEDタグ16による構成員IDを履歴データから読み込んで取得する。   Subsequently, in step S37, it is determined whether or not the member ID by the infrared tag is recorded for the data at the time tn of the history data. If “NO” in the step S37, the process proceeds to a step S45. On the other hand, if “YES” in the step S37, the member ID by the infrared LED tag 16 is read from the history data and obtained in a succeeding step S39.

続くステップS41では、RFIDタグ14による構成員IDと赤外線LEDタグ16による構成員IDとを比較して、両者に共通する構成員IDを抽出する。このように、RFID読取装置18と赤外線カメラ44の両方で検知された構成員IDのみを所定領域に存在するものとして抽出する。   In the following step S41, the member ID by the RFID tag 14 and the member ID by the infrared LED tag 16 are compared, and the member ID common to both is extracted. In this way, only the member ID detected by both the RFID reader 18 and the infrared camera 44 is extracted as existing in the predetermined area.

そして、ステップS43で、当該時刻tnに対応付けて、抽出した構成員IDを確定行動履歴データとしてメモリの所定エリアに記録する。   In step S43, the extracted member ID is recorded in the predetermined area of the memory as the confirmed action history data in association with the time tn.

ステップS45では、時刻tnが取り込み終了時刻であるかどうか、つまり、履歴データのすべての取り込み時刻tnについて、抽出処理が終了したかどうかを判断し、“NO”であれば、ステップS47で、変数nをインクリメントして、ステップS33に戻り、次の取り込み時刻tnについての抽出処理を繰り返し行う。一方、ステップS45で“YES”であれば、この行動履歴の確定処理を終了する。このようにして、履歴データのすべての取り込み時刻tnについて、所定領域に存在するとみなせる構成員IDの抽出を行って、確定行動履歴データを生成する。   In step S45, it is determined whether or not the time tn is the capture end time, that is, whether or not the extraction process has been completed for all the capture times tn of the history data. If “NO”, the variable is determined in step S47. n is incremented, the process returns to step S33, and the extraction process for the next capture time tn is repeated. On the other hand, if “YES” in the step S45, the action history determination process is ended. In this manner, the member ID that can be regarded as existing in the predetermined area is extracted for all the capture times tn of the history data, and the confirmed action history data is generated.

この確定行動履歴データに基づいて、構成員の関係の把握処理が実行される。具体的には、上述のように、たとえば図8および図9に示したような所定の変換規則に基づいて関係が判定されるので、確定行動履歴データに前処理を施して判定を容易に行えるようにする。すなわち、図14に示すような行動パターンデータの生成処理によって、確定行動履歴データから測定時刻の前後における構成員IDの変化を抽出した行動パターンデータを生成する。   Based on this confirmed action history data, the process of grasping the relationship between members is executed. Specifically, as described above, for example, the relationship is determined based on a predetermined conversion rule as shown in FIGS. 8 and 9, for example, so that the determination can be easily performed by pre-processing the confirmed action history data. Like that. That is, action pattern data obtained by extracting the change in the member ID before and after the measurement time from the confirmed action history data is generated by action pattern data generation processing as shown in FIG.

図14の最初のステップS61で、外部コンピュータ20のCPUは、取り込み時刻を指定するための変数mの初期値を0に設定し、次に、ステップS63で、確定行動履歴データの時刻tmについての構成員IDデータと、次の時刻tm+1についての構成員IDデータとを読み込んで取得する。   In the first step S61 in FIG. 14, the CPU of the external computer 20 sets the initial value of the variable m for designating the capture time to 0, and then in step S63, the time tm of the confirmed action history data is set. The member ID data and the member ID data for the next time tm + 1 are read and acquired.

続いて、ステップS65で、両構成員IDを比較して、両者に共通する構成員ID、次の時刻tm+1になったときに増加した構成員ID、および減少した構成員ID等を抽出する。   Subsequently, in step S65, the two member IDs are compared, and the member ID common to both members, the member ID increased at the next time tm + 1, the member ID decreased, and the like are extracted. To do.

そして、ステップS67で、抽出した共通する構成員ID、増加した構成員ID、および減少した構成員ID等を、たとえばその時刻tm+1に対応付けて、行動パターンデータとして記録する。   In step S67, the extracted common member ID, increased member ID, decreased member ID, and the like are recorded as behavior pattern data in association with the time tm + 1, for example.

続くステップS69で、当該時刻tm+1が取り込み終了時刻であるかどうか、つまり、確定行動履歴データのすべての隣り合う時刻の組について上述の抽出処理等を行ったかどうかを判断する。このステップS69で“NO”であれば、続くステップS71で変数mをインクリメントし、ステップS63へ戻って、次の時刻の組についての処理を繰り返す。一方、ステップS69で“YES”であれば、この行動パターンデータの生成処理を終了する。   In a succeeding step S69, it is determined whether or not the time tm + 1 is the capture end time, that is, whether or not the above-described extraction processing or the like has been performed for all adjacent time pairs of the confirmed action history data. If “NO” in this step S69, the variable m is incremented in a succeeding step S71, and the process returns to the step S63 to repeat the processing for the next set of times. On the other hand, if “YES” in the step S69, the action pattern data generation process is ended.

このようにして、確定行動履歴データにおいてすべての測定時刻の前後で共通するID,増加したIDおよび減少したID等の抽出を行って、図15に示すような行動パターンデータを生成する。これによって、確定行動履歴データを構成員の行動パターンとして捉えることができるので、構成員の行動パターンとそれに対応する関係とを規定した変換規則に基づいた判定を容易に行うことが可能となる。   In this manner, common pattern ID, increased ID, decreased ID, etc. are extracted before and after all measurement times in the confirmed action history data, and action pattern data as shown in FIG. 15 is generated. As a result, since the confirmed behavior history data can be understood as the behavior pattern of the member, the determination based on the conversion rule that defines the behavior pattern of the member and the corresponding relationship can be easily performed.

図16には、関係の把握および表示処理の動作の一例が示される。外部コンピュータ20のCPUは、まず、ステップS91で、関係を求める1つの構成員IDを選定する。次に、ステップS93で、行動パターンデータにおける抽出時刻を指定するための変数mの初期値を0に設定し、続くステップS95で、行動パターンデータの時刻tm+1のデータを読み込んで取得する。   FIG. 16 shows an example of the relationship grasping and display processing operations. First, in step S91, the CPU of the external computer 20 selects one member ID for which a relationship is to be obtained. Next, in step S93, the initial value of the variable m for designating the extraction time in the behavior pattern data is set to 0, and in the subsequent step S95, the data at time tm + 1 of the behavior pattern data is read and acquired.

そして、ステップS97で、当該データについて、共通するID、増加したID、または減少したIDが有るか否かを判断する。このステップS97で“NO”であればステップS105へ進む。   In step S97, it is determined whether there is a common ID, an increased ID, or a decreased ID for the data. If “NO” in the step S97, the process proceeds to a step S105.

一方、ステップS97で“YES”であれば、ステップS99で、そのデータについて、当該選定したIDと他のIDとの関係を変換規則に基づいて判定し、その結果を記録する。たとえば、図8および図9に示した例によれば、当該選定したIDが共通IDに存在する場合には、共通IDの他のIDとは相互に好きと判定することができる。また、当該選定したIDが増加IDにある場合には、共通IDのIDに対して、または共通IDのうち所定時間前まで遡った範囲で増加していたID等に対して一方的に好きと判定することができる。また、当該選定したIDが減少IDにある場合には、所定時間前までの範囲で増加したID等に対して一方的に嫌いと判定することができる。さらにまた、当該選定したIDが増加IDに存在した後の所定時間の範囲内に所定数以上のIDの増加があった場合には、当該選定IDはそれら増加した複数IDのリーダー的存在の者であると判定できる。また、当該選定IDが増加IDに存在した後の所定時間内に所定数以上のIDの減少があった場合には、当該選定IDはそれら減少した複数IDからの嫌われ者的存在の者であると判定できる。また、当該選定IDのみが共通IDに所定時間以上存在する場合には、当該選定IDは他の人を嫌う排他的傾向の者と判定できる。   On the other hand, if “YES” in the step S97, the relationship between the selected ID and another ID is determined based on the conversion rule for the data in a step S99, and the result is recorded. For example, according to the example shown in FIG. 8 and FIG. 9, when the selected ID exists in the common ID, it can be determined that the other IDs like the other common IDs. In addition, when the selected ID is an increase ID, it is unilaterally favored with respect to the ID of the common ID, or the ID that has increased in the range that goes back a predetermined time before the common ID. Can be determined. Further, when the selected ID is a decrease ID, it can be determined that the ID or the like increased in a range up to a predetermined time before is unilaterally disliked. Furthermore, when there is an increase of a predetermined number of IDs within a predetermined time after the selected ID exists in the increased ID, the selected ID is a leader of the increased number of IDs. Can be determined. In addition, when there is a decrease in a predetermined number of IDs within a predetermined time after the selection ID exists in the increase ID, the selection ID is a person who is disliked from the decreased plurality of IDs. It can be determined that there is. Further, when only the selected ID exists in the common ID for a predetermined time or more, the selected ID can be determined as a person with an exclusive tendency to hate other people.

続いて、ステップS101で、同じ関係のもの、すなわち、同じIDに対して同じ関係に判定されたものの数を累計し、ステップS103で、当該選定IDについて判定を終了するかどうか判断する。このステップS103で“NO”であれば、つまり、行動パターンデータのすべての抽出時刻について処理を終了していない場合には、ステップS105へ進み、変数mをインクリメントして、ステップS95へ戻って次の抽出時刻のデータについて処理を繰り返す。   Subsequently, in step S101, the number of the same relation, that is, the number of the same ID determined to be the same is accumulated, and in step S103, it is determined whether or not to end the determination for the selected ID. If “NO” in this step S103, that is, if the processing has not been completed for all extraction times of the behavior pattern data, the process proceeds to a step S105, the variable m is incremented, and the process returns to the step S95 to be next. The processing is repeated for the data of the extraction time.

一方、ステップS103で“YES”であれば、続くステップS107で、当該選定IDの他のIDに対する各関係の度合いを各累計回数および全滞在回数等に基づいて算出して記録する。そして、ステップS109で、すべての構成員IDについて処理を行ったかどうかを判断し、“NO”であればステップS91へ戻って別のIDを選定し、その別のIDについて処理を繰り返す。このようにして、たとえば図10に示すような関係データが生成される。   On the other hand, if “YES” in the step S103, the degree of each relationship with respect to other IDs of the selected ID is calculated and recorded based on the total number of times and the total number of stays in the subsequent step S107. In step S109, it is determined whether or not all member IDs have been processed. If “NO”, the process returns to step S91 to select another ID, and the process is repeated for the other ID. In this way, for example, relational data as shown in FIG. 10 is generated.

そして、ステップS111で、関係データに基づいて一般的なグラフ解析手法を用いてソシオグラムを描画するためのデータを生成する。続くステップS113で、たとえば図11に示すようなソシオグラムを外部コンピュータ20のディスプレイに表示させて、この関係把握および表示処理を終了する。   In step S111, data for drawing a sociogram is generated based on the relation data using a general graph analysis technique. In the subsequent step S113, for example, a sociogram as shown in FIG. 11 is displayed on the display of the external computer 20, and this relationship grasping and display processing is terminated.

この実施例によれば、組織内に導入した接近装置としてのロボット12に設けられる取得手段によって、構成員を識別する情報を取得して、所定領域における各構成員の行動の履歴を記録するので、各構成員のごく自然な振る舞いを記録することができる。そして、そのような行動履歴に基づいて、その中に反映されている構成員間の関係性を見出して明らかにすることができる。したがって、構成員にあからさまに他の構成員に対する好き嫌いを尋ねるようなことなく、ありのままの情報から構成員間の関係性を見出すことができるので、各構成員間の関係(組織構造)を正確に把握することができる。   According to this embodiment, the information for identifying the member is acquired by the acquisition means provided in the robot 12 as the access device introduced into the organization, and the behavior history of each member in the predetermined area is recorded. , Can record the natural behavior of each member. And based on such an action history, the relationship between the members reflected in it can be found and clarified. Therefore, it is possible to find the relationship between the members from the information as it is, without asking the members to like or dislike other members, so the relationship (organizational structure) between each member can be accurately determined. I can grasp it.

なお、上述の実施例では、識別情報を取得するためにロボット12に設けられた無線タグ読取装置18や赤外線カメラ44等を使用していたが、これら取得手段はロボット12の近傍や周辺等に設けて、ロボット12の周囲や前方など近くに設定した所定領域を検知させるようにしてもよい。この場合、これら取得手段は外部コンピュータ20に接続し、行動履歴の記録や関係データの生成等のすべての処理は外部コンピュータ20で行うようにしてもよい。   In the above-described embodiment, the wireless tag reader 18 or the infrared camera 44 provided in the robot 12 is used to acquire the identification information. However, these acquisition means are located near or around the robot 12. It may be provided to detect a predetermined area set near the robot 12 or the front. In this case, these acquisition means may be connected to the external computer 20, and all processing such as action history recording and related data generation may be performed by the external computer 20.

また、上述の各実施例では、組織の存在する空間内にロボット12を導入し、ロボット12を介在させたときの各構成員の行動を記録するようにしているが、組織の存在する空間に導入するものは、ロボット12に限られるものではない。つまり、ロボット12と同様に、たとえば、比較的長期にわたって構成員の興味を引いたり、構成員の注目を集めたり、構成員の注意を引き付けたり、あるいは親しみを感じさせたりするなどして、構成員をして自発的に近付かせるような接近装置を導入し、その接近装置の近傍の所定領域における構成員の行動履歴を記録するようにしてもよい。この場合、無線タグ読取装置18や赤外線カメラ44等の識別情報を取得するための手段を、その構成員を近付かせるための接近装置自体または接近装置の近傍ないし周辺等に設置するとともに、検知する所定領域をその接近装置の近くに設定する。このような構成員をして自発的に近づかせるための接近装置としてロボット12以外のものは、たとえば、PC、ディスプレイに接続されたビデオゲーム機、掲示物、教材、または動物(犬や兎等)の形状をしたぬいぐるみなど、種々の機器や道具などの様々な物体が考えられる。   Further, in each of the above-described embodiments, the robot 12 is introduced into the space where the organization exists, and the behavior of each member when the robot 12 is interposed is recorded, but in the space where the organization exists. What is introduced is not limited to the robot 12. That is, similar to the robot 12, for example, it is configured by attracting the members' interest over a relatively long period of time, attracting the members' attention, attracting the members' attention, or feeling familiarity. It is also possible to introduce an approach device that allows a member to approach voluntarily and record the behavior history of members in a predetermined area near the approach device. In this case, a means for acquiring identification information such as the RFID tag reader 18 and the infrared camera 44 is installed in the proximity device itself for approaching its members or in the vicinity or vicinity of the proximity device and detected. A predetermined area is set near the access device. As an approach device for making such a member approach voluntarily, other than the robot 12, for example, a PC, a video game machine connected to a display, a display, a teaching material, or an animal (dog, cage, etc.) Various objects such as various devices and tools, such as a stuffed doll with the shape of

また、上述の各実施例では、システム10はロボット12(接近装置)および外部コンピュータ20を含むものであったが、外部コンピュータ20の備える機能をすべてロボット12のような接近装置に設けるようにして、つまり、たとえばディスプレイや、行動履歴データから関係データを生成して出力するためのプログラム等をロボット12のような接近装置に備えさせるようにして、接近装置のみで実現するようにしてもよい。この場合、接近装置であるロボット12や上述のたとえばぬいぐるみそのもの等が関係検知システム10となる。   In each of the above-described embodiments, the system 10 includes the robot 12 (access device) and the external computer 20. However, all the functions of the external computer 20 are provided in the access device such as the robot 12. That is, for example, the approach device such as the robot 12 may be provided with a display, a program for generating and outputting the relation data from the action history data, and the like. In this case, the robot 12 that is an approach device or the above-described stuffed animal itself becomes the relationship detection system 10.

また、上述の各実施例では、無線タグ読取装置18および赤外線カメラ44等のような検知可能な所定領域の異なる複数の取得手段を使用することで、行動の測定精度を高めるようにしているが、場合によっては一方のみの使用で測定を行うようにしてもよい。   In each of the above-described embodiments, the action measurement accuracy is improved by using a plurality of acquisition means having different detectable predetermined areas such as the wireless tag reader 18 and the infrared camera 44. In some cases, the measurement may be performed by using only one of them.

また、上述の各実施例では、構成員を識別するための情報を取得するために無線タグ14や赤外線LEDタグ16を各構成員に取り付けておくようにしていたが、構成員を識別するための情報は、構成員そのものから取得するようにしてもよい。たとえば、CCDカメラ等のイメージセンサ(ロボット12では眼カメラ48や全方位カメラ42)によって構成員の顔の画像を取得し、予め準備しておいた構成員の顔画像データベースと照合することによって、識別するようにしてもよい。あるいは、構成員の指紋や虹彩等を読み取る装置を設けて、これらを同様にデータベースで照合することによって、識別することも考えられる。   In each of the above-described embodiments, the wireless tag 14 and the infrared LED tag 16 are attached to each member in order to acquire information for identifying the member. This information may be acquired from the members themselves. For example, by acquiring an image of a member's face by an image sensor such as a CCD camera (eye camera 48 or omnidirectional camera 42 in the robot 12) and collating it with a member's face image database prepared in advance. You may make it identify. Alternatively, it is also possible to identify by providing a device that reads a member's fingerprint, iris, etc. and collating them with a database in the same manner.

また、上述の各実施例では、組織構造として、主として個個の構成員間の関係性を把握する場合を説明したが、構成員を何らかの特徴ないし共通性によって所定の単位(基本的なまとまり)に分けて、その単位間の関係性を決定するようにしてもよい。組織を所定単位に分類する要素の例としては、たとえば性別,年齢,学年,世代,出身校,出身地,職業,職階,趣味など種々のものが考えられる。この場合にも、種々の観点から当該組織の構造を把握することができ、また、組織内の様々なコミュニケーション支援に役立てることが可能であろう。なお、これらの各要素の詳細は予め調査しておいてユーザDB98に構成員IDに関連付けて登録しておけばよい。あるいは、たとえば構成員の肌の色(白,黒,黄,褐色等)や髪の毛の色など、構成員の外見から取得できるような要素で分類する場合には、その識別情報をたとえばイメージセンサによって構成員そのものから直接検出するようにしてもよい。   Further, in each of the above-described embodiments, the case where the relationship between individual members is mainly grasped as an organizational structure has been described. However, a predetermined unit (basic group) is determined based on some characteristic or commonality among members. The relationship between the units may be determined separately. As examples of elements for classifying an organization into predetermined units, various factors such as sex, age, school year, generation, school of origin, hometown, occupation, job rank, hobby, and the like can be considered. Also in this case, the structure of the organization can be grasped from various viewpoints, and it can be used for various communication support in the organization. The details of each of these elements may be investigated in advance and registered in the user DB 98 in association with the member ID. Or, for example, when classifying by elements that can be obtained from the appearance of the member, such as the color of the member's skin (white, black, yellow, brown, etc.) or the color of the hair, the identification information is obtained by an image sensor, for example. You may make it detect directly from the member itself.

この発明の一実施例の関係検知システムの概要を示す図解図である。It is an illustration figure which shows the outline | summary of the relationship detection system of one Example of this invention. 図1のコミュニケーションロボットの外観を示す図解図(正面図)である。It is an illustration figure (front view) which shows the external appearance of the communication robot of FIG. 図1のコミュニケーションロボットの内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the communication robot of FIG. 図3のユーザDBの内容の一例を示す図解図である。It is an illustration figure which shows an example of the content of user DB of FIG. 図1の履歴DBの内容の一例を示す図解図である。It is an illustration figure which shows an example of the content of log | history DB of FIG. 無線タグ読取装置による検知領域と赤外線カメラによる検知領域との関係を示す図解図である。It is an illustration figure which shows the relationship between the detection area by a wireless tag reader, and the detection area by an infrared camera. 確定した行動の履歴の一例を示す図解図である。It is an illustration figure which shows an example of the log | history of the confirmed action. 所定領域における行動パターンとそれに対応する構成員間の関係の一例を示す図解図である。It is an illustration figure which shows an example of the relationship between the action pattern in a predetermined area | region, and the member corresponding to it. 所定領域における行動パターンとそれに対応する構成員間の関係の他の一例を示す図解図である。It is an illustration figure which shows another example of the relationship between the action pattern in a predetermined area | region, and the member corresponding to it. 生成される関係データの内容の一例を示す図解図である。It is an illustration figure which shows an example of the content of the relationship data produced | generated. 表示されるソシオグラムの一例を示す図解図である。It is an illustration figure which shows an example of the sociogram displayed. ロボットにおける行動履歴の記録処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the recording process of the action history in a robot. 行動履歴の確定処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the determination process of action history. 行動パターンデータの生成処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the production | generation process of action pattern data. 生成される行動パターンデータの内容の一例を示す図解図である。It is an illustration figure which shows an example of the content of the action pattern data produced | generated. 関係の把握および表示処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement of the grasping | ascertainment of a relationship, and a display process.

符号の説明Explanation of symbols

10 …関係検知システム
12 …コミュニケーションロボット
14 …無線タグ
16 …赤外線LEDタグ
18 …無線タグ読取装置
20 …外部コンピュータ
44 …赤外線カメラ
DESCRIPTION OF SYMBOLS 10 ... Relationship detection system 12 ... Communication robot 14 ... Wireless tag 16 ... Infrared LED tag 18 ... Wireless tag reader 20 ... External computer 44 ... Infrared camera

Claims (12)

複数の構成員を含む組織における前記構成員間または前記構成員の特徴によって分類される単位間の関係を検知する関係検知システムであって、
所定領域に存在する前記構成員を識別する識別手段、
前記識別手段による識別に基づいて前記構成員が前記所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、
前記記録手段によって記録された前記行動の履歴から抽出される前記所定領域における共存の仕方と、前記所定領域における共存の仕方に対応する前記関係を規定した所定の規則とに基づいて、前記構成員間または前記単位間の好き嫌いに関する情報を生成する関係把握手段を備え
前記所定の規則は、前記所定領域における前記構成員の共存の仕方に対応する前記構成員間の関係を規定した所定の規則であって、構成員同士が同時に滞在する場合当該構成員同士が相互に好意を持っているという規則、一方の構成員の後に他方の構成員が来る場合当該他方の構成員が当該一方の構成員に好意を持っているという規則、一方の構成員が来ると他方の構成員が去る場合当該他方の構成員が当該一方の構成員を嫌っているという規則、或る構成員が来ると他の構成員たちが集まる場合当該他の構成員たちが当該或る構成員に好意を持っているとともに当該或る構成員がリーダー的存在の者であるという規則、或る構成員が来ると他の構成員たちが去っていく場合当該他の構成員たちが当該或る構成員を嫌っているとともに当該或る構成員が嫌われ者的存在の者であるという規則、および、或る構成員が他に誰もいないときに存在する場合当該或る構成員が排他的傾向の者であるという規則の少なくとも1つを含む、関係検知システム。
A relationship detection system for detecting a relationship between the members in an organization including a plurality of members or between units classified by the characteristics of the members,
An identification means for identifying the member existing in the predetermined area;
Recording means for recording a history of actions related to whether the member exists in the predetermined area based on identification by the identification means;
Based on the coexistence method in the predetermined area extracted from the action history recorded by the recording means and the predetermined rule that defines the relationship corresponding to the coexistence method in the predetermined area A relationship grasping means for generating information about likes and dislikes between or between the units ,
The predetermined rule is a predetermined rule that defines a relationship between the members corresponding to how the members coexist in the predetermined area, and when the members stay at the same time, the members The rule that the other member comes after one member, the rule that the other member favors the one member, the other member when the other member comes The rule that the other member dislikes the one member when the other member leaves, the other member who gathers when the other member comes, the other member The rules that a member is a leader, and if other members leave when a member arrives, the other members Hate the members At least one of the rules that a member is a disliked person and a rule that a member is an exclusive person when there is no other member Relationship detection system , including two .
複数の構成員を含む組織における前記構成員間または前記構成員の特徴によって分類される単位間の関係を検知する関係検知システムであって、
前記組織の存在する空間内に設けられるかつ前記構成員をして自発的に近付かせるための接近装置、
前記接近装置の近くの所定領域に存在する前記構成員を識別する識別手段、
前記識別手段による識別に基づいて前記構成員が前記所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および
前記記録手段によって記録された前記行動の履歴から抽出される前記所定領域における共存の仕方と、前記所定領域における共存の仕方に対応する前記関係を規定した所定の規則とに基づいて、前記構成員間または前記単位間の好き嫌いに関する情報を生成する関係把握手段を備え
前記所定の規則は、前記所定領域における前記構成員の共存の仕方に対応する前記構成員間の関係を規定した所定の規則であって、構成員同士が同時に滞在する場合当該構成員同士が相互に好意を持っているという規則、一方の構成員の後に他方の構成員が来る場合当該他方の構成員が当該一方の構成員に好意を持っているという規則、一方の構成員が来ると他方の構成員が去る場合当該他方の構成員が当該一方の構成員を嫌っているという規則、或る構成員が来ると他の構成員たちが集まる場合当該他の構成員たちが当該或る構成員に好意を持っているとともに当該或る構成員がリーダー的存在の者であるという規則、或る構成員が来ると他の構成員たちが去っていく場合当該他の構成員たちが当該或る構成員を嫌っているとともに当該或る構成員が嫌われ者的存在の者であるという規則、および、或る構成員が他に誰もいないときに存在する場合当該或る構成員が排他的傾向の者であるという規則の少なくとも1つを含む、関係検知システム。
A relationship detection system for detecting a relationship between the members in an organization including a plurality of members or between units classified by the characteristics of the members,
An access device provided in a space where the tissue exists and for allowing the member to approach spontaneously;
Identifying means for identifying the member present in a predetermined area near the access device;
Recording means for recording a history of actions related to whether the member exists in the predetermined area based on identification by the identification means, and the predetermined area extracted from the history of actions recorded by the recording means Based on a coexistence method and a predetermined rule that defines the relationship corresponding to the coexistence method in the predetermined area, and a relationship grasping means for generating information on likes and dislikes between the members or between the units ,
The predetermined rule is a predetermined rule that defines a relationship between the members corresponding to how the members coexist in the predetermined area, and when the members stay at the same time, the members The rule that the other member comes after one member, the rule that the other member favors the one member, the other member when the other member comes The rule that the other member dislikes the one member when the other member leaves, the other member who gathers when the other member comes, the other member The rules that a member is a leader, and if other members leave when a member arrives, the other members Hate the members At least one of the rules that a member is a disliked person and a rule that a member is an exclusive person when there is no other member Relationship detection system , including two .
前記識別手段は、前記所定領域に存在する前記構成員の識別情報を取得する取得手段を含み、
前記記録手段は、前記取得手段によって取得された前記識別情報に基づいて、前記行動の履歴を記録する、請求項1または2記載の関係検知システム。
The identification means includes acquisition means for acquiring identification information of the member existing in the predetermined area,
The relationship detection system according to claim 1, wherein the recording unit records a history of the behavior based on the identification information acquired by the acquisition unit.
前記接近装置は、自律移動するための自律移動手段および前記所定領域に存在する前記構成員の識別情報を取得する取得手段を備えるコミュニケーションロボットを含む、請求項2記載の関係検知システム。   The relation detection system according to claim 2, wherein the approaching device includes a communication robot including an autonomous moving means for autonomously moving and an acquiring means for acquiring identification information of the member existing in the predetermined area. 前記取得手段は、前記複数の構成員のそれぞれに取り付けられた無線タグからの前記識別情報を取得する無線タグ読取手段を含む、請求項3または4記載の関係検知システム。   5. The relationship detection system according to claim 3, wherein the acquisition unit includes a wireless tag reading unit that acquires the identification information from a wireless tag attached to each of the plurality of members. 前記取得手段は、前記複数の構成員のそれぞれに取り付けられた赤外線LEDタグからの前記識別情報を取得する赤外線検出手段を含む、請求項3ないし5のいずれかに記載の関係検知システム。   The relation detection system according to claim 3, wherein the acquisition unit includes an infrared detection unit that acquires the identification information from an infrared LED tag attached to each of the plurality of members. 前記関係把握手段によって生成された前記好き嫌いに関する情報に基づいて、前記構成員間または前記単位間の関係を表示する表示手段をさらに備える、請求項1ないしのいずれかに記載の関係検知システム。 Wherein based on the information about the likes and dislikes generated by the relationship grasping means further comprises display means for displaying a relationship between or among the units the members, relationship detection system according to any one of claims 1 to 6. 前記表示手段は前記関係をソシオグラムとして表示する、請求項記載の関係検知システム。 The relationship detection system according to claim 7 , wherein the display unit displays the relationship as a sociogram. 前記関係把握手段によって生成される前記好き嫌いに関する情報は、前記構成員間または前記単位間の好き度もしくは嫌い度、または前記組織におけるリーダー的存在の者、嫌われ者的存在の者もしくは排他的傾向の者の少なくとも一つを含む、請求項1ないしのいずれかに記載の関係検知システム。 The information about the likes and dislikes generated by the relation grasping means is the degree of likes or dislikes between the members or the units, or a person who is a leader in the organization, a person who is disliked or an exclusive tendency at least one containing, relationship detection system according to any one of claims 1 to 8 persons. 複数の構成員を含む組織における前記構成員間または前記構成員の特徴によって分類される単位間の関係を検知するために前記組織が存在する空間内に設けられかつ前記構成員をして近付かせるための接近装置であって、
所定領域に存在する前記構成員を識別する識別手段、
前記識別手段による識別に基づいて前記構成員が前記所定領域内に存在するかどうかに関する行動の履歴を記録する記録手段、および
前記記録手段によって記録された前記行動の履歴から抽出される前記所定領域における共存の仕方と、前記所定領域における共存の仕方に対応する前記関係を規定した所定の規則とに基づいて、前記構成員間または前記単位間の好き嫌いに関する情報を生成する関係把握手段を備え
前記所定の規則は、前記所定領域における前記構成員の共存の仕方に対応する前記構成員間の関係を規定した所定の規則であって、構成員同士が同時に滞在する場合当該構成員同士が相互に好意を持っているという規則、一方の構成員の後に他方の構成員が来る場合当該他方の構成員が当該一方の構成員に好意を持っているという規則、一方の構成員が来ると他方の構成員が去る場合当該他方の構成員が当該一方の構成員を嫌っているという規則、或る構成員が来ると他の構成員たちが集まる場合当該他の構成員たちが当該或る構成員に好意を持っているとともに当該或る構成員がリーダー的存在の者であるという規則、或る構成員が来ると他の構成員たちが去っていく場合当該他の構成員たちが当該或る構成員を嫌っているとともに当該或る構成員が嫌われ者的存在の者であるという規則、および、或る構成員が他に誰もいないときに存在する場合当該或る構成員が排他的傾向の者であるという規則の少なくとも1つを含む、接近装置。
In an organization including a plurality of members, provided in a space in which the organization exists and closes the members in order to detect a relationship between the members or units classified according to the characteristics of the members. An access device for
An identification means for identifying the member existing in the predetermined area;
Recording means for recording a history of actions related to whether the member exists in the predetermined area based on identification by the identification means, and the predetermined area extracted from the history of actions recorded by the recording means Based on a coexistence method and a predetermined rule that defines the relationship corresponding to the coexistence method in the predetermined area, and a relationship grasping means for generating information on likes and dislikes between the members or between the units ,
The predetermined rule is a predetermined rule that defines a relationship between the members corresponding to how the members coexist in the predetermined area, and when the members stay at the same time, the members The rule that the other member comes after one member, the rule that the other member favors the one member, the other member when the other member comes The rule that the other member dislikes the one member when the other member leaves, the other member who gathers when the other member comes, the other member The rules that a member is a leader, and if other members leave when a member arrives, the other members Hate the members At least one of the rules that a member is a disliked person and a rule that a member is an exclusive person when there is no other member Access device , including two .
動物の形状をしたぬいぐるみとして形成される、請求項10記載の接近装置。 11. Access device according to claim 10 , formed as an animal-shaped stuffed animal. 自律移動するための自律移動手段をさらに備えたコミュニケーションロボットとして形成される、請求項10記載の接近装置。 The access device according to claim 10 , wherein the access device is formed as a communication robot further including an autonomous moving means for autonomously moving.
JP2003371474A 2003-10-31 2003-10-31 Relationship detection system Expired - Fee Related JP3974098B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003371474A JP3974098B2 (en) 2003-10-31 2003-10-31 Relationship detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003371474A JP3974098B2 (en) 2003-10-31 2003-10-31 Relationship detection system

Publications (2)

Publication Number Publication Date
JP2005131748A JP2005131748A (en) 2005-05-26
JP3974098B2 true JP3974098B2 (en) 2007-09-12

Family

ID=34648114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003371474A Expired - Fee Related JP3974098B2 (en) 2003-10-31 2003-10-31 Relationship detection system

Country Status (1)

Country Link
JP (1) JP3974098B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109015705A (en) * 2018-07-12 2018-12-18 上海常仁信息科技有限公司 Remote control system based on robot identity card

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4214075B2 (en) * 2004-03-31 2009-01-28 本田技研工業株式会社 Detection target detection system
JP4174448B2 (en) * 2004-03-31 2008-10-29 本田技研工業株式会社 Detection target detection system
JP4174449B2 (en) * 2004-03-31 2008-10-29 本田技研工業株式会社 Moving body position detection system
JP4174447B2 (en) * 2004-03-31 2008-10-29 本田技研工業株式会社 Detection target detection system
JP4630146B2 (en) * 2005-07-11 2011-02-09 本田技研工業株式会社 Position management system and position management program
KR100681919B1 (en) * 2005-10-17 2007-02-12 에스케이 텔레콤주식회사 Method for expressing mobile robot's personality based on navigation logs and mobile robot apparatus therefor
JP5160818B2 (en) * 2007-01-31 2013-03-13 株式会社日立製作所 Business microscope system
JP5170091B2 (en) * 2007-06-04 2013-03-27 日本電気株式会社 Object identification device, data processing method, computer program
JP2009129338A (en) 2007-11-27 2009-06-11 Sony Corp Interpersonal relationship evaluation device, interpersonal relationship evaluation method, interpersonal relationship evaluation system, and terminal device
JP2009131914A (en) * 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International Robot control system
WO2009145187A1 (en) * 2008-05-26 2009-12-03 株式会社日立製作所 Human behavior analysis system
JP5223605B2 (en) * 2008-11-06 2013-06-26 日本電気株式会社 Robot system, communication activation method and program
JP5633003B2 (en) * 2010-04-08 2014-12-03 株式会社国際電気通信基礎技術研究所 Recording control apparatus and recording control program
JP2012128700A (en) * 2010-12-16 2012-07-05 Advanced Telecommunication Research Institute International Relation estimation device, relation estimation system, relation estimation program and relation estimation method
JPWO2013014754A1 (en) * 2011-07-26 2015-02-23 富士通株式会社 Image display device and image display method
JP2023135324A (en) * 2022-03-15 2023-09-28 株式会社Jvcケンウッド Score calculation device, and score calculation method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109015705A (en) * 2018-07-12 2018-12-18 上海常仁信息科技有限公司 Remote control system based on robot identity card

Also Published As

Publication number Publication date
JP2005131748A (en) 2005-05-26

Similar Documents

Publication Publication Date Title
JP3974098B2 (en) Relationship detection system
JP7377837B2 (en) Method and system for generating detailed environmental data sets through gameplay
JP6816925B2 (en) Data processing method and equipment for childcare robots
US8538750B2 (en) Speech communication system and method, and robot apparatus
CN109644303A (en) Identify the autonomous humanoid robot of behavior of Sounnd source direction
US11185998B2 (en) Information processing device and storage medium
JP5120745B2 (en) Communication robot
WO2018105222A1 (en) Display control device, display control method, and program
CN111081371A (en) Virtual reality-based early autism screening and evaluating system and method
KR102185469B1 (en) Companion Animal Emotion Bots Device using Artificial Intelligence and Communion Method
JP7351383B2 (en) Information processing device, information processing method, and program
CN109690435A (en) Keep the autonomous humanoid robot of the behavior of natural distance perception
JP6671577B2 (en) An autonomous robot that identifies people
JP2005131713A (en) Communication robot
JP7375770B2 (en) Information processing device, information processing method, and program
KR20060079832A (en) Humanoid robot using emotion expression based on the embedded system
WO2019216016A1 (en) Information processing device, information processing method, and program
KR102466438B1 (en) Cognitive function assessment system and method of assessing cognitive funtion
JP4517086B2 (en) Communication robot system and robot controller
JP7014168B2 (en) Virtual organism control systems, virtual organism control methods, and programs
US12122039B2 (en) Information processing device and information processing method
CN207571782U (en) A kind of chat robots
CN114051951A (en) Pet caring method based on pet identification and pet caring robot
CN113952583B (en) Cognitive training method and system based on VR technology
JP5418938B2 (en) Group behavior estimation apparatus and service providing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070313

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070613

R150 Certificate of patent or registration of utility model

Ref document number: 3974098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100622

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100622

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110622

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110622

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120622

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120622

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130622

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140622

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees