JP4793904B2 - Communication robot system and communication robot - Google Patents

Communication robot system and communication robot Download PDF

Info

Publication number
JP4793904B2
JP4793904B2 JP2005086567A JP2005086567A JP4793904B2 JP 4793904 B2 JP4793904 B2 JP 4793904B2 JP 2005086567 A JP2005086567 A JP 2005086567A JP 2005086567 A JP2005086567 A JP 2005086567A JP 4793904 B2 JP4793904 B2 JP 4793904B2
Authority
JP
Japan
Prior art keywords
communication
robot
congestion
congestion degree
noise level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005086567A
Other languages
Japanese (ja)
Other versions
JP2006263873A (en
Inventor
崇行 神田
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005086567A priority Critical patent/JP4793904B2/en
Publication of JP2006263873A publication Critical patent/JP2006263873A/en
Application granted granted Critical
Publication of JP4793904B2 publication Critical patent/JP4793904B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明はコミュニケーションロボットシステムおよびコミュニケーションロボットに関し、特にたとえば、ロボットが人間との間でコミュニケーション行動を行う、コミュニケーションロボットシステムおよびコミュニケーションロボットに関する。   The present invention relates to a communication robot system and a communication robot, and more particularly to a communication robot system and a communication robot in which a robot performs communication behavior with a human.

従来の混雑度に関する装置の一例が、特許文献1および2に開示されている。   An example of a conventional device related to the degree of congestion is disclosed in Patent Documents 1 and 2.

特許文献1では、監視空間の三次元情報および監視空間内に設定した平面の三次元情報から、物体領域を抽出し、その物体領域に基づいて監視空間の混雑度を計測している。   In Patent Document 1, an object region is extracted from the three-dimensional information of the monitoring space and the three-dimensional information of the plane set in the monitoring space, and the congestion degree of the monitoring space is measured based on the object region.

また、特許文献2では、ロボットが移動することによって生じる光の流れの方向から、ロボットは動く物体を認識して移動している。
特開2001−34883号公報 特開2003−317103号公報
Further, in Patent Document 2, the robot recognizes a moving object and moves from the direction of light flow caused by the movement of the robot.
JP 2001-34883 A JP 2003-317103 A

特許文献1の技術のように、これまで人間などの混雑度を測定するだけの装置はあった。また、特許文献2の技術のように、周囲の混雑度などを認識して人間などを避けて移動するロボットもあった。   As in the technology of Patent Document 1, there has been an apparatus that only measures the degree of congestion of a human or the like. In addition, as in the technique of Patent Document 2, there is a robot that moves around avoiding humans by recognizing the degree of congestion in the surrounding area.

しかし、この検出した混雑度など周囲の情報とロボットとをネットワークを通じて接続し、混雑度などに応じてロボットが人間に働きかけるシステムはなかった。   However, there has been no system in which surrounding information such as the detected congestion level is connected to the robot via a network, and the robot acts on humans according to the congestion level.

それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットを提供することである。   Therefore, the main object of the present invention is to provide a novel communication robot.

この発明の他の目的は、周囲の混雑度に応じて人間に働きかけることができる、コミュニケーションロボットシステムおよびコミュニケーションロボットを提供することである。   Another object of the present invention is to provide a communication robot system and a communication robot that can work on humans according to the degree of congestion around them.

請求項1の発明は、人間との間でコミュニケーション行動を実行するコミュニケーションロボット、周囲の混雑度を識別する混雑度識別手段、および混雑度識別手段の検出結果に基づいてコミュニケーションロボットのコミュニケーション行動を決定するコミュニケーション行動決定手段を備え、コミュニケーション行動決定手段は、混雑度識別手段が「混雑」であると識別したとき、コミュニケーション行動として混雑を緩和する行動を決定する、コミュニケーションロボットシステムである。
請求項2の発明は、人間との間でコミュニケーション行動を実行するコミュニケーションロボット、周囲の混雑度を識別する混雑度識別手段、および混雑度識別手段の検出結果に基づいてコミュニケーションロボットのコミュニケーション行動を決定するコミュニケーション行動決定手段を備え、コミュニケーション行動決定手段は、混雑度識別手段が「まばら」であると識別したとき、コミュニケーション行動として人間を集める行動を決定する、コミュニケーションロボットシステムである。
The invention of claim 1 determines a communication behavior of a communication robot based on a detection result of a communication robot that executes a communication behavior with a human, a congestion degree identifying means for identifying a surrounding congestion degree, and a congestion degree identifying means. The communication action determining means is a communication robot system that determines an action for reducing congestion as a communication action when the congestion degree identifying means identifies “congestion” .
The invention according to claim 2 determines a communication behavior of a communication robot based on a detection result of a communication robot that executes communication behavior with a human, a congestion degree identifying unit that identifies the degree of congestion around, and a congestion degree identifying unit The communication behavior determination means is a communication robot system that determines an action of collecting humans as a communication action when the congestion degree identification means identifies “sparse”.

請求項1および請求項2の発明では、コミュニケーションロボットシステム(10:実施例で相当する参照符号。以下、同じ)はコミュニケーションロボット(12)、混雑度識別手段(100、S9)、およびコミュニケーション行動決定手段(52、S23、S27)を含む。 In the first and second aspects of the present invention, the communication robot system (10: reference numeral corresponding to the embodiment; the same applies hereinafter) includes the communication robot (12), the congestion degree identifying means (100, S9), and the communication action determination. Means (52, S23, S27).

混雑度識別手段(100、S9)がコミュニケーションロボット(12)の周囲の混雑度を識別して、コミュニケーション行動決定手段(52、S23、S27)が検出された混雑度によりコミュニケーションロボット(12)のコミュニケーション行動を決定し、コミュニケーションロボット(12)はそれに基づき人間との間でコミュニケーション行動を実行する。   The congestion degree identifying means (100, S9) identifies the degree of congestion around the communication robot (12), and the communication robot (12) communicates based on the degree of congestion detected by the communication action determining means (52, S23, S27). The behavior is determined, and the communication robot (12) executes the communication behavior with the human based on the behavior.

請求項1の発明のように、混雑度識別手段がコミュニケーションロボットの周りに人間が多くいて混雑度が高いと判断した場合には、コミュニケーション行動決定手段は、人が押し合って危ないため、別の場所に移動するように人を誘導するようなコミュニケーション行動を決定する。反対に、コミュニケーションロボットの周囲が空いていて混雑度が低いと判断した場合には、請求項2の発明のように、コミュニケーション行動決定手段は、周囲に集まるように人を誘導するようなコミュニケーション行動を決定する。 As in the first aspect of the invention, when the congestion degree identifying means determines that there are many people around the communication robot and the degree of congestion is high, the communication action determining means is dangerous because people are pressed against each other. Determine communication behaviors that guide people to move to places . Conversely, if it is determined that there is less congestion have vacant around the communication robot, as the invention of claim 2, communication behavior determining means, communication behavior so as to induce human to gather around To decide.

請求項の発明は、混雑度識別手段は、周囲の騒音レベルを検出する騒音検出手段を含み、騒音検出手段によって検出した騒音レベルに基づいて混雑度を識別する、請求項1または2記載のコミュニケーションロボットシステムである。 The invention according to claim 3, congestion identifying means includes a noise detecting means for detecting an ambient noise level, identifying congestion degree based on the noise level detected by the noise detecting means, according to claim 1 or 2, wherein It is a communication robot system.

請求項の発明では、騒音検出手段(100、S7)によりその周囲の騒音レベルを取り込み、それに基づいてコミュニケーションロボット(12)の周囲の騒音レベルを取得する。そして、混雑度識別手段(100、S9)がそれに基づいてコミュニケーションロボット(12)の周囲の混雑度を識別する。 According to the third aspect of the present invention, the ambient noise level is captured by the noise detection means (100, S7), and the ambient noise level of the communication robot (12) is acquired based on the captured noise level. Then, the congestion degree identifying means (100, S9) identifies the congestion degree around the communication robot (12) based on the congestion degree identifying means (100, S9).

このように、騒音レベルからある程度の混雑度を把握することができるため、コミュニケーションロボットの周囲の混雑度を簡単に識別することができる。   Thus, since a certain degree of congestion can be grasped from the noise level, the degree of congestion around the communication robot can be easily identified.

請求項の発明は、それぞれが設置場所における騒音レベルを出力する、かつ環境に分散して設けられる複数の騒音計をさらに含み、騒音検出手段は、コミュニケーションロボットの周囲一定距離内の騒音計から騒音レベルを取得することによって騒音レベルを検出する、請求項記載のコミュニケーションロボットシステムである。 The invention of claim 4 further includes a plurality of sound level meters each outputting a noise level at the installation location and distributed in the environment, and the noise detecting means is a sound level meter within a certain distance around the communication robot. The communication robot system according to claim 3 , wherein the noise level is detected by acquiring the noise level.

請求項の発明では、複数の騒音計(114)がそれぞれ環境に分散して設けられ、騒音計(114)は設置場所における騒音レベルを検出して騒音検出手段(100、S7)に出力する。騒音検出手段(100、S7)はコミュニケーションロボット(12)の周囲一定距離内の騒音計(114)から騒音レベルを取得し、それによってコミュニケーションロボット(12)の周囲の騒音レベルを検出する。 According to the invention of claim 4 , a plurality of sound level meters (114) are provided dispersed in the environment, and the sound level meter (114) detects the noise level at the installation location and outputs it to the noise detection means (100, S7). . The noise detection means (100, S7) acquires the noise level from the sound level meter (114) within a certain distance around the communication robot (12), thereby detecting the noise level around the communication robot (12).

このように、コミュニケーションロボットの周囲の騒音計だけを用いることにより、コミュニケーションロボットの周囲の騒音レベルを的確に検出することができる Thus, by using only the sound level meter around the communication robot, the noise level around the communication robot can be accurately detected .

請求項5の発明は、人間との間でコミュニケーション行動を実行するコミュニケーションロボットであって、周囲の混雑度を識別する混雑度識別手段、および
混雑度識別手段の検出結果に基づいてコミュニケーション行動を決定するコミュニケーション行動決定手段を備え、コミュニケーション行動決定手段は、混雑度識別手段が「混雑」であると識別したとき、コミュニケーション行動として混雑を緩和する行動を決定する、コミュニケーションロボットである。
請求項6の発明は、人間との間でコミュニケーション行動を実行するコミュニケーションロボットであって、周囲の混雑度を識別する混雑度識別手段、および混雑度識別手段の検出結果に基づいてコミュニケーション行動を決定するコミュニケーション行動決定手段を備え、コミュニケーション行動決定手段は、混雑度識別手段が「まばら」であると識別したとき、コミュニケーション行動として人間を集める行動を決定する、コミュニケーションロボットである。
The invention of claim 5 is a communication robot that executes communication behavior with a human being, and a congestion degree identifying means for identifying a surrounding congestion degree, and
Communication behavior determining means for determining communication behavior based on the detection result of the congestion degree identifying means, and the communication behavior determining means alleviates congestion as communication behavior when the congestion degree identifying means identifies “congestion”. A communication robot that determines behavior.
The invention according to claim 6 is a communication robot that performs communication behavior with a human being, and determines a communication behavior based on a congestion degree identifying means for identifying a surrounding congestion degree and a detection result of the congestion degree identifying means. The communication action determining means is a communication robot that determines an action of collecting humans as a communication action when the congestion degree identifying means identifies that it is “sparse” .

請求項の発明および請求項6の発明では、コミュニケーションロボット(12)は混雑度識別手段(52、S47)およびコミュニケーション行動決定手段(52、S49、S53)を含む。混雑度識別手段(52、S47)はコミュニケーションロボット(12)の周囲の混雑度を識別し、コミュニケーション行動決定手段(52、S49、S53)は混雑度識別手段の検出結果に基づいてコミュニケーション行動を決定して、コミュニケーションロボット(12)は決定されたコミュニケーション行動を人間との間で実行する。
請求項5の発明では、混雑度識別手段が混雑度が高いと判断した場合には、コミュニケーション行動決定手段は、別の場所に移動するように人を誘導するなど混雑を緩和するコミュニケーション行動を決定する。反対に、コミュニケーションロボットの周囲が空いていて混雑度が低いと判断した場合には、請求項6の発明のように、コミュニケーション行動決定手段は、人間を集めるコミュニケーション行動を決定する。
In the invention of claim 5 and claim 6 , the communication robot (12) includes a congestion degree identifying means (52, S47) and a communication action determining means (52, S49, S53). The congestion degree identifying means (52, S47) identifies the degree of congestion around the communication robot (12), and the communication behavior determining means (52, S49, S53) determines the communication behavior based on the detection result of the congestion degree identifying means. Then, the communication robot (12) executes the determined communication behavior with the human.
In the invention of claim 5, when the congestion degree identifying means determines that the congestion degree is high, the communication action determining means determines a communication action that reduces congestion such as guiding a person to move to another place. To do. On the other hand, when it is determined that the communication robot is free and the degree of congestion is low, the communication action determining means determines the communication action for gathering humans.

請求項の発明は、周囲の騒音レベルを検出する騒音検出手段をさらに含み、混雑度識別手段は騒音検出手段によって検出した騒音レベルに基づいて混雑度を識別する、請求項5または6記載のコミュニケーションロボットである。 The invention of claim 7, further comprising a noise detecting means for detecting an ambient noise level, congestion identification means for identifying the degree of congestion on the basis of the noise level detected by the noise detecting means, according to claim 5 or 6, wherein It is a communication robot.

請求項7の発明では、コミュニケーションロボット(12)はコミュニケーションロボット(12)の周囲の騒音レベルを検出する騒音検出手段(30)を含み、混雑度識別手段(52、S47)は騒音検出手段(30)が検出した騒音レベルに基づいて混雑度を識別する In the invention of claim 7, the communication robot (12) includes a noise detection means (30) for detecting a noise level around the communication robot (12), and the congestion degree identification means (52, S47) is a noise detection means (30). ) Identifies the degree of congestion based on the detected noise level .

この発明によれば、周囲の混雑度に基づきコミュニケーションロボットのコミュニケーション行動を決定することにより、コミュニケーションロボットは周囲の状況に応じた働きかけを人間にすることができる。   According to the present invention, by determining the communication behavior of the communication robot based on the degree of congestion around the communication robot, the communication robot can make a person act according to the surrounding situation.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のコミュニケーションロボットシステム(以下、単に「システム」という。)10はコミュニケーションロボット(以下、単に「ロボット」という。)12、サーバ100、赤外線カメラシステム112、および騒音計114を備えるコンピュータ116を含み、これらはそれぞれネットワーク118を介して接続される。   Referring to FIG. 1, a communication robot system (hereinafter simply referred to as “system”) 10 of this embodiment is a communication robot (hereinafter simply referred to as “robot”) 12, a server 100, an infrared camera system 112, and noise. A computer 116 having a total of 114 is included, each connected via a network 118.

図2に示すように、ロボット12は人間のような身体を有し、たとえば人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のものであり、身振り(手振り)および発話(音声)の少なくとも一方を用いたコミュニケーションの行動(以下、「コミュニケーション行動」ということがある。)を行う機能を備える。   As shown in FIG. 2, the robot 12 has a human-like body and is, for example, an interaction-oriented one for the purpose of communicating with a communication target such as a human being. A function of performing communication behavior (hereinafter, also referred to as “communication behavior”) using at least one of (voice).

ロボット12は台車14を含み、台車14の下面にロボット12を自律移動させる車輪16が設けられる。この車輪16は車輪モータ(ロボット12の内部構成を示す図3において参照番号「74」で示す。)によって駆動され、台車14すなわちロボット12を前後左右任意の方向に動かす。   The robot 12 includes a carriage 14, and wheels 16 for autonomously moving the robot 12 are provided on the lower surface of the carriage 14. The wheel 16 is driven by a wheel motor (indicated by reference numeral “74” in FIG. 3 showing the internal configuration of the robot 12), and moves the carriage 14, that is, the robot 12 in any direction, front, rear, left, and right.

なお、図2では示さないが、衝突センサ(図3において参照番号「82」で示す。)が台車14の前面に取り付けられ、衝突センサ82は台車14への人間や他の障害物の接触を検知する。そして、ロボット12の移動中に障害物との接触を検知すると、直ちに車輪16の駆動を停止してロボット12の移動を急停止させる。   Although not shown in FIG. 2, a collision sensor (indicated by reference numeral “82” in FIG. 3) is attached to the front surface of the carriage 14, and the collision sensor 82 detects contact of a person or other obstacle to the carriage 14. Detect. When contact with an obstacle is detected during the movement of the robot 12, the driving of the wheels 16 is immediately stopped and the movement of the robot 12 is suddenly stopped.

台車14の上に多角形柱のセンサ取付パネル18が設けられ、センサ取付パネル18の各面に超音波距離センサ20が取り付けられる。この超音波距離センサ20は取付パネル18すなわちロボット12の周囲の主として人との間の距離を計測する。   A polygonal column sensor mounting panel 18 is provided on the carriage 14, and an ultrasonic distance sensor 20 is mounted on each surface of the sensor mounting panel 18. The ultrasonic distance sensor 20 measures the distance between the mounting panel 18, that is, the person mainly around the robot 12.

センサ取付パネル18の他にロボット12の胴体22、24も台車14の上に取り付けられる。胴体22、24は直立し、その下部はセンサ取付パネル18で囲まれる。胴体は下部胴体22と上部胴体24とから構成され、これらは連結部26によって連結される。連結部26には昇降機構(図示せず)が内蔵され、昇降機構を用いることによって上部胴体24の高さすなわちロボット12の高さを変化させることができる。昇降機構は、後述のように腰モータ(図3において参照番号「72」で示す。)によって駆動される。   In addition to the sensor mounting panel 18, the bodies 22 and 24 of the robot 12 are also mounted on the carriage 14. The body bodies 22 and 24 stand upright, and the lower part thereof is surrounded by the sensor mounting panel 18. The body is composed of a lower body 22 and an upper body 24, which are connected by a connecting portion 26. The connecting portion 26 includes a lifting mechanism (not shown), and the height of the upper body 24, that is, the height of the robot 12 can be changed by using the lifting mechanism. The lifting mechanism is driven by a waist motor (indicated by reference numeral “72” in FIG. 3) as will be described later.

上部胴体24のほぼ中央に1つの全方位カメラ28および1つのマイク30が設けられる。全方位カメラ28は、たとえばCCDやCMOSのような固体撮像素子を用いるカメラであり、ロボット12の周囲を撮影する。マイク30は周囲の音、とりわけ人の声を取り込む。   One omnidirectional camera 28 and one microphone 30 are provided in the approximate center of the upper body 24. The omnidirectional camera 28 is a camera that uses a solid-state image sensor such as a CCD or a CMOS, for example, and images the surroundings of the robot 12. The microphone 30 captures ambient sounds, particularly human voice.

上部胴体24の両肩にそれぞれ肩関節32Rおよび32Lが取り付けられ、各肩関節32Rおよび32Lに上腕34Rおよび34Lが接続される。肩関節32Rは上腕34Rの角度を互いに直交するX軸,Y軸およびZ軸の各軸廻りに制御し、肩関節32Lは上腕34Lの角度を互いに直交するA軸,B軸およびC軸の各軸廻りに制御する。   Shoulder joints 32R and 32L are attached to both shoulders of the upper body 24, and upper arms 34R and 34L are connected to the shoulder joints 32R and 32L. The shoulder joint 32R controls the angle of the upper arm 34R around the X, Y, and Z axes orthogonal to each other, and the shoulder joint 32L adjusts the angle of the upper arm 34L to each of the A, B, and C axes that are orthogonal to each other. Control around the axis.

上腕34Rおよび34Lのそれぞれの先端に肘関節36Rおよび36Lを介して前腕38Rおよび38Lが取り付けられる。各肘関節36Rおよび36Lは前腕38Rおよび38Lの角度をW軸およびD軸の軸廻りに制御する。   Forearms 38R and 38L are attached to the tips of upper arms 34R and 34L via elbow joints 36R and 36L, respectively. The elbow joints 36R and 36L control the angles of the forearms 38R and 38L around the W axis and the D axis.

なお、図2では示さないが、上部胴体24の肩関節32Rおよび32L、上腕34Rおよび34L、ならびに前腕38Rおよび38Lにそれぞれタッチセンサ(図3において参照番号80で包括的に示す。)が設けられる。タッチセンサ80は人がロボット12のこれらの部位に接触したかどうかを検知する。   Although not shown in FIG. 2, touch sensors (generally indicated by reference numeral 80 in FIG. 3) are provided on shoulder joints 32R and 32L, upper arms 34R and 34L, and forearms 38R and 38L of upper body 24, respectively. . The touch sensor 80 detects whether a person has touched these parts of the robot 12.

前腕38Rおよび38Lの先端にそれぞれ手に相当する球体40Rおよび40Lが固定的に取り付けられる。ただし、指の機能(握る、掴む、摘むなど)が必要な場合には、球体40Rおよび40Lに代えて、人の手の形をした「手」を用いることも可能である。   Spheres 40R and 40L corresponding to hands are fixedly attached to the tips of the forearms 38R and 38L, respectively. However, when a finger function (gripping, grasping, picking, etc.) is required, a “hand” in the shape of a human hand can be used instead of the spheres 40R and 40L.

上部胴体24の中央上方に首関節42を介して頭部44が取り付けられる。首関節42は互いに直交する3軸、S軸,T軸およびU軸の自由度を有し、各軸廻りに角度制御する。頭部44の人の口に相当する位置にスピーカ46が設けられる。スピーカ46は、ロボット12が周囲の人に音声または声によってコミュニケーションを図るために用いられる。ただし、スピーカ46はロボット12の他の部位たとえば胴体に設けられてもよい。   A head 44 is attached to a central upper portion of the upper body 24 via a neck joint 42. The neck joint 42 has three degrees of freedom orthogonal to each other, the S axis, the T axis, and the U axis, and controls the angle around each axis. A speaker 46 is provided at a position corresponding to the human mouth of the head 44. The speaker 46 is used for the robot 12 to communicate with surrounding people by voice or voice. However, the speaker 46 may be provided in another part of the robot 12, for example, the trunk.

また、頭部44の目に相当する位置に眼球部48Rおよび48Lが設けられ、眼球部48Rおよび48L内にそれぞれ眼カメラ50Rおよび50Lが固定される。眼球部48Rおよび48Lは眼球支持部(図示せず)を介して頭部44内の所定位置に取り付けられ、眼球支持部は互いに直交する2軸、α軸およびβ軸の自由度を有し、各軸廻りに角度制御する。眼カメラ50Rおよび50Lは、たとえばCCDやCMOSのような固体撮像素子を用いるカメラである。   In addition, eyeball portions 48R and 48L are provided at positions corresponding to the eyes of the head 44, and eye cameras 50R and 50L are fixed in the eyeball portions 48R and 48L, respectively. The eyeball portions 48R and 48L are attached to predetermined positions in the head 44 via an eyeball support portion (not shown), and the eyeball support portion has two degrees of freedom orthogonal to each other, α axis and β axis, Angle control around each axis. The eye cameras 50R and 50L are cameras that use a solid-state image sensor such as a CCD or a CMOS.

図3にロボット12の内部構成を示すブロック図が示される。ロボット12は全体の制御のためにマイクロコンピュータまたはCPU52を含み、CPU52はバス54を通して、メモリ56,モータ制御ボード58,センサ入力/出力ボード60、音声入力/出力ボード62および通信LANボード64と接続される。   FIG. 3 is a block diagram showing the internal configuration of the robot 12. The robot 12 includes a microcomputer or CPU 52 for overall control. The CPU 52 is connected to a memory 56, a motor control board 58, a sensor input / output board 60, a voice input / output board 62, and a communication LAN board 64 through a bus 54. Is done.

メモリ56は、図示しないがROMやHDD、RAMなどを含む。ROMまたはHDDにロボット12の身体動作を制御するためのプログラム(行動モジュールと呼ばれる。)やデータなどが予め格納されており、CPU52はこのプログラムに従って処理を実行する。なお、RAMは一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。   The memory 56 includes a ROM, an HDD, a RAM, and the like (not shown). A program (called an action module), data, and the like for controlling the body movement of the robot 12 are stored in advance in the ROM or HDD, and the CPU 52 executes processing according to this program. The RAM can be used as a temporary storage memory and a working memory.

モータ制御ボード58は、たとえばDSP(Digital Signal Processor)で構成され、腕や頭など身体部位を駆動するためのモータを制御する。すなわち、図2および図3に示すように、モータ制御ボード58はCPU52からの制御データを受け、右肩関節32Rおよび右肘関節36Rの角度を制御する右腕モータ66を調節する。また、モータ制御ボード58は左肩関節32Lおよび左肘関節36Lを制御する左腕モータ68を調節する。さらに、モータ制御ボード58は首関節42の角度を制御する頭部モータ70、昇降機構を駆動する腰モータ72、車輪16を駆動する車輪モータ74、右眼球部48Rの角度を制御する右眼球モータ76、ならびに左眼球部48Lの角度を制御する左眼球モータ78を調節する。   The motor control board 58 is configured by a DSP (Digital Signal Processor), for example, and controls a motor for driving a body part such as an arm or a head. That is, as shown in FIGS. 2 and 3, the motor control board 58 receives control data from the CPU 52 and adjusts the right arm motor 66 that controls the angles of the right shoulder joint 32R and the right elbow joint 36R. The motor control board 58 adjusts the left arm motor 68 that controls the left shoulder joint 32L and the left elbow joint 36L. The motor control board 58 further includes a head motor 70 that controls the angle of the neck joint 42, a waist motor 72 that drives the lifting mechanism, a wheel motor 74 that drives the wheel 16, and a right eyeball motor that controls the angle of the right eyeball portion 48R. 76 and a left eyeball motor 78 that controls the angle of the left eyeball portion 48L.

なお、この実施例の上述のモータはそれぞれ、車輪モータ74を除いて、制御を簡単化するためにステッピングモータまたはパルスモータであるが、車輪モータ74と同様に直流モータであってよい。   Each of the above-described motors of this embodiment is a stepping motor or a pulse motor to simplify the control except for the wheel motor 74, but may be a DC motor similarly to the wheel motor 74.

センサ入力/出力ボード60もDSPで構成され、各センサやカメラからの信号を取り込んでCPU52に与える。すなわち、各超音波距離センサ20からの反射時間に関するデータ、全方位カメラ28および眼カメラ50R、50Lからの映像信号、ならびにタッチセンサ80および衝突センサ82からの信号がセンサ入力/出力ボード60を通して、CPU52に入力される。   The sensor input / output board 60 is also constituted by a DSP, and takes in signals from each sensor and camera and gives them to the CPU 52. That is, data relating to the reflection time from each ultrasonic distance sensor 20, video signals from the omnidirectional camera 28 and the eye cameras 50R and 50L, and signals from the touch sensor 80 and the collision sensor 82 are transmitted through the sensor input / output board 60. Input to the CPU 52.

そして、合成音声データがCPU52から音声入力/出力ボード62を介してスピーカ46に与えられ、そのデータに従った音声または声がスピーカ46から出力される。また、マイク30からの音声入力が音声入力/出力ボード62を介してCPU52に取り込まれる。   The synthesized voice data is given from the CPU 52 to the speaker 46 via the voice input / output board 62, and voice or voice according to the data is output from the speaker 46. Also, the voice input from the microphone 30 is taken into the CPU 52 via the voice input / output board 62.

通信LANボード64もDSPで構成される。通信LANボード64はCPU52から与えられた送信データを無線通信装置84に与え、無線通信装置84から送信データを送信させる。また、通信LANボード64は無線通信装置84を介してデータを受信し、受信データをCPU52に与える。   The communication LAN board 64 is also constituted by a DSP. The communication LAN board 64 gives the transmission data given from the CPU 52 to the wireless communication device 84 and causes the wireless communication device 84 to send the transmission data. The communication LAN board 64 receives data via the wireless communication device 84 and provides the received data to the CPU 52.

図1に示す赤外線カメラシステム112は赤外線カメラシステム112およびPCあるいはWSのようなコンピュータ(図示せず)を含み、このコンピュータがサーバ100とネットワーク118で接続される。   The infrared camera system 112 shown in FIG. 1 includes an infrared camera system 112 and a computer (not shown) such as a PC or WS, and this computer is connected to the server 100 via a network 118.

図4に示すように、たとえば2つの赤外線カメラシステム112はロボット12が存在する対象空間120の天井などに間隔を隔てて、ロボット12に対して異なる方向に配置される。これらにより三角測量法の原理を用いてロボットまでの距離を計算し、ロボット12の位置(座標データ)を求める。そして、赤外線カメラシステム112のコンピュータはこのロボット12の位置を、サーバ100からの要求に応じてサーバ100に送信する。   As shown in FIG. 4, for example, the two infrared camera systems 112 are arranged in different directions with respect to the robot 12 with an interval between them on the ceiling of the target space 120 where the robot 12 exists. Thus, the distance to the robot is calculated using the principle of triangulation, and the position (coordinate data) of the robot 12 is obtained. Then, the computer of the infrared camera system 112 transmits the position of the robot 12 to the server 100 in response to a request from the server 100.

また、図1に示す少なくとも1つの騒音計114がコンピュータ116に接続され、コンピュータ116はネットワーク118を介してサーバ100に接続される。図4に示すようにこの実施例では8つの騒音計114a、114b・・・114h(まとめて114と言う)が、ロボット12が存在する対象空間120の環境に分散して設けられる。各騒音計114は、たとえば対象空間120の天井全体に間隔を隔てて配置され、その位置はサーバ100に予め記録されている。騒音計114はそれぞれ設置場所における騒音レベルを測定し、騒音計114に接続するコンピュータ116が測定した騒音レベルをサーバ100からの要求に応じてサーバ100に出力する。   Further, at least one sound level meter 114 shown in FIG. 1 is connected to the computer 116, and the computer 116 is connected to the server 100 via the network 118. As shown in FIG. 4, in this embodiment, eight sound level meters 114a, 114b... 114h (collectively referred to as 114) are provided in a distributed manner in the environment of the target space 120 where the robot 12 exists. The sound level meters 114 are arranged, for example, at intervals over the entire ceiling of the target space 120, and their positions are recorded in the server 100 in advance. The sound level meter 114 measures the noise level at the installation location, and outputs the noise level measured by the computer 116 connected to the sound level meter 114 to the server 100 in response to a request from the server 100.

具体的には、人間が騒音計114の周りにいると、騒音計114は人間に起因する音を拾って、その騒音レベルを測定する。発明者等の実験によって取得した結果を表わす図5に示すように、一般的に人間の数(延べ人数)が多くなるほど、騒音レベル(dB)は大きくなるため、騒音レベルにより騒音計114の周囲の人間の混雑度をある程度把握することができる。これを利用して、ロボット12の周囲に存在する騒音計114で騒音レベルを測定して、その騒音レベルからロボット12の周囲の混雑度を取得する。そして、ロボット12の周囲の混雑度に基づきロボット12は人間とコミュニケーションする。   Specifically, when a person is around the sound level meter 114, the sound level meter 114 picks up a sound caused by the person and measures the noise level. As shown in FIG. 5 showing the results obtained by the inventors' experiments, the noise level (dB) generally increases as the number of humans (total number of people) increases. The degree of human congestion can be grasped to some extent. Using this, the noise level is measured by the noise meter 114 existing around the robot 12, and the degree of congestion around the robot 12 is acquired from the noise level. The robot 12 communicates with humans based on the degree of congestion around the robot 12.

すなわち、サーバ100は赤外線カメラシステム112から送信される座標データを取得し、ロボット12の位置を取得する。次に、ロボット12の位置を中心とした一定距離L内に存在する騒音計114を選択し、その騒音計114の騒音レベルを騒音計114に接続するコンピュータ116から取得する。そして、騒音レベルからロボット12の周囲の混雑度を識別し、ロボット12にロボット12の周囲の混雑度に応じたコミュニケーション行動を実行させる。なお、一定距離Lは騒音計114の数や位置などにより適宜決定される。   That is, the server 100 acquires coordinate data transmitted from the infrared camera system 112 and acquires the position of the robot 12. Next, the sound level meter 114 existing within a certain distance L centering on the position of the robot 12 is selected, and the noise level of the sound level meter 114 is acquired from the computer 116 connected to the sound level meter 114. Then, the degree of congestion around the robot 12 is identified from the noise level, and the robot 12 is caused to execute a communication action according to the degree of congestion around the robot 12. The fixed distance L is appropriately determined depending on the number and position of the sound level meters 114.

サーバ100はこのコミュニケーション行動を図6に示すフロー図に従って処理する。サーバ100はコミュニケーション行動の処理を開始すると、ステップS1で、ロボット12に、たとえば「こんにちは」と発話させ、および/あるいは腕を上げるなど動作させて、人間に対してロボット12への注意を向ける。このロボット12の行動によって、ロボット12の周囲にいる人間は「あっ、ロボット12だ。」と言ったり、ロボット12から離れた場所にいる人間はロボット12に気づいてロボット12の周囲に集まったりして、人間の声や行動に伴う音が発生する。   The server 100 processes this communication action according to the flowchart shown in FIG. When the server 100 starts the process of communication behavior, in step S1, the robot 12, for example, by the utterance as "Hello", and / or by operating such as raising the arm, pay attention to the robot 12 with respect to human beings. Depending on the behavior of the robot 12, a person around the robot 12 may say “Oh, it is a robot 12”, or a person away from the robot 12 may notice the robot 12 and gather around the robot 12. Therefore, sounds accompanying human voices and actions are generated.

このとき、ステップS3でロボット12の発話中であるか否かを判断し、発話中であれば、“YES”と判断してステップS3に戻り発話が終了するまで待機する。そして、発話中でなく、“NO”であれば、ロボット12の周囲で生じている音の主な発生源は人間である。   At this time, it is determined whether or not the robot 12 is speaking in step S3, and if it is speaking, “YES” is determined and the process returns to step S3 and waits until the utterance ends. If the speech is not being spoken and “NO”, the main source of the sound generated around the robot 12 is a human.

そこで、ステップS5で対象空間120内のロボット12の位置を赤外線カメラシステム112から送信される座標データから取得する。そして、ステップS7において、ロボット12の周囲の一定範囲内に存在する騒音計114から騒音レベルを取得する。たとえば、図4では、ロボット12の位置を中心として一定距離(半径)Lの円内にある、たとえば3つの騒音計114b、114cおよび114eを選択する。この騒音計114b、114cおよび114eにより各騒音計114b、114cおよび114eの周囲の騒音レベルNb、NcおよびNeを測定し、各騒音レベルNb、NcおよびNeからロボット12の周囲の騒音レベルNを算出する。算出は、たとえば数1を用いて、各騒音計114b、114cおよび114eの騒音レベルNb、NcおよびNeと距離の比とからロボット12の周囲の騒音レベルNを求める。なお、各騒音計114b、114cおよび114eの距離の比とは、各騒音計114b、114cおよび114eからロボット12までの距離Lb、LcおよびLeに基づくもので、騒音計114bについては(Lb/Lb+Lc+Le)であり、騒音計114cについては(Lc/Lb+Lc+Le)であり、騒音計114eについては(Le/Lb+Lc+Le)である。   Therefore, the position of the robot 12 in the target space 120 is acquired from the coordinate data transmitted from the infrared camera system 112 in step S5. In step S 7, the noise level is acquired from the sound level meter 114 existing within a certain range around the robot 12. For example, in FIG. 4, for example, three sound level meters 114 b, 114 c, and 114 e that are in a circle having a constant distance (radius) L around the position of the robot 12 are selected. The noise levels Nb, Nc, and Ne around the sound level meters 114b, 114c, and 114e are measured by the sound level meters 114b, 114c, and 114e, and the noise level N around the robot 12 is calculated from the noise levels Nb, Nc, and Ne. To do. For the calculation, the noise level N around the robot 12 is obtained from the noise level Nb, Nc, Ne of each sound level meter 114b, 114c, and 114e and the ratio of the distance, using, for example, Equation 1. The ratio of the distances between the sound level meters 114b, 114c, and 114e is based on the distances Lb, Lc, and Le from the noise level meters 114b, 114c, and 114e to the robot 12. The sound level meter 114c is (Lc / Lb + Lc + Le), and the sound level meter 114e is (Le / Lb + Lc + Le).

Figure 0004793904
Figure 0004793904

次に、図6に示すステップS9によりロボット12の周囲の騒音レベルNを騒音レベル−混雑度テーブルに当てはめて、現在のロボット12の周囲の混雑度を調べる。たとえば、先ほど算出したロボット12の周囲の騒音レベルNを図7に示す騒音レベル−混雑度テーブルの騒音レベルと見比べ、騒音レベルNが最大騒音レベルX1以上であれば、混雑度は混雑と判断される。つまり、ロボット12の周囲に人間が多くいると、人間に起因する音が多く発生して騒音レベルが高く、ロボット12の周りは混雑している。一方、騒音レベルNが最小騒音レベルX2より小さければ、混雑度はまばらと判断される。ロボット12の周りに人間があまりいないと、人間に起因する音は小さいため、ロボット12の周囲の騒音レベルが低く、混雑度はまばらとなる。これ以外の場合、つまり騒音レベルNが最大騒音レベルX1より小さく最小騒音レベルX2以下である場合、混雑度は普通と判断される。なお、最大騒音レベルX1および最小騒音レベルX2は対象空間120の大きさおよびロボット12の使用目的などに応じて適宜判断される。   Next, in step S9 shown in FIG. 6, the noise level N around the robot 12 is applied to the noise level-congestion degree table, and the current congestion degree around the robot 12 is checked. For example, the noise level N around the robot 12 calculated above is compared with the noise level in the noise level-congestion degree table shown in FIG. 7, and if the noise level N is equal to or greater than the maximum noise level X1, the congestion degree is determined to be congested. The That is, when there are many people around the robot 12, many sounds are generated due to the people, the noise level is high, and the robot 12 is congested. On the other hand, if the noise level N is lower than the minimum noise level X2, it is determined that the degree of congestion is sparse. If there are not many people around the robot 12, the noise caused by the people is small, so the noise level around the robot 12 is low and the degree of congestion is sparse. In other cases, that is, when the noise level N is smaller than the maximum noise level X1 and equal to or less than the minimum noise level X2, the degree of congestion is determined to be normal. Note that the maximum noise level X1 and the minimum noise level X2 are appropriately determined according to the size of the target space 120, the purpose of use of the robot 12, and the like.

ロボット12の周囲の混雑度が決まると、これをロボット12のCPU52に出力する。そして、CPU52はこれに基づいて図8に示すフロー図に従って処理する。CPU52は処理を開始すると、ステップS21で、サーバ100からロボット12の周囲の混雑度を取得する。   When the degree of congestion around the robot 12 is determined, this is output to the CPU 52 of the robot 12. Based on this, the CPU 52 performs processing according to the flowchart shown in FIG. When starting the processing, the CPU 52 acquires the degree of congestion around the robot 12 from the server 100 in step S21.

その混雑度が混雑であるか否かをステップS23で判断し、混雑であれば、“YES”と判断して、ステップS25により混雑を緩和する行動を実行する。たとえば、ロボット12が「あっち行って。」と発話したり、腕を所望の方向に上げ指差してロボット12から離れるように人間に促すような行動を取ったりする。これにより、人間が多く押し合って危険な状態を避け、安全な状態を確保することができる。また、ポスターセッションや展示会などの会場では、ロボット12の周囲が混雑することによる危険を回避するだけでなく、人間が一箇所に集まると説明が聞こえにくかったり、展示品が見えにくかったりするため、他の場所に誘導して、円滑な会場運営を執り行う。   In step S23, it is determined whether or not the degree of congestion is congested. If it is congested, “YES” is determined, and an action to alleviate congestion is executed in step S25. For example, the robot 12 speaks “Go over there” or takes an action that urges a human to move away from the robot 12 by raising the arm in a desired direction. As a result, it is possible to ensure a safe state by avoiding a dangerous state due to a large number of humans pushing against each other. In addition, in venues such as poster sessions and exhibitions, not only is it possible to avoid the dangers caused by crowding around the robot 12, but it is difficult to hear explanations and it is difficult to see the exhibits when people gather in one place. , Guide them to other places and manage the venue smoothly.

一方、ステップS23による判断で混雑度が混雑でなく、“NO”と判断すれば、次にステップS27で混雑度がまばらか否かを判断する。混雑度がまばらであれば、ここで“YES”となり、ステップS29においてロボット12は人間を集める行動を実行する。たとえば、「こっち来て。」と発話したり、手を上下に振って手招きして人間をロボット12の方へ来るように仕向ける行動をしたりする。これにより、人間はロボット12の周囲に集めて、客引きなどをする。   On the other hand, if it is determined in step S23 that the degree of congestion is not crowded and “NO”, it is next determined in step S27 whether the degree of congestion is sparse. If the degree of congestion is sparse, “YES” is determined here, and in step S29, the robot 12 executes an action of collecting humans. For example, he or she speaks “Come here” or behaves by waving his hand up and down to direct a person to come to the robot 12. As a result, humans gather around the robot 12 and draw customers.

また、ステップS27の判断でまばらでなく、“NO”と判断すれば、ステップS31により混雑度は普通であるとして、ステップS33において通常の行動を実行する。たとえば、ロボット12は「遊ぼうよ。」と発話したり、移動したりする。   If it is determined that the determination in step S27 is not sparse but “NO”, it is determined in step S31 that the degree of congestion is normal, and a normal action is executed in step S33. For example, the robot 12 speaks or moves “Let's play.”

そして、ステップS35において終了要求があるか否かを判断し、終了要求がなく、“NO”と判断すれば、ステップS21に戻る。一方、終了要求があれば、“YES”と判断して、ロボット12の処理は終了する。これと伴い、図6に示すステップS11によりサーバ100も終了要求があるか否かを判断し、“NO”と終了要求がないと判断すれば、ステップS1に戻り、反対に“YES”と終了要求があると判断すれば、その処理も終了して、ロボット12のコミュニケーション行動を終える。   In step S35, it is determined whether or not there is an end request. If there is no end request and it is determined “NO”, the process returns to step S21. On the other hand, if there is an end request, “YES” is determined and the processing of the robot 12 ends. Accordingly, the server 100 also determines whether or not there is an end request in step S11 shown in FIG. 6. If “NO” and it is determined that there is no end request, the process returns to step S1, and conversely ends with “YES”. If it is determined that there is a request, the process is also terminated and the communication action of the robot 12 is terminated.

このように、ロボット12の周囲の混雑度を識別し、それに応じてロボット12がコミュニケーション行動を実行することにより、ロボット12は周囲の状況に応じた働きかけを人間にすることができる。   As described above, the degree of congestion around the robot 12 is identified, and the robot 12 executes a communication action accordingly, so that the robot 12 can make a person act according to the surrounding situation.

また、騒音計114でロボット12の周囲の騒音レベルを測定し、それからある程度の混雑度を把握することができるため、ロボット12の周囲の混雑度を簡単に取得することができる。   In addition, since the noise level around the robot 12 can be measured by the sound level meter 114 and then a certain degree of congestion can be grasped, the degree of congestion around the robot 12 can be easily obtained.

さらに、対象空間120内のロボット12の位置に基づいてロボット12の周囲の騒音計114だけを用いるため、ロボット12の周囲の騒音レベルを的確に検出することができる。   Furthermore, since only the noise level meter 114 around the robot 12 is used based on the position of the robot 12 in the target space 120, the noise level around the robot 12 can be accurately detected.

なお、ロボット12の周囲の混雑度を取得する方法として騒音計114で測定した騒音レベルを用いたが、上部胴体24に設けられた全方位カメラ28、センサ取付パネル18に取り付けられた超音波距離センサ20、またはレーザレンジファインダなどの他のモダリティセンサを利用することもできる。たとえば、全方位カメラ28を用いる場合、全方位カメラ28からの映像信号を処理して肌色領域を抽出し、肌色領域の面積が大きいと、ロボット12の周囲に人間が多く混雑度は「混雑」であると判断する。反対に、肌色領域の面積が小さいと、ロボット12の周囲に人間が少なく混雑度は「まばら」であると判断する。   Note that the noise level measured by the sound level meter 114 was used as a method of acquiring the degree of congestion around the robot 12, but the ultrasonic distance attached to the omnidirectional camera 28 and sensor mounting panel 18 provided on the upper body 24. Other modalities sensors such as sensor 20 or laser range finder can also be utilized. For example, when the omnidirectional camera 28 is used, a video signal from the omnidirectional camera 28 is processed to extract a skin color area, and if the area of the skin color area is large, there are many people around the robot 12 and the degree of congestion is “congested”. It is judged that. On the other hand, if the area of the skin color region is small, it is determined that there are few people around the robot 12 and the degree of congestion is “sparse”.

また、上述の実施例では、ロボット12がサーバ100から混雑度データをもらってコミュニケーション行動を決定するようにした。しかしながら、サーバ100が混雑度を判断し、それに基づいて実施すべきコミュニケーション行動(たとえば、図8のステップS25、S29、S33など)をネットワーク118を介してロボット12のCPU52に提示するようにしてもよい。   In the above-described embodiment, the robot 12 receives the congestion degree data from the server 100 and determines the communication action. However, the server 100 may determine the degree of congestion and present communication actions (for example, steps S25, S29, and S33 in FIG. 8) to the CPU 52 of the robot 12 via the network 118 based on the degree of congestion. Good.

この発明の他の実施例であるロボット12は図1に示すシステム10とほぼ同じであるが、図1に示すシステム10では、対象空間120に設置された騒音計114で騒音レベルを測定し、これによりサーバ100がロボット12の周囲の混雑度を判断し、ロボット12がこの混雑度に基づきコミュニケーション行動を決定し実行した。これに対して、この他の実施例では、ロボット12の胴体に設けられたマイク30によりロボット12の周囲の騒音レベルを測定し、ロボット12自身が測定した騒音レベルから混雑度を判断して、コミュニケーション行動を決定し実行する。これ以外の部分に関しては図1実施例の示すロボット12と同様であるため、説明は省略する。   The robot 12 according to another embodiment of the present invention is substantially the same as the system 10 shown in FIG. 1, but in the system 10 shown in FIG. 1, the noise level is measured by the sound level meter 114 installed in the target space 120, As a result, the server 100 determines the degree of congestion around the robot 12, and the robot 12 determines and executes a communication action based on the degree of congestion. On the other hand, in this other embodiment, the noise level around the robot 12 is measured by the microphone 30 provided on the body of the robot 12, and the degree of congestion is determined from the noise level measured by the robot 12 itself. Determine and implement communication behavior. Since other parts are the same as those of the robot 12 shown in FIG.

ロボット12のCPU52はコミュニケーション行動を図9に示すフロー図に従って処理する。CPU52はコミュニケーション行動の処理を開始すると、ステップS41で、スピーカ46から、たとえば「こんにちは」と音声を出力し、および/あるいは動作することより、人間の注意をロボット12に向けて、人間の声や行動に伴う音を誘発する。ステップS43でロボット12が発話中であるか否かを判断し、“YES”と発話中であれば、ステップS43に戻る。一方、“NO”と発話中でなければ、ステップS45によりマイク30から周囲の音をロボット12の周囲の人間によるものとして取り込んで、ロボット12の周囲の騒音レベルNを測定する。そして、ステップS47において、図7に示す騒音レベル−混雑度テーブルに基づきこの騒音レベルNからロボット12の周囲の混雑度を調べる。この混雑度の出し方は図6のステップS7と同様である。ただし、図6に示すステップS7では、複数の騒音計114から取得した騒音レベルによりロボット12の周囲の騒音レベルNを検出したが、ここでは、マイク30が直接ロボット12の周囲の騒音レベルNを検出する点が異なる。   The CPU 52 of the robot 12 processes the communication behavior according to the flowchart shown in FIG. When the CPU52 starts the process of communication behavior, in step S41, from the speaker 46, for example, to output the sound as "Hello", and / or more to work, towards the human attention to the robot 12, the human voice Ya Triggers sounds associated with actions. In step S43, it is determined whether or not the robot 12 is speaking. If “YES” is being spoken, the process returns to step S43. On the other hand, if “NO” is not being spoken, the ambient sound from the microphone 30 is captured by the person around the robot 12 in step S45, and the noise level N around the robot 12 is measured. In step S47, the degree of congestion around the robot 12 is checked from the noise level N based on the noise level-congestion degree table shown in FIG. The method of calculating the degree of congestion is the same as step S7 in FIG. However, in step S7 shown in FIG. 6, the noise level N around the robot 12 is detected based on the noise levels acquired from the plurality of sound level meters 114. Here, the microphone 30 directly detects the noise level N around the robot 12. The point to detect is different.

次に、ステップS49でロボット12の周囲の混雑度が混雑であるか否かを判断し、混雑であれば、“YES”となり、ステップS51により混雑を緩和する行動を実行する。反対に、ステップS49の判断で“NO”と混雑度が混雑でないと判断すると、次にステップS53により混雑度がまばらであるか否かを判断する。ここで混雑度がまばらであり、“YES”と判断すれば、ステップS55においてロボット12は人間を集める行動を実行する。反対に、ステップS53による判断でまばらでなく“NO”と判断すれば、ステップS57で混雑度は普通であるとして、ステップS59で通常の行動を実行する。   Next, in step S49, it is determined whether or not the degree of congestion around the robot 12 is congested. If it is congested, “YES” is determined, and an action to alleviate the congestion is executed in step S51. On the other hand, if it is determined in step S49 that the degree of congestion is not “NO”, it is next determined in step S53 whether the degree of congestion is sparse. If the degree of congestion is sparse and it is determined “YES”, the robot 12 executes an action of collecting humans in step S55. On the other hand, if it is determined that the determination in step S53 is not sparse but “NO”, it is determined that the congestion level is normal in step S57, and the normal action is executed in step S59.

そして、ステップS61において終了要求があるか否かを判断し、終了要求がなく、“NO”と判断すれば、ステップS41に戻る。一方、ここで“YES”と終了要求があると判断すると、CPU52の処理は終了して、ロボット12のコミュニケーション行動を終える。   In step S61, it is determined whether or not there is a termination request. If there is no termination request and it is determined "NO", the process returns to step S41. On the other hand, if it is determined that there is an end request “YES”, the processing of the CPU 52 ends and the communication action of the robot 12 ends.

なお、ステップS51、ステップS55およびステップS59に示すロボット12のコミュニケーション行動はそれぞれ図8に示すステップS25、ステップS29およびステップ33に示すロボット12のコミュニケーション行動と同様である。   Note that the communication behavior of the robot 12 shown in step S51, step S55, and step S59 is the same as the communication behavior of the robot 12 shown in step S25, step S29, and step 33 shown in FIG. 8, respectively.

また、この実施例では、ロボット12の周囲の騒音レベルの測定および混雑度の識別、ならびにロボット12のコミュニケーション行動の決定を全てロボット12のCPU52により行ったが、それらの一部を他の装置などで行ってもよい。   Further, in this embodiment, measurement of the noise level around the robot 12, identification of the degree of congestion, and determination of communication behavior of the robot 12 are all performed by the CPU 52 of the robot 12, but some of them are other devices, etc. You may go on.

図1はこの発明のコミュニケーションロボットシステムの一例を示す図解図である。FIG. 1 is an illustrative view showing one example of a communication robot system of the present invention. 図2は図1実施例に示すロボットの外観を説明するための図解図である。FIG. 2 is an illustrative view for explaining the appearance of the robot shown in FIG. 1 embodiment. 図3は図1および図2に示すロボットの電気的な構成を示す図解図である。FIG. 3 is an illustrative view showing an electrical configuration of the robot shown in FIGS. 1 and 2. 図4はロボットが存在する対象空間の配置を示す図解図である。FIG. 4 is an illustrative view showing an arrangement of a target space where a robot exists. 図5は騒音計の周囲に存在する人間の数(延べ人数)とその設置場所の騒音レベルとの関係を示すグラフである。FIG. 5 is a graph showing the relationship between the number of people around the sound level meter (total number of people) and the noise level at the installation location. 図6は図1に示すサーバのコミュニケーション行動の処理を示すフロー図である。FIG. 6 is a flowchart showing processing of communication behavior of the server shown in FIG. 図7は図1実施例における騒音レベル−混雑度テーブルを示す図解図である。FIG. 7 is an illustrative view showing a noise level-congestion degree table in FIG. 1 embodiment. 図8は図3に示すCPUのコミュニケーション行動の処理を示すフロー図である。FIG. 8 is a flowchart showing processing of communication behavior of the CPU shown in FIG. 図9はこの発明の他の発明のコミュニケーションロボットのCPUのコミュニケーション行動の処理を示すフロー図である。FIG. 9 is a flowchart showing the processing of the communication behavior of the CPU of the communication robot according to another embodiment of the present invention.

符号の説明Explanation of symbols

10…コミュニケーションロボットシステム
12…コミュニケーションロボット
52…CPU
30…マイク
100…サーバ
120…対象空間
112…赤外線カメラシステム
114…騒音計
10 ... Communication robot system 12 ... Communication robot 52 ... CPU
30 ... Microphone 100 ... Server 120 ... Target space 112 ... Infrared camera system 114 ... Sound level meter

Claims (7)

人間との間でコミュニケーション行動を実行するコミュニケーションロボット、
周囲の混雑度を識別する混雑度識別手段、および
前記混雑度識別手段の検出結果に基づいて前記コミュニケーションロボットのコミュニケーション行動を決定するコミュニケーション行動決定手段を備え、
前記コミュニケーション行動決定手段は、前記混雑度識別手段が「混雑」であると識別したとき、前記コミュニケーション行動として混雑を緩和する行動を決定する、コミュニケーションロボットシステム。
A communication robot that performs communication actions with humans,
A congestion degree identifying means for identifying a surrounding congestion degree, and a communication behavior determining means for determining a communication behavior of the communication robot based on a detection result of the congestion degree identifying means ,
The communication behavior determining unit is a communication robot system that determines an action for reducing congestion as the communication behavior when the congestion degree identifying unit identifies “congestion” .
人間との間でコミュニケーション行動を実行するコミュニケーションロボット、
周囲の混雑度を識別する混雑度識別手段、および
前記混雑度識別手段の検出結果に基づいて前記コミュニケーションロボットのコミュニケーション行動を決定するコミュニケーション行動決定手段を備え、
前記コミュニケーション行動決定手段は、前記混雑度識別手段が「まばら」であると識別したとき、前記コミュニケーション行動として人間を集める行動を決定する、コミュニケーションロボットシステム。
A communication robot that performs communication actions with humans,
A congestion degree identifying means for identifying a surrounding congestion degree, and
Communication behavior determining means for determining the communication behavior of the communication robot based on the detection result of the congestion degree identifying means;
A communication robot system , wherein the communication behavior determining unit determines a behavior of collecting people as the communication behavior when the congestion degree identifying unit identifies “sparse” .
前記混雑度識別手段は、周囲の騒音レベルを検出する騒音検出手段を含み、前記騒音検出手段によって検出した騒音レベルに基づいて前記混雑度を識別する、請求項1または2記載のコミュニケーションロボットシステム。 The congestion identifying means includes a noise detecting means for detecting an ambient noise level, communication robot system to identify, according to claim 1 or 2, wherein the congestion level based on the noise level detected by said noise detecting means. それぞれが設置場所における騒音レベルを出力する、かつ環境に分散して設けられる複数の騒音計をさらに含み、
前記騒音検出手段は、前記コミュニケーションロボットの周囲一定距離内の騒音計から騒音レベルを取得することによって前記騒音レベルを検出する、請求項記載のコミュニケーションロボットシステム。
And further including a plurality of sound level meters each outputting a noise level at the installation location and distributed in the environment,
The communication robot system according to claim 3 , wherein the noise detection unit detects the noise level by acquiring a noise level from a sound level meter within a certain distance around the communication robot.
人間との間でコミュニケーション行動を実行するコミュニケーションロボットであって、
周囲の混雑度を識別する混雑度識別手段、および
前記混雑度識別手段の検出結果に基づいてコミュニケーション行動を決定するコミュニケーション行動決定手段を備え、
前記コミュニケーション行動決定手段は、前記混雑度識別手段が「混雑」であると識別したとき、前記コミュニケーション行動として混雑を緩和する行動を決定する、コミュニケーションロボット。
A communication robot that performs communication actions with humans,
A congestion degree identifying means for identifying a surrounding congestion degree, and
Communication behavior determining means for determining communication behavior based on the detection result of the congestion degree identifying means,
The communication behavior determining means is a communication robot that determines an action to alleviate congestion as the communication action when the congestion degree identifying means identifies it as “congested” .
人間との間でコミュニケーション行動を実行するコミュニケーションロボットであって、
周囲の混雑度を識別する混雑度識別手段、および
前記混雑度識別手段の検出結果に基づいてコミュニケーション行動を決定するコミュニケーション行動決定手段を備え、
前記コミュニケーション行動決定手段は、前記混雑度識別手段が「まばら」であると識別したとき、前記コミュニケーション行動として人間を集める行動を決定する、コミュニケーションロボット。
A communication robot that performs communication actions with humans,
A congestion degree identifying means for identifying a surrounding congestion degree, and a communication behavior determining means for determining a communication action based on a detection result of the congestion degree identifying means ,
The communication behavior determining means is a communication robot that determines an action of gathering humans as the communication action when the congestion degree identifying means identifies “sparse” .
周囲の騒音レベルを検出する騒音検出手段をさらに含み、前記混雑度識別手段は前記騒音検出手段によって検出した騒音レベルに基づいて前記混雑度を識別する、請求項5または6記載のコミュニケーションロボット。 The communication robot according to claim 5 , further comprising a noise detection unit that detects a surrounding noise level, wherein the congestion level identification unit identifies the congestion level based on a noise level detected by the noise detection unit.
JP2005086567A 2005-03-24 2005-03-24 Communication robot system and communication robot Active JP4793904B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005086567A JP4793904B2 (en) 2005-03-24 2005-03-24 Communication robot system and communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005086567A JP4793904B2 (en) 2005-03-24 2005-03-24 Communication robot system and communication robot

Publications (2)

Publication Number Publication Date
JP2006263873A JP2006263873A (en) 2006-10-05
JP4793904B2 true JP4793904B2 (en) 2011-10-12

Family

ID=37200369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005086567A Active JP4793904B2 (en) 2005-03-24 2005-03-24 Communication robot system and communication robot

Country Status (1)

Country Link
JP (1) JP4793904B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9588518B2 (en) 2012-05-18 2017-03-07 Hitachi, Ltd. Autonomous mobile apparatus, control device, and autonomous mobile method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4830816B2 (en) * 2006-11-28 2011-12-07 富士通株式会社 Guide robot control method, system, control device, guide robot, and guide robot control program
JP5764795B2 (en) * 2011-01-05 2015-08-19 株式会社国際電気通信基礎技術研究所 Mobile robot, mobile robot learning system, and mobile robot behavior learning method
JP5732633B2 (en) * 2011-02-09 2015-06-10 株式会社国際電気通信基礎技術研究所 Communication robot
JP2018149626A (en) * 2017-03-13 2018-09-27 大日本印刷株式会社 Communication robot, program, and system
JP6874437B2 (en) * 2017-03-13 2021-05-19 大日本印刷株式会社 Communication robots, programs and systems

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005059170A (en) * 2003-08-18 2005-03-10 Honda Motor Co Ltd Information collecting robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9588518B2 (en) 2012-05-18 2017-03-07 Hitachi, Ltd. Autonomous mobile apparatus, control device, and autonomous mobile method

Also Published As

Publication number Publication date
JP2006263873A (en) 2006-10-05

Similar Documents

Publication Publication Date Title
JP5033994B2 (en) Communication robot
JP4822319B2 (en) Communication robot and attention control system using the same
JP5366048B2 (en) Information provision system
JP4793904B2 (en) Communication robot system and communication robot
JP5764795B2 (en) Mobile robot, mobile robot learning system, and mobile robot behavior learning method
JP2007260822A (en) Guide robot
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
JP2006272471A (en) Communication robot
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
JP2004216513A (en) Communication robot
JP5145569B2 (en) Object identification method and apparatus
JP2009166184A (en) Guide robot
JP2017170568A (en) Service providing robot system
JP6134894B2 (en) Robot control system and robot
JP4399603B2 (en) Communication robot
JP4677593B2 (en) Communication robot
JP2007160427A (en) Robot control system
JP2005131713A (en) Communication robot
JP3942599B2 (en) Communication robot
JP5732633B2 (en) Communication robot
JP2006263874A (en) Communication robot
JP5115886B2 (en) Road guidance robot
JP6142306B2 (en) Robot control system, robot, output control program, and output control method
JP2007125646A (en) Communication robot
JP2011008791A (en) Object recognition method of robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110415

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110628

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110722

R150 Certificate of patent or registration of utility model

Ref document number: 4793904

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250