JP2013239209A - Communication robot, robot control program, and robot control method - Google Patents

Communication robot, robot control program, and robot control method Download PDF

Info

Publication number
JP2013239209A
JP2013239209A JP2013182834A JP2013182834A JP2013239209A JP 2013239209 A JP2013239209 A JP 2013239209A JP 2013182834 A JP2013182834 A JP 2013182834A JP 2013182834 A JP2013182834 A JP 2013182834A JP 2013239209 A JP2013239209 A JP 2013239209A
Authority
JP
Japan
Prior art keywords
area
region
robot
circles
map information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013182834A
Other languages
Japanese (ja)
Inventor
Satoshi Satake
聡 佐竹
Yasuhiko Hato
康彦 鳩
Takayuki Kanda
崇行 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2013182834A priority Critical patent/JP2013239209A/en
Publication of JP2013239209A publication Critical patent/JP2013239209A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a new area-dividing device for extracting an area that can be transmitted to humans, and to provide an area division program, an area division method and a communication robot.SOLUTION: A robot 10 comprises a CPU 60, and the CPU 60 extracts an area which is not in contact with an object, or extracts an area which is not in contact with not only the object but also a pattern of a floor by using a grid map. The robot 10 selects one area corresponding to a request of a human from among the extracted (divided) areas, and determines utterance content and determines a gesture, according to size of the selected area or positional relation with the selected area. Then, the robot 10 produces utterance with relative language expression set with respect to a directive or the specific object, and instructs the selected area to the human by executing a finger-pointing movement. The robot 10 can divide an area like the human and instruct one of the divided areas like the human.

Description

この発明は領域分割装置、領域分割プログラムおよび領域分割方法ならびにコミュニケーションロボットに関し、特にたとえば、或る環境における空間を人間に伝達可能な領域に分割する、領域分割装置、領域分割プログラム、領域分割方法ならびにコミュニケーションロボットに関する。   The present invention relates to an area dividing device, an area dividing program, an area dividing method, and a communication robot, and more particularly to, for example, an area dividing apparatus, an area dividing program, an area dividing method, and an area dividing apparatus. Related to communication robots.

この種の領域分割装置の一例が特許文献1に開示されている。この特許文献1に開示される領域分割装置は、カラー画像の画素間の色差に基づいて決定された色区間の各軸方向の分割幅に従って上記色空間を分割した後、その分割された色空間の色空間分割領域毎に設定された色分類番号に基づいてカラー画像の各画素をラベリングして、ラベリングした各画素において、同一色分類番号の画素が連続する領域を同色領域として、その同色領域毎にカラー画像を分割する。   An example of this type of area dividing device is disclosed in Patent Document 1. The area dividing device disclosed in Patent Document 1 divides the color space according to the division width in the axial direction of the color section determined based on the color difference between the pixels of the color image, and then the divided color space. Each pixel of the color image is labeled based on the color classification number set for each color space division area, and in each labeled pixel, an area where pixels of the same color classification number are continuous is defined as the same color area. The color image is divided every time.

また、この種のコミュニケーションロボットの一例が特許文献2に開示されている。この特許文献2に開示されるコミュニケーションロボットは、モーションキャプチャシステムから自身の位置、人間の位置およびオブジェクトの位置を検出する。また、ロボットは、人間との距離、ロボットと人間とを結ぶ基線に対するロボットの視線および人間の視線に基づいて指示語決定モデルを決定する。そして、ロボットは、所望のオブジェクトを指示するように、指差し動作を実行するとともに、指示語決定モデルに従って決定された指示語(「これ」、「それ」、「あれ」)を発話する。   An example of this type of communication robot is disclosed in Patent Document 2. The communication robot disclosed in Patent Document 2 detects its own position, a human position, and an object position from a motion capture system. Further, the robot determines the instruction word determination model based on the distance from the human, the line of sight of the robot with respect to the base line connecting the robot and the human, and the line of sight of the human. Then, the robot performs a pointing operation so as to indicate a desired object, and utters an instruction word (“this”, “it”, “that”) determined according to the instruction word determination model.

特開2000−67240号[G06T 7/00]JP 2000-67240 [G06T 7/00] 特開2006−231497号[B25J 13/00,B25J 5/00]JP 2006-231497 [B25J 13/00, B25J 5/00]

たとえば、或る領域を伝達するインタクションでは、人間に伝達可能な領域を発話・ジェスチャで伝える必要がある。しかし、特許文献2に示すコミュニケーションロボットでは、特定のオブジェクトについて発話・ジェスチャで伝えており、領域の伝達そのものを扱っていない。また、このコミュニケーションロボットでは、人間に伝達可能な領域を自身のセンサ情報から自動的に抽出することができない。   For example, in an interaction that conveys a certain area, it is necessary to convey the area that can be communicated to a human by an utterance / gesture. However, in the communication robot shown in Patent Document 2, a specific object is transmitted by an utterance / gesture, and the transmission of the area itself is not handled. In addition, this communication robot cannot automatically extract a region that can be transmitted to a person from its own sensor information.

ここで、人間に伝達可能な領域は、周囲に存在するオブジェクトや模様によって決定される特徴がある。しかし、それらの領域上には明白な境界が存在しない場合もあり、特許文献1の領域分割装置のように、単に色差の情報に基づいて領域を分割するだけでは、人間に伝達可能な領域を抽出することは困難である。   Here, the region that can be transmitted to humans has a characteristic that is determined by an object or a pattern existing around. However, there are cases where there is no clear boundary on these areas, and areas that can be transmitted to humans simply by dividing areas based on color difference information, as in the area dividing apparatus of Patent Document 1. It is difficult to extract.

それゆえに、この発明の主たる目的は、新規な、領域分割装置、領域分割プログラムおよび領域分割方法ならびにコミュニケーションロボットを提供することである。   Therefore, a main object of the present invention is to provide a novel area dividing apparatus, area dividing program, area dividing method, and communication robot.

また、この発明の他の目的は、人間に伝達可能な領域を抽出することができる、領域分割装置、領域分割プログラムおよび領域分割方法ならびにコミュニケーションロボットを提供することである。   Another object of the present invention is to provide an area dividing device, an area dividing program, an area dividing method, and a communication robot that can extract an area that can be transmitted to a human.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、少なくともオブジェクトを含む障害物が登録された或る環境を真上から俯瞰的に見た地図情報を記憶する記憶手段、地図情報において任意の直線に沿って中心を有する複数の円を描画する描画手段、描画手段によって描画された複数の円の各々を障害物に接触する直前まで拡大する拡大手段、拡大手段によって拡大された複数の円のうち、同一の直線に沿って中心を有する円同士を結合して1または複数の領域を生成する領域生成手段、所定のルールに従って、領域生成手段によって生成された1または複数の領域から1の領域を抽出する領域抽出手段、および領域抽出手段によって抽出された領域を除く地図情報に対して、拡大手段、領域生成手段、および領域抽出手段を繰り返し実行する実行手段を備える、領域分割装置である。   The first invention is a storage means for storing map information in which a certain environment where an obstacle including at least an object is registered is viewed from directly above, a plurality of map information having a center along an arbitrary straight line Drawing means for drawing a circle, enlargement means for enlarging each of a plurality of circles drawn by the drawing means until just before contacting the obstacle, and centering along the same straight line among the plurality of circles enlarged by the enlargement means A region generating unit that generates one or a plurality of regions by combining circles having a region, a region extracting unit that extracts one region from one or a plurality of regions generated by the region generating unit according to a predetermined rule, and a region An area dividing apparatus comprising an execution means for repeatedly executing an enlargement means, an area generation means, and an area extraction means for map information excluding the area extracted by the extraction means A.

第1の発明では、領域分割装置は、記憶手段(64)、描画手段(60、S111、S113、S131、S155、S175)、拡大手段(60、S113、S115、S117、S131、S133、S135、S155、S157、S159)、領域生成手段(60、S167)、領域抽出手段(60、S85、S87)および実行手段(60、S93)を備える。記憶手段は、少なくともオブジェクトを含む障害物が登録された或る環境を真上から俯瞰的に見た地図情報を記憶する。描画手段は、地図情報において任意の直線に沿って中心を有する複数の円を描画する。拡大手段は、描画手段によって描画された複数の円の各々を障害物に接触する直前まで拡大する。たとえば、一定の長さずつ半径を伸ばすことにより円を拡大し、円が障害物に接触したときに、円の半径を1つ手前の長さに戻す。領域生成手段は、拡大手段によって拡大された複数の円のうち、同一の直線に沿って中心を有する円同士を結合して1または複数の領域を生成する。領域抽出手段は、所定のルールに従って、領域生成手段によって生成された1または複数の領域から1の領域を抽出する。実行手段は、領域抽出手段によって抽出された領域を除く地図情報に対して、拡大手段、領域生成手段、および領域抽出手段を繰り返し実行する。   In the first invention, the area dividing device includes a storage means (64), a drawing means (60, S111, S113, S131, S155, S175), an enlargement means (60, S113, S115, S117, S131, S133, S135, S155, S157, S159), an area generation means (60, S167), an area extraction means (60, S85, S87) and an execution means (60, S93). The storage means stores map information in which a certain environment in which an obstacle including at least an object is registered is viewed from above. The drawing means draws a plurality of circles having centers along arbitrary straight lines in the map information. The enlargement means enlarges each of the plurality of circles drawn by the drawing means until just before contacting the obstacle. For example, the circle is expanded by extending the radius by a certain length, and when the circle contacts an obstacle, the radius of the circle is returned to the previous length. The region generation unit generates one or a plurality of regions by combining circles having centers along the same straight line among the plurality of circles expanded by the expansion unit. The area extracting unit extracts one area from one or a plurality of areas generated by the area generating unit according to a predetermined rule. The executing means repeatedly executes the enlarging means, the area generating means, and the area extracting means for the map information excluding the area extracted by the area extracting means.

第1の発明によれば、障害物に接触しない円同士を結合するので、障害物で囲まれるような一定の範囲を1つの領域として抽出することができる。つまり、人間に伝達可能な領域に分割することができる。   According to the first invention, since the circles that do not contact the obstacles are joined together, a certain range surrounded by the obstacles can be extracted as one region. That is, it can be divided into areas that can be transmitted to humans.

第2の発明は第1の発明に従属し、障害物は、環境における床面ないし地面の模様を含む。   A second invention is dependent on the first invention, and the obstacle includes a floor surface or a ground pattern in the environment.

第2の発明では、障害物は、環境における床面ないし地面の模様を含む。たとえば、タイルの継ぎ目に表れる線が検出される。これは、人間が領域を認識する際に、そのような継ぎ目によって領域を分割することがあると考えられるからである。ここでは、障害物は、円を拡大することの障害となるオブジェクトや模様(線)を意味する。   In the second invention, the obstacle includes a floor surface or a ground pattern in the environment. For example, a line appearing at a tile joint is detected. This is because it is considered that the region may be divided by such a joint when a human recognizes the region. Here, the obstacle means an object or pattern (line) that becomes an obstacle to expanding a circle.

第2の発明によれば、床面や地面の模様も障害物に含めるので、人間に近い感覚で領域を分割することができる。   According to the second invention, the pattern of the floor and the ground is also included in the obstacle, so that the area can be divided with a sense close to humans.

第3の発明は、第1または第2の発明に従属し、地図情報を格子状に分割する分割手段をさらに備え、描画手段は、分割手段によって格子状に分割された地図情報の一枠毎に、異なる角度の直線に沿って中心を有する複数の円を描画する。   A third invention is according to the first or second invention, further comprising a dividing unit that divides the map information in a grid pattern, and the drawing unit is provided for each frame of the map information divided in a grid pattern by the dividing unit. Next, a plurality of circles having centers along straight lines with different angles are drawn.

第3の発明では、分割手段(60、S41)は地図情報を格子状に分割する。描画手段は、格子状に分割された地図情報の一枠毎に、異なる角度の直線に沿って中心を有する複数の円を描画する。つまり、各枠毎に、異なる角度の直線が設定され、当該直線に沿って複数の円が描画される。   In the third invention, the dividing means (60, S41) divides the map information into a grid pattern. The drawing means draws a plurality of circles having centers along different straight lines for each frame of the map information divided in a lattice shape. That is, straight lines with different angles are set for each frame, and a plurality of circles are drawn along the straight lines.

第3の発明によれば、地図情報を格子状に分割した枠毎に設定される直線に沿って複数の円を描画するので、地図情報の全体に渡って領域を抽出することができる。   According to the third invention, since a plurality of circles are drawn along a straight line set for each frame obtained by dividing the map information into a lattice shape, it is possible to extract a region over the entire map information.

第4の発明は、第1ないし第3の発明に従属し、所定のルールは、特定の点との距離が最も近いことを含む。   The fourth invention is dependent on the first to third inventions, and the predetermined rule includes that the distance to the specific point is the shortest.

第4の発明では、所定のルールは、特定の点との距離が最も近いことを含む。これは、話し手の近い位置に或る領域は、遠くに在る領域よりも正確に認識されるという知見を表現するためである。したがって、たとえば、特定の点とは、話し手の位置を意味する場合がある。   In the fourth invention, the predetermined rule includes that the distance to the specific point is closest. This is to express the knowledge that a certain region near the speaker is recognized more accurately than a region far away. Thus, for example, a particular point may mean the position of the speaker.

第4の発明によれば、話し手と聞き手とが存在するような環境において領域を抽出する場合に、人間に近い感覚で領域を分割することができる。   According to the fourth invention, when extracting a region in an environment where a speaker and a listener exist, the region can be divided with a sense close to that of a human.

第5の発明は、第1ないし第4の発明に従属し、実行手段は、領域抽出手段によって抽出された領域の総和が地図情報の全範囲のうちの一定を超えるまで、拡大手段、領域生成手段、および領域抽出手段を繰り返し実行する。   The fifth invention is dependent on the first to fourth inventions, and the execution means is the enlargement means and the area generation until the sum of the areas extracted by the area extraction means exceeds a certain of the entire range of the map information. The means and the area extracting means are repeatedly executed.

第5の発明では、実行手段は、領域抽出手段によって抽出された領域の総和が地図情報の全範囲のうちの一定を超えるまで、拡大手段、領域生成手段、および領域抽出手段を繰り返し実行する。たとえば、地図情報の全範囲のうちの一割程度しか抽出可能な領域が残っていないような状況になると、そのような領域については抽出する価値が無いと考えて、領域の抽出を終了するのである。   In the fifth invention, the execution means repeatedly executes the enlargement means, the area generation means, and the area extraction means until the total sum of the areas extracted by the area extraction means exceeds a certain value in the entire range of the map information. For example, if there is an area where only about 10% of the entire map information area can be extracted, the extraction of the area will be terminated assuming that such an area is not worth extracting. is there.

第5の発明によれば、必要以上に領域の抽出処理を実行しないので、無駄な処理を省くことができる。   According to the fifth aspect of the invention, since the area extraction process is not performed more than necessary, useless processes can be omitted.

第6の発明は、少なくともオブジェクトを含む障害物が登録された或る環境を真上から俯瞰的に見た地図情報を記憶する記憶手段を備えるコンピュータのプロセッサに、地図情報において任意の直線に沿って中心を有する複数の円を描画する描画ステップ、描画ステップによって描画された複数の円の各々を障害物に接触する直前まで拡大する拡大ステップ、拡大ステップによって拡大された複数の円のうち、同一の直線に沿って中心を有する円同士を結合して1または複数の領域を生成する領域生成ステップ、所定のルールに従って、領域生成ステップによって生成された1または複数の領域から1の領域を抽出する領域抽出ステップ、および領域抽出ステップによって抽出された領域を除く地図情報に対して、拡大ステップ、領域生成ステップ、および領域抽出ステップを繰り返し実行する実行ステップを実行させる、領域分割プログラムである。   According to a sixth aspect of the present invention, there is provided a processor of a computer having storage means for storing map information in which a certain environment in which an obstacle including at least an object is registered is viewed from directly above, along an arbitrary straight line in the map information. A drawing step for drawing a plurality of circles having a center, an enlargement step for enlarging each of the plurality of circles drawn by the drawing step until just before contacting the obstacle, and a plurality of circles enlarged by the enlargement step A region generating step for generating one or a plurality of regions by combining circles having centers along the straight line, and extracting one region from one or a plurality of regions generated by the region generating step according to a predetermined rule The region extraction step and the map information excluding the region extracted by the region extraction step are subjected to an enlargement step and a region generation step. -Up, and to perform the execution step of executing repeatedly region extraction step, a region dividing program.

第7の発明は、少なくともオブジェクトを含む障害物が登録された或る環境を真上から俯瞰的に見た地図情報を記憶する記憶手段を備えるコンピュータの領域分割方法であって、(a)地図情報において任意の直線に沿って中心を有する複数の円を描画し、(b)ステップ(a)によって描画された円を障害物に接触する直前まで拡大し、(c)ステップ(b)によって拡大された複数の円のうち、同一の直線に沿って中心を有する円同士を結合して1または複数の領域を生成し、(d)所定のルールに従って、ステップ(c)によって生成された1または複数の領域から1の領域を抽出し、そして(e)ステップ(d)
によって抽出された領域を除く地図情報に対して、ステップ(b)、ステップ(c)、およびステップ(d)を繰り返し実行する、領域分割方法である。
A seventh invention is an area division method for a computer comprising storage means for storing map information obtained by looking down from above on a certain environment in which an obstacle including at least an object is registered, and (a) a map In the information, a plurality of circles having a center along an arbitrary straight line are drawn, (b) the circle drawn in step (a) is enlarged until just before contacting the obstacle, (c) enlarged in step (b). Among the plurality of circles formed by combining circles having centers along the same straight line to generate one or a plurality of regions, (d) 1 or 1 generated by step (c) according to a predetermined rule Extracting one region from a plurality of regions, and (e) step (d)
Is a region dividing method in which step (b), step (c), and step (d) are repeatedly executed on the map information excluding the region extracted by (1).

第6および第7の発明においても、第1の発明と同様に、人間に伝達可能な領域に分割することができる。   In the sixth and seventh inventions, as in the first invention, it can be divided into areas that can be transmitted to humans.

第8の発明は、請求項1ないし5のいずれかに記載する領域分割装置を備える、コミュニケーションロボットである。   An eighth invention is a communication robot comprising the area dividing device according to any one of claims 1 to 5.

第8の発明では、身体動作および音声の少なくとも一方によるコミュニケー損行動を行うコミュニケーションロボット(10)は、上述したような領域分割装置(24、28、58、60、64、66、68、72、74、76、78、80など)を備える。   In the eighth invention, the communication robot (10) that performs the communication loss action by at least one of the body movement and the voice is the area dividing device (24, 28, 58, 60, 64, 66, 68, 72, 74, 76, 78, 80, etc.).

第8の発明によれば、サービスを提供する場合に、人間に伝達可能な領域を参照したジェスチャ(身体動作)および音声(発話)を用いたインタラクションを実行することができる。   According to the eighth aspect, when providing a service, it is possible to execute an interaction using a gesture (physical action) and a voice (utterance) referring to an area that can be transmitted to a human.

第9の発明は、或る環境内に配置され、人間との間で身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する、コミュニケーションロボットであって、環境を複数の領域に分割した分割領域情報を記憶する記憶手段、記憶手段によって記憶された分割領域情報が示す複数の領域のうち、人間の質問に応じた1の領域を選択する領域選択手段、少なくとも、領域選択手段によって選択された1の領域の大きさに応じて、身体動作を決定する動作決定手段、少なくとも、領域選択手段によって選択された1の領域と、自身と、人間との位置関係に応じて、音声の内容を決定する発話内容決定手段、および動作決定手段よって決定された身体動作を実行するとともに、発話内容決定手段によって決定された発話の内容を発話することにより、領域選択手段によって選択された1の領域を人間に指示する指示手段を備える、コミュニケーションロボットである。   A ninth invention is a communication robot which is arranged in a certain environment and executes a communication action including at least one of body movement and voice with a human being, and is a divided region obtained by dividing the environment into a plurality of regions Storage means for storing information, area selection means for selecting one area corresponding to a human question among a plurality of areas indicated by the divided area information stored by the storage means, at least one selected by the area selection means The action determination means for determining the body movement according to the size of the area, and at least the one area selected by the area selection means, and the content of the sound according to the positional relationship between the person and the person The body motion determined by the utterance content determination means and the motion determination means is executed, and the utterance content determined by the utterance content determination means is uttered The Rukoto comprises instruction means for instructing a region selected by the region selecting means to a human, a communication robot.

第9の発明では、コミュニケーションロボット(10)は、或る環境内に配置され、人間との間で身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する。このコミュニケーションロボットは、記憶手段(64)、領域選択手段(60、S9)、動作決定手段(60、S11、S245)、発話内容決定手段(60、S11、S253、S255、S261)、指示手段(60、S13)を備える。記憶手段は、環境を複数の領域に分割した分割領域情報を記憶する。領域選択手段は、記憶手段によって記憶された分割領域情報が示す複数の領域のうち、人間の質問に応じた1の領域を選択する。たとえば、荷物を置いたり、人を待ったりする場所を聞かれた場合には、各々の場合に応じた1の領域が選択される。動作決定手段は、少なくとも、領域選択手段によって選択された1の領域の大きさに応じて、身体動作を決定する。つまり、選択された1の領域を人間に指示する場合の指示動作が決定される。また、発話内容決定手段は、少なくとも、領域選択手段によって選択された1の領域と、自身と、人間との位置関係に応じて、音声の内容を決定する。指示手段は、動作決定手段よって決定された身体動作を実行するとともに、発話内容決定手段によって決定された発話の内容を発話することにより、領域選択手段によって選択された1の領域を人間に指示する。   In the ninth invention, the communication robot (10) is arranged in a certain environment and executes communication behavior including at least one of body movement and voice with a human. This communication robot includes a storage means (64), an area selection means (60, S9), an action determination means (60, S11, S245), an utterance content determination means (60, S11, S253, S255, S261), an instruction means ( 60, S13). The storage means stores divided area information obtained by dividing the environment into a plurality of areas. The area selecting unit selects one area corresponding to a human question from among a plurality of areas indicated by the divided area information stored by the storage unit. For example, when asked where to put luggage or wait for a person, one area corresponding to each case is selected. The motion determining means determines the physical motion according to at least the size of one area selected by the area selecting means. That is, an instruction operation for instructing a human to the selected one area is determined. Further, the utterance content determination means determines the content of the sound in accordance with at least the positional relationship between the one area selected by the area selection means, itself, and a person. The instructing means performs the body motion determined by the motion determining means and utters the content of the utterance determined by the utterance content determining means, thereby instructing one person the one area selected by the area selecting means. .

第9の発明によれば、人間の質問に応じた領域を選択し、それを指示するので、人間が行っているのと同様のインタラクションを実現することができる。   According to the ninth aspect, since an area corresponding to a human question is selected and designated, an interaction similar to that performed by a human can be realized.

第10の発明は、第9の発明に従属し、動作決定手段によって決定された身体動作を実行した場合に、領域選択手段によって選択された1の領域のみならず、他の領域も指示する場合に、自身の位置を当該1の領域に近づける第1現在位置更新手段をさらに備える。   The tenth invention is according to the ninth invention, and when not only one area selected by the area selecting means but also another area is indicated when the body movement determined by the action determining means is executed. In addition, it further includes first current position updating means for bringing its own position closer to the one area.

第10の発明では、コミュニケーションロボットは、第1現在位置更新手段(60、S249、S251、S259)は、動作決定手段によって決定された身体動作を実行した場合に、領域選択手段によって選択された1の領域のみならず、他の領域も指示する場合に、自身の位置を当該1の領域に近づける。   In the tenth invention, the communication robot is configured such that the first current position update unit (60, S249, S251, S259) is selected by the region selection unit when the body motion determined by the motion determination unit is executed. When not only the above-mentioned area but also other areas are pointed, the position of itself is brought close to the one area.

第10の発明によれば、たとえば、指差しの動作により領域を指示する場合、自身の位置を近づけることにより、当該領域のみを指差すように動作させることができる。したがって、たとえば、ここ、そこ、あそこ、この辺、その辺、あの辺のような指示語を発話したとしても、選択された1の領域を確実に指示することができる。つまり、より人間に近いインタラクションが可能である。   According to the tenth aspect of the invention, for example, when an area is indicated by a pointing operation, it is possible to operate so that only the area is pointed by bringing its own position closer. Therefore, for example, even if an instruction word such as here, there, over there, this side, that side, or that side is uttered, it is possible to reliably indicate the selected one region. In other words, human-like interaction is possible.

第11の発明は、第9の発明に従属し、特定のオブジェクトに対して割り当てられた割当領域と当該割当領域を指示する場合の言語表現とを含む相対言語情報を記憶する相対言語情報記憶手段、および動作決定手段によって決定された身体動作を実行した場合に、領域選択手段によって選択された1の領域のみならず、他の領域も指示する場合に、1の領域が割当領域に含まれるか否かを判断する領域包含判断手段をさらに備え、発話内容決定手段は、領域包含判断手段によって、1の領域のみが割当領域に含まれることが判断されたとき、当該割当領域を指示する言語表現を音声の内容に決定する。   An eleventh invention is according to the ninth invention, and is a relative language information storage means for storing relative language information including an allocation area allocated to a specific object and a language expression for indicating the allocation area. When the physical motion determined by the motion determining means is executed, if not only one area selected by the area selecting means but also other areas are indicated, is one area included in the allocated area? The utterance content determination means further includes a language expression that indicates the allocation area when it is determined by the area inclusion determination means that only one area is included in the allocation area. Is determined as the audio content.

第11の発明では、コミュニケーションロボットは、相対言語情報記憶手段(64)、および領域包含判断手段(60、S257)をさらに備える。相対言語情報記憶手段は、特定のオブジェクトに対して割り当てられた割当領域と当該割当領域を指示する場合の言語表現とを含む相対言語情報(204g)を記憶する。領域包含判断手段は、動作決定手段によって決定された身体動作を実行した場合に、領域選択手段によって選択された1の領域のみならず、他の領域も指示する場合に(S249で“YES”)、1の領域が割当領域に含まれるか否かを判断する。発話内容決定手段は、領域包含判断手段によって、1の領域のみが割当領域に含まれることが判断されたとき、当該割当領域を指示する言語表現を音声の内容に決定する。   In the eleventh invention, the communication robot further includes relative language information storage means (64) and area inclusion determination means (60, S257). The relative language information storage means stores relative language information (204g) including an allocation area allocated to a specific object and a language expression for indicating the allocation area. The area inclusion determination means, when executing the body movement determined by the movement determination means, indicates not only one area selected by the area selection means but also other areas (“YES” in S249). It is determined whether or not one area is included in the allocation area. The utterance content determination means determines, when the area inclusion determination means determines that only one area is included in the allocation area, the linguistic expression indicating the allocation area as speech content.

第11の発明によれば、身体動作によって選択した1の領域以外の他の領域を指示してしまう場合であっても、当該選択した1の領域のみが割当領域に含まれる場合には、この割当領域を指示する言語表現によって発話するので、確実に選択した1の領域を指示することができる。   According to the eleventh aspect of the invention, even when a region other than the one region selected by physical movement is indicated, when only the selected one region is included in the allocation region, Since the utterance is expressed by the linguistic expression indicating the allocation area, the selected one area can be surely indicated.

第12の発明は、第11の発明に従属し、領域包含判断手段によって、1の領域のみならず、他の領域も包含することが判断された場合に、自身の位置を当該1の領域に近づける第2現在位置更新手段をさらに備える。   The twelfth invention is dependent on the eleventh invention, and when it is determined by the area inclusion determination means that not only one area but also other areas are included, its own position is changed to the one area. Second current position updating means for bringing the second current position closer is further provided.

第12の発明では、コミュニケーションロボットは、第2現在位置更新手段(60、S257、S259)をさらに備える。第2現在位置更新手段は、領域包含判断手段によって、1の領域のみならず、他の領域も包含することが判断された場合に(S257で“YES”)、自身の位置を当該1の領域に近づける。   In a twelfth aspect, the communication robot further includes second current position updating means (60, S257, S259). The second current position update unit determines that the area inclusion determination unit includes not only one area but also other areas (“YES” in S257), and changes the position of the second current position update unit to the first area. Move closer to.

第12の発明においても、第10の発明と同様に、たとえば、指差しの動作により領域を指示する場合、自身の位置を近づけることにより、当該領域のみを指差すように動作させることができる。   In the twelfth invention, similarly to the tenth invention, for example, when an area is indicated by a pointing operation, the user can be operated to point only at the area by bringing his / her position closer.

この発明によれば、障害物に接触しない円同士を結合するので、障害物で囲まれるよう
な一定の範囲を1つの領域として抽出することができる。つまり、人間に伝達可能な領域に分割することができる。
According to this invention, since the circles that do not contact the obstacles are joined together, a certain range surrounded by the obstacles can be extracted as one region. That is, it can be divided into areas that can be transmitted to humans.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例のコミュニケーションロボットの外観を正面から見た正面図である。FIG. 1 is a front view of the appearance of a communication robot according to an embodiment of the present invention as seen from the front. 図2は図1に示すコミュニケーションロボットの電気的な構成を示すブロック図である。FIG. 2 is a block diagram showing an electrical configuration of the communication robot shown in FIG. 図3は図1に示すコミュニケーションロボットに記憶されるオブジェクト地図情報データに従うオブジェクト地図情報を示す図解図である。FIG. 3 is an illustrative view showing object map information according to the object map information data stored in the communication robot shown in FIG. 図4は図1に示すコミュニケーションロボットに記憶されるカメラ画像データに従うカメラ画像を示す図解図である。FIG. 4 is an illustrative view showing a camera image according to the camera image data stored in the communication robot shown in FIG. 図5はグリッドマップの例を示す図解図である。FIG. 5 is an illustrative view showing an example of a grid map. 図6は点と線の傾きとの組についての参照リストの例を示す図解図である。FIG. 6 is an illustrative view showing an example of a reference list for pairs of points and line inclinations. 図7は伸縮円を描画する枠の枠を決定する方法を説明するための図解図である。FIG. 7 is an illustrative view for explaining a method of determining a frame for drawing a stretchable circle. 図8は枠内の或る枠における伸縮円の描画方法を説明するための図解図である。FIG. 8 is an illustrative view for explaining a drawing method of an expansion / contraction circle in a certain frame in the frame. 図9は或る直線に沿って中心を有する伸縮円を描画した場合の例およびそれによって生成されるバルーンを示す図解図である。FIG. 9 is an illustrative view showing an example of drawing an expansion / contraction circle having a center along a certain straight line and a balloon generated thereby. 図10は図9に示す例から30°傾けた直線に沿って中心を有する伸縮円を描画した場合の例およびそれによって生成されるバルーンを示す図解図である。FIG. 10 is an illustrative view showing an example in which an expansion / contraction circle having a center is drawn along a straight line inclined by 30 ° from the example shown in FIG. 9 and a balloon generated thereby. 図11は分割された領域を示す図解図である。FIG. 11 is an illustrative view showing divided areas. 図12はこの実施例の指示語切替モデルを示す図解図である。FIG. 12 is an illustrative view showing an instruction word switching model of this embodiment. 図13は領域を参照したコミュニケーション行動を実行する際にコミュニケーションロボットを当該領域に近づけるか否かの判断方法を説明するための図解図である。FIG. 13 is an illustrative view for explaining a method of determining whether or not a communication robot is brought close to an area when executing a communication action referring to the area. 図14は図2に示すメモリのメモリマップの例を示す図解図である。FIG. 14 is an illustrative view showing an example of a memory map of the memory shown in FIG. 図15は相対言語テーブルの例を示す図解図である。FIG. 15 is an illustrative view showing an example of a relative language table. 図16は図3に示したオブジェクト地図情報に含まれる固定オブジェクトに対応して設定される相対言語割り当て領域を示す図解図である。FIG. 16 is an illustrative view showing a relative language assignment area set corresponding to a fixed object included in the object map information shown in FIG. 図17は図2に示すCPUの全体処理を示すフロー図である。FIG. 17 is a flowchart showing the overall processing of the CPU shown in FIG. 図18は図2に示すCPUの領域分割処理の一部を示すフロー図である。FIG. 18 is a flowchart showing a part of the area division processing of the CPU shown in FIG. 図19は図2に示すCPUの領域分割処理の他の一部であって、図18に後続するフロー図である。FIG. 19 is another part of the CPU area dividing process shown in FIG. 2, and is a flowchart subsequent to FIG. 図20は図2に示すCPUの候補の集合取得処理を示すフロー図である。FIG. 20 is a flowchart showing the CPU candidate set acquisition processing shown in FIG. 図21は図2に示すCPUのバルーン取得処理の第1の一部を示すフロー図である。FIG. 21 is a flowchart showing a first part of the balloon acquisition process of the CPU shown in FIG. 図22は図2に示すCPUのバルーン取得処理の第2の一部であって、図21に後続するフロー図である。FIG. 22 is a second part of the balloon acquisition process of the CPU shown in FIG. 2, and is a flowchart subsequent to FIG. 図23は図2に示すCPUのバルーン取得処理の第3の一部であって、図22に後続するフロー図である。FIG. 23 is a third part of the balloon acquisition process of the CPU shown in FIG. 2, and is a flowchart subsequent to FIG. 図24は図2に示すCPUのバルーン取得処理の第4の一部であって、図23に後続するフロー図である。24 is a fourth part of the balloon acquisition process of the CPU shown in FIG. 2, and is a flowchart subsequent to FIG. 図25は図2に示すCPUの領域選択処理の一部を示すフロー図である。FIG. 25 is a flowchart showing a part of the area selection processing of the CPU shown in FIG. 図26は図2に示すCPUの領域選択処理の他の一部であって、図25に後続するフロー図である。FIG. 26 is another part of the CPU area selection process shown in FIG. 2, and is a flowchart subsequent to FIG. 図27は図2に示すCPUの制御情報の決定処理の一部を示すフロー図である。FIG. 27 is a flowchart showing a part of the CPU control information determination process shown in FIG. 図28は図2に示すCPUの制御情報の決定処理の他の一部であって、図27に後続するフロー図である。FIG. 28 is another part of the CPU control information determination process shown in FIG. 2, and is a flowchart subsequent to FIG.

図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボットという)10は、相互作用指向のロボットであり、主として人間のようなコミュニケーションの対象(コミュニケーション対象)との間で、身振り手振りのようなジェスチャ(身体動作)および音声の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。ロボット10は、受付や案内などの様々なサービスを提供し、たとえば或る会社やイベント会場(ショッピングモール、展示会場)などの様々な場所ないし状況(環境)に配置される。また、ロボット10は、環境内で自走可能である。   Referring to FIG. 1, a communication robot (hereinafter simply referred to as “robot”) 10 of this embodiment is an interaction-oriented robot, and mainly gestures with a communication target (communication target) such as a human being. The robot 10 has a function of executing communication actions including gestures (physical movements) such as hand gestures and voices, etc. The robot 10 provides various services such as reception and guidance, for example, a certain company or event venue. It is arranged in various places or situations (environments) such as (shopping malls, exhibition halls) etc. The robot 10 can run in the environment.

なお、後で詳細に説明するように、この実施例では、ロボット10は領域分割装置としても機能する。   As will be described in detail later, in this embodiment, the robot 10 also functions as an area dividing device.

図1は、この実施例のロボット10の外観を示す正面図である。ロボット10は台車18を含み、台車18の下面にはロボット10を自律移動させる2つの車輪20および1つの従輪22が設けられる。2つの車輪20は車輪モータ24(図3参照)によってそれぞれ独立に駆動され、台車18すなわちロボット10を前後左右の任意方向に動かすことができる。また、従輪22は車輪20を補助する補助輪である。したがって、ロボット10は、配置された空間内を自律制御によって移動可能である。   FIG. 1 is a front view showing the appearance of the robot 10 of this embodiment. The robot 10 includes a carriage 18, and two wheels 20 and one follower wheel 22 for autonomously moving the robot 10 are provided on the lower surface of the carriage 18. The two wheels 20 are independently driven by a wheel motor 24 (see FIG. 3), and the carriage 18, that is, the robot 10 can be moved in any direction, front, back, left, and right. The slave wheel 22 is an auxiliary wheel that assists the wheel 20. Therefore, the robot 10 can move in the arranged space by autonomous control.

台車18の上には、円柱形のセンサ取り付けパネル26が設けられ、このセンサ取り付けパネル26には、多数の距離センサ28が取り付けられる。これらの距離センサ28は、センサ取り付けパネル26すなわちロボット10の周囲の物体(人間や障害物など)との距離を測定するものである。   A cylindrical sensor mounting panel 26 is provided on the carriage 18, and a number of distance sensors 28 are mounted on the sensor mounting panel 26. These distance sensors 28 measure the distance from the sensor mounting panel 26, that is, the object (human being, obstacle, etc.) around the robot 10.

センサ取り付けパネル26の上には、胴体30が直立するように設けられる。また、胴体30の前方中央上部(人の胸に相当する位置)には、上述したがさらに設けられ、ロボット10の前方の主として人間との距離を計測する。また、胴体30には、その側面側上端部のほぼ中央から伸びる支柱32が設けられ、支柱32の上には、全方位カメラ34が設けられる。全方位カメラ34は、ロボット10の周囲を撮影するものであり、後述する眼カメラ58とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら距離センサ28および全方位カメラ34の設置位置は、当該部位に限定されず適宜変更され得る。   The body 30 is provided on the sensor mounting panel 26 so as to stand upright. Further, as described above, it is further provided at the front center upper portion of the body 30 (a position corresponding to a human chest), and measures the distance mainly to a human in front of the robot 10. Further, the body 30 is provided with a support column 32 extending from substantially the center of the upper end of the side surface, and an omnidirectional camera 34 is provided on the support column 32. The omnidirectional camera 34 captures the surroundings of the robot 10 and is distinguished from an eye camera 58 described later. As this omnidirectional camera 34, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. It should be noted that the installation positions of the distance sensor 28 and the omnidirectional camera 34 are not limited to the relevant parts and can be changed as appropriate.

胴体30の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節36Rおよび肩関節36Lによって、上腕38Rおよび上腕38Lが設けられる。図示は省略するが、肩関節36Rおよび肩関節36Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節36Rは、直交する3軸のそれぞれの軸廻りにおいて上腕38Rの角度を制御できる。肩関節36Rの或る軸(ヨー軸)は、上腕38Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節36Lは、直交する3軸のそれぞれの軸廻りにおいて上腕38Lの角度を制御できる。肩関節36Lの或る軸(ヨー軸)は、上腕38Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。   An upper arm 38R and an upper arm 38L are provided at upper end portions on both sides of the body 30 (a position corresponding to a human shoulder) by a shoulder joint 36R and a shoulder joint 36L, respectively. Although illustration is omitted, each of the shoulder joint 36R and the shoulder joint 36L has three orthogonal degrees of freedom. That is, the shoulder joint 36R can control the angle of the upper arm 38R around each of the three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 36R is an axis parallel to the longitudinal direction (or axis) of the upper arm 38R, and the other two axes (pitch axis and roll axis) are orthogonal to the axis from different directions. It is an axis to do. Similarly, the shoulder joint 36L can control the angle of the upper arm 38L around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 36L is an axis parallel to the longitudinal direction (or axis) of the upper arm 38L, and the other two axes (pitch axis and roll axis) are orthogonal to the axis from different directions. It is an axis to do.

また、上腕38Rおよび上腕38Lのそれぞれの先端には、肘関節40Rおよび肘関節
40Lが設けられる。図示は省略するが、肘関節40Rおよび肘関節40Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕42Rおよび前腕42Lの角度を制御できる。
In addition, an elbow joint 40R and an elbow joint 40L are provided at the tips of the upper arm 38R and the upper arm 38L, respectively. Although illustration is omitted, each of the elbow joint 40R and the elbow joint 40L has one degree of freedom, and the angles of the forearm 42R and the forearm 42L can be controlled around this axis (pitch axis).

前腕42Rおよび前腕42Lのそれぞれの先端には、人の手に相当する球体44Rおよび球体44Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。また、図示は省略するが、台車18の前面,肩関節36Rと肩関節36Lとを含む肩に相当する部位,上腕38R,上腕38L,前腕42R,前腕42L,球体44Rおよび球体44Lには、それぞれ、接触センサ(図3で包括的に示す)46が設けられる。台車18の前面の接触センサ46は、台車18への人間や障害物の接触を検知する。したがって、ロボット10は、その自身の移動中に人間や障害物との接触が有ると、それを検知し、直ちに車輪20の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ46は、当該各部位に触れたかどうかを検知する。なお、接触センサ46の設置位置は、当該部位に限定されず、適宜な位置(人の胸,腹,脇,背中および腰に相当する位置)に設けられてもよい。   A sphere 44R and a sphere 44L corresponding to a human hand are fixedly provided at the tips of the forearm 42R and the forearm 42L, respectively. However, when a finger or palm function is required, a “hand” in the shape of a human hand can be used. Although not shown, the front surface of the carriage 18, the portion corresponding to the shoulder including the shoulder joint 36R and the shoulder joint 36L, the upper arm 38R, the upper arm 38L, the forearm 42R, the forearm 42L, the sphere 44R and the sphere 44L are respectively A contact sensor (shown generically in FIG. 3) 46 is provided. The contact sensor 46 on the front surface of the carriage 18 detects contact of a person or an obstacle with the carriage 18. Therefore, when the robot 10 is in contact with a human being or an obstacle during its movement, the robot 10 can detect the contact and immediately stop driving the wheel 20 to suddenly stop the movement of the robot 10. Further, the other contact sensors 46 detect whether or not the respective parts are touched. In addition, the installation position of the contact sensor 46 is not limited to the said site | part, and may be provided in an appropriate position (position corresponding to a person's chest, abdomen, side, back, and waist).

胴体30の中央上部(人の首に相当する位置)には首関節48が設けられ、さらにその上には頭部50が設けられる。図示は省略するが、首関節48は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 48 is provided at the upper center of the body 30 (a position corresponding to a person's neck), and a head 50 is further provided thereon. Although illustration is omitted, the neck joint 48 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 10, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部50には、人の口に相当する位置に、スピーカ52が設けられる。スピーカ52は、ロボット10が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク54Rおよびマイク54Lが設けられる。以下、右のマイク54Rと左のマイク54Lとをまとめてマイク54ということがある。マイク54は、周囲の音、とりわけコミュニケーションを実行する対象である人間の声を取り込む。さらに、人の目に相当する位置には、眼球部56Rおよび眼球部56Lが設けられる。眼球部56Rおよび眼球部56Lは、それぞれ眼カメラ58Rおよび眼カメラ58Lを含む。以下、右の眼球部56Rと左の眼球部56Lとをまとめて眼球部56ということがある。また、右の眼カメラ58Rと左の眼カメラ58Lとをまとめて眼カメラ58ということがある。   The head 50 is provided with a speaker 52 at a position corresponding to a human mouth. The speaker 52 is used for the robot 10 to communicate with a person around it by voice or sound. A microphone 54R and a microphone 54L are provided at a position corresponding to a human ear. Hereinafter, the right microphone 54R and the left microphone 54L may be collectively referred to as a microphone 54. The microphone 54 captures ambient sounds, particularly a human voice that is an object for performing communication. Furthermore, an eyeball portion 56R and an eyeball portion 56L are provided at positions corresponding to human eyes. The eyeball portion 56R and the eyeball portion 56L include an eye camera 58R and an eye camera 58L, respectively. Hereinafter, the right eyeball portion 56R and the left eyeball portion 56L may be collectively referred to as the eyeball portion 56. Further, the right eye camera 58R and the left eye camera 58L may be collectively referred to as an eye camera 58.

眼カメラ58は、ロボット10に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ58は、上述した全方位カメラ34と同様のカメラを用いることができる。たとえば、眼カメラ58は、眼球部56内に固定され、眼球部56は、眼球支持部(図示せず)を介して頭部50内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部50の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部50の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部56ないし眼カメラ58の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ52,マイク54および眼カメラ58の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。   The eye camera 58 captures a human face approaching the robot 10, other parts or objects, and captures a corresponding video signal. The eye camera 58 can be the same camera as the omnidirectional camera 34 described above. For example, the eye camera 58 is fixed in the eyeball unit 56, and the eyeball unit 56 is attached to a predetermined position in the head 50 via an eyeball support unit (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 50, and the other is orthogonal to the one axis and goes straight in a direction in which the front side (face) of the head 50 faces. It is an axis (pitch axis) in the direction to be performed. By rotating the eyeball support portion around each of the two axes, the tip (front) side of the eyeball portion 56 or the eye camera 58 is displaced, and the camera axis, that is, the line-of-sight direction is moved. It should be noted that the installation positions of the above-described speaker 52, microphone 54, and eye camera 58 are not limited to the portions, and may be provided at appropriate positions.

このように、この実施例のロボット10は、車輪20の独立2軸駆動,肩関節36の3自由度(左右で6自由度),肘関節40の1自由度(左右で2自由度),首関節48の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。   As described above, the robot 10 of this embodiment includes independent two-axis driving of the wheel 20, three degrees of freedom of the shoulder joint 36 (6 degrees of freedom on the left and right), and one degree of freedom of the elbow joint 40 (two degrees of freedom on the left and right). It has a total of 17 degrees of freedom: 3 degrees of freedom for the neck joint 48 and 2 degrees of freedom for the eyeball support (4 degrees of freedom on the left and right).

図2はロボット10の電気的な構成を示すブロック図である。この図2を参照して、ロボット10は、CPU60を含む。CPU60は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス62を介して、メモリ64,モータ制御ボード66,センサ入力/出力ボード68および音声入力/出力ボード70に接続される。   FIG. 2 is a block diagram showing an electrical configuration of the robot 10. Referring to FIG. 2, robot 10 includes a CPU 60. The CPU 60 is also called a microcomputer or a processor, and is connected to the memory 64, the motor control board 66, the sensor input / output board 68, and the audio input / output board 70 via the bus 62.

メモリ64は、図示は省略をするが、ROM,HDDおよびRAMを含む。ROMおよびHDDには、ロボット10の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラム、および外部コンピュータとの間で必要なデータやコマンド(メッセージ)を送受信するための通信プログラムなどが記録される。また、RAMは、ワークメモリやバッファメモリとして用いられる。   The memory 64 includes a ROM, an HDD, and a RAM (not shown). In the ROM and HDD, a control program for controlling the operation of the robot 10 is stored in advance. For example, a detection program for detecting the output (sensor information) of each sensor and a communication program for transmitting / receiving necessary data and commands (messages) to / from an external computer are recorded. The RAM is used as a work memory or a buffer memory.

モータ制御ボード66は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード66は、CPU60からの制御データを受け、右眼球部56Rの2軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「右眼球モータ72」と示す)の回転角度を制御する。同様にして、モータ制御ボード66は、CPU60からの制御データを受け、左眼球部56Lの2軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「左眼球モータ74」と示す)の回転角度を制御する。   The motor control board 66 is composed of, for example, a DSP, and controls driving of motors of axes such as arms, neck joints, and eyeballs. That is, the motor control board 66 receives control data from the CPU 60 and controls two motors (in FIG. 2, collectively referred to as “right eyeball motor 72”) that control the respective angles of the two axes of the right eyeball portion 56R. Control the rotation angle. Similarly, the motor control board 66 receives control data from the CPU 60 and controls two motors for controlling the respective angles of the two axes of the left eyeball unit 56L (in FIG. 2, collectively referred to as “left eyeball motor 74”). ) To control the rotation angle.

また、モータ制御ボード66は、CPU60からの制御データを受け、右肩関節36Rの直交する3軸のそれぞれの角度を制御する3つのモータと右肘関節40Rの角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「右腕モータ76」と示す)の回転角度を制御する。同様にして、モータ制御ボード66は、CPU60からの制御データを受け、左肩関節36Lの直交する3軸のそれぞれの角度を制御する3つのモータと左肘関節40Lの角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「左腕モータ78」と示す)の回転角度を制御する。   The motor control board 66 receives control data from the CPU 60, and includes three motors for controlling the angles of the three orthogonal axes of the right shoulder joint 36R and one motor for controlling the angle of the right elbow joint 40R. The rotation angles of a total of four motors (collectively indicated as “right arm motor 76” in FIG. 2) are controlled. Similarly, the motor control board 66 receives control data from the CPU 60, three motors for controlling the angles of the three orthogonal axes of the left shoulder joint 36L, and one motor for controlling the angle of the left elbow joint 40L. The rotation angles of a total of four motors (collectively indicated as “left arm motor 78” in FIG. 2) are controlled.

さらに、モータ制御ボード66は、CPU60からの制御データを受け、首関節48の直交する3軸のそれぞれの角度を制御する3つのモータ(図2では、まとめて「頭部モータ80」と示す)の回転角度を制御する。そして、モータ制御ボード66は、CPU60からの制御データを受け、車輪20を駆動する2つのモータ(図2では、まとめて「車輪モータ24」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ24を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ24と同様に直流モータを用いるようにしてもよい。また、ロボット10の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。   Further, the motor control board 66 receives control data from the CPU 60, and controls three motors for controlling the angles of the three orthogonal axes of the neck joint 48 (in FIG. 2, collectively indicated as "head motor 80"). Control the rotation angle. The motor control board 66 receives control data from the CPU 60 and controls the rotation angles of the two motors that drive the wheels 20 (collectively indicated as “wheel motors 24” in FIG. 2). In this embodiment, a motor other than the wheel motor 24 uses a stepping motor (that is, a pulse motor) in order to simplify the control. However, a DC motor may be used similarly to the wheel motor 24. In addition, the actuator that drives the body part of the robot 10 is not limited to a motor that uses a current as a power source, and may be appropriately changed. For example, in another embodiment, an air actuator may be applied.

センサ入力/出力ボード68もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU60に与える。すなわち、距離センサ28のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード68を通じてCPU60に入力される。距離センサ28としては、赤外線距離センサまたはレーザ距離センサを用いることができ、それら両方を用いるようにしてもよい。また、全方位カメラ34からの映像信号が、必要に応じてセンサ入力/出力ボード68で所定の処理を施してからCPU60に入力される。眼カメラ58からの映像信号も、同様にして、CPU60に入力される。また、上述した複数の接触センサ(図3では、まとめて「接触センサ46」と示す)からの信号がセンサ入力/出力ボード68を介してCPU60に与えられる。   Similarly, the sensor input / output board 68 is also constituted by a DSP, and takes in signals from each sensor and gives them to the CPU 60. That is, data relating to the reflection time from each of the distance sensors 28 is input to the CPU 60 through the sensor input / output board 68. As the distance sensor 28, an infrared distance sensor or a laser distance sensor can be used, or both of them may be used. The video signal from the omnidirectional camera 34 is input to the CPU 60 after being subjected to predetermined processing by the sensor input / output board 68 as necessary. Similarly, the video signal from the eye camera 58 is also input to the CPU 60. Further, signals from the plurality of contact sensors described above (collectively indicated as “contact sensors 46” in FIG. 3) are provided to the CPU 60 via the sensor input / output board 68.

音声入力/出力ボード70もまた、同様に、DSPで構成され、CPU60から与えら
れる音声合成データに従った音声または声がスピーカ52から出力される。また、マイク54からの音声入力が、音声入力/出力ボード70を介してCPU60に与えられる。
Similarly, the voice input / output board 70 is also configured by a DSP, and voice or voice according to voice synthesis data provided from the CPU 60 is output from the speaker 52. Also, voice input from the microphone 54 is given to the CPU 60 via the voice input / output board 70.

また、CPU60は、バス62を介して通信LANボード82に接続される。通信LANボード82は、DSPで構成され、CPU60から与えられた送信データを無線通信装置84に与え、無線通信装置84から送信データを、ネットワーク100を介して外部コンピュータ(記憶制御装置102など)に送信する。また、通信LANボード82は、無線通信装置84を介してデータを受信し、受信したデータをCPU60に与える。つまり、ロボット10は、通信LANボード82および無線通信装置84によって、記憶制御装置102と無線通信を行うことができる。   The CPU 60 is connected to the communication LAN board 82 via the bus 62. The communication LAN board 82 is configured by a DSP and provides transmission data given from the CPU 60 to the wireless communication device 84, and sends the transmission data from the wireless communication device 84 to an external computer (such as the storage control device 102) via the network 100. Send. The communication LAN board 82 receives data via the wireless communication device 84 and gives the received data to the CPU 60. That is, the robot 10 can perform wireless communication with the storage control device 102 by the communication LAN board 82 and the wireless communication device 84.

さらに、CPU60は、バス62を介して無線タグ読取装置86が接続される。無線タグ読取装置86は、アンテナ(図示せず)を介して、無線タグ(RFIDタグ)から送信される識別情報の重畳された電波を受信する。そして、無線タグ読取装置86は、受信した電波信号を増幅し、当該電波信号から識別信号を分離し、当該識別情報を復調(デコード)してCPU60に与える。無線タグは、会社やイベント会場などに居る人間に装着されており、無線タグ読取装置86は、通信可能範囲内の無線タグを検出する。なお、無線タグは、アクティブ型であってもよいし、無線タグ読み取り装置86から送信される電波に応じて駆動されるパッシブ型であってもよい。   Further, the wireless tag reader 86 is connected to the CPU 60 via the bus 62. The wireless tag reader 86 receives a radio wave superimposed with identification information transmitted from the wireless tag (RFID tag) via an antenna (not shown). The wireless tag reader 86 amplifies the received radio wave signal, separates the identification signal from the radio wave signal, demodulates (decodes) the identification information, and supplies the identification information to the CPU 60. The wireless tag is attached to a person in a company or event venue, and the wireless tag reader 86 detects a wireless tag within a communicable range. Note that the wireless tag may be an active type or a passive type that is driven in accordance with radio waves transmitted from the wireless tag reader 86.

このようなロボット10は、上述したように、或る環境に配置され、当該環境内において受付や案内などのサービスを提供する。この実施例では、そのようなサービスの提供のうち、或る環境において、その一部の領域を参照しながら、コミュニケーション対象としての人間との間でコミュニケーション行動を実行する場合について説明する。   As described above, the robot 10 is arranged in a certain environment and provides services such as reception and guidance in the environment. In this embodiment, a case will be described in which communication behavior is executed with a human being as a communication target in a certain environment while referring to a partial area in the provision of such a service.

たとえば、人間同士のコミュニケーションを考えた場合、荷物の置き場所を聞かれると、聞かれた人間(案内人)は、その荷物を置くことができる領域を探し、指差しながら、ここ(そこ、あそこ)やこの辺(その辺、あの辺)などと発話して、荷物の置き場所(領域)を聞き手に伝える。ただし、壁、柱、机、椅子のように環境内に存在する物(オブジェクト)を参照して、たとえば、「机の横」、「柱の前」などのように、指示語に代えて、特定のオブジェクトに対応して決まる表現の言語(以下、「相対言語」ということがある)を発話することもある。   For example, when considering communication between people, when asked where to place the luggage, the person (guide) who is asked looks for an area where the luggage can be placed and points to it here (over there, over there) ) Or this side (that side, that side), etc., and tell the listener where to place the luggage (area). However, referring to objects (objects) that exist in the environment such as walls, pillars, desks, chairs, for example, instead of directives such as “next to desks”, “in front of pillars”, There are cases where a language of expression (hereinafter referred to as “relative language”) determined according to a specific object is spoken.

この実施例では、ロボット10に、上記の案内人と同様のコミュニケーション行動を実行させるのである。つまり、或る環境(空間)において、領域を抽出(分割)し、人間からの質問(リクエスト)に対して、適切な領域を選択し、選択した領域をコミュニケーション行動によって伝達するのである。この際、適切な身体動作および発話内容も選択されるのである。   In this embodiment, the robot 10 is caused to execute the same communication behavior as that of the above guider. That is, in a certain environment (space), an area is extracted (divided), an appropriate area is selected in response to a question (request) from a human, and the selected area is transmitted by communication behavior. At this time, appropriate body movements and utterance contents are also selected.

以下、領域を抽出(分割)する方法、領域を選択する方法および領域を参照したコミュニケーション行動の実行について順次説明することにする。   Hereinafter, a method for extracting (dividing) a region, a method for selecting a region, and execution of communication behavior with reference to the region will be sequentially described.

まず、領域を抽出(分割)する場合には、その元となるグリッドマップが生成される。グリッドマップは、オブジェクト地図情報、カメラ画像および距離情報に基づいて生成される。   First, when an area is extracted (divided), a grid map as a base is generated. The grid map is generated based on the object map information, the camera image, and the distance information.


オブジェクト地図情報は、環境を俯瞰的に真上から見た2次元の地図(見取り図)であり、当該環境に固定的に配置されるオブジェクト(固定オブジェクト)がその形状(大きさ)で記載される。図3では省略するが、オブジェクト地図情報では、各固定オブジェク
トの配置位置は2次元座標で管理されている。たとえば、2次元座標の原点Oは、図3に示す環境を規定する四角枠の左下の頂点に設定される。ただし、2次元座標系では、図3の横方向がX軸方向であり、図3の縦方向がY軸方向である。また、図3の右方向がX軸のプラス方向であり、図3の上方向がY軸のプラス方向である。

The object map information is a two-dimensional map (schematic diagram) as seen from directly above the environment, and an object (fixed object) that is fixedly arranged in the environment is described in its shape (size). . Although omitted in FIG. 3, in the object map information, the arrangement positions of the fixed objects are managed in two-dimensional coordinates. For example, the origin O of the two-dimensional coordinates is set at the lower left vertex of the square frame that defines the environment shown in FIG. However, in the two-dimensional coordinate system, the horizontal direction in FIG. 3 is the X-axis direction, and the vertical direction in FIG. 3 is the Y-axis direction. Also, the right direction in FIG. 3 is the positive direction of the X axis, and the upward direction in FIG. 3 is the positive direction of the Y axis.

なお、この実施例では、固定オブジェクトとしては、壁、柱、花壇、カウンタ、書庫などが該当する。つまり、移動できないオブジェクトや滅多に移動することがないオブジェクトが、固定オブジェクトに該当する。   In this embodiment, the fixed object includes a wall, a pillar, a flower bed, a counter, a library, and the like. That is, an object that cannot move or an object that rarely moves corresponds to a fixed object.

図4には、カメラ画像の一例が示される。たとえば、カメラ画像は、ロボット10が配置される環境を、当該ロボット10の眼カメラ58で撮影した画像である。ロボット10は、環境内でオブジェクト地図情報に設定された座標系と同じ座標系で自身の位置(現在位置)を管理しており、眼カメラ58で画像を撮影した場合には、撮影した画像を撮影した位置に対応付けてメモリ64に記憶する。   FIG. 4 shows an example of a camera image. For example, the camera image is an image obtained by photographing the environment in which the robot 10 is arranged with the eye camera 58 of the robot 10. The robot 10 manages its own position (current position) in the same coordinate system as the coordinate system set in the object map information in the environment, and when an image is captured by the eye camera 58, the captured image is displayed. The image is stored in the memory 64 in association with the photographed position.

この図4に示すカメラ画像から分かるように、図3に示した固定オブジェクトに加えて、環境内には、テーブルおよび椅子のような、移動可能なオブジェクト(以下、「可動オブジェクト」という)も配置される。このような可動オブジェクトは、比較的高い頻度で移動されることがあると考えられるため、オブジェクト地図情報には登録されず、必要に応じて、後述するように、カメラ画像および距離情報から検出される。   As can be seen from the camera image shown in FIG. 4, in addition to the fixed objects shown in FIG. 3, movable objects such as tables and chairs (hereinafter referred to as “movable objects”) are also arranged in the environment. Is done. Such a movable object is considered to be moved at a relatively high frequency, so it is not registered in the object map information, and is detected from the camera image and distance information as will be described later. The

なお、この実施例では、可動オブジェクトとしては、机、テーブル、椅子、ソファーなどが該当する。   In this embodiment, the movable object includes a desk, a table, a chair, a sofa, and the like.

距離情報は、ロボット10が環境内を移動することにより、或る位置(XY座標)において距離センサ28によって距離が検出されたとき、当該位置に対応づけて、当該距離とその方向(角度)とを含む距離に関する情報(データ)である。このような距離情報によって、何らかの物体(オブジェクト)が存在することとその位置とを知ることができる。   When the distance is detected by the distance sensor 28 at a certain position (XY coordinates) as the robot 10 moves in the environment, the distance information is associated with the position, the distance, the direction (angle), and the like. Is information (data) related to the distance including. With such distance information, it is possible to know the existence of an object (object) and its position.

ここで、カメラ画像と距離情報とから可動オブジェクトを検出する方法について説明する。この実施例では、可動オブジェクトの検出には、画像処理のエッジ検出と、セグメンテーションとが用いられる。エッジ検出には、Cannyのエッジ検出法(J.Canny. A computational approach to edge detection. IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol.8, No.6, 11 1986.)が用いられる。また、セグメンテーションには、オブジェクトの境界を検出する距離センサ28からの情報と、つながった領域として抽出されたオブジェクトの領域の情報とが用いられる。この実施例では、つながった領域は、同じ色を有していることが検出される塊(領域)であり、このような領域について距離情報から何らかのオブジェクトが有ることが判断された場合に、オブジェクト(可動オブジェクト)が有ることを認識する。つまり、カメラ画像から同じ色を有する平面的な一定の領域を検出し、距離情報を参照して、その一定の領域の位置において距離が検出されている場合には、その一定の領域は高さを有していることが分かり、したがって、オブジェクトが有ると判断することができる。   Here, a method for detecting a movable object from a camera image and distance information will be described. In this embodiment, edge detection of image processing and segmentation are used for detection of the movable object. For edge detection, Canny's edge detection method (J. Canny. A computational approach to edge detection. IEEE Trans. On Pattern Analysis and Machine Intelligence, Vol. 8, No. 6, 11 1986.) is used. For the segmentation, information from the distance sensor 28 that detects the boundary of the object and information on the area of the object extracted as a connected area are used. In this embodiment, the connected area is a lump (area) that is detected to have the same color, and when it is determined that there is some object from the distance information for such an area, the object Recognize that there is a (movable object). In other words, when a planar constant region having the same color is detected from the camera image and the distance is detected at the position of the constant region with reference to the distance information, the constant region has a height. Therefore, it can be determined that the object is present.

ただし、カメラ画像には、上述した固定オブジェクトも含まれるため、当然のことならが、エッジ検出およびセグメンテーションによって、この固定オブジェクトも検出される。   However, since the above-described fixed object is also included in the camera image, naturally, this fixed object is also detected by edge detection and segmentation.

また、図4に示すカメラ画像から分かるように、床面には、タイルなどの継ぎ目による線(床の模様)が入っている。このような床の模様についてもカメラ画像に基づいて取得(検出)される。これは、人間が領域を参照する場合に、模様によって領域を区別するこ
とが有るからである。この実施例では、床の模様の抽出には、OpenCV(OpenCV1.0. http://opencv.willowgarage.com/wiki/.)が用いられる。また、ノイズ除去のためにガウシアンフィルタを用い、床の模様を抽出するために、上述したCannyのエッジ検出法が用いられる。
Further, as can be seen from the camera image shown in FIG. 4, a line (floor pattern) is formed on the floor surface by a joint such as a tile. Such a floor pattern is also acquired (detected) based on the camera image. This is because when a person refers to an area, the area may be distinguished by a pattern. In this embodiment, OpenCV (OpenCV1.0. Http://opencv.willowgarage.com/wiki/.) Is used to extract the floor pattern. Further, the above-mentioned Canny edge detection method is used to extract a floor pattern using a Gaussian filter for noise removal.

なお、この実施例では、環境として或る屋内を想定してあるため、床面の模様を検出するようにしてあるが、環境が屋外である場合には、地面(またはコンクリートや道路)の模様が検出される。ただし、屋外であっても、アーケード街などでは、床面と同様に、タイルが敷き詰められている場合もある。   In this embodiment, since a certain indoor environment is assumed, the floor pattern is detected. However, when the environment is outdoor, the pattern of the ground (or concrete or road) is used. Is detected. However, even outdoors, in an arcade town or the like, tiles may be laid out in the same manner as the floor surface.

ただし、カメラ画像に基づいて得られた可動オブジェクトおよび床の模様は、3次元の現実空間を眼カメラ58によって斜め上方から見た場合の画像において検出されるため、その画像がオブジェクト地図情報と同様に、現実空間を真上から俯瞰的に見た2次元の画像(情報)に変換される。ただし、可動オブジェクトおよび床の模様が検出されたカメラ画像を2次元の画像に変換するとき、眼カメラ58のキャリブレーションを行う過程で作成した変換行列が用いられる。したがって、撮影時の眼カメラ58の角度やレンズの中心のぶれによって、カメラ画像に歪み(画像の端の付近の歪み)が生じている場合であっても、正しく2次元の情報に変換される。   However, since the movable object and the floor pattern obtained based on the camera image are detected in the image when the three-dimensional real space is viewed obliquely from above with the eye camera 58, the image is the same as the object map information. In addition, the real space is converted into a two-dimensional image (information) as seen from above. However, when the camera image in which the movable object and the floor pattern are detected is converted into a two-dimensional image, a conversion matrix created in the process of calibrating the eye camera 58 is used. Therefore, even when the camera image is distorted (distortion near the edge of the image) due to the angle of the eye camera 58 or the lens center blur at the time of shooting, it is correctly converted into two-dimensional information. .

そして、たとえば、オブジェクト地図情報に、検出された可動オブジェクトおよび床の模様を登録し、それを格子状に細分化することにより、グリッドマップが生成される。   Then, for example, the detected movable object and the floor pattern are registered in the object map information, and the grid map is generated by subdividing the pattern into a lattice shape.

このようにして生成されたグリッドマップを用いて、複数の領域(領域群)が抽出(分割)される。図5(A)には、グリッドマップの一例が示されるが、簡単のため、固定オブジェクト、可動オブジェクトおよび床の模様(以下、これらをまとめて「障害物」ということがある)は省略してある。   A plurality of areas (area groups) are extracted (divided) using the grid map generated in this way. FIG. 5A shows an example of a grid map, but for simplicity, a fixed object, a movable object, and a floor pattern (hereinafter, these may be collectively referred to as “obstacles”) are omitted. is there.

なお、この実施例では、グリッドに含まれる各桝目(枠)は一辺が現実空間における20cmの長さに相当する大きさに設定されている。したがって、グリッドマップの縮尺に応じて各枠の大きさも変化される。   In this embodiment, each grid (frame) included in the grid is set so that one side corresponds to a length of 20 cm in the real space. Therefore, the size of each frame is also changed according to the scale of the grid map.

また、各枠には、図5(B)に示すように、識別情報(インデックス番号)が付されており、インデックス番号に従う順番で、各枠を基準とするバルーン(領域)の生成が実行される。バルーン(領域)の生成方法については、これ以降で詳細に説明する。   In addition, as shown in FIG. 5B, identification information (index number) is attached to each frame, and balloons (regions) based on each frame are generated in the order according to the index number. The The method for generating the balloon (region) will be described in detail later.

この実施例では、グリッドマップが生成されると、このグリッドマップに対応して、図6に示すような参照リストが作成される。この参照リストは、バルーンを生成する際の元になる円(以下、「伸縮円」という)C(g)を描画する際に、参照されるリストである。図6に示すように、参照リストでは、各枠のインデックス番号に対応して、当該枠の中心の座標(点g)と直線Pの傾きdとの組が記述される。図6からも分かるように、1つの枠(点g)に対して、0°から30°ずつ傾きが異なる直線Pが設定される。この実施例では、傾きdは、0°から330°まで、30°単位で設定される。この実施例では、インデックス番号および傾きの角度の両方が小さい順に、点gと傾きdの組が参照される。   In this embodiment, when a grid map is generated, a reference list as shown in FIG. 6 is created corresponding to the grid map. This reference list is a list that is referred to when drawing a circle (hereinafter referred to as an “expandable circle”) C (g) that is a base for generating a balloon. As shown in FIG. 6, in the reference list, a set of the coordinate (point g) of the center of the frame and the slope d of the straight line P is described corresponding to the index number of each frame. As can be seen from FIG. 6, a straight line P having different inclinations from 0 ° to 30 ° is set for one frame (point g). In this embodiment, the inclination d is set in units of 30 ° from 0 ° to 330 °. In this embodiment, a pair of a point g and a slope d is referred to in ascending order of both the index number and the slope angle.

なお、傾きdは、もっと細かく設定してもよいが、計算が膨大になってしまう。また、オブジェクトが整然と並んでいるような環境では、傾きdをもっと大雑把に設定してもよいと考えられる。   The slope d may be set more finely, but the calculation becomes enormous. In an environment where objects are arranged in an orderly manner, it is considered that the inclination d may be set more roughly.

たとえば、図7(A)に示すように、グリッドの或る枠の点gに傾きdが0°の直線P
が設定されている場合には、まず、当該点gを中心とする伸縮円C(g)が描画される。ただし、伸縮円C(g)が描画された当初では、その半径は0であり、その状態から一段階ずつ半径が長くされる。この実施例では、一段階に相当する長さは、1つの枠の一辺の長さの半分である。したがって、最初に描画される伸縮円C(g)は、図8(A)に示すように、当該点gを中心とする枠に内接する円となる。図8(A)に示す場合において、さらに一段階半径が大きくされると、図8(B)のように示される。このようにして、伸縮円C(g)が拡大される。
For example, as shown in FIG. 7 (A), a straight line P having a slope d of 0 ° at a point g of a certain frame of the grid.
Is set, first, an expansion / contraction circle C (g) centered on the point g is drawn. However, at the beginning of drawing the expansion / contraction circle C (g), the radius is 0, and the radius is increased step by step from that state. In this embodiment, the length corresponding to one stage is half the length of one side of one frame. Accordingly, the stretchable circle C (g) drawn first is a circle that is inscribed in the frame centered on the point g, as shown in FIG. In the case shown in FIG. 8A, when the one-step radius is further increased, the result is shown in FIG. 8B. In this way, the expansion / contraction circle C (g) is enlarged.

この実施例では、伸縮円C(g)の半径は、グリッドマップにおける障害物(固定オブジェクト、可動オブジェクトおよび床の模様)に接触(衝突)するまで、一段階ずつ長くされる。そして、伸縮円C(g)が障害物に衝突すると、この伸縮円C(g)の半径は、衝突する直前の(一段階手前)の長さに戻される。同様にして、傾きdの直線Pに沿って、当該直線Pが通るすべての枠(点g)のそれぞれについて、その点gを中心とする伸縮円C(g)が描画されるのである。図7(A)に示した例では、斜線を付した枠に対して伸縮円C(g)が描画されるのである。   In this embodiment, the radius of the expansion / contraction circle C (g) is increased by one step until it touches (impacts) an obstacle (a fixed object, a movable object, and a floor pattern) in the grid map. When the expansion / contraction circle C (g) collides with the obstacle, the radius of the expansion / contraction circle C (g) is returned to the length immediately before the collision (one step before). Similarly, for each of all the frames (points g) through which the straight line P passes along the straight line P with the inclination d, an expansion / contraction circle C (g) centered on the point g is drawn. In the example shown in FIG. 7A, the expansion / contraction circle C (g) is drawn on the hatched frame.

また、この実施例では、1つの伸縮円C(g)を描画すると、次に、その枠(点g)に隣接し、直線Pが通る枠(点g)について伸縮円C(g)が描画され、拡大される。たとえば、参照リストが示す組の枠(点g)を基準として、基本的に右方向(X軸のプラス方向)に隣接し、直線Pが通る枠(点g)に順次伸縮円C(g)を描画する。そして、右方方向への伸縮円C(g)の描画を終えると、参照リストが示す組の枠(点g)を基準として、基本的に左の方向(Y軸のマイナス方向)に隣接し、直線Pが通る枠(点g)に順次伸縮円C(g)を描画する。   In this embodiment, when one stretch circle C (g) is drawn, the stretch circle C (g) is drawn next to the frame (point g) adjacent to the frame (point g) and passing through the straight line P. And enlarged. For example, with reference to a pair of frames (point g) indicated by the reference list, a stretchable circle C (g) is sequentially arranged in a frame (point g) that is basically adjacent to the right direction (plus direction of the X axis) and passes through the straight line P. Draw. When the drawing of the expansion / contraction circle C (g) in the right direction is completed, the drawing is basically adjacent to the left direction (minus direction of the Y axis) with reference to the set of frames (point g) indicated by the reference list. Then, the expansion / contraction circle C (g) is sequentially drawn on the frame (point g) through which the straight line P passes.

したがって、図7(A)に示す場合には、点gが記載された枠について伸縮円C(g)を描画すると、次にその右隣の枠について伸縮円C(g)を描画し、これを繰り返す。右方向への伸縮円C(g)の描画を終えると、点gが記載された枠の左隣の枠について伸縮円C(g)を描画し、次にその左隣の枠について伸縮円C(g)を描画する。   Therefore, in the case shown in FIG. 7A, when the expansion / contraction circle C (g) is drawn for the frame in which the point g is described, the expansion / contraction circle C (g) is drawn for the next frame to the right. repeat. When the drawing of the expansion / contraction circle C (g) in the right direction is finished, the expansion / contraction circle C (g) is drawn for the left adjacent frame of the frame in which the point g is described, and then the expansion / contraction circle C for the left adjacent frame is drawn. Draw (g).

図7(B)は、図7(A)に示した点gに対して傾きd=30°の直線Pを設定した場合の例である。この場合にも、直線Pが通る全ての枠について伸縮円C(g)が描画される。つまり、斜線を付したすべての枠に対して伸縮円Cが描画されるのである。ただし、図7(B)に示す場合には、まず、点gが記載された枠について伸縮円C(g)が描画されると、次にその右隣の枠に伸縮円C(g)が描画され、さらにその上側に隣接する枠に伸縮円C(g)が描画される。上述したように、基本的に右方向に隣接すると言うのは、図8(B)に示すように、上方向に隣接したり、後述するように、下方向に隣接したりする場合があるためである。右方向への伸縮円C(g)の描画を終えると、点gが記載された枠の左隣の枠に伸縮円C(g)が描画され、さらにその下側に隣接する枠に伸縮枠C(g)が描画される。   FIG. 7B shows an example in which a straight line P having an inclination d = 30 ° is set with respect to the point g shown in FIG. Also in this case, the expansion / contraction circle C (g) is drawn for all the frames through which the straight line P passes. That is, the expansion / contraction circle C is drawn for all the hatched frames. However, in the case shown in FIG. 7B, first, when the expansion / contraction circle C (g) is drawn for the frame in which the point g is described, the expansion / contraction circle C (g) is next displayed in the right adjacent frame. Drawing is performed, and an expansion / contraction circle C (g) is drawn on a frame adjacent to the upper side. As described above, it is basically adjacent in the right direction because it may be adjacent in the upward direction as shown in FIG. 8B or may be adjacent in the downward direction as described later. It is. When the drawing of the expansion / contraction circle C (g) in the right direction is finished, the expansion / contraction circle C (g) is drawn in the frame adjacent to the left of the frame in which the point g is written, and the expansion / contraction frame is displayed in the frame adjacent to the lower side thereof. C (g) is drawn.

この実施例では、直線Pが通るすべての枠について伸縮円C(g)を描画したり、隣接する枠の点gが障害物上であったり、隣接する枠に描画された2つの伸縮円C(g)の半径が大きく異なったりする場合には、参照リストが示す現在の組における伸縮円C(g)の描画を終了する。このように、直線Pが通るすべての枠について伸縮円C(g)を描画した場合や隣接する枠の点gが障害物上である場合のみならず、隣接する枠に描画された2つの伸縮円C(g)の半径が大きく異なった場合についても、伸縮円C(g)の描画を終了するのは、このような場合には、障害物等によって領域が分割されていると考えられ、1つの領域として抽出するのは適切でないからである。   In this embodiment, the expansion / contraction circle C (g) is drawn for all the frames through which the straight line P passes, the point g of the adjacent frame is on the obstacle, or two expansion / contraction circles C drawn on the adjacent frame. When the radius of (g) is greatly different, the drawing of the expansion / contraction circle C (g) in the current set indicated by the reference list is ended. In this way, not only when the expansion / contraction circle C (g) is drawn for all the frames through which the straight line P passes, or when the point g of the adjacent frame is on the obstacle, two expansion / contractions drawn in the adjacent frame Even when the radius of the circle C (g) is greatly different, it is considered that the drawing of the expansion / contraction circle C (g) is terminated in such a case because the region is divided by an obstacle or the like. This is because it is not appropriate to extract as one region.

参照リストが示す現在の組についての伸縮円C(g)の描画を終了すると、今回の組に
ついて描画されたすべての伸縮円C(g)が結合される。この実施例では、今回の組について描画されたすべての伸縮円C(g)に含まれるすべての枠が塗り潰され、塗り潰されたすべての枠の塊によって、1つの領域(バルーン)P(C(g),d)が生成される。
When the drawing of the expansion / contraction circle C (g) for the current set indicated by the reference list is finished, all the expansion / contraction circles C (g) drawn for the current set are combined. In this embodiment, all the frames included in all the stretchable circles C (g) drawn for the current set are filled, and one region (balloon) P (C ( g) and d) are generated.

このように、着目する(インデックス番号が示す)枠の点gと直線Pの傾きdとの組において、伸縮円C(g)の描画を終了し、バルーンP(C(g),d)が生成されると、次の組についての伸縮円C(g)の描画が開始される。つまり、直線Pの傾きdが30°回転される。ただし、直前の組の直線Pの傾きdが330°であった場合には、次のインデックス番号が示す枠の点gについての最初の組(d=0°の直線P)についてバルーンP(C(g),d)の生成処理が実行される。   In this way, the drawing of the expansion / contraction circle C (g) is completed in the set of the frame point g (indicated by the index number) and the slope d of the straight line P, and the balloon P (C (g), d) When generated, drawing of the expansion / contraction circle C (g) for the next set is started. That is, the slope d of the straight line P is rotated by 30 °. However, if the slope d of the straight line P of the immediately preceding set is 330 °, the balloon P (C for the first set (the straight line P with d = 0 °) for the frame point g indicated by the next index number. The generation processes (g) and d) are executed.

ただし、図6では省略したが、1つの組についてのバルーンP(C(g),d)の生成処理を終了すると、当該組に対応する参照リストの欄にチェックが付される。つまり、当該組について、バルーンP(C(g),d)の生成処理を終了したことが登録される。   However, although omitted in FIG. 6, when the generation process of the balloon P (C (g), d) for one set is finished, a check is added to the reference list column corresponding to the set. That is, it is registered that the generation process of the balloon P (C (g), d) is finished for the group.

図9および図10には、環境に4つの障害物が存在する場合において、或る枠(図示せず)に着目して、伸縮円C(g)を描画および拡大した結果の例を示す図解図である。図9(A)および図9(B)では、直線Pの傾きdが0°の場合について示し、図10(A)および図10(B)では、直線Pの傾きdが30°の場合について示す。ただし、図9および図10では、分かり易く示すために、代表的な伸縮円C(g)のみを示してあるが、実際には、さらに多数の伸縮円C(g)が描画される。   FIG. 9 and FIG. 10 are diagrams illustrating examples of the result of drawing and enlarging the expansion / contraction circle C (g) focusing on a certain frame (not shown) when there are four obstacles in the environment. FIG. 9A and 9B show the case where the slope d of the straight line P is 0 °, and FIGS. 10A and 10B show the case where the slope d of the straight line P is 30 °. Show. However, in FIG. 9 and FIG. 10, for the sake of easy understanding, only a representative expansion / contraction circle C (g) is shown, but actually, a larger number of expansion / contraction circles C (g) are drawn.

図9(A)では、直線Pの傾きdは0°であり、直線Pの上下に配置される2つの障害物が斜めとなっているため、直線Pの両端に向かうに従って伸縮円C(g)が小さくなっている。したがって、図9(B)に示すように、4つの障害物で囲まれる空間(領域)の形状とは異なり、ひし形に近い形状のバルーンP(C(g),d)が生成される。   In FIG. 9A, the slope d of the straight line P is 0 °, and the two obstacles arranged above and below the straight line P are slanted. ) Is smaller. Accordingly, as shown in FIG. 9B, unlike the shape of the space (region) surrounded by the four obstacles, a balloon P (C (g), d) having a shape close to a rhombus is generated.

一方、図10(A)では、直線Pの傾きdは30°であり、これと平行するように、直線Pの上下に2つの障害物が配置されるため、それらの2つの障害物が配置される間隔と同じ或いはほぼ同じ直径を有する伸縮円C(g)が直線Pに沿って描画される。したがって、図10(B)に示すように、4つの障害物で囲まれる領域と一致ないしほぼ一致するように、バルーンP(C(g),d)が生成される。   On the other hand, in FIG. 10 (A), the inclination d of the straight line P is 30 °, and two obstacles are arranged above and below the straight line P so as to be parallel to this, so that these two obstacles are arranged. An expansion / contraction circle C (g) having the same or substantially the same diameter as the interval to be drawn is drawn along the straight line P. Therefore, as shown in FIG. 10B, the balloon P (C (g), d) is generated so as to coincide with or substantially coincide with the area surrounded by the four obstacles.

このようなバルーンP(C(g),d)は、参照リストの組毎に抽出されるが、抽出されたすべてのバルーンP(C(g),d)から、所定のルールに従って、1のバルーンP(C(g),d)が選択され、分割される領域の候補としての集合(候補の集合)Regions−partに登録(追加)される。ここで、1のバルーンP(C(g),d)を選択する方法について説明する。   Such balloons P (C (g), d) are extracted for each set of reference lists. From all the extracted balloons P (C (g), d), 1 Balloon P (C (g), d) is selected and registered (added) in a set (candidate set) Regions-part as a candidate for a region to be divided. Here, a method for selecting one balloon P (C (g), d) will be described.

一般的に、話し手の近い位置に在る領域は、遠くに在る領域よりも正確に認識されると言える。この知見を表現するために、エネルギの概念を用いることにする。簡単に言うと、近くに在る小さい領域は、遠くにある大きい領域と同程度のエネルギを持つようにする。ロボット10の現在位置と枠(点g)との距離をd(g)とすると、当該枠のエネルギE(g)は数1のように表すことができる。   In general, it can be said that a region near a speaker is recognized more accurately than a region far away. In order to express this knowledge, the concept of energy will be used. Simply put, a small area in the vicinity has the same energy as a large area in the distance. Assuming that the distance between the current position of the robot 10 and the frame (point g) is d (g), the energy E (g) of the frame can be expressed as Equation 1.

[数1]
E(g)=1/d(g)
抽出されたバルーンP(C(g),d)毎に、バルーンP(C(g),d)に含まれるすべての枠についてのエネルギE(g)を算出し、その総和も求める。そして、エネルギE(g)の総和が最大となる1のバルーンP(C(g),d)が選択され、候補の集合R
egions−partに登録(追加)される。
[Equation 1]
E (g) = 1 / d (g) 2
For each extracted balloon P (C (g), d), energy E (g) is calculated for all the frames included in the balloon P (C (g), d), and the sum is also obtained. Then, one balloon P (C (g), d) having the maximum sum of energy E (g) is selected, and a candidate set R
It is registered (added) to the “egions-part”.

1のバルーンP(C(g),d)が候補の集合Region−partに登録されると、当該バルーンP(C(g),d)に含まれる枠を除いた残りの枠について、図6に示したような参照リストが作成され、新しく作成された参照リストに従って伸縮円C(g)の描画処理(バルーンP(C(g),d)の生成処理)が実行される。そして、バルーンP(C(g),d)毎に、エネルギE(g)の総和が求められ、その総和が最大となるバルーンP(C(g),d)が候補の集合Regions−partに登録(追加)される。このような処理が繰り返し実行される。そして、領域の候補としてのバルーンP(C(g),d)を生成することができなくなると、候補の集合Regions−partの生成処理を終了する。この実施例では、グリッドマップに存在する枠の総数の90%に相当する数を超える枠が、バルーンP(C(g),d)を抽出(生成)する対象から除外された場合に、候補の集合Regions−partの生成を終了する。これは、領域として抽出できる枠がほとんど残っていないと考えられるからである。その結果として、無駄な処理の実行を回避することができる。   When one balloon P (C (g), d) is registered in the candidate set Region-part, the remaining frames excluding the frame included in the balloon P (C (g), d) are shown in FIG. The reference list as shown in FIG. 6 is created, and the drawing process of the stretchable circle C (g) (the process of creating the balloon P (C (g), d)) is executed according to the newly created reference list. Then, for each balloon P (C (g), d), the sum of the energy E (g) is obtained, and the balloon P (C (g), d) having the maximum sum becomes the candidate set Regions-part. Registered (added). Such processing is repeatedly executed. When the balloon P (C (g), d) as a region candidate cannot be generated, the generation process of the candidate set Regions-part ends. In this embodiment, if a frame exceeding the number corresponding to 90% of the total number of frames existing in the grid map is excluded from the target for extracting (generating) the balloon P (C (g), d), the candidate The generation of the set Regions-part is completed. This is because it is considered that almost no frame that can be extracted as a region remains. As a result, execution of useless processing can be avoided.

このような候補の集合Regions−partの生成処理は、カメラ画像からエッジ検出する際のパラメータESを0以上1以下の間で可変的に設定する毎に実行される。ただし、この実施例では、パラメータESは、0から0.3、0.6、0.9、1.0に順次設定される。パラメータESが0に設定された場合には、床の模様が無い場合のグリッドマップが生成される。また、パラメータESが大きくなるにつれて、床の模様がはっきりと現れる。   Such a generation process of the candidate set Regions-part is executed every time the parameter ES for edge detection from the camera image is variably set between 0 and 1. However, in this embodiment, the parameter ES is sequentially set from 0 to 0.3, 0.6, 0.9, and 1.0. When the parameter ES is set to 0, a grid map when there is no floor pattern is generated. Also, as the parameter ES increases, the floor pattern appears clearly.

また、パラメータESが0である場合に生成された候補の集合Regions−partを親階層とし、パラメータESが増加された場合に、生成された候補の集合Regions−partに含まれる領域(バルーンP(C(g),d))のうち、親階層の候補の集合Regions−partに含まれる領域(バルーンP(C(g),d))を子階層の領域として登録する。ただし、親階層の領域に含まれる子階層の領域が当該親階層の領域の80%以上の範囲を占める場合には、実質的に同じ領域であると判断して、子階層の領域から除去する。このようにして、木構造Treeに配列された領域が、分割された領域の集合Regionsとして抽出される。図11には、図4に示したカメラ画像を撮影した環境において、分割された領域R1−R7の例を示す。図11に示すように、領域R1は、R2−R4を含む。これは、領域R1が親階層であり、領域R2−R4がその子階層であることを示す。このように、親階層の領域R1の中に子階層R2−R4が現れるのは、パラメータESを大きくすることにより、床の模様が現れ、それによって伸縮円C(g)を描画する範囲が狭くなるためである。ただし、図11に示すように、環境におけるロボット10の位置は領域R1およびR2の少し下側である。   In addition, a candidate set Regions-part generated when the parameter ES is 0 is set as a parent hierarchy, and when the parameter ES is increased, an area included in the generated candidate set Regions-part (balloon P ( Of C (g), d)), a region (balloon P (C (g), d)) included in the parent layer candidate set Regions-part is registered as a child layer region. However, if the child hierarchy area included in the parent hierarchy area occupies 80% or more of the parent hierarchy area, it is determined that the area is substantially the same and is removed from the child hierarchy area. . In this way, the areas arranged in the tree structure Tree are extracted as a set Regions of divided areas. FIG. 11 shows an example of divided regions R1-R7 in the environment where the camera image shown in FIG. 4 is taken. As shown in FIG. 11, the region R1 includes R2-R4. This indicates that the region R1 is a parent hierarchy and the region R2-R4 is a child hierarchy thereof. Thus, the child hierarchy R2-R4 appears in the area R1 of the parent hierarchy because the pattern of the floor appears by increasing the parameter ES, thereby narrowing the range for drawing the expansion / contraction circle C (g). Because it becomes. However, as shown in FIG. 11, the position of the robot 10 in the environment is slightly below the regions R1 and R2.

分割された領域の集合Regionsから、人間からの質問(リクエスト)に応じた1つの領域Rが選択される。たとえば、人間から荷物を置く場所を質問された場合には、分割された領域の集合Regionsに含まれる複数の領域から当該荷物の底面積以上の面積を有する領域を、候補の領域R_Candとして抽出し、抽出した候補のうちから所定の条件を満たす1の領域Rを選択する。この実施例では、所定の条件は、ロボット10(特定の位置)との距離が最短距離であることである。ただし、所定の条件は、質問した人間との距離が最短距離であることでもよい。   One region R corresponding to a question (request) from a human is selected from the set Regions of the divided regions. For example, when a person asks where to place a package, a region having an area equal to or larger than the bottom area of the package is extracted as a candidate region R_Cand from a plurality of regions included in the set Regions of divided regions. Then, one region R satisfying a predetermined condition is selected from the extracted candidates. In this embodiment, the predetermined condition is that the distance from the robot 10 (specific position) is the shortest distance. However, the predetermined condition may be that the distance to the questioned person is the shortest distance.

領域Rを選択すると、リクエストした人間に対してその領域Rを伝達する場合のロボット10のジェスチャ(身体動作)、発話内容および位置(ジェスチャや発話を実行する場合のロボット10の位置)が決定される。つまり、領域Rを参照したコミュニケーション行動を行うロボット10の制御情報が決定される。   When the region R is selected, the gesture (physical motion) of the robot 10 when transmitting the region R to the requesting person, the content and position of the utterance (the position of the robot 10 when performing the gesture or utterance) are determined. The That is, the control information of the robot 10 that performs the communication action with reference to the region R is determined.

たとえば、領域Rを参照したコミュニケーション行動をロボット10に実行させるために、人間が領域Rを参照する際に、どのようなジェスチャを用い、どのような指示語を用い、どのように領域Rを認識するのかを実験によって導き出した。   For example, in order to cause the robot 10 to execute a communication action referring to the region R, when a human refers to the region R, what gesture is used, what instruction is used, and how the region R is recognized. It was derived by experiment.

実験には、10名の被験者(20代、30代の男性4人と女性6人)が参加した。また、実験では、被験者に、或る建物内の5箇所において、実験者から1m離れて立つように指示した。その際、被験者と実験者とは同じ方向を向いた。各場所においては、必要とする領域のサイズが異なると考えられる6つのタスク(ロボット10に対するリクエストに相当する)を用意した。タスクT1は、「かばんを置く」である。タスクT2は、「人を立って待つ」である。タスクT3は、「立ち話をする」である。タスクT4は、「20個ほどの引っ越しの荷物を置く」である。タスクT5は、「次々に来る幼稚園児を誘導し待機させておく」である。タスクT6は、「ラジコン自動車を走らせる」である。まず、各タスクを実行できると考えられる領域を思い浮かべ、その後に、実験者に領域を伝えるよう、各被験者に指示された。   Ten subjects (four men in their twenties and thirties and six women) participated in the experiment. In the experiment, the subject was instructed to stand 1 meter away from the experimenter at five locations in a building. At that time, the test subject and the experimenter faced the same direction. In each place, six tasks (corresponding to requests for the robot 10) that are considered to have different sizes of necessary areas were prepared. The task T1 is “put a bag”. Task T2 is “stand for people and wait”. Task T3 is “talking”. Task T4 is “put about 20 moving packages”. Task T5 is “Guiding kindergarten children that come one after another and waiting”. Task T6 is “run a radio controlled car”. First, each subject was instructed to think of an area where each task could be performed, and then to convey the area to the experimenter.

ただし、この実施例では、領域を参照する際の指示語モデルを構築するために、発話内容を「ここ」、「そこ」、「あそこ」、「この辺」、「その辺」、「あの辺」の6つから選択するように制限した。また、各被験者には、ジェスチャも使用するよう指示された。   However, in this embodiment, in order to construct an instruction word model for referring to a region, the utterance contents are “here”, “there”, “over there”, “this side”, “that side”, “that side”. It was restricted to select from six. Each subject was also instructed to use gestures.

このような実験の結果では、領域を参照する場合、腕と人差し指を領域に向けて伸ばし、一時的にその状態を保つ身体動作(説明の都合上、「第1動作」という)と、腕と人差し指を領域に向けて伸ばした後に、領域を指示するように、人差し指で円を描く身体動作(説明の都合上、「第2動作」という)とが大多数を占めた。また、第1動作の回数と第2動作の回数との割合を調べたところ、第2動作によって領域を参照するケースが8割を超えていた。したがって、この実施例では、領域を参照する際には、ロボット10に第2動作を実行させることにする。ただし、ロボット10は、指に相当する部位を有していないため、球状に形成された手の全体によって領域を指示するものとする。   As a result of such an experiment, when referring to the region, the arm and the index finger are extended toward the region, and the body operation that temporarily maintains the state (referred to as “first operation” for convenience of explanation), the arm, The body motion (referred to as “second motion” for convenience of explanation) that draws a circle with the index finger to indicate the region after extending the index finger toward the region occupied the majority. Further, when the ratio between the number of times of the first operation and the number of times of the second operation was examined, the number of cases where the area was referred to by the second operation exceeded 80%. Therefore, in this embodiment, when referring to the region, the robot 10 is caused to execute the second operation. However, since the robot 10 does not have a portion corresponding to a finger, the region is indicated by the whole hand formed in a spherical shape.

また、領域を第2動作によって参照する場合には、領域の大きさによって、人差し指で描く円の大きさが異なることも、上記の実験の結果に基づいて導き出された。具体的には、実験において、被験者が第2動作で参照し、写真上に描いた領域のピクセル数を数えた。その結果、ピクセル数が0よりも多く50以下である場合には、つまり被験者からの見た目の領域の大きさが小さい場合には、小さな円を描く。また、ピクセル数が50よりも多く400以下である場合には、つまり被験者からの見た目の領域の大きさが中程度である場合には、中程度の大きさの円を描く。さらに、ピクセル数が400よりも多い場合には、つまり被験者からの見た目の領域の大きさが大きい場合には、大きい円を描く。   In addition, when referring to the area by the second motion, it was also derived based on the result of the above experiment that the size of the circle drawn with the index finger differs depending on the size of the area. Specifically, in the experiment, the subject referred to in the second motion, and the number of pixels in the region drawn on the photograph was counted. As a result, when the number of pixels is greater than 0 and less than or equal to 50, that is, when the size of the area viewed from the subject is small, a small circle is drawn. When the number of pixels is more than 50 and less than or equal to 400, that is, when the size of the area viewed from the subject is medium, a medium-sized circle is drawn. Furthermore, when the number of pixels is larger than 400, that is, when the size of the area seen from the subject is large, a large circle is drawn.

指示語については、領域の面積が1.7mよりも大きい場合には、被験者は「辺」の付いた指示語(「この辺」、「その辺」、「あの辺」)を使用する頻度が高い。また、領域の面積が1.7m以下である場合には、被験者は「辺」の付いていない指示語(「ここ」、「そこ」、「あそこ」)を使用する頻度が高い。したがって、ロボット10に指示語を発話させる場合には、参照する領域の大きさに応じて「辺」を付けるか否かを判別することができる。 As for the directive, when the area of the region is larger than 1.7 m 2 , the test subject frequently uses the directive with “side” (“this side”, “that side”, “that side”). high. In addition, when the area of the region is 1.7 m 2 or less, the test subject frequently uses an instruction word without “side” (“here”, “there”, “over there”). Therefore, when the robot 10 is made to speak an instruction word, it can be determined whether or not to add “side” according to the size of the area to be referred to.

また、「こ」、「そ」、「あ」の使い分け(指示語切替)については、上述の実験の結果と、本件の出願人が先に出願し既に公開された特開2006−231497号(参考文献)に開示された指示語決定モデルおよび指示語決定方法とに従って決定される。この実施例の指示語切替モデルは、図12に示される。ただし、この実施例では、領域を参照するため、参照する領域のうち、ロボット10(話し手)に最も近い点(以下、「領域の最
近点」という)を、上記の参考文献におけるオブジェクトに置き換えて考えてある。
In addition, regarding the proper use (indicator switching) of “ko”, “so”, and “a”, the results of the above-mentioned experiment and Japanese Patent Application Laid-Open No. 2006-231497 (Japanese Patent Application Laid-Open No. 2006-231497, previously filed by the applicant of this application) It is determined according to the indicator determination model and the indicator determination method disclosed in (Reference). The instruction word switching model of this embodiment is shown in FIG. However, in this embodiment, in order to refer to the area, a point closest to the robot 10 (speaker) in the area to be referred to (hereinafter referred to as “the closest point of the area”) is replaced with the object in the above reference. I think.

具体的には、領域の最近点が聞き手(リクエストした人間)よりも話し手(ロボット10)に近い場合には、次のように、「こ(ここ、この辺)」、「そ(そこ、その辺)」、「あ(あそこ、あの辺)」が決定される。パラメータdSOがパラメータfKS(dSL,θSO,θLO)以下である場合には、「ここ」または「この辺」に決定される。パラメータdSOがパラメータfSA(dSL,θSO,θLO)以下である場合には、「そこ」または「その辺」に決定される。パラメータdSOがパラメータfSA(dSL,θSO,θLO)以上である場合には、「あそこ」または「あの辺」に決定される。 Specifically, when the closest point of the region is closer to the speaker (robot 10) than to the listener (requesting person), “ko (here, this side)”, “so (there, that side) ) ”And“ Ah (that, that side) ”are determined. When the parameter dSO is equal to or smaller than the parameter fKS ( dSL, θSO, θLO ), it is determined as “here” or “this side”. When the parameter dSO is equal to or less than the parameter f SA (d SL, θ SO, θ LO ), it is determined as “there” or “the side”. When the parameter dSO is greater than or equal to the parameter f SA (d SL, θ SO, θ LO ), it is determined as “over there” or “that side”.

また、領域の最近点が話し手よりも聞き手に近い場合には、次のように、「そ」、「あ」が決定される。パラメータdLOがパラメータfSA(dSL,θSO,θLO)以下である場合には、「そこ」または「その辺」に決定される。また、パラメータdLOがパラメータfSA(dSL,θSO,θLO)以上である場合には、「あそこ」または「あの辺」に決定される。 If the nearest point of the region is closer to the listener than the speaker, “So” and “A” are determined as follows. When the parameter d LO is equal to or less than the parameter f SA (d SL, θ SO, θ LO ), it is determined as “there” or “the side”. When the parameter d LO is equal to or larger than the parameter f SA (d SL, θ SO, θ LO ), it is determined as “over there” or “that side”.

ただし、パラメータdSOは、話し手から領域の最近点までの距離である。パラメータdLOは、聞き手から領域の最近点までの距離である。パラメータfKSは、「こ」と「そ」の境界曲線である。また、パラメータfSAは、「そ」と「あ」の境界曲線である。パラメータdSLは、話し手と聞き手との距離である。パラメータθSOは、話し手と聞き手とを結ぶ線分と、話し手と最近点とを結ぶ線分とがなす角度である。そして、パラメータθLOは、話し手と聞き手とを結ぶ線分と、聞き手と最近点とを結ぶ線分とがなす角度である。 The parameter dSO is the distance from the speaker to the nearest point of the area. The parameter d LO is the distance from the listener to the closest point of the region. The parameter f KS is a boundary curve between “ko” and “so”. The parameter f SA is a boundary curve between “So” and “A”. The parameter d SL is the distance between the speaker and the listener. The parameter θ SO is an angle formed by a line segment connecting the speaker and the listener and a line segment connecting the speaker and the nearest point. The parameter θ LO is an angle formed by a line segment connecting the speaker and the listener and a line segment connecting the listener and the nearest point.

したがって、指示語は、参照する領域の大きさによって、「辺」付きかどうかを決定し、図12に示すような指示語切替モデルに従って、「こ」、「そ」、「あ」のいずれかを決定することにより、決定される。   Therefore, it is determined whether or not the instruction word has “side” according to the size of the area to be referred to, and any one of “ko”, “so”, and “a” is determined according to the instruction word switching model as shown in FIG. Is determined.

なお、図12では、「こ」、「そ」、「あ」領域の上半分のみを記載してあるが、それらの領域の下半分は上半分と上下対称に表される。   In FIG. 12, only the upper half of the “ko”, “so”, and “a” regions is shown, but the lower half of these regions is represented symmetrically with the upper half.

次に、領域Rを参照する場合のロボット10の位置について説明する。上述したように、ロボット10は、領域Rを参照する際、第2動作を実行するため、図13に示すように、その第2動作によって描かれる円が参照する領域R(図13では、R11)に隣接する他の領域(図13では、R12)までも指示してしまうことがある。このような場合には、相対言語の割り当てられた領域(説明の都合上、「相対言語割り当て領域」という)RErに、参照する領域Rが含まれているかどうかを判断する。ここで、相対言語割り当て領域RErに領域Rが含まれている場合には、指示語に代えて、相対言語を用いた発話によって、領域Rを参照する。ただし、その相対言語割り当て領域RErに、上記した隣接する他の領域(図13では、R12)が含まれている場合には、領域Rを正しく指示することができない。また、相対割り当て領域RErに領域Rが含まれていない場合には、相対言語を用いた発話によって、領域Rを指示することもできない。 Next, the position of the robot 10 when referring to the region R will be described. As described above, when the robot 10 refers to the region R, the robot 10 performs the second operation. Therefore, as illustrated in FIG. 13, the robot R refers to the region R (R11 in FIG. 13) referenced by the circle drawn by the second operation. ) May be instructed to other areas (R12 in FIG. 13). In such a case, it is determined whether or not the region R to be referred to is included in the region R Er assigned to the relative language (referred to as “relative language assigned region” for convenience of description). Here, when the area R is included in the relative language assignment area R Er , the area R is referred to by utterance using the relative language instead of the instruction word. However, if the relative language assignment area R Er includes the other adjacent area (R12 in FIG. 13), the area R cannot be correctly indicated. In addition, when the area R is not included in the relative allocation area R Er , the area R cannot be indicated by utterance using a relative language.

かかる場合には、第2動作によって描かれる円が参照する領域Rのみを指示するように、ロボット10の位置を領域Rに近づけるようにしてある。たとえば、ロボット10を、所定距離D(この実施例では、20cm)ずつ、参照する領域Rに近づけて、その都度、第2動作によって描かれる円が参照する領域Rのみを指示するか否かが判断される。ただし、図13に示すように、ロボット10の腕の長手方向の軸を中心とし、角度θだけ傾斜させるようにして描いた円を2次元平面に投影した円ないし楕円(指示領域A)が領域Rのみを指示するか、または他の領域も指示するかを判断するのである。ただし、角度
θは、上述したように、領域Rの大きさに従って変化される。
In such a case, the position of the robot 10 is brought close to the region R so that only the region R referred to by the circle drawn by the second operation is indicated. For example, the robot 10 is brought closer to the reference region R by a predetermined distance D (in this embodiment, 20 cm), and each time whether or not only the region R to which the circle drawn by the second action refers is indicated. To be judged. However, as shown in FIG. 13, a circle or an ellipse (instruction area A P ) obtained by projecting a circle drawn on the longitudinal axis of the arm of the robot 10 and tilted by an angle θ P onto a two-dimensional plane. It is determined whether or not to designate only the region R or other regions. However, the angle theta P, as described above, are varied according to the size of the region R.

図14には、図2に示したメモリ64(RAM)のメモリマップ200の一例が示される。図14に示すように、メモリ64は、プログラム記憶領域202およびデータ記憶領域204を含む。プログラム記憶領域202には、メイン処理プログラム202a、領域分割プログラム202b、領域選択プログラム202c、制御プログラム202dなどが記憶される。   FIG. 14 shows an example of the memory map 200 of the memory 64 (RAM) shown in FIG. As shown in FIG. 14, the memory 64 includes a program storage area 202 and a data storage area 204. The program storage area 202 stores a main processing program 202a, an area division program 202b, an area selection program 202c, a control program 202d, and the like.

メイン処理プログラム202aは、ロボット12の全体制御のメインルーチンを処理するためのプログラムである。領域分割プログラム202bは、グリッドマップから木構造の領域群を抽出(分割)するためのプログラムである。領域選択プログラム202cは、人間からのリクエストに応じた1つの領域を木構造の領域群から選択するためのプログラムである。制御プログラム202dは、コミュニケーション行動の行動モジュールに従って、身体動作および発話の少なくとも一方を実行するためのプログラムである。   The main processing program 202a is a program for processing a main routine for overall control of the robot 12. The area dividing program 202b is a program for extracting (dividing) a tree-structured area group from the grid map. The area selection program 202c is a program for selecting one area from a tree-structured area group in response to a request from a human. The control program 202d is a program for executing at least one of body movement and speech according to a behavior module of communication behavior.

なお、図示は省略するが、プログラム記憶領域には、上述したように、検知プログラムや通信プログラムが記憶されるとともに、撮影プログラムや音声認識プログラムなども記憶される。撮影プログラムは、全方位カメラ34や眼カメラ56を用いて撮影処理を実行し、撮影した画像(カメラ画像)をメモリ64に記憶するためのプログラムである。音声認識プログラムは、人間が発話した音声をマイク54を通して検出し、辞書データ(図示せず)を用いてDPマッチングやHMM法により、検出した音声を認識するためのプログラムである。   Although not shown, in the program storage area, as described above, the detection program and the communication program are stored, and the shooting program and the voice recognition program are also stored. The photographing program is a program for executing photographing processing using the omnidirectional camera 34 and the eye camera 56 and storing the photographed image (camera image) in the memory 64. The speech recognition program is a program for detecting speech uttered by a human through the microphone 54 and recognizing the detected speech by using DP matching or HMM method using dictionary data (not shown).

データ記憶領域204には、リクエストバッファ204aが設けられる。リクエストバッファ204aは、人間からの質問(リクエスト)の内容を時系列に従って記憶するための記憶領域である。したがって、人間からのリクエストを処理した後では、当該リクエストはリクエストバッファ204aから削除される。   The data storage area 204 is provided with a request buffer 204a. The request buffer 204a is a storage area for storing the contents of questions (requests) from humans in chronological order. Therefore, after processing a human request, the request is deleted from the request buffer 204a.

また、データ記憶領域204には、マップデータ204b、カメラ画像データ204c、距離データ204d、領域群データ204e、指示語切替データ204f、相対言語テーブルデータ204gが記憶される。   The data storage area 204 stores map data 204b, camera image data 204c, distance data 204d, area group data 204e, instruction word switching data 204f, and relative language table data 204g.

マップデータは、図3に示した固定オブジェクトが記述されたオブジェクト地図情報についてのデータである。カメラ画像データ204cは、ロボット10の眼カメラ58で環境内を撮影したときのカメラ画像についてのデータである。距離データ204dは、位置(XY座標)に対応して記憶された方向(角度)および距離についてのデータである。   The map data is data about object map information in which the fixed object shown in FIG. 3 is described. The camera image data 204c is data on a camera image when the inside of the environment is imaged by the eye camera 58 of the robot 10. The distance data 204d is data on the direction (angle) and distance stored in correspondence with the position (XY coordinates).

領域群データ204eは、領域分割プログラム202bに従って取得された木構造の領域群についてのデータである。指示語切替データ204fは、図12に示した指示語切替モデルに対応する指示語を切り替えるためのパラメータ(dSO,dLO,fKS,fSA)についてのデータである。相対言語テーブルデータ204gは、固定オブジェクトに対して予め設定されている領域およびその領域に対応する発話内容についてのデータである。これは、指示語では、領域を参照するのが困難な場合に、領域を簡単に区別するために用いられる発話内容および対応する領域である。図15に、相対言語テーブルの具体例が示される。図15に示す例では、相対言語テーブルは、IDに対応して、相対言語割り当て領域RErを規定する4つの頂点の座標および相対言語表現Erが記述される。たとえば、相対言語割り当て領域RErは、図16の点線枠で示すように、図3に示したオブジェクト地図情報における固定オブジェクトに対応して予め設定されるのである。 The area group data 204e is data regarding a tree-structured area group acquired according to the area division program 202b. The instruction word switching data 204f is data on parameters (d SO , d LO , f KS , f SA ) for switching the instruction words corresponding to the instruction word switching model shown in FIG. The relative language table data 204g is data about an area set in advance for the fixed object and the utterance content corresponding to the area. This is an utterance content and a corresponding region that are used to easily distinguish the region when it is difficult to refer to the region in the instruction word. FIG. 15 shows a specific example of the relative language table. In the example shown in FIG. 15, the relative language table describes the coordinates of the four vertices and the relative language expression Er that define the relative language allocation area R Er corresponding to the ID. For example, the relative language assignment area REr is set in advance corresponding to the fixed object in the object map information shown in FIG. 3, as indicated by the dotted frame in FIG.

図14に戻って、図示は省略するが、データ記憶領域204には、ロボット10の制御
に必要な他のデータが記憶されたり、カウンタ(タイマ)やフラグが設けられたりする。
Returning to FIG. 14, although not shown, the data storage area 204 stores other data necessary for the control of the robot 10 and is provided with a counter (timer) and a flag.

図17は図2に示したCPU60のロボット制御の全体処理を示すフロー図である。たとえば、ロボット10が人間に遭遇したり人間に触られたりすると、CPU60は全体処理を開始する。図17に示すように、CPU60は、全体処理を開始すると、ステップS1で、オブジェクト地図情報を取得する。つまり、CPU60は、マップデータ204bを不揮発性のメモリや外部のコンピュータから読み込む。次のステップ3では、カメラ画像を取得する。つまり、CPU60は、眼カメラ58によって撮影された画像(カメラ画像)を取得し、取得したカメラ画像に対応するカメラ画像データ204cをデータ記憶領域204に記憶する。   FIG. 17 is a flowchart showing the entire robot control process of the CPU 60 shown in FIG. For example, when the robot 10 encounters or is touched by a human, the CPU 60 starts the entire process. As shown in FIG. 17, when starting the entire process, the CPU 60 acquires object map information in step S1. That is, the CPU 60 reads the map data 204b from a nonvolatile memory or an external computer. In the next step 3, a camera image is acquired. That is, the CPU 60 acquires an image (camera image) captured by the eye camera 58 and stores the camera image data 204c corresponding to the acquired camera image in the data storage area 204.

なお、ロボット10は、最初に、XY座標が既知である環境の所定の位置に配置され、その後、自走する場合の移動方向および移動距離によって自身の現在位置を更新している。ただし、環境センサを設けておき、現在位置を適宜修正できるようにしてもよい。   The robot 10 is initially placed at a predetermined position in the environment where the XY coordinates are known, and then updates its current position based on the movement direction and the movement distance when the robot 10 is running. However, an environmental sensor may be provided so that the current position can be corrected as appropriate.

次のステップS5では、距離情報を取得する。つまり、CPU60は、予めロボット10を移動させ、距離センサ28によって距離を検出したときのロボット10の位置に対応して、そのときのロボット10の方向(角度)および検出した距離についての距離データ204dを、不揮発性のメモリなどから取得して、データ記憶領域204に記憶する。これは、主として、グリッドマップに、可動オブジェクトの情報を追加するために用いられる。   In the next step S5, distance information is acquired. That is, the CPU 60 moves the robot 10 in advance and corresponds to the position of the robot 10 when the distance is detected by the distance sensor 28, and the distance data 204d about the direction (angle) of the robot 10 at that time and the detected distance. Is obtained from a non-volatile memory or the like and stored in the data storage area 204. This is mainly used to add information about movable objects to the grid map.

続いて、ステップS7では、後述する領域分割処理(図18および図19参照)を実行する。次のステップS9では、後述する領域選択処理(図25および図26参照)を実行する。さらに、ステップS11では、後述する制御情報の決定処理(図27および図28参照)を実行する。そして、ステップS13では、ステップS11で決定した制御情報(身体動作G、発話内容E、位置Pos)を実行する。つまり、領域Rを参照したコミュニケーション行動が実行される。   Subsequently, in step S7, an area division process (see FIGS. 18 and 19) described later is executed. In the next step S9, an area selection process (see FIGS. 25 and 26) described later is executed. In step S11, control information determination processing (see FIGS. 27 and 28), which will be described later, is executed. In step S13, the control information (body motion G, utterance content E, position Pos) determined in step S11 is executed. That is, a communication action referring to the region R is executed.

続いて、ステップS15では、他の質問(リクエスト)が有るかどうかを判断する。つまり、CPU60は、リクエストバッファ204aに記憶されたリクエストデータに従うリクエストをすべて処理したかどうかを判断する。ステップS15で“YES”であれば、つまり他の質問があれば、ステップS9に戻る。一方、ステップS15で“YES”であれば、そのまま全体処理を終了する。   Subsequently, in step S15, it is determined whether there is another question (request). That is, the CPU 60 determines whether all requests according to the request data stored in the request buffer 204a have been processed. If “YES” in the step S15, that is, if there is another question, the process returns to the step S9. On the other hand, if “YES” in the step S15, the entire process is ended as it is.

図18および図19は、図17に示したステップS7の領域分割処理のフロー図である。図18に示すように、CPU60は、領域群抽出処理を開始すると、ステップS31で、領域の木構造を初期化する。つまり、CPU60は、領域群データ204eをリセットする。続くステップS33では、エッジ検出のパラメータESを初期化する(ES=0)。ただし、パラメータESは0以上1以下の範囲で変化され、この実施例では、後述するように、0.3ずつ変化される。このパラメータESの値が小さい程、領域の境界が検出され難い。   18 and 19 are flowcharts of the area dividing process in step S7 shown in FIG. As shown in FIG. 18, when starting the region group extraction process, the CPU 60 initializes the tree structure of the region in step S31. That is, the CPU 60 resets the area group data 204e. In the subsequent step S33, an edge detection parameter ES is initialized (ES = 0). However, the parameter ES is changed in the range of 0 to 1, and in this embodiment, it is changed by 0.3 as will be described later. The smaller the value of this parameter ES, the harder it is to detect the boundary of the region.

続くステップS35では、カメラ画像からパラメータESでエッジ検出を実行する。次のステップS37では、床の模様を検出する。ただし、パラメータESが0の場合には、床の模様は検出されない。次のステップS39では、カメラ画像と距離情報とから可動オブジェクトを検出する。ただし、ステップS39の処理が実行されることにより、固定オブジェクトも検出される。そして、ステップS41では、グリッドマップを生成する。つまり、オブジェクト地図情報に、可動オブジェクトおよび床の模様の情報が追加され、格子状に細分化される。   In the subsequent step S35, edge detection is executed from the camera image with the parameter ES. In the next step S37, a floor pattern is detected. However, when the parameter ES is 0, the floor pattern is not detected. In the next step S39, the movable object is detected from the camera image and the distance information. However, the fixed object is also detected by executing the process of step S39. In step S41, a grid map is generated. That is, the information on the movable object and the floor pattern is added to the object map information, and is subdivided into a lattice shape.

次に、ステップS43で、後述する候補の集合取得処理(図20参照)を実行し、図19に示すステップS45で、候補の集合Regions−partから1つの領域Rcを取り出す。次のステップS47では、木構造Treeから領域Rcの上位階層になる領域Rpを探す。つまり、CPU60は、領域Rcを含む領域Rpが有るかどうかを検索するのである。   Next, a candidate set acquisition process (see FIG. 20) described later is executed in step S43, and one region Rc is extracted from the candidate set Regions-part in step S45 shown in FIG. In the next step S47, a region Rp that is an upper layer of the region Rc is searched from the tree structure Tree. That is, the CPU 60 searches for a region Rp including the region Rc.

そして、ステップS49では、領域Rcが領域Rpと閾値以上重なっているいかどうかを判断する。ここでは、閾値は80%であり、領域Rcが領域Rpの80%以上の範囲となっている場合には、それらは同じ或いは略同じ領域であると判断される。したがって、ステップS49で“YES”であれば、つまり領域Rcが領域Rpと閾値以上重なっている場合には、ステップS51で、領域Rcを破棄して、ステップS55に進む。一方、ステップS49で“NO”であれば、つまり領域Rcが領域Rpと閾値以上重なっていない場合には、領域Rcを領域Rpの子階層として登録して、ステップS55に進む。   In step S49, it is determined whether or not the region Rc overlaps the region Rp by a threshold value or more. Here, the threshold value is 80%, and when the region Rc is in a range of 80% or more of the region Rp, it is determined that they are the same or substantially the same region. Therefore, if “YES” in the step S49, that is, if the region Rc overlaps the region Rp by a threshold value or more, the region Rc is discarded in a step S51, and the process proceeds to a step S55. On the other hand, if “NO” in the step S49, that is, if the region Rc does not overlap the region Rp by a threshold value or more, the region Rc is registered as a child hierarchy of the region Rp, and the process proceeds to a step S55.

ステップS55では、候補の集合Regions−part中に領域が残っているかどうかを判断する。ステップS55で“YES”であれば、つまり候補の集合Regions−part中に領域が残っていれば、ステップS45に戻って次の領域Rcを取り出す。一方、ステップS55で“NO”であれば、つまり候補の集合Regions−part中に領域が残っていない場合には、ステップS57で、パラメータESが1であるかどうかを判断する。   In step S55, it is determined whether an area remains in the candidate set Regions-part. If “YES” in the step S55, that is, if an area remains in the candidate set Regions-part, the process returns to the step S45 to extract the next area Rc. On the other hand, if “NO” in the step S55, that is, if there is no region remaining in the candidate set Regions-part, it is determined whether or not the parameter ES is 1 in a step S57.

ステップS57で“NO”であれば、つまりパラメータESが1でなければ、ステップS59で、パラメータESを所定値増加させて、図18に示したステップS35に戻る。たとえば、所定値は0.3に設定してある。ただし、パラメータESは1(1.0)を超えると、その値は1.0に設定される。したがって、パラメータESは、0.3、0.6、0.9、1.0と設定される。ただし、これは一例であり、パラメータESは、0.1または0.2ずつ増加させてもよい。一方、ステップS57で“YES”であれば、つまりパラメータESが1であれば、ステップS61で、木構造Tree中の領域を、分割された領域の集合Regionsとして抽出し、全体処理にリターンする。つまり、人間に伝達可能な領域が抽出(分割)される。図示は省略したが、この分割された領域の集合Regionsのデータもデータ記憶領域204の作業領域に記憶される。   If “NO” in the step S57, that is, if the parameter ES is not 1, the parameter ES is increased by a predetermined value in a step S59, and the process returns to the step S35 shown in FIG. For example, the predetermined value is set to 0.3. However, if the parameter ES exceeds 1 (1.0), the value is set to 1.0. Therefore, the parameter ES is set to 0.3, 0.6, 0.9, and 1.0. However, this is an example, and the parameter ES may be increased by 0.1 or 0.2. On the other hand, if “YES” in the step S57, that is, if the parameter ES is 1, an area in the tree structure Tree is extracted as a set Regions of divided areas in a step S61, and the process returns to the entire processing. That is, an area that can be transmitted to a human is extracted (divided). Although illustration is omitted, the data of the set Regions of the divided areas is also stored in the work area of the data storage area 204.

図20は、図18のステップS43に示した候補の集合取得処理のフロー図である。図20に示すように、CPU60は、候補の集合取得処理を開始すると、ステップS81で、グリッドマップに対応する図6に示したような参照リストを作成する。次のステップS83では、後述するバルーン取得処理(図21ないし図24参照)を実行して、ステップS85で、すべてのバルーンP(C(g),d)のエネルギE(P(C(g),d))を算出する。そして、ステップS87で、最大のエネルギとなるバルーンP(C(g_max),d_max)を抽出する。つまり、ロボット10に、より近く、より大きなバルーンP(C(g),d)が抽出されるのである。   FIG. 20 is a flowchart of the candidate set acquisition process shown in step S43 of FIG. As shown in FIG. 20, when starting the candidate set acquisition process, the CPU 60 creates a reference list as shown in FIG. 6 corresponding to the grid map in step S81. In the next step S83, a balloon acquisition process (see FIGS. 21 to 24), which will be described later, is executed. In step S85, the energy E (P (C (g)) of all the balloons P (C (g), d). , D)). In step S87, the balloon P (C (g_max), d_max) having the maximum energy is extracted. That is, a larger balloon P (C (g), d) closer to the robot 10 is extracted.

次のステップS89では、候補の集合Regions−partに、抽出したバルーンP(C(g_max),d_max)を登録する。図示は省略したが、候補の集合Regions−partは、メモリ64の作業領域に記憶される。続くステップS91では、グリッドマップからバルーンP(C(g_max),d_max)を削除する。つまり、バルーンP(C(g_max),d_max)に含まれるすべての枠を、グリッドマップにおいて、領域を抽出する範囲から除外するのである。   In the next step S89, the extracted balloon P (C (g_max), d_max) is registered in the candidate set Regions-part. Although not shown, the candidate set Regions-part is stored in the work area of the memory 64. In a subsequent step S91, the balloon P (C (g_max), d_max) is deleted from the grid map. That is, all the frames included in the balloon P (C (g_max), d_max) are excluded from the region extraction range in the grid map.

続くステップS93では、グリッドマップ中に領域を抽出できるだけの枠が残っている
かどうかを判断する。この実施例では、CPU60は、全枠数の10%以上の枠数が残っているかどうかを判断しているのである。ステップS93で“YES”であれば、つまりグリッドマップ中に領域を抽出できるだけの枠が残っていれば、ステップS81に戻る。つまり、残りの枠についてインデックス番号が付され、図6に示したような参照リストが作成し直される。一方、ステップS93で“NO”であれば、つまりグリッドマップ中に領域を抽出できるだけの枠が残っていなければ、そのまま全体処理にリターンする。
In a succeeding step S93, it is determined whether or not a frame that can extract an area remains in the grid map. In this embodiment, the CPU 60 determines whether or not the number of frames that is 10% or more of the total number of frames remains. If “YES” in the step S93, that is, if there remains a frame that can extract an area in the grid map, the process returns to the step S81. That is, index numbers are assigned to the remaining frames, and the reference list as shown in FIG. 6 is recreated. On the other hand, if “NO” in the step S93, that is, if there remains no frame that can extract an area in the grid map, the process returns to the entire process as it is.

図21−図24は、図20に示したステップS83のバルーン取得処理のフロー図である。図21に示すように、CPU60は、バルーン取得処理を開始すると、ステップS111で、参照リストの最初の組の点gおよび直線P(d=0°)を設定する。次のステップS113では、点gを中心とする伸縮円C(g)の半径を一段階拡大する。つまり、CPU60は、1つの枠(桝目)の一辺の長さの半分だけ、伸縮円C(g)の半径を延ばす。続くステップS115では、伸縮円C(g)が障害物に当ったかどうかを判断する。つまり、CPU60は、伸縮円C(g)が、少なくとも、障害物が描画された枠に接触してしまったかどうかを判断する。   21 to 24 are flowcharts of the balloon acquisition process in step S83 shown in FIG. As shown in FIG. 21, when the balloon acquisition process is started, the CPU 60 sets the first set of points g and straight line P (d = 0 °) in the reference list in step S111. In the next step S113, the radius of the expansion / contraction circle C (g) centered on the point g is expanded by one step. That is, the CPU 60 extends the radius of the expansion / contraction circle C (g) by half the length of one side of one frame (cell). In a succeeding step S115, it is determined whether or not the expansion / contraction circle C (g) hits an obstacle. That is, the CPU 60 determines whether or not the expansion / contraction circle C (g) has touched at least the frame on which the obstacle is drawn.

ステップS115で“NO”であれば、つまり伸縮円C(g)が障害物に当っていなければ、ステップS113に戻る。一方、ステップS115で“YES”であれば、つまり伸縮円C(g)が障害物に当れば、ステップS117で、一段階手前の伸縮円C(g)の半径に設定して、ステップS119で、点gを変数g−preに設定し、伸縮円C(g)の半径を変数r−preに設定する。ただし、変数g−preは、現在の点gについての座標を示し、変数r−preは、変数g−preに設定された点gにおける伸縮円C(g)の半径を示す。   If “NO” in the step S115, that is, if the expansion / contraction circle C (g) does not hit the obstacle, the process returns to the step S113. On the other hand, if “YES” in the step S115, that is, if the expansion / contraction circle C (g) hits an obstacle, in step S117, the radius of the expansion / contraction circle C (g) one step before is set, and the step S119 is performed. The point g is set to the variable g-pre, and the radius of the expansion / contraction circle C (g) is set to the variable r-pre. However, variable g-pre shows the coordinate about the present point g, and variable r-pre shows the radius of the expansion-contraction circle C (g) in the point g set to the variable g-pre.

続くステップS121では、傾きdが90°または270°であるかどうかを判断する。ステップS121で“NO”であれば、つまり傾きdが90°または270°でなければ、ステップS123で、傾きdの直線P上の点g−preのX軸のプラス方向またはY軸の方向(プラス方向またはマイナス方向)の隣の点g−curを取得して、図22に示すステップS127に進む。つまり、ステップS123では、点g−preが存在する枠の隣(右側の隣、上側の隣、または下側の隣)であり、直線Pが通る枠の点g−curが取得されるのである。一方、ステップS121で“YES”であれば、つまり傾きdが90°または270°であれば、ステップS125で、傾きdの直線P上の点g−preのY軸のプラス方向の隣の点g−curを取得して、ステップS127に進む。   In a succeeding step S121, it is determined whether or not the inclination d is 90 ° or 270 °. If “NO” in the step S121, that is, if the inclination d is not 90 ° or 270 °, in the step S123, the positive direction of the X axis or the Y axis direction ( A point g-cur adjacent to the plus direction or minus direction is acquired, and the process proceeds to step S127 shown in FIG. That is, in step S123, the point g-cur of the frame that is next to the frame where the point g-pre exists (next to the right side, next to the upper side, or next to the lower side) and through which the straight line P passes is acquired. . On the other hand, if “YES” in the step S121, that is, if the inclination d is 90 ° or 270 °, in the step S125, the point on the straight line P having the inclination d is a point adjacent to the positive direction of the Y axis of the point g-pre. g-cur is acquired, and the process proceeds to step S127.

図22に示すように、ステップS127では、点g−curが有るかどうかを判断する。つまり、当該直線P上において、現在参照リストが示す枠のX軸のプラス方向に隣接する(Y軸方向に隣接する場合もある)すべての枠に伸縮円C(g)を描画したかどうかを判断する。ステップS127で“NO”であれば、つまり点g−curが無ければ、X軸のプラス方向への伸縮円C(g)の描画を終了したと判断して、図23に示すステップS143に進む。一方、ステップS127で“YES”であれば、つまり点g−curが有れば、ステップS129で、点g−curが障害物上であるかどうかを判断する。   As shown in FIG. 22, in step S127, it is determined whether or not there is a point g-cur. That is, whether or not the expansion / contraction circle C (g) is drawn on all the frames adjacent to the positive direction of the X axis of the frame indicated by the current reference list on the straight line P (may be adjacent to the Y axis direction). to decide. If “NO” in the step S127, that is, if there is no point g-cur, it is determined that the drawing of the expansion / contraction circle C (g) in the plus direction of the X axis is finished, and the process proceeds to the step S143 shown in FIG. . On the other hand, if “YES” in the step S127, that is, if there is a point g-cur, it is determined whether or not the point g-cur is on an obstacle in a step S129.

ステップS129で“YES”であれば、つまり点g−curが障害物上であれば、X軸のプラス方向への伸縮円C(g)の描画を終了して、ステップS143に進む。これは、障害物によって、領域が分割されている(途切れている)と考えられるためである。一方、ステップS129で“NO”であれば、つまり点g−curが障害物上でなければ、ステップS131で、点p−curを中心とする伸縮円C(g−cur)の半径を一段階拡大する。続くステップS133では、伸縮円C(g−cur)が障害物に当ったかどうかを判断する。   If “YES” in the step S129, that is, if the point g-cur is on the obstacle, the drawing of the expansion / contraction circle C (g) in the positive direction of the X axis is ended, and the process proceeds to the step S143. This is because it is considered that the area is divided (disconnected) by the obstacle. On the other hand, if “NO” in the step S129, that is, if the point g-cur is not on the obstacle, the radius of the expansion / contraction circle C (g-cur) centering on the point p-cur is set by one step in a step S131. Expanding. In a succeeding step S133, it is determined whether or not the expansion / contraction circle C (g-cur) hits an obstacle.

ステップS133で“NO”であれば、つまり伸縮円C(g−cur)が障害物に当ってなければ、そのままステップS131に戻る。一方、ステップS133で“YES”であれば、つまり伸縮円C(g−cur)が障害物に当れば、ステップS135で、伸縮円C(g−cur)の半径を一段階前の半径に設定し、ステップS137で、伸縮円C(g−cur)の半径を変数r−curに設定する。   If “NO” in the step S133, that is, if the expansion / contraction circle C (g-cur) does not hit the obstacle, the process returns to the step S131 as it is. On the other hand, if “YES” in the step S133, that is, if the expanding / contracting circle C (g-cur) hits the obstacle, the radius of the expanding / contracting circle C (g-cur) is set to the previous radius in a step S135. In step S137, the radius of the expansion / contraction circle C (g-cur) is set to the variable r-cur.

そして、ステップS139では、r−pre/r−curが第1閾値(たとえば、1.3)以上であるかどうかを判断する。ステップS139で“YES”であれば、つまりr−pre/r−curが第1閾値以上であれば、領域を分割するべきであると判断し、X軸のプラス方向への伸縮円C(g)の描画を終了して、ステップS143に進む。一方、ステップS139で“NO”であれば、つまりr−pre/r−curが第1閾値未満であれば、ステップS141で、r−pre/r−curが第2閾値(たとえば、0.7)以下であるかどうかを判断する。ステップS141で“NO”であれば、つまりr−pre/r−curが第2閾値を超えていれば、図21に示したステップS121に戻って、X軸のプラス方向への伸縮円C(g)の描画を継続する。一方、ステップS141で“YES”であれば、つまりr−pre/r−curが第2閾値(たとえば、0.7)以下であれば、領域を分割するべきであると判断し、X軸のプラス方向への伸縮円C(g)の描画を終了して、ステップS143に進む。   In step S139, it is determined whether r-pre / r-cur is greater than or equal to a first threshold value (eg, 1.3). If “YES” in the step S139, that is, if r-pre / r-cur is equal to or larger than the first threshold value, it is determined that the region should be divided, and the X-axis expansion / contraction circle C (g ) Is ended, and the process proceeds to step S143. On the other hand, if “NO” in the step S139, that is, if r-pre / r-cur is less than the first threshold value, the r-pre / r-cur is set to a second threshold value (for example, 0.7) in the step S141. ) Determine if: If “NO” in the step S141, that is, if r-pre / r-cur exceeds the second threshold value, the process returns to the step S121 shown in FIG. Continue drawing g). On the other hand, if “YES” in the step S141, that is, if r-pre / r-cur is equal to or smaller than a second threshold value (for example, 0.7), it is determined that the region should be divided, and the X axis The drawing of the expansion / contraction circle C (g) in the plus direction is terminated, and the process proceeds to step S143.

ステップS139およびステップS141では、隣接する枠に描画された伸縮円C(g)の半径(大きさ)が急激に変化したかどうかを判断し、急激に変化している場合には、領域を分割するべきと判断しているのである。   In steps S139 and S141, it is determined whether or not the radius (size) of the expansion / contraction circle C (g) drawn in the adjacent frame has changed abruptly. It is judged that it should be done.

図23に示すように、ステップS143では、参照リストが示す着目する枠の点gに戻す。これは、X軸のプラス方向に続いて、X軸のマイナス方向への伸縮円C(g)の描画を開始するためである。X軸のマイナス方向の伸縮円C(g)の描画処理は、上述したX軸のプラス方向への描画処理と同様の処理が実行されるため、重複する内容については簡単に説明することにする。   As shown in FIG. 23, in step S143, the frame is returned to the point g of the frame of interest indicated by the reference list. This is because the drawing of the expansion / contraction circle C (g) in the minus direction of the X axis is started following the plus direction of the X axis. The drawing process of the X-axis minus direction expansion / contraction circle C (g) is the same as the above-described drawing process of the X axis plus direction, so the overlapping contents will be described briefly. .

次のステップS45では、傾きdが90°または270°であるかどうかを判断する。ステップS145で“NO”であれば、ステップS147で、傾きdの直線P上の点g−preのX軸のマイナス方向またはY軸方向(プラス方向またはマイナス方向)の隣の点g−curを取得して、ステップS151に進む。一方、ステップS145で“YES”であれば、つまり、傾きdの直線P上の点g−preのY軸のマイナス方向の隣の点g−curを取得して、ステップS151に進む。   In the next step S45, it is determined whether or not the inclination d is 90 ° or 270 °. If “NO” in the step S145, in a step S147, the point g-cur adjacent to the point g-pre on the straight line P having the inclination d in the minus direction of the X axis or the Y axis direction (plus direction or minus direction) is obtained. Acquire and go to step S151. On the other hand, if “YES” in the step S145, that is, the point g-cur adjacent to the point g-pre on the straight line P with the inclination d in the negative direction on the Y axis is acquired, and the process proceeds to the step S151.

ステップS151では、点g−curが有るかどうかを判断する。ステップS151で“NO”であれば、図24に示すステップS167にそのまま進む。一方、ステップS151で“YES”であれば、ステップS153で、点g−curが障害物上であるかどうかを判断する。ステップS153で“YES”であれば、そのままステップS167に進む。一方、ステップS153で“NO”であれば、ステップS155で、点g−curを中心とする伸縮円C(g−cur)の半径を一段階拡大する。そして、ステップS157で、伸縮円C(g−cur)が障害物に当ったかどうかを判断する。   In step S151, it is determined whether or not there is a point g-cur. If “NO” in the step S151, the process proceeds to a step S167 shown in FIG. On the other hand, if “YES” in the step S151, it is determined whether or not the point g-cur is on an obstacle in a step S153. If “YES” in the step S153, the process proceeds to a step S167 as it is. On the other hand, if “NO” in the step S153, the radius of the expansion / contraction circle C (g-cur) centered on the point g-cur is expanded by one step in a step S155. In step S157, it is determined whether the expansion / contraction circle C (g-cur) hits an obstacle.

ステップS157で“NO”であれば、そのままステップS155に戻る。一方、ステップS157で“YES”であれば、図24に示すステップS159で、伸縮円C(g−cur)の半径を一段階前の半径に設定して、ステップS161で、伸縮円C(g−cur)の半径を変数r−curに設定する。続くステップS163では、r−pre/r−curが第1閾値以上であるかどうかを判断する。ステップS163で“YES”であれば、そのままステップS167に進む。一方、ステップS163で“NO”であれば、ス
テップS165で、r−pre/r−curが第2閾値以下であるかどうかを判断する。ステップS165で“NO”であれば、図23に示したステップS145に戻って、X軸のマイナス方向への伸縮円C(g)の描画を継続する。一方、ステップS165で“YES”であれば、ステップS167に進む。
If “NO” in the step S157, the process returns to the step S155 as it is. On the other hand, if “YES” in the step S157, the radius of the expansion / contraction circle C (g-cur) is set to a previous radius in the step S159 shown in FIG. 24, and the expansion / contraction circle C (g -Cur) radius is set to the variable r-cur. In a succeeding step S163, it is determined whether or not r-pre / r-cur is not less than the first threshold value. If “YES” in the step S163, the process proceeds to a step S167 as it is. On the other hand, if “NO” in the step S163, it is determined whether or not r-pre / r-cur is equal to or smaller than a second threshold value in a step S165. If “NO” in the step S165, the process returns to the step S145 shown in FIG. 23, and the drawing of the expansion / contraction circle C (g) in the minus direction of the X axis is continued. On the other hand, if “YES” in the step S165, the process proceeds to a step S167.

ステップS167では、すべての伸縮円C(g)を結合して、バルーンP(C(g),d)を生成する。つまり、参照リストが示す今回の組について描画された伸縮円C(g)に含まれるすべての枠が1つの塊として抽出され、バルーンP(C(g),d)が生成される。   In step S167, all the expansion / contraction circles C (g) are combined to generate a balloon P (C (g), d). That is, all the frames included in the expansion / contraction circle C (g) drawn for the current set indicated by the reference list are extracted as one lump, and a balloon P (C (g), d) is generated.

次のステップS169では、参照リストが示す直線Pの傾きdが330°であるかどうかを判断する。ステップS169で“NO”であれば、つまり参照リストが示す直線Pの傾きdが330°でなければ、ステップS171で、現在の枠の点に、次の組が示す傾きdの直線Pを設定して、図21のステップS113に戻る。つまり、ステップS171では、直前の組の枠と同じ枠の点gに、傾きdを30°変えた直線Pが設定される。   In the next step S169, it is determined whether or not the slope d of the straight line P indicated by the reference list is 330 °. If “NO” in the step S169, that is, if the slope d of the straight line P indicated by the reference list is not 330 °, the straight line P having the slope d indicated by the next group is set in the current frame point in a step S171. Then, the process returns to step S113 in FIG. That is, in step S171, a straight line P with the inclination d changed by 30 ° is set at a point g in the same frame as the immediately preceding frame.

一方、ステップS169で“YES”であれば、つまり参照リストが示す直線Pの傾きdが330°であれば、ステップS173で、参照リストのすべての組について伸縮円C(g)の描画処理を実行したかどうかを判断する。ステップS173で“NO”であれば、つまり参照リストにおいて伸縮円C(g)の描画処理を行っていない組が残っている場合には、ステップS175で、次の組が示す枠の点gおよび傾きdの直線Pを設定して、ステップS113に戻る。つまり、ステップS175では、直前の組の枠の次のインデックス番号で示される枠の点gに、傾きd=0°の直線Pが設定される。一方、ステップS175で“YES”であれば、つまり参照リストのすべての組について伸縮円C(g)の描画処理を実行すると、候補の集合取得処理にリターンする。   On the other hand, if “YES” in the step S169, that is, if the inclination d of the straight line P indicated by the reference list is 330 °, the drawing process of the expansion / contraction circle C (g) is performed on all the pairs of the reference list in a step S173. Determine if it has been executed. If “NO” in the step S173, that is, if there remains a pair that has not been subjected to the drawing process of the expansion / contraction circle C (g) in the reference list, in step S175, the frame point g and the next pair indicated by A straight line P with an inclination d is set, and the process returns to step S113. That is, in step S175, a straight line P having an inclination d = 0 ° is set at the point g of the frame indicated by the index number next to the immediately preceding set of frames. On the other hand, if “YES” in the step S175, that is, if the drawing process of the expansion / contraction circle C (g) is executed for all the pairs in the reference list, the process returns to the candidate set acquisition process.

なお、図示は省略するが、ステップS169で“YES”と判断された場合には、直前に伸縮円C(g)の描画処理を実行した組について、当該描画処理を終了したことが参照リストにおいてチェックされる。   Although illustration is omitted, if “YES” is determined in the step S169, it is indicated in the reference list that the drawing process has been completed for the pair that has just performed the drawing process of the expansion / contraction circle C (g). Checked.

図25および図26は、図17に示したステップS9の領域選択処理のフロー図である。図25に示すように、CPU60は、領域選択処理を開始すると、ステップS191で、人間から荷物についての情報を聞く。ここでは、CPU60は、荷物の大きさについて質問するための合成音声をスピーカ52から出力する。次のステップS193では、荷物の底面積Sizeを取得する。たとえば、CPU60は、人間の返答に対応する音声を、
マイク54を通して検出し、その音声を認識することにより、荷物の大きさから底面積Sizeを取得する。図示は省略するが、荷物の大きさに対応する底面積を記載したテーブ
ルについてのデータを記憶しておき、CPU60は、そのテーブルを参照して、荷物の大きさに応じた底面積Sizeを取得する。
25 and 26 are flowcharts of the area selection process in step S9 shown in FIG. As shown in FIG. 25, when the area selection process is started, the CPU 60 listens to information about a package from a human in step S191. Here, the CPU 60 outputs a synthesized voice for inquiring about the size of the luggage from the speaker 52. In the next step S193, the bottom area Size of the luggage is acquired. For example, the CPU 60 outputs a voice corresponding to a human response,
By detecting through the microphone 54 and recognizing the sound, the bottom area Size is acquired from the size of the load. Although illustration is omitted, data about a table in which the bottom area corresponding to the size of the package is stored is stored, and the CPU 60 refers to the table to obtain the bottom area Size according to the size of the package. To do.

なお、この実施例では、ロボット10が人間とインタラクションすることにより、荷物の底面積Sizeを取得するようにしてあるが、眼カメラ58で撮影した画像から荷物の
大きさを推定して底面積Sizeを取得するようにしてもよい。または、眼カメラ58で
撮影した画像から直接底面積Sizeを推定(取得)するようにしてもよい。
In this embodiment, the bottom area Size of the load is acquired by the robot 10 interacting with a human. However, the size of the load is estimated from the image captured by the eye camera 58, and the bottom area Size is obtained. May be obtained. Alternatively, the bottom area Size may be estimated (acquired) directly from the image captured by the eye camera 58.

図25に戻って、次のステップS195では、変数iを初期化する(i=1)。この変数iは、分割された領域の集合Regionsに含まれる複数の領域Rを個別に識別するために設定される。続くステップS197では、分割された領域の集合Regionsから領域Riを読み出す。次のステップS199では、領域Riの面積Ri_Sizeが底面積Sizeよりも大きいかどうかを判断する。ただし、領域Ri_Sizeは、それに含
まれる枠の数に、1つの枠についての実空間における面積(この実施例では、20cm×20cm)を乗算して求められる。
Returning to FIG. 25, in the next step S195, the variable i is initialized (i = 1). This variable i is set to individually identify a plurality of regions R included in the set Regions Region of the divided regions. In the subsequent step S197, the area Ri is read from the set Regions of the divided areas. In the next step S199, it is determined whether or not the area Ri_Size of the region Ri is larger than the bottom area Size. However, the region Ri_Size is obtained by multiplying the number of frames included in the region Ri_Size by an area in real space for one frame (in this embodiment, 20 cm × 20 cm).

ステップS199で“NO”であれば、つまり領域Riの面積Ri_Sizeが底面積
Size以下であれば、荷物を置ける大きさを有していないと判断して、そのままステップS203に進む。一方、ステップS199で“YES”であれば、つまり領域Riの面積Ri_Sizeが底面積Sizeを超えていれば、荷物を置ける大きさを有していると判断して、ステップS201で、領域Riを選択候補の集合R_candsに登録して、ステップS203に進む。つまり、ステップS201では、領域Riが、参照(人間に指示)する領域Rの候補として選択されるのである。
If “NO” in the step S199, that is, if the area Ri_Size of the region Ri is equal to or smaller than the bottom area Size, it is determined that the baggage does not have a size for placing a load, and the process proceeds to a step S203 as it is. On the other hand, if “YES” in the step S199, that is, if the area Ri_Size of the region Ri exceeds the bottom area Size, it is determined that the bag has a size for placing the luggage, and the region Ri is determined in step S201. Registration is made to the selection candidate set R_cands, and the process proceeds to step S203. That is, in step S201, the area Ri is selected as a candidate for the area R to be referred (instructed to a person).

ステップS203では、変数iを1加算する(i=i+1)。そして、ステップS205で、変数iが最大値を超えたかどうかを判断する。つまり、ステップS205では、分割された領域の集合Regionsに登録されているすべての領域RiについてステップS199の判断処理を実行したかどうかを判断しているのである。ステップS205で“NO”であれば、つまり変数iが最大値以下であれば、そのままステップS197に戻る。つまり、次の領域RiについてステップS199の処理が実行される。一方、ステップS205で“YES”であれば、つまり変数iが最大値を超えると、図26に示すステップS27で、変数jを初期化する(j=1)。この変数jは、選択候補の集合R_candsに含まれる領域を識別するために設定される。   In step S203, the variable i is incremented by 1 (i = i + 1). In step S205, it is determined whether or not the variable i exceeds the maximum value. That is, in step S205, it is determined whether or not the determination process of step S199 has been executed for all the regions Ri registered in the divided region set Regions. If “NO” in the step S205, that is, if the variable i is equal to or less than the maximum value, the process returns to the step S197 as it is. That is, the process of step S199 is executed for the next region Ri. On the other hand, if “YES” in the step S205, that is, if the variable i exceeds the maximum value, the variable j is initialized in a step S27 shown in FIG. 26 (j = 1). This variable j is set to identify an area included in the selection candidate set R_cands.

次のステップS209では、変数dminに初期値を設定する(dmin=∞)。この変数dminは、領域Rjと人間との最短距離を検出するために用いられる。続くステップS211では、選択候補の集合R_candsから領域Rjを読み出す。そして、ステップS213で、領域Rjと人間との距離dj(上記したパラメータdLOに相当する)が変数dminよりも小さいかどうかを判断する。ただし、領域Rjと人間との距離djは、領域Rjに含まれる点のうち、最も人間に近い点と人間の現在位置との距離である。 In the next step S209, an initial value is set to the variable dmin (dmin = ∞). This variable dmin is used to detect the shortest distance between the region Rj and a person. In the subsequent step S211, the region Rj is read from the selection candidate set R_cands. In step S213, it is determined whether or not the distance dj (corresponding to the parameter d LO described above) between the region Rj and the person is smaller than the variable dmin. However, the distance dj between the region Rj and the person is the distance between the point closest to the person among the points included in the area Rj and the current position of the person.

ステップS213で“NO”であれば、つまり領域Rjと人間との距離djが変数dmin以上であれば、距離djは最短距離でないと判断して、そのままステップS219に進む。一方、ステップS213で“YES”であれば、つまり領域Rjと人間との距離djが変数dminよりも小さければ、距離djは現時点において最短距離であると判断して、ステップS215で、変数dminに距離djを代入して、ステップS217で、領域Rjを参照する領域Rに設定(選択)して、ステップS219に進む。   If “NO” in the step S213, that is, if the distance dj between the region Rj and the person is equal to or larger than the variable dmin, it is determined that the distance dj is not the shortest distance, and the process directly proceeds to a step S219. On the other hand, if “YES” in the step S213, that is, if the distance dj between the region Rj and the person is smaller than the variable dmin, it is determined that the distance dj is the shortest distance at the present time, and the variable dmin is set in a step S215. Substituting the distance dj, in step S217, the region Rj is set (selected) as the region R that refers to, and the process proceeds to step S219.

ステップS219では、変数jを1加算する(j=j+1)。続くステップS221では、変数jが最大値を超えたかどうかを判断する。つまり、ステップS221では、選択候補の集合R_candsに登録されたすべての領域RjについてステップS213の処理を実行したかどうかを判断するのである。ステップS221で“NO”であれば、つまり変数jが最大値以下であれば、ステップS211に戻って、次の領域RjについてステップS213の処理を実行する。一方、ステップS221で“YES”であれば、つまり変数jが最大値を超えれば、全体処理にリターンする。   In step S219, the variable j is incremented by 1 (j = j + 1). In a succeeding step S221, it is determined whether or not the variable j exceeds the maximum value. That is, in step S221, it is determined whether or not the processing in step S213 has been executed for all regions Rj registered in the selection candidate set R_cands. If “NO” in the step S221, that is, if the variable j is equal to or less than the maximum value, the process returns to the step S211 and the process of the step S213 is executed for the next region Rj. On the other hand, if “YES” in the step S221, that is, if the variable j exceeds the maximum value, the process returns to the entire processing.

図27および図28は、図17に示したステップS11の制御情報の決定処理のフロー図である。図27に示すように、CPU60は、制御情報の決定処理を開始すると、ステップS241で初期化処理を実行する。ここでは、領域Rを設定し、領域Rを参照するときのロボット10の位置Pos、実行するジェスチャGおよび発話内容Eをクリアする。次のステップS243では、自身の現在位置をPos´に設定する。続いて、ステップS245では、領域Rを参照する場合に実行するジェスチャGを決定する。この実施例では、円を描くように腕を回転させて領域Rを指示するようにしてあるため、領域Rの大きさ
に応じて手で描く円の大きさ(回転軸に対して腕がなす角θ)が決定され、それを実行する場合に、腕を斜めに保持するためのモータの制御情報および円を描くように腕を回転させるためのモータの制御情報が決定されるのである。
27 and 28 are flowcharts of the control information determination process in step S11 shown in FIG. As shown in FIG. 27, when starting the control information determination process, the CPU 60 executes an initialization process in step S241. Here, the region R is set, and the position Pos of the robot 10 when referring to the region R, the gesture G to be executed, and the utterance content E are cleared. In the next step S243, its own current position is set to Pos ′. Subsequently, in step S245, the gesture G to be executed when referring to the region R is determined. In this embodiment, the arm R is rotated so as to draw a circle, and the region R is designated. Therefore, the size of the circle drawn by hand according to the size of the region R (the arm makes a rotation axis). When the angle θ P ) is determined and executed, motor control information for holding the arm diagonally and motor control information for rotating the arm to draw a circle are determined.

次のステップS247では、ジェスチャGで誤認され得る領域の集合R_wrongを分割された領域の集合Regionsから抽出する。つまり、図13に示したように、ジェスチャGを実行したと仮定して、参照する領域R(図13では、R11)以外の他の領域(図13では、R12)を含んでしまう場合に、他の領域(R12)を誤認され得る領域として、集合R_wrongに登録するのである。つまり、図13に示したように、指示領域Aによって指示される、参照(指示)する領域R以外の領域を抽出するのである。 In the next step S247, a set of regions R_long that can be mistaken for the gesture G is extracted from the set Regions of divided regions. That is, as shown in FIG. 13, assuming that the gesture G has been executed, if other region (R12 in FIG. 13) other than the region R to be referred to (R11 in FIG. 13) is included, The other area (R12) is registered in the set R_wlong as an area that can be mistaken. That is, as shown in FIG. 13, indicated by the instruction area A P, reference is to extract the region other than the (indicated) region R.

図28に示すように、次のステップS249では、相対言語テーブル内の領域RErに、参照する領域Rが含まれるかどうかを判断する。ステップS249で“YES”であれば、つまり相対テーブル内の領域RErに参照する領域Rが含まれている場合には、後述するステップS257に進む。一方、ステップS249で“NO”であれば、つまり相対言語テーブル内の領域RErに参照する領域Rが含まれていない場合には、ステップS251で、集合R_wrongの要素数が0であるかどうかを判断する。ステップS251で“NO”であれば、つまり集合R_wrongの要素数が1以上であれば、ステップS259に進む。 As shown in FIG. 28, in the next step S249, it is determined whether or not the region R to be referred to is included in the region R Er in the relative language table. If “YES” in the step S249, that is, if the area R to be referred to is included in the area R Er in the relative table, the process proceeds to a step S257 described later. On the other hand, if “NO” in the step S249, that is, if the area R Er in the relative language table does not include the area R to be referred to, whether or not the number of elements of the set R_wlong is 0 in the step S251. Judging. If “NO” in the step S251, that is, if the number of elements of the set R_long is 1 or more, the process proceeds to a step S259.

一方、ステップS251であれば、つまり領域R_wrongの要素数が0であれば、ステップS253で、指示語Eiを決定する。ここでは、上述したように、領域Rの大きさに応じて「辺」を付けるか否かを決定し、ロボット10自身と領域Rとの距離dSOまたは人間と領域Rとの距離dLOに応じて、つまり領域Rの最近点と、ロボット10の現在位置と、人間の現在位置との位置関係に応じて、「こ」、「そ」、「あ」の別を決定する。そして、ステップS255で、発話内容Eに、ステップS253で決定した指示語Eiを設定し、位置Posに現在位置Pos´を設定して、全体処理に戻る。 On the other hand, if it is step S251, that is, if the number of elements of the region R_long is 0, the instruction word Ei is determined in step S253. Here, as described above, it is determined whether or not to add a “side” according to the size of the region R, and the distance d SO between the robot 10 itself and the region R or the distance d LO between the human and the region R is determined. In response, that is, according to the positional relationship between the closest point of the region R, the current position of the robot 10, and the current position of the human, “ko”, “so”, and “a” are determined. In step S255, the instruction word Ei determined in step S253 is set in the utterance content E, the current position Pos' is set in the position Pos, and the process returns to the entire process.

また、ステップS257では、集合R_wrongに登録された領域のうち、領域RErに含まれる領域が存在するかどうかを判断する。ステップS257で“YES”であれば、つまり集合R_wrongに登録された領域のうち、領域RErに含まれる領域が存在する場合には、ステップS259で、現在位置Pos´を参照する領域Rに距離Dだけ近づけて、図27に示したステップS247に戻る。ただし、この実施例では、距離Dは20cmであり、ステップS259では、実際にロボット10が移動されるのではなく、現在位置Pos´のみが更新され、移動後の現在位置Pos´でジェスチャGを実行したと仮定して、それによって描かれる円を投影した円または楕円つまり指示領域Aによって指示される、参照する領域R以外の他の領域を抽出するのである。 In step S257, it is determined whether or not there is a region included in the region R Er among the regions registered in the set R_wlong. If “YES” in the step S257, that is, if there is an area included in the area R Er among the areas registered in the set R_long, the distance to the area R that refers to the current position Pos ′ in the step S259. The process returns to step S247 shown in FIG. However, in this embodiment, the distance D is 20 cm, and in step S259, the robot 10 is not actually moved, but only the current position Pos ′ is updated, and the gesture G is updated at the current position Pos ′ after the movement. assuming executed, thereby indicated by a circle or an ellipse, that the designated area a P obtained by projecting the circle drawn, is to extract the regions other than the region R reference.

一方、ステップS257で“NO”であれば、つまり集合R_wrongに登録された領域のうち、領域RErに含まれる領域が存在しない場合には、ステップS261で、発話内容Eに領域Rを含む領域RErに対応して相対言語テーブルに記載された相対言語表現Erを設定し、位置Poに現在位置Pos´を設定して、全体処理にリターンする。 On the other hand, if “NO” in the step S257, that is, if there is no area included in the area R Er among the areas registered in the set R_long, the area including the area R in the utterance content E in the step S261. The relative language expression Er described in the relative language table is set corresponding to R Er , the current position Pos ′ is set at the position Po, and the process returns to the overall processing.

この実施例によれば、床の模様およびオブジェクトを含む障害物が登録されたグリッドマップを用いて、障害物に接触しないように描画された複数の伸縮円を結合した領域を抽出するので、人間が空間を見た場合に分割する場合と同じように領域を分割することができる。   According to this embodiment, since a grid map in which obstacles including floor patterns and objects are registered is used to extract a region where a plurality of stretchable circles drawn so as not to touch the obstacles are extracted. The area can be divided in the same way as when dividing a space.

また、この実施例によれば、エッジ検出の際に、床の模様を検出しないレベルから検出
可能なレベルまで段階的にパラメータを変化させるので、廊下のような比較的広い空間の全体を1つの領域として抽出したり、それを床の模様に従って複数に区分した2以上の領域として抽出したりすることができる。つまり、参照する領域に大きさに応じて、適宜参照する領域を変化させることができる。
Also, according to this embodiment, when detecting edges, the parameters are changed stepwise from a level at which a floor pattern is not detected to a detectable level, so that the entire relatively large space such as a corridor is It can be extracted as a region, or it can be extracted as two or more regions divided into a plurality according to the floor pattern. That is, the area to be referred to can be appropriately changed according to the size of the area to be referred to.

さらに、この実施例によれば、指示語や特定のオブジェクトに対応付けられた相対言語表現を発話するとともに、指差しの動作を実行することにより、人間のリクエストに応じて、分割した複数の領域の中から選択した1の領域を参照するので、人間と同じようなコミュニケーション行動を実行することができる。   Furthermore, according to this embodiment, a plurality of regions divided according to a human request by speaking a relative language expression associated with an instruction word or a specific object and performing a pointing operation Since one area selected from the above is referred to, communication behavior similar to that of a human can be executed.

なお、この実施例では、ロボットがグリッドマップを生成するようにしたが、ロボット以外の他のコンピュータによってグリッドマップを生成し、これをロボットが取得するようにしてもよい。かかる場合には、距離センサを環境内に設けて、その距離センサから他のコンピュータが距離情報を取得してもよいし、距離情報をロボットが収集し、それを他のコンピュータに送信するようにしてもよい。   In this embodiment, the robot generates the grid map, but the grid map may be generated by a computer other than the robot, and the robot may acquire the grid map. In such a case, a distance sensor may be provided in the environment, and another computer may acquire distance information from the distance sensor, or the distance information may be collected by the robot and transmitted to the other computer. May be.

また、この実施例では、ロボットが領域を分割するようにしたが、領域を分割するまでの処理(図17のステップS1−S7)については、他のコンピュータで実行し、その結果(分割された領域の集合Regions)を受けて、ロボットがその後の処理(図17のステップS9−S15)を実行するようにしてもよい。   Further, in this embodiment, the robot divides the area, but the processing until the area is divided (steps S1 to S7 in FIG. 17) is executed by another computer, and the result (divided) The robot may execute the subsequent processing (steps S9 to S15 in FIG. 17) in response to the set of regions (Regions).

さらに、この実施例では、ロボットは指差し動作をする場合、円を描くように動作(第2動作)させるようにしたが、発話する内容によっては、腕を伸ばした状態を保持するように指差し動作(第1動作)を実行するようにしてもよい。たとえば、「辺」付きの指示語を発話する場合のみ、第2動作を実行し、「辺」付きでない指示語や相対言語表現により発話する場合には、第1動作を実行するようにしてもよい。または、「辺」付きの指示語や相対言語表現により発話する場合には、第2動作を実行し、「辺」付きでない指示語を発話する場合のみ、第1動作を実行するようにしてもよい。   Furthermore, in this embodiment, when the robot performs a pointing operation, the robot is operated to draw a circle (second operation). However, depending on the content of the utterance, the robot may hold the arm extended. You may make it perform insertion operation | movement (1st operation | movement). For example, the second operation is executed only when an instruction word with “side” is uttered, and the first operation is executed when uttering with an instruction word without “side” or a relative language expression. Good. Alternatively, when the utterance is made by an instruction word with “side” or relative language expression, the second operation is executed, and only when the instruction word without “side” is uttered, the first operation is executed. Good.

さらにまた、この実施例では、距離情報をロボットが自身のセンサを用いて予め取得しておくようにしたが、環境にレーザーレンジファインダなどの距離センサを設定して、環境に設置された距離センサから距離情報を取得するようにしてもよい。   Furthermore, in this embodiment, the distance information is acquired in advance by the robot using its own sensor. However, a distance sensor such as a laser range finder is set in the environment, and the distance sensor installed in the environment. You may make it acquire distance information from.

また、この実施例では、伸縮円を描画する際に、各枠に対して90°,270°の傾きの直線を設定するようにしたが、この2つの直線は実質的に同じ直線であるため、いずれか一方については設定しなくてもよい。   Further, in this embodiment, when drawing an expansion / contraction circle, straight lines having inclinations of 90 ° and 270 ° are set for each frame, but these two straight lines are substantially the same straight line. Any one of them may not be set.

10 …コミュニケーションロボット
24,72,74,76,78,80 …モータ
28 …赤外線距離センサ
34 …全方位カメラ
52 …スピーカ
54 …マイク
58 …眼カメラ
60 …CPU
64 …メモリ
66 …モータ制御ボード
68 …センサ入力/出力ボード
70 …音声入力/出力ボード
82 …通信LANボード
16c …加速度センサ
84 …無線通信装置
86 …無線タグ読取装置
DESCRIPTION OF SYMBOLS 10 ... Communication robot 24, 72, 74, 76, 78, 80 ... Motor 28 ... Infrared distance sensor 34 ... Omnidirectional camera 52 ... Speaker 54 ... Microphone 58 ... Eye camera 60 ... CPU
64 ... Memory 66 ... Motor control board 68 ... Sensor input / output board 70 ... Voice input / output board 82 ... Communication LAN board 16c ... Acceleration sensor 84 ... Wireless communication device 86 ... Wireless tag reader

この発明はコミュニケーションロボット、ロボット制御プログラムおよびロボット制御方法に関し、特にたとえば、領域を参照したコミュニケーション行動を実行する、コミュニケーションロボット、ロボット制御プログラムおよびロボット制御方法に関する。 The present invention relates to a communication robot , a robot control program, and a robot control method , and more particularly to a communication robot , a robot control program, and a robot control method that execute a communication action with reference to a region, for example.

それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボット、ロボット制御プログラムおよびロボット制御方法を提供することである。 Another object of the present invention is to provide a novel, co Myunikeshon robot, a robot control program and the robot control method.

また、この発明の他の目的は、人間の質問に応じた領域を選択し、それを指示するので、人間が行っているのと同様のインタラクションを実現することができる、コミュニケーションロボット、ロボット制御プログラムおよびロボット制御方法を提供することである。 Another object of this invention is to select the region corresponding to the human question, since direct it, it is possible to realize the same interaction as the person is performing, co Myunikeshon robot, the robot control It is to provide a program and a robot control method .

第1の発明は、或る環境内に配置され、人間との間で身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する、コミュニケーションロボットであって、環境を複数の領域に分割した分割領域情報を記憶する記憶手段、記憶手段によって記憶された分割領域情報が示す複数の領域のうち、人間の質問に応じた1の領域を選択する領域選択手段、少なくとも、領域選択手段によって選択された1の領域の大きさに応じて、身体動作を決定する動作決定手段、少なくとも、領域選択手段によって選択された1の領域と、自身と、人間との位置関係に応じて、音声の内容を決定する発話内容決定手段、および動作決定手段よって決定された身体動作を実行するとともに、発話内容決定手段によって決定された発話の内容を発話することにより、領域選択手段によって選択された1の領域を人間に指示する指示手段を備える、コミュニケーションロボットである。 1st invention is a communication robot which is arranged in a certain environment, and performs communication action including at least one of a body motion and a voice between humans, and is the divided area which divided the environment into a plurality of areas Storage means for storing information, area selection means for selecting one area corresponding to a human question among a plurality of areas indicated by the divided area information stored by the storage means, at least one selected by the area selection means The action determination means for determining the body movement according to the size of the area, and at least the one area selected by the area selection means, and the content of the sound according to the positional relationship between the person and the person The body motion determined by the utterance content determination means and the motion determination means is executed, and the utterance content determined by the utterance content determination means is uttered The Rukoto comprises instruction means for instructing a region selected by the region selecting means to a human, a communication robot.

第1の発明では、コミュニケーションロボット(10)は、或る環境内に配置され、人間との間で身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する。このコミュニケーションロボットは、記憶手段(64)、領域選択手段(60、S9)、動作決定手段(60、S11、S245)、発話内容決定手段(60、S11、S253、S255、S261)、指示手段(60、S13)を備える。記憶手段は、環境を複数の領域に分割した分割領域情報を記憶する。領域選択手段は、記憶手段によって記憶された分割領域情報が示す複数の領域のうち、人間の質問に応じた1の領域を選択する。たとえば、荷物を置いたり、人を待ったりする場所を聞かれた場合には、各々の場合に応じた1の領域が選択される。動作決定手段は、少なくとも、領域選択手段によって選択された1の領域の大きさに応じて、身体動作を決定する。つまり、選択された1の領域を人間に指示する場合の指示動作が決定される。また、発話内容決定手段は、少なくとも、領域選択手段によって選択された1の領域と、自身と、人間との位置関係に応じて、音声の内容を決定する。指示手段は、動作決定手段よって決定された身体動作を実行するとともに、発話内容決定手段によって決定された発話の内容を発話することにより、領域選択手段によって選択された1の領域を人間に指示する。 In the first invention, the communication robot (10) is arranged in a certain environment and executes communication behavior including at least one of body movement and voice with a human. This communication robot includes a storage means (64), an area selection means (60, S9), an action determination means (60, S11, S245), an utterance content determination means (60, S11, S253, S255, S261), an instruction means ( 60, S13). The storage means stores divided area information obtained by dividing the environment into a plurality of areas. The area selecting unit selects one area corresponding to a human question from among a plurality of areas indicated by the divided area information stored by the storage unit. For example, when asked where to put luggage or wait for a person, one area corresponding to each case is selected. The motion determining means determines the physical motion according to at least the size of one area selected by the area selecting means. That is, an instruction operation for instructing a human to the selected one area is determined. Further, the utterance content determination means determines the content of the sound in accordance with at least the positional relationship between the one area selected by the area selection means, itself, and a person. The instructing means performs the body motion determined by the motion determining means and utters the content of the utterance determined by the utterance content determining means, thereby instructing one person the one area selected by the area selecting means. .

第1の発明によれば、人間の質問に応じた領域を選択し、それを指示するので、人間が行っているのと同様のインタラクションを実現することができる。 According to the first invention, since an area corresponding to a human question is selected and designated, an interaction similar to that performed by a human can be realized.

第2の発明は、第1の発明に従属し、動作決定手段によって決定された身体動作を実行した場合に、領域選択手段によって選択された1の領域のみならず、他の領域も指示する場合に、自身の位置を当該1の領域に近づける第1現在位置更新手段をさらに備える。 The second invention is dependent on the first invention, and indicates not only the one area selected by the area selecting means but also other areas when the body movement determined by the action determining means is executed. In addition, it further includes first current position updating means for bringing its own position closer to the one area.

第2の発明では、コミュニケーションロボットは、第1現在位置更新手段(60、S249、S251、S259)は、動作決定手段によって決定された身体動作を実行した場合に、領域選択手段によって選択された1の領域のみならず、他の領域も指示する場合に、自身の位置を当該1の領域に近づける。 In the second invention, in the communication robot, the first current position update means (60, S249, S251, S259) is selected by the area selection means when the body motion determined by the motion determination means is executed. When not only the above-mentioned area but also other areas are pointed, the position of itself is brought close to the one area.

第2の発明によれば、たとえば、指差しの動作により領域を指示する場合、自身の位置を近づけることにより、当該領域のみを指差すように動作させることができる。したがって、たとえば、ここ、そこ、あそこ、この辺、その辺、あの辺のような指示語を発話したとしても、選択された1の領域を確実に指示することができる。つまり、より人間に近いインタラクションが可能である。 According to the second aspect of the invention, for example, when an area is indicated by a pointing operation, it is possible to operate so that only the area is pointed by bringing its own position closer. Therefore, for example, even if an instruction word such as here, there, over there, this side, that side, or that side is uttered, it is possible to reliably indicate the selected one region. In other words, human-like interaction is possible.

第3の発明は、第1の発明に従属し、特定のオブジェクトに対して割り当てられた割当領域と当該割当領域を指示する場合の言語表現とを含む相対言語情報を記憶する相対言語情報記憶手段、および動作決定手段によって決定された身体動作を実行した場合に、領域選択手段によって選択された1の領域のみならず、他の領域も指示する場合に、1の領域が割当領域に含まれるか否かを判断する領域包含判断手段をさらに備え、発話内容決定手段は、領域包含判断手段によって、1の領域のみが割当領域に含まれることが判断されたとき、当該割当領域を指示する言語表現を音声の内容に決定する。 A third invention is a relative language information storage unit that is dependent on the first invention and stores relative language information including an allocation area allocated to a specific object and a language expression for indicating the allocation area. When the physical motion determined by the motion determining means is executed, if not only one area selected by the area selecting means but also other areas are indicated, is one area included in the allocated area? The utterance content determination means further includes a language expression that indicates the allocation area when it is determined by the area inclusion determination means that only one area is included in the allocation area. Is determined as the audio content.

第3の発明では、コミュニケーションロボットは、相対言語情報記憶手段(64)、および領域包含判断手段(60、S257)をさらに備える。相対言語情報記憶手段は、特定のオブジェクトに対して割り当てられた割当領域と当該割当領域を指示する場合の言語表現とを含む相対言語情報(204g)を記憶する。領域包含判断手段は、動作決定手段によって決定された身体動作を実行した場合に、領域選択手段によって選択された1の領域のみならず、他の領域も指示する場合に(S249で“YES”)、1の領域が割当領域に含まれるか否かを判断する。発話内容決定手段は、領域包含判断手段によって、1の領域のみが割当領域に含まれることが判断されたとき、当該割当領域を指示する言語表現を音声の内容に決定する。 In the third invention, the communication robot further includes relative language information storage means (64) and area inclusion determination means (60, S257). The relative language information storage means stores relative language information (204g) including an allocation area allocated to a specific object and a language expression for indicating the allocation area. The area inclusion determination means, when executing the body movement determined by the movement determination means, indicates not only one area selected by the area selection means but also other areas (“YES” in S249). It is determined whether or not one area is included in the allocation area. The utterance content determination means determines, when the area inclusion determination means determines that only one area is included in the allocation area, the linguistic expression indicating the allocation area as speech content.

第3の発明によれば、身体動作によって選択した1の領域以外の他の領域を指示してしまう場合であっても、当該選択した1の領域のみが割当領域に含まれる場合には、この割当領域を指示する言語表現によって発話するので、確実に選択した1の領域を指示することができる。 According to the third aspect of the invention, even when a region other than the one region selected by physical movement is indicated, when only the selected one region is included in the allocation region, Since the utterance is expressed by the linguistic expression indicating the allocation area, the selected one area can be surely indicated.

第4の発明は、第3の発明に従属し、領域包含判断手段によって、1の領域のみならず、他の領域も包含することが判断された場合に、自身の位置を当該1の領域に近づける第2現在位置更新手段をさらに備える。 The fourth invention is dependent on the third invention, and when it is determined by the area inclusion determination means that not only one area but also other areas are included, its own position is changed to the one area. Second current position updating means for bringing the second current position closer is further provided.

第4の発明では、コミュニケーションロボットは、第2現在位置更新手段(60、S257、S259)をさらに備える。第2現在位置更新手段は、領域包含判断手段によって、1の領域のみならず、他の領域も包含することが判断された場合に(S257で“YES”)、自身の位置を当該1の領域に近づける。 In the fourth invention, the communication robot further includes second current position updating means (60, S257, S259). The second current position update unit determines that the area inclusion determination unit includes not only one area but also other areas (“YES” in S257), and changes the position of the second current position update unit to the first area. Move closer to.

第4の発明においても、第2の発明と同様に、たとえば、指差しの動作により領域を指示する場合、自身の位置を近づけることにより、当該領域のみを指差すように動作させることができる。
第5の発明は、或る環境を複数の領域に分割した分割領域情報を記憶する記憶手段を備え、前記環境内において人間との間で身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行するコミュニケーションロボットのロボット制御プログラムであって、コミュニケーションロボットのコンピュータに、記憶手段に記憶された分割領域情報が示す複数の領域のうち、人間の質問に応じた1の領域を選択する領域選択ステップ、少なくとも、領域選択ステップにおいて選択した1の領域の大きさに応じて、身体動作を決定する動作決定ステップ、少なくとも、領域選択ステップにおいて選択した1の領域と、コミュニケーションロボットと、人間との位置関係に応じて、音声の内容を決定する発話内容決定ステップ、および動作決定ステップにおいて決定した身体動作をコミュニケーションロボットに実行させるとともに、発話内容決定ステップにおいて決定した発話の内容をコミュニケーションロボットに発話させることにより、領域選択ステップにおいて選択した1の領域を人間に指示する指示ステップを実行させる、ロボット制御プログラムである。
第6の発明は、或る環境を複数の領域に分割した分割領域情報を記憶する記憶手段を備え、環境内において人間との間で身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行するコミュニケーションロボットのロボット制御方法であって、コミュニケーションロボットのコンピュータは、(a)記憶手段に記憶された分割領域情報が示す複数の領域のうち、人間の質問に応じた1の領域を選択し、(b)少なくとも、ステップ(a)において選択した1の領域の大きさに応じて、身体動作を決定し、(c)少なくとも、ステップ(a)において選択した1の領域と、コミュニケーションロボットと、人間との位置関係に応じて、音声の内容を決定し、そして(d)ステップ(b)において決定した身体動作をコミュニケーションロボットに実行させるとともに、ステップ(c)において決定した発話の内容をコミュニケーションロボットに発話させることにより、ステップ(a)において選択した1の領域を人間に指示する、ロボット制御方法である。
In the fourth invention as well, as in the second invention, for example, when an area is indicated by a pointing operation, it is possible to operate so that only the area is pointed by approaching its own position.
5th invention is provided with the memory | storage means to memorize | store the division | segmentation area | region information which divided | segmented a certain environment into the several area | region, The communication action containing at least one of a body movement and a voice is performed between humans in the said environment A robot control program for a communication robot, an area selection step for selecting one area corresponding to a human question from a plurality of areas indicated by the divided area information stored in the storage means in the computer of the communication robot, , According to the size of one area selected in the area selection step, the action determination step for determining the body movement, at least according to the positional relationship between the one area selected in the area selection step, the communication robot, and the human Utterance content determination step for determining the audio content, and An instruction step for instructing a human to the one region selected in the region selection step by causing the communication robot to execute the body movement determined in the determination step and causing the communication robot to utter the content of the utterance determined in the utterance content determination step. This is a robot control program that executes
6th invention is provided with the memory | storage means which memorize | stores the division | segmentation area | region information which divided | segmented a certain environment into the some area | region, Communication which performs the communication action containing at least one of a body motion and a sound between humans in an environment A robot control method for a robot, wherein a computer of a communication robot selects (a) one area corresponding to a human question from among a plurality of areas indicated by divided area information stored in a storage unit; ) At least the body motion is determined according to the size of the one area selected in step (a), and (c) at least the one area selected in step (a), the communication robot, and the human The content of the voice is determined according to the positional relationship, and (d) the body movement determined in step (b) is communique. Causes run Deployment robot, by speech contents of spoken determined in step (c) the communication robot, instructs one of the area selected in step (a) in humans, a robot control method.

Claims (12)

少なくともオブジェクトを含む障害物が登録された或る環境を真上から俯瞰的に見た地図情報を記憶する記憶手段、
前記地図情報において任意の直線に沿って中心を有する複数の円を描画する描画手段、
前記描画手段によって描画された複数の円の各々を障害物に接触する直前まで拡大する拡大手段、
前記拡大手段によって拡大された複数の円のうち、同一の直線に沿って中心を有する円同士を結合して1または複数の領域を生成する領域生成手段、
所定のルールに従って、前記領域生成手段によって生成された1または複数の領域から1の領域を抽出する領域抽出手段、および
前記領域抽出手段によって抽出された領域を除く前記地図情報に対して、前記拡大手段、前記領域生成手段、および前記領域抽出手段を繰り返し実行する実行手段を備える、領域分割装置。
Storage means for storing map information in which a certain environment in which an obstacle including at least an object is registered is viewed from above.
A drawing means for drawing a plurality of circles having a center along an arbitrary straight line in the map information;
An enlarging means for enlarging each of the plurality of circles drawn by the drawing means until immediately before contacting the obstacle;
A region generating unit that generates one or a plurality of regions by combining circles having centers along the same straight line among the plurality of circles expanded by the expanding unit;
In accordance with a predetermined rule, an area extracting means for extracting one area from one or a plurality of areas generated by the area generating means, and the expansion for the map information excluding the area extracted by the area extracting means An area dividing device comprising means, means for repeatedly executing the area generating means, and the area extracting means.
前記障害物は、前記環境における床面ないし地面の模様を含む、請求項1記載の領域分割装置。   The area dividing device according to claim 1, wherein the obstacle includes a floor surface or a ground pattern in the environment. 前記地図情報を格子状に分割する分割手段をさらに備え、
前記描画手段は、前記分割手段によって格子状に分割された地図情報の一枠毎に、異なる角度の直線に沿って中心を有する複数の円を描画する、請求項1または2記載の領域分割装置。
Further comprising a dividing means for dividing the map information into a grid pattern;
The area dividing device according to claim 1 or 2, wherein the drawing means draws a plurality of circles having a center along a straight line with a different angle for each frame of the map information divided in a lattice shape by the dividing means. .
前記所定のルールは、特定の点との距離が最も近いことを含む、請求項1ないし3のいずれかに記載の領域分割装置。   The area dividing device according to claim 1, wherein the predetermined rule includes that the distance to a specific point is the shortest. 前記実行手段は、前記領域抽出手段によって抽出された領域の総和が前記地図情報の全範囲のうちの一定を超えるまで、前記拡大手段、前記領域生成手段、および前記領域抽出手段を繰り返し実行する、請求項1ないし4のいずれかに記載の領域分割装置。   The execution means repeatedly executes the enlargement means, the area generation means, and the area extraction means until the total sum of the areas extracted by the area extraction means exceeds a certain of the entire range of the map information. The area dividing device according to claim 1. 少なくともオブジェクトを含む障害物が登録された或る環境を真上から俯瞰的に見た地図情報を記憶する記憶手段を備えるコンピュータのプロセッサに、
前記地図情報において任意の直線に沿って中心を有する複数の円を描画する描画ステップ、
前記描画ステップによって描画された複数の円の各々を障害物に接触する直前まで拡大する拡大ステップ、
前記拡大ステップによって拡大された複数の円のうち、同一の直線に沿って中心を有する円同士を結合して1または複数の領域を生成する領域生成ステップ、
所定のルールに従って、前記領域生成ステップによって生成された1または複数の領域から1の領域を抽出する領域抽出ステップ、および
前記領域抽出ステップによって抽出された領域を除く前記地図情報に対して、前記拡大ステップ、前記領域生成ステップ、および前記領域抽出ステップを繰り返し実行する実行ステップを実行させる、領域分割プログラム。
In a processor of a computer comprising storage means for storing map information obtained by looking down from above on a certain environment in which an obstacle including at least an object is registered,
A drawing step of drawing a plurality of circles having a center along an arbitrary straight line in the map information;
An enlargement step of enlarging each of the plurality of circles drawn by the drawing step until just before contacting the obstacle;
A region generating step of generating one or a plurality of regions by combining circles having centers along the same straight line among the plurality of circles expanded by the expanding step;
In accordance with a predetermined rule, an area extraction step for extracting one area from one or a plurality of areas generated by the area generation step, and the expansion for the map information excluding the area extracted by the area extraction step A region dividing program for executing an execution step of repeatedly executing a step, the region generation step, and the region extraction step.
少なくともオブジェクトを含む障害物が登録された或る環境を真上から俯瞰的に見た地図情報を記憶する記憶手段を備えるコンピュータの領域分割方法であって、
(a)前記地図情報において任意の直線に沿って中心を有する複数の円を描画し、
(b)前記ステップ(a)によって描画された円を障害物に接触する直前まで拡大し、
(c)前記ステップ(b)によって拡大された複数の円のうち、同一の直線に沿って中心を有する円同士を結合して1または複数の領域を生成し、
(d)所定のルールに従って、前記ステップ(c)によって生成された1または複数の領域から1の領域を抽出し、そして
(e)前記ステップ(d)によって抽出された領域を除く前記地図情報に対して、前記ステップ(b)、前記ステップ(c)、および前記ステップ(d)を繰り返し実行する、領域分割方法。
An area dividing method of a computer comprising storage means for storing map information obtained by looking down from above on a certain environment in which an obstacle including at least an object is registered,
(A) Draw a plurality of circles having a center along an arbitrary straight line in the map information;
(B) Magnify the circle drawn in step (a) until just before contacting the obstacle;
(C) Among the plurality of circles enlarged in the step (b), circles having centers along the same straight line are combined to generate one or a plurality of regions,
(D) extracting one area from one or more areas generated by the step (c) according to a predetermined rule; and (e) adding to the map information excluding the area extracted by the step (d). On the other hand, a region dividing method in which the step (b), the step (c), and the step (d) are repeatedly executed.
請求項1ないし5のいずれかに記載する領域分割装置を備える、コミュニケーションロボット。   A communication robot comprising the area dividing device according to claim 1. 或る環境内に配置され、人間との間で身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する、コミュニケーションロボットであって、
前記環境を複数の領域に分割した分割領域情報を記憶する記憶手段、
前記記憶手段によって記憶された分割領域情報が示す複数の領域のうち、前記人間の質問に応じた1の領域を選択する領域選択手段、
少なくとも、前記領域選択手段によって選択された1の領域の大きさに応じて、前記身体動作を決定する動作決定手段、
少なくとも、前記領域選択手段によって選択された1の領域と、自身と、前記人間との位置関係に応じて、前記音声の内容を決定する発話内容決定手段、および
前記動作決定手段よって決定された身体動作を実行するとともに、前記発話内容決定手段によって決定された発話の内容を発話することにより、前記領域選択手段によって選択された1の領域を前記人間に指示する指示手段を備える、コミュニケーションロボット。
A communication robot that is arranged in an environment and performs communication behavior with human beings including at least one of body movement and voice,
Storage means for storing divided area information obtained by dividing the environment into a plurality of areas;
An area selecting means for selecting one area corresponding to the human question among a plurality of areas indicated by the divided area information stored by the storage means;
Motion determining means for determining the body motion according to at least the size of one area selected by the area selecting means;
At least one region selected by the region selecting unit, and the speech content determining unit that determines the content of the voice according to the positional relationship between itself and the person, and the body determined by the motion determining unit A communication robot, comprising: an instruction unit that performs an operation and instructs the human to one region selected by the region selection unit by speaking the content of the utterance determined by the utterance content determination unit.
前記動作決定手段によって決定された身体動作を実行した場合に、前記領域選択手段によって選択された1の領域のみならず、他の領域も指示する場合に、自身の位置を当該1の領域に近づける第1現在位置更新手段をさらに備える、請求項9記載のコミュニケーションロボット。   When the body motion determined by the motion determining means is executed, when not only the one area selected by the area selecting means but also other areas are indicated, the position of itself is brought close to the one area. The communication robot according to claim 9, further comprising first current position updating means. 特定のオブジェクトに対して割り当てられた割当領域と当該割当領域を指示する場合の言語表現とを含む相対言語情報を記憶する相対言語情報記憶手段、および
前記動作決定手段によって決定された身体動作を実行した場合に、前記領域選択手段によって選択された1の領域のみならず、他の領域も指示する場合に、前記1の領域が前記割当領域に含まれるか否かを判断する領域包含判断手段をさらに備え、
前記発話内容決定手段は、前記領域包含判断手段によって、前記1の領域のみが前記割当領域に含まれることが判断されたとき、当該割当領域を指示する言語表現を前記音声の内容に決定する、請求項9記載のコミュニケーションロボット。
Relative language information storage means for storing relative language information including an assignment area assigned to a specific object and a linguistic expression for indicating the assignment area, and a physical action determined by the action determination means In this case, when including not only one area selected by the area selecting means but also other areas, area inclusion determining means for determining whether or not the one area is included in the allocated area. In addition,
The utterance content determination means determines, when the area inclusion determination means determines that only the one area is included in the allocation area, a language expression indicating the allocation area as the content of the speech. The communication robot according to claim 9.
前記領域包含判断手段によって、前記1の領域のみならず、他の領域も包含することが判断された場合に、自身の位置を当該1の領域に近づける第2現在位置更新手段をさらに備える、請求項11記載のコミュニケーションロボット。   When the area inclusion determining means determines that not only the first area but also other areas are included, the apparatus further comprises second current position updating means for bringing the position of the area closer to the first area. Item 12. The communication robot according to Item 11.
JP2013182834A 2013-09-04 2013-09-04 Communication robot, robot control program, and robot control method Pending JP2013239209A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013182834A JP2013239209A (en) 2013-09-04 2013-09-04 Communication robot, robot control program, and robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013182834A JP2013239209A (en) 2013-09-04 2013-09-04 Communication robot, robot control program, and robot control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010041839A Division JP5391505B2 (en) 2010-02-26 2010-02-26 Area dividing device, area dividing program, area dividing method, and communication robot

Publications (1)

Publication Number Publication Date
JP2013239209A true JP2013239209A (en) 2013-11-28

Family

ID=49764115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013182834A Pending JP2013239209A (en) 2013-09-04 2013-09-04 Communication robot, robot control program, and robot control method

Country Status (1)

Country Link
JP (1) JP2013239209A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106182029A (en) * 2016-08-15 2016-12-07 广东技术师范学院 A kind of medical service robot
EP3300841A1 (en) 2016-09-29 2018-04-04 Toyota Jidosha Kabushiki Kaisha Communication device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006231497A (en) * 2005-02-28 2006-09-07 Advanced Telecommunication Research Institute International Communication robot
JP2007249427A (en) * 2006-03-14 2007-09-27 Honda Motor Co Ltd Information management system
JP2007265329A (en) * 2006-03-30 2007-10-11 Advanced Telecommunication Research Institute International Route guidance system
JP2009166184A (en) * 2008-01-17 2009-07-30 Saitama Univ Guide robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006231497A (en) * 2005-02-28 2006-09-07 Advanced Telecommunication Research Institute International Communication robot
JP2007249427A (en) * 2006-03-14 2007-09-27 Honda Motor Co Ltd Information management system
JP2007265329A (en) * 2006-03-30 2007-10-11 Advanced Telecommunication Research Institute International Route guidance system
JP2009166184A (en) * 2008-01-17 2009-07-30 Saitama Univ Guide robot

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200700218003; 杉山 治、外5名: '"コミュニケーションロボットのための指さしと指示語を用いた3段階注意誘導モデル"' 日本ロボット学会誌 Vol.24, No.8, 20061115, p.76-87, 社団法人日本ロボット学会 *
CSNG200800247006; 杉山 治、外5名: '"人とコミュニケーションロボットの直示的な会話の実現"' ヒューマンインタフェース学会誌 Vol.10, no.1, 20080225, p.73-86, 特定非営利活動法人ヒューマンインタフェース学会 *
JPN6014015364; 杉山 治、外5名: '"人とコミュニケーションロボットの直示的な会話の実現"' ヒューマンインタフェース学会誌 Vol.10, no.1, 20080225, p.73-86, 特定非営利活動法人ヒューマンインタフェース学会 *
JPN6014015366; 杉山 治、外5名: '"コミュニケーションロボットのための指さしと指示語を用いた3段階注意誘導モデル"' 日本ロボット学会誌 Vol.24, No.8, 20061115, p.76-87, 社団法人日本ロボット学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106182029A (en) * 2016-08-15 2016-12-07 广东技术师范学院 A kind of medical service robot
EP3300841A1 (en) 2016-09-29 2018-04-04 Toyota Jidosha Kabushiki Kaisha Communication device
US10576633B2 (en) 2016-09-29 2020-03-03 Toyota Jidosha Kabushiki Kaisha Communication device

Similar Documents

Publication Publication Date Title
CN108885459B (en) Navigation method, navigation system, mobile control system and mobile robot
JP7377837B2 (en) Method and system for generating detailed environmental data sets through gameplay
JP5366048B2 (en) Information provision system
JP5318623B2 (en) Remote control device and remote control program
KR102582863B1 (en) Electronic device and method for recognizing user gestures based on user intention
CN107007437A (en) Interactive blind person's householder method and equipment
US20190184569A1 (en) Robot based on artificial intelligence, and control method thereof
JP2009011362A (en) Information processing system, robot apparatus, and its control method
KR20120067013A (en) Apparatus and method for indoor localization based on camera
JP7375748B2 (en) Information processing device, information processing method, and program
JP2009241166A (en) Robot remote operation system
Kandalan et al. Techniques for constructing indoor navigation systems for the visually impaired: A review
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
JP5391505B2 (en) Area dividing device, area dividing program, area dividing method, and communication robot
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
JP6134894B2 (en) Robot control system and robot
JP4962940B2 (en) Route guidance system
JP2006127355A (en) Position estimation system for radio tag
JP2006231497A (en) Communication robot
JP2018173707A (en) Person estimation system and estimation program
JP2013239209A (en) Communication robot, robot control program, and robot control method
JP5891553B2 (en) Route perspective model construction method and robot
KR101100240B1 (en) System for object learning through multi-modal interaction and method thereof
JP2017170568A (en) Service providing robot system
CN113056315B (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141007