JP2008254122A - Robot - Google Patents
Robot Download PDFInfo
- Publication number
- JP2008254122A JP2008254122A JP2007099175A JP2007099175A JP2008254122A JP 2008254122 A JP2008254122 A JP 2008254122A JP 2007099175 A JP2007099175 A JP 2007099175A JP 2007099175 A JP2007099175 A JP 2007099175A JP 2008254122 A JP2008254122 A JP 2008254122A
- Authority
- JP
- Japan
- Prior art keywords
- person
- utterance
- robot
- information
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、人間と対話可能なロボットに係り、特に、自律移動可能なロボットに関するものである。 The present invention relates to a robot capable of interacting with a human, and more particularly to a robot capable of autonomous movement.
従来、入力される人間の音声を認識し、予め定められた情報を音声として出力することで人間と対話可能なロボットが知られている(例えば、特許文献1および特許文献2参照)。
特許文献1に記載のロボットは、ユーザに向かって能動的かつ積極的にインターネット上の情報を発信する対話型のロボット装置である。このロボットは、ユーザが対話不可能な領域に存在することを検知した場合や、ユーザが対話可能な領域に存在していることを検知しているがユーザの発話を検知できない場合には、動き部位を操作し、反応的ではない自発的動作を行わせ、ユーザの注意を引き、ユーザのロボットへの接近を誘発する。また、このロボットは、ユーザが発話する場合には、テキストの出力やブラウザの動作を停止させてユーザの発話を優先する。
Conventionally, there is known a robot capable of interacting with a human by recognizing an input human voice and outputting predetermined information as a voice (see, for example,
The robot described in
特許文献2に記載の対話装置は、データベースに格納される動作情報やCPUの演算処理結果を動作により提示するロボットを備え、対話相手の音声および身体動作に基づいて判定されるタイミングで音声を出力するものである。具体的には、対話装置は、2人の人間が実際に対話したときの音声および身体動作と発話権の交代との相関を分析した結果を利用して人間側の発話権委譲を検出し、そのタイミングで発話することで自然で円滑な対話を図っている。
しかしながら、特許文献1または特許文献2に記載のロボットは、対話を積極的に行ったり、インターネット上の情報を積極的に発信したりするものなので、想定された利用環境や使用状況と異なる場合に、想定どおりの発話を行うと利用者が不満を感じる場合が考えられる。例えば、騒々しい場所で使用されていた装置を静かな場所に移動させて使用した場合には、装置の発話音量を下げるために利用者が設定を変更しなければならない。また、友好的で親しみのある口調で発話していた装置をビジネスに転用した場合には、ビジネス用の口調とするために利用者が設定を変更しなければならない。そのため、装置が実際に利用される場所などの周囲の環境や対象とする人物の状況、人物からの反応に応じた行動を自律的に制御できるロボットが要望されている。
However, since the robot described in
そこで、本発明では、前記した問題を解決し、周囲の環境や人物の状況、人物からの反応に応じた行動を自律的に制御することができるロボットを提供することを目的とする。 Therefore, an object of the present invention is to provide a robot that solves the above-described problems and can autonomously control the behavior according to the surrounding environment, the situation of the person, and the reaction from the person.
本発明は、前記目的を達成するために創案されたものであり、本発明のうち請求項1に記載のロボットは、予め設定された地図上における当該ロボットの現在位置を検出する現在位置検出手段と、コミュニケーションを行う対象とする人物を撮影手段で撮影した撮影画像から前記人物の状況を判別可能に画像処理する画像処理手段と、音声から前記人物の状況を判別可能に音声認識すると共に発話を行う音声処理手段と、前記発話を行う前に前記対象とする人物へのアプローチ行動を制御するアプローチ行動制御手段とを有したロボットであって、予め設定された当該ロボットの発話の可否、発話音量および発話口調のうちの少なくとも1つを示す発話出力情報と前記地図上の位置を示す位置情報とを対応付けて作成された地図データと、前記発話出力情報と予めそれぞれ設定された人物の状況を示す画像条件および人物からの反応を示す音声条件とを対応付けて作成された人物状況データとを記憶する記憶手段を備え、前記アプローチ行動制御手段が、検出された現在位置に対応する発話出力情報を前記地図データから当該ロボットの環境に起因した情報として検出する環境情報検出手段と、前記予め設定された画像条件と前記撮影画像の処理結果および前記音声認識の結果とに基づいて、前記対象とする人物の状況を判別する人状況判別手段と、前記人状況判別手段で判別された人物の状況に対応する発話出力情報を前記人物状況データから抽出し、前記抽出した発話出力情報と前記環境情報検出手段で検出された発話出力情報とに基づいて、前記対象とする人物に対する発話の可否、発話音量および発話口調のうちの少なくとも1つを決定する応対行動制御手段とを備えることを特徴とする。
The present invention was devised to achieve the above object, and the robot according to
かかる構成によれば、ロボットは、発話を行う前に対象とする人物へのアプローチ行動を制御するために、応対行動制御手段によって、現在位置に対応して検出された発話出力情報と、人物の状況および人物からの反応に対応して抽出された発話出力情報とに基づいて、対象とする人物に対する発話の可否、発話音量および発話口調のうちの少なくとも1つを決定する。したがって、ロボットは、現在位置する場所と、対象とする人物の現在撮像された画像が示す状況およびその人物の現在の発話状況とに応じて、発話の可否、発話音量、発話口調を変更することができる。ここで、発話の可否において、発話の不可とは、発声(say)を不可とするものではなく、話しをすること(talk)を不可とすることを示す。 According to such a configuration, the robot controls the approach behavior to the target person before speaking, and the speech output information detected corresponding to the current position by the response behavior control means, Based on the situation and the utterance output information extracted in response to the reaction from the person, at least one of utterance availability, utterance volume and utterance tone for the target person is determined. Therefore, the robot can change the availability of the utterance, the utterance volume, and the utterance tone according to the current position, the situation indicated by the currently captured image of the target person, and the current utterance situation of the person. Can do. Here, in the possibility of utterance, “impossibility of utterance” does not mean that utterance is not prohibited, but indicates that talking is not possible.
また、請求項2に記載のロボットは、請求項1に記載のロボットであって、当該ロボットの周囲の騒音を測定して騒音のレベルを検出する騒音測定手段をさらに備え、前記地図データが、予め設定された騒音のレベルごとに前記発話出力情報が前記位置情報と対応付けて作成され、前記環境情報検出手段が、検出された現在位置および検出された騒音のレベルに対応する発話出力情報を前記予め設定された騒音のレベルごとに作成された地図データから当該ロボットの環境に起因した情報として検出することを特徴とする。
The robot according to
かかる構成によれば、ロボットは、現在位置する場所と、その場所で測定された騒音と、対象とする人物の現在撮像された画像が示す状況および人物からの反応に応じて、発話の可否、発話音量、発話口調を変更することができる。つまり、場所に依存したロボットの発話出力情報は、位置情報と騒音を考慮して適切に定められる。したがって、例えば、日常的には音量を低下する制御を行うべき静かな場所が、特別な用途に供されて騒々しい場所となっている場合には、ロボットは、音量をそのまま維持する制御または音量を高くする制御を行うことができる。 According to such a configuration, the robot determines whether or not to speak depending on the current position, the noise measured at the location, the situation indicated by the currently captured image of the target person, and the reaction from the person, The utterance volume and utterance tone can be changed. That is, the utterance output information of the robot depending on the location is appropriately determined in consideration of the position information and noise. Therefore, for example, when a quiet place where the control for reducing the volume is to be performed on a daily basis is a noisy place that is used for a special purpose, the robot performs control for maintaining the volume as it is or Control to increase the volume can be performed.
また、請求項3に記載のロボットは、請求項1または請求項2に記載のロボットであって、前記応対行動制御手段が、前記人物状況データから抽出した発話出力情報と、前記環境情報検出手段で検出された発話出力情報とを比較し、両者が異なる場合に、各発話出力情報を数値化して重み付けを行って統合した統合値を算出し、前記算出された統合値が予め設定された発話の許可を示す設定値より小さい場合に、前記人物への発話を許可する行動統括制御手段と、前記人物への発話が許可された場合に、前記統合値に基づいて発話音量のレベルの調整または発話口調の切り替えを行う発話レベル調整手段とを備えることを特徴とする。
The robot according to
かかる構成によれば、ロボットは、現在位置する場所に応じた発話出力情報と、対象とする人物の現在撮像された画像が示す状況および人物からの反応に応じた発話出力情報とがたとえ異なっていても、それらの統合値を算出する。そして、ロボットは、算出された統合値に基づいて、発話が許可されているときに発話音量のレベルの調整または発話口調の切り替えを行う。ここで、ロボットは、発話が許可されているときに、ロボットが実際に発話を行う位置から対象とする人物のいる位置までの距離をも加味して発話音量のレベルを調整することができる。 According to such a configuration, in the robot, the utterance output information corresponding to the current location is different from the utterance output information corresponding to the situation indicated by the currently captured image of the target person and the reaction from the person. Even those integrated values are calculated. Then, the robot adjusts the level of the utterance volume or switches the utterance tone when utterance is permitted based on the calculated integrated value. Here, when the utterance is permitted, the robot can adjust the level of the utterance volume in consideration of the distance from the position where the robot actually utters to the position where the target person is located.
また、請求項4に記載のロボットは、請求項3に記載のロボットであって、当該ロボットの胴部にそれぞれ接続された頭部、腕部および脚部のうちの少なくとも1つの部位を駆動する駆動手段に駆動信号を出力して前記少なくとも1つの部位を自律的に移動させる自律移動制御手段と、所定の発話を行うときに前記少なくとも1つの部位を移動させる身体動作である身振りを指定する予め作成されたシナリオを記憶するシナリオ記憶手段と、前記対象とする人物に対して行う発話に対応した身振りを前記シナリオから抽出し、前記抽出した身振りを指定するコマンドを前記自律移動制御手段に出力する身振り統合手段と、前記発話レベル調整手段で発話音量のレベルが調整された場合に、前記調整された発話音量のレベルに比例させて前記コマンドとして指定される身振りによる前記部位の移動幅を調整する身振り調整手段とをさらに備えることを特徴とする。 According to a fourth aspect of the present invention, there is provided the robot according to the third aspect, wherein the robot drives at least one of a head, an arm, and a leg connected to the torso of the robot. An autonomous movement control means for autonomously moving the at least one part by outputting a drive signal to the drive means, and predesignating gestures that are physical actions for moving the at least one part when performing a predetermined utterance Scenario storage means for storing the created scenario, and gestures corresponding to utterances made to the target person are extracted from the scenario, and a command for specifying the extracted gestures is output to the autonomous movement control means When the speech volume level is adjusted by the gesture integration unit and the utterance level adjustment unit, the volume is adjusted in proportion to the adjusted utterance volume level. Wherein the by gestures specified further comprising a gesture adjusting means for adjusting the movement width of the site as a command.
かかる構成によれば、ロボットは、発話音量のレベルが調整された場合に、調整された発話音量のレベルに比例させて身振りによる各部位の移動幅を調整する。したがって、ロボットは、比較的低い発話音量のときに比較的小さな移動幅の身振りを行い、比較的高い発話音量のときに比較的大きな移動幅の身振りを行う。そのため、ロボットの発話中の身振りが自然なものとなる。ここで、身振りには、発話内容に伴う様々な意思表示を行うために、頭部を傾ける動作、腕部を上げたり広げたりする動作、脚部を上下移動する動作等が含まれる。 According to this configuration, when the level of the utterance volume is adjusted, the robot adjusts the movement width of each part by gesture in proportion to the adjusted level of the utterance volume. Therefore, the robot performs gestures with a relatively small movement width when the speech volume is relatively low, and performs gestures with a relatively large movement width when the speech volume is relatively high. Therefore, gestures during the utterance of the robot become natural. Here, the gesture includes an action of tilting the head, an action of raising and spreading the arm part, an action of moving the leg part up and down, etc. in order to display various intentions according to the utterance content.
また、請求項5に記載のロボットは、請求項1ないし請求項4のいずれか一項に記載のロボットであって、前記画像処理手段が、前記撮影画像から前記対象とする人物の顔領域を抽出する顔認識手段と、前記抽出された顔領域から前記対象とする人物の視線方向を検出する視線検出手段とを有し、前記対象とする人物に対して所定の話題に関する発話を開始した後に前記視線検出手段で検出された視線方向を数値化した興味度を算出し、前記算出した興味度が上昇したか否かを判別し、前記興味度が上昇した場合に前記人物が前記話題に興味を有していると判定すると共に、前記判別結果を記録する興味推定手段と、前記興味度が下降した場合に、前記所定の話題に関する発話を中断する話題制御手段とをさらに備えることを特徴とする。 A robot according to a fifth aspect is the robot according to any one of the first to fourth aspects, wherein the image processing means extracts a face area of the target person from the captured image. A face recognizing means for extracting, and a line-of-sight detecting means for detecting a line-of-sight direction of the target person from the extracted face area, and after uttering a predetermined topic to the target person An interest level obtained by quantifying the gaze direction detected by the line-of-sight detection means is calculated, it is determined whether or not the calculated interest level has increased, and the person is interested in the topic when the interest level has increased. And an interest estimation unit that records the determination result, and a topic control unit that interrupts utterances related to the predetermined topic when the degree of interest decreases. To do.
かかる構成によれば、ロボットは、対象とする人物に所定の話題に関する発話を行った後に、その人物の視線方向から興味度を算出し、興味度が上昇した話題に関する情報を取得することができる。一般に、人は発話者の話す内容に興味を持っているときに視線を発話者の方へ向けるので、ロボットが話題を音声出力した後で検出された人物の視線方向は、音声出力された話題に関するその人物の興味を反映することとなる。したがって、算出された興味度は、人物の興味を反映するものとなる。また、興味度が下降した場合、具体的には、人物がロボットから視線をそむけた場合には、ロボットは、発話中の話題を提供することを中断する。したがって、ロボットから話題を提供された人物は、興味の無い話題を聞き続けなくてよいので、ロボットに親しみを感じ易くなる。 According to such a configuration, the robot can utter an utterance related to a predetermined topic to the target person, and then calculate the degree of interest from the gaze direction of the person and acquire information on the topic whose degree of interest has increased. . In general, when a person is interested in what the speaker speaks, the gaze direction is directed toward the speaker. Will reflect the person's interest in Therefore, the calculated interest level reflects the interest of the person. In addition, when the degree of interest decreases, specifically, when a person turns away the line of sight from the robot, the robot stops providing the topic being spoken. Therefore, a person who is provided with a topic from the robot does not have to keep listening to a topic that is not interested in, and thus it is easy to feel familiar with the robot.
また、請求項6に記載のロボットは、請求項1ないし請求項4のいずれか一項に記載のロボットであって、前記音声処理手段が、入力音声から前記対象とする人物の音声の音量、音質、話速のうちの少なくとも1つを示す人物発話情報を検出する発話情報検出手段を有し、前記対象とする人物に対して所定の話題に関する発話を開始した後に前記音声処理手段で音声認識された認識結果または前記発話情報検出手段で検出された人物発話情報を数値化した興味度を算出し、前記算出した興味度が上昇したか否かを判別し、前記興味度が上昇した場合に前記人物が前記話題に興味を有していると判定すると共に、前記判別結果を記録する興味推定手段と、前記興味度が下降した場合に、前記所定の話題に関する発話を中断する話題制御手段とをさらに備えることを特徴とする。
Moreover, the robot according to
かかる構成によれば、ロボットは、対象とする人物に所定の話題に関する発話を行った後に、その人物の音声から検出された人物発話情報から興味度を算出し、興味度が上昇した話題に関する情報を取得することができる。人は対話中の相手の話す内容に対する興味を失うと、相手に返す返事の音声の音量が小さくなったり、音質が低くなったり、話速が遅くなったりするので、ロボットが話題を音声出力した後で検出された人物発話情報は、音声出力された話題に関するその人物の興味を反映することとなる。したがって、算出された興味度は、人物の興味を反映するものとなる。また、興味度が下降した場合、具体的には、人物の返事の音声の音量が小さくなったり、音質が低くなったり、話速が遅くなった場合には、ロボットは、発話中の話題を提供することを中断する。したがって、ロボットから話題を提供された人物は、興味の無い話題を聞き続けなくてよいので、ロボットに親しみを感じ易くなる。 According to such a configuration, the robot performs an utterance on a predetermined topic to a target person, calculates an interest level from the person utterance information detected from the voice of the person, and information on the topic whose degree of interest has increased. Can be obtained. When a person loses interest in what the other party is talking to, the volume of the reply voice returned to the other party becomes lower, the sound quality is lower, or the speaking speed is slower. The person utterance information detected later reflects the person's interest regarding the topic that has been voiced. Therefore, the calculated interest level reflects the interest of the person. In addition, when the interest level decreases, specifically, when the volume of the answering voice of the person decreases, the sound quality decreases, or the speaking speed slows down, the robot selects the topic being spoken. Suspend providing. Therefore, a person who is provided with a topic from the robot does not have to keep listening to a topic that is not interested in, and thus it is easy to feel familiar with the robot.
また、請求項7に記載のロボットは、請求項5または請求項6に記載のロボットであって、複数の話題を記憶した人物情報記憶手段をさらに備え、前記話題制御手段が、前記興味度に基づいて、前記人物情報記憶手段に記憶された話題を切り替え、前記対象とする人物に対して前記切り替えた話題に関する発話を行うことを特徴とする。
The robot according to
かかる構成によれば、ロボットは、複数の話題を記憶し、対象とする人物に発話を行った後に取得した情報から算出した興味度の変化に合わせて提供する話題を切り替える。したがって、ロボットは、対話中の興味度に基づいて、対話相手の嗜好する話題を推定して発話することができる。 According to this configuration, the robot stores a plurality of topics, and switches the topics to be provided according to the change in the degree of interest calculated from the information acquired after speaking to the target person. Therefore, the robot can estimate a topic preferred by the conversation partner based on the degree of interest during the conversation and speak.
請求項1に記載の発明によれば、ロボットは、周囲の環境や人物の状況に応じた行動を自律的に制御することができる。
請求項2に記載の発明によれば、ロボットは、同じ場所であっても騒音に依存して異なる方法で発話を行うことが可能となる。
請求項3に記載の発明によれば、ロボットは、周囲の環境に応じて定められた行動と人物の状況に応じて定められた行動とを統合することができる。
請求項4に記載の発明によれば、ロボットは、発話音量の変化に対して自然な身振りを行うことができる。
According to the first aspect of the present invention, the robot can autonomously control the behavior according to the surrounding environment and the situation of the person.
According to the second aspect of the present invention, the robot can speak in a different manner depending on noise even at the same place.
According to the invention described in
According to the fourth aspect of the present invention, the robot can perform natural gestures against changes in the utterance volume.
請求項5または請求項6に記載の発明によれば、ロボットは、対話相手の話題に対する興味に関する情報を定量的に取得することができる。
請求項7に記載の発明によれば、ロボットは、対話相手の嗜好する話題を推定して発話するので、対話相手である人物がロボットに好意や親しみを感じ易くなる。また、ロボットは、話題を切り替えて人物との会話を継続させることによってその人物の嗜好等の情報を効果的に収集することができる。
According to the invention described in
According to the seventh aspect of the present invention, since the robot utters by estimating the topic preferred by the conversation partner, the person who is the conversation partner can easily feel the friendliness and friendliness of the robot. Further, the robot can effectively collect information such as the preference of the person by switching the topic and continuing the conversation with the person.
以下、図面を参照して本発明のロボットを実施するための最良の形態(以下「実施形態」という)について詳細に説明する。まず、本発明の実施形態に係るロボットを含むロボット制御システムAの全体構成について図1を参照して説明する。図1は、本発明の実施形態に係るロボットを含むロボット制御システムの構成を模式的に示す図である。 Hereinafter, the best mode for carrying out the robot of the present invention (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings. First, an overall configuration of a robot control system A including a robot according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram schematically showing a configuration of a robot control system including a robot according to an embodiment of the present invention.
(ロボット制御システムAの構成)
図1に示すように、ロボット制御システムAは、ロボットRと、このロボットRと無線通信によって接続された基地局1と、この基地局1とロボット専用ネットワーク2を介して接続された管理用コンピュータ3と、この管理用コンピュータ3にネットワーク4を介して接続された端末5とから構成される。
(Configuration of robot control system A)
As shown in FIG. 1, a robot control system A includes a robot R, a
図1に示すように、このロボット制御システムAは、移動機能を備えた複数のロボットRA,RB,RC(ただし、ロボットを特定しない場合は、単にロボットRという)を有しており、各ロボットRは、管理用コンピュータ3においてロボットR毎に予め設定されたタスクの実行計画(タスクスケジュール)に従って、タスクを実行する。
As shown in FIG. 1, the robot control system A has a plurality of robots R A , R B , and R C having a moving function (however, when a robot is not specified, it is simply referred to as a robot R). Each robot R executes a task in accordance with a task execution plan (task schedule) preset for each robot R in the
ここでは、自律移動型の2足歩行ロボットを一例として説明する。
ロボットRは、管理用コンピュータ3から入力された実行命令に従ってタスクを実行するものであり、ロボットRがタスクを実行する領域として予め設定されたタスク実行エリア内に、少なくとも一台配置されている。
ここで、図1には、来訪者を会議室などの所定の場所に案内するという内容のタスク(案内タスク)を実行中のロボットRAと、荷物をある人に渡すという内容のタスク(荷物配達タスク)を実行中のロボットRBと、新たなタスクが割り当てられるまで待機中のロボットRCとが、例示されている。
Here, an autonomous mobile biped robot will be described as an example.
The robot R executes a task in accordance with an execution command input from the
Here, FIG. 1 shows a robot RA that is executing a task (guidance task) that guides a visitor to a predetermined place such as a conference room, and a task (package) that delivers a package to a person. A robot R B executing the delivery task) and a robot R C waiting until a new task is assigned are illustrated.
ロボットRは、図2に示すように、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5を有しており、胴部R4にそれぞれ接続された頭部R1、腕部R2、脚部R3は、それぞれアクチュエータ(駆動手段)により駆動され、自律移動制御部50(図6参照)により2足歩行の制御がなされる。この2足歩行についての詳細は、例えば、特開2001−62760号公報に開示されている。 As shown in FIG. 2, the robot R has a head R1, an arm R2, a leg R3, a torso R4, and a rear housing R5, and the head R1 and arms connected to the torso R4, respectively. The part R2 and the leg part R3 are each driven by an actuator (driving means), and bipedal walking is controlled by the autonomous movement control part 50 (see FIG. 6). Details of this bipedal walking are disclosed in, for example, Japanese Patent Application Laid-Open No. 2001-62760.
このロボットRは、例えば、案内タスクを実行するときには、人物Hを所定の案内領域(オフィスや廊下などの移動領域)で案内する。ここでは、ロボットRは、周囲に光(例えば、赤外光、紫外光、レーザ光など)および電波を発信して周辺領域に、タグTを備えた人物Hが存在するか否かを検知し、検知した人物Hの位置を特定して接近し、タグTに基づいて、人物Hが誰であるのかという個人識別を行う。このタグTは、ロボットRが人物の位置(距離および方向)を特定するために発する赤外光および電波を受信する。このタグTは、受信した赤外光に含まれる受光方向を示す信号と、受信した電波に含まれるロボットIDとに基づいて、タグ識別番号を含む受信報告信号を生成し、当該ロボットRに返信する。この受信報告信号を受信したロボットRは、受信報告信号に基づいて、タグTを装着した人物Hまでの距離と方向とを認識し、当該人物Hに接近することができる。 For example, when executing a guidance task, the robot R guides the person H in a predetermined guidance area (a movement area such as an office or a corridor). Here, the robot R detects whether or not the person H having the tag T exists in the peripheral area by transmitting light (for example, infrared light, ultraviolet light, laser light, etc.) and radio waves to the surroundings. Then, the position of the detected person H is specified and approached, and based on the tag T, personal identification as to who the person H is is performed. The tag T receives infrared light and radio waves emitted from the robot R to specify the position (distance and direction) of the person. The tag T generates a reception report signal including a tag identification number based on the signal indicating the light receiving direction included in the received infrared light and the robot ID included in the received radio wave, and returns it to the robot R. To do. The robot R that has received the reception report signal can recognize the distance and direction to the person H wearing the tag T based on the reception report signal, and can approach the person H.
ロボットRは、あるタスク(例えば案内タスクや荷物配達タスクなど)を実行するために案内領域内を自律移動する場合に、レーザスリット光または赤外線を照射して、路面状態あるいは路面上のマークを探索するようになっている。すなわち、ロボットRは、自己が移動領域内のどこを移動しているかを把握し、通常の移動領域内にいる場合はレーザスリット光を路面に照射して路面の段差、うねり、障害物の有無などを検出し、マークMの設置領域内にいる場合は、赤外線を路面に照射してマークMを検出し、自己位置の確認・補正などを行うようになっている。ここで、マークMは、例えば赤外線を再帰的に反射する反射材料で構成された部材である。また、マークMは位置データを有しており、当該位置データは地図データに含まれる形で記憶部30(図6参照)に記憶されている。なお、地図データは、案内領域内の特定の場所に設置されたマークMの位置データと、当該位置データに所定の幅(範囲)を持たせたマークMの設置領域に関するデータとを含んでいる。また、マークMの設置領域とは、マークMから所定距離の範囲内にある領域をいい、例えば、マークMを中心とした半径1〜3mの円形領域や、マークMの手前(ロボット側)3mの矩形領域などのように任意に設定される。 When the robot R autonomously moves within the guidance area to execute a certain task (for example, a guidance task or a package delivery task), the robot R irradiates laser slit light or infrared rays to search for a road surface state or a mark on the road surface. It is supposed to be. In other words, the robot R knows where the robot is moving in the moving area, and when in the normal moving area, the robot R irradiates the road surface with laser slit light to check for road steps, swells, and obstacles. When the mark M is within the installation area of the mark M, the mark M is detected by irradiating the road surface with infrared rays, and the self position is confirmed and corrected. Here, the mark M is a member made of a reflective material that recursively reflects infrared rays, for example. The mark M has position data, and the position data is stored in the storage unit 30 (see FIG. 6) in a form included in the map data. The map data includes the position data of the mark M installed at a specific location in the guidance area and the data related to the installation area of the mark M having a predetermined width (range) in the position data. . The mark M installation area refers to an area within a predetermined distance from the mark M. For example, a circular area having a radius of 1 to 3 m around the mark M, or 3 m before the mark M (robot side). It is arbitrarily set like a rectangular area.
図1に戻って、ロボット制御システムAの構成の説明を続ける。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を仲介するものである。
具体的には、基地局1は、管理用コンピュータ3から出力された実行命令をロボットRに送信すると共に、ロボットRから送信されたロボットRの状態に関するデータ(ステータス情報)やロボットRが実行命令を受信したことを示す信号(受信報告信号)を受信して、管理用コンピュータ3に出力するものである。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を確実に行えるようにするために、タスク実行エリア内に少なくとも一つ設けられている。
なお、タスク実行エリアが建物の数フロアに亘って設定されている場合には、フロア毎に設けられていることが好ましく、一つの基地局1では総てのタスク実行エリアをカバーできない場合には、複数の基地局1がタスク実行エリア内に設けられていることが好ましい。
Returning to FIG. 1, the description of the configuration of the robot control system A will be continued.
The
Specifically, the
At least one
In addition, when the task execution area is set over several floors of the building, it is preferable to be provided for each floor. When one
ロボット専用ネットワーク2は、基地局1と、管理用コンピュータ3と、ネットワーク4とを接続するものであり、LAN(Local Area Network)などにより実現されるものである。
The robot dedicated
管理用コンピュータ3は、複数のロボットRを管理するものであり、基地局1、ロボット専用ネットワーク2を介してロボットRの移動・発話などの各種制御を行うと共に、ロボットRに対して必要な情報を提供する。ここで、必要な情報とは、検知された人物の氏名や、ロボットRの周辺の地図(ローカル地図)などがこれに相当し、これらの情報は、管理用コンピュータ3の記憶部3aに記憶されている。
The
図3は、図1に示したロボットシステムで用いられるローカル地図の一例を示す図である。ここでは、案内領域301は、図3(a)に示すように、建物のあるフロアの長方形の領域である。ロボットRやロボットRが案内すべき人物は、案内領域301の出入口302の外側の通路303を通って案内領域301に入る。出入口302の内側には、ホール304が広がっており、ホール304の奥の隅には受付305が配置され、案内領域301の壁側には個室として仕切られた警備室306、談話室307および会議室308がそれぞれ設けられている。受付305は、L字型のカウンタテーブル305aと、受付スタッフが配置されるカウンタスペース305bとから成る。カウンタスペース305bには、基地局1が設置されている。この案内領域301は、図3(b)に示すように、場所に応じてロボットRによって検出される騒音レベルが異なっている。ロボットRが案内タスクを行う時間帯において、ホール304の騒音レベルは、例えば「60dB」である。同様に、警備室306、談話室307および会議室308の騒音レベルは、それぞれ、例えば、「70dB」、「100dB」、「50dB」である。なお、管理用コンピュータ3は、通路や部屋などのローカル地図の情報を位置座標データと関連づけて登録したローカルマップ(ローカル地図データ)と、ローカルマップを集積したタスク実行エリアの地図情報であるグローバルマップとを記憶部3a(図1参照)に保持している。
FIG. 3 is a diagram showing an example of a local map used in the robot system shown in FIG. Here, as shown in FIG. 3A, the
また、管理用コンピュータ3は、ロボットRに実行させるタスクに関する情報(タスクデータ)を記憶するタスク情報データベースを記憶部3a(図1参照)に保持している。
図4に示すように、タスク情報データベース400には、タスク毎に割り当てられた固有の識別子であるタスクID、タスクの優先度、タスクの重要度、タスクを実行させるロボットの識別子であるロボットID、案内や運搬(荷物配達)などのタスクの内容、タスク実行エリア内におけるタスクを開始する位置(開始位置)、タスク実行エリア内におけるタスクを終了する位置(終了位置)、タスクの実行に要する時間(所要時間)、そしてタスクの開始予定時刻(開始時刻)、タスクの終了予定時刻(終了時刻)、そしてタスクの状態などが、情報項目として含まれている。
Further, the
As shown in FIG. 4, the task information database 400 includes a task ID that is a unique identifier assigned to each task, a task priority, a task importance, a robot ID that is an identifier of a robot that executes the task, Contents of tasks such as guidance and transportation (package delivery), the position where the task starts within the task execution area (start position), the position where the task ends within the task execution area (end position), and the time required to execute the task ( Time required), scheduled task start time (start time), scheduled task end time (end time), task status, and the like are included as information items.
また、管理用コンピュータ3は、ロボットRに実行させるタスクの実行計画(タスクスケジュール)を、ロボットR毎に設定するものである。
図5に示すように、タスクスケジュールテーブル500は、ロボットRに実行させるタスクの実行順位、タスク情報データベース400(図4参照)に登録されたタスクを特定するためのタスクID、タスクの優先度、タスクの内容、そしてタスクの状態を情報項目として含むテーブルである。
このタスクスケジュールテーブル500では、これら情報項目が、タスク実行エリア内に配置されたロボットR毎に整理されており、どの様なタスクが、どのような順番で各ロボットRに割り当てられているのかを把握できるようになっている。
The
As shown in FIG. 5, the task schedule table 500 includes an execution order of tasks to be executed by the robot R, a task ID for identifying a task registered in the task information database 400 (see FIG. 4), a task priority, It is a table that includes task contents and task status as information items.
In this task schedule table 500, these information items are arranged for each robot R arranged in the task execution area, and what kind of tasks are assigned to each robot R in what order. It is possible to grasp.
再び、図1に戻って、ロボット制御システムAの構成の説明を続ける。
端末5は、ネットワーク4を介して管理用コンピュータ3に接続し、管理用コンピュータ3の記憶部3aに、人物に関する情報などを登録する、もしくは登録されたこれらの情報を修正するものである。また、端末5は、ロボットRに実行させるタスクの登録や、管理用コンピュータ3において設定されるタスクスケジュールの変更や、ロボットRの動作命令の入力などを行うものである。
Returning to FIG. 1 again, the description of the configuration of the robot control system A will be continued.
The
以下、ロボットRについて詳細に説明する。 Hereinafter, the robot R will be described in detail.
[ロボット]
ロボットRは、図6に示すように、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5に加えて、これら各部R1〜R5の適所に、カメラC,C、スピーカS、マイクMC,MC、画像処理部10、音声処理部20、記憶部30、主制御部40、自律移動制御部50、無線通信部60、バッテリ70、対象検知部80、および周辺状態検知部90を有する。
さらに、ロボットRは、ロボットRの向いている方向を検出するジャイロセンサSR1や、予め設定された地図上におけるロボットRの存在する位置座標を取得するためのGPS(Global Positioning System)受信器SR2を有している。
[robot]
As shown in FIG. 6, in addition to the head R1, the arm R2, the leg R3, the trunk R4, and the rear housing R5, the robot R includes cameras C and C, speakers at appropriate positions of these parts R1 to R5. S, microphone MC, MC,
Furthermore, the robot R includes a gyro sensor SR1 that detects the direction in which the robot R is facing, and a GPS (Global Positioning System) receiver SR2 that acquires the position coordinates of the robot R on a preset map. Have.
[カメラ]
カメラ(撮影手段)C,Cは、ロボットRの前方移動方向側の映像をデジタルデータとして取り込むことができるものであり、例えば、カラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部10に出力される。このカメラC,Cと、スピーカSおよびマイクMC,MCは、いずれも頭部R1の内部に配設される。スピーカ(音声出力手段)Sは、音声処理部20で音声合成された所定の音声を発することができる。
[camera]
Cameras (photographing means) C and C are capable of capturing an image of the robot R in the forward movement direction as digital data. For example, a color CCD (Charge-Coupled Device) camera is used. The cameras C and C are arranged side by side in parallel on the left and right, and the captured image is output to the
[画像処理部]
画像処理部(画像処理手段)10は、カメラC,Cが撮影した画像(撮影画像)を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。この画像処理部10は、ステレオ処理部11a、移動体抽出部11b、顔認識部11cおよび視線検出部11dを含んで構成される。
ステレオ処理部11aは、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像および元の画像を移動体抽出部11bに出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。
[Image processing unit]
The image processing unit (image processing means) 10 processes images (captured images) taken by the cameras C and C, and grasps the situation around the robot R from the taken images. It is the part which recognizes. The
The
移動体抽出部11bは、ステレオ処理部11aから出力されたデータに基づき、撮影した画像中の移動体を抽出するものである。移動する物体(移動体)を抽出するのは、移動する物体が人物であると推定して、人物の認識をするためである。
移動体の抽出をするために、移動体抽出部11bは、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、人物があると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部11cへ移動体の画像を出力する。
The moving
In order to extract the moving object, the moving
顔認識部(顔認識手段)11cは、抽出した移動体の一部分の大きさ、形状などから顔領域および顔の位置を認識する。なお、同様にして、抽出した移動体の一部分の大きさ、形状などから手の位置も認識される。
認識された顔の位置は、ロボットRが移動するときの情報として、また、その人とのコミュニケーションを取るため、主制御部40に出力されると共に、視線検出部11dに出力される。
The face recognition unit (face recognition means) 11c recognizes the face area and the face position from the size, shape, etc. of a part of the extracted moving body. Similarly, the position of the hand is also recognized from the size and shape of a part of the extracted moving body.
The recognized face position is output to the
視線検出部(視線検出手段)11dは、顔認識部11cで抽出された顔領域から認識対象とする人物の視線方向を検出する。
視線検出部11dは、目周辺の画像を解析して目が閉じているかどうかを判断し、目が閉じられていない場合に瞳孔を検出し、検出した瞳孔の位置と眼球の位置から視線方向を検出する。例えば、視線方向は、顔認識部11cで認識された顔の位置および姿勢、並びに瞳孔の中心位置の関係で求められる。この場合、視線検出部11dで検出される視線方向は、眼球の中心位置と瞳孔の中心位置とを結ぶベクトルとして求められる。求められた視線方向は、興味度を算出する際に用いるために主制御部40に出力される。
The line-of-sight detection unit (line-of-sight detection means) 11d detects the line-of-sight direction of the person to be recognized from the face area extracted by the
The line-of-
[音声処理部]
音声処理部20は、音声合成部21aと、音声認識部21bと、音源定位部21cと、騒音測定部21dおよび発話情報検出部21eを有する。
音声合成部21aは、主制御部40が決定し、出力してきた発話行動の指令に基づき、文字情報(テキストデータ)から音声データを生成し、スピーカSに音声を出力する部分である。音声データの生成には、予め記憶部30に記憶している文字情報(テキストデータ)と音声データとの対応関係を利用する。なお、音声データは、管理用コンピュータ3から取得され、記憶部30に保存される。
音声認識部(音声認識手段)21bは、マイクMC,MCから音声データが入力され、入力された音声データから文字情報(テキストデータ)を生成し、主制御部40に出力するものである。音声認識部21bは、音声から人物の状況を判別可能に音声認識する。例えば、「はい」、「何ですか?」のような音声を認識することで、主制御部40において、「人物からの反応がある」と判別することが可能となる。なお、音声データと文字情報(テキストデータ)との対応関係は、記憶部30に予め記憶されている。
音源定位部21cは、マイクMC,MC間の音圧差および音の到達時間差に基づいて音源位置(ロボットRが認識する平面状の位置)を特定し、主制御部40に出力するものである。音源位置は、例えば、ロボットRの立っている方向(z軸方向)周りの回転角θzで表される。
[Audio processor]
The
The
The voice recognition unit (voice recognition unit) 21 b receives voice data from the microphones MC and MC, generates character information (text data) from the input voice data, and outputs the character information to the
The sound
騒音測定部(騒音測定手段)21dは、ロボットRの周囲の騒音を測定して騒音のレベルを検出する。検出された騒音のレベルは、発話音量を調整する際に用いるために主制御部40に出力される。
発話情報検出部(発話情報検出)21eは、マイクMC,MCから入力する音声から認識対象とする人物の音声に関する人物発話情報を検出する。人物発話情報は、人物の音声の音量、音質、話速のうちの少なくとも1つを示すものである。検出された人物発話情報は、興味度を算出する際に用いるために主制御部40に出力される。
The noise measuring unit (noise measuring means) 21d measures the noise around the robot R and detects the noise level. The detected noise level is output to the
The utterance information detection unit (speech information detection) 21e detects person utterance information related to the voice of the person to be recognized from the voices input from the microphones MC and MC. The person utterance information indicates at least one of the volume, sound quality, and speech speed of the person's voice. The detected person utterance information is output to the
[記憶部]
記憶部(記憶手段)30は、例えば、一般的なハードディスク等から構成され、管理用コンピュータ3から送信された必要な情報(ローカル地図データ、会話用データなど)を記憶するものである。本実施形態では、会話用データとして、通常用途で発話される通常口調用データと、特別な用途で発話される特別口調用データとが記憶される。ここで、通常口調は、例えば、人が日常的な場面で用いる口語の口調であり、特別口調は、例えば、人がビジネスや儀礼などの場面で用いる敬語の口調である。
また、記憶部30は、後記するように、主制御部40の各種動作を行うために必要な情報を記憶している。
[Memory]
The storage unit (storage means) 30 is composed of, for example, a general hard disk or the like, and stores necessary information (local map data, conversation data, etc.) transmitted from the
Further, the
[主制御部]
主制御部40は、画像処理部10、音声処理部20、記憶部30、自律移動制御部50、無線通信部60、対象検知部80、および周辺状態検知部90を統括制御するものである。また、ジャイロセンサSR1、およびGPS受信器SR2が検出したデータは、主制御部40に出力され、ロボットRの行動を決定するために利用される。この主制御部40は、例えば、管理用コンピュータ3と通信を行うための制御、管理用コンピュータ3から取得したタスク実行命令に基づいて所定のタスクを実行するための制御、ロボットRを目的地に移動させるための制御、人物を識別するための制御、人物と対話するための制御を行うために、種々の判断を行ったり、各部の動作のための指令を生成したりする。
[Main control section]
The
[自律移動制御部]
自律移動制御部50は、主制御部40の指示に従い頭部R1、腕部R2および脚部R3を駆動するものである。この自律移動制御部50は、図示を省略するが、頭部R1を駆動する頭部制御部、腕部R2を駆動する腕部制御部、脚部R3を駆動する脚部制御部を有し、これら頭部制御部、腕部制御部および脚部制御部は、頭部R1、腕部R2および脚部R3を駆動するアクチュエータに駆動信号を出力する。この自律移動制御部50および脚部R3は移動手段を構成する。
[Autonomous Movement Control Unit]
The autonomous
[無線通信部]
無線通信部60は、管理用コンピュータ3とデータの送受信を行う通信装置である。無線通信部60は、公衆回線通信装置61aおよび無線通信装置61bを有する。
公衆回線通信装置61aは、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置61bは、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。
無線通信部60は、管理用コンピュータ3からの接続要求に従い、公衆回線通信装置61aまたは無線通信装置61bを選択して管理用コンピュータ3とデータ通信を行う。
[Wireless communication part]
The
The public
The
バッテリ70は、ロボットRの各部の動作や処理に必要な電力の供給源である。このバッテリ70は、充填式の構成をもつものが使用され、バッテリ補給エリア(図1参照)で電力が補給される。
The
[対象検知部]
対象検知部(対象検知手段)80は、ロボットRの周囲にタグTを備える人物が存在するか否かを検知するものである。対象検知部80は、複数の発光部81(図6では1つのみ表示した)を備える。これら発光部81は、例えば、LEDから構成され、ロボットRの頭部R1外周に沿って前後左右などに配設される(図示は省略する)。対象検知部80は、発光部81から、各発光部81を識別する発光部IDを示す信号を含む赤外光をそれぞれ発信すると共に、この赤外光を受信したタグTから受信報告信号を受信する。いずれかの赤外光を受信したタグTは、その赤外光に含まれる発光部IDに基づいて、受信報告信号を生成するので、ロボットRは、この受信報告信号に含まれる発光部IDを参照することにより、当該ロボットRから視てどの方向にタグTが存在するかを特定することができる。また、対象検知部80は、タグTから取得した受信報告信号の電波強度に基づいて、タグTまでの距離を特定する機能を有する。したがって、対象検知部80は、受信報告信号に基づいて、タグTの位置(距離および方向)を、人物の位置として特定することができる。さらに、対象検知部80は、発光部81から赤外光を発光するだけではなく、ロボットIDを示す信号を含む電波を図示しないアンテナから発信する。これにより、この電波を受信したタグTは、赤外光を発信したロボットRを正しく特定することができる。なお、対象検知部80およびタグTについての詳細は、例えば、特開2006−192563号公報に開示されている。
[Target detection unit]
The target detection unit (target detection means) 80 detects whether or not there is a person with the tag T around the robot R. The
[周辺状態検知部]
周辺状態検知部90は、ロボットRの周辺状態を検知するものであり、ジャイロセンサSR1やGPS受信器SR2によって検出された自己位置データを取得可能になっている。また、周辺状態検知部90は、探索域に向かってスリット光を照射するレーザ照射部91と、探索域に向かって赤外線を照射する赤外線照射部92と、スリット光または赤外線が照射された探索域を撮像する床面カメラ93とを有する。この周辺状態検知部90は、床面カメラ93で撮像したスリット光画像(スリット光が照射されたときの画像)を解析して路面状態を検出する。また、周辺状態検知部90は、床面カメラ93で撮像した赤外線画像(赤外線が照射されたときの画像)を解析してマークM(図2参照)を検出し、検出されたマークMの位置(座標)からマークMとロボットRとの相対的な位置関係を計算する。なお、周辺状態検知部90についての詳細は、例えば、特開2006−167844号公報に開示されている。
[Ambient condition detector]
The peripheral
[主制御部の構成]
図7は、図6に示したロボットの主制御部の構成を示すブロック図である。
主制御部40は、静止障害物統合部41と、オブジェクトデータ統合部42と、行動パターン部43と、身振り統合部44と、内部状態検出部45と、行動計画管理部46と、モチベーション管理部47とを備えている。
[Configuration of main controller]
FIG. 7 is a block diagram showing the configuration of the main control unit of the robot shown in FIG.
The
静止障害物統合部41は、周辺状態検知部90で検知されたロボットRの周辺状態に関する情報を統合し、行動パターン部43に出力するものである。例えば、静止障害物統合部41が、ロボットRの進路の床面に段ボール箱などの障害物を検知した場合や、床面の段差を検知した場合には、行動パターン部43は、この統合された障害物情報に基づいて、図示しない局所回避モジュールによって迂回経路を探索する。
The stationary
オブジェクトデータ統合部42は、ロボットRの姿勢データ、画像処理部10、対象検知部80および音源定位部21cからの入力データに基づいて、対象物(オブジェクト)に関する識別データ(オブジェクトデータ)を統合し、この統合したオブジェクトデータを記憶部30のオブジェクトデータ記憶手段31に出力するものである。これにより、オブジェクトデータ記憶手段31には、オブジェクトデータをオブジェクト別かつ時刻別に記録したデータであるオブジェクトマップが生成される。
The object
[オブジェクトマップの構成]
ここで、図8を参照して、オブジェクトデータ記憶手段31に記憶されるオブジェクトマップの構成を説明する。図8は、オブジェクトデータの一例を示す図である。
オブジェクトマップは、時刻別に分類された複数の時刻別データ801を備えている。この時刻別データ801には、それぞれ、時刻情報としてのカウント802と、姿勢データ、カメラ姿勢および騒音レベルと、表803が付されている。姿勢データは、例えば顔の位置(x,y,z)と顔の向き(θx,θy,θz)で表され、カメラ姿勢は、例えばパン、チルト、ロールの各軸周りの回転角度(pan,tilt,role)で表される。また、騒音レベルは、騒音測定部21d(図6参照)によって検出されたものであり、デシベル(dB)で表される。また、この表803では、列に識別すべき対象(オブジェクト)が配され、行に、このオブジェクトを特徴付ける複数の項目が配されており、オブジェクト別に(列ごとに)レコードが蓄積されている。以下に、各項目の詳細を説明する。
[Composition of object map]
Here, the configuration of the object map stored in the object data storage means 31 will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of object data.
The object map includes a plurality of time-
オブジェクトナンバ804は、ロボットRがオブジェクトを検出した順番に最大N個まで付されるものであり、この表803では、「0」〜「10」の11個(N=11)のオブジェクトを管理できるようになっている。
ボディ位置805は、画像処理部10から出力される位置座標データであり、ロボットRが認識している座標平面における人物(オブジェクト)の重心位置座標(x,y)で表される。
速度806は、画像処理部10から出力される速度データであり、ロボットRが認識している座標平面における人物(オブジェクト)の移動速度(Vx,Vy)で表される。
The
The
The
人物ID807は、人物を識別するための識別番号である。
人物確度808は、人物ID807の確度を示すものであり、完全一致を100%として定められている。
人物ライフカウント809は、人物ID807に登録されたデータのオブジェクトデータ上での経過時間を表している。
The
The
The
RFID識別番号810は、タグに記録された人物(オブジェクト)の識別番号であり、対象検知部80から出力されたものである。
RFID位置811は、対象検知部80から出力される位置データであり、ロボットRの周囲におけるタグ(オブジェクト)までの距離および方向で定まる領域で表される。
RFID確度812は、RFID識別番号810のデータ(識別番号)の確度を示すものである。
RFIDライフカウント813は、RFID識別番号810に登録されたデータ(識別番号)のオブジェクトマップ上での経過時間を表している。
The
The
The
The RFID life count 813 represents an elapsed time on the object map of data (identification number) registered in the
音源位置814は、音源定位部21cから出力されるデータであり、ロボットRが認識している座標平面における発声する人物(オブジェクト)の角度θzで表される。
音源確度815は、音源位置814のデータの確度を示すものである。
音源ライフカウント816は、音源位置814に登録されたデータ(位置座標)のオブジェクトマップ上での経過時間を表している。
The
The
The sound
オブジェクトライフカウント817は、オブジェクトに対して、人物データ、RFID識別データ、音源識別データのいずれかが初めて入力されたときに開始されたカウントを表すものである。
TOTAL_ID818は、人物ID807とRFID識別番号810に基づいてオブジェクトデータ統合部42で決定されたオブジェクトの識別番号である。
TOTAL_確度819は、人物確度808とRFID確度812とに基づいてオブジェクトデータ統合部42で決定されたオブジェクトの識別番号の確度を示すものである。
The object life count 817 represents a count started when any one of person data, RFID identification data, and sound source identification data is input to an object for the first time.
The
図7を参照して主制御部40の構成の説明を続ける。
行動パターン部43は、後記するように、ロボットRの予め定められた行動(行動パターン)に伴って人物に発話を行う前にその人物へのアプローチ行動を制御するアプローチ行動制御手段48を備えている。
また、行動パターン部43は、行動パターンを実行するための各種プログラム(モジュール)を格納すると共に、この行動パターンを実行するときに、記憶部30を参照して、行動パターンに反映するものである。
The description of the configuration of the
As will be described later, the
The
本実施形態では、図7に示すように、記憶部30に、オブジェクトデータ記憶手段31のほかに、ローカル地図データ記憶手段32と、モチベーション指数記憶手段33と、シナリオ記憶手段34と、人物情報記憶手段35とを備えている。なお、記憶部30は、予め定められた人物の位置情報等も記憶している。ここで、人物の位置情報とは、当該人物の所在を示す情報であり、例えば、曜日、時間等に関連付けて予め作成されたものである。
In the present embodiment, as shown in FIG. 7, in addition to the object
ローカル地図データ記憶手段32は、図3を参照して説明したロボットRの周辺の地図(ローカル地図)を記憶するものである。このローカル地図は、例えば、管理用コンピュータ3から取得される。
モチベーション指数記憶手段33は、モチベーション指数を記憶するものである。モチベーション指数は、モチベーション管理部47が管理するものなので詳細は後記する。
The local map data storage means 32 stores a map (local map) around the robot R described with reference to FIG. This local map is acquired from the
The motivation index storage means 33 stores a motivation index. Since the motivation index is managed by the
シナリオ記憶手段34は、各種行動パターンに対応したシナリオ(台本)を記憶するものである。シナリオは、例えば、歩行中に人物や障害物(オブジェクト)に遭遇したときにオブジェクトの1m手前で立ち止まるといったもの、立ち止まってから10秒後に腕部R2を所定位置まで上げるといったものなど動作に関するものと、発話に関するものとがある。
また、シナリオ記憶手段34は、所定の発話を行うときに頭部R1、腕部R2、脚部R3のうちの少なくとも1つの部位を移動させる身体動作である身振りを指定する予め作成されたシナリオを記憶する。
The
In addition, the
人物情報記憶手段35は、予め定められた人物の嗜好する話題を複数記憶するものである。本実施形態では、人物情報記憶手段35は、話題を人物別およびジャンル別に記憶している。この人物情報記憶手段35に記憶された話題は、ロボットRの発話行動に用いられる。 The person information storage means 35 stores a plurality of topics that a predetermined person likes. In the present embodiment, the person information storage means 35 stores topics by person and by genre. The topic stored in the person information storage means 35 is used for the speech behavior of the robot R.
行動パターン部43は、オブジェクトデータ記憶手段31、ローカル地図データ記憶手段32、シナリオ記憶手段34、および人物情報記憶手段35を適宜利用して様々な場面や状況に応じた行動パターンを実行するモジュールを備えている。モジュールの例としては、目的地移動モジュール、局所回避モジュール、デリバリモジュール、案内モジュール、人対応モジュール等がある。
The
目的地移動モジュールは、ロボットRの現在位置から、例えば、タスク実行エリア内のタスク実行位置等の目的地までの経路探索(例えばノード間の経路を探索)及び移動を行うものである。この目的地移動モジュールは、地図データと現在位置とを参照しつつ、目的地までの最短距離を求める。
局所回避モジュールは、歩行中に障害物が検知されたときに、静止障害物統合部41で統合された障害物情報に基づいて、障害物を回避する迂回経路を探索するものである。
The destination movement module performs route search (for example, search for a route between nodes) and movement from the current position of the robot R to a destination such as a task execution position in the task execution area. This destination movement module obtains the shortest distance to the destination while referring to the map data and the current position.
The local avoidance module searches for a detour route for avoiding an obstacle based on the obstacle information integrated by the stationary
デリバリモジュールは、物品の運搬を依頼する人物(依頼人)から物品を受け取る(把持する)動作や、受け取った物品を受取人に渡す(物品を手放す)動作を実行するものである。
案内モジュールは、例えば、タスク実行エリア内の案内開始地点に来訪した来訪客を案内領域301(図3参照)の受付305にいる受付スタッフのもとへ案内するタスクを実行するものである。
人対応モジュールは、例えば、物品運搬タスクや案内タスクの実行時に所定のシナリオに基づいて、発話、姿勢の変更、腕部R2の上下移動や把持等を行うものである。
The delivery module executes an operation of receiving (grabbing) an article from a person who requests transportation of the article (client) and an operation of delivering the received article to the recipient (releasing the article).
The guidance module executes, for example, a task for guiding a visitor who has visited a guidance start point in the task execution area to a reception staff in the
The person handling module performs, for example, speech, posture change, vertical movement and gripping of the arm portion R2 based on a predetermined scenario when executing an article transport task or a guidance task.
身振り統合部(身振り統合手段)44は、対象とする人物に対して行う発話に対応した身振りをシナリオ記憶手段34から抽出し、抽出した身振りを指定するコマンドを自律移動制御部50に出力するものである。頭部R1の動作による身振りは、例えば、頭部R1を下方に傾けることで「お辞儀」、「礼」、「同意」、「謝罪」等を表示する動作や、頭部R1を左右に傾けることで「分からない」という意思表示を伝える動作が含まれる。また、腕部R2の動作による身振りは、例えば、腕部R2を上げることで「喜び」、「賞賛」等を表示する動作や、腕部R2を下方左右に広げることや握手を行うことで「歓迎」という意思表示を伝える動作が含まれる。また、脚部R3の動作による身振りは、例えば、その場で駆け足をすることで「喜び」、「元気」等の意思表示を伝える動作が含まれる。
The gesture integration unit (gesture integration unit) 44 extracts gestures corresponding to the utterances made to the target person from the
内部状態検出部45は、ロボットRの内部状態を検出し、検出結果をモチベーション管理部47に出力するものである。本実施形態では、内部状態検出部45は、バッテリ70の残量を検出する。検出されたバッテリ残量は、モチベーション管理部47に出力される。また、内部状態検出部45は、ロボットRの状態(現在位置、バッテリ残量、タスク実行状況など)に関するデータを所定時間間隔毎にステータス情報として生成し、生成したステータス情報を無線通信部60を介して管理用コンピュータ3に出力する。そして、管理用コンピュータ3は、入力されたステータス情報を記憶部3aに格納された図示しないロボット情報データベースにロボットR毎に登録する。
The internal
行動計画管理部46は、行動パターン部43が備える各種モジュールを所定のスケジュールで実行する行動計画を管理するものである。本実施形態では、行動計画管理部46は、管理用コンピュータ3から取得したタスク実行命令に基づいて予め定められたタスクを実行するための行動計画を管理し、現在実行すべき作業に必要なモジュールを適宜選択する。また、行動計画管理部46は、モチベーション管理部47の指示に基づいて識別対象に対する行動計画に必要なモジュールを適宜選択する。
The action
モチベーション管理部47は、モチベーション指数を管理し、バッテリ補給が必要ではなく、かつ、現在実行すべきタスクを有していない場合に、モチベーション指数に基づいて、能動的に行動するための行動計画の追加を行動計画管理部46に指示するものである。ここで、モチベーション指数とは、既知の予め定められた対象物に対する未来の行動の実行可能性の大きさを示すものである。本実施形態では、対象物は人間である。また、モチベーション指数は、人間に対するロボットRの直近の行動から経過した時間に関する経過時間指数と、ロボットRの過去の対象人物に対する行動の回数および行動時間に関する行動指数とに基づいて決定される。
The
具体的には、経過時間指数は、ロボットRの直近の対象人物に対する行動から経過した時間の大きさに比例して大きくなるように設定され、行動指数は、ロボットRの過去の対象人物に対する行動の回数および行動時間の大きさに比例して大きくなるように設定されている。つまり、ロボットRを擬人化した場合には、経過時間指数が大きいことは人物に対する懐古性が高いことを意味し、また、行動指数が大きいことは人物に対する親密性が高いことを意味する。このように設定することにより、既知の複数の人物の中から、懐古性が高い人物や親密性が高い人物を選ぶためにモチベーション指数を用いることができる。行動指数が親密性を表すため、以下では、行動指数のことをあらためて情動指数と呼ぶことにする。 Specifically, the elapsed time index is set to increase in proportion to the amount of time that has elapsed since the action of the robot R on the latest target person, and the action index is the action of the robot R on the past target person. Is set so as to increase in proportion to the number of times and the amount of action time. That is, when the robot R is anthropomorphic, a large elapsed time index means that the person has a high degree of nostalgia, and a large action index means that the person has a high degree of intimacy. By setting in this way, the motivation index can be used to select a highly retrospective person or a highly intimate person from a plurality of known persons. Since the behavior index represents intimacy, hereinafter, the behavior index is referred to as an emotional index.
モチベーション管理部47で管理されるモチベーション指数は、モチベーション指数記憶手段33に記憶されている。本実施形態では、モチベーション指数記憶手段33には、モチベーション指数テーブルが記憶されている。図9に示すように、モチベーション指数テーブル900には、人物の名前、対象として選択された回数の指標である「頻度」、時間指数および情動指数の回復の指標である「回復」、モチベーション指数の内訳を示す「指数」、指数の値およびその最大値である「値/MAX」などが、情報項目として含まれている。このモチベーション指数テーブル900では、モチベーション指数を省略して「モチ指数」と表記した。また、最大値が「50」である経過時間指数(「時間指数」と表記)と、最大値が「50」である行動指数(「情動指数」と表記)との和によって、最大値が「100」であるモチベーション指数を定義した。また、モチベーション指数テーブル900には、モチベーション指数等の値を棒グラフで表示した。
The motivation index managed by the
[アプローチ行動制御手段の構成]
アプローチ行動制御手段48は、図10に示すように、環境情報検出手段110と、人状況判別手段120と、応対行動制御手段130とを備え、これらによって記憶部30に記憶された各種の情報やデータに基づいて後記する制御を行う。
[Configuration of approach behavior control means]
As shown in FIG. 10, the approach
記憶部30のローカル地図データ記憶手段32は、前記したローカル地図(図3参照)のほかに、ロボットRの発話の可否、発話音量および発話口調のうちの少なくとも1つを示す発話出力情報と地図上の位置を示す位置情報とを対応付けて予め作成された地図データを記憶している。本実施形態では、地図データは、予め設定された騒音のレベルごとに発話出力情報が位置情報と対応付けて作成されている。
The local map data storage means 32 of the
また、記憶部30は、人物の状況を示す画像条件および音声認識の結果を示す音声条件と発話出力情報とを対応付けて予め作成された人物状況データとを記憶する。
ここで、人物の状況とは、その人物が現在なすべき何かに集中している状況や、他者から話しかけられると、困惑、迷惑、不快を感じるような様々な状況を指す。また、人物の状況とは、人物ごとに異なり、また同一人物でも時、場所、場面等の種々の条件によって異なる。そこで、本実施形態では、人物の状況として、誰もが他者から話しかけられたくないと感じるような普遍性のある状況の例として、「人物が休息中(睡眠中)であること」と、「人物が既に対話中であること」との2つの事例に対応させるように構成した。
In addition, the
Here, the situation of a person refers to a situation in which the person is concentrated on something that should be done now, or various situations in which a person feels embarrassed, annoyed, or uncomfortable when spoken by another person. Further, the situation of a person differs for each person, and even for the same person, it varies depending on various conditions such as time, place, and scene. Therefore, in this embodiment, as an example of a universal situation in which everyone feels that they do not want to be spoken by others as the situation of a person, “the person is resting (sleeping)” It was configured to correspond to two cases of “a person is already in conversation”.
人物が休息中であることを示す人物状況データは、例えば、人物が休息中であることを特徴付ける休息中画像条件と、人物の音声が検出されないことを示す音声条件と、ロボットRの発話の不許可を示す情報とを対応付けて構成されたデータである。
休息中画像条件は、撮影画像において、例えば、人物が目を閉じた状態が所定時間続いている場合、人物が顔を正面を向いているときに比較して下に向けた状態が所定時間続いている場合、人物の顔の位置が座っているときの顔の位置に比較して低い状態が所定時間続いている場合等を指すものである。
The person status data indicating that the person is resting includes, for example, a resting image condition characterizing that the person is resting, a voice condition indicating that the voice of the person is not detected, and the robot R's speech failure. This is data configured in association with information indicating permission.
The resting image condition is that, for example, in a captured image, when a person has closed eyes for a predetermined time, a state in which the person is facing down continues for a predetermined time compared to when the person is facing the front. The position of the face of the person is lower than the position of the face when the person is sitting for a predetermined time.
人物が対話中であることを示す人物状況データは、例えば、複数の人物が対話中であることを特徴付ける対話中画像条件と、人物の音声が検出されないことを示す音声条件と、ロボットRの発話の不許可を示す情報とを対応付けて構成されたデータである。
対話中画像条件は、撮影画像において、例えば、人物が口の開閉を行っている場合、2人の人物の顔の向きや視線方向が逆方向である場合等を指すものである。
The person status data indicating that a person is in conversation includes, for example, an in-conversation image condition that characterizes that a plurality of persons are in conversation, a voice condition that indicates that no person's voice is detected, and an utterance of the robot R. This is data configured in association with information indicating that the information is not permitted.
The in-dialog image condition refers to, for example, a case where a person is opening and closing a mouth in a captured image, and a case where the face direction and line-of-sight direction of two persons are opposite directions.
ここで、人物状況データは、発話の不許可を示す情報と対応付けられる条件が、画像条件と、音声条件とだけに限定されるものではない。条件としては、例えば、場所、時間、周囲の音量(騒音レベル)、人物の反応等、またはそれらの組合せを対応付けることが可能である。この場合、人物が休息中であることを示す人物状況データは、例えば、場所、時間、騒音レベル、ロボットRが呼びかけたときの人物の反応の各条件と、ロボットRの発話の不許可を示す情報とを対応付けて構成されてもよい。具体的には、「人物のいる場所=休息所」、AND、「時間=昼休み」、AND、「騒音レベル=Low」、AND、「反応=0」である場合に、「人物が休息中である」と判定することができる。なお、発話の不許可とは、ロボットからの発声(say)を不許可とするものではなく、話しをすること(talk)を不許可とすることを示す。そして、ロボットRは、他の条件が「人物が休息中であること」を示す場合に、最終的にその人物の名前などを呼ぶこととする。 Here, in the human situation data, the conditions associated with the information indicating that the speech is not permitted are not limited only to the image condition and the audio condition. As conditions, for example, location, time, ambient sound volume (noise level), person reaction, or a combination thereof can be associated. In this case, the person status data indicating that the person is resting indicates, for example, each condition of the place, time, noise level, reaction of the person when the robot R calls, and disapproval of the robot R's utterance. Information may be associated with the information. Specifically, when “place where the person is = rest place”, AND, “time = lunch break”, AND, “noise level = Low”, AND, “reaction = 0”, “the person is resting” It can be determined. Note that utterance disapproval does not disallow utterances from the robot (say), but does not permit talking (talk). Then, when the other condition indicates “the person is resting”, the robot R finally calls the name of the person.
次に、アプローチ行動制御手段48の構成を詳細に説明する。
<環境情報検出手段>
図10に示すように、環境情報検出手段110は、例えばGPS受信器SR2で検出された現在位置に対応する発話出力情報を、ローカル地図データ記憶手段32に記憶された地図データからロボットRの環境に起因した情報として検出するものである。検出された発話出力情報は、応対行動制御手段130に出力される。
Next, the configuration of the approach behavior control means 48 will be described in detail.
<Environmental information detection means>
As shown in FIG. 10, the environment
<人状況判別手段>
人状況判別手段120は、記憶部30に記憶された人物状況データを作成するために用いられた画像条件と、画像処理部10で処理された撮影画像の処理結果と、音声認識部21bで音声認識された結果とに基づいて、対象とする人物の状況を判別するものである。この人状況判別手段120は、個人状況推定手段121と、集団状況推定手段122と、発話タイミング決定手段123と、興味推定手段124とを備える。
<Person status determination means>
The human situation determination unit 120 includes image conditions used to create the personal situation data stored in the
個人状況推定手段121は、休息中画像条件と撮影画像の処理結果および音声認識の結果とに基づいて、対象とする人物が休息中であるか否かを判別するものである。ここで、撮影画像の処理結果とは、画像処理手段10の顔認識手段11cによって認識された顔の位置を含み、また、視線検出手段11dで判定される目が閉じているかどうかという情報を含む。また、音声認識の結果とは、人物の音声が入力されたか否かという情報を含む。
集団状況推定手段122は、対象とする人物の付近に他の人物が認識されないか否かを判別し、他の人物が認識される場合に、対話中画像条件と撮影画像の処理結果とに基づいて、対象とする人物を含む複数の人物が対話中であるか否かを判別するものである。なお、複数の人物を認識する方法としては、オブジェクトデータ統合部42による識別、画像処理部10の画像処理による識別、対象検知部80(図6参照)のタグ検知による識別のいずれの方法を用いてもよい。
発話タイミング決定手段123は、対象とする人物が休息中ではなく、かつ、対話中ではないと判別された場合であって、視線検出部11dで検出された視線方向がロボットRの方向に向いているときに発話タイミングであると決定するものである。ここで、視線方向がロボットRの方向を向いているときとは、視線方向がロボットRの方向と完全一致しているときだけを指すものではなく、視線方向が予め設定された範囲内を向いていればよい。
The personal
The group
The utterance timing determination means 123 is a case where it is determined that the target person is not resting and is not in conversation, and the line-of-sight direction detected by the line-of-
興味推定手段124は、対象とする人物に対して所定の話題に関する発話を行った後に発話された話題に対してその人物が示す興味を数値化した興味度を算出し、算出した興味度が上昇したか否かを判別し、興味度が上昇した場合にその人物が話題に興味を有していると判定すると共に、判別結果を記憶手段30に記録するものである。
本実施形態では、興味推定手段124は、興味度を算出する方法として、人物を撮像した画像に基づく画像判定モードと、入力される人物の音声に基づく音声判定モードと、それらを統合した統合判定モードとを有しており、各モードは適宜切替可能に構成されている。
The
In the present embodiment, the
具体的には、画像判定モードにおいて、興味推定手段124は、対象とする人物に対して所定の話題に関する発話を行った後に視線検出部11dで検出された視線方向を示すベクトルにより数値化した興味度を算出する。この場合、興味推定手段124は、検出された視線方向がロボットRの方向に一致する場合が最大値となるように興味度を算出する。
また、音声判定モードにおいて、興味推定手段124は、対象とする人物に対して所定の話題に関する発話を行った後に音声認識部21bで音声認識されたキーワードやフレーズ等の認識結果または発話情報検出手部21eで検出された音量、音質、話速の人物発話情報を数値化した興味度を算出する。この場合、興味推定手段124は、検出されたキーワードが多いほど、また音量が大きいほど、また音質が高いほど、また話速が速いほど大きくなるように興味度を算出する。なお、例えば、「面白い」等のキーワードや「詳しく教えて」等のフレーズごとに所定の重み付けをしてもよい。
また、統合判定モードにおいて、興味推定手段124は、画像判定モードで算出された興味度と、音声判定モードで算出された興味度とに所定の重み付けを行ってから加算した和を最終的な興味度として算出する。
Specifically, in the image determination mode, the
Further, in the voice determination mode, the
Further, in the integrated determination mode, the
<応対行動制御手段>
応対行動制御手段130は、人状況判別手段120で判別された人物の状況および人物からの反応に対応する発話出力情報を記憶部30に記憶された人物状況データから抽出し、抽出した発話出力情報と環境情報検出手段110で検出された発話出力情報とに基づいて、対象とする人物に対する発話の可否、発話音量および発話口調のうちの少なくとも1つを決定するものである。この応対行動制御手段130は、発話レベル調整手段131と、身振り調整手段132と、話題制御手段133と、行動統括制御手段134とを備えている。
<Responding behavior control means>
The response action control means 130 extracts the utterance output information corresponding to the situation of the person determined by the human situation determination means 120 and the reaction from the person from the person situation data stored in the
発話レベル調整手段131は、行動統括制御手段134によって人物への発話が許可された場合に、行動統括制御手段134で算出された統合値に基づいて発話音量のレベルの調整または発話口調の切り替えを行うものである。ここで、発話音量のレベルの調整とは、音声合成部21a(図6参照)に出力される発話行動の指令で指定される当初の音量レベルを、例えば、50%低下させる指示や、50%高くさせる指示を出力することである。本実施形態では、発話レベル調整手段131は、発話が許可された場合に、ロボットRが実際に発話を行う位置から対象とする人物のいる位置までの距離をも加味して発話音量のレベルを調整する。すなわち、発話レベル調整手段131は、人物が予め設定された発話距離範囲よりも遠くにいる場合には発話音量のレベルを大きくし、人物が発話距離範囲より近くにいる場合には発話音量のレベルを小さくする。なお、対象とする人物のいる位置までの距離は、例えば、ステレオ処理部11a(図6参照)で検出したり、対象検知部80(図6参照)で検出したり、オブジェクトマップ(図8参照)から算出したりすることができる。また、発話口調の切替とは、音声合成部21a(図6参照)に出力される発話行動の指令で指定される当初の口調を、別の口調に切り替えることである。本実施形態では、記憶部30に記憶された通常口調用データと特別口調用データとが適宜切り替えられる。
The utterance level adjusting unit 131 adjusts the level of the utterance volume or switches the utterance tone based on the integrated value calculated by the
身振り調整手段132は、発話レベル調整手段131で発話音量のレベルが調整された場合に、その調整された発話音量のレベルに比例させて身振りによる頭部R1、腕部R2、脚部R3の少なくともいずれかの部位の移動幅を調整するものである。この身振り調整手段132は、身振り統合部44から自律移動制御部50に身振りを指定するために出力されるコマンドに記述される各部位の移動幅を調整する。例えば、発話音量のレベルが50%低下される場合には、コマンドに記述される当初の移動幅を同様に50%短くし、逆に、発話音量のレベルが50%高くされる場合には、コマンドに記述される当初の移動幅を同様に50%長くする。なお、移動は線形移動と回転移動を含む。
The
話題制御手段133は、人物情報記憶手段35に記憶された話題を提供し、興味推定手段124によって対象とする人物が提供された話題に興味を有していないと判定された場合に(興味度が下降した場合に)、提供中の話題に関する発話を中断するものである。また、本実施形態では、話題制御手段133は、興味推定手段124によって算出された興味度に基づいて、人物情報記憶手段35に記憶された話題を切り替え、対象とする人物に対して切り替えた話題に関する発話を行う。
The
行動統括制御手段134は、人物状況データから抽出した発話出力情報と、環境情報検出手段110で検出された発話出力情報とを統合することで発話が許可されるか否かを判別し、発話が許可されると判定した場合に統合された発話音量または発話口調を示すアプローチ行動を決定する。本実施形態では、行動統括制御手段134は、アプローチ行動を決定する際に、環境情報検出手段110で検出された発話出力情報を、人物状況データから抽出した発話出力情報よりも優先する。つまり、行動統括制御手段134は、まず、ロボットRの周囲の環境を重視し、環境情報検出手段110で検出された発話情報から、発話の可否、発話音量および発話口調を抽出し、発話可能であるか否かを判定する。次に、行動統括制御手段134は、その場で認識される人物の状況を判定材料に加えて発話可能であるか否かを判定する。その上で、行動統括制御手段134は、環境情報検出手段110で検出された発話音量および発話口調の情報を最終的な統合値とする。また、行動統括制御手段134は、以下の4項目のいずれかの終了条件が満たされたか否かを判別し、終了条件が満たされた場合に、対象とする人物に対するアプローチ行動を終了する。
第1終了条件:予め設定された時間が経過しても発話可能な環境にならないとき。
第2終了条件:予め設定された時間が経過しても対象とする人物が対話中であるとき。
第3終了条件:予め設定された時間が経過しても対象とする人物が休息中であるとき。
第4終了条件:予め設定された終了タイミングであるとき。なお、第4終了条件は、バッテリ補給が必要な場合やタスクを実行するための時刻となった場合等を含む。
The behavior
First ending condition: When an environment capable of speaking cannot be established even after a preset time has elapsed.
Second end condition: When the target person is still in conversation even after a preset time has elapsed.
Third end condition: When the target person is resting even after a preset time has elapsed.
Fourth end condition: When the end timing is set in advance. Note that the fourth end condition includes a case where battery replenishment is required or a time for executing a task is reached.
[ロボットの動作]
図6に示したロボットRの動作について主にアプローチ行動制御手段48の動作を中心に図11を参照(適宜図1、図6、図7および図10参照)して説明する。図11は、図6に示したロボットRの動作を示すフローチャートである。ロボットRは、主制御部40によって、無線通信部60を介して管理用コンピュータ3からローカル地図等の情報を予め取得しておく。また、本実施形態では、ロボットRは、現在実行すべきタスクを有していないときに、主制御部40のモチベーション管理部47によって追加された行動計画によって選択された人物の所在地に移動し、その人物と対話するために発話を行う前に、主制御部40のアプローチ行動制御手段48が動作を開始することとする。また、アプローチ行動制御手段48の興味推定手段124は、興味度を算出する方法として、人物を撮像した画像に基づく画像判定モードに設定されているものとする。
[Robot motion]
The operation of the robot R shown in FIG. 6 will be described with reference to FIG. 11 (refer to FIGS. 1, 6, 7, and 10 as appropriate), mainly focusing on the operation of the approach behavior control means 48. FIG. 11 is a flowchart showing the operation of the robot R shown in FIG. The robot R previously acquires information such as a local map from the
そして、アプローチ行動制御手段48は、環境情報検出手段110によって、ローカル地図データ記憶手段32に記憶された地図データから、検出された現在位置および騒音のレベルに対応する発話出力情報を環境に起因した情報として検出する(ステップS1)。そして、アプローチ行動制御手段48は、応対行動制御手段130の行動統括制御手段134によって、現在位置および騒音レベルに対応する発話出力情報に基づいて、現在位置が発話可能な環境か否かを判別する(ステップS2)。
Then, the approach behavior control means 48 causes the utterance output information corresponding to the current position and noise level detected from the map data stored in the local map data storage means 32 by the environment information detection means 110 to originate from the environment. It detects as information (step S1). Then, the approach
ステップS2において、現在位置が発話可能な環境である場合(ステップS2:Yes)、アプローチ行動制御手段48は、人状況判別手段120の集団状況推定手段122によって、対象とする人物の付近に他の人物が認識されないか否かを判別する。すなわち、集団状況推定手段122は、対象とする人物が独り(1人)でいるか否かを判別する(ステップS3)。対象とする人物が独り(1人)でない場合(ステップS3:No)、続いて、集団状況推定手段122は、対象とする人物を含む複数の人物が対話中であるか否かを判別する(ステップS4)。
In step S2, when the current position is an utterable environment (step S2: Yes), the approach
ステップS4において、対象とする人物を含む複数の人物が対話中ではない場合(ステップS4:No)、人状況判別手段120は、個人状況推定手段121によって、対象とする人物が休息中であるか否かを判別する(ステップS5)。また、ステップS3において、対象とする人物が独り(1人)でいる場合(ステップS3:Yes)、人状況判別手段120は、ステップS4をスキップしてステップS5に進む。
In step S4, when a plurality of persons including the target person are not in conversation (step S4: No), the personal situation determination unit 120 uses the personal
ステップS5において、対象とする人物が休息中ではない場合(ステップS5:No)、人状況判別手段120は、発話タイミング決定手段123によって、発話タイミングであると決定する(ステップS6)。なお、発話タイミング決定手段123は、人物の視線方向がロボットRの方向を向いていることを確認して発話タイミングを決定する。そして、アプローチ行動制御手段48は、応対行動制御手段130の行動統括制御手段134によって、発話が許可されると判定した場合に、発話レベル調整手段131によってステップS1で検出された発話出力情報を統合値として発話音量のレベルの調整または発話口調の切替を行い、発話が身振りを伴うものであって発話音量のレベルが調整された場合には、身振り調整手段132によって、発話音量のレベルに比例させて身振りによる各部位の移動幅を調整する(ステップS7)。
In step S5, when the target person is not resting (step S5: No), the person situation determination unit 120 determines the utterance timing by the utterance timing determination unit 123 (step S6). Note that the utterance
そして、ロボットRは、発話を実際に行う。すなわち、応対行動制御手段130の話題制御手段133は、シナリオ記憶手段34に記憶されたシナリオに基づいて、音声合成部21aに音声の出力を指示すると共に、発話に伴った身振りの実行を身振り統合部44に指示する。これにより、ロボットRは、発話を行うと共に、発話に伴った身振りを実行する(ステップS8)。具体的には、ロボットRは、例えば、図3に示した談話室307において、対象とする人物に発話する場合には、口語口調で親しげに比較的高い音量で発話すると共に、腕部R2等を比較的大きく動かす。また、例えば、図3に示した会議室308において、対象とする人物に発話する場合には、敬語口調で比較的低い音量で発話すると共に、腕部R2等を比較的小さく動かす。そして、ロボットRは、音声認識部21bによって、入力された人物の音声を認識する(ステップS9)。そして、アプローチ行動制御手段48は、人状況判別手段120の興味推定手段124によって、検出された視線方向に基づいて興味度を算出し、対象とする人物が話題に興味を有しているか推定する(ステップS10)。
Then, the robot R actually performs the utterance. That is, the topic control means 133 of the response action control means 130 instructs the
そして、アプローチ行動制御手段48は、応対行動制御手段130の行動統括制御手段134によって、終了条件が成立したか否かを判別する(ステップS11)。終了条件が成立した場合(ステップS11:Yes)、アプローチ行動制御手段48は、処理を終了する。一方、終了条件が成立していない場合(ステップS11:No)、アプローチ行動制御手段48は、応対行動制御手段130の話題制御手段133によって、興味推定手段124によって推定された興味度に基づいて、次に提供する話題を展開し(ステップS12)、ステップS1に戻る。
Then, the approach
前記したステップS2において、現在位置が発話可能な環境ではない場合(ステップS2:No)、アプローチ行動制御手段48は、ステップS11に進み、終了条件が成立したか否かを判別する。また、前記したステップS4において、対象とする人物を含む複数の人物が対話中である場合(ステップS4:Yes)、アプローチ行動制御手段48は、ステップS11に進む。また、前記したステップS5において、対象とする人物が休息中である場合(ステップS5:Yes)、アプローチ行動制御手段48は、ステップS11に進む。
In the above-described step S2, when the current position is not an utterable environment (step S2: No), the approach
[話題の展開の具体例]
ここで、話題の展開の具体例について、図12を参照(適宜図10参照)して説明する。人物情報記憶手段35には、例えば、9種類の話題が記憶されているものとする。これらの話題は、図12に示すように、例えば、9個のノード1201〜1209と、それらを結ぶリンクとを用いて記述することができる。ノード1201は、「スポーツ」に関する話題を示している。ノード1201は、ノード1202〜1204にそれぞれ接続されている。ノード1202〜1204は、「陸上」、「水泳」、「球技」に関する話題をそれぞれ示している。ロボットRは、話題制御手段133によって、例えば、ノード1201から話題の提供を開始し、ノード1201において話題の提供が終了した時点で、例えば、話題提供中の興味度の平均値に応じて、ノード1202〜1204の中から、次に提供する話題を選択する。なお、他のノード1205〜1209は、図12においてノード1201〜1204と同様なものを示しているので詳細な説明を省略する。これによれば、ロボットRは、質問を多用することなく人物が嗜好すると推定される情報を発話するので対話が自然なものとなり、対話相手の人物がロボットRに親しみを感じ易くなる。
[Specific examples of topic development]
Here, a specific example of topic development will be described with reference to FIG. 12 (see FIG. 10 as appropriate). For example, nine types of topics are stored in the person
また、他の例として、各ノード1201〜1209に、そのノードのテーマが好きであるかどうかを尋ねる質問と、そのノードのテーマに関する情報とを含むようにしてもよい。この場合には、例えば、ロボットRは、話題制御手段133によって、ノード1201から話題の提供を開始する場合に、初期話題として、例えば、ノード1201において、「スポーツは好きですか?」という質問を選択して発話する。そして、ロボットRは、「はい」という返事を音声認識した場合に、ノード1201に接続されたノード1202〜1204の中から、例えば、ノード1204において、「球技は好きですか?」という質問を選択して発話する。同様に、「野球は好きですか?」、「Giantsは好きですか?」という質問を選択して発話する。このように、すべての質問に対して「はい」の返事を音声認識した場合に、話題制御手段133は、最終的にテーマを「Giants」に決定し、続いて、「Giants」に関する情報の話題を発話することとなる。また、途中で、「いいえ」の返事を音声認識した場合には、話題制御手段133は、質問したテーマと同レベルの別のテーマについて同様な質問を行う。例えば、「球技は好きですか?」という質問に対して、ロボットRが「いいえ」の返事を音声認識した場合に、ノード1202またはノード1203から該当する質問を選択する。これによれば、質問を繰り返すことで人物の興味を絞込むので、人物が嗜好する情報を短時間で推定し、情報を効率よく提供することができる。
As another example, each of the
また、他の例として、予め定められた人物の興味を例えばアンケートにより事前に調査した結果と、各ノード1201〜1209とを、人物ごとに対応付けておくこともできる。この場合には、ロボットRは、事前に調査した結果に基づいて、認識した人物ごとに異なる展開の仕方で話題を発話することができる。さらに、他の例として、話題制御手段133は、各ノード1201〜1209のいずれかをランダムに選択するようにしてもよい。
As another example, a result obtained by investigating a predetermined person's interest in advance through a questionnaire, for example, can be associated with each
本実施形態によれば、ロボットRは、発話を行う前に対象とする人物へのアプローチ行動を制御するために、現在位置する場所および測定された騒音と、対象とする人物の現在撮像された画像が示す状況と、音声認識結果とに応じて、発話の可否、発話音量、発話口調を変更することができる。また、ロボットRは、調整した発話音量のレベルに比例して身振りによる各部位の移動幅を調整するので、発話中の身振りを自然なものとすることができる。さらに、ロボットRは、話題に関する発話を行った後に算出した興味度に基づいて、話題に対して対話中の人物が興味を持っているか判別し、その人物の嗜好する話題を推定して発話することができる。 According to the present embodiment, the robot R captures the current location of the current position and the measured noise and the current image of the target person in order to control the approach behavior to the target person before speaking. Depending on the situation indicated by the image and the speech recognition result, it is possible to change the availability of speech, speech volume, and speech tone. Further, since the robot R adjusts the movement width of each part by gesture in proportion to the adjusted level of the utterance volume, the gesture during utterance can be made natural. Further, the robot R determines whether the person who is talking to the topic is interested based on the degree of interest calculated after the utterance about the topic, and estimates the topic that the person likes and utters the topic. be able to.
以上、本発明の好ましい実施形態について説明したが、本発明は前記した実施形態に限定されるものではない。例えば、本実施形態では、行動統括制御手段134は、アプローチ行動を決定する際に、環境情報検出手段110で検出された発話出力情報を、人物状況データから抽出した発話出力情報よりも優先するものとして説明したが、人物状況データから抽出した発話出力情報の方を優先するように構成してもよい。この場合には、行動統括制御手段134は、まず、認識される人物の状況を重視し、次に、ロボットRの周囲の環境を判定材料に加える。
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to above-described embodiment. For example, in this embodiment, the
また、行動統括制御手段134は、環境情報検出手段110で検出された発話出力情報と、人物状況データから抽出した発話出力情報とを同じタイミングで統合するように構成してもよい。この場合には、例えば、行動統括制御手段134は、人物状況データから抽出した発話出力情報と、環境情報検出手段110で検出された発話出力情報とを比較し、両者が異なる場合に、各発話出力情報を数値化して重み付けを行って統合した統合値を算出し、算出された統合値が予め設定された発話の許可を示す設定値より小さい場合に、人物への発話を許可する。また、行動統括制御手段134は、人物状況データから抽出した発話出力情報と、環境情報検出手段110で検出された発話出力情報とが同じである場合に、その発話出力情報に基づいて、ロボットRの発話の可否を判断し、発話可と判定した場合にその発話出力情報に基づく発話音量および発話口調を音声合成部21aに指示する。
Further, the
また、本実施形態では、ローカル地図データ記憶手段32に記憶された地図データは、予め設定された騒音のレベルごとに発話出力情報が位置情報と対応付けて作成されているものとしたが、これに限定されるものではない。例えば、地図データは、時間帯等の情報や予め定められたイベント情報ごとに、発話出力情報が位置情報と対応付けて作成するようにしてもよい。 Further, in the present embodiment, the map data stored in the local map data storage means 32 is assumed that the utterance output information is created in association with the position information for each preset noise level. It is not limited to. For example, the map data may be created by associating the utterance output information with the position information for each information such as a time zone or predetermined event information.
また、地図データは、必ずしも騒音のレベルごとに作成されている必要はなく、発話出力情報と位置情報とを対応付けて作成しておくようにしてもよい。この場合には、騒音レベルと発話出力情報とを対応付けたテーブルを別に作成しておき、環境情報検出手段110は、音声処理部20の騒音測定部21dで検出された騒音レベルと、地図データおよび別に作成されたテーブルとを参照して所定の規則に則って、現在位置に対応する発話出力情報を決定して応対行動制御手段130に出力することができる。
The map data does not necessarily have to be created for each noise level, and may be created by associating the utterance output information and the position information. In this case, a table in which the noise level and the utterance output information are associated with each other is created separately, and the environment
また、本実施形態では、画像判定モードでは、視線方向から興味度を算出するものとしたが、顔の向きやロボットRから人物の顔までの距離を用いて興味度を算出するようにしてもよい。ここで、ロボットRから人物の顔までの距離は、話題に引き込まれた人物が身を乗り出す具合を示す。また、顔の表情や、頷いているかどうかという点を数値化して興味度を算出するようにしてもよい。 In this embodiment, in the image determination mode, the degree of interest is calculated from the line-of-sight direction. However, the degree of interest may be calculated using the face direction and the distance from the robot R to the person's face. Good. Here, the distance from the robot R to the person's face indicates how the person drawn into the topic gets on. Also, the degree of interest may be calculated by digitizing the facial expression and whether or not it is whispering.
また、本実施形態では、ロボットを、2足歩行可能な自律移動型ロボットとして説明したが、これに限定されず、車輪で移動する自律移動型ロボット、産業用ロボット、自動車などの種々の移動体への応用も可能である。 In the present embodiment, the robot has been described as an autonomous mobile robot capable of walking on two legs. However, the present invention is not limited to this, and various mobile objects such as an autonomous mobile robot that moves by wheels, an industrial robot, and an automobile. Application to is also possible.
A ロボットシステム
R ロボット
R1 頭部
R2 腕部
R3 脚部
R4 胴体部
R5 背面格納部
1 基地局
2 ロボット専用ネットワーク
3 管理用コンピュータ
3a 記憶部
4 ネットワーク
5 端末
10 画像処理部(画像処理手段)
11a ステレオ処理部
11b 移動体抽出部
11c 顔認識部(顔認識手段)
11d 視線検出部(視線検出手段)
20 音声処理部(音声処理手段)
21a 音声合成部
21b 音声認識部(音声認識手段)
21c 音源定位部
21d 騒音測定部(騒音測定手段)
21e 発話情報検出部(発話情報検出手段)
30 記憶部(記憶手段)
31 オブジェクトデータ記憶手段
32 ローカル地図データ記憶手段
33 モチベーション指数記憶手段
34 シナリオ記憶手段
35 人物情報記憶手段
40 主制御部
41 静止障害物統合部
42 オブジェクトデータ統合部
43 行動パターン部
44 身振り統合部(身振り統合手段)
45 内部状態検出部
46 行動計画管理部
47 モチベーション管理部
48 アプローチ行動制御手段
50 自律移動制御部(自律移動制御手段)
60 無線通信部
70 バッテリ
80 対象検知部(対象検知手段)
90 周辺状態検知部
110 環境情報検出手段
120 人状況判別手段
121 個人状況推定手段
122 集団状況推定手段
123 発話タイミング決定手段
124 興味推定手段
130 応対行動制御手段
131 発話レベル調整手段
132 身振り調整手段
133 話題制御手段
134 行動統括制御手段
C カメラ(撮影手段)
MC マイク
S スピーカ(音声出力手段)
SR1 ジャイロセンサ
SR2 GPS受信器(自己位置検出手段)
A Robot system R Robot R1 Head R2 Arm R3 Leg R4 Torso
11a
11d Line-of-sight detection unit (line-of-sight detection means)
20 Voice processing unit (voice processing means)
21a
21c Sound
21e Utterance information detection unit (utterance information detection means)
30 storage unit (storage means)
31 Object data storage means 32 Local map data storage means 33 Motivation index storage means 34 Scenario storage means 35 Person information storage means 40
45 Internal
60
DESCRIPTION OF
MC Microphone S Speaker (Audio output means)
SR1 Gyro sensor SR2 GPS receiver (self-position detection means)
Claims (7)
予め設定された当該ロボットの発話の可否、発話音量および発話口調のうちの少なくとも1つを示す発話出力情報と前記地図上の位置を示す位置情報とを対応付けて作成された地図データと、
前記発話出力情報と予めそれぞれ設定された人物の状況を示す画像条件および人物からの反応を示す音声条件とを対応付けて作成された人物状況データとを記憶する記憶手段を備え、
前記アプローチ行動制御手段は、
検出された現在位置に対応する発話出力情報を前記地図データから当該ロボットの環境に起因した情報として検出する環境情報検出手段と、
前記予め設定された画像条件と前記撮影画像の処理結果および前記音声認識の結果とに基づいて、前記対象とする人物の状況を判別する人状況判別手段と、
前記人状況判別手段で判別された人物の状況に対応する発話出力情報を前記人物状況データから抽出し、前記抽出した発話出力情報と前記環境情報検出手段で検出された発話出力情報とに基づいて、前記対象とする人物に対する発話の可否、発話音量および発話口調のうちの少なくとも1つを決定する応対行動制御手段とを備えることを特徴とするロボット。 Image processing for detecting the current position of the robot on a preset map and image processing so that the situation of the person can be discriminated from a photographed image obtained by photographing the person to be communicated with the photographing means Means, speech processing means for performing speech recognition and speech so that the situation of the person can be discriminated from speech, and approach behavior control means for controlling approach behavior to the target person before performing the speech. Robot,
Map data created by associating utterance output information indicating at least one of utterance availability, utterance volume and utterance tone set in advance with position information indicating the position on the map;
Storage means for storing the utterance output information and human condition data created by associating a preset image condition indicating a person's condition and a sound condition indicating a reaction from the person,
The approach behavior control means includes:
Environmental information detecting means for detecting speech output information corresponding to the detected current position as information resulting from the environment of the robot from the map data;
Based on the preset image condition, the processing result of the captured image, and the result of the voice recognition, a human situation determination unit that determines the situation of the target person;
The utterance output information corresponding to the situation of the person determined by the person situation determination means is extracted from the person situation data, and based on the extracted utterance output information and the utterance output information detected by the environment information detection means And a response behavior control means for determining at least one of speech availability, speech volume and speech tone for the subject person.
前記地図データは、予め設定された騒音のレベルごとに前記発話出力情報が前記位置情報と対応付けて作成され、
前記環境情報検出手段は、検出された現在位置および検出された騒音のレベルに対応する発話出力情報を前記予め設定された騒音のレベルごとに作成された地図データから当該ロボットの環境に起因した情報として検出することを特徴とする請求項1に記載のロボット。 Noise measuring means for measuring the noise around the robot and detecting the noise level;
The map data is created by associating the utterance output information with the position information for each preset noise level,
The environment information detection means is information derived from the environment of the robot from the map data created for each preset noise level, with utterance output information corresponding to the detected current position and the detected noise level. The robot according to claim 1, wherein the robot is detected as:
前記人物状況データから抽出した発話出力情報と、前記環境情報検出手段で検出された発話出力情報とを比較し、両者が異なる場合に、各発話出力情報を数値化して重み付けを行って統合した統合値を算出し、前記算出された統合値が予め設定された発話の許可を示す設定値より小さい場合に、前記人物への発話を許可する行動統括制御手段と、
前記人物への発話が許可された場合に、前記統合値に基づいて発話音量のレベルの調整または発話口調の切り替えを行う発話レベル調整手段と、
を備えることを特徴とする請求項1または請求項2に記載のロボット。 The response action control means includes:
Comparing the utterance output information extracted from the person situation data with the utterance output information detected by the environment information detection means, and when the two are different, the utterance output information is digitized and weighted and integrated. Calculating a value, and when the calculated integrated value is smaller than a preset value indicating permission of utterance set in advance, behavior overall control means for allowing utterance to the person,
An utterance level adjusting means for adjusting an utterance volume level or switching an utterance tone based on the integrated value when utterance to the person is permitted;
The robot according to claim 1, further comprising:
所定の発話を行うときに前記少なくとも1つの部位を移動させる身体動作である身振りを指定する予め作成されたシナリオを記憶するシナリオ記憶手段と、
前記対象とする人物に対して行う発話に対応した身振りを前記シナリオから抽出し、前記抽出した身振りを指定するコマンドを前記自律移動制御手段に出力する身振り統合手段と、
前記発話レベル調整手段で発話音量のレベルが調整された場合に、前記調整された発話音量のレベルに比例させて前記コマンドとして指定される身振りによる前記部位の移動幅を調整する身振り調整手段と、
をさらに備えることを特徴とする請求項3に記載のロボット。 Autonomous movement for autonomously moving the at least one part by outputting a drive signal to a driving means for driving at least one part of the head, arm and leg respectively connected to the torso of the robot Control means;
Scenario storage means for storing a pre-created scenario for designating a gesture that is a body motion that moves the at least one part when performing a predetermined utterance;
Gesture integration means for extracting gestures corresponding to utterances made to the target person from the scenario, and outputting a command for specifying the extracted gestures to the autonomous movement control means;
Gesture adjusting means for adjusting the movement width of the part by the gesture specified as the command in proportion to the adjusted utterance volume level when the utterance volume level is adjusted by the utterance level adjusting means;
The robot according to claim 3, further comprising:
前記撮影画像から前記対象とする人物の顔領域を抽出する顔認識手段と、
前記抽出された顔領域から前記対象とする人物の視線方向を検出する視線検出手段とを有し、
前記対象とする人物に対して所定の話題に関する発話を開始した後に前記視線検出手段で検出された視線方向を数値化した興味度を算出し、前記算出した興味度が上昇したか否かを判別し、前記興味度が上昇した場合に前記人物が前記話題に興味を有していると判定すると共に、前記判別結果を記録する興味推定手段と、
前記興味度が下降した場合に、前記所定の話題に関する発話を中断する話題制御手段と、
をさらに備えることを特徴とする請求項1ないし請求項4のいずれか一項に記載のロボット。 The image processing means includes
Face recognition means for extracting a face area of the target person from the captured image;
Gaze detection means for detecting the gaze direction of the target person from the extracted face area;
After the utterance on the predetermined topic is started for the target person, the degree of interest is calculated by quantifying the gaze direction detected by the gaze detection means, and it is determined whether or not the calculated degree of interest has increased. And when the degree of interest rises, it is determined that the person is interested in the topic, and interest estimation means for recording the determination result;
Topic control means for interrupting utterances related to the predetermined topic when the degree of interest decreases,
The robot according to any one of claims 1 to 4, further comprising:
入力音声から前記対象とする人物の音声の音量、音質、話速のうちの少なくとも1つを示す人物発話情報を検出する発話情報検出手段を有し、
前記対象とする人物に対して所定の話題に関する発話を開始した後に前記音声処理手段で音声認識された認識結果または前記発話情報検出手段で検出された人物発話情報を数値化した興味度を算出し、前記算出した興味度が上昇したか否かを判別し、前記興味度が上昇した場合に前記人物が前記話題に興味を有していると判定すると共に、前記判別結果を記録する興味推定手段と、
前記興味度が下降した場合に、前記所定の話題に関する発話を中断する話題制御手段と、
をさらに備えることを特徴とする請求項1ないし請求項4のいずれか一項に記載のロボット。 The voice processing means is
Speech information detecting means for detecting person speech information indicating at least one of the volume, sound quality, and speech speed of the target person's voice from the input voice;
After the utterance on a predetermined topic is started for the target person, a recognition result obtained by voice recognition by the voice processing unit or a person's utterance information detected by the utterance information detection unit is calculated as a degree of interest. The interest estimation means for determining whether or not the calculated interest level has increased, and determining that the person is interested in the topic when the interest level has increased, and recording the determination result When,
Topic control means for interrupting utterances related to the predetermined topic when the degree of interest decreases,
The robot according to any one of claims 1 to 4, further comprising:
前記話題制御手段は、前記興味度に基づいて、前記人物情報記憶手段に記憶された話題を切り替え、前記対象とする人物に対して前記切り替えた話題に関する発話を行うことを特徴とする請求項5または請求項6に記載のロボット。 A personal information storage means for storing a plurality of topics;
6. The topic control unit switches a topic stored in the person information storage unit based on the degree of interest, and performs an utterance on the switched topic for the target person. Alternatively, the robot according to claim 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007099175A JP4976903B2 (en) | 2007-04-05 | 2007-04-05 | robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007099175A JP4976903B2 (en) | 2007-04-05 | 2007-04-05 | robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008254122A true JP2008254122A (en) | 2008-10-23 |
JP4976903B2 JP4976903B2 (en) | 2012-07-18 |
Family
ID=39978228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007099175A Expired - Fee Related JP4976903B2 (en) | 2007-04-05 | 2007-04-05 | robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4976903B2 (en) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010160608A (en) * | 2009-01-07 | 2010-07-22 | Toshiba Corp | Interaction device, interaction program, and interaction method |
JP2011201001A (en) * | 2010-03-26 | 2011-10-13 | Sony Corp | Robot device, and method of providing information by the robot device |
JP2012161851A (en) * | 2011-02-03 | 2012-08-30 | Advanced Telecommunication Research Institute International | Robot system and space formation recognizing device used in the same |
JP2012213828A (en) * | 2011-03-31 | 2012-11-08 | Fujitsu Ltd | Robot control device and program |
JP2013237124A (en) * | 2012-05-15 | 2013-11-28 | Fujitsu Ltd | Terminal device, method for providing information, and program |
JP2015036915A (en) * | 2013-08-14 | 2015-02-23 | 富士通株式会社 | Interaction device, interaction program, and interaction method |
JP2017067850A (en) * | 2015-09-28 | 2017-04-06 | 株式会社デンソー | Interactive device and interaction control method |
CN106584480A (en) * | 2016-12-31 | 2017-04-26 | 天津菲戈博特智能科技有限公司 | Robot and facial recognition method and voice control method thereof |
WO2018012645A1 (en) * | 2016-07-12 | 2018-01-18 | 엘지전자 주식회사 | Mobile robot and control method therefor |
KR20180113503A (en) | 2016-02-18 | 2018-10-16 | 소니 주식회사 | Information processing apparatus, information processing method, and program |
JPWO2017145929A1 (en) * | 2016-02-25 | 2018-10-25 | シャープ株式会社 | Attitude control device, robot, and attitude control method |
KR20190060637A (en) * | 2017-11-24 | 2019-06-03 | 한국전자통신연구원 | Apparatus for determining speech properties and motion properties of interactive robot and method thereof |
JP2019095523A (en) * | 2017-11-20 | 2019-06-20 | 富士ソフト株式会社 | Robot and robot control method |
WO2019138650A1 (en) * | 2018-01-10 | 2019-07-18 | 株式会社日立製作所 | Moving body |
JP2019154033A (en) * | 2019-03-06 | 2019-09-12 | オリンパス株式会社 | Mobile photographing apparatus, mobile photographing control apparatus, mobile photographing system, photographing method, and photographing program |
WO2020031767A1 (en) * | 2018-08-09 | 2020-02-13 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2020091568A1 (en) * | 2018-11-02 | 2020-05-07 | 서울대학교 산학협력단 | Method for predicting intention of user and apparatus for performing same |
CN111226125A (en) * | 2017-10-16 | 2020-06-02 | 三菱重工制冷空调系统株式会社 | Position estimation device, air conditioning system, position estimation method, and program |
JP2020520308A (en) * | 2017-04-21 | 2020-07-09 | 深▲せん▼前海達闥雲端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co., Ltd. | Robot control method, robot device, and robot device |
US10777198B2 (en) | 2017-11-24 | 2020-09-15 | Electronics And Telecommunications Research Institute | Apparatus for determining speech properties and motion properties of interactive robot and method thereof |
JP2020146826A (en) * | 2019-03-15 | 2020-09-17 | 株式会社デンソーウェーブ | Robot and human position detection system |
CN112380890A (en) * | 2019-07-29 | 2021-02-19 | 柯尼卡美能达株式会社 | Personal space creation system, personal space creation method, and recording medium |
JP2021144633A (en) * | 2020-03-13 | 2021-09-24 | Kddi株式会社 | Interactive device, program and method of changing over dialogue content according to user's interest |
JP7382743B2 (en) | 2019-06-17 | 2023-11-17 | 株式会社ソニー・インタラクティブエンタテインメント | robot system |
JP7397228B1 (en) | 2023-03-31 | 2023-12-12 | Kddi株式会社 | Information processing device, information processing method, program and information processing system |
JP7430083B2 (en) | 2020-03-19 | 2024-02-09 | 株式会社フジタ | speech control device |
JP7434634B1 (en) | 2023-03-28 | 2024-02-20 | Kddi株式会社 | Information processing device, information processing method and program |
JP7434635B1 (en) | 2023-03-28 | 2024-02-20 | Kddi株式会社 | Information processing device, information processing method and program |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020017206A (en) * | 2018-07-27 | 2020-01-30 | ソニー株式会社 | Information processing apparatus, action determination method, and program |
JP7250547B2 (en) | 2019-02-05 | 2023-04-03 | 本田技研工業株式会社 | Agent system, information processing device, information processing method, and program |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001188779A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for processing information and recording medium |
JP2001188786A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for processing conversation and recording medium |
JP2003191187A (en) * | 2001-12-21 | 2003-07-08 | Sony Corp | Robot device and method of controlling it |
JP2003302998A (en) * | 2002-04-09 | 2003-10-24 | Sony Corp | Apparatus and method for information processing, recording medium, and program |
JP2005238382A (en) * | 2004-02-26 | 2005-09-08 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005335001A (en) * | 2004-05-26 | 2005-12-08 | Sony Corp | Robot control device and method, recording medium, and program |
JP2006075948A (en) * | 2004-09-10 | 2006-03-23 | Honda Motor Co Ltd | Controller for robot |
JP2006247780A (en) * | 2005-03-10 | 2006-09-21 | Advanced Telecommunication Research Institute International | Communication robot |
-
2007
- 2007-04-05 JP JP2007099175A patent/JP4976903B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001188779A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for processing information and recording medium |
JP2001188786A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for processing conversation and recording medium |
JP2003191187A (en) * | 2001-12-21 | 2003-07-08 | Sony Corp | Robot device and method of controlling it |
JP2003302998A (en) * | 2002-04-09 | 2003-10-24 | Sony Corp | Apparatus and method for information processing, recording medium, and program |
JP2005238382A (en) * | 2004-02-26 | 2005-09-08 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005335001A (en) * | 2004-05-26 | 2005-12-08 | Sony Corp | Robot control device and method, recording medium, and program |
JP2006075948A (en) * | 2004-09-10 | 2006-03-23 | Honda Motor Co Ltd | Controller for robot |
JP2006247780A (en) * | 2005-03-10 | 2006-09-21 | Advanced Telecommunication Research Institute International | Communication robot |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010160608A (en) * | 2009-01-07 | 2010-07-22 | Toshiba Corp | Interaction device, interaction program, and interaction method |
US8972054B2 (en) | 2010-03-26 | 2015-03-03 | Sony Corporation | Robot apparatus, information providing method carried out by the robot apparatus and computer storage media |
JP2011201001A (en) * | 2010-03-26 | 2011-10-13 | Sony Corp | Robot device, and method of providing information by the robot device |
JP2012161851A (en) * | 2011-02-03 | 2012-08-30 | Advanced Telecommunication Research Institute International | Robot system and space formation recognizing device used in the same |
JP2012213828A (en) * | 2011-03-31 | 2012-11-08 | Fujitsu Ltd | Robot control device and program |
JP2013237124A (en) * | 2012-05-15 | 2013-11-28 | Fujitsu Ltd | Terminal device, method for providing information, and program |
JP2015036915A (en) * | 2013-08-14 | 2015-02-23 | 富士通株式会社 | Interaction device, interaction program, and interaction method |
JP2017067850A (en) * | 2015-09-28 | 2017-04-06 | 株式会社デンソー | Interactive device and interaction control method |
WO2017057172A1 (en) * | 2015-09-28 | 2017-04-06 | 株式会社デンソー | Dialogue device and dialogue control method |
KR20180113503A (en) | 2016-02-18 | 2018-10-16 | 소니 주식회사 | Information processing apparatus, information processing method, and program |
JPWO2017145929A1 (en) * | 2016-02-25 | 2018-10-25 | シャープ株式会社 | Attitude control device, robot, and attitude control method |
WO2018012645A1 (en) * | 2016-07-12 | 2018-01-18 | 엘지전자 주식회사 | Mobile robot and control method therefor |
CN106584480A (en) * | 2016-12-31 | 2017-04-26 | 天津菲戈博特智能科技有限公司 | Robot and facial recognition method and voice control method thereof |
US11325255B2 (en) | 2017-04-21 | 2022-05-10 | Cloudminds Robotics Co., Ltd. | Method for controlling robot and robot device |
JP2020520308A (en) * | 2017-04-21 | 2020-07-09 | 深▲せん▼前海達闥雲端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co., Ltd. | Robot control method, robot device, and robot device |
CN111226125B (en) * | 2017-10-16 | 2023-08-22 | 三菱重工制冷空调系统株式会社 | Air conditioning system and air conditioning control method |
CN111226125A (en) * | 2017-10-16 | 2020-06-02 | 三菱重工制冷空调系统株式会社 | Position estimation device, air conditioning system, position estimation method, and program |
JP2019095523A (en) * | 2017-11-20 | 2019-06-20 | 富士ソフト株式会社 | Robot and robot control method |
KR20190060637A (en) * | 2017-11-24 | 2019-06-03 | 한국전자통신연구원 | Apparatus for determining speech properties and motion properties of interactive robot and method thereof |
KR102147835B1 (en) * | 2017-11-24 | 2020-08-25 | 한국전자통신연구원 | Apparatus for determining speech properties and motion properties of interactive robot and method thereof |
US10777198B2 (en) | 2017-11-24 | 2020-09-15 | Electronics And Telecommunications Research Institute | Apparatus for determining speech properties and motion properties of interactive robot and method thereof |
WO2019138650A1 (en) * | 2018-01-10 | 2019-07-18 | 株式会社日立製作所 | Moving body |
JP2019119028A (en) * | 2018-01-10 | 2019-07-22 | 株式会社日立製作所 | Mobile body, movement control system, and mobile body system |
US11378960B2 (en) | 2018-01-10 | 2022-07-05 | Hitachi, Ltd. | Mobile entity |
JP7081926B2 (en) | 2018-01-10 | 2022-06-07 | 株式会社日立製作所 | Mobiles, motion control systems, and mobile systems |
WO2020031767A1 (en) * | 2018-08-09 | 2020-02-13 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2020091568A1 (en) * | 2018-11-02 | 2020-05-07 | 서울대학교 산학협력단 | Method for predicting intention of user and apparatus for performing same |
JP2019154033A (en) * | 2019-03-06 | 2019-09-12 | オリンパス株式会社 | Mobile photographing apparatus, mobile photographing control apparatus, mobile photographing system, photographing method, and photographing program |
JP2020146826A (en) * | 2019-03-15 | 2020-09-17 | 株式会社デンソーウェーブ | Robot and human position detection system |
JP7382743B2 (en) | 2019-06-17 | 2023-11-17 | 株式会社ソニー・インタラクティブエンタテインメント | robot system |
CN112380890A (en) * | 2019-07-29 | 2021-02-19 | 柯尼卡美能达株式会社 | Personal space creation system, personal space creation method, and recording medium |
JP2021144633A (en) * | 2020-03-13 | 2021-09-24 | Kddi株式会社 | Interactive device, program and method of changing over dialogue content according to user's interest |
JP7221902B2 (en) | 2020-03-13 | 2023-02-14 | Kddi株式会社 | Dialogue device, program and method for switching dialogue content according to user's interest level |
JP7430083B2 (en) | 2020-03-19 | 2024-02-09 | 株式会社フジタ | speech control device |
JP7434634B1 (en) | 2023-03-28 | 2024-02-20 | Kddi株式会社 | Information processing device, information processing method and program |
JP7434635B1 (en) | 2023-03-28 | 2024-02-20 | Kddi株式会社 | Information processing device, information processing method and program |
JP7397228B1 (en) | 2023-03-31 | 2023-12-12 | Kddi株式会社 | Information processing device, information processing method, program and information processing system |
Also Published As
Publication number | Publication date |
---|---|
JP4976903B2 (en) | 2012-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4976903B2 (en) | robot | |
JP4560078B2 (en) | Communication robot | |
US11200729B2 (en) | Content positioning in extended reality systems | |
US11889289B2 (en) | Providing binaural sound behind a virtual image being displayed with a wearable electronic device (WED) | |
JP5405381B2 (en) | Spoken dialogue device | |
JP5411789B2 (en) | Communication robot | |
JP5366048B2 (en) | Information provision system | |
JP4718987B2 (en) | Interface device and mobile robot equipped with the same | |
JP4886572B2 (en) | robot | |
JP2008087140A (en) | Speech recognition robot and control method of speech recognition robot | |
KR102463806B1 (en) | Electronic device capable of moving and method for operating thereof | |
JP2008084135A (en) | Movement control method, mobile robot and movement control program | |
JP2009136968A (en) | Mobile robot | |
JP4896550B2 (en) | Information management system | |
JP2009248193A (en) | Reception system and reception method | |
KR20190106921A (en) | Communication robot and method for operating the same | |
EP3584788A2 (en) | Voice recognition image feedback providing system and method | |
JP2009166184A (en) | Guide robot | |
JP4764377B2 (en) | Mobile robot | |
JP2023101501A (en) | Device, method, and program | |
JP6887035B1 (en) | Control systems, control devices, control methods and computer programs | |
US11368497B1 (en) | System for autonomous mobile device assisted communication | |
JP2023145957A (en) | Information processing device, information processing program, and information processing method | |
JP2023087235A (en) | Robot control system, robot, robot management device, electronic apparatus, and robot control method | |
JP2018005308A (en) | Wandering control device, wandering control method and wandering control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120403 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4976903 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150420 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |