JP3930389B2 - Motion program generation device and robot during robot utterance - Google Patents

Motion program generation device and robot during robot utterance Download PDF

Info

Publication number
JP3930389B2
JP3930389B2 JP2002198256A JP2002198256A JP3930389B2 JP 3930389 B2 JP3930389 B2 JP 3930389B2 JP 2002198256 A JP2002198256 A JP 2002198256A JP 2002198256 A JP2002198256 A JP 2002198256A JP 3930389 B2 JP3930389 B2 JP 3930389B2
Authority
JP
Japan
Prior art keywords
utterance
robot
motion
user
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002198256A
Other languages
Japanese (ja)
Other versions
JP2004034273A (en
Inventor
亮太 日浦
雅人 宅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2002198256A priority Critical patent/JP3930389B2/en
Publication of JP2004034273A publication Critical patent/JP2004034273A/en
Application granted granted Critical
Publication of JP3930389B2 publication Critical patent/JP3930389B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はロボットが発話している間、ロボットを適度に動作させるとともに、ユーザに発話の開始及び終了のタイミングを伝えるための技術に関する。
【0002】
【従来の技術】
従来の技術では、ロボットの発話中は、(1) 決まった動作を再生したり、(2) 発話中の波形データ(特に、音の強弱)に応じてロボットを動作させていた。
【0003】
しかし、(1) の決まった動作の再生では、発話時間は一定でないことから、発話の開始と終了とに動作の開始と終了とが多くの場合ぴったり一致しないため、ユーザがロボットと対話するときの発言タイミングをつかみにくいという欠点がある。(2) 波形データに応じたロボット動作では、動作パターンが音声データに対して瞬間的な動作の組合せとなるため、発話の意味に合致した動作とならないという欠点がある。
【0004】
【発明が解決しようとする課題】
本発明の課題は、上述した従来の技術が持つ欠点を解消し、ロボットが発話している間、ロボットを適度に動作させるとともに、ユーザに発話の開始及び終了のタイミングを伝えることができる技術を提供することである。
【0005】
【課題を解決するための手段】
第1発明は、上記課題を解決するロボット発話中の動作プログラム生成装置であり、動作時間が互いに異なる値に決まっている複数の動作パターンのデータを有するデータベースと、ロボットが発話を開始する前に生成される音声の波形データから発話時間の長さを発話開始前に測定する発話時間測定手段と、前記発話時間測定手段で測定した発話時間に対して発話の開始と終了とに動作の開始と終了とが一致するように、前記データベースの内容から2つ以上の動作パターンの組合せ、再生順序及び再生タイミングを生成する動作パターン組合せ生成手段とを備えることを特徴とする。
【0006】
第2発明は、第1発明において、前記動作パターン組合せ生成手段は、発話開始と発話終了とに動作の開始と終了とが一致しない場合、前後に隣接する動作パターンの間に無動作時間を挿入することを特徴とするロボット発話中の動作プログラム生成装置である、
第3発明は、第1発明において、発声すべき文字データから動作種別を判断する動作種別判断手段を備えることを特徴とするロボット発話中の動作プログラム生成装置である。
【0007】
第4発明は、第1発明から第3発明いずれかのロボット発話中の動作プログラム生成装置を有することを特徴とするロボットである。
【0008】
【発明の実施の形態】
以下、本発明の実施の形態を、図面を参照しながら説明する。
【0009】
本発明の説明に先立ち、本発明を適用するロボットの一例を図3を参照して説明する。図3に示すロボット1は、ロボット本体11が頭部12と胸部13と胴部(台車部)14と左右の腕部15とを有する人間を模したものであり、頭部12と腕部15は図示しない駆動機構により回動可能であるとともに、胴部14に装備された左右の走行用車輪16は図示しない駆動機構により操舵及び走行可能であって、作業空間をバッテリ駆動により自律的に移動するように構成されている。このロボット1は、一般家庭等の屋内を作業空間として人間と共存し、例えば、一般家庭内でユーザの生活を補助・支援・介護するために用いられる。そのため、ロボット1は、内蔵のCPU(コンピュータ)及び各種のセンサにより、ユーザと会話したり、ユーザの行動を見守ったり、ユーザの行動を補助したり、ユーザと一緒に行動したりする機能を備えている。ロボット1の形状としては、愛玩用に動物を模したものなど、種々考えられる。
【0010】
詳細には、図3に示すロボット1はCPUを用いた制御部を持ち、頭部12に2つのカメラ17と2つのマイクロホン18が装着され、胸部13の中央部に音量・音源方向センサと焦電型赤外線センサからなる人検知センサ19、左右にスピーカ20aが装着されている。また、胸部13の中央部に画像ディスプレイ20bが装着され、胴部4に超音波式障害物センサ21やレーザ式障害物センサ22が装着されている。キーボード及びタッチセンサ等が装着されることもある。
【0011】
カメラ17はユーザや屋内を撮影してその画像を制御部に出力し、マイクロホン18はユーザの音声や電話のベル、呼び鈴、テレビの音などの生活音を取り込んで制御部に出力し、人検知センサ19はユーザの有無を検出して制御部に出力する。スピーカ20aはマイクロホン18とともにユーザとの会話に用いられ、画像ディスプレイ20bはユーザに対する情報提供に用いられる。キーボードやタッチセンサはユーザ用のデータ入力機器であり、ユーザの生活パターンデータを入力したり、ユーザの意思を入力するために用いられる。スピーカ20aはユーザに対する情報提供にも用いられる。制御部には、所定期間にわたるカレンダ及び現在の年月日及び時刻を計時するカレンダクロックが備えられている。
【0012】
制御部には、キーボード等のデータ入力機器と、カメラ17、マイクロホン18、人検知センサ19及び障害物センサ21、22等のユーザの生活パターンを常時モニタする外界センサと、カレンダクロックといった内界センサとにより、ロボット1の自己位置に関する情報と、ユーザの位置に関する情報と、ユーザの行動に関する情報とが入力される。
【0013】
制御部は、自己位置認識機能と、ユーザ認識機能と、データベース(データ蓄積部)と、生活パターンデータ処理機能と、駆動制御機能とを有している。
【0014】
自己位置認識機能は、カメラ17が撮影した画像情報に基づいてロボット1自身の位置及び方位(向き、姿勢)を認識する。ユーザ認識機能は、マイクロホン18で取り込んだ音声からユーザの発言内容の認識(音声認識)を行うとともに、カメラ17で撮影した画像情報とマイクロホン18で取り込んだ音声とからユーザ個人の認識を行い、また、カメラ17と人検知センサ19の検出結果からユーザの位置、向き、姿勢、活動量を認識する。
【0015】
データベースは、ユーザとの会話用やユーザへの話し掛け用の音声データ、ユーザとの会話時やユーザへの話し掛け時の身振り動作のデータ、ユーザの生活情報(ユーザの居住に関する部屋の間取りや家具の配置、ユーザ個人の日常の生活パターン、ユーザの趣味、健康状態など)を記憶している。ユーザの生活情報には、必要に応じて文字列や映像、音声などのキーワードが付される。生活パターンのデータとしては、起床、就寝、食事、薬服用、散歩、自由時間、入浴などの行動に関するイベントが上げられ、これらのイベントが時間データとともにタイムスケジュールとして記憶される。
【0016】
生活パターンデータ処理機能は、ユーザがデータ入力機器から直接入力した生活情報をキーワードを付してデータベースに蓄積したり、カメラ17やマイクロホン18、人検知センサ19で取得した音声認識結果などユーザの各種情報を処理することで一つ一つの生活情報にキーワードやその日時を付してデータベースに蓄積する。更に、生活パターンデータ処理機能は、ユーザからの指示や話し掛けに応じて、あるいは、時刻などに応じて、これに対応するデータをデータベースから選択し、選択したデータに応じた指令を動作制御部に与えて制御する。
【0017】
駆動制御機能は、生活パターンデータ処理機能からの指令に応じて、走行用車輪16を駆動してロボット1の走行及び操舵を実行するとともに、頭部12や腕部13を駆動してそれの回動を実行する。また、スピーカ20aや画像ディスプレイ20bを駆動してユーザとの会話を実行する。
【0018】
次に、図1、図2を参照して、本発明の実施例に係るロボット発話中の動作プログラム生成装置(以下、単に動作プログラム生成装置と呼ぶ)を説明する。
【0019】
上述したロボット1は、図1に例示する動作プログラム生成装置を有しており、この動作プログラム生成装置は、データベース31と、発話時間測定部32と、動作パターン組合せ生成部33とを備えたものである。
【0020】
図1中、34はロボットに備えられた音声合成装置であり、音声波形生成部35と波形再生部36からなる。音声波形生成部35は発声すべき文字データを入力して、これに対応する音声の波形データ35aを発話開始前に生成し、波形再生部36は波形データ35aを実時間の音声波形に再生する。再生された音声波形は増幅器37で増幅されてスピーカ20aに与えられ、これによりロボットが発話する。
【0021】
ここで、ロボットが突然しゃべり始めるとユーザが聞き取りにくいので、文字データの先頭に「あ−」とか「うーん」とか意味がない文字データを挿入している。これにより、ロボットが「あ−」とか「うーん」とか意味がない言葉を発してから本来の発話を行うので、ユーザの注意を引き、聞き取りやすくなる。
【0022】
データベース31には、動作時間が互いに異なる値に決まっている複数の動作パターンのデータが格納されている。動作パターンは頭部12や腕部15、胴部14のジェスチャ等の動作をパターン化したものであり、その例を上げると、ロボットがユーザに話し掛ける動きの種類として、1秒間分の動作パターン、2秒間分の動作パターン、4秒間分の動作パターン、8秒間分の動作パターンが格納されている。また、ロボットがユーザに問い掛ける動きの種類として、1秒間分の動作パターン、2秒間分の動作パターンが格納されている。更に、ロボットが確認する動きの種類として、1秒間分の動作パターン、2秒間分の動作パターンが格納されている。
【0023】
発話時間測定部32は、音声波形生成部35等によってロボットの発話開始前に生成される波形データ35aから、発話時間の長さを発話開始前に測定する。波形データ35a自体は実時間の音声波形に再生される前のデータであるから、波形データ35aのデータ長さ(バイト数)を調べることなどにより、瞬時に発話時間を測定することができる。
【0024】
動作パターン組合せ生成部33は、発話時間測定部32で測定した発話時間に対して、ロボットの発話の開始と終了とにロボットの動作の開始と終了とが一致するように、データベース31の内容から2つ以上の動作パターンの組合せを選択し、それの再生順序及び再生タイミングを生成する。
【0025】
また、動作パターン組合せ生成部33は、発話開始と発話終了とに動作の開始と終了とがぴったり一致しない場合は、前後に隣接する動作パターンの間に無動作時間を挿入するようにしている。
【0026】
動作パターン組合せ生成部33が選択する複数の動作パターンは発話内容になるべく適していることが好ましく、そのために、動作種別選択信号38aを利用している。
【0027】
本例では、動作種別判断部38にて発声すべき文字データを解析することで、質問や話し掛け、確認等の動作種別を判断し、動作種別選択信号38aを得るようにしている。
【0028】
動作制御装置39は、動作パターン組合せ生成部33が選択した複数の動作パターンを、動作パターン組合せ生成部33が指定する再生順序と再生タイミングで再生し、頭部12や腕部15、胴部14のアクチュエータ(駆動機構)40を実際に動作させる。
【0029】
図2に動作パターンの組合せ手順の例を示す。
【0030】
図2においては、波形データ35aの長さから、発話時間は14.5秒であり、動作種別はロボットからユーザに対する質問であるとしている。
【0031】
そこで、動作パターン組合せ生成部33は、まず、動作種別=質問より、最後に行う動作として2秒所要する質問用の動作パターン(2秒分の問い掛ける動き)を決定する。次に、始めに行う動作として、8秒分の話し掛ける動きの動作パターンと4秒分の話し掛ける動きの動作パターンとを組み合わせ、全体で14秒を埋める。残った0.5秒については、4秒分の話し掛ける動きの動作パターンと2秒分の問い掛ける動きの動作パターンとの間に、0.5秒の無動作時間を挿入する。
【0032】
これにより、発話の開始と終了とに動作の開始と終了とがぴったり一致し、ロボット1が発話している間、ロボット1が適度に動作するとともに、ユーザに発話の開始及び終了のタイミングを伝えることができる。
【0033】
【発明の効果】
第1発明は、動作時間が互いに異なる値に決まっている複数の動作パターンのデータを有するデータベースと、ロボットが発話を開始する前に生成される音声の波形データから発話時間の長さを発話開始前に測定する発話時間測定手段と、前記発話時間測定手段で測定した発話時間に対して発話の開始と終了とに動作の開始と終了とが一致するように、前記データベースの内容から2つ以上の動作パターンの組合せ、再生順序及び再生タイミングを生成する動作パターン組合せ生成手段とを備えるので、発話に合わせて適度にロボットを動作させるとともに、ユーザに発話の開始及び終了のタイミングを伝えることができる。
【0034】
第2発明は、発話開始と発話終了とに動作の開始と終了とが一致しない場合、動作パターン組合せ生成手段が前後に隣接する動作パターンの間に無動作時間を挿入するので、発話の開始と終了とに動作の開始と終了とがぴったり一致する。
【0035】
第3発明は、発声すべき文字データから動作種別を判断する動作種別判断手段を備えるので、発話内容に適した動作をロボットに行わせることができる。
【0036】
第4発明は、ロボットが第1発明から第3発明いずれかのロボット発話中の動作プログラム生成装置を有するので、ロボットが発話に合わせて適度に動作するとともに、ユーザに発話の開始及び終了のタイミングを伝えることができる。
【図面の簡単な説明】
【図1】本発明の実施例に係るロボット発話中の動作プログラム生成装置の構成を示す図。
【図2】動作パターンの組合せ手順の例を示す図。
【図3】ロボットの一例を示す図。
【符号の説明】
1 ロボット
12 頭部
13 胸部
14 胴部(台車部)
20a スピーカ
31 データベース
32 発話時間測定部
33 動作パターン組合せ生成部
34 音声合成装置
35 音声波形生成部
35a 音声の波形データ
36 波形再生部
37 増幅器
38 動作種別判断部
38a 動作種別選択信号
39 動作制御部
40 アクチュエータ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for appropriately operating a robot while the robot is speaking and transmitting the start and end timing of the speech to the user.
[0002]
[Prior art]
In the conventional technology, during the robot's utterance, (1) the determined motion is reproduced, and (2) the robot is operated according to the waveform data (particularly, the strength of the sound) during the utterance.
[0003]
However, since the utterance time is not constant in the playback of the fixed motion of (1), the start and end of the motion often do not exactly match the start and end of the utterance, so when the user interacts with the robot There is a drawback that it is difficult to grasp the timing of remarks. (2) The robot motion according to the waveform data has a drawback that the motion pattern is a combination of momentary motions with respect to the voice data, so that the motion does not match the meaning of the utterance.
[0004]
[Problems to be solved by the invention]
An object of the present invention is to solve the above-described drawbacks of the conventional technique, and to enable a technique to appropriately operate the robot while the robot is speaking and to notify the user of the start and end timing of the speech. Is to provide.
[0005]
[Means for Solving the Problems]
A first invention is an operation program generation device during robot utterance that solves the above-mentioned problems, and includes a database having data of a plurality of operation patterns whose operation times are determined to be different from each other, and before the robot starts utterance An utterance time measuring means for measuring the length of the utterance time from the waveform data of the generated speech before starting the utterance, and an operation start and an end of the utterance with respect to the utterance time measured by the utterance time measuring means, An operation pattern combination generating means for generating a combination of two or more operation patterns, a reproduction order, and a reproduction timing from the contents of the database so as to coincide with the end.
[0006]
In a second aspect based on the first aspect, the motion pattern combination generating means inserts a non-operation time between adjacent motion patterns when the start and end of the motion do not coincide with the start and end of the speech. An operation program generation device during robot utterance characterized by
According to a third aspect of the present invention, in the first aspect of the invention, there is provided an operation program generating apparatus during robot utterance, comprising operation type determining means for determining an operation type from character data to be uttered.
[0007]
According to a fourth aspect of the present invention, there is provided a robot characterized by having the motion program generating apparatus during the speech of the robot according to any one of the first to third aspects.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0009]
Prior to the description of the present invention, an example of a robot to which the present invention is applied will be described with reference to FIG. The robot 1 shown in FIG. 3 is similar to a human whose robot body 11 has a head 12, a chest 13, a torso (cart) 14, and left and right arms 15. Can be rotated by a drive mechanism (not shown), and the left and right traveling wheels 16 mounted on the body 14 can be steered and run by a drive mechanism (not shown) and autonomously move in the work space by battery drive. Is configured to do. The robot 1 coexists with a human being as a work space indoors such as a general home, and is used, for example, to assist / support / care for the user's life in a general home. Therefore, the robot 1 has functions of having a conversation with the user, watching the user's behavior, assisting the user's behavior, and acting with the user by using a built-in CPU (computer) and various sensors. ing. Various shapes of the robot 1 may be considered, such as a model imitating an animal for pets.
[0010]
Specifically, the robot 1 shown in FIG. 3 has a control unit using a CPU, two heads 12 are equipped with two cameras 17 and two microphones 18, and a volume / sound source direction sensor and a focus are placed in the center of the chest 13. A human detection sensor 19 comprising an electric infrared sensor and speakers 20a are mounted on the left and right. An image display 20 b is attached to the center of the chest 13, and an ultrasonic obstacle sensor 21 and a laser obstacle sensor 22 are attached to the trunk 4. A keyboard and a touch sensor may be attached.
[0011]
The camera 17 takes a picture of the user or indoors and outputs the image to the control unit, and the microphone 18 captures the user's voice and life sounds such as a telephone bell, doorbell, and TV sound, and outputs them to the control unit. The sensor 19 detects the presence / absence of the user and outputs it to the control unit. The speaker 20a is used for conversation with the user together with the microphone 18, and the image display 20b is used for providing information to the user. The keyboard and touch sensor are data input devices for users, and are used to input user life pattern data and input user intentions. The speaker 20a is also used for providing information to the user. The control unit is provided with a calendar for a predetermined period and a calendar clock for measuring the current date and time.
[0012]
The control unit includes a data input device such as a keyboard, an external sensor that constantly monitors a user's life pattern such as a camera 17, a microphone 18, a human detection sensor 19, and obstacle sensors 21 and 22, and an internal sensor such as a calendar clock. Thus, information on the robot 1's own position, information on the user's position, and information on the user's action are input.
[0013]
The control unit has a self-position recognition function, a user recognition function, a database (data storage unit), a life pattern data processing function, and a drive control function.
[0014]
The self-position recognition function recognizes the position and orientation (direction, orientation) of the robot 1 based on image information captured by the camera 17. The user recognition function recognizes the user's speech content (voice recognition) from the voice captured by the microphone 18, recognizes the individual user from the image information captured by the camera 17 and the voice captured by the microphone 18, and The position, orientation, posture, and amount of activity of the user are recognized from the detection results of the camera 17 and the human detection sensor 19.
[0015]
The database contains voice data for conversation with the user and talking to the user, data on gestures during conversation with the user and talking to the user, life information of the user (room layout and furniture Arrangement, daily life patterns of individual users, user hobbies, health conditions, etc.). A keyword such as a character string, video, or voice is attached to the user's life information as necessary. As life pattern data, events related to actions such as waking up, going to bed, eating, taking medication, taking a walk, free time, bathing, etc. are listed, and these events are stored as a time schedule together with the time data.
[0016]
The life pattern data processing function adds life information directly input from a data input device by a user to a keyword and accumulates it in a database, and various kinds of user information such as voice recognition results obtained by the camera 17, microphone 18, and human detection sensor 19. By processing information, keywords and their dates are attached to each piece of life information and stored in a database. Furthermore, the life pattern data processing function selects corresponding data from the database in response to an instruction or talk from the user, or according to time, etc., and sends a command corresponding to the selected data to the operation control unit. Give and control.
[0017]
The drive control function drives the traveling wheel 16 in accordance with a command from the life pattern data processing function to execute the traveling and steering of the robot 1, and also drives the head 12 and the arm 13 to perform the rotation. Perform the action. The speaker 20a and the image display 20b are driven to perform a conversation with the user.
[0018]
Next, with reference to FIG. 1 and FIG. 2, an operation program generation apparatus (hereinafter simply referred to as an operation program generation apparatus) during robot speech according to an embodiment of the present invention will be described.
[0019]
The robot 1 described above has an operation program generation device illustrated in FIG. 1, and this operation program generation device includes a database 31, an utterance time measurement unit 32, and an operation pattern combination generation unit 33. It is.
[0020]
In FIG. 1, reference numeral 34 denotes a voice synthesizer provided in the robot, which includes a voice waveform generation unit 35 and a waveform reproduction unit 36. The speech waveform generation unit 35 receives character data to be uttered, generates speech waveform data 35a corresponding to the speech data before the start of speech, and the waveform reproduction unit 36 reproduces the waveform data 35a into a real-time speech waveform. . The reproduced voice waveform is amplified by the amplifier 37 and given to the speaker 20a, whereby the robot speaks.
[0021]
Here, since it is difficult for the user to hear when the robot suddenly starts speaking, character data such as “Ah” or “Hmm” is inserted at the beginning of the character data. As a result, the robot utters the original utterance after uttering a meaningless word such as “Ah” or “hmm”, so that the user's attention is drawn and it becomes easy to hear.
[0022]
The database 31 stores data of a plurality of operation patterns whose operation times are different from each other. The movement pattern is a pattern of movements of the gestures of the head 12, the arm part 15, and the trunk part 14, and as an example, a movement pattern for one second as a type of movement that the robot talks to the user, An operation pattern for 2 seconds, an operation pattern for 4 seconds, and an operation pattern for 8 seconds are stored. In addition, an operation pattern for one second and an operation pattern for two seconds are stored as types of movement that the robot asks the user. Furthermore, an operation pattern for 1 second and an operation pattern for 2 seconds are stored as types of movements to be confirmed by the robot.
[0023]
The utterance time measuring unit 32 measures the length of the utterance time before starting the utterance from the waveform data 35a generated before the start of the utterance of the robot by the voice waveform generating unit 35 or the like. Since the waveform data 35a itself is data before being reproduced into a real-time speech waveform, the speech time can be instantaneously measured by examining the data length (number of bytes) of the waveform data 35a.
[0024]
The motion pattern combination generation unit 33 uses the contents of the database 31 so that the start and end of the robot's motion coincide with the start and end of the robot's speech with respect to the speech time measured by the speech time measuring unit 32. A combination of two or more operation patterns is selected, and a reproduction order and reproduction timing thereof are generated.
[0025]
Further, the operation pattern combination generation unit 33 inserts a non-operation time between the operation patterns adjacent to each other when the start and end of the operation do not exactly coincide with the start and end of the utterance.
[0026]
The plurality of operation patterns selected by the operation pattern combination generation unit 33 are preferably suitable for the utterance content, and for this purpose, the operation type selection signal 38a is used.
[0027]
In this example, the action type determining unit 38 analyzes the character data to be uttered, thereby determining the action type such as a question, talking, and confirmation, and obtaining the action type selection signal 38a.
[0028]
The motion control device 39 plays back the plurality of motion patterns selected by the motion pattern combination generation unit 33 in the playback order and playback timing specified by the motion pattern combination generation unit 33, and the head 12, the arm unit 15, and the body unit 14. The actuator (drive mechanism) 40 is actually operated.
[0029]
FIG. 2 shows an example of an operation pattern combination procedure.
[0030]
In FIG. 2, from the length of the waveform data 35a, the speech time is 14.5 seconds, and the action type is a question from the robot to the user.
[0031]
Therefore, the motion pattern combination generation unit 33 first determines a motion pattern for a question (motion to be asked for 2 seconds) that requires 2 seconds as the last motion to be performed from motion type = question. Next, as an operation to be performed first, a motion pattern for talking for 8 seconds and a motion pattern for talking for 4 seconds are combined to fill 14 seconds as a whole. For the remaining 0.5 seconds, a non-operation time of 0.5 seconds is inserted between the movement pattern of talking movement for 4 seconds and the movement pattern of inquiry movement for 2 seconds.
[0032]
As a result, the start and end of the movement exactly coincide with the start and end of the utterance, and while the robot 1 is speaking, the robot 1 operates appropriately and informs the user of the start and end timing of the utterance. be able to.
[0033]
【The invention's effect】
According to the first aspect of the present invention, the length of the utterance time is started from the database having a plurality of movement pattern data whose movement times are different from each other and the waveform data of the voice generated before the robot starts the utterance. Two or more from the contents of the database so that the start and end of the operation coincide with the start and end of the utterance with respect to the utterance time measuring means measured before and the utterance time measured by the utterance time measuring means The operation pattern combination generating means for generating the combination of the operation patterns, the reproduction order and the reproduction timing is provided, so that the robot can be operated appropriately according to the utterance and the start and end timing of the utterance can be transmitted to the user. .
[0034]
In the second invention, when the start and end of the motion do not coincide with the start of speech and the end of speech, the motion pattern combination generation means inserts a non-operation time between the front and back adjacent motion patterns. The start and end of the motion exactly match the end.
[0035]
According to the third aspect of the invention, since the action type determining means for determining the action type from the character data to be uttered is provided, it is possible to cause the robot to perform an action suitable for the utterance content.
[0036]
In the fourth aspect of the invention, since the robot has the operation program generating device during the utterance of the robot according to any of the first to third aspects, the robot operates appropriately according to the utterance, and the timing of the start and end of the utterance to the user Can be communicated.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of an operation program generation device during robot speech according to an embodiment of the present invention.
FIG. 2 is a diagram showing an example of an operation pattern combination procedure;
FIG. 3 is a diagram illustrating an example of a robot.
[Explanation of symbols]
1 Robot 12 Head 13 Chest 14 Body (Carriage)
20a Speaker 31 Database 32 Speaking time measurement unit 33 Operation pattern combination generation unit 34 Speech synthesizer 35 Speech waveform generation unit 35a Speech waveform data 36 Waveform reproduction unit 37 Amplifier 38 Operation type determination unit 38a Operation type selection signal 39 Operation control unit 40 Actuator

Claims (4)

動作時間が互いに異なる値に決まっている複数の動作パターンのデータを有するデータベースと、ロボットが発話を開始する前に生成される音声の波形データから発話時間の長さを発話開始前に測定する発話時間測定手段と、前記発話時間測定手段で測定した発話時間に対して発話の開始と終了とに動作の開始と終了とが一致するように、前記データベースの内容から2つ以上の動作パターンの組合せ、再生順序及び再生タイミングを生成する動作パターン組合せ生成手段とを備えることを特徴とするロボット発話中の動作プログラム生成装置。An utterance that measures the length of the utterance time before starting the utterance from the database that has the data of multiple motion patterns whose movement times are determined to be different from each other and the waveform data of the speech generated before the robot starts the utterance A combination of two or more action patterns from the contents of the database such that the start and end of the action coincides with the start and end of the utterance with respect to the utterance time measured by the time measurement means and the utterance time measuring means And a motion pattern combination generating means for generating a playback order and a playback timing. 請求項1において、前記動作パターン組合せ生成手段は、発話開始と発話終了とに動作の開始と終了とが一致しない場合、前後に隣接する動作パターンの間に無動作時間を挿入することを特徴とするロボット発話中の動作プログラム生成装置。2. The operation pattern combination generation unit according to claim 1, wherein when the start and end of the motion do not coincide with the start and end of the speech, the motion pattern combination generating means inserts a non-operation time between the adjacent motion patterns. A motion program generation device during robot utterance. 請求項1において、発声すべき文字データから動作種別を判断する動作種別判断手段を備えることを特徴とするロボット発話中の動作プログラム生成装置。2. The motion program generation apparatus during speech of a robot according to claim 1, further comprising motion type determination means for determining a motion type from character data to be uttered. 請求項1から3いずれかに記載のロボット発話中の動作プログラム生成装置を有することを特徴とするロボット。A robot comprising the motion program generating device for speaking a robot according to any one of claims 1 to 3.
JP2002198256A 2002-07-08 2002-07-08 Motion program generation device and robot during robot utterance Expired - Lifetime JP3930389B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002198256A JP3930389B2 (en) 2002-07-08 2002-07-08 Motion program generation device and robot during robot utterance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002198256A JP3930389B2 (en) 2002-07-08 2002-07-08 Motion program generation device and robot during robot utterance

Publications (2)

Publication Number Publication Date
JP2004034273A JP2004034273A (en) 2004-02-05
JP3930389B2 true JP3930389B2 (en) 2007-06-13

Family

ID=31705760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002198256A Expired - Lifetime JP3930389B2 (en) 2002-07-08 2002-07-08 Motion program generation device and robot during robot utterance

Country Status (1)

Country Link
JP (1) JP3930389B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105856261A (en) * 2016-05-26 2016-08-17 王帅 Voice control action system of robot

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5055486B2 (en) * 2006-07-19 2012-10-24 株式会社国際電気通信基礎技術研究所 Remote operation android utterance control system
JP5402648B2 (en) * 2010-01-05 2014-01-29 日本電気株式会社 Speech synthesis apparatus, robot apparatus, speech synthesis method, and program
TWI416289B (en) * 2010-05-28 2013-11-21 Compal Communications Inc Automatic machine and method for controlling the same
JP5877418B2 (en) * 2011-12-09 2016-03-08 株式会社国際電気通信基礎技術研究所 Scenario generation apparatus and scenario generation method
JP2013237124A (en) * 2012-05-15 2013-11-28 Fujitsu Ltd Terminal device, method for providing information, and program
JP6067905B1 (en) * 2016-03-18 2017-01-25 M−Solutions株式会社 Robot control program generation system
WO2017199585A1 (en) * 2016-05-19 2017-11-23 シャープ株式会社 Robot, robot operation method, and program
JPWO2017199565A1 (en) * 2016-05-20 2019-01-10 シャープ株式会社 Robot, robot operation method, and program
JP2017213612A (en) * 2016-05-30 2017-12-07 トヨタ自動車株式会社 Robot and method for controlling robot
WO2018006369A1 (en) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 Method and system for synchronizing speech and virtual actions, and robot
CN106463118B (en) * 2016-07-07 2019-09-03 深圳狗尾草智能科技有限公司 Method, system and the robot of a kind of simultaneous voice and virtual acting
JP6841473B2 (en) * 2017-03-01 2021-03-10 株式会社国際電気通信基礎技術研究所 Guidance robot
JP6712303B2 (en) * 2018-10-15 2020-06-17 日本電信電話株式会社 Conversation support system, conversation support device, and conversation support program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105856261A (en) * 2016-05-26 2016-08-17 王帅 Voice control action system of robot
CN105856261B (en) * 2016-05-26 2018-05-18 弘丰塑胶制品(深圳)有限公司 The voice control moving system of robot

Also Published As

Publication number Publication date
JP2004034273A (en) 2004-02-05

Similar Documents

Publication Publication Date Title
JP3930389B2 (en) Motion program generation device and robot during robot utterance
KR100906136B1 (en) Information processing robot
JP6751536B2 (en) Equipment, robots, methods, and programs
JP7400923B2 (en) Information processing device and information processing method
JP4622384B2 (en) ROBOT, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM
US20020198717A1 (en) Method and apparatus for voice synthesis and robot apparatus
WO2002045916A1 (en) Robot device, method for controlling motion of robot device, and system for controlling motion of robot device
JP4534427B2 (en) Robot control apparatus and method, recording medium, and program
WO2000053281A1 (en) Virtual pet device and medium on which its control program is recorded
JP5020593B2 (en) Foreign language learning communication system
JP5206151B2 (en) Voice input robot, remote conference support system, and remote conference support method
JP2004034274A (en) Conversation robot and its operation method
Yonezawa et al. Context-aware sensor-doll as a music expression device
JP2007155986A (en) Voice recognition device and robot equipped with the same
JP2005279896A (en) Robot
JP6267634B2 (en) Speech therapy robot
JP6046913B2 (en) Speech therapy robot and speech therapy system
WO2020116356A1 (en) Robot, speech synthesis program, and speech output method
JPWO2013168364A1 (en) Speech therapy robot
JP2004017185A (en) Robot control device
KR20240042461A (en) Silent voice detection
JP2004045591A (en) Method for recognizing voice and method for providing specific speaker's voice dictionary
JP2004046400A (en) Speaking method of robot
JP7156300B2 (en) Information processing device, information processing method, and program
JP2004184788A (en) Voice interaction system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070308

R151 Written notification of patent or utility model registration

Ref document number: 3930389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120316

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130316

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140316

Year of fee payment: 7

EXPY Cancellation because of completion of term