WO2017051627A1 - 音声発話装置及び音声発話方法 - Google Patents
音声発話装置及び音声発話方法 Download PDFInfo
- Publication number
- WO2017051627A1 WO2017051627A1 PCT/JP2016/073190 JP2016073190W WO2017051627A1 WO 2017051627 A1 WO2017051627 A1 WO 2017051627A1 JP 2016073190 W JP2016073190 W JP 2016073190W WO 2017051627 A1 WO2017051627 A1 WO 2017051627A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- utterance
- posture
- unit
- voice
- robot
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
- A63H11/18—Figure toys which perform a realistic walking motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
Definitions
- the present invention mainly relates to a voice utterance device and a voice utterance method.
- Patent Document 1 includes a drive control unit that controls driving of a movable unit that is movably connected to a base, a sound generation unit that generates sound, and a sound output unit that outputs sound generated by the sound generation unit.
- the robot is characterized in that the sound generation means corrects the sound to be generated based on the attitude of the movable part controlled by the drive control means with respect to the base.
- JP 2011-189439 A published September 29, 2011
- the conventional technology as described above provides a technology for outputting a natural sound without a sense of incongruity based on the posture.
- Patent Document 1 there is a problem that even if the technique of Patent Document 1 is applied to a conventional utterance type robot, the unnaturalness of communication that occurs with the utterance type robot cannot be reduced.
- the present invention has been made in view of the above-mentioned problems, and a main object thereof is to provide a voice utterance device that is less likely to give a user a sense of incongruity depending on the content of the utterance than before.
- a voice utterance device is a voice utterance device having an utterance function, and controls a drive unit that changes a posture of the voice utterance device. And an utterance processing unit that utters words according to the posture.
- a speech utterance method is a speech utterance method by a speech utterance device having an utterance function, and controls to change the posture of the speech utterance device.
- the voice utterance device has an effect that the user is less likely to feel discomfort than the conventional utterance content.
- a robot (voice dialogue apparatus) 1 which is an embodiment of a voice utterance apparatus according to the present invention will be described.
- the robot 1 has a dialogue (speech) function.
- FIG. 1 is a block diagram showing the configuration of the robot 1.
- the robot 1 includes a control unit 10, a voice input unit 20, a power supply unit 30, a storage unit 40, a drive unit 50, and a voice output unit (speech processing unit) 60.
- the control unit 10 controls the robot 1 in an integrated manner, and includes a CPU.
- the control unit 10 controls various processes for the robot 1 to interact with the user.
- the control unit 10 includes a speech recognition unit 101, an utterance trigger unit 102, an utterance content determination unit (operation determination unit) 103, a drive control unit 104, and an audio output control unit (speech processing unit) 105.
- the voice recognition unit 101 recognizes the voice input to the voice input unit 20 and notifies the utterance trigger unit 102 of the recognized result.
- the utterance trigger unit 102 detects an utterance trigger (event content) that triggers the robot 1 to perform utterance and posture control, and sends information on the utterance trigger to the utterance content determination unit 103.
- the utterance trigger unit 102 mainly determines whether or not the robot 1 needs to return a response to the voice recognized by the voice recognition unit 101.
- Examples of the recognized voice serving as the utterance trigger include “standing” in the utterance content table 42 of FIG.
- the utterance trigger unit 102 may detect the utterance trigger without recognizing the voice. For example, when the remaining battery level is low, the utterance trigger unit 102 indicates that “the remaining battery level is low and charging is required”, and when the remaining battery level is full, It is determined that utterance is necessary to notify the user that the result capacity is full. In other cases, the utterance trigger unit 102 determines that the utterance is unnecessary.
- the utterance trigger detected by the utterance trigger unit 102 is not limited to the information from the power supply unit 30, but is caused by the internal state of the robot 1 (timer (timer expiration) as shown in the utterance content table 42 of FIG. 4. ) Or an alarm (alarm activation, etc.), and an external environment (incoming call from a communication unit (not shown)).
- the utterance content determination unit (motion determination unit) 103 acquires the current posture information from the drive control unit 104 in response to the acquisition of the utterance trigger information from the utterance trigger unit 102.
- the utterance content determination unit 103 refers to the utterance content table 42 shown in FIG. 4 based on the utterance trigger and the information on the current posture, and determines a utterance word and a target posture that is a posture after the current posture. To do. For example, when the utterance trigger is “timer” and the current posture is “standing posture”, the utterance content determination unit 103 determines the word to be uttered as “Let's sit down” and the target posture as “sitting posture”.
- the drive control unit 104 acquires information on the target posture from the utterance content determination unit 103, refers to the posture table 41 in FIG. 3, and controls the drive unit 50 so that the current posture becomes the target posture.
- the drive control unit 104 specifies the current posture of the robot 1 by referring to a posture table 41 described later and the current rotation angle of each servo motor of the drive unit 50 based on a request from the utterance content determination unit 103. Then, information indicating the current posture is sent to the utterance content determination unit 103.
- the voice output control unit (speech processing unit) 105 controls the voice output unit 60 so that the words determined by the utterance content determination unit 103 are voiced.
- the voice input unit 20 inputs voice.
- the input voice is output to the voice recognition unit 101.
- the voice input unit 20 is composed of a microphone.
- the power supply unit 30 supplies power to the robot 1.
- the power supply unit 30 is a battery.
- the battery remaining amount data of the power supply unit 30 is sent to the utterance trigger unit 102.
- the storage unit 40 stores information necessary for determining the words and target postures to be uttered by the utterance content determination unit 103 such as the posture table 41 and the utterance content table 42.
- the storage unit 40 includes a hard disk and a flash memory.
- the posture table 41 includes, for each posture that the robot 1 can take, a posture name and information on the drive unit (what state the robot 1 is in when the drive unit 50 is in that posture). This is a data table indicating information for the drive control unit 104 to determine.
- the sitting posture, the standing posture and the walking posture in FIG. 3 are illustrated as (a), (b) and (c) in FIG. 2, respectively.
- the information regarding the drive unit in FIG. 3 specifically indicates conditions regarding the rotation angle of each servo motor of the drive unit 50 for determining whether or not the robot 1 is in the corresponding posture.
- the posture table 41 is also information that the drive control unit 104 should refer to in order to set the robot 1 to the target posture. That is, the information regarding the drive unit also indicates how to control the drive unit 50 to bring the robot 1 to the target posture.
- a plurality of tables may be held instead of the posture table 41. That is, for each posture that the robot 1 can take, a table including only “information regarding the drive unit” corresponding to the posture may be held.
- the utterance content table 42 is a table showing a correspondence relationship between the utterance trigger, the current posture, the words to be uttered, and the target posture.
- the utterance content table 42 is a table showing a correspondence relationship between the utterance trigger, the current posture, the words to be uttered, and the target posture.
- the utterance content table 42 is a table showing a correspondence relationship between the utterance trigger, the current posture, the words to be uttered, and the target posture.
- “stand” is described as an example of the recognized voice, but “sit”, “rest”, “charge”, “walk”, “good morning”, etc. Can be mentioned.
- the drive unit 50 drives movable parts such as the head and legs of the robot 1 and is controlled by the drive control unit 104.
- the drive unit 50 is configured by a servo motor, but may be an actuator using air pressure.
- the voice output unit (speech processing unit) 60 is for outputting voice, and is controlled by the voice output control unit 105.
- the audio output unit 60 is composed of a speaker.
- FIG. 5 is a flowchart showing the operation.
- the robot 1 checks whether or not the utterance trigger unit 102 has detected an utterance trigger. If the utterance trigger is not detected, the utterance trigger unit 102 waits until the utterance trigger is detected, and if detected, sends the utterance trigger information to the utterance content determination unit 103 (S101).
- the utterance content determination unit 103 refers to the utterance content table 42 based on the utterance trigger and the current posture, and determines the utterance word and the target posture based on the acquisition of the utterance trigger information. (S102).
- the voice output control unit 105 acquires information on the words to be uttered from the utterance content determination unit 103, controls the voice output unit 60, and the voice output unit 60 outputs the words to be spoken (speech processing step).
- the drive control unit 104 acquires information on the target posture from the utterance content determination unit 103, and controls the drive unit 50 so that the current posture becomes the target posture (S103).
- the drive control unit 104 may perform the control of the drive unit 50 in S103 at the same time as the voice output of the spoken words by the voice output unit 60, or before or after the voice output by the voice output unit 60. Also good.
- Robot 1 finishes the operation according to the flowchart of FIG. 5 after S103.
- FIG. 6 is a block diagram showing the configuration of the robot 2.
- the configuration of the robot 2 is the same as that of the first embodiment except for the control unit 11 and the storage unit 240.
- the recording unit 240 is the same as that of the first embodiment except that the utterance content table 241 and the target posture table 242 are provided instead of the utterance content table 42.
- the utterance content table 241 is a table showing the correspondence between the utterance trigger, the current posture, and the words to be uttered.
- the target posture table 242 is a data table indicating the correspondence between keywords and target postures.
- the keyword only needs to be related to the target posture, and is not limited to the keyword shown in FIG.
- keywords "sit", "stand”, and "walk" specified in the target posture table 242
- those that have been used and changed for example, "stand” and "stand”
- It may be a keyword.
- Control unit 11 The control unit 11 is the same as that in the first embodiment except that the processing content of the utterance content determination unit is different.
- the utterance content determination unit (motion determination unit) 203 acquires the utterance trigger information from the utterance trigger unit 102, and utters by referring to the utterance content table 241 shown in FIG. 7 based on the utterance trigger and the current posture. Determine the language.
- the utterance content determination unit 203 checks whether or not a keyword managed by the target posture table 242 shown in FIG. 8 is included in the words to be uttered, and when a keyword is included, the target corresponding to the keyword is determined. Select posture. If not included, it is confirmed whether the wording indicating the content of the utterance trigger includes a keyword managed by the target posture table 242. If the keyword is included, the target posture corresponding to the keyword is selected. When the keyword is not included, the utterance content determination unit 203 does not change the posture.
- FIG. 9 is a flowchart showing the operation.
- the robot 2 checks whether or not the utterance trigger unit 102 has detected an utterance trigger. If the utterance trigger is not detected, the utterance trigger unit 102 waits until the utterance trigger is detected, and if detected, sends the utterance trigger information to the utterance content determination unit 203 (S201).
- the utterance content determination unit 203 determines the words to be uttered and the target posture based on the utterance trigger and the current posture information in response to the acquisition of the utterance trigger information (S202). Details will be described later.
- the voice output control unit 105 receives the information of the words to be uttered from the utterance content determination unit 203 and controls the voice output unit 60 to output the words to be uttered by voice.
- the voice output unit 60 outputs the uttered words by voice (speech processing step).
- the drive control unit 104 receives information on the target posture from the utterance content determination unit 203, and controls the drive unit 50 so that the current posture of the robot 2 becomes the target posture (S203).
- the robot 2 ends the operation according to the flowchart of FIG. 9 after S203.
- FIG. 10 is a flowchart showing details of S202.
- the utterance content determination unit 203 determines words to be uttered by referring to the utterance content table 241 based on the utterance trigger and the current posture information, and proceeds to S211 (S210).
- the utterance content determination unit 203 checks whether or not a keyword is included in the uttered word, and if included, the process proceeds to S213, and if not included, the process proceeds to S212 (S211).
- the utterance content determination unit 203 checks whether the keyword indicating the content of the utterance trigger includes the keyword. If the keyword is included, the process proceeds to S213 and is included. If not, the process proceeds to S214 (S212).
- the utterance content determination unit 203 refers to the target posture table 242 and determines a target posture (S213).
- the speech content determination unit 203 does not change the posture from the current posture (S214).
- the robot 2 ends the operation according to the flowchart of FIG. 10 after S213 or S214.
- the utterance content determination unit 203 proceeds to S213 because the uttered word “I'm standing already” includes the keyword “standing” in the target posture table 242 of FIG. 8 (S211).
- the utterance content determination unit 203 refers to the target posture table 242 and selects “standing posture” that is a target posture corresponding to the keyword “standing” (S213).
- the robot 2 ends the operation according to the flowchart of FIG. 10 after S213. However, since the current posture and the target posture are both “standing postures”, the posture is maintained in S203 of FIG.
- the utterance content determination unit 203 confirms that the uttered word “ok” does not include the keyword managed in the target posture table 242 and proceeds to S212 (S211).
- the utterance content determination unit 203 confirms that the word “standing” in the target posture table 242 is included in the wording indicating the content of the utterance trigger, and proceeds to S213 (S212).
- the utterance content determination unit 203 refers to the target posture table 242 and selects “standing posture” that is a target posture corresponding to the keyword “standing” (S213).
- the robot 2 ends the operation according to the flowchart of FIG. 10 after S213.
- FIG. 11 is a block diagram showing the configuration of the robot 3.
- the configuration of the robot 3 is the same as that of the first and second embodiments except for the control unit 12 and the storage unit 340.
- the storage unit 340 is the same as that of the second embodiment except that it includes an utterance content table 341 and a target posture table 342 instead of the table 241 and the table 242.
- the utterance content table 341 is a table showing the correspondence between the target posture, the current posture, and the words to be uttered.
- the target posture table 342 is a data table indicating the correspondence between the utterance trigger and the target posture.
- Control unit 12 The control unit 12 is the same as in the first and second embodiments except that the processing content of the utterance content determination unit is different.
- the utterance content determination unit (motion determination unit) 303 acquires the utterance trigger information from the utterance trigger unit 102, and determines the target posture by referring to the target posture table 342 based on the utterance trigger. Next, the utterance content determination unit 303 refers to the utterance content table 341 based on the target posture and the current posture, and determines a word to be uttered.
- the utterance content determination unit 303 refers to the target posture table 342 in FIG. 13 and determines the target posture to be “standing posture”. For example, when the current posture is “standing posture”, the utterance content determination unit 303 refers to the utterance content table 341 in FIG. 12 based on the target posture “standing posture” and the current posture “standing posture”. , Decide to say "I'm standing.”
- FIG. 14 is a flowchart showing the operation.
- the robot 3 confirms whether or not the utterance trigger unit 102 has detected an utterance trigger.
- the utterance trigger unit 102 waits until the utterance trigger is detected. If detected, the utterance trigger unit 102 sends the utterance trigger information to the utterance content determination unit 303 (S301).
- the utterance content determination unit 303 refers to the target posture table 342 based on the acquired utterance trigger information, determines a target posture, and utterance content based on the target posture and current posture information.
- the words to be uttered are determined with reference to the table 341 (S302).
- the utterance content determination unit 303 sends information on the uttered word to the voice output control unit 105 and sends information on the target posture to the drive control unit 104.
- the voice output control unit 105 receives information on the words to be uttered from the utterance content determination unit 303, and controls the voice output unit 60 so as to output the words to be uttered.
- the voice output unit 60 outputs the uttered words by voice (speech processing step).
- the drive control unit 104 receives information on the target posture of the robot 3 from the utterance content determination unit 303, and controls the drive unit 50 so that the current posture of the robot 3 becomes the target posture (S303).
- the robot 3 ends the operation according to the flowchart of FIG. 14 after S303.
- control units 10, 11 and 12 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software using a CPU (Central Processing Unit). .
- IC chip integrated circuit
- CPU Central Processing Unit
- control units 10, 11, and 12 include a CPU that executes instructions of a program that is software that realizes each function, and a ROM (Read) in which the program and various data are recorded so as to be readable by the computer (or CPU).
- the memory includes a storage device (referred to as “recording medium”), a RAM (Random access memory) that expands the program, and the like.
- recording medium a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
- the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
- a transmission medium such as a communication network or a broadcast wave
- the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
- the speech utterance device (robots 1, 2, 3) according to aspect 1 of the present invention is a speech utterance device having a speech function, and controls a drive unit (drive unit 50) that changes the posture of the speech utterance device.
- a drive control unit (drive control unit 104) that utters, and an utterance processing unit (voice output unit 60) that utters words according to the posture.
- the voice utterance device has an effect that the user is less likely to feel discomfort than the conventional utterance content.
- the speech utterance device (robots 1, 2, 3) according to aspect 2 of the present invention is the above-described aspect 1, in which the current posture of the speech utterance device and a target posture that is a posture after the current posture are An action determining unit (utterance content determining units 103, 203, and 303) that determines a word corresponding to at least one of them as a word corresponding to the posture, and the speech processing unit is a word determined by the motion determining unit You may utter.
- An action determining unit utterance content determining units 103, 203, and 303
- the voice utterance device utters according to the current and / or target posture, there is a further effect that the user is less likely to feel uncomfortable.
- the motion determination unit is an event that triggers speech and posture control by the voice utterance device.
- the words to be uttered may be determined according to the contents and the current posture of the voice utterance device.
- the voice utterance device utters according to the content of the event and the posture of the current posture, and thus has the further effect that it is difficult for the user to feel uncomfortable.
- the motion determination unit speech content determination unit 303 utters a word corresponding to at least the target posture of the voice utterance device. May be determined as
- the speech utterance device determines the words to be uttered according to at least the target posture, the target posture corresponds to the words to be uttered, and there is a further effect that the user is less likely to feel discomfort.
- the motion determination unit determines whether or not a keyword is included in the spoken word. When the keyword is included, it may be determined to determine the target posture of the voice utterance device corresponding to the keyword.
- the voice utterance device determines the target posture corresponding to the keyword included in the uttered word, so that the spoken word and the target posture correspond to each other, and the further effect that the user is less likely to feel uncomfortable. Play.
- the drive control unit is configured to perform the above operation from the current posture of the voice utterance device. You may control the said drive part so that it may become the target attitude
- the posture of the voice utterance device changes so as to be the target posture, there is a further effect that the user is less likely to feel discomfort.
- the voice utterance method according to the seventh aspect of the present invention is a voice utterance method by a voice utterance device (robots 1, 2 and 3) having an utterance function, and is controlled to change the posture of the voice utterance device.
- the voice utterance method has an effect that the user is less likely to feel discomfort than the conventional utterance content.
- the voice utterance apparatus may be realized by a computer.
- the voice utterance apparatus is operated on each computer by causing the computer to operate as each unit (software element) included in the voice utterance apparatus.
- the program to be realized and the computer-readable recording medium on which the program is recorded also fall within the scope of the present invention.
- the present invention can be suitably used for various voice utterance devices such as robots.
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Toys (AREA)
- Manipulator (AREA)
Abstract
ロボット(1)は、発話機能を備えた音声発話装置であって、ロボット(1)の姿勢を変化させる駆動部(50)を制御する駆動制御部(104)と、姿勢に応じた言葉を発話する音声出力部(60)と、を備える。
Description
本発明は、主に音声発話装置及び音声発話方法に関する。
特許文献1には、基体に可動連結した可動部の駆動を制御する駆動制御手段と、音声を生成する音声生成手段と、前記音声生成手段において生成された音声を出力する音声出力手段とを有するロボットにおいて、前記音声生成手段は、前記駆動制御手段によって制御される前記可動部の前記基体に対する姿勢に基づいて、生成する音声を補正することを特徴とするロボットが記載されている。
上述のような従来技術は、姿勢に基づいて、違和感のない自然な音声を出力する技術を提供している。
しかしながら、従来の発話型ロボットに特許文献1の技術を適用しても、発話型ロボットとの間で生じるコミュニケーションの不自然さを低減することができない、という問題がある。
例えば、ユーザが「立って」と呼びかけた場合に、「わかった」と言って立ち上がる動作を行うロボットについて考える。このロボットは、既に立っている状態であったとしても、「立って」と呼びかけたユーザに対して「わかった」と返すことになる。これではユーザとロボットとの間のコミュニケーションが不自然になってしまう。
本発明は、上記課題に鑑みて成されたものであり、その主な目的は、従来よりも発話の内容によってユーザに違和感を与えにくい音声発話装置を提供することにある。
上記の課題を解決するために、本発明の一態様に係る音声発話装置は、発話機能を備えた音声発話装置であって、上記音声発話装置の姿勢を変化させる駆動部を制御する駆動制御部と、上記姿勢に応じた言葉を発話する発話処理部と、を備える。
上記の課題を解決するために、本発明の一態様に係る音声発話方法は、発話機能を備えた音声発話装置による音声発話方法であって、上記音声発話装置の姿勢を変化させるように制御する駆動制御工程と、上記姿勢に応じた言葉を発話する発話処理工程と、を含む。
本発明の一態様に係る音声発話装置は、従来よりも発話の内容によってユーザに違和感を与えにくいという効果を奏する。
<実施形態1>
以下、図1~図5を参照して、本発明に係る音声発話装置の一実施形態であるロボット(音声対話装置)1について説明する。ロボット1は対話(発話)機能を備えている。
以下、図1~図5を参照して、本発明に係る音声発話装置の一実施形態であるロボット(音声対話装置)1について説明する。ロボット1は対話(発話)機能を備えている。
〔ロボット1の構成〕
図1は、ロボット1の構成を示すブロック図である。ロボット1は、制御部10、音声入力部20、電源部30、記憶部40、駆動部50及び音声出力部(発話処理部)60を備えている。
図1は、ロボット1の構成を示すブロック図である。ロボット1は、制御部10、音声入力部20、電源部30、記憶部40、駆動部50及び音声出力部(発話処理部)60を備えている。
[制御部10]
制御部10は、ロボット1を統括的に制御するものであり、CPUで構成されている。制御部10は、ロボット1がユーザと対話するための各種処理を統括するものである。制御部10は、音声認識部101、発話トリガ部102、発話内容決定部(動作決定部)103、駆動制御部104及び音声出力制御部(発話処理部)105を備えている。
制御部10は、ロボット1を統括的に制御するものであり、CPUで構成されている。制御部10は、ロボット1がユーザと対話するための各種処理を統括するものである。制御部10は、音声認識部101、発話トリガ部102、発話内容決定部(動作決定部)103、駆動制御部104及び音声出力制御部(発話処理部)105を備えている。
(音声認識部101)
音声認識部101は、音声入力部20に入力された音声を認識し、認識した結果を発話トリガ部102に通知する。
音声認識部101は、音声入力部20に入力された音声を認識し、認識した結果を発話トリガ部102に通知する。
(発話トリガ部102)
発話トリガ部102は、ロボット1が発話及び姿勢制御をする契機となる発話トリガ(イベントの内容)を検知し、当該発話トリガの情報を発話内容決定部103に送る。
発話トリガ部102は、ロボット1が発話及び姿勢制御をする契機となる発話トリガ(イベントの内容)を検知し、当該発話トリガの情報を発話内容決定部103に送る。
発話トリガ部102は、主に、音声認識部101で認識した音声に対し、ロボット1が応答を返す必要があるかどうかを判断する。発話トリガとなる認識した音声としては、例えば、図4の発話内容テーブル42の「立って」等が挙げられる。
また、発話トリガ部102は音声を認識しなくても発話トリガを検知する場合がある。例えば、発話トリガ部102は、バッテリの残量が少ない場合は、「バッテリの残量が少なくなり充電が必要になった」旨を、バッテリの残量が満タンである場合は、「充電の結果容量が満タンになった」旨をユーザへ通知するため発話が必要であると判断する。それ以外の場合は、発話トリガ部102は、発話は不要であると判断する。
また、発話トリガ部102が検知する発話トリガは、電源部30からの情報に限定されず、図4の発話内容テーブル42に示すように、ロボット1の内部状態に起因するもの(タイマー(タイマー満了)又はアラーム(アラーム発動)等)、及び、外部環境(通信部(図示なし)からの着信)に起因するものなども挙げることができる。
(発話内容決定部103)
発話内容決定部(動作決定部)103は、発話トリガ部102からの発話トリガの情報の取得を契機に、駆動制御部104から現在の姿勢の情報を取得する。発話内容決定部103は、当該発話トリガと現在の姿勢の情報とに基づき、図4に示す発話内容テーブル42を参照し、発話する言葉及び現在の姿勢よりも後の姿勢である目標姿勢を決定する。例えば発話トリガが「タイマー」であり、現在の姿勢が「立ち姿勢」である場合、発話内容決定部103は発話する言葉を「座ろうかな」に、目標姿勢を「座り姿勢」に決定する。
発話内容決定部(動作決定部)103は、発話トリガ部102からの発話トリガの情報の取得を契機に、駆動制御部104から現在の姿勢の情報を取得する。発話内容決定部103は、当該発話トリガと現在の姿勢の情報とに基づき、図4に示す発話内容テーブル42を参照し、発話する言葉及び現在の姿勢よりも後の姿勢である目標姿勢を決定する。例えば発話トリガが「タイマー」であり、現在の姿勢が「立ち姿勢」である場合、発話内容決定部103は発話する言葉を「座ろうかな」に、目標姿勢を「座り姿勢」に決定する。
(駆動制御部104)
駆動制御部104は、発話内容決定部103から目標姿勢の情報を取得し、図3の姿勢テーブル41を参照し、現在の姿勢から目標姿勢となるように駆動部50を制御する。
駆動制御部104は、発話内容決定部103から目標姿勢の情報を取得し、図3の姿勢テーブル41を参照し、現在の姿勢から目標姿勢となるように駆動部50を制御する。
また、駆動制御部104は、発話内容決定部103からの要求に基づき、後述の姿勢テーブル41と駆動部50の各サーボモータの現在の回転角度とを参照し、ロボット1の現在の姿勢を特定し、当該現在の姿勢を示す情報を発話内容決定部103に送る。
(音声出力制御部105)
音声出力制御部(発話処理部)105は、発話内容決定部103で決定した言葉を音声出力するよう音声出力部60を制御する。
音声出力制御部(発話処理部)105は、発話内容決定部103で決定した言葉を音声出力するよう音声出力部60を制御する。
[音声入力部20]
音声入力部20は、音声を入力するものである。入力された音声は、音声認識部101へと出力される。本実施形態では、音声入力部20はマイクで構成されている。
音声入力部20は、音声を入力するものである。入力された音声は、音声認識部101へと出力される。本実施形態では、音声入力部20はマイクで構成されている。
[電源部30]
電源部30は、ロボット1に電源を供給するものである。電源部30はバッテリである。電源部30のバッテリの残量のデータは、発話トリガ部102へと送られる。
電源部30は、ロボット1に電源を供給するものである。電源部30はバッテリである。電源部30のバッテリの残量のデータは、発話トリガ部102へと送られる。
[記憶部40]
記憶部40は、姿勢テーブル41及び発話内容テーブル42等の、発話内容決定部103が発話する言葉及び目標姿勢を決定するのに必要な情報を記憶するものである。記憶部40は、ハードディスク及びフラッシュメモリ等で構成されている。
記憶部40は、姿勢テーブル41及び発話内容テーブル42等の、発話内容決定部103が発話する言葉及び目標姿勢を決定するのに必要な情報を記憶するものである。記憶部40は、ハードディスク及びフラッシュメモリ等で構成されている。
(姿勢テーブル41)
図3に示すように、姿勢テーブル41は、ロボット1がとり得る姿勢毎に、姿勢の名称と、駆動部に関する情報(駆動部50がどのような状態の時にロボット1がその姿勢になっているかを駆動制御部104が判断するための情報)とを示すデータテーブルである。
図3に示すように、姿勢テーブル41は、ロボット1がとり得る姿勢毎に、姿勢の名称と、駆動部に関する情報(駆動部50がどのような状態の時にロボット1がその姿勢になっているかを駆動制御部104が判断するための情報)とを示すデータテーブルである。
ここで、図3における座り姿勢、立ち姿勢及び歩行姿勢を図示すると、それぞれ図2の(a)、(b)及び(c)のようになる。図3の駆動部に関する情報は、具体的には、ロボット1が該当する姿勢であるかどうか判断するための、駆動部50の各サーボモータの回転角度に関する条件を示している。
また、姿勢テーブル41は、駆動制御部104がロボット1を目標姿勢にするために参照すべき情報でもある。即ち、駆動部に関する情報は、ロボット1を目標姿勢にするための駆動部50の制御の仕方を示してもいる。なお、姿勢テーブル41の代わりに複数のテーブルを保持してもよい。即ち、ロボット1がとり得る各姿勢について、当該姿勢に対応する「駆動部に関する情報」のみを含むテーブルを保持していてもよい。
(発話内容テーブル42)
発話内容テーブル42は、図4に示すように、発話トリガと、現在の姿勢と、発話する言葉と、目標姿勢との対応関係を示すテーブルである。なお、図4では、認識した音声の例として「立って」のみ記載されているが、「座って」、「休憩して」、「充電して」、「歩いて」及び「おはよう」等も挙げることができる。
発話内容テーブル42は、図4に示すように、発話トリガと、現在の姿勢と、発話する言葉と、目標姿勢との対応関係を示すテーブルである。なお、図4では、認識した音声の例として「立って」のみ記載されているが、「座って」、「休憩して」、「充電して」、「歩いて」及び「おはよう」等も挙げることができる。
(駆動部50)
駆動部50は、ロボット1における頭部及び脚部等の可動部位を駆動するものであり、駆動制御部104により制御される。本実施形態では、駆動部50はサーボモータで構成されているが、空気圧を利用したアクチュエータであってもよい。
駆動部50は、ロボット1における頭部及び脚部等の可動部位を駆動するものであり、駆動制御部104により制御される。本実施形態では、駆動部50はサーボモータで構成されているが、空気圧を利用したアクチュエータであってもよい。
(音声出力部60)
音声出力部(発話処理部)60は、音声を出力するためのものであり、音声出力制御部105によって制御される。音声出力部60はスピーカで構成されている。
音声出力部(発話処理部)60は、音声を出力するためのものであり、音声出力制御部105によって制御される。音声出力部60はスピーカで構成されている。
〔ロボット1の動作〕
次に、図5を参照しながらロボット1の動作(音声発話方法)について説明する。図5は当該動作を示すフローチャートである。
次に、図5を参照しながらロボット1の動作(音声発話方法)について説明する。図5は当該動作を示すフローチャートである。
まず、ロボット1は、発話トリガ部102で発話トリガを検知したか否かを確認する。発話トリガ部102は、発話トリガを検知していない場合は、発話トリガを検知するまで待ち、検知した場合は、発話内容決定部103に発話トリガの情報を送る(S101)。
次に、発話内容決定部103は、発話トリガの情報の取得を契機に、当該発話トリガと、現在の姿勢とに基づき、発話内容テーブル42を参照し、発話する言葉と目標姿勢とを決定する(S102)。
音声出力制御部105は、発話内容決定部103から発話する言葉の情報を取得し、音声出力部60を制御し、音声出力部60は発話する言葉を音声出力する(発話処理工程)。駆動制御工程では、駆動制御部104は、発話内容決定部103から目標姿勢の情報を取得し、現在の姿勢を当該目標姿勢となるように駆動部50を制御する(S103)。
なお、駆動制御部104は、S103の駆動部50の制御を、音声出力部60による発話する言葉の音声出力と同時に行ってもよいし、音声出力部60による上記音声出力の前または後に行ってもよい。
ロボット1は、S103の後、図5のフローチャートに従った動作を終了する。
<実施形態2>
以下、図6~10を参照して本発明の別の一実施形態であるロボット(音声対話装置)2について説明する。上述の実施形態1の部材と全く同じ機能又は略同じ機能を有する部材については、同じ符号を付記し、基本的にその説明を省略する。
以下、図6~10を参照して本発明の別の一実施形態であるロボット(音声対話装置)2について説明する。上述の実施形態1の部材と全く同じ機能又は略同じ機能を有する部材については、同じ符号を付記し、基本的にその説明を省略する。
〔ロボット2の構成〕
図6は、ロボット2の構成を示すブロック図である。ロボット2の構成は、制御部11及び記憶部240以外は、実施形態1と同じである。
図6は、ロボット2の構成を示すブロック図である。ロボット2の構成は、制御部11及び記憶部240以外は、実施形態1と同じである。
[記憶部240]
記録部240は、発話内容テーブル42の代わりに発話内容テーブル241と目標姿勢テーブル242とを備えている以外は、実施形態1と同じである。
記録部240は、発話内容テーブル42の代わりに発話内容テーブル241と目標姿勢テーブル242とを備えている以外は、実施形態1と同じである。
(発話内容テーブル241)
発話内容テーブル241は、発話トリガと、現在の姿勢と、発話する言葉との対応関係を示すテーブルである。なお、図7に示す発話内容テーブル241では、認識した音声の例として「立って」しか記載されていないが、これに限定されず、例えば、「座って」、「休憩して」、「充電して」、「歩いて」及び「おはよう」等も挙げることができる。
発話内容テーブル241は、発話トリガと、現在の姿勢と、発話する言葉との対応関係を示すテーブルである。なお、図7に示す発話内容テーブル241では、認識した音声の例として「立って」しか記載されていないが、これに限定されず、例えば、「座って」、「休憩して」、「充電して」、「歩いて」及び「おはよう」等も挙げることができる。
(目標姿勢テーブル242)
目標姿勢テーブル242は、キーワードと、目標姿勢との対応関係を示すデータテーブルである。ここで、キーワードは目標姿勢と関連するものであればよく、図8のキーワードに限定されない。また、目標姿勢テーブル242に明記されているキーワード(「座る」、「立つ」及び「歩く」)の他、そのキーワードを活用変化させたもの(例えば、「立って」及び「立ち」等)をキーワードとしてもよい。
目標姿勢テーブル242は、キーワードと、目標姿勢との対応関係を示すデータテーブルである。ここで、キーワードは目標姿勢と関連するものであればよく、図8のキーワードに限定されない。また、目標姿勢テーブル242に明記されているキーワード(「座る」、「立つ」及び「歩く」)の他、そのキーワードを活用変化させたもの(例えば、「立って」及び「立ち」等)をキーワードとしてもよい。
[制御部11]
制御部11は、発話内容決定部の処理内容が異なっている点以外は、上述の実施形態1と同じである。
制御部11は、発話内容決定部の処理内容が異なっている点以外は、上述の実施形態1と同じである。
(発話内容決定部203)
発話内容決定部(動作決定部)203は、発話トリガ部102から発話トリガの情報を取得し、当該発話トリガと現在の姿勢とに基づき、図7に示す発話内容テーブル241を参照し、発話する言葉を決定する。
発話内容決定部(動作決定部)203は、発話トリガ部102から発話トリガの情報を取得し、当該発話トリガと現在の姿勢とに基づき、図7に示す発話内容テーブル241を参照し、発話する言葉を決定する。
また、発話内容決定部203は、発話する言葉に図8に示す目標姿勢テーブル242で管理するキーワードが含まれているか否かを確認し、キーワードが含まれている場合、そのキーワードに対応する目標姿勢を選択する。含まれていない場合、発話トリガの内容を示す文言が、目標姿勢テーブル242で管理するキーワードを含むか確認し、キーワードが含まれている場合そのキーワードに対応する目標姿勢を選択する。キーワードが含まれていない場合は、発話内容決定部203は、姿勢を変化させない。
〔ロボット2の動作〕
次に、図9を参照しながらロボット2の動作について説明する。図9は当該動作を示すフローチャートである。
次に、図9を参照しながらロボット2の動作について説明する。図9は当該動作を示すフローチャートである。
まず、ロボット2は、発話トリガ部102で発話トリガを検知したか否かを確認する。発話トリガ部102は、発話トリガを検知していない場合は、発話トリガを検知するまで待ち、検知した場合は、発話内容決定部203に発話トリガの情報を送る(S201)。
次に、発話内容決定部203は、発話トリガの情報の取得を契機に、当該発話トリガと、現在の姿勢の情報とに基づき、発話する言葉及び目標姿勢を決定する(S202)。詳細は後述する。
音声出力制御部105は、発話内容決定部203から発話する言葉の情報を受け取り、当該発話する言葉を音声出力するように音声出力部60を制御する。音声出力部60は当該発話する言葉を音声出力する(発話処理工程)。また、駆動制御工程では、駆動制御部104は、発話内容決定部203から目標姿勢の情報を受け取り、ロボット2の現在の姿勢を当該目標姿勢となるように駆動部50を制御する(S203)。
ロボット2は、S203の後、図9のフローチャートに従った動作を終了する。
〔S202の詳細〕
次に、図10を参照しながらS202の詳細について説明する。図10は、S202の詳細を示すフローチャートである。
次に、図10を参照しながらS202の詳細について説明する。図10は、S202の詳細を示すフローチャートである。
まず、発話内容決定部203は、発話トリガと、現在の姿勢の情報とに基づき、発話内容テーブル241を参照して発話する言葉を決定し、S211へと進む(S210)。
発話内容決定部203は、発話する言葉にキーワードが含まれているか否かを確認し、含まれていればS213に進み、含まれていなければS212に進む(S211)。
発話する言葉にキーワードが含まれていない場合は、発話内容決定部203は、発話トリガの内容を示す文言にキーワードが含まるか確認し、キーワードが含まれていればS213に進み、含まれていなければS214に進む(S212)。
発話する言葉又は発話トリガの内容を示す文言にキーワードが含まれる場合、発話内容決定部203は目標姿勢テーブル242を参照し、目標姿勢を決定する(S213)。
発話する言葉にも発話トリガの内容を示す文言にもキーワードが含まれていない場合は、発話内容決定部203は、現在の姿勢から姿勢を変化させない(S214)。
ロボット2は、S213又はS214の後、図10のフローチャートに従った動作を終了する。
以下に、S202のフローチャートを、2つの例を用いてより具体的に説明する。
(S202の詳細の例1)
発話トリガが「立って」という音声の認識であり、現在の姿勢が「立ち姿勢」である場合、発話内容決定部203は、図7の発話内容テーブル241を参照し、発話する言葉「もう立ってるよ。」を選択し、S211へと進む(S210)。
発話トリガが「立って」という音声の認識であり、現在の姿勢が「立ち姿勢」である場合、発話内容決定部203は、図7の発話内容テーブル241を参照し、発話する言葉「もう立ってるよ。」を選択し、S211へと進む(S210)。
次に、発話内容決定部203は、発話する言葉「もう立ってるよ。」が図8の目標姿勢テーブル242のキーワード「立つ」を含むため、S213へと進む(S211)。
次に、発話内容決定部203は、目標姿勢テーブル242を参照し、キーワード「立つ」に対応する目標姿勢である「立ち姿勢」を選択する(S213)。
ロボット2は、S213の後、図10のフローチャートに従った動作を終了する。ただし、現在の姿勢と目標姿勢とがともに「立ち姿勢」であるため、図9のS203では姿勢を維持することになる。
(S202の詳細の例2)
発話トリガが「立って」という音声の認識であり、現在の姿勢が「座り姿勢」である場合、発話内容決定部203は、発話内容テーブル241を参照し、発話する言葉「オッケー」を選択し、S211へと進む(S210)。
発話トリガが「立って」という音声の認識であり、現在の姿勢が「座り姿勢」である場合、発話内容決定部203は、発話内容テーブル241を参照し、発話する言葉「オッケー」を選択し、S211へと進む(S210)。
次に、発話内容決定部203は、発話する言葉「オッケー。」が目標姿勢テーブル242で管理するキーワードを含まれていないことを確認し、S212に進む(S211)。
次に、発話内容決定部203は、発話トリガの内容を示す文言に、目標姿勢テーブル242の「立つ」というキーワードが含まれていることを確認し、S213に進む(S212)。
次に、発話内容決定部203は、目標姿勢テーブル242を参照し、キーワード「立つ」に対応する目標姿勢である「立ち姿勢」を選択する(S213)。
ロボット2は、S213の後、図10のフローチャートに従った動作を終了する。
<実施形態3>
以下、図11~14を参照して本発明の別の一実施形態であるロボット(音声対話装置)3について説明する。なお、上述の実施形態1及び2にて説明した部材と全く同じ機能又は略同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
以下、図11~14を参照して本発明の別の一実施形態であるロボット(音声対話装置)3について説明する。なお、上述の実施形態1及び2にて説明した部材と全く同じ機能又は略同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
〔ロボット3の構成〕
図11は、ロボット3の構成を示すブロック図である。ロボット3の構成は、制御部12及び記憶部340以外は、実施形態1及び2と同じである。
図11は、ロボット3の構成を示すブロック図である。ロボット3の構成は、制御部12及び記憶部340以外は、実施形態1及び2と同じである。
[記憶部340]
記憶部340は、テーブル241及びテーブル242に代えて発話内容テーブル341と目標姿勢テーブル342とを備えている以外は、実施形態2と同じである。
記憶部340は、テーブル241及びテーブル242に代えて発話内容テーブル341と目標姿勢テーブル342とを備えている以外は、実施形態2と同じである。
(発話内容テーブル341)
発話内容テーブル341は、図11に示すように、目標姿勢と、現在の姿勢と、発話する言葉との対応関係を示すテーブルである。
発話内容テーブル341は、図11に示すように、目標姿勢と、現在の姿勢と、発話する言葉との対応関係を示すテーブルである。
(目標姿勢テーブル342)
目標姿勢テーブル342は、図12に示すように、発話トリガと、目標姿勢との対応関係を示すデータテーブルである。
目標姿勢テーブル342は、図12に示すように、発話トリガと、目標姿勢との対応関係を示すデータテーブルである。
[制御部12]
制御部12は、発話内容決定部の処理内容が異なっている点以外は、上述の実施形態1及び2と同じである。
制御部12は、発話内容決定部の処理内容が異なっている点以外は、上述の実施形態1及び2と同じである。
(発話内容決定部303)
発話内容決定部(動作決定部)303は、発話トリガ部102から発話トリガの情報を取得し、当該発話トリガに基づき、目標姿勢テーブル342を参照し、目標姿勢を決定する。次に、発話内容決定部303は、当該目標姿勢と、現在の姿勢に基づき、発話内容テーブル341を参照し、発話する言葉を決定する。
発話内容決定部(動作決定部)303は、発話トリガ部102から発話トリガの情報を取得し、当該発話トリガに基づき、目標姿勢テーブル342を参照し、目標姿勢を決定する。次に、発話内容決定部303は、当該目標姿勢と、現在の姿勢に基づき、発話内容テーブル341を参照し、発話する言葉を決定する。
例えば、発話トリガが「立って」という音声の認識である場合、発話内容決定部303は、図13の目標姿勢テーブル342を参照し、目標姿勢を「立ち姿勢」に決定する。そして、発話内容決定部303は、例えば現在の姿勢が「立ち姿勢」である場合、目標姿勢「立ち姿勢」と現在の姿勢「立ち姿勢」とに基づき、図12の発話内容テーブル341を参照し、発話する言葉を「立ってるよ。」に決定する。
〔ロボット3の動作〕
次に、図14を参照しながらロボット3の動作について説明する。図14は当該動作を示すフローチャートである。
次に、図14を参照しながらロボット3の動作について説明する。図14は当該動作を示すフローチャートである。
まず、ロボット3は、発話トリガ部102で発話トリガを検知したか否かを確認する。発話トリガ部102が、発話トリガを検知していない場合は、発話トリガを検知するまで待ち、検知した場合は、発話内容決定部303に発話トリガの情報を送る(S301)。
次に、発話内容決定部303は、取得した発話トリガの情報に基づき、目標姿勢テーブル342を参照して、目標姿勢を決定し、当該目標姿勢と、現在の姿勢の情報とに基づき、発話内容テーブル341を参照し、発話する言葉を決定する(S302)。発話内容決定部303は、当該発話する言葉の情報を音声出力制御部105に送り、当該目標姿勢の情報を駆動制御部104に送る。
音声出力制御部105は、発話内容決定部303から発話する言葉の情報を受け取り、当該発話する言葉を音声出力するように音声出力部60を制御する。音声出力部60は当該発話する言葉を音声出力する(発話処理工程)。駆動制御部104は、発話内容決定部303からロボット3の目標姿勢の情報を受け取り、ロボット3の現在の姿勢を当該目標姿勢となるように駆動部50を制御する(S303)。
ロボット3は、S303の後、図14のフローチャートに従った動作を終了する。
〔ソフトウェアによる実現例〕
制御部10、11及び12は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
制御部10、11及び12は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、制御部10、11及び12は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る音声発話装置(ロボット1、2、3)は、発話機能を備えた音声発話装置であって、上記音声発話装置の姿勢を変化させる駆動部(駆動部50)を制御する駆動制御部(駆動制御部104)と、上記姿勢に応じた言葉を発話する発話処理部(音声出力部60)と、を備える。
本発明の態様1に係る音声発話装置(ロボット1、2、3)は、発話機能を備えた音声発話装置であって、上記音声発話装置の姿勢を変化させる駆動部(駆動部50)を制御する駆動制御部(駆動制御部104)と、上記姿勢に応じた言葉を発話する発話処理部(音声出力部60)と、を備える。
上記の構成によれば、上記音声発話装置は、従来よりも発話の内容によってユーザに違和感を与えにくいという効果を奏する。
本発明の態様2に係る音声発話装置(ロボット1、2、3)は、上記態様1において、上記音声発話装置の現在の姿勢と、当該現在の姿勢よりも後の姿勢である目標姿勢とのうちの少なくとも一つに応じた言葉を上記姿勢に応じた言葉として決定する動作決定部(発話内容決定部103、203、303)を備え、上記発話処理部は、上記動作決定部が決定した言葉を発話してもよい。
上記の構成によれば、上記音声発話装置は、現在及び/又は目標の姿勢に応じて発話を行うので、よりユーザに違和感を与えにくいという更なる効果を奏する。
本発明の態様3に係る音声発話装置(ロボット1)は、上記態様2において、上記動作決定部(発話内容決定部103)は、上記音声発話装置が発話及び姿勢制御を行う契機となるイベントの内容と、上記音声発話装置の現在の姿勢とに応じて、発話する言葉を決定してもよい。
上記構成によれば、上記音声発話装置は、イベントの内容と、現在の姿勢の姿勢に応じて発話を行うので、さらにユーザに違和感を与えにくいという更なる効果を奏する。
本発明の態様4に係る音声発話装置(ロボット3)は、上記態様2において、上記動作決定部(発話内容決定部303)は、少なくとも上記音声発話装置の目標姿勢に応じた言葉を発話する言葉として決定してもよい。
上記構成によれば、上記音声発話装置は、少なくとも目標姿勢に応じて発話する言葉が決まるので、目標姿勢と発話する言葉とが対応し、よりユーザに違和感を与えにくいという更なる効果を奏する。
本発明の態様5に係る音声発話装置(ロボット2)は、上記態様2の態様において、上記動作決定部(発話内容決定部203)は、発話する言葉にキーワードが含まれているかどうかを確認し、当該キーワードが含まれている場合には、当該キーワードに対応する上記音声発話装置の目標姿勢を決定することを決定してもよい。
上記構成によれば、上記音声発話装置は、発話する言葉に含まれるキーワードに対応する目標姿勢が決まるので、発話する言葉と目標姿勢とが対応し、よりユーザに違和感を与えにくいという更なる効果を奏する。
本発明の態様6に係る音声発話装置(ロボット1、2、3)は、上記態様2から5までのいずれかの態様において、上記駆動制御部は、上記音声発話装置の現在の姿勢から、上記動作決定部が決定した目標姿勢となるように、上記駆動部を制御してもよい。
上記構成によれば、上記音声発話装置は、目標姿勢となるように姿勢が変化するので、よりユーザに違和感を与えにくいという更なる効果を奏する。
本発明の態様7に係る音声発話方法は、発話機能を備えた音声発話装置(ロボット1、2及び3)による音声発話方法であって、上記音声発話装置の姿勢を変化させるように制御する駆動制御工程と、上記姿勢に応じた言葉を発話する発話処理工程と、を含む。
上記の構成によれば、上記音声発話方法は、従来よりも発話の内容によってユーザに違和感を与えにくいという効果を奏する。
本発明の各態様に係る音声発話装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記音声発話装置が備える各部(ソフトウェア要素)として動作させることにより上記音声発話装置をコンピュータにて実現させるプログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
本発明は、ロボット等の各種音声発話装置に好適に利用することができる。
1、2、3 ロボット(音声発話装置)
60 音声出力部(発話処理部)
105 音声出力制御部(発話処理部)
103、203、303 発話内容決定部(動作決定部)
104 駆動制御部
60 音声出力部(発話処理部)
105 音声出力制御部(発話処理部)
103、203、303 発話内容決定部(動作決定部)
104 駆動制御部
Claims (7)
- 発話機能を備えた音声発話装置であって、
上記音声発話装置の姿勢を変化させる駆動部を制御する駆動制御部と、
上記姿勢に応じた言葉を発話する発話処理部と、を備えることを特徴とする音声発話装置。 - 上記音声発話装置の現在の姿勢と、当該現在の姿勢よりも後の姿勢である目標姿勢とのうちの少なくとも一つに応じた言葉を上記姿勢に応じた言葉として決定する動作決定部を備え、
上記発話処理部は、上記動作決定部が決定した言葉を発話することを特徴とする請求項1に記載の音声発話装置。 - 上記動作決定部は、上記音声発話装置が発話及び姿勢制御を行う契機となるイベントの内容と、上記音声発話装置の現在の姿勢とに応じて、発話する言葉を決定することを特徴とする請求項2に記載の音声発話装置。
- 上記動作決定部は、少なくとも上記音声発話装置の目標姿勢に応じた言葉を発話する言葉として決定することを特徴とする請求項2に記載の音声発話装置。
- 上記動作決定部は、発話する言葉にキーワードが含まれているかどうかを確認し、当該キーワードが含まれている場合には、当該キーワードに対応する上記音声発話装置の目標姿勢を決定することを特徴とする請求項2に記載の音声発話装置。
- 上記駆動制御部は、上記音声発話装置の現在の姿勢から、上記動作決定部が決定した目標姿勢となるように、上記駆動部を制御することを特徴とする請求項2~5の何れか1項に記載の音声発話装置。
- 発話機能を備えた音声発話装置による音声発話方法であって、
上記音声発話装置の姿勢を変化させるように制御する駆動制御工程と、
上記姿勢に応じた言葉を発話する発話処理工程と、を含むことを特徴とする音声発話方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017541471A JPWO2017051627A1 (ja) | 2015-09-24 | 2016-08-05 | 音声発話装置、音声発話方法及びプログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015187432 | 2015-09-24 | ||
JP2015-187432 | 2015-09-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017051627A1 true WO2017051627A1 (ja) | 2017-03-30 |
Family
ID=58385956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/073190 WO2017051627A1 (ja) | 2015-09-24 | 2016-08-05 | 音声発話装置及び音声発話方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2017051627A1 (ja) |
WO (1) | WO2017051627A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018175627A (ja) * | 2017-04-19 | 2018-11-15 | パナソニックIpマネジメント株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
WO2020045732A1 (ko) * | 2018-08-27 | 2020-03-05 | 엘지전자 주식회사 | 이동 로봇의 제어 방법 |
JP2022187004A (ja) * | 2018-08-03 | 2022-12-15 | 学校法人麻布獣医学園 | 制御方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002127061A (ja) * | 2000-10-24 | 2002-05-08 | Nippon Telegraph & Telephone East Corp | エージェント・ロボット連携制御システム |
JP2003062779A (ja) * | 2001-08-28 | 2003-03-05 | Sony Corp | ロボット装置およびロボット制御方法、記録媒体、並びにプログラム |
JP2003071762A (ja) * | 2001-09-04 | 2003-03-12 | Sony Corp | ロボット装置およびロボット制御方法、記録媒体、並びにプログラム |
JP2006038894A (ja) * | 2004-07-22 | 2006-02-09 | Sony Corp | ロボット制御装置および方法、記録媒体、並びにプログラム |
JP2007069302A (ja) * | 2005-09-07 | 2007-03-22 | Hitachi Ltd | 動作表出装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4042108B2 (ja) * | 2003-02-19 | 2008-02-06 | ソニー株式会社 | ロボット装置及びその制御方法 |
JP2007319999A (ja) * | 2006-06-02 | 2007-12-13 | Hitachi Ltd | ロボット装置 |
JP5393544B2 (ja) * | 2010-03-12 | 2014-01-22 | 本田技研工業株式会社 | ロボット、ロボット制御方法およびプログラム |
-
2016
- 2016-08-05 JP JP2017541471A patent/JPWO2017051627A1/ja active Pending
- 2016-08-05 WO PCT/JP2016/073190 patent/WO2017051627A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002127061A (ja) * | 2000-10-24 | 2002-05-08 | Nippon Telegraph & Telephone East Corp | エージェント・ロボット連携制御システム |
JP2003062779A (ja) * | 2001-08-28 | 2003-03-05 | Sony Corp | ロボット装置およびロボット制御方法、記録媒体、並びにプログラム |
JP2003071762A (ja) * | 2001-09-04 | 2003-03-12 | Sony Corp | ロボット装置およびロボット制御方法、記録媒体、並びにプログラム |
JP2006038894A (ja) * | 2004-07-22 | 2006-02-09 | Sony Corp | ロボット制御装置および方法、記録媒体、並びにプログラム |
JP2007069302A (ja) * | 2005-09-07 | 2007-03-22 | Hitachi Ltd | 動作表出装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018175627A (ja) * | 2017-04-19 | 2018-11-15 | パナソニックIpマネジメント株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
JP2022187004A (ja) * | 2018-08-03 | 2022-12-15 | 学校法人麻布獣医学園 | 制御方法 |
JP7466944B2 (ja) | 2018-08-03 | 2024-04-15 | 学校法人麻布獣医学園 | 制御方法 |
WO2020045732A1 (ko) * | 2018-08-27 | 2020-03-05 | 엘지전자 주식회사 | 이동 로봇의 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017051627A1 (ja) | 2017-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6448971B2 (ja) | 対話装置 | |
JP2001154681A (ja) | 音声処理装置および音声処理方法、並びに記録媒体 | |
WO2017051627A1 (ja) | 音声発話装置及び音声発話方法 | |
JP6495015B2 (ja) | 音声対話制御装置、音声対話制御装置の制御方法、および音声対話装置 | |
US20060177802A1 (en) | Audio conversation device, method, and robot device | |
KR20200025226A (ko) | 전자 장치 및 그 제어 방법 | |
JP2017083713A (ja) | 対話装置、対話機器、対話装置の制御方法、制御プログラム、および記録媒体 | |
JP5431282B2 (ja) | 音声対話装置、方法、プログラム | |
WO2018135276A1 (ja) | 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法 | |
JP2006251545A (ja) | 音声対話システム及びコンピュータプログラム | |
KR20210005200A (ko) | 디지털 어시스턴트를 이용한 오디오 정보 제공 | |
JP2017213612A (ja) | ロボットおよびロボットの制御方法 | |
JP2008125815A (ja) | 会話ロボットシステム | |
JP2018132624A (ja) | 音声対話装置 | |
JP2008168375A (ja) | ボディランゲージロボット、ボディランゲージロボットの制御方法及び制御プログラム | |
JP4491438B2 (ja) | 音声対話装置、音声対話方法、およびプログラム | |
US20190147872A1 (en) | Information processing device | |
JP7225642B2 (ja) | コミュニケーションロボット、制御方法及び制御プログラム | |
US10777198B2 (en) | Apparatus for determining speech properties and motion properties of interactive robot and method thereof | |
JP2008107673A (ja) | 会話ロボット | |
JP6772881B2 (ja) | 音声対話装置 | |
WO2017199585A1 (ja) | ロボット、ロボットの動作方法、及びプログラム | |
JP7010193B2 (ja) | 対話装置および対話装置の制御プログラム | |
WO2011030372A1 (ja) | 音声対話装置及びプログラム | |
JP6908636B2 (ja) | ロボットおよびロボットの音声処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16848415 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2017541471 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16848415 Country of ref document: EP Kind code of ref document: A1 |