JP2001209644A - Information processor, information processing method and recording medium - Google Patents

Information processor, information processing method and recording medium

Info

Publication number
JP2001209644A
JP2001209644A JP2000020320A JP2000020320A JP2001209644A JP 2001209644 A JP2001209644 A JP 2001209644A JP 2000020320 A JP2000020320 A JP 2000020320A JP 2000020320 A JP2000020320 A JP 2000020320A JP 2001209644 A JP2001209644 A JP 2001209644A
Authority
JP
Japan
Prior art keywords
message
unit
transmitted
partner
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000020320A
Other languages
Japanese (ja)
Inventor
Jun Yokono
順 横野
Koji Asano
康治 浅野
Seiichi Aoyanagi
誠一 青柳
Miyuki Tanaka
幸 田中
Toshio Oe
敏生 大江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000020320A priority Critical patent/JP2001209644A/en
Publication of JP2001209644A publication Critical patent/JP2001209644A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily provide the message of an expression appropriate for an opposite party. SOLUTION: The speech of a user is voice-recognized in a voice recognition part 1, language-processed in a language processing part 2 and then supplied to an intention understanding part 3. In the intention understanding part 3, the opposite party to transmit the message and contents desired to be transmitted are recognized. In a sentence generation part 6, based on the recognized result, the message of the contents desired to be transmitted by the expression corresponding to intimacy with the opposite party to transmit the message is generated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理装置およ
び情報処理方法、並びに記録媒体に関し、特に、例え
ば、相手に対して適切な表現のメッセージを伝えること
を等ができるようにする情報処理装置および情報処理方
法、並びに記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus, an information processing method, and a recording medium, and more particularly to, for example, an information processing apparatus capable of transmitting a message of an appropriate expression to a partner. The present invention relates to an information processing method, and a recording medium.

【0002】[0002]

【従来の技術】従来より、ある人が、他の人にメッセー
ジを伝達する伝達手段としては、口頭や、電話、手紙、
さらには、インターネットが急速に普及してきた近年に
おいては、電子メール等がある。
2. Description of the Related Art Hitherto, as a means for transmitting a message from one person to another person, oral, telephone, letter,
Furthermore, in recent years when the Internet has rapidly spread, there is e-mail and the like.

【0003】[0003]

【発明が解決しようとする課題】ところで、メッセージ
を伝える相手が、例えば、兄弟や、友人、後輩等である
場合には、メッセージの表現に、それほど気を使わずに
済む。
When the message is transmitted to a partner such as a brother, friend, junior, etc., the user does not need to pay much attention to the expression of the message.

【0004】しかしながら、例えば、メッセージを伝え
る相手が、上司や、先輩、恩師等である場合には、表現
に気をつけてメッセージを作成しなければならないこと
が多く、面倒であった。
[0004] However, for example, when a message is transmitted to a boss, a senior, a teacher, or the like, it is often troublesome to create a message while paying attention to the expression.

【0005】本発明は、このような状況に鑑みてなされ
たものであり、相手に対して適切な表現のメッセージ
を、容易に作成して伝達することを等ができるようにす
るものである。
The present invention has been made in view of such a situation, and is intended to easily create and transmit a message having an appropriate expression to a partner.

【0006】[0006]

【課題を解決するための手段】本発明の情報処理装置
は、ユーザからの入力を解析し、メッセージを伝達する
相手と、伝達したい内容とを、少なくとも認識する解析
手段と、メッセージを伝達する相手との親密度に応じた
表現による、伝達したい内容のメッセージを生成するメ
ッセージ生成手段とを備えることを特徴とする。
SUMMARY OF THE INVENTION An information processing apparatus according to the present invention analyzes an input from a user and analyzes at least a partner to transmit a message and contents to be transmitted, and a partner to transmit a message. And a message generating means for generating a message of the content to be transmitted in an expression according to the intimacy with the message.

【0007】この情報処理装置には、メッセージ生成手
段が生成したメッセージを、そのメッセージを伝達する
相手に伝達する伝達手段をさらに設けることができる。
[0007] The information processing apparatus may further include a transmitting means for transmitting the message generated by the message generating means to a partner transmitting the message.

【0008】伝達手段には、メッセージを合成音で出力
させることができる。
[0008] The transmission means can output the message as a synthesized sound.

【0009】伝達手段には、メッセージを、ネットワー
クを介して送信させることができる。
The transmission means can transmit the message via a network.

【0010】本発明の情報処理装置は、ロボットとする
ことができる。
[0010] The information processing apparatus of the present invention can be a robot.

【0011】メッセージ生成手段には、過去に生成した
メッセージと重複しないメッセージを生成させることが
できる。
The message generating means can generate a message which does not overlap with a message generated in the past.

【0012】本発明の情報処理装置には、メッセージ生
成手段が生成したメッセージの履歴を記憶する記憶手段
をさらに設けることができ、この場合、メッセージ生成
手段には、記憶手段の記憶内容を参照することにより、
過去に生成したメッセージと重複しないメッセージを生
成させることができる。
The information processing apparatus according to the present invention may further include a storage unit for storing the history of the message generated by the message generation unit. In this case, the message generation unit refers to the storage contents of the storage unit. By doing
It is possible to generate a message that does not overlap with a message generated in the past.

【0013】メッセージ生成手段には、過去に生成した
メッセージの1以上の単語を置換することにより、その
メッセージと重複しないメッセージを生成させることが
できる。
The message generating means can generate a message that does not overlap with the message by replacing one or more words of the message generated in the past.

【0014】本発明の情報処理装置には、ユーザの音声
を認識する音声認識手段をさらに設けることができ、こ
の場合、解析手段には、音声認識手段による音声認識結
果を解析させることができる。
[0014] The information processing apparatus of the present invention may further include voice recognition means for recognizing the voice of the user. In this case, the analysis means can analyze the voice recognition result by the voice recognition means.

【0015】本発明の情報処理方法は、ユーザからの入
力を解析し、メッセージを伝達する相手と、伝達したい
内容とを、少なくとも認識する解析ステップと、メッセ
ージを伝達する相手との親密度に応じた表現による、伝
達したい内容のメッセージを生成するメッセージ生成ス
テップとを備えることを特徴とする。
An information processing method according to the present invention analyzes an input from a user and analyzes at least a partner to which a message is to be transmitted and contents to be transmitted, and a method according to the degree of intimacy with the partner to which the message is to be transmitted. And a message generating step of generating a message of the content to be transmitted in the above expression.

【0016】本発明の記録媒体は、ユーザからの入力を
解析し、メッセージを伝達する相手と、伝達したい内容
とを、少なくとも認識する解析ステップと、メッセージ
を伝達する相手との親密度に応じた表現による、伝達し
たい内容のメッセージを生成するメッセージ生成ステッ
プとを備えるプログラムが記録されていることを特徴と
する。
The recording medium according to the present invention analyzes an input from a user, analyzes at least a partner to which a message is to be transmitted, and a content to be transmitted, and responds to an intimacy with the partner to which the message is transmitted. A message generating step of generating a message of the content to be transmitted by the expression.

【0017】本発明の情報処理装置および情報処理方
法、並びに記録媒体においては、ユーザからの入力が解
析され、メッセージを伝達する相手と、伝達したい内容
とが、少なくとも認識される。そして、メッセージを伝
達する相手との親密度に応じた表現による、伝達したい
内容のメッセージが生成される。
In the information processing apparatus, the information processing method, and the recording medium of the present invention, an input from a user is analyzed, and at least a partner to which a message is to be transmitted and contents to be transmitted are recognized. Then, a message having contents to be transmitted is generated by an expression according to the intimacy with the partner to which the message is transmitted.

【0018】[0018]

【発明の実施の形態】図1は、本発明を適用したロボッ
トの一実施の形態の外観構成例を示している。
FIG. 1 shows an example of the external configuration of a robot according to an embodiment of the present invention.

【0019】このロボットは、ユーザからのメッセージ
を、所定の相手に伝えてくれるようになっている。
This robot transmits a message from a user to a predetermined partner.

【0020】即ち、本実施の形態では、ロボットは、犬
形状のものとされており、胴体部ユニット2の前後左右
に、それぞれ脚部ユニット3A,3B,3C,3Dが連
結されるとともに、胴体部ユニット2の前端部と後端部
に、それぞれ頭部ユニット4と尻尾部ユニット5が連結
されることにより構成されている。
That is, in the present embodiment, the robot has a dog shape, and leg units 3A, 3B, 3C, 3D are connected to the front, rear, left and right of the body unit 2, respectively. The head unit 4 and the tail unit 5 are connected to the front end and the rear end of the unit 2 respectively.

【0021】尻尾部ユニット5は、胴体部ユニット2の
上面に設けられたベース部5Bから、2自由度をもって
湾曲または揺動自在に引き出されている。
The tail unit 5 is drawn out from a base unit 5B provided on the upper surface of the body unit 2 so as to bend or swing with two degrees of freedom.

【0022】脚部ユニット3A乃至3Dそれぞれの関節
部分や、脚部ユニット3A乃至3Dそれぞれと胴体部ユ
ニット2の連結部分、頭部ユニット4と胴体部ユニット
2の連結部分、並びに尻尾部ユニット5と胴体部ユニッ
ト2の連結部分などには、図示せぬアクチュエータが配
設されており、これにより、各連結部分は、所定の自由
度を持って回転することで、ロボットは、実際の犬がと
る行動と同様の行動をとることができるようになってい
る。
The joints of the leg units 3A to 3D, the joints of the leg units 3A to 3D and the body unit 2, the joints of the head unit 4 and the body unit 2, and the tail unit 5 An actuator (not shown) is provided at a connection portion of the body unit 2 and the like, whereby each connection portion rotates with a predetermined degree of freedom, so that the robot can take an actual dog. You can take actions similar to actions.

【0023】また、本実施の形態では、ロボットは、図
2(A)に示すように、ユーザの発話を音声認識し、そ
の音声認識結果を解析して、メッセージを伝達する相手
と、伝達したい内容とを認識するようになっている。さ
らに、ロボットは、メッセージを伝達する相手とユーザ
との間の親密度(親しさ)に応じた表現による、伝達し
たい内容のメッセージを生成し、例えば、図2(B)に
示すように、相手がいる場所に行って、生成したメッセ
ージを、合成音で伝達するようになっている。
In this embodiment, as shown in FIG. 2A, the robot recognizes the utterance of the user by voice, analyzes the voice recognition result, and wants to transmit the message to the other party. It is designed to recognize the contents. Further, the robot generates a message of the content to be transmitted in an expression according to the intimacy (friendliness) between the user and the user who transmits the message, and for example, as shown in FIG. Go to the place where there is, and transmit the generated message by synthetic sound.

【0024】また、ロボットは、通信機能を備えてお
り、必要に応じて、生成したメッセージを、電子メール
等で伝達することもできるようにもなっている。
Further, the robot is provided with a communication function, so that the generated message can be transmitted by e-mail or the like as necessary.

【0025】次に、図3は、図1のロボットの電気的構
成例を示している。
Next, FIG. 3 shows an example of the electrical configuration of the robot shown in FIG.

【0026】音声認識部1には、ユーザが発話した音声
が入力されるようになっており、音声認識部1は、入力
された音声を音声認識し、その音声認識結果としてのテ
キスト(音韻情報)を、言語処理部2に出力する。
A speech uttered by the user is input to the speech recognition unit 1. The speech recognition unit 1 performs speech recognition of the inputted speech, and outputs a text (phoneme information) as the speech recognition result. ) Is output to the language processing unit 2.

【0027】言語処理部2は、音声認識部1が出力する
音声認識結果を言語処理し、その音声認識結果に含まれ
る単語や、構文および意味に関する情報を、言語処理結
果として、意図理解部3に出力する。
The language processing section 2 language-processes the speech recognition result output from the speech recognition section 1 and uses the words, syntax and meaning information included in the speech recognition result as a language processing result as an intention understanding section 3. Output to

【0028】意図理解部3は、言語処理部2の言語処理
結果から、ユーザがメッセージを伝えたい相手(以下、
適宜、伝達相手という)と、伝えたい内容(意図)を理
解する。さらに、意図理解部3は、理解した伝達相手と
ユーザとの親密度に対応した表現による、伝えたい内容
のメッセージを生成するための制御情報としての文生成
制御情報を生成し、文生成部6に出力する。
The intention understanding unit 3 uses the language processing result of the language processing unit 2 to send a message to a user (hereinafter, referred to as a user).
Understand the contents (intent) you want to convey, as appropriate. Further, the intention understanding unit 3 generates sentence generation control information as control information for generating a message of the content to be conveyed in an expression corresponding to the familiarity between the understood communication partner and the user, and the sentence generation unit 6 Output to

【0029】文生成部6は、意図理解部3からの文生成
制御情報にしたがってメッセージを生成し、音声合成部
7または通信部9に出力する。
The sentence generation unit 6 generates a message according to the sentence generation control information from the intention understanding unit 3 and outputs the message to the speech synthesis unit 7 or the communication unit 9.

【0030】即ち、伝達相手が、ロボットが移動してい
くことのできる場所にいる場合には、文生成部6は、生
成したメッセージを、音声合成部7に出力する。また、
この場合、意図理解部4は、伝達相手がいる場所を表す
場所情報を、制御部4に供給する。制御部4は、場所情
報を受信すると、その場所情報が表す場所に、ロボット
を移動させるように、駆動部5を制御する。駆動部5
は、制御部4からの制御にしたがって、アクチュエータ
を駆動し、これにより、ロボットは、場所情報が表す場
所、即ち、伝達相手がいる場所に移動する。その後、音
声合成部7は、文生成部6からのメッセージに対応した
合成音を生成し、スピーカ8から出力する。
That is, when the communication partner is in a place where the robot can move, the sentence generation unit 6 outputs the generated message to the speech synthesis unit 7. Also,
In this case, the intention understanding unit 4 supplies the control unit 4 with location information indicating the location of the communication partner. When receiving the location information, the control unit 4 controls the driving unit 5 to move the robot to the location represented by the location information. Drive unit 5
Drives the actuator in accordance with the control from the control unit 4, whereby the robot moves to the location represented by the location information, that is, the location where the communication partner exists. After that, the speech synthesis unit 7 generates a synthesized sound corresponding to the message from the sentence generation unit 6 and outputs it from the speaker 8.

【0031】一方、伝達相手が、ロボットが移動してい
くことが困難な場所にいる場合には、文生成部6は、生
成したメッセージを、通信部9に出力する。通信部9
は、例えば、電子メールの送受信が可能な携帯電話機と
同様の機能を有しており、文生成部9からのメッセージ
を、電子メールにして、インターネット等の所定のネッ
トワークを介して、伝達相手の電子メールアドレス宛に
送信する。
On the other hand, when the communication partner is in a place where it is difficult for the robot to move, the sentence generation unit 6 outputs the generated message to the communication unit 9. Communication unit 9
Has a function similar to that of a mobile phone capable of transmitting and receiving e-mail, for example, and converts a message from the sentence generation unit 9 into an e-mail and sends the message to a communication partner via a predetermined network such as the Internet. Send to e-mail address.

【0032】なお、通信部9は、公衆網等の所定のネッ
トワークに接続されたコネクタや接点等と接続可能なよ
うに構成することが可能である。この場合、例えば、ロ
ボットが、コネクタや接点が設置されている位置まで、
自律的に移動し、通信部9とコネクタ等とを接続状態に
して、電子メールを送信するようにすることができる。
The communication section 9 can be configured to be connectable to a connector or a contact point connected to a predetermined network such as a public network. In this case, for example, the robot moves to the position where the connectors and contacts are installed.
It is possible to autonomously move, connect the communication unit 9 and a connector or the like, and transmit an e-mail.

【0033】次に、図4は、図3の音声認識部1の構成
例を示している。
Next, FIG. 4 shows an example of the configuration of the voice recognition unit 1 of FIG.

【0034】ユーザの発話は、マイク(マイクロフォ
ン)11に入力され、マイク11では、その発話が、電
気信号としての音声信号に変換される。この音声信号
は、A/D(Analog Digital)変換部12に供給される。
A/D変換部12では、マイク11からのアナログ信号
である音声信号がサンプリング、量子化され、ディジタ
ル信号である音声データに変換される。この音声データ
は、特徴抽出部13に供給される。
The user's utterance is input to a microphone (microphone) 11, where the utterance is converted into an audio signal as an electric signal. This audio signal is supplied to an A / D (Analog Digital) converter 12.
The A / D converter 12 samples and quantizes an audio signal, which is an analog signal from the microphone 11, and converts it into audio data, which is a digital signal. This audio data is supplied to the feature extraction unit 13.

【0035】特徴抽出部13は、A/D変換部12から
の音声データについて、適当なフレームごとに、例え
ば、スペクトルや、線形予測係数、ケプストラム係数、
線スペクトル対、MFCC(Mel Frequency Cepstrum Co
efficient)等の特徴パラメータを抽出し、マッチング部
14に供給する。
The feature extraction unit 13 converts the audio data from the A / D conversion unit 12 into, for example, a spectrum, a linear prediction coefficient, a cepstrum coefficient,
Line spectrum pair, MFCC (Mel Frequency Cepstrum Co.)
A characteristic parameter such as efficient is extracted and supplied to the matching unit 14.

【0036】マッチング部14は、特徴抽出部13に記
憶された特徴パラメータに基づき、音響モデルデータベ
ース15、辞書データベース16、および文法データベ
ース17を必要に応じて参照しながら、マイク11に入
力された音声(入力音声)を認識する。
The matching unit 14 refers to the acoustic model database 15, the dictionary database 16, and the grammar database 17 as needed based on the feature parameters stored in the feature extraction unit 13 and, if necessary, inputs the speech input to the microphone 11. Recognize (input voice).

【0037】即ち、音響モデルデータベース15は、音
声認識する音声の言語における個々の音素や音節などの
音響的な特徴を表す音響モデルを記憶している。ここ
で、音響モデルとしては、例えば、HMM(Hidden Mark
ov Model)などを用いることができる。辞書データベー
ス16は、認識対象の各単語について、その発音に関す
る情報が記述された単語辞書を記憶している。文法デー
タベース17は、辞書データベース16の単語辞書に登
録されている各単語が、どのように連鎖する(つなが
る)かを記述した文法規則を記憶している。ここで、文
法規則としては、例えば、文脈自由文法(CFG)やH
PSG(Head-driven Phrase Structure Grammar)(主
辞駆動句構造文法)、統計的な単語連鎖確率(N−gr
am)などに基づく規則を用いることができる。
That is, the acoustic model database 15 stores acoustic models representing acoustic features such as individual phonemes and syllables in the language of the speech to be recognized. Here, as the acoustic model, for example, HMM (Hidden Mark
ov Model) can be used. The dictionary database 16 stores a word dictionary in which information about pronunciation is described for each word to be recognized. The grammar database 17 stores grammar rules that describe how the words registered in the word dictionary of the dictionary database 16 are linked (connected). Here, the grammar rules include, for example, context-free grammar (CFG) and H
PSG (Head-driven Phrase Structure Grammar) (head-driven phrase structure grammar), statistical word chain probability (N-gr
am) or the like.

【0038】マッチング部14は、辞書データベース1
6の単語辞書を参照することにより、音響モデルデータ
ベース15に記憶されている音響モデルを接続すること
で、単語の音響モデル(単語モデル)を構成する。さら
に、マッチング部14は、幾つかの単語モデルを、文法
データベース17に記憶された文法規則を参照すること
により接続し、そのようにして接続された単語モデルを
用いて、特徴パラメータに基づき、例えば、HMM法等
によって、マイク11に入力された音声を認識する。
The matching unit 14 stores the dictionary database 1
By connecting the acoustic models stored in the acoustic model database 15 by referring to the word dictionary of No. 6, an acoustic model (word model) of the word is formed. Further, the matching unit 14 connects several word models by referring to the grammar rules stored in the grammar database 17, and uses the thus connected word models based on the feature parameters, for example, , The HMM method or the like is used to recognize the voice input to the microphone 11.

【0039】そして、マッチング部14による音声認識
結果としての音韻情報は、例えば、テキスト等で、言語
処理部2に出力される。
The phoneme information as a result of the speech recognition by the matching unit 14 is output to the language processing unit 2, for example, as text.

【0040】次に、図5は、図3の言語処理部2の構成
例を示している。
FIG. 5 shows an example of the configuration of the language processing section 2 shown in FIG.

【0041】テキスト解析部21には、音声認識部1
(図4のマッチング部14)が出力する音声認識結果と
してのテキストが入力されるようになっており、テキス
ト解析部21は、辞書データベース23や解析用文法デ
ータベース24を参照しながら、そのテキストを解析す
る。
The text analysis unit 21 includes the speech recognition unit 1
The text as a speech recognition result output by the (matching unit 14 in FIG. 4) is input. The text analysis unit 21 refers to the dictionary database 23 and the grammar database for analysis 24 and converts the text. To analyze.

【0042】即ち、辞書データベース23には、各単語
の表記や、解析用文法を適用するために必要な品詞情報
などが記述された単語辞書が記憶されている。また、解
析用文法データベース24には、単語辞書に記述された
各単語の情報に基づいて、単語連鎖に関する制約等が記
述された解析用文法規則が記憶されている。そして、テ
キスト解析部21は、その単語辞書や解析用文法規則に
基づいて、そこに入力されるテキスト(音声認識結果)
の形態素解析を行い、その解析結果を、構文/意味解析
部22に出力する。
That is, the dictionary database 23 stores a word dictionary in which notation of each word, part of speech information necessary for applying the grammar for analysis, and the like are described. The analysis grammar database 24 stores analysis grammar rules in which restrictions on word chains and the like are described based on information on each word described in the word dictionary. Then, the text analysis unit 21 uses the word dictionary and the grammar rules for analysis to input the text (speech recognition result) therein.
And outputs the analysis result to the syntax / semantic analysis unit 22.

【0043】構文/意味解析部22は、辞書データベー
ス25や、解析用文法データベース26、コマンド辞書
データベース27を参照しながら、テキスト解析部21
の出力に基づき、音声認識部1による音声認識結果の構
文解析、さらには、その意味内容の理解を行う。そし
て、構文/意味解析部22は、その処理結果として、音
声認識部1による音声認識結果に、その音声認識結果を
構成する各単語の概念や、意味内容を表す情報を付加し
て、意図理解部3(図3)に出力する。
The syntax / semantic analysis unit 22 refers to the dictionary database 25, the analysis grammar database 26, and the command dictionary database 27, and
Based on the output, the syntax analysis of the speech recognition result by the speech recognition unit 1 and the understanding of the semantic content are performed. Then, the syntax / semantic analysis unit 22 adds information representing the concept and the meaning of each word constituting the speech recognition result to the speech recognition result by the speech recognition unit 1 as the processing result, and Output to the unit 3 (FIG. 3).

【0044】ここで、辞書データベース25と解析用文
法データベース26には、例えば、辞書データベース2
3と解析用文法データベース24における場合とそれぞ
れ同様の情報が記憶されている。さらに、コマンド辞書
データベース27には、ロボットに対して、ユーザから
与えられるコマンドとしての単語が記述されたコマンド
辞書が記憶されている。また、構文/意味解析部22で
は、例えば、正規文法や、文脈自由文法、HPSG、統
計的な単語連鎖確率を用いて、構文解析や意味内容の理
解が行われる。
Here, the dictionary database 25 and the analysis grammar database 26 include, for example, the dictionary database 2
3 and the same information as those in the analysis grammar database 24 are stored. Further, the command dictionary database 27 stores a command dictionary in which words as commands given from the user to the robot are described. The syntax / semantic analysis unit 22 performs syntax analysis and semantic understanding using, for example, regular grammar, context-free grammar, HPSG, and statistical word chain probability.

【0045】次に、図6は、図3の意図理解部3の構成
例を示している。
Next, FIG. 6 shows an example of the configuration of the intention understanding unit 3 in FIG.

【0046】キーワード抽出部31には、言語処理部2
(図5の構文/意味解析部22)の処理結果(言語処理
結果)が入力されるようになっており、キーワード抽出
部31は、辞書データベース33および人物データベー
ス34を参照しながら、言語処理部2の言語処理結果か
ら、キーワードとなっている単語(列)を抽出する。
The keyword extracting unit 31 includes the language processing unit 2
The processing result (language processing result) of the (syntax / semantic analysis unit 22 in FIG. 5) is input. The keyword extraction unit 31 refers to the dictionary database 33 and the person database 34, and A word (string) serving as a keyword is extracted from the result of the second language processing.

【0047】即ち、辞書データベース33には、ユーザ
の発話内容の意図を理解するのに役立つ単語が、その品
詞情報とともに登録された単語辞書が記憶されている。
また、人物データベース34には、ユーザの発話内容を
伝達する相手(伝達相手)に関する情報としての、例え
ば、図7に示すような人物データが記憶されている。
That is, the dictionary database 33 stores a word dictionary in which words useful for understanding the intention of the utterance content of the user are registered together with the part of speech information.
In addition, the person database 34 stores, for example, person data as shown in FIG. 7 as information regarding a partner to whom the utterance content of the user is transmitted (a transmission partner).

【0048】ここで、図7の実施の形態においては、人
物データは、ユーザの発話内容を伝達する相手を特定す
るための名前、その相手の電子メールアドレス、その相
手がいる場所、その相手とユーザとの親密度から構成さ
れている。
Here, in the embodiment shown in FIG. 7, the person data includes a name for specifying a person to whom the utterance contents of the user are to be transmitted, an e-mail address of the person, a place where the person is located, and a name of the person. It is composed of intimacy with the user.

【0049】キーワード抽出部31では、言語処理部2
の言語処理結果から、辞書データベース33の単語辞書
に登録されている単語が、キーワードとして抽出され、
意図認識部32に供給される。さらに、キーワード抽出
部31では、言語処理部2の言語処理結果から、人物デ
ータベース34に登録されている伝達相手の名前が抽出
され、意図認識部32に供給される。なお、言語処理部
2の言語処理結果から、伝達相手の名前が抽出された場
合には、キーワード抽出部31は、その伝達相手の電子
メールアドレス、場所、および親密度を、人物データベ
ース34から読み出し、これらも、意図認識部32に供
給する。
In the keyword extracting section 31, the language processing section 2
From the linguistic processing results of the above, words registered in the word dictionary of the dictionary database 33 are extracted as keywords,
It is supplied to the intention recognition unit 32. Further, in the keyword extraction unit 31, the name of the communication partner registered in the person database 34 is extracted from the language processing result of the language processing unit 2, and supplied to the intention recognition unit 32. When the name of the communication partner is extracted from the language processing result of the language processing unit 2, the keyword extraction unit 31 reads the e-mail address, location, and intimacy of the communication partner from the person database 34. These are also supplied to the intention recognition unit 32.

【0050】意図認識部32は、キーワード抽出部31
の出力に基づいて、文生成部6(図3)にメッセージを
生成させるための制御情報としての文生成制御情報を生
成し、文生成部6(図3)に供給する。
The intention recognizing unit 32 includes a keyword extracting unit 31
, Generates sentence generation control information as control information for causing the sentence generation unit 6 (FIG. 3) to generate a message, and supplies it to the sentence generation unit 6 (FIG. 3).

【0051】即ち、意図認識部32は、キーワード抽出
部31の出力のうちのキーワードに基づいて、ユーザの
発話内容の意図を認識する。そして、意図認識部32
は、その意図を反映したメッセージを生成することを指
令するコマンドを、キーワード抽出部31の出力ととも
に、文生成制御情報として、文生成部6に供給する。
That is, the intention recognition unit 32 recognizes the intention of the utterance content of the user based on the keyword in the output of the keyword extraction unit 31. Then, the intention recognition unit 32
Supplies a command instructing generation of a message reflecting the intention together with the output of the keyword extraction unit 31 to the sentence generation unit 6 as sentence generation control information.

【0052】なお、ユーザは、誰かに伝えるメッセージ
だけでなく、ロボットに与えるコマンド(例えば、「お
座り」や「お手」など)を発話する場合があり、言語処
理部2の言語処理結果が、そのようなコマンドである場
合には、そのコマンドとしての言語処理結果は、キーワ
ード抽出部31および意図認識部32を介して、制御部
4(図3)に供給される。この場合、制御部4は、その
コマンドに対応する動作を行うように、駆動部5を制御
し、これにより、ロボットは、そのような動作を行う
(行動をとる)。
The user may utter a command (for example, “sit” or “hand”) given to the robot in addition to a message to be transmitted to someone. In the case of such a command, the language processing result as the command is supplied to the control unit 4 (FIG. 3) via the keyword extraction unit 31 and the intention recognition unit 32. In this case, the control unit 4 controls the driving unit 5 so as to perform an operation corresponding to the command, whereby the robot performs such an operation (takes an action).

【0053】また、メッセージを、上述のように、合成
音で出力する場合には、ロボットが、そのメッセージを
伝える伝達相手の場所まで移動する必要がある。このた
め、メッセージを、合成音で出力する場合には、意図認
識部32は、文生成制御情報を、文生成部6に供給する
他、その文生成制御情報に含まれる、人物データベース
34から読み出された場所を、制御部4に出力する。こ
の場合、制御部4は、意図認識部32からの場所まで移
動するように、駆動部5を制御し、これにより、ロボッ
トは、伝達相手がいる場所まで移動する。
When a message is output as a synthesized sound as described above, the robot needs to move to the location of the transmission partner that transmits the message. Therefore, when the message is output as a synthesized sound, the intention recognition unit 32 supplies the sentence generation control information to the sentence generation unit 6 and reads the sentence generation control information from the person database 34 included in the sentence generation control information. The issued location is output to the control unit 4. In this case, the control unit 4 controls the driving unit 5 so as to move to the place from the intention recognition unit 32, whereby the robot moves to the place where the transmission partner exists.

【0054】次に、図8は、図3の文生成部6の構成例
を示している。
Next, FIG. 8 shows a configuration example of the sentence generation unit 6 of FIG.

【0055】テキスト生成部41には、意図理解部3
(図6の意図認識部32)が出力する文生成制御情報が
供給されるようになっており、テキスト生成部41は、
文履歴記憶部42、テンプレートデータベース43、生
成文法データベース44、および辞書データベース45
を、必要に応じて参照しながら、文生成制御情報に基づ
いて、テキストのメッセージを生成し、音声合成部7ま
たは通信部9に供給する。
The text generation unit 41 includes the intention understanding unit 3
The sentence generation control information output by the (intention recognition unit 32 in FIG. 6) is supplied, and the text generation unit 41
Sentence history storage unit 42, template database 43, generated grammar database 44, and dictionary database 45
Is generated as needed based on the sentence generation control information, and supplied to the speech synthesis unit 7 or the communication unit 9 while referring to as necessary.

【0056】即ち、文履歴記憶部42には、テキスト生
成部41が生成したメッセージの履歴(以下、適宜、文
履歴という)が記憶される。
That is, the sentence history storage unit 42 stores the history of messages generated by the text generation unit 41 (hereinafter, appropriately referred to as sentence history).

【0057】ここで、図9は、文履歴記憶部42に記憶
された文履歴を示している。
FIG. 9 shows the sentence history stored in the sentence history storage unit 42.

【0058】文履歴は、識別番号、使用回数、使用日時
から構成され、識別番号は、テキスト生成部41がメッ
セージを生成するのに使用する、テンプレートデータベ
ース43に記憶されたテンプレートを識別するための番
号を表す。また、使用回数は、対応するテンプレート
が、テキスト生成部41によるメッセージの生成に使用
された回数を表し、使用日時は、対応するテンプレート
が使用された最新の日時を表す。
The sentence history includes an identification number, the number of times of use, and the date and time of use. The identification number is used to identify a template stored in the template database 43 used by the text generation unit 41 to generate a message. Represents a number. The usage count indicates the number of times the corresponding template has been used for generating a message by the text generation unit 41, and the use date and time indicates the latest date and time when the corresponding template has been used.

【0059】なお、文履歴は、テキスト生成部41が、
テンプレートデータベース43に記憶されたテンプレー
トを使用するごとに、テキスト生成部41によって更新
されるようになっている。
Note that the sentence history is stored in the text
Each time a template stored in the template database 43 is used, the text is updated by the text generator 41.

【0060】テンプレートデータベース43には、テキ
スト生成部41がメッセージの生成に使用するテンプレ
ートが記憶されており、生成文法データベース44に
は、メッセージを生成するのに必要な単語の活用規則
や、語順の制約情報等の文法規則が記憶されている。ま
た、辞書データベース45は、各単語の品詞情報や、読
み、アクセント等の情報が記述された単語辞書が記憶さ
れている。そして、テキスト生成部41は、これらの文
履歴、テンプレート、文法規則、単語辞書を必要に応じ
て参照し、意図理解部3からの文生成制御情報にしたが
ったメッセージを生成する。
The template database 43 stores templates used by the text generator 41 for generating messages, and the generated grammar database 44 stores rules for utilizing words necessary for generating messages, and rules for word order. Grammar rules such as constraint information are stored. In addition, the dictionary database 45 stores a word dictionary in which part-of-speech information of each word, and information such as readings and accents are described. Then, the text generation unit 41 refers to these sentence histories, templates, grammar rules, and word dictionaries as necessary, and generates a message according to the sentence generation control information from the intention understanding unit 3.

【0061】即ち、テキスト生成部41は、文生成制御
情報に含まれる、ユーザの発話内容の意図を反映したテ
ンプレートであって、あまり使用されていないもの(使
用回数の少ないもの)を1以上検索し、さらに、その1
以上のテンプレートから、文生成制御情報に含まれる伝
達相手との親密度に対応する表現のものを選択する。な
お、テンプレートが、どの程度の回数使用されているか
は、文履歴(図9)の使用回数を参照することで認識さ
れる。
That is, the text generation unit 41 searches for one or more templates that are included in the sentence generation control information and that reflect the intention of the utterance content of the user and are not used much (the ones that are used less frequently). And then, part 1
From the above-mentioned templates, an expression corresponding to the intimacy with the communication partner included in the sentence generation control information is selected. The number of times the template is used is recognized by referring to the number of times the sentence history (FIG. 9) is used.

【0062】そして、テキスト生成部41は、選択した
テンプレートに対して、文生成制御情報に含まれる、キ
ーワードとして抽出された単語や、辞書データベース4
5の単語辞書に登録された単語を、生成文法データベー
ス44に記憶された文法規則にしたがって、活用形等を
適宜変えながら、必要に応じて挿入し、これにより、伝
達相手との親密度に応じた表現による、ユーザの発話内
容の意図を反映したテキストのメッセージを生成する。
このメッセージは、上述したように、音声合成部7また
は通信部9に出力される。
Then, the text generation unit 41 determines whether a word extracted as a keyword included in the sentence generation control information or the dictionary database 4
In accordance with the grammatical rules stored in the generated grammar database 44, the words registered in the word dictionary of No. 5 are inserted as necessary while appropriately changing the inflected forms, etc. A text message reflecting the intention of the utterance content of the user is generated by the expression.
This message is output to the speech synthesis unit 7 or the communication unit 9 as described above.

【0063】なお、メッセージが、通信部9に出力さ
れ、電子メールで、伝達相手に送信される場合には、そ
の電子メールの宛先となる、伝達相手の電子メールアド
レスが必要となるが、これは、文生成制御情報に含まれ
ており、生成されたメッセージとともに、テキスト生成
部41から通信部9に供給される。
When a message is output to the communication section 9 and transmitted to the transmission destination by e-mail, an e-mail address of the transmission destination, which is the destination of the e-mail, is required. Is included in the sentence generation control information, and is supplied from the text generation unit 41 to the communication unit 9 together with the generated message.

【0064】以上のように、テキスト生成部41では、
文生成制御情報に含まれる、伝達相手との親密度に応じ
た表現によるメッセージを生成するようになっており、
そのようなメッセージを生成するために、テンプレート
データベース43には、同一内容のメッセージについ
て、各種の表現のテンプレートが記憶されている。
As described above, in the text generation unit 41,
It generates a message in an expression according to the intimacy with the transmission partner included in the sentence generation control information,
In order to generate such a message, templates of various expressions are stored in the template database 43 for messages having the same contents.

【0065】即ち、図10は、テンプレートデータベー
ス43に記憶されているテンプレートを示している。
FIG. 10 shows templates stored in the template database 43.

【0066】このテンプレートは、催しの開催を案内す
るメッセージ用のもので、図10(A)は、例えば、先
輩や恩師等の敬意を表する人が伝達相手となっている場
合に用いられるテンプレートを示しており、図10
(B)は、例えば、友人等の親しい人が伝達相手となっ
ている場合に用いられるテンプレートを示している。
This template is for a message for guiding the holding of an event. FIG. 10A shows a template used when a person who shows respect such as a senior or a teacher is a communication partner. And FIG.
(B) shows a template used when a close person such as a friend is a communication partner.

【0067】従って、図10(A)のテンプレートは、
丁寧な表現になっており、図10(B)のテンプレート
は、ある程度ラフな表現になっている。
Therefore, the template shown in FIG.
It is a polite expression, and the template of FIG. 10 (B) is a somewhat rough expression.

【0068】なお、図10のテンプレートにおいて、T
o,Date,Place,What,Topicに対応する単語は、テキ
スト生成部41によって挿入される。ここで、Toは、伝
達相手を表し、Dateは、ここでは、催しが開催される日
時を表す。また、Placeは、催しが開催される場所を表
し、Whatは、催しを表す。さらに、Topicは、何らかの
話題を表す。そして、Toには、文生成制御情報に含まれ
る伝達相手の名前が挿入される。また、Date,Place,W
hatには、文生成制御情報に含まれる、対応するキーワ
ードとしての単語が挿入される。さらに、Topicには、
辞書データベース45における単語辞書に登録されてい
る単語のうちの適切なものが、あらかじめ挿入される。
但し、Topicに配置される単語は、後述するように、テ
キスト生成部41において、必要に応じて置換すること
ができるようになっている。
In the template shown in FIG.
The words corresponding to o, Date, Place, What, and Topic are inserted by the text generator 41. Here, To represents a transmission partner, and Date represents a date and time when the event is held. “Place” indicates a place where the event is held, and “What” indicates the event. Furthermore, Topic represents some topic. Then, in To, the name of the communication partner included in the sentence generation control information is inserted. Date, Place, W
In hat, a word as a corresponding keyword included in the sentence generation control information is inserted. In addition, Topic has
Appropriate words among words registered in the word dictionary in the dictionary database 45 are inserted in advance.
However, the words arranged in the Topic can be replaced by the text generation unit 41 as necessary, as described later.

【0069】また、テンプレートデータベース43の各
テンプレートには、そのテンプレートが、どのような内
容についてのメッセージ用のものであるかを表すタグが
付加されており、テキスト生成部41は、そのタグを参
照することにより、テンプレートデータベース43のテ
ンプレートから、文生成制御情報に含まれる、ユーザの
発話内容の意図(後述する図13において、Subjectと
記載する)を反映したものを検索するようになってい
る。
Each template in the template database 43 is added with a tag indicating the content of the template for the message, and the text generation unit 41 refers to the tag. By doing so, a search that reflects the intention of the utterance content of the user (described as “Subject” in FIG. 13 described later) included in the sentence generation control information is searched from the template of the template database 43.

【0070】なお、テキスト生成部41における、メッ
セージの生成の方法としては、テンプレートを用いる方
法の他、例えば、格構造に基づく方法等を採用すること
も可能である。
As a method of generating a message in the text generation unit 41, for example, a method based on a case structure or the like can be adopted in addition to a method using a template.

【0071】次に、図11は、図3の音声合成部7の構
成例を示している。
FIG. 11 shows an example of the configuration of the speech synthesizer 7 in FIG.

【0072】テキスト解析部51には、文生成部6(図
8のテキスト生成部41)が出力するテキストのメッセ
ージが供給されるようになっており、テキスト解析部5
1は、辞書データベース54や解析用文法データベース
55を参照しながら、そこに供給されるメッセージとし
てのテキストを解析する。
The text analysis section 51 is supplied with a text message output by the sentence generation section 6 (the text generation section 41 in FIG. 8).
1 analyzes a text as a message supplied thereto while referring to the dictionary database 54 and the analysis grammar database 55.

【0073】即ち、辞書データベース54には、メッセ
ージに用いられる単語の品詞情報や、読み、アクセント
等の情報が記述された単語辞書が記憶されており、ま
た、解析用文法データベース55には、辞書データベー
ス54の単語辞書に記述された単語について、単語連鎖
に関する制約等の解析用文法規則が記憶されている。そ
して、テキスト解析部51は、この単語辞書および解析
用文法規則に基づいて、文生成部6からのメッセージの
形態素解析や構文解析等の解析を行い、後段の規則合成
部52で行われる規則音声合成に必要な情報を抽出す
る。ここで、規則音声合成に必要な情報としては、例え
ば、ポーズの位置や、アクセントおよびイントネーショ
ンを制御するための情報その他の韻律情報や、各単語の
発音等の音韻情報などがある。
That is, the dictionary database 54 stores a word dictionary in which part of speech information of words used in a message, and information such as reading and accent are described. The analysis grammar database 55 stores a dictionary. For words described in the word dictionary of the database 54, grammatical rules for analysis such as restrictions on word chains are stored. Then, the text analysis unit 51 analyzes the message from the sentence generation unit 6 such as morphological analysis and syntax analysis based on the word dictionary and the grammatical rules for analysis. Extract information required for synthesis. Here, the information necessary for the rule speech synthesis includes, for example, information for controlling the position of a pause, accent and intonation, other prosody information, and phoneme information such as pronunciation of each word.

【0074】テキスト解析部51で得られた情報は、規
則合成部52に供給され、規則合成部52では、音素片
データベース56を用いて、文生成部6において生成さ
れたメッセージに対応する合成音の音声データ(ディジ
タルデータ)が生成される。
The information obtained by the text analysis section 51 is supplied to a rule synthesis section 52, which uses a phoneme segment database 56 to generate a synthesized speech corresponding to the message generated by the sentence generation section 6. Is generated.

【0075】即ち、音素片データベース56には、例え
ば、CV(Consonant, Vowel)や、VCV、CVC等の形
で音素片データが記憶されており、規則合成部52は、
テキスト解析部51からの情報に基づいて、必要な音素
片データを接続し、さらに、ポーズ、アクセント、イン
トネーション等を適切に付加することで、文生成部6で
生成された応答文に対応する合成音の音声データを生成
する。
That is, the phoneme unit database 56 stores phoneme unit data in the form of, for example, CV (Consonant, Vowel), VCV, CVC, and the like.
Based on the information from the text analysis unit 51, necessary phoneme segment data is connected, and a pause, an accent, an intonation, and the like are appropriately added, thereby synthesizing the response sentence generated by the sentence generation unit 6. Generate audio data for the sound.

【0076】この音声データは、D/A(Digital Analo
g)変換部53に供給され、そこで、アナログ信号として
の音声信号に変換される。この音声信号は、スピーカ8
(図3)に供給され、これにより、文生成部6で生成さ
れたメッセージに対応する合成音が出力される。
This audio data is stored in a digital / analog (D / A)
g) The signal is supplied to the conversion unit 53, where it is converted into an audio signal as an analog signal. This audio signal is transmitted to the speaker 8
(FIG. 3), whereby a synthesized sound corresponding to the message generated by the sentence generation unit 6 is output.

【0077】次に、図12のフローチャートを参照し
て、図3のロボットが、ユーザが意図する内容のメッセ
ージを、所定の相手に伝達する場合の処理について説明
する。
Next, with reference to the flowchart of FIG. 12, a description will be given of the processing in the case where the robot of FIG. 3 transmits a message intended by the user to a predetermined partner.

【0078】ユーザが発話を行うと、そのユーザの音声
は、音声認識部1に入力され、音声認識部1は、ステッ
プS1においてユーザの音声を認識する。ここで、いま
の場合、ユーザの発話には、誰かに伝えたい事柄と、そ
れを伝える相手(伝達相手)が、少なくとも含まれるも
のとする。
When the user speaks, the user's voice is input to the voice recognition unit 1, and the voice recognition unit 1 recognizes the user's voice in step S1. Here, in this case, it is assumed that the user's utterance includes at least a matter to be conveyed to somebody and a person who conveys the matter (communication partner).

【0079】ステップS1において音声認識が行われる
ことにより得られる音声認識結果は、言語処理部2に供
給され、言語処理部2は、ステップS2において、その
音声認識結果を言語処理し、言語処理結果を、意図理解
部3に供給する。
The speech recognition result obtained by performing the speech recognition in step S1 is supplied to the language processing unit 2, and the language processing unit 2 language-processes the speech recognition result in step S2, Is supplied to the intention understanding unit 3.

【0080】意図理解部3は、ステップS3において、
言語処理部2からの言語処理結果に基づいて、上述した
ような文生成制御情報を生成し、文生成部6に供給す
る。なお、メッセージを、合成音で出力する場合には、
意図理解部3は、上述したように、さらに、そのメッセ
ージを伝える伝達相手の場所の情報を、制御部4に出力
する。これにより、ロボットは、伝達相手の場所への移
動を開始する。
In step S3, the intention understanding unit 3
Based on the language processing result from the language processing unit 2, the above-described sentence generation control information is generated and supplied to the sentence generation unit 6. In addition, when outputting a message as a synthetic sound,
As described above, the intention understanding unit 3 further outputs to the control unit 4 information on the location of the communication partner who transmits the message. Thereby, the robot starts moving to the location of the communication partner.

【0081】ここで、ロボットが所定の目的地に移動す
るには、ロボットが、自身の現在地を認識する必要があ
るが、この現在地の認識は、例えば、ロボットの周囲を
撮影した画像を認識し、その認識結果に基づいて行うこ
とができる。また、現在地の認識は、GPS(Global Posi
tioning System)等を利用して行うことも可能である。
Here, in order for the robot to move to a predetermined destination, it is necessary for the robot to recognize its own current location. For example, this recognition of the current location is performed by recognizing an image of the surroundings of the robot. , Based on the recognition result. In addition, the current location is recognized by GPS (Global Posi
It is also possible to carry out this using a method such as an arresting system.

【0082】ステップS3の処理後は、ステップS4に
進み、文生成部6は、意図理解部3からの文生成制御情
報にしたがって、伝達相手との親密度に応じた表現によ
る、ユーザの発話内容を反映したメッセージを生成し、
音声合成部7または通信部9に出力する。なお、文生成
部6は、メッセージを、通信部9に出力する場合には、
そのメッセージとともに、伝達相手の電子メールアドレ
スも、通信部9に出力する。
After the process in step S3, the process proceeds to step S4, in which the sentence generation unit 6 determines the contents of the user's utterance in an expression corresponding to the intimacy with the communication partner in accordance with the sentence generation control information from the intention understanding unit 3. Generates a message reflecting the
Output to the voice synthesizing unit 7 or the communication unit 9. Note that the sentence generation unit 6 outputs the message to the communication unit 9 by
The e-mail address of the communication partner is output to the communication unit 9 together with the message.

【0083】そして、ステップS5に進み、音声合成部
7または通信部9において、文生成部6で生成されたメ
ッセージが、伝達相手に伝達され、処理を終了する。
Then, the process proceeds to step S5, in which the message generated by the sentence generating unit 6 is transmitted to the transmission partner in the voice synthesizing unit 7 or the communication unit 9, and the process is terminated.

【0084】即ち、文生成部6が出力するメッセージ
が、音声合成部7に供給される場合には、上述したよう
に、ロボットが、伝達相手の場所に移動を開始した後、
その場所に到着するのを待って、音声合成部7で音声合
成が行われ、文生成部6が出力したメッセージに対応す
る合成音が、スピーカ8から出力される。
That is, when the message output from the sentence generating unit 6 is supplied to the speech synthesizing unit 7, as described above, after the robot starts moving to the location of the communication partner,
After arriving at the place, speech synthesis is performed by the speech synthesis unit 7, and a synthesized sound corresponding to the message output by the sentence generation unit 6 is output from the speaker 8.

【0085】また、文生成部6が出力するメッセージ
が、通信相手の電子メールアドレスとともに、通信部9
に供給される場合には、通信部9は、その電子メールア
ドレスを宛先として、文生成部6からのメッセージを内
容(本文)とする電子メールを作成し、ネットワークを
介して送信する。なお、電子メールが無線で送信される
場合において、アンテナが必要なときは、尻尾部ユニッ
ト5(図1)をアンテナとして利用することが可能であ
る。
The message output from the sentence generation unit 6 is transmitted to the communication unit 9 together with the e-mail address of the communication partner.
In this case, the communication unit 9 creates an e-mail with the message from the sentence generation unit 6 as the content (text) with the e-mail address as the destination, and transmits the e-mail via the network. When an e-mail is transmitted wirelessly, if an antenna is required, the tail unit 5 (FIG. 1) can be used as the antenna.

【0086】以上の処理によれば、例えば、ユーザが、
「Sony-Taroさん宛に、12月24日の国際展示場での
展示についての案内を出しておいて下さい。」と発話し
たとすると、音声認識部1において、例えば、図13
(A)に示すような音声認識結果が得られ、さらに、こ
の音声認識結果が、言語処理部2において言語処理さ
れ、意図理解部3において処理されることで、例えば、
図13(B)に示すような情報を含む文生成制御情報が
生成される。
According to the above processing, for example, the user
Suppose that "Please give Sony-Taro a guide about the exhibition at the International Exhibition Center on December 24." In the speech recognition unit 1, for example, FIG.
A speech recognition result as shown in (A) is obtained, and further, the speech recognition result is subjected to language processing in the language processing unit 2 and processed in the intention understanding unit 3, so that, for example,
Sentence generation control information including information as shown in FIG. 13B is generated.

【0087】そして、いまの場合、ユーザの発話内容
は、催しの開催を案内するものであり、文生成部6で
は、そのような内容のテンプレートであって、伝達相手
であるSony-Taroとの親密度に応じた表現のものを用い
て、例えば、図13(C)に示すようなメッセージが生
成される。ここで、図13(C)において、括弧[]で
囲んである部分が、テンプレートに挿入された、ユーザ
の発話から抽出された単語(列)である。
In this case, the content of the user's utterance guides the holding of the event, and the sentence generation unit 6 generates a template of such content and transmits the template to the communication partner Sony-Taro. For example, a message as shown in FIG. 13C is generated using an expression corresponding to the intimacy level. Here, in FIG. 13 (C), the part enclosed by brackets [] is a word (column) extracted from the user's utterance, which is inserted into the template.

【0088】以上のようにして生成されたメッセージ
は、合成音で出力され、あるいは電子メールとされて送
信される。
The message generated as described above is output as a synthesized sound or transmitted as an electronic mail.

【0089】以上のように、ユーザの発話を解析するこ
とにより、メッセージを伝達する相手と、伝達したい内
容とを認識し、メッセージを伝達する相手との親密度に
応じた表現による、伝達したい内容のメッセージを生成
するようにしたので、相手に対して適切な表現のメッセ
ージを、容易に(ユーザの負担を最小限にして)作成
し、伝えることができる。従って、図1のロボットは、
例えば、会社において、部下からの報告を、上司に伝え
る場合等に用いることができ、この場合、ロボットは、
上司にとって、いわば電子秘書として機能するというこ
とができる。
As described above, by analyzing the utterance of the user, it is possible to recognize the partner to whom the message is to be transmitted and the content to be transmitted, and to transmit the content to be transmitted in an expression according to the familiarity with the partner to which the message is to be transmitted. Is generated, a message with an appropriate expression can be easily created (minimized the burden on the user) and transmitted to the other party. Therefore, the robot of FIG.
For example, in a company, it can be used to transmit a report from a subordinate to a supervisor, etc. In this case, the robot
For a boss, it can function as an electronic secretary.

【0090】次に、図14のフローチャートを参照し
て、図12のステップS4において文生成部6が行う処
理について、さらに説明する。
Next, with reference to the flowchart in FIG. 14, the processing performed by the sentence generation unit 6 in step S4 in FIG. 12 will be further described.

【0091】文生成部6(図8)のテキスト生成部41
は、意図理解部3から文生成制御情報を受信すると、ス
テップS11において、その文生成制御情報が表す内容
のメッセージ用のテンプレートであって、使用回数の少
ないものを選択する。
The text generator 41 of the sentence generator 6 (FIG. 8)
Receives the sentence generation control information from the intention understanding unit 3, selects a message template having the content indicated by the sentence generation control information and having a small number of uses in step S11.

【0092】即ち、テキスト生成部41は、文生成制御
情報に含まれる、ユーザの発話内容の意図を反映したテ
ンプレートであって、あまり使用されていないものを1
以上検索し、さらに、その1以上のテンプレートから、
文生成制御情報に含まれる伝達相手との親密度に対応す
る表現のものを選択する。なお、テンプレートの使用回
数は、上述のように、文履歴(図9)を参照することで
認識される。
That is, the text generation unit 41 generates a template that reflects the intention of the user's utterance content included in the sentence generation control information and is rarely used.
Search above, and from the one or more templates,
An expression corresponding to the intimacy with the communication partner included in the sentence generation control information is selected. Note that the number of times the template is used is recognized by referring to the sentence history (FIG. 9) as described above.

【0093】そして、ステップS12に進み、テキスト
生成部41は、ステップS11で選択したテンプレート
(以下、適宜、選択テンプレートという)が最近使用さ
れたものであるかどうかを判定する。なお、選択テンプ
レートが最近使用されたものかどうかの判定は、文履歴
(図9)の使用日時を参照することで判定される。
Then, proceeding to step S12, the text generation section 41 determines whether or not the template selected in step S11 (hereinafter, appropriately referred to as a selected template) has been used recently. Whether the selected template has been used recently is determined by referring to the use date and time of the sentence history (FIG. 9).

【0094】ステップS12において、選択テンプレー
トが最近使用されたものであると判定された場合、ステ
ップS11に戻り、テンプレートの選択をやり直す。但
し、この場合、テンプレートの選択のやり直しは、テン
プレートデータベース43に記憶されたテンプレートの
うち、既に、選択テンプレートとして選択されたもの以
外を対象に行われる。
If it is determined in step S12 that the selected template has been used recently, the process returns to step S11 and the template is selected again. However, in this case, redoing of template selection is performed for templates other than those already selected as the selected template among the templates stored in the template database 43.

【0095】一方、ステップS12において、選択テン
プレートが最近使用されたものでないと判定された場
合、ステップS13に進み、テキスト生成部41は、文
履歴を参照することで、選択テンプレートの使用回数を
認識し、その使用回数が、所定の閾値以上であるかどう
かを判定する。ステップS13において、選択テンプレ
ートの使用回数が、所定の閾値以上でないと判定された
場合、ステップS14をスキップして、ステップS15
に進み、テキスト生成部41において、選択テンプレー
トを使用して、上述したようにメッセージが生成され、
リターンする。
On the other hand, if it is determined in step S12 that the selected template has not been used recently, the process proceeds to step S13, where the text generator 41 recognizes the number of times the selected template has been used by referring to the sentence history. Then, it is determined whether or not the number of times of use is equal to or greater than a predetermined threshold. If it is determined in step S13 that the number of times the selected template has been used is not equal to or greater than the predetermined threshold, step S14 is skipped and step S15 is performed.
The text generation unit 41 generates a message as described above using the selected template,
To return.

【0096】ステップS13において、選択テンプレー
トの使用回数が、所定の閾値以上であると判定された場
合、ステップS14に進み、例えば、音声合成部7およ
びスピーカ8を介して合成音が出力されることにより、
ユーザに対して、新たなテンプレートの入力が促され、
例えば、ユーザが図示せぬキーボード等を操作すること
により、新たなテンプレートを入力するのを待って、ス
テップS15に進む。
If it is determined in step S13 that the number of times the selected template has been used is equal to or greater than the predetermined threshold value, the flow advances to step S14 to output a synthesized sound via the voice synthesizing unit 7 and the speaker 8, for example. By
The user is prompted for a new template,
For example, the user operates a keyboard or the like (not shown) to wait for a new template to be input, and then proceeds to step S15.

【0097】この場合、ステップS15では、テキスト
生成部41において、入力された新たなテンプレートを
使用して、上述したようにメッセージが生成され、リタ
ーンする。
In this case, in step S15, a message is generated in the text generating section 41 using the new template input as described above, and the process returns.

【0098】なお、テンプレートについては、例えば、
所定のサーバに各種のテンプレートを記憶させておき、
必要に応じて、そのサーバからテンプレートをダウンロ
ードして使用するようにすること等が可能である。
[0098] For the template, for example,
Various templates are stored in a predetermined server,
If necessary, the template can be downloaded from the server and used.

【0099】以上のように、文生成部6のテキスト生成
部41では、使用回数が少なく、最近使用されていない
テンプレートを使用してメッセージが生成されるので、
伝達相手に対して、過去に伝達したメッセージと重複す
るような、同じような言い回しのメッセージが伝達され
ることを防止することができる。
As described above, the text generation unit 41 of the sentence generation unit 6 generates a message using a template that has been used less frequently and has not been used recently.
It is possible to prevent a message having a similar phrase that is duplicated with a message transmitted in the past from being transmitted to the transmission partner.

【0100】次に、上述のような、同じような言い回し
のメッセージを伝達することの防止は、文生成部6に、
図12のステップS4において、図15のフローチャー
トにしたがった処理を行わせることによっても可能であ
る。
Next, to prevent transmission of a message having a similar phrase as described above, the sentence generation unit 6
In step S4 in FIG. 12, it is also possible to perform the processing according to the flowchart in FIG.

【0101】即ち、この場合も、ステップS21乃至S
23において、図14のステップS11乃至S13にお
ける場合とそれぞれ同様の処理が行われる。
That is, also in this case, steps S21 to S21
At 23, the same processing is performed as in steps S11 to S13 in FIG.

【0102】そして、ステップS23において、選択テ
ンプレートの使用回数が、所定の閾値以上でないと判定
された場合、ステップS24およびS25をスキップし
て、ステップS26に進み、テキスト生成部41におい
て、選択テンプレートを使用して、上述したようにメッ
セージが生成され、リターンする。
If it is determined in step S23 that the number of times the selected template has been used is not greater than or equal to the predetermined threshold value, steps S24 and S25 are skipped and the process proceeds to step S26, where the text generating unit 41 Used to generate a message and return as described above.

【0103】また、ステップS23において、選択テン
プレートの使用回数が、所定の閾値以上であると判定さ
れた場合、ステップS24に進み、選択テンプレートに
配置された所定の単語を、新たな単語に置き換える。
If it is determined in step S23 that the number of times the selected template has been used is equal to or greater than the predetermined threshold, the flow advances to step S24 to replace the predetermined word arranged in the selected template with a new word.

【0104】即ち、図10を参照して説明したように、
テンプレートには、装置側で置換可能な単語(図10の
実施の形態では、Topicの位置に挿入される単語)が設
けられており、ステップS24では、選択テンプレート
における、置換可能な単語が、他の単語に置き換えられ
る。
That is, as described with reference to FIG.
In the template, words that can be replaced on the device side (words inserted at the Topic position in the embodiment of FIG. 10) are provided. In step S24, the replaceable words in the selected template are replaced with other words. Is replaced by the word

【0105】そして、ステップS25に進み、テキスト
生成部41は、文履歴における、選択テンプレートの使
用回数を0回にリセットし、ステップS26に進む。ス
テップS26では、テキスト生成部41において、一部
の単語が置換された選択テンプレートを使用して、上述
したようにメッセージが生成され、リターンする。
Then, the process proceeds to step S25, where the text generation unit 41 resets the number of times of use of the selected template in the sentence history to 0, and proceeds to step S26. In step S26, the text generating unit 41 generates a message as described above using the selected template in which some words have been replaced, and returns.

【0106】以上のように、メッセージの生成に用いる
テンプレートの置換可能な単語を、他の新しい単語に置
換することで、同じような言い回しのメッセージの伝達
を防止することが可能となる。
As described above, by replacing a replaceable word of a template used for generating a message with another new word, it is possible to prevent transmission of a message having a similar phrase.

【0107】次に、上述した一連の処理は、ハードウェ
アにより行うこともできるし、ソフトウェアにより行う
こともできる。一連の処理をソフトウェアによって行う
場合には、そのソフトウェアを構成するプログラムが、
汎用のコンピュータ等にインストールされる。
Next, the above-described series of processing can be performed by hardware or can be performed by software. When a series of processing is performed by software, a program constituting the software is
Installed on a general-purpose computer.

【0108】そこで、図16は、上述した一連の処理を
実行するプログラムがインストールされるコンピュータ
の一実施の形態の構成例を示している。
FIG. 16 shows an example of the configuration of an embodiment of a computer in which a program for executing the above-described series of processing is installed.

【0109】プログラムは、コンピュータに内蔵されて
いる記録媒体としてのハードディスク105やROM1
03に予め記録しておくことができる。
The program is stored in a hard disk 105 or a ROM 1 as a recording medium built in the computer.
03 can be recorded in advance.

【0110】あるいはまた、プログラムは、フロッピー
ディスク、CD-ROM(Compact Disc Read Only Memory),M
O(Magneto optical)ディスク,DVD(Digital Versatile
Disc)、磁気ディスク、半導体メモリなどのリムーバブ
ル記録媒体111に、一時的あるいは永続的に格納(記
録)しておくことができる。このようなリムーバブル記
録媒体111は、いわゆるパッケージソフトウエアとし
て提供することができる。
Alternatively, the program may be a floppy disk, CD-ROM (Compact Disc Read Only Memory), M
O (Magneto optical) disc, DVD (Digital Versatile)
Disc), a magnetic disk, a semiconductor memory, or another such removable storage medium 111, which can be temporarily or permanently stored (recorded). Such a removable recording medium 111 can be provided as so-called package software.

【0111】なお、プログラムは、上述したようなリム
ーバブル記録媒体111からコンピュータにインストー
ルする他、ダウンロードサイトから、ディジタル衛星放
送用の人工衛星を介して、コンピュータに無線で転送し
たり、LAN(Local Area Network)、インターネットとい
ったネットワークを介して、コンピュータに有線で転送
し、コンピュータでは、そのようにして転送されてくる
プログラムを、通信部108で受信し、内蔵するハード
ディスク105にインストールすることができる。
The program can be installed on the computer from the removable recording medium 111 as described above, can be wirelessly transferred from a download site to the computer via a digital satellite broadcasting artificial satellite, or can be connected to a LAN (Local Area). Network), the Internet, and the like, and can be transferred to a computer by wire. In the computer, the transferred program can be received by the communication unit 108 and installed on the built-in hard disk 105.

【0112】コンピュータは、CPU(Central Processing
Unit)102を内蔵している。CPU102には、バス1
01を介して、入出力インタフェース110が接続され
ており、CPU102は、入出力インタフェース110を
介して、ユーザによって、キーボードやマウス等で構成
される入力部107が操作されることにより指令が入力
されると、それにしたがって、ROM(Read Only Memory)
103に格納されているプログラムを実行する。あるい
は、また、CPU102は、ハードディスク105に格納
されているプログラム、衛星若しくはネットワークから
転送され、通信部108で受信されてハードディスク1
05にインストールされたプログラム、またはドライブ
109に装着されたリムーバブル記録媒体111から読
み出されてハードディスク105にインストールされた
プログラムを、RAM(Random Access Memory)104にロ
ードして実行する。これにより、CPU102は、上述し
たフローチャートにしたがった処理、あるいは上述した
ブロック図の構成により行われる処理を行う。そして、
CPU102は、その処理結果を、必要に応じて、例え
ば、入出力インタフェース110を介して、LCD(Liquid
CryStal Display)やスピーカ等で構成される出力部1
06から出力、あるいは、通信部108から送信、さら
には、ハードディスク105に記録等させる。
The computer has a CPU (Central Processing).
Unit) 102. The CPU 102 has a bus 1
01, an input / output interface 110 is connected. The CPU 102 receives a command via the input / output interface 110 by operating the input unit 107 including a keyboard, a mouse, and the like. Then, according to it, ROM (Read Only Memory)
The program stored in 103 is executed. Alternatively, the CPU 102 transmits the program stored in the hard disk 105, a satellite, or a network, receives the program by the communication unit 108, and
The program installed in the hard disk 105 is read from the removable recording medium 111 installed in the drive 109 and loaded into the RAM (Random Access Memory) 104 and executed. Accordingly, the CPU 102 performs the processing according to the above-described flowchart or the processing performed by the configuration of the above-described block diagram. And
The CPU 102 transmits the processing result to an LCD (Liquid
Output unit 1 consisting of CryStal Display) and speakers
06, or transmitted from the communication unit 108, and further recorded on the hard disk 105.

【0113】ここで、本明細書において、コンピュータ
に各種の処理を行わせるためのプログラムを記述する処
理ステップは、必ずしもフローチャートとして記載され
た順序に沿って時系列に処理する必要はなく、並列的あ
るいは個別に実行される処理(例えば、並列処理あるい
はオブジェクトによる処理)も含むものである。
Here, in the present specification, processing steps for writing a program for causing a computer to perform various types of processing do not necessarily have to be processed in chronological order in the order described in the flowchart. Alternatively, it also includes processing executed individually (for example, parallel processing or processing by an object).

【0114】また、プログラムは、1のコンピュータに
より処理されるものであっても良いし、複数のコンピュ
ータによって分散処理されるものであっても良い。さら
に、プログラムは、遠方のコンピュータに転送されて実
行されるものであっても良い。
The program may be processed by one computer, or may be processed in a distributed manner by a plurality of computers. Further, the program may be transferred to a remote computer and executed.

【0115】なお、本実施の形態では、メッセージを、
合成音で出力するようにしたが、メッセージは、例え
ば、ディスプレイに表示することも可能である。
In the present embodiment, the message is
Although the synthesized sound is output, the message can be displayed on a display, for example.

【0116】さらに、本実施の形態では、ユーザの発話
を音声認識し、その音声認識結果に基づいて、メッセー
ジを生成するようにしたが、メッセージの生成は、例え
ば、ユーザがキーボード等を操作して入力したテキスト
や、ユーザによる手書き入力を認識した認識結果等に基
づいて行うことも可能である。
Further, in the present embodiment, the speech of the user is recognized by voice and a message is generated based on the voice recognition result. However, the message is generated, for example, by operating the keyboard or the like by the user. It can also be performed based on a text input by the user or a recognition result obtained by recognizing a handwritten input by the user.

【0117】また、本実施の形態では、本発明を、現実
の物体としてのロボットに適用した場合について説明し
たが、本発明は、その他、例えば、コンピュータ上で仮
想的に実現されるキャラクタに適用することも可能であ
る。
In the present embodiment, the case where the present invention is applied to a robot as a real object has been described. However, the present invention is applied to a character virtually realized on a computer, for example. It is also possible.

【0118】[0118]

【発明の効果】本発明の情報処理装置および情報処理方
法、並びに記録媒体によれば、ユーザからの入力が解析
され、メッセージを伝達する相手と、伝達したい内容と
が、少なくとも認識される。そして、メッセージを伝達
する相手との親密度に応じた表現による、伝達したい内
容のメッセージが生成される。従って、相手に対して適
切な表現のメッセージを、容易に得ることが可能とな
る。
According to the information processing apparatus, the information processing method, and the recording medium of the present invention, an input from a user is analyzed, and at least a partner to which a message is to be transmitted and contents to be transmitted are recognized. Then, a message having contents to be transmitted is generated by an expression according to the intimacy with the partner to which the message is transmitted. Therefore, it is possible to easily obtain a message with an appropriate expression for the other party.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したロボットの外観構成例を示す
ブロック図である。
FIG. 1 is a block diagram illustrating an example of an external configuration of a robot to which the present invention has been applied.

【図2】図1のロボットの処理を説明するための図であ
る。
FIG. 2 is a diagram for explaining processing of the robot in FIG. 1;

【図3】図1のロボットの電気的構成例を示すブロック
図である。
FIG. 3 is a block diagram showing an example of an electrical configuration of the robot shown in FIG. 1;

【図4】音声認識部1の構成例を示すブロック図であ
る。
FIG. 4 is a block diagram illustrating a configuration example of a voice recognition unit 1;

【図5】言語処理部2の構成例を示すブロック図であ
る。
FIG. 5 is a block diagram illustrating a configuration example of a language processing unit 2.

【図6】意図理解部3の構成例を示すブロック図であ
る。
FIG. 6 is a block diagram illustrating a configuration example of an intention understanding unit 3;

【図7】人物データの例を示す図である。FIG. 7 is a diagram showing an example of person data.

【図8】文生成部6の構成例を示すブロック図である。FIG. 8 is a block diagram illustrating a configuration example of a sentence generation unit 6;

【図9】文履歴の例を示す図である。FIG. 9 is a diagram illustrating an example of a sentence history.

【図10】テンプレートの例を示す図である。FIG. 10 is a diagram illustrating an example of a template.

【図11】音声合成部7の構成例を示すブロック図であ
る。
FIG. 11 is a block diagram illustrating a configuration example of a speech synthesis unit 7;

【図12】図3のロボットの処理を説明するフローチャ
ートである。
FIG. 12 is a flowchart illustrating a process of the robot in FIG. 3;

【図13】図3のロボットの処理の結果を示す図であ
る。
FIG. 13 is a diagram showing a result of processing by the robot in FIG. 3;

【図14】文生成部6の処理を説明するフローチャート
である。
FIG. 14 is a flowchart illustrating a process of a sentence generation unit 6;

【図15】文生成部6の他の処理を説明するフローチャ
ートである。
FIG. 15 is a flowchart illustrating another process of the sentence generation unit 6;

【図16】本発明を適用したコンピュータの一実施の形
態の構成例を示すブロック図である。
FIG. 16 is a block diagram illustrating a configuration example of a computer according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 音声認識部, 2 言語処理部, 3 意図理解
部, 4 制御部, 5駆動部, 6 文生成部, 7
音声合成部, 8 スピーカ, 9 通信部, 11
マイク, 12 A/D変換部, 13 特徴抽出
部, 14 マッチング部, 15 音響モデルデータ
ベース, 16 辞書データベース, 17 文法デー
タベース, 21 テキスト解析部, 22 構文/意
味解析部,23 辞書データベース, 24 解析用文
法データベース, 25 辞書データベース, 26
解析用文法データベース, 27 コマンド辞書データ
ベース, 31 キーワード抽出部, 32 意図認識
部, 33 辞書データベース, 34 人物データベ
ース, 41 テキスト生成部, 42 文履歴記憶
部, 43 テンプレートデータベース, 44 生成
文法データベース,45 辞書データベース, 51
テキスト解析部, 52 規則合成部, 53 D/A
変換部, 54 辞書データベース, 55 解析用文
法データベース, 56 音素片データベース, 10
1 バス, 102 CPU, 103ROM, 104 RA
M, 105 ハードディスク, 106 出力部,
107 入力部, 108 通信部, 109 ドライ
ブ, 110 入出力インタフェース, 111 リム
ーバブル記録媒体
1 speech recognition unit, 2 language processing unit, 3 intention understanding unit, 4 control unit, 5 drive unit, 6 sentence generation unit, 7
Voice synthesis unit, 8 speakers, 9 communication unit, 11
Microphone, 12 A / D conversion unit, 13 feature extraction unit, 14 matching unit, 15 acoustic model database, 16 dictionary database, 17 grammar database, 21 text analysis unit, 22 syntax / semantic analysis unit, 23 dictionary database, 24 for analysis Grammar database, 25 Dictionary database, 26
Analysis grammar database, 27 command dictionary database, 31 keyword extraction unit, 32 intention recognition unit, 33 dictionary database, 34 person database, 41 text generation unit, 42 sentence history storage unit, 43 template database, 44 generation grammar database, 45 dictionaries Database, 51
Text analysis unit, 52 rule synthesis unit, 53 D / A
Converter, 54 dictionary database, 55 grammar database for analysis, 56 phoneme segment database, 10
1 bus, 102 CPU, 103 ROM, 104 RA
M, 105 hard disk, 106 output unit,
107 input unit, 108 communication unit, 109 drive, 110 input / output interface, 111 removable recording medium

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/28 G10L 3/00 551H 9A001 // A63H 11/00 571H (72)発明者 青柳 誠一 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 田中 幸 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 大江 敏生 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 BA06 BA11 CA01 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF08 DF33 ED42 ED52 EF13 EF16 EF23 EF29 EF33 EF36 3F060 AA00 BA10 CA14 5B091 AA15 CA21 CB12 CB21 CB32 CC01 CC02 CD01 5D015 AA05 KK02 KK04 LL12 5D045 AB11 9A001 BB06 CC03 HH13 HH16 HH17 HH18 HH19 JJ12 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (Reference) G10L 15/28 G10L 3/00 551H 9A001 // A63H 11/00 571H (72) Inventor Seiichi Aoyagi Kita Shinagawa, Shinagawa-ku, Tokyo 6-7-35 Inside Sony Corporation (72) Inventor Sachi Tanaka 6-35 7-35 Kita Shinagawa, Shinagawa-ku, Tokyo (72) Inventor Toshio Oe 6-Chome Kitashinagawa, Shinagawa-ku, Tokyo No. 7-35 Sony Corporation F-term (reference) 2C150 BA06 BA11 CA01 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF08 DF33 ED42 ED52 EF13 EF16 EF23 EF29 EF33 EF36 3F060 AA00 BA10 CA14 5B091 AA15 CC21 CB02 5D015 AA05 KK02 KK04 LL12 5D045 AB11 9A001 BB06 CC03 HH13 HH16 HH17 HH18 HH19 JJ12

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 所定の相手に対するメッセージを生成す
る情報処理装置であって、 ユーザからの入力を解析し、メッセージを伝達する相手
と、伝達したい内容とを、少なくとも認識する解析手段
と、 前記メッセージを伝達する相手との親密度に応じた表現
による、前記伝達したい内容のメッセージを生成するメ
ッセージ生成手段とを備えることを特徴とする情報処理
装置。
1. An information processing apparatus for generating a message for a predetermined partner, comprising: an analyzing unit that analyzes input from a user and recognizes at least a partner to which the message is to be transmitted and contents to be transmitted; An information processing apparatus comprising: a message generation unit that generates a message having the content to be transmitted in an expression according to the degree of intimacy with a partner to which the message is transmitted.
【請求項2】 前記メッセージ生成手段が生成したメッ
セージを、そのメッセージを伝達する相手に伝達する伝
達手段をさらに備えることを特徴とする請求項1に記載
の情報処理装置。
2. The information processing apparatus according to claim 1, further comprising a transmission unit that transmits the message generated by the message generation unit to a partner that transmits the message.
【請求項3】 前記伝達手段は、前記メッセージを合成
音で出力することを特徴とする請求項2に記載の情報処
理装置。
3. The information processing apparatus according to claim 2, wherein the transmitting unit outputs the message as a synthesized sound.
【請求項4】 前記伝達手段は、前記メッセージを、ネ
ットワークを介して送信することを特徴とする請求項2
に記載の情報処理装置。
4. The communication device according to claim 2, wherein the transmitting unit transmits the message via a network.
An information processing apparatus according to claim 1.
【請求項5】 ロボットであることを特徴とする請求項
1に記載の情報処理装置。
5. The information processing device according to claim 1, wherein the information processing device is a robot.
【請求項6】 前記メッセージ生成手段は、過去に生成
したメッセージと重複しないメッセージを生成すること
を特徴とする請求項1に記載の情報処理装置。
6. The information processing apparatus according to claim 1, wherein the message generation unit generates a message that does not overlap with a message generated in the past.
【請求項7】 前記メッセージ生成手段が生成したメッ
セージの履歴を記憶する記憶手段をさらに備え、 前記メッセージ生成手段は、前記記憶手段の記憶内容を
参照することにより、過去に生成したメッセージと重複
しないメッセージを生成することを特徴とする請求項6
に記載の情報処理装置。
7. A storage unit for storing a history of messages generated by the message generation unit, wherein the message generation unit does not overlap with a message generated in the past by referring to storage contents of the storage unit. 7. The method according to claim 6, wherein a message is generated.
An information processing apparatus according to claim 1.
【請求項8】 前記メッセージ生成手段は、過去に生成
したメッセージの1以上の単語を置換することにより、
そのメッセージと重複しないメッセージを生成すること
を特徴とする請求項6に記載の情報処理装置。
8. The message generating means replaces one or more words of a message generated in the past,
7. The information processing apparatus according to claim 6, wherein a message that does not overlap with the message is generated.
【請求項9】 ユーザの音声を認識する音声認識手段を
さらに備え、 前記解析手段は、前記音声認識手段による音声認識結果
を解析することを特徴とする請求項1に記載の情報処理
装置。
9. The information processing apparatus according to claim 1, further comprising voice recognition means for recognizing a user's voice, wherein said analysis means analyzes a voice recognition result by said voice recognition means.
【請求項10】 所定の相手に対するメッセージを生成
する情報処理方法であって、 ユーザからの入力を解析し、メッセージを伝達する相手
と、伝達したい内容とを、少なくとも認識する解析ステ
ップと、 前記メッセージを伝達する相手との親密度に応じた表現
による、前記伝達したい内容のメッセージを生成するメ
ッセージ生成ステップとを備えることを特徴とする情報
処理方法。
10. An information processing method for generating a message for a predetermined partner, comprising: analyzing an input from a user and at least recognizing a partner to which the message is to be transmitted and contents to be transmitted; A message generating step of generating a message of the content to be transmitted in an expression according to the degree of intimacy with the partner to which the message is transmitted.
【請求項11】 所定の相手に対するメッセージを生成
する情報処理を、コンピュータに行わせるプログラムが
記録されている記録媒体であって、 ユーザからの入力を解析し、メッセージを伝達する相手
と、伝達したい内容とを、少なくとも認識する解析ステ
ップと、 前記メッセージを伝達する相手との親密度に応じた表現
による、前記伝達したい内容のメッセージを生成するメ
ッセージ生成ステップとを備えるプログラムが記録され
ていることを特徴とする記録媒体。
11. A recording medium on which a program for causing a computer to perform information processing for generating a message for a predetermined partner is analyzed, wherein an input from a user is analyzed, and a partner who transmits the message and a partner who wants to transmit the message. A program comprising an analysis step of at least recognizing the content, and a message generation step of generating a message of the content to be transmitted by an expression according to the intimacy with a partner to which the message is transmitted is recorded. Characteristic recording medium.
JP2000020320A 2000-01-28 2000-01-28 Information processor, information processing method and recording medium Withdrawn JP2001209644A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000020320A JP2001209644A (en) 2000-01-28 2000-01-28 Information processor, information processing method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000020320A JP2001209644A (en) 2000-01-28 2000-01-28 Information processor, information processing method and recording medium

Publications (1)

Publication Number Publication Date
JP2001209644A true JP2001209644A (en) 2001-08-03

Family

ID=18546896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000020320A Withdrawn JP2001209644A (en) 2000-01-28 2000-01-28 Information processor, information processing method and recording medium

Country Status (1)

Country Link
JP (1) JP2001209644A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006015434A (en) * 2004-06-30 2006-01-19 Honda Motor Co Ltd Customer responding robot
JP2007164379A (en) * 2005-12-12 2007-06-28 Honda Motor Co Ltd Interface device and mobile robot equipped with the same
JP2014225178A (en) * 2013-05-17 2014-12-04 パイオニア株式会社 Document generation device, document generation method, and program for document generation device
CN106239506A (en) * 2016-08-11 2016-12-21 北京光年无限科技有限公司 The multi-modal input data processing method of intelligent robot and robot operating system
JP2018101431A (en) * 2018-01-17 2018-06-28 パイオニア株式会社 Document generation device, document generation method, and program for document generation device
JPWO2017056438A1 (en) * 2015-09-29 2018-07-26 日本電気株式会社 Optical repeater and optical repeater control method
CN110162780A (en) * 2019-04-08 2019-08-23 深圳市金微蓝技术有限公司 The recognition methods and device that user is intended to
JP2020064643A (en) * 2019-12-16 2020-04-23 パイオニア株式会社 Document generation device, document generation method, and program for document generation device
JP2022009228A (en) * 2019-12-16 2022-01-14 パイオニア株式会社 Document generation device, document generation method, and program for document generation device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006015434A (en) * 2004-06-30 2006-01-19 Honda Motor Co Ltd Customer responding robot
JP4611675B2 (en) * 2004-06-30 2011-01-12 本田技研工業株式会社 Customer service robot
JP2007164379A (en) * 2005-12-12 2007-06-28 Honda Motor Co Ltd Interface device and mobile robot equipped with the same
JP4718987B2 (en) * 2005-12-12 2011-07-06 本田技研工業株式会社 Interface device and mobile robot equipped with the same
US7983794B2 (en) 2005-12-12 2011-07-19 Honda Motor Co., Ltd. Interface apparatus and mobile robot equipped with the interface apparatus
JP2014225178A (en) * 2013-05-17 2014-12-04 パイオニア株式会社 Document generation device, document generation method, and program for document generation device
JPWO2017056438A1 (en) * 2015-09-29 2018-07-26 日本電気株式会社 Optical repeater and optical repeater control method
US10581551B2 (en) 2015-09-29 2020-03-03 Nec Corporation Optical repeater and control method for optical repeater
US10958370B2 (en) 2015-09-29 2021-03-23 Nec Corporation Optical repeater and control method for optical repeater
US11463190B2 (en) 2015-09-29 2022-10-04 Nec Corporation Optical repeater and control method for optical repeater
CN106239506A (en) * 2016-08-11 2016-12-21 北京光年无限科技有限公司 The multi-modal input data processing method of intelligent robot and robot operating system
JP2018101431A (en) * 2018-01-17 2018-06-28 パイオニア株式会社 Document generation device, document generation method, and program for document generation device
CN110162780A (en) * 2019-04-08 2019-08-23 深圳市金微蓝技术有限公司 The recognition methods and device that user is intended to
CN110162780B (en) * 2019-04-08 2023-05-09 深圳市金微蓝技术有限公司 User intention recognition method and device
JP2020064643A (en) * 2019-12-16 2020-04-23 パイオニア株式会社 Document generation device, document generation method, and program for document generation device
JP2022009228A (en) * 2019-12-16 2022-01-14 パイオニア株式会社 Document generation device, document generation method, and program for document generation device

Similar Documents

Publication Publication Date Title
US20230012984A1 (en) Generation of automated message responses
US11062694B2 (en) Text-to-speech processing with emphasized output audio
US10140973B1 (en) Text-to-speech processing using previously speech processed data
US20230317074A1 (en) Contextual voice user interface
JP3994368B2 (en) Information processing apparatus, information processing method, and recording medium
KR102582291B1 (en) Emotion information-based voice synthesis method and device
US9424833B2 (en) Method and apparatus for providing speech output for speech-enabled applications
US6952665B1 (en) Translating apparatus and method, and recording medium used therewith
JP2001215993A (en) Device and method for interactive processing and recording medium
US20160379638A1 (en) Input speech quality matching
US10163436B1 (en) Training a speech processing system using spoken utterances
US10176809B1 (en) Customized compression and decompression of audio data
Neto et al. Free tools and resources for Brazilian Portuguese speech recognition
US7010489B1 (en) Method for guiding text-to-speech output timing using speech recognition markers
JP2001100781A (en) Method and device for voice processing and recording medium
US20030154080A1 (en) Method and apparatus for modification of audio input to a data processing system
JP2001188779A (en) Device and method for processing information and recording medium
JP2001209644A (en) Information processor, information processing method and recording medium
JP2001117920A (en) Device and method for translation and recording medium
Choudhary et al. Process speech recognition system using artificial intelligence technique
Venkatagiri Speech recognition technology applications in communication disorders
US10854196B1 (en) Functional prerequisites and acknowledgments
JP2004252121A (en) Language processing apparatus and language processing method, and program and recording medium
JP2001188788A (en) Device and method for processing conversation and recording medium
JP2001117752A (en) Information processor, information processing method and recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070403