JP2003140688A - System and method for information distribution - Google Patents

System and method for information distribution

Info

Publication number
JP2003140688A
JP2003140688A JP2001342197A JP2001342197A JP2003140688A JP 2003140688 A JP2003140688 A JP 2003140688A JP 2001342197 A JP2001342197 A JP 2001342197A JP 2001342197 A JP2001342197 A JP 2001342197A JP 2003140688 A JP2003140688 A JP 2003140688A
Authority
JP
Japan
Prior art keywords
voice
information
voice data
attribute
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001342197A
Other languages
Japanese (ja)
Other versions
JP3705587B2 (en
Inventor
Takashi Tsuzuki
貴史 續木
Kana Hamada
佳那 濱田
Kazuyo Ota
和代 太田
Koji Yamamoto
浩司 山本
Hiroyuki Miyazaki
浩行 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001342197A priority Critical patent/JP3705587B2/en
Publication of JP2003140688A publication Critical patent/JP2003140688A/en
Application granted granted Critical
Publication of JP3705587B2 publication Critical patent/JP3705587B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an information distribution system which can provide various distributed information without requiring any trouble to obtain and register the distributed information on an administrator side. SOLUTION: A voice information reception part 14 receives voice data sent from an information communication terminal through the Internet 200. A property extraction part 16 extracts properties of the voice data. A database registration part 16 registers the received voice data as the distributed information in a provided voice information storage part 20 while making it correspond to the properties. A database retrieval part 18 retrieves voice data corresponding to the properties supplied from the property extraction part 16 from pieces of voice data which are already stored in the provided voice information storage part 20. An information distribution part 19 sends the voice data supplied from the database retrieval part 18 to an information communication terminal through the Internet 200. The sent voice data are finally converted into a voice and outputted from the information communication terminal.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、情報配信システム
および情報配信方法に関し、より特定的には、情報配信
サーバから複数のユーザ端末に対して種々の配信情報を
配信するための情報配信システムおよび情報配信方法に
関し、例えば、福祉支援システムの一環として老人によ
るコミュニケーションを促進するための対話型のペット
型ロボット等に好適に利用できる情報配信システムおよ
び情報配信方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information distribution system and an information distribution method, and more specifically, an information distribution system for distributing various distribution information from an information distribution server to a plurality of user terminals, and an information distribution system. The present invention relates to an information distribution method, for example, an information distribution system and an information distribution method that can be suitably used for an interactive pet robot or the like for promoting communication by an elderly person as a part of a welfare support system.

【0002】[0002]

【従来の技術】従来、例えば家族と離れて一人で暮らす
お年寄り等がコミュニケーションの不足に陥ってしまう
という問題を解消するための物として、対話型のペット
型ロボットが実現されている。このペット型ロボット
は、ユーザがペット型ロボットに対して何か話しかける
と、ユーザに対して、その話しかけの内容に応じた返答
をするというものである。以下、第1の従来例として、
このペット型ロボットについて簡単に説明する。
2. Description of the Related Art Conventionally, an interactive pet type robot has been realized as a means for solving the problem that an elderly person who lives apart from his / her family alone and falls into communication shortage. When the user talks to the pet robot, the pet robot responds to the user according to the content of the conversation. Hereinafter, as a first conventional example,
This pet robot will be briefly described.

【0003】図23に、ペット型ロボットの構成を示
す。ペット型ロボットは、マイクロホン900と、音声
認識部901と、解析部902と、対話部903と、応
答生成部904と、対話データベース905と、応答部
906と、音声データ格納部907と、出力部908と
を備える。対話データベース905は、解析辞書909
と、対話辞書910と、応答辞書911とを含む。ユー
ザがこのペット型ロボットに向かって話しかけると、そ
の音声は、マイクロホン900によって音声データに変
換される。音声データは、音声認識部901において音
声認識され、テキストデータとして出力される。解析部
902は、解析辞書909を参照して、このテキストデ
ータである入力文字列を、入力概念に変換する。例え
ば、「こんにちは」という入力文字列を“あいさつ”を
意味する入力概念(仮に「HELLO」と示す)に変換
する。対話部903は、対話辞書910を参照して、こ
の入力概念に対応する出力概念を出力する。例えば、
“あいさつ”を意味する入力概念「HELLO」に対し
て、同じく“あいさつに対する返答”を意味する出力概
念(仮に「¥HELLO」と示す)を出力する。応答生
成部904は、応答辞書911を参照して、出力概念に
対応する応答文字列の候補の中から、1つの出力文字列
を例えばランダムに選択して出力する。例えば、応答辞
書911において、出力概念「¥HELLO」に対応す
る応答文字列として、「やあ、こんにちは」、「はー
い、こんにちは」、「ハロー」、「こんにちは元気?」
の4つが登録されていた場合、応答生成部904は、こ
の中の一つの応答文字列、例えば「こんにちは元気?」
を選択して出力する。実際は、応答生成部904は、選
択した応答文字列に対応する音声データのファイル名を
出力する。音声データ格納部907には、応答辞書91
1に登録されている応答文字列に対応する音声データが
予め格納されており、応答部906は、この音声データ
格納部907から、応答生成部904から出力された音
声ファイル名に対応する音声データを読み出す。出力部
908は、読み出された音声データに基づいて、音声を
出力する。
FIG. 23 shows the structure of a pet robot. The pet robot includes a microphone 900, a voice recognition unit 901, an analysis unit 902, a dialogue unit 903, a response generation unit 904, a dialogue database 905, a response unit 906, a voice data storage unit 907, and an output unit. And 908. The dialogue database 905 is an analysis dictionary 909.
And a dialogue dictionary 910 and a response dictionary 911. When the user talks to the pet robot, the voice is converted into voice data by the microphone 900. The voice data is voice-recognized by the voice recognition unit 901 and output as text data. The analysis unit 902 refers to the analysis dictionary 909 and converts the input character string, which is the text data, into an input concept. For example, to convert to the input concept which means "greetings" to the input character string "Hello" (tentatively referred to as "HELLO"). The dialogue unit 903 refers to the dialogue dictionary 910 and outputs an output concept corresponding to this input concept. For example,
For the input concept "HELLO" which means "greeting", the output concept (provisionally indicated as "\ HELLO") which also means "reply to greeting" is output. The response generation unit 904 refers to the response dictionary 911 and randomly selects one output character string from among the response character string candidates corresponding to the output concept, and outputs the selected output character string. For example, in response dictionary 911, as a response character string corresponding to the output concept "¥ HELLO", "Hi, Hello", "Hi, Hi", "Hello", "Hello Genki?"
If you but four had been registered, the response generation unit 904, one of the response string in this, for example, "Hi Genki?"
To output. In reality, the response generation unit 904 outputs the file name of the voice data corresponding to the selected response character string. In the voice data storage unit 907, the response dictionary 91
The voice data corresponding to the response character string registered in No. 1 is stored in advance, and the response unit 906 stores the voice data corresponding to the voice file name output from the response generation unit 904 from the voice data storage unit 907. Read out. The output unit 908 outputs a sound based on the read sound data.

【0004】以上の動作により、例えば、ユーザがペッ
ト型ロボットに対して「こんにちは」と話しかけると、
これを受けて、ペット型ロボットは、ユーザに対して
「やあ、こんにちは」や「こんにちは、元気?」という
ように返答する。また例えば、ユーザが「ごきげんいか
が?」と話しかけると「元気だよ。あなたは?」という
ように返答する。このように、ペット型ロボットは、ユ
ーザが話しかける内容に対して適切に返答を行うため、
ユーザはあたかも本物の人間と会話をしているかのよう
に会話を楽しむことができる。
[0004] With the above operation, for example, and say "Hello" users to the pet-type robot,
In response to this, pet-type robot, "Hi, Hello" to the user and "Hello, how are you" to reply and so on. Also, for example, when the user speaks "How are you?", He replies, "I'm fine. How about you?" In this way, the pet robot appropriately responds to the contents spoken by the user,
The user can enjoy the conversation as if he were talking to a real person.

【0005】一方、近年、上記のようなペット型ロボッ
トを、介護目的に利用する為に情報配信機能を持たせる
ことも考えられており、そのようなシステムが現在実現
されている。具体的には、介護センター等の施設に設置
されたセンター装置から、通信回線を介して、各ユーザ
がそれぞれ所有する情報通信端末としてのペット型ロボ
ットに対してさまざまな情報を配信し、これら配信情報
をペット型ロボットを通じてユーザに通知するといった
情報配信システムが実現されている。以下、第2の従来
例として、この情報配信システムについて簡単に説明す
る。
On the other hand, in recent years, it has been considered that the pet type robot as described above has an information distribution function in order to use it for the purpose of nursing care, and such a system is currently realized. Specifically, a center device installed in a facility such as a care center distributes various information via a communication line to pet-type robots as information communication terminals owned by each user. An information distribution system has been realized in which information is notified to a user through a pet robot. Hereinafter, this information distribution system will be briefly described as a second conventional example.

【0006】図24に、情報配信システムの全体構成を
示す。情報配信システムは、複数のユーザ(ここではユ
ーザA〜C)がそれぞれ操作する複数(ここでは3つ)
の情報端末装置912a〜912cと、インターネット
913と、センター装置914とで構成される。センタ
ー装置914と各情報端末装置912a〜912cと
は、インターネット913を介して通信可能に接続され
る。
FIG. 24 shows the overall configuration of the information distribution system. The information distribution system has a plurality (here, three) operated by a plurality of users (here, users A to C).
Information terminal devices 912a to 912c, the Internet 913, and a center device 914. The center device 914 and each of the information terminal devices 912a to 912c are communicably connected via the Internet 913.

【0007】図25に、センター装置914の構成を示
す。センター装置914は、配信情報データベース91
5と、情報選択部916と、情報配信部917とを備え
る。配信情報データベース915は、配信情報格納部9
18と、音声データ格納部919とを含む。配信情報デ
ータベース915には、ユーザに配信すべき配信情報が
格納される。例えば、センター装置914の管理者は、
ユーザA〜Cに伝えるべき配信情報がある場合、配信情
報データベース915に適宜登録する。このとき、この
配信情報がどの応答概念に対応して出力されるべきであ
るのかについても登録される。例えば、登録する配信情
報が今日の予定に関する情報である場合は、応答概念
(仮に「¥YOTEI」と示す)に対応する配信情報で
あることを登録しておく。配信情報としては、管理者が
マイクロホンから入力した音声データである場合や、キ
ーボードから入力したテキストデータである場合や、そ
の他のデータである場合がある。音声データについて
は、音声データ格納部919に格納され、テキストデー
タやその他のデータについては配信情報格納部918に
格納される。情報選択部916は、配信情報データベー
ス915に登録されているデータの中から、例えば配信
情報データベース915に新たに追加された未配信のデ
ータを選択し、情報配信部917は、この選択されたデ
ータを情報通信端末912a〜912cに向けて配信す
る。
FIG. 25 shows the configuration of the center device 914. The center device 914 has a distribution information database 91.
5, an information selection unit 916, and an information distribution unit 917. The distribution information database 915 includes the distribution information storage unit 9
18 and a voice data storage unit 919. The distribution information database 915 stores distribution information to be distributed to users. For example, the administrator of the center device 914 is
If there is distribution information to be transmitted to the users A to C, it is appropriately registered in the distribution information database 915. At this time, the response concept to which this delivery information should be output is also registered. For example, when the distribution information to be registered is information about today's schedule, it is registered that the distribution information corresponds to the response concept (tentatively indicated as “¥ YOTEI”). The distribution information may be voice data input by a manager from a microphone, text data input from a keyboard, or other data. The voice data is stored in the voice data storage unit 919, and the text data and other data are stored in the distribution information storage unit 918. The information selection unit 916 selects, for example, undistributed data newly added to the distribution information database 915 from the data registered in the distribution information database 915, and the information distribution unit 917 selects the selected data. Is distributed to the information communication terminals 912a to 912c.

【0008】図26に、情報通信端末912aの構成を
示す。なお、図24に示す情報通信端末912a〜91
2cの構成は同一であるため、ここでは情報通信端末9
12aについてのみ説明し、情報通信端末912bおよ
び情報通信端末912cの説明を省略する。また、図2
6において、図23に示す構成と同一の構成については
同一の参照符号を付し、説明を省略する。情報通信端末
912aは、図23に示した第1の従来例の構成と比較
して、情報受信部921と情報登録部922とをさらに
備え、対話データベース920は、情報応答辞書923
をさらに含む。情報受信部921は、前述のようにして
センター装置914の情報配信部917から配信された
配信情報を受信する。情報登録部922は、受信した情
報の解析を行い、受信情報に基づいて情報応答辞書92
3への受信情報の登録および音声データ格納部907へ
の音声データの登録を行う。こうして、新たな配信情報
を受信する度に、情報応答辞書923の登録内容が更新
され、音声データ格納部907には受信した音声データ
が追加される。この状態で、例えばユーザが情報通信端
末912aに対して「今日の予定は?」と話しかける
と、この音声は、マイクロホン900等を通じてテキス
トデータとして解析部902に供給され、解析部902
は、入力概念(仮に「YOTEI」と示す)を出力し、
対話部903は、この入力概念「YOTEI」に対応す
る応答概念「¥YOTEI」を出力する。応答生成部9
04は、この応答概念「¥YOTEI」を受け取ると、
この応答概念「¥YOTEI」に対しては応答辞書91
1ではなく情報応答辞書923を参照し、この応答概念
「¥YOTEI」に対応する音声データのファイル名を
出力する。応答部906は、このファイル名に基づい
て、音声データ格納部907から、このファイル名に対
応する音声データを読み出す。出力部908は、この音
声データに基づいて音声を出力する。この結果、例え
ば、「今日の予定は?」というユーザの問いかけに対し
て、情報通信端末912aは、「今日は定期検診の日で
すよ」というように返答する。
FIG. 26 shows the configuration of the information communication terminal 912a. The information communication terminals 912a to 91 shown in FIG.
Since the configuration of 2c is the same, here, the information communication terminal 9
Only 12a will be described, and description of the information communication terminals 912b and 912c will be omitted. Also, FIG.
6, the same components as those shown in FIG. 23 are designated by the same reference numerals, and the description thereof will be omitted. The information communication terminal 912a further includes an information receiving unit 921 and an information registration unit 922 as compared with the configuration of the first conventional example shown in FIG. 23, and the dialogue database 920 has an information response dictionary 923.
Further includes. The information receiving unit 921 receives the distribution information distributed from the information distribution unit 917 of the center device 914 as described above. The information registration unit 922 analyzes the received information, and based on the received information, the information response dictionary 92.
3 to register the reception information and to register the voice data in the voice data storage unit 907. In this way, each time new distribution information is received, the registered content of the information response dictionary 923 is updated, and the received voice data is added to the voice data storage unit 907. In this state, for example, when the user speaks to the information communication terminal 912a, "What's your schedule for today?", This voice is supplied to the analysis unit 902 as text data through the microphone 900 or the like, and the analysis unit 902.
Outputs the input concept (tentatively labeled "YOTEI"),
The dialogue unit 903 outputs the response concept “¥ YOTEI” corresponding to the input concept “YOTEI”. Response generator 9
When 04 receives this response concept “¥ YOTEI”,
The response dictionary 91 for this response concept "\ YOTEI"
The information response dictionary 923 is referred to instead of 1, and the file name of the audio data corresponding to this response concept “¥ YOTEI” is output. The response unit 906 reads the voice data corresponding to this file name from the voice data storage unit 907 based on this file name. The output unit 908 outputs a voice based on this voice data. As a result, for example, in response to the user's question "What is today's schedule?", The information communication terminal 912a replies, "Today is the day of regular checkup."

【0009】以上のように、センター装置914におい
て各ユーザに配信したい情報を登録することにより、こ
の情報をユーザの情報通信端末を通じてユーザに通知す
ることができる。これにより、ユーザは新しい話題を期
待することができるため、長期の使用によっても新鮮味
が低減することがない。また、これらの配信情報は、ユ
ーザの問いかけに応じて適宜出力されるため、ユーザ
は、キーボード等による特別な操作を必要とすることな
く、情報通信端末へ問いかけるだけでセンター装置から
の情報を得ることができるので、キーボード等の操作が
苦手なお年寄りのユーザなどであっても容易に情報を入
手することができる。
As described above, by registering the information to be distributed to each user in the center device 914, this information can be notified to the user through the information communication terminal of the user. As a result, the user can expect a new topic, so that the freshness is not reduced even after long-term use. Further, since the distribution information is appropriately output in response to the user's inquiry, the user can obtain the information from the center device by only asking the information communication terminal, without requiring a special operation with a keyboard or the like. Therefore, even an elderly user who is not good at operating a keyboard or the like can easily obtain information.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、上述し
た第1の従来例では、ペット型ロボットは、ユーザの問
いかけに対して、応答辞書に予め登録されている応答文
字列に基づいて応答するのみであるため、対話が単調に
なりがちであり、ペット型ロボットを長期にわたり使用
していると新鮮味が低減し、ユーザが飽きてしまうとい
う問題がある。
However, in the above-mentioned first conventional example, the pet robot only responds to the user's inquiry based on the response character string registered in the response dictionary in advance. For this reason, the dialogue tends to be monotonous, and if the pet robot is used for a long period of time, the freshness of the pet robot is reduced and the user becomes tired.

【0011】一方、上述した第2の従来例では、センタ
ー装置の管理者が配信情報データベースに配信情報を登
録することによって、情報端末装置から新たな情報を出
力させることができる。しかしながら、配信情報を入手
して登録する作業には多くの手間がかかるため、提供で
きる配信情報の数には限界があった。
On the other hand, in the above-mentioned second conventional example, by the administrator of the center device registering the distribution information in the distribution information database, new information can be output from the information terminal device. However, since it takes a lot of work to obtain and register the distribution information, the number of distribution information that can be provided is limited.

【0012】また、全てのユーザに同一の配信情報を配
信すると、一部のユーザにとっては有用な情報であって
も他のユーザにとっては不要な情報である場合も多く、
情報端末装置の記憶容量を無駄に使用してしまうばかり
でなく、ユーザにとっての利便性も低下する。この問題
を解決するためには、センター側で、予め配信情報毎
に、その送信先を指定することが考えられるが、配信先
や配信情報が多数になるほど、その送信先の指定作業に
は多くの手間がかかってしまう。
When the same delivery information is delivered to all users, it is often useful information for some users but unnecessary for other users.
Not only is the storage capacity of the information terminal device wasted, but the convenience for the user is also reduced. In order to solve this problem, the center side may preliminarily specify the destination for each piece of distribution information, but the more the number of distribution destinations and distribution information, the more the work of specifying the destination. Takes time and effort.

【0013】それゆえに、本発明の目的は、管理者側に
おいて配信情報の入手および登録する手間を必要とせ
ず、情報通信端末に対してより多様な情報を配信するこ
とのできる情報配信システムを提供することである。
Therefore, an object of the present invention is to provide an information distribution system capable of distributing more diverse information to an information communication terminal without requiring the administrator to obtain and register distribution information. It is to be.

【0014】また、本発明の他の目的は、管理者側にお
いて配信情報毎に情報の配信先を指定する手間を必要と
せず、各ユーザに対して、それぞれ有用な配信情報を提
供することのできる情報配信システムを提供することで
ある。
Another object of the present invention is to provide useful distribution information to each user without requiring the administrator to specify the distribution destination of information for each distribution information. It is to provide a possible information distribution system.

【0015】[0015]

【課題を解決するための手段および発明の効果】第1の
発明は、センター装置から複数の情報通信端末に対して
通信回線を通じて種々の配信情報を配信する情報配信シ
ステムであって、ユーザが発した音声を音声データに変
換する音声入力手段と、音声入力手段によって変換され
た音声データからこの音声データの属性を抽出する属性
抽出手段と、音声入力手段によって変換された音声デー
タを属性抽出手段によって抽出された属性と対応付けて
格納する格納手段と、格納手段によってすでに格納され
ている複数の音声データの中から、所望の属性の音声デ
ータを検索する検索手段と、検索手段によって検索され
た音声データを、所定の情報通信端末に配信する情報配
信手段と、情報配信手段によって配信された音声データ
を音声に変換して出力する音声出力手段とを備え、音声
入力手段および音声出力手段は、複数の情報通信端末の
それぞれに設けられ、格納手段、検索手段および情報配
信手段は、センター装置に設けられることを特徴とす
る。
[Means for Solving the Problems and Effects of the Invention] A first invention is an information distribution system for distributing various distribution information from a center device to a plurality of information communication terminals through a communication line. Voice input means for converting the voice into voice data, attribute extracting means for extracting the attribute of the voice data from the voice data converted by the voice input means, and voice data converted by the voice input means by the attribute extracting means. A storage unit that stores the extracted attribute in association with it, a search unit that searches for voice data having a desired attribute from a plurality of voice data that is already stored by the storage unit, and a voice that is searched by the search unit. An information distribution means for distributing data to a predetermined information communication terminal, and converting the voice data distributed by the information distribution means into voice. A voice output means for inputting the voice, the voice input means and the voice output means are provided in each of the plurality of information communication terminals, and the storage means, the search means, and the information distribution means are provided in the center device. .

【0016】上記のように、第1の発明によれば、ユー
ザが発した音声を配信情報として他のユーザに配信する
ので、センター装置の管理者等が配信情報を入手して登
録するといった手間を必要とすることなく、配信情報は
随時新たに登録され、ユーザは新鮮な情報を入手するこ
とができる。また、音声データは、属性と対応付けられ
て格納されるため、格納されている複数の音声データの
中から所望の属性の音声データを検索して配信すること
が容易である。また、音声データの属性は、音声データ
自体から自動的に抽出されるので、管理者等が音声デー
タを内容に応じて分類するといった手間が省ける。
As described above, according to the first aspect of the invention, the voice uttered by the user is distributed to other users as distribution information, so that the administrator of the center device or the like can obtain the distribution information and register it. The distribution information is newly registered at any time without requiring the user, and the user can obtain fresh information. Further, since the voice data is stored in association with the attribute, it is easy to search and deliver the voice data having the desired attribute from the plurality of stored voice data. Further, since the attribute of the voice data is automatically extracted from the voice data itself, it is possible to save the trouble of the administrator or the like classifying the voice data according to the content.

【0017】第2の発明は、第1の発明において、属性
抽出手段は、音声データをテキストデータに変換する音
声認識手段と、テキストデータから意味のあるキーワー
ドを抽出する意味解析手段と、キーワードに基づいて音
声データの属性を判別する属性判別手段とを含む。
According to a second aspect of the present invention, in the first aspect, the attribute extracting means includes a voice recognizing means for converting voice data into text data, a semantic analyzing means for extracting a meaningful keyword from the text data, and a keyword. And an attribute discriminating means for discriminating the attribute of the voice data based on the audio data.

【0018】上記のように、第2の発明によれば、音声
データ自身から属性を自動的に抽出することができる。
As described above, according to the second invention, the attribute can be automatically extracted from the voice data itself.

【0019】第3の発明は、第1の発明において、検索
手段は、格納手段によってすでに格納されている複数の
音声データの中から音声入力手段によって変換された音
声データの属性に対応する属性の音声データを検索し、
情報配信手段は、音声入力手段によって変換された音声
データの送信元の情報通信端末に対して、検索手段によ
って検索された音声データを配信することを特徴とす
る。
In a third aspect based on the first aspect, the search means has an attribute corresponding to the attribute of the voice data converted by the voice input means from a plurality of voice data already stored by the storage means. Search voice data,
The information distribution means is characterized by distributing the voice data searched by the search means to the information communication terminal of the transmission source of the voice data converted by the voice input means.

【0020】上記のように、第3の発明によれば、ユー
ザが情報通信端末に対して話しかけた話題に関連した他
ユーザからの情報が情報通信端末を通じて他ユーザの音
声で出力されるので、より自然の会話に近い形で情報を
入手することができ、しかも、ユーザにとって全く興味
のない情報が出力されてしまうという問題も生じない。
また、ユーザが興味を持っている話題を情報通信端末に
対して単に話しかけるだけで、その話題に関連した情報
が音声出力されるので、キーボードなどによる面倒な操
作を行うことなく所望の情報を得ることができる。
As described above, according to the third aspect of the invention, since information from another user relating to a topic spoken by the user to the information communication terminal is output as voice of the other user through the information communication terminal, It is possible to obtain information in a form closer to a natural conversation, and there is no problem that information that is completely uninteresting to the user is output.
In addition, the user can simply talk to the information communication terminal about the topic of interest, and the information related to the topic is output as voice, so that the desired information can be obtained without the troublesome operation of a keyboard or the like. be able to.

【0021】第4の発明は、第1の発明において、セン
ター装置は、属性抽出手段によって抽出された属性を、
ユーザの嗜好属性としてユーザに対応づけて記憶してお
く嗜好属性記憶手段をさらに備え、検索手段は、嗜好属
性記憶手段によって記憶されているユーザの嗜好属性を
参照して、格納手段によってすでに格納されている複数
の音声データの中から情報配信先のユーザの嗜好属性に
対応する属性の音声データを検索することを特徴とす
る。
In a fourth aspect based on the first aspect, the center device sets the attributes extracted by the attribute extraction means to
The search means further includes a preference attribute storage unit that stores the preference attribute of the user in association with the user, and the search unit refers to the preference attribute of the user stored by the preference attribute storage unit and is already stored by the storage unit. It is characterized in that the voice data having the attribute corresponding to the preference attribute of the user of the information delivery destination is searched from the plurality of voice data.

【0022】上記のように、第4の発明によれば、ユー
ザの嗜好に合致する音声データが検索されて配信される
ので、ユーザにとって全く興味のない情報が出力されて
しまうという問題は生じない。また、情報通信端末に不
要な情報が送信されないため、情報の配信に係るトラフ
ィックを軽減することができるとともに、情報通信端末
に配信情報をまとめて送信する際に情報通信端末に必要
となる記憶容量が低減する。また、管理者等が、ユーザ
の嗜好を考慮して配信先や配信情報を選択するといった
手間も省ける。また、ユーザの嗜好は、ユーザが過去に
発した音声の内容に基づいて自動的に登録されるため、
ユーザや管理者等がわざわざキーボード等を操作して手
作業で嗜好属性の登録を行う手間が省ける。
As described above, according to the fourth aspect of the invention, the voice data that matches the user's taste is searched and distributed, so that there is no problem that information that is completely uninteresting to the user is output. . Further, since unnecessary information is not transmitted to the information communication terminal, it is possible to reduce the traffic related to the information distribution and the storage capacity required for the information communication terminal when collectively transmitting the distribution information to the information communication terminal. Is reduced. In addition, it is possible for the administrator and the like to save the trouble of selecting the delivery destination and the delivery information in consideration of the user's preference. In addition, since the user's preference is automatically registered based on the content of the voice that the user has uttered in the past,
The user and the administrator can save the trouble of manually operating the keyboard or the like to manually register the preference attributes.

【0023】第5の発明は、第4の発明において、属性
抽出手段が少なくとも複数の情報通信端末のそれぞれに
設けられており、情報配信手段は、検索手段によって検
索された音声データをこの音声データの属性とともに配
信し、情報通信端末は、それぞれ情報配信手段によって
配信された音声データを属性と対応づけて格納する受信
音声情報格納手段と、受信音声情報格納手段によって格
納されている複数の音声データの中から、属性抽出手段
によって抽出された属性に対応する属性の音声データを
検索する端末側検索手段とをさらに備え、音声出力手段
は、端末側検索手段によって検索された音声データを音
声に変換して出力することを特徴とする。
In a fifth aspect based on the fourth aspect, the attribute extracting means is provided in each of at least a plurality of information communication terminals, and the information distributing means converts the voice data searched by the searching means into the voice data. And a plurality of voice data stored by the received voice information storage means, in which the information communication terminal stores the voice data delivered by the information delivery means in association with the attribute. Further includes terminal-side search means for searching voice data of an attribute corresponding to the attribute extracted by the attribute extraction means, and the voice output means converts the voice data searched by the terminal-side search means into voice. And output.

【0024】上記のように、第5の発明によれば、特
に、通信回線が接続されていない状態であっても、ユー
ザが情報通信端末に対して何か話しかけると、受信音声
情報格納手段に格納されている音声データの中から、ユ
ーザが話しかけた話題に関連する音声データが選出され
て、情報通信端末から音声として出力される。よって、
通信回線が接続されていない状態であっても、ユーザは
対話形式で適宜話しかけた内容に関連する情報を入手す
ることができるため、通信コストを抑えることができ
る。
As described above, according to the fifth aspect of the invention, in particular, even when the communication line is not connected, when the user speaks to the information communication terminal, the received voice information storage means stores it. From the stored voice data, voice data related to the topic spoken by the user is selected and output as voice from the information communication terminal. Therefore,
Even if the communication line is not connected, the user can obtain the information related to the content spoken appropriately in the interactive mode, so that the communication cost can be suppressed.

【0025】第6の発明は、第5の発明において、情報
通信端末は、それぞれ、通信回線が接続されていない間
に音声入力手段によって変換された音声データを、通信
回線が接続されるまで一時的に記憶しておく音声情報一
時記憶手段をさらに備える。
In a sixth aspect based on the fifth aspect, the information communication terminal temporarily stores the voice data converted by the voice input means while the communication line is not connected until the communication line is connected. Voice information temporary storage means for temporarily storing.

【0026】上記のように、第6の発明によれば、通信
回線が接続されていない状態においてユーザが話しかけ
た内容は、通信回線が接続されるまでの間、順次、音声
データとして音声情報一時記憶手段に一時的に記憶さ
れ、通信回線が接続されたときにまとめてセンター装置
に送信される。よって、通信回線が接続されていない状
態においてユーザが話しかけた内容も無駄にすることな
く配信情報として他ユーザに配信することが可能とな
る。
As described above, according to the sixth aspect of the present invention, the contents spoken by the user in the state where the communication line is not connected are the voice information temporary as voice data until the communication line is connected. The data is temporarily stored in the storage means and collectively transmitted to the center device when the communication line is connected. Therefore, it becomes possible to deliver the content spoken by the user to other users as the delivery information without wasting the content spoken by the user when the communication line is not connected.

【0027】第7の発明は、センター装置から複数の情
報通信端末に対して通信回線を通じて種々の配信情報を
配信する情報配信システムであって、ユーザが発した音
声を音声データに変換する音声入力手段と、音声入力手
段によって変換された音声データを格納する格納手段
と、格納手段によって格納されている音声データを所定
の情報通信端末に配信する情報配信手段と、情報配信手
段によって配信された音声データの話者を照合してこの
音声データの話者を特定する話者照合手段と、話者毎に
この話者の音声データの優先度を表す優先度情報を格納
する話者情報格納手段と、配信された音声データを音声
に変換して出力する音声出力手段とを備え、音声入力手
段、話者照合手段、話者情報格納手段および音声出力手
段は、複数の情報通信端末のそれぞれに設けられ、格納
手段および情報配信手段は、センター装置に設けられ、
配信された音声データは、話者情報格納手段によって格
納されている、この音声データの話者に対応する優先度
情報に基づいて、音声出力手段によって音声に変換され
て出力されることを特徴とする。
A seventh invention is an information distribution system for distributing various distribution information from a center device to a plurality of information communication terminals through a communication line, and a voice input for converting a voice uttered by a user into voice data. Means, storage means for storing the voice data converted by the voice input means, information delivery means for delivering the voice data stored by the storage means to a predetermined information communication terminal, and voice delivered by the information delivery means. Speaker verification means for matching the speaker of the data to identify the speaker of this voice data, and speaker information storage means for storing priority information indicating the priority of the voice data of this speaker for each speaker. A voice output means for converting the delivered voice data into voice and outputting the voice. The voice input means, the speaker verification means, the speaker information storage means and the voice output means are provided with a plurality of information communication means. Provided in each of the terminal, storage means and information delivery means is provided in the center apparatus,
The delivered voice data is converted into voice by the voice output unit based on the priority information corresponding to the speaker of the voice data stored in the speaker information storage unit and output. To do.

【0028】上記のように、第7の発明によれば、不特
定多数のユーザの音声情報が配信情報として配信される
場合であっても、配信された音声データ自身から話者を
特定し、話者毎に設定された優先度に応じて、この音声
データの出力を制限することができる。したがって、例
えば、配信された音声データが家族からのものであれば
一番最初に出力し、嫌悪感を抱かせる者からのものであ
れば出力しないというような制限が可能である。
As described above, according to the seventh aspect of the invention, even when the voice information of an unspecified number of users is delivered as the delivery information, the speaker is identified from the delivered voice data itself, The output of this voice data can be limited according to the priority set for each speaker. Therefore, for example, it is possible to limit the delivered voice data to be output first if the voice data is from a family and not to be output from a person who makes an aversion.

【0029】第8の発明は、第7の発明において、情報
通信端末は、それぞれ、音声入力手段によって変換され
た音声データに基づいて、音声出力手段によって出力さ
れた音声の話者に対してユーザが抱いている印象を判定
する好感度判定手段と、好感度判定手段による判定結果
に基づいて、この話者に対する優先度情報を話者情報格
納手段に登録する話者情報登録手段をさらに備える。
According to an eighth aspect of the invention, in the seventh aspect, the information communication terminal provides the user with respect to the speaker of the voice output by the voice output means, based on the voice data converted by the voice input means. And a speaker information registration unit for registering priority information for this speaker in the speaker information storage unit on the basis of the judgment result of the impression judgment unit.

【0030】上記のように、第8の発明によれば、ユー
ザが予め話者情報を登録することなく自動的に話者情報
が登録され、優先度が最適に設定される。
As described above, according to the eighth aspect of the invention, the speaker information is automatically registered without the user registering the speaker information in advance, and the priority is optimally set.

【0031】第9の発明は、センター装置から通信回線
を通じて配信される種々の配信情報を受信する情報通信
端末であって、ユーザが発した音声を音声データに変換
する音声入力手段と、音声入力手段によって変換された
音声データからこの音声データの属性を抽出する属性抽
出手段と、音声入力手段によって変換された音声データ
を属性抽出手段によって抽出されたこの音声データの属
性とともにセンター装置に送信する音声情報送信手段
と、センター装置から配信された音声データを音声に変
換して出力する音声出力手段とを備える。
A ninth aspect of the present invention is an information communication terminal for receiving various distribution information distributed from a center device through a communication line, and a voice input means for converting a voice uttered by a user into voice data, and a voice input. Attribute extracting means for extracting the attribute of this voice data from the voice data converted by the means, and voice for transmitting the voice data converted by the voice input means to the center device together with the attribute of this voice data extracted by the attribute extracting means. The information transmission means and the voice output means for converting the voice data distributed from the center device into voice and outputting the voice.

【0032】上記のように、第9の発明によれば、ユー
ザが発した音声をセンター装置に配信情報として提供す
ることができるので、センター装置の管理者等が配信情
報を入手して登録するといった手間を必要とすることな
く、配信情報は随時新たに登録され、ユーザは新鮮な情
報を入手することができる。また、音声データは、属性
とともにセンター装置に送信されるため、センター装置
において、格納されている複数の音声データの中から所
望の属性の音声データを検索して配信することが容易で
ある。また、音声データの属性は、音声データ自体から
自動的に抽出されるので、管理者等が音声データを内容
に応じて分類するといった手間が省ける。
As described above, according to the ninth aspect of the invention, since the voice uttered by the user can be provided to the center device as the distribution information, the manager of the center device or the like obtains and registers the distribution information. The distribution information is newly registered at any time without requiring such trouble, and the user can obtain fresh information. Further, since the voice data is transmitted to the center device together with the attribute, it is easy for the center device to retrieve and deliver the voice data having the desired attribute from the plurality of stored voice data. Further, since the attribute of the voice data is automatically extracted from the voice data itself, it is possible to save the trouble of the administrator or the like classifying the voice data according to the content.

【0033】第10の発明は、第9の発明において、属
性抽出手段は、音声データをテキストデータに変換する
音声認識手段と、テキストデータから意味のあるキーワ
ードを抽出する意味解析手段と、キーワードに基づいて
音声データの属性を判別する属性判別手段とを含む。
In a tenth aspect based on the ninth aspect, the attribute extraction means includes a voice recognition means for converting voice data into text data, a meaning analysis means for extracting a meaningful keyword from the text data, and a keyword recognition means. And an attribute discriminating means for discriminating the attribute of the voice data based on the audio data.

【0034】上記のように、第10の発明によれば、音
声データ自身から属性を自動的に抽出することができ
る。
As described above, according to the tenth aspect, the attribute can be automatically extracted from the voice data itself.

【0035】第11の発明は、第9の発明において、セ
ンター装置からは、音声データがこの音声データの属性
とともに配信され、センター装置から配信された音声デ
ータを属性と対応づけて格納する受信音声情報格納手段
と、受信音声情報格納手段によって格納されている複数
の音声データの中から、属性抽出手段によって抽出され
た属性に対応する属性の音声データを検索する端末側検
索手段とをさらに備え、音声出力手段は、端末側検索手
段によって検索された音声データを音声に変換して出力
することを特徴とする。
In an eleventh aspect based on the ninth aspect, the voice data is distributed from the center device together with the attributes of the voice data, and the voice data distributed from the center device is stored in association with the attribute. The information storage means, and a terminal side search means for searching the voice data of the attribute corresponding to the attribute extracted by the attribute extraction means from the plurality of voice data stored by the received voice information storage means, The voice output means is characterized by converting the voice data searched by the terminal side search means into a voice and outputting the voice.

【0036】上記のように、第11の発明によれば、特
に、通信回線が接続されていない状態であっても、ユー
ザが情報通信端末に対して何か話しかけると、受信音声
情報格手段に格納されている音声データの中から、ユー
ザが話しかけた話題に関連する音声データが選出され
て、情報通信端末から音声として出力される。よって、
通信回線が接続されていない状態であっても、ユーザは
対話形式で適宜話しかけた内容に関連する情報を入手す
ることができるため、通信コストを抑えることができ
る。
As described above, according to the eleventh invention, in particular, even when the communication line is not connected, when the user speaks to the information communication terminal, the received voice information case means is displayed. From the stored voice data, voice data related to the topic spoken by the user is selected and output as voice from the information communication terminal. Therefore,
Even if the communication line is not connected, the user can obtain the information related to the content spoken appropriately in the interactive mode, so that the communication cost can be suppressed.

【0037】第12の発明は、第11の発明において、
通信回線が接続されていない間に音声入力手段によって
変換された音声データを、通信回線が接続されるまで一
時的に記憶しておく音声情報一時記憶手段をさらに備え
る。
The twelfth invention is the eleventh invention, wherein
It further comprises voice information temporary storage means for temporarily storing the voice data converted by the voice input means while the communication line is not connected until the communication line is connected.

【0038】上記のように、第12の発明によれば、通
信回線が接続されていない状態においてユーザが話しか
けた内容は、通信回線が接続されるまでの間、順次、音
声データとして音声情報一時記憶手段に一時的に記憶さ
れ、通信回線が接続されたときにまとめてセンター装置
に送信される。よって、通信回線が接続されていない状
態においてユーザが話しかけた内容も無駄にすることな
くセンター装置に配信情報として提供することが可能と
なる。
As described above, according to the twelfth aspect of the invention, the contents spoken by the user in the state where the communication line is not connected are sequentially recorded as voice data as voice data until the communication line is connected. The data is temporarily stored in the storage means and collectively transmitted to the center device when the communication line is connected. Therefore, the content spoken by the user in a state where the communication line is not connected can be provided to the center device as distribution information without wasting.

【0039】第13の発明は、センター装置から通信回
線を通じて配信される種々の配信情報を受信する情報通
信端末であって、ユーザが発した音声を音声データに変
換する音声入力手段と、センター装置から配信された音
声データの話者を照合してこの音声データの話者を特定
する話者照合手段と、話者毎にこの話者の音声データの
優先度を表す優先度情報を格納する話者情報格納手段
と、配信された音声データを音声に変換して出力する音
声出力手段とを備え、配信された音声データは、話者情
報格納手段によって格納されている、この音声データの
話者に対応する優先度情報に基づいて、音声出力手段に
よって音声に変換されて出力されることを特徴とする。
A thirteenth invention is an information communication terminal for receiving various distribution information distributed from a center device through a communication line, and a voice input means for converting a voice uttered by a user into voice data, and the center device. A speaker collating means for collating the speaker of the voice data distributed from to identify the speaker of this voice data, and a talk for storing the priority information indicating the priority of the voice data of this speaker for each speaker. Person information storage means and voice output means for converting the delivered voice data to voice and outputting the voice, and the delivered voice data is stored in the speaker information storage means. It is characterized in that it is converted into a voice and outputted by the voice output means based on the priority information corresponding to.

【0040】上記のように、第13の発明によれば、不
特定多数のユーザの音声情報が配信情報として配信され
る場合であっても、配信された音声データ自身から話者
を特定し、話者毎に設定された優先度に応じて、この音
声データの出力を制限することができる。したがって、
例えば、配信された音声データが家族からのものであれ
ば一番最初に出力し、嫌悪感を抱かせる者からのもので
あれば出力しないというような制限が可能である。
As described above, according to the thirteenth invention, even when the voice information of an unspecified number of users is delivered as the delivery information, the speaker is identified from the delivered voice data itself, The output of this voice data can be limited according to the priority set for each speaker. Therefore,
For example, it is possible to limit the delivered voice data to be output first if the voice data is from a family and not to be output from a person who makes an aversion.

【0041】第14の発明は、第13の発明において、
音声入力手段によって変換された音声データに基づい
て、音声出力手段によって出力された音声の話者に対し
てユーザが抱いている印象を判定する好感度判定手段
と、好感度判定手段による判定結果に基づいて、この話
者に対する優先度情報を話者情報格納手段に登録する話
者情報登録手段をさらに備える。
A fourteenth invention is the thirteenth invention, wherein
Based on the voice data converted by the voice input means, the favorable impression determination means for determining the impression the user has on the speaker of the voice output by the voice output means, and the determination result by the favorable impression determination means Based on the speaker, a speaker information registering unit for registering the priority information for the speaker in the speaker information storing unit is further provided.

【0042】上記のように、第14の発明によれば、ユ
ーザが予め話者情報を登録することなく自動的に話者情
報が登録され、優先度が最適に設定される。
As described above, according to the fourteenth invention, the speaker information is automatically registered without the user registering the speaker information in advance, and the priority is optimally set.

【0043】第15の発明は、複数の情報通信端末に対
して通信回線を通じて種々の配信情報を配信するセンタ
ー装置であって、情報通信端末から音声データを受信す
る音声情報受信手段と、受信された音声データをこの音
声データの属性と対応付けて格納する格納手段と、格納
手段によってすでに格納されている複数の音声データの
中から、所望の属性の音声データを検索する検索手段
と、検索手段によって検索された音声データを、所定の
情報通信端末に配信する情報配信手段とを備える。
A fifteenth invention is a center device for distributing various distribution information to a plurality of information communication terminals through communication lines, and a voice information receiving means for receiving voice data from the information communication terminals. Storing means for storing the voice data associated with the voice data in association with the attribute of the voice data; searching means for searching voice data having a desired attribute from a plurality of voice data already stored by the storing means; And an information distribution unit that distributes the voice data searched by to a predetermined information communication terminal.

【0044】上記のように、第15の発明によれば、ユ
ーザが発した音声を配信情報として他のユーザに配信す
るので、センター装置の管理者等が配信情報を入手して
登録するといった手間を必要とすることなく、配信情報
は随時新たに登録され、ユーザに新鮮な情報を配信する
ことができる。また、音声データは、属性と対応付けら
れて格納されるため、格納されている複数の音声データ
の中から所望の属性の音声データを検索して配信するこ
とが容易である。
As described above, according to the fifteenth invention, the voice uttered by the user is distributed as distribution information to other users, so that the administrator of the center device or the like can obtain and register the distribution information. The distribution information can be newly registered at any time without needing, and fresh information can be distributed to the user. Further, since the voice data is stored in association with the attribute, it is easy to search and deliver the voice data having the desired attribute from the plurality of stored voice data.

【0045】第16の発明は、第15の発明において、
音声情報受信手段によって受信された音声データからこ
の音声データの属性を抽出する属性抽出手段をさらに備
え、格納手段は、受信された音声データを属性抽出手段
によって抽出された属性と対応付けて格納することを特
徴とする。
The sixteenth invention is the fifteenth invention, wherein
The voice information receiving means further comprises attribute extracting means for extracting an attribute of the voice data from the voice data, and the storing means stores the received voice data in association with the attribute extracted by the attribute extracting means. It is characterized by

【0046】上記のように、第16の発明によれば、音
声データの属性は、音声データ自体から自動的に抽出さ
れるので、管理者等が音声データを内容に応じて分類す
るといった手間が省ける。
As described above, according to the sixteenth invention, since the attribute of the voice data is automatically extracted from the voice data itself, it is troublesome for the administrator or the like to classify the voice data according to the contents. I can omit it.

【0047】第17の発明は、第15の発明において、
属性抽出手段は、音声データをテキストデータに変換す
る音声認識手段と、テキストデータから意味のあるキー
ワードを抽出する意味解析手段と、キーワードに基づい
て音声データの属性を判別する属性判別手段とを含む。
The 17th invention is the same as the 15th invention,
The attribute extraction unit includes a voice recognition unit that converts voice data into text data, a semantic analysis unit that extracts a meaningful keyword from the text data, and an attribute determination unit that determines the attribute of the voice data based on the keyword. .

【0048】上記のように、第17の発明によれば、音
声データ自身から属性を自動的に抽出することができ
る。
As described above, according to the seventeenth invention, the attribute can be automatically extracted from the voice data itself.

【0049】第18の発明は、第15の発明において、
検索手段は、格納手段によってすでに格納されている複
数の音声データの中から音声情報受信手段によって受信
された音声データの属性に対応する属性の音声データを
検索し、情報配信手段は、音声情報受信手段によって受
信された音声データの送信元の情報通信端末に対して検
索手段によって検索された音声データを配信することを
特徴とする。
The eighteenth invention is the same as the fifteenth invention,
The retrieval means retrieves the voice data having the attribute corresponding to the attribute of the voice data received by the voice information receiving means from the plurality of voice data already stored by the storage means, and the information distributing means receives the voice information reception. The voice data searched by the search means is distributed to the information communication terminal of the transmission source of the voice data received by the means.

【0050】上記のように、第18の発明によれば、情
報通信端末から送信された音声データと話題の関連した
他ユーザからの情報を情報通信端末に自動的に配信する
ことができるので、ユーザにとって全く興味のない情報
を配信してしまうという問題も生じない。
As described above, according to the eighteenth aspect of the invention, the voice data transmitted from the information communication terminal and the information from another user related to the topic can be automatically distributed to the information communication terminal. There is no problem of delivering information that is completely uninteresting to the user.

【0051】第19の発明は、第15の発明において、
音声情報受信手段によって受信された音声データの属性
を、ユーザの嗜好属性としてユーザに対応づけて記憶し
ておく嗜好属性記憶手段をさらに備え、検索手段は、嗜
好属性記憶手段によって記憶されているユーザの嗜好属
性を参照して、格納手段によってすでに格納されている
複数の音声データの中から情報配信先のユーザの嗜好属
性に対応する属性の音声データを検索することを特徴と
する。
The 19th invention is the same as the 15th invention,
The user further includes a preference attribute storage unit that stores the attribute of the voice data received by the voice information receiving unit in association with the user as the user's preference attribute, and the search unit is the user stored by the preference attribute storage unit. With reference to the preference attribute of, the voice data of the attribute corresponding to the preference attribute of the user of the information distribution destination is searched from the plurality of voice data already stored by the storage means.

【0052】上記のように、第19の発明によれば、ユ
ーザの嗜好に合致する音声データが検索されて配信され
るので、ユーザにとって全く興味のない情報を配信して
しまうという問題は生じない。また、情報通信端末に不
要な情報が送信されないため、情報の配信に係るトラフ
ィックを軽減することができる。また、管理者等が、ユ
ーザの嗜好を考慮して配信先や配信情報を選択するとい
った手間も省ける。また、ユーザの嗜好は、情報通信端
末から過去に受信した音声データの内容に基づいて自動
的に登録されるため、ユーザや管理者等がわざわざキー
ボード等を操作して手作業で嗜好属性の登録を行う手間
が省ける。
As described above, according to the nineteenth invention, the voice data matching the user's taste is searched and distributed, so that there is no problem of distributing information that is not of interest to the user. . Moreover, since unnecessary information is not transmitted to the information communication terminal, it is possible to reduce traffic related to information distribution. In addition, it is possible for the administrator and the like to save the trouble of selecting the delivery destination and the delivery information in consideration of the user's preference. In addition, since the user's preference is automatically registered based on the content of the voice data received in the past from the information communication terminal, the user or the administrator purposely operates the keyboard or the like to manually register the preference attribute. You can save time and effort.

【0053】第20の発明は、センター装置から複数の
情報通信端末に対して通信回線を通じて種々の配信情報
を配信する情報配信方法であって、ユーザが発した音声
を音声データに変換する音声入力ステップと、音声入力
ステップによって変換された音声データからこの音声デ
ータの属性を抽出する属性抽出ステップと、音声入力ス
テップによって変換された音声データを属性抽出ステッ
プによって抽出された属性と対応付けて格納する格納ス
テップと、格納ステップによってすでに格納されている
複数の音声データの中から、所望の属性の音声データを
検索する検索ステップと、検索ステップによって検索さ
れた音声データを、所定の情報通信端末に配信する情報
配信ステップと、情報配信ステップによって配信された
音声データを音声に変換して出力する音声出力ステップ
とを備え、音声入力ステップおよび音声出力ステップ
は、複数の情報通信端末のそれぞれにおいて実行され、
格納ステップ、検索ステップおよび情報配信ステップ
は、センター装置において実行されることを特徴とす
る。
A twentieth aspect of the present invention is an information distribution method for distributing various distribution information from a center device to a plurality of information communication terminals through a communication line, and a voice input for converting a voice uttered by a user into voice data. Step, an attribute extraction step of extracting the attribute of this voice data from the voice data converted by the voice input step, and the voice data converted by the voice input step are stored in association with the attribute extracted by the attribute extraction step. The storing step, the searching step for searching the voice data having a desired attribute from the plurality of voice data already stored by the storing step, and the voice data searched by the searching step are distributed to a predetermined information communication terminal. And the audio data distributed by the information distribution step. And an audio output step of converting and outputting the voice input step and the audio output step is performed at each of a plurality of information communication terminals,
The storing step, the searching step and the information distributing step are characterized in that they are executed in the center device.

【0054】上記のように、第20の発明によれば、ユ
ーザが発した音声を配信情報として他のユーザに配信す
るので、センター装置の管理者等が配信情報を入手して
登録するといった手間を必要とすることなく、配信情報
は随時新たに登録され、ユーザは新鮮な情報を入手する
ことができる。また、音声データは、属性と対応付けら
れて格納されるため、格納されている複数の音声データ
の中から所望の属性の音声データを検索して配信するこ
とが容易である。また、音声データの属性は、音声デー
タ自体から自動的に抽出されるので、管理者等が音声デ
ータを内容に応じて分類するといった手間が省ける。
As described above, according to the twentieth aspect of the invention, since the voice uttered by the user is distributed to other users as distribution information, the administrator of the center device or the like can obtain the distribution information and register it. The distribution information is newly registered at any time without requiring the user, and the user can obtain fresh information. Further, since the voice data is stored in association with the attribute, it is easy to search and deliver the voice data having the desired attribute from the plurality of stored voice data. Further, since the attribute of the voice data is automatically extracted from the voice data itself, it is possible to save the trouble of the administrator or the like classifying the voice data according to the content.

【0055】第21の発明は、センター装置から複数の
情報通信端末に対して通信回線を通じて種々の配信情報
を配信する情報配信方法であって、ユーザが発した音声
を音声データに変換する音声入力ステップと、音声入力
ステップによって変換された音声データを格納する格納
ステップと、格納ステップによって格納されている音声
データを所定の情報通信端末に配信する情報配信ステッ
プと、情報配信ステップによって配信された音声データ
の話者を照合してこの音声データの話者を特定する話者
照合ステップと、話者毎にこの話者の音声データの優先
度を表す優先度情報を格納する話者情報格納ステップ
と、配信された音声データを音声に変換して出力する音
声出力ステップとを備え、音声入力ステップ、話者照合
ステップ、話者情報格納ステップおよび音声出力ステッ
プは、複数の情報通信端末のそれぞれにおいて実行さ
れ、格納ステップおよび情報配信ステップは、センター
装置において実行され、配信された音声データは、話者
情報格納ステップによって格納されている、この音声デ
ータの話者に対応する優先度情報に基づいて、音声出力
ステップによって音声に変換されて出力されることを特
徴とする。
The twenty-first invention is an information distribution method for distributing various distribution information from a center device to a plurality of information communication terminals through a communication line, and a voice input for converting a voice uttered by a user into voice data. Step, a storage step of storing the voice data converted by the voice input step, an information delivery step of delivering the voice data stored by the storage step to a predetermined information communication terminal, and a voice delivered by the information delivery step. A speaker verification step of matching the speaker of the data to identify the speaker of this voice data, and a speaker information storage step of storing priority information indicating the priority of the voice data of this speaker for each speaker. , A voice output step of converting the delivered voice data into voice and outputting the voice, the voice input step, the speaker verification step, the speaker information The storage step and the voice output step are executed in each of the plurality of information communication terminals, the storage step and the information distribution step are executed in the center device, and the distributed voice data is stored in the speaker information storage step. Based on the priority information corresponding to the speaker of the voice data, the voice output step converts the voice into voice and outputs the voice.

【0056】上記のように、第21の発明によれば、不
特定多数のユーザの音声情報が配信情報として配信され
る場合であっても、配信された音声データ自身から話者
を特定し、話者毎に設定された優先度に応じて、この音
声データの出力を制限することができる。したがって、
例えば、配信された音声データが家族からのものであれ
ば一番最初に出力し、嫌悪感を抱かせる者からのもので
あれば出力しないというような制限が可能である。
As described above, according to the twenty-first aspect, even when the voice information of an unspecified number of users is delivered as the delivery information, the speaker is identified from the delivered voice data itself, The output of this voice data can be limited according to the priority set for each speaker. Therefore,
For example, it is possible to limit the delivered voice data to be output first if the voice data is from a family and not to be output from a person who makes an aversion.

【0057】[0057]

【発明の実施の形態】以下、本発明の種々の実施形態に
ついて、図面を参照しながら説明する。 (第1の実施形態)図1に、本発明の第1の実施形態に
係る情報配信システムの全体構成を示す。情報配信シス
テムは、ユーザA〜ユーザCがそれぞれ操作する3つの
情報通信端末100a〜100cと、インターネット2
00と、センター装置300とを備える。各情報通信端
末100a〜100cは、インターネット200を介し
てセンター装置300に接続される。
BEST MODE FOR CARRYING OUT THE INVENTION Various embodiments of the present invention will be described below with reference to the drawings. (First Embodiment) FIG. 1 shows the overall configuration of an information distribution system according to a first embodiment of the present invention. The information distribution system includes three information communication terminals 100a to 100c operated by users A to C and the Internet 2 respectively.
00 and a center device 300. Each of the information communication terminals 100a to 100c is connected to the center device 300 via the Internet 200.

【0058】図2に、情報通信端末100aの構成を示
す。なお、情報通信端末100a〜100cは、同一の
構成であるため、ここでは情報通信端末100aの構成
のみ説明し、情報通信端末100b、100cの説明を
省略する。図2に示すように、情報通信端末100a
は、マイクロホン10と、音声情報送信部11と、情報
受信部12と、音声出力部13とを含む。ユーザ(この
場合ユーザA)は、情報通信端末100aに向かって話
す。マイクロホン10は、このユーザが発した音声を音
声データに変換する。音声情報送信部11は、この音声
データをインターネット200を通じてセンター装置3
00に送信する。ただし、実際には、音声データ以外に
ユーザID等も一緒に送信する。情報受信部12は、イ
ンターネットを介してセンター装置300から音声デー
タを受信する。音声出力部13は、受信した音声データ
を音声出力する。
FIG. 2 shows the configuration of the information communication terminal 100a. Since the information communication terminals 100a to 100c have the same configuration, only the configuration of the information communication terminal 100a will be described here and the description of the information communication terminals 100b and 100c will be omitted. As shown in FIG. 2, the information communication terminal 100a.
Includes a microphone 10, a voice information transmitting unit 11, an information receiving unit 12, and a voice output unit 13. The user (user A in this case) speaks to the information communication terminal 100a. The microphone 10 converts the voice uttered by this user into voice data. The voice information transmitter 11 sends this voice data to the center device 3 via the Internet 200.
To 00. However, in reality, the user ID and the like are transmitted together with the voice data. The information receiving unit 12 receives voice data from the center device 300 via the Internet. The voice output unit 13 outputs the received voice data as voice.

【0059】図3に、センター装置300の構成を示
す。センター装置300は、音声情報受信部14と、デ
ータベース登録部15と、属性抽出部16と、配信情報
データベース17と、データベース検索部18と、情報
配信部19とを含む。配信情報データベース17は、提
供音声情報格納部20を有する。音声情報受信部14
は、情報通信端末100a〜100cから送信された音
声データを受信する。受信した音声データは、データベ
ース登録部15および属性抽出部16に供給される。属
性抽出部16は、音声データの属性を抽出する。ここで
「属性」とは、その音声データの内容、つまりユーザが
情報通信端末に向かって話した話の内容の分類を示して
いる。例えば、ユーザが話した内容が、釣りに関するも
のであれば、属性抽出部16は、この音声データの属性
として「釣り」を抽出する。図4に、属性抽出部16の
具体的な構成を示す。属性抽出部16は、音声認識部2
1と、意味解析部22と、属性判別部23とを有する。
音声認識部21は、音声データを音声認識してテキスト
データを出力する。意味解析部22は、このテキストデ
ータの意味を解析し、意味のある言葉をキーワードとし
て出力する。属性判別部23は、キーワードから属性を
判別する。例えば、音声認識部21からテキストデータ
として「今日は、釣りに行ってきたよ」という文章が出
力された場合、意味解析部22は、このテキストデータ
から例えば「今日」「釣り」というキーワードを出力
し、属性判別部23は、これらのキーワードに基づい
て、この音声データの「属性」は「釣り」であると判別
する。図3に戻り、属性抽出部16によって抽出された
属性は、データベース登録部15およびデータベース検
索部18に供給される。データベース登録部15は、受
信した音声データを配信情報として、配信情報データベ
ース17内の提供音声情報格納部20に登録する。この
とき、図5に示すように、提供音声情報格納部20に
は、音声データが属性と対応付けて格納される。ここで
は、例えば、新たな音声データV06が、「釣り」とい
う属性と対応付けて新たに格納されることになる。提供
音声情報格納部20には、このようにして情報通信端末
100a〜100cから送信されたユーザA〜ユーザC
の音声データが属性とともに格納されている。
FIG. 3 shows the configuration of the center device 300. The center device 300 includes a voice information reception unit 14, a database registration unit 15, an attribute extraction unit 16, a distribution information database 17, a database search unit 18, and an information distribution unit 19. The distribution information database 17 has a provided voice information storage unit 20. Voice information receiving unit 14
Receives the voice data transmitted from the information communication terminals 100a to 100c. The received voice data is supplied to the database registration unit 15 and the attribute extraction unit 16. The attribute extraction unit 16 extracts an attribute of voice data. Here, the "attribute" indicates the classification of the content of the voice data, that is, the content of the story spoken by the user toward the information communication terminal. For example, if the content spoken by the user is about fishing, the attribute extraction unit 16 extracts "fishing" as the attribute of this voice data. FIG. 4 shows a specific configuration of the attribute extraction unit 16. The attribute extraction unit 16 includes the voice recognition unit 2
1, a semantic analysis unit 22, and an attribute determination unit 23.
The voice recognition unit 21 voice-recognizes voice data and outputs text data. The meaning analysis unit 22 analyzes the meaning of this text data and outputs meaningful words as keywords. The attribute discrimination unit 23 discriminates the attribute from the keyword. For example, when the voice recognition unit 21 outputs the text “I went fishing today” as text data, the semantic analysis unit 22 outputs the keywords “Today” and “Fishing” from the text data. The attribute determination unit 23 determines that the “attribute” of this voice data is “fishing” based on these keywords. Returning to FIG. 3, the attributes extracted by the attribute extraction unit 16 are supplied to the database registration unit 15 and the database search unit 18. The database registration unit 15 registers the received voice data as delivery information in the provided voice information storage unit 20 in the delivery information database 17. At this time, as shown in FIG. 5, the voice data is stored in the provided voice information storage section 20 in association with the attribute. Here, for example, the new voice data V06 is newly stored in association with the attribute “fishing”. In the provided voice information storage unit 20, the users A to C transmitted from the information communication terminals 100a to 100c in this manner.
Voice data is stored together with attributes.

【0060】データベース検索部18は、提供音声情報
格納部20に格納されている音声データの中から、属性
抽出部16から供給された属性に対応する音声データを
検索し、情報配信部19に検索された音声データを供給
する。ここでは、例えば、属性抽出部16において抽出
された「釣り」という属性に基づいて、「釣り」という
属性を有する音声データが検索され、その結果、音声デ
ータV01ないし音声データV04が選出されて情報配
信部19に供給される。音声データV01と音声データ
V04のいずれを選択するかは、提供音声情報格納部2
0に格納されたタイミングが古い方を優先して選択して
も良いし、ランダムに選択しても良い。情報配信部19
は、データベース検索部18から供給された音声データ
をインターネット200を通じて情報通信端末100a
に対して送信する。このとき、返信先アドレスは、例え
ば、情報通信端末100aから音声データが送信される
際に一緒に通知されたユーザIDに基づいて、このユー
ザIDと返信先アドレスとの対応付けを記憶しているデ
ータベースを参照することによって知ることができる。
情報配信部19によって送信された音声データは、最終
的に、前述したように情報通信端末100aの音声出力
部13から音声で出力される。
The database retrieval unit 18 retrieves the voice data corresponding to the attribute supplied from the attribute extraction unit 16 from the voice data stored in the provided voice information storage unit 20, and retrieves it to the information distribution unit 19. The audio data that has been processed. Here, for example, based on the attribute “fishing” extracted by the attribute extracting unit 16, voice data having the attribute “fishing” is searched, and as a result, the voice data V01 to voice data V04 are selected and the information is displayed. It is supplied to the distribution unit 19. Which of the voice data V01 and the voice data V04 is selected depends on the provided voice information storage unit 2.
The older timing stored in 0 may be preferentially selected or may be selected randomly. Information distribution unit 19
Uses the voice data supplied from the database search unit 18 via the Internet 200 to the information communication terminal 100a.
Send to. At this time, the reply destination address stores the correspondence between the user ID and the reply destination address, for example, based on the user ID notified together when the voice data is transmitted from the information communication terminal 100a. You can find out by referring to the database.
The voice data transmitted by the information distribution unit 19 is finally output as voice from the voice output unit 13 of the information communication terminal 100a as described above.

【0061】図6に示すフローチャートを参照して、セ
ンター装置300の動作について説明する。センター装
置300では、ステップS10で、音声データを含むデ
ータを受信する。ステップS11で、受信データを解析
および展開する。ステップS12で、受信した音声デー
タの属性を抽出する。ステップS13で、抽出した属性
に基づいて音声データを配信情報データベース17に登
録する。ステップS14で、抽出した属性に基づいて、
この属性に対応する音声データを配信情報データベース
17から検索する。ステップS15で、検索によって選
出された音声データを送信する。
The operation of the center device 300 will be described with reference to the flowchart shown in FIG. In step S10, the center device 300 receives data including voice data. In step S11, the received data is analyzed and expanded. In step S12, the attribute of the received voice data is extracted. In step S13, the voice data is registered in the distribution information database 17 based on the extracted attributes. In step S14, based on the extracted attributes,
The distribution information database 17 is searched for audio data corresponding to this attribute. In step S15, the voice data selected by the search is transmitted.

【0062】第1の実施形態では、以上の動作により、
例えば、ユーザAが情報通信端末100aに対して何か
話しかけると、すでにセンター装置300に登録されて
いる他のユーザの音声データの中から、そのユーザAが
話しかけた話題に関連する1つの音声データ(例えば、
以前にユーザBが情報通信端末100bに対して話しか
けたことによって登録された音声データ)が選出され
て、情報通信端末100aから音声として出力される。
さらに、ユーザAが話しかけた内容は、音声データとし
てセンター装置300に登録され、他のユーザBやユー
ザCが、それぞれ情報通信端末100b、100cに対
して、このユーザAが話しかけた内容に関連する話題を
話しかけたときに、情報通信端末100b、100cに
向けて送信され、音声で出力される。
In the first embodiment, by the above operation,
For example, when the user A speaks something to the information communication terminal 100a, one voice data related to the topic spoken by the user A is selected from the voice data of other users already registered in the center apparatus 300. (For example,
The voice data registered by the user B talking to the information communication terminal 100b before) is selected and output as voice from the information communication terminal 100a.
Further, the content spoken by the user A is registered in the center device 300 as voice data, and the other users B and C relate to the content spoken by the user A to the information communication terminals 100b and 100c, respectively. When talking about a topic, it is transmitted to the information communication terminals 100b and 100c and output as voice.

【0063】より具体的に説明すると、例えば、ユーザ
Aが情報通信端末100aに対して「今日は釣りに行っ
てきたよ」と話しかけると、すでにセンター装置300
に登録されている音声情報の中から、ユーザAが話した
話題に関連した音声情報として「今、○○湖でこんな魚
が釣れるよ」という音声情報が選択され、ユーザAの情
報通信端末100aから音声で出力される。このとき、
ユーザAが話した「今日は釣りに行ってきたよ」という
音声情報はセンター装置300に登録され、この後、例
えばユーザBが情報通信端末100bに向かって「釣
り」に関する話をしたときに、このユーザAの音声情報
が選出され、ユーザBの情報通信端末100bから「今
日は釣りに行ってきたよ」と音声で出力される。
More specifically, for example, when the user A talks to the information communication terminal 100a, "I went fishing today," the center apparatus 300 has already been reached.
From the voice information registered in, the voice information “I can catch such a fish in the lake XX now” is selected as the voice information related to the topic spoken by the user A, and the information communication terminal 100a of the user A is selected. Is output by voice. At this time,
The voice information "I went fishing today" spoken by the user A is registered in the center device 300. After that, for example, when the user B talks to the information communication terminal 100b about "fishing", The voice information of the user A is selected, and is output from the information communication terminal 100b of the user B by voice, "I went fishing today."

【0064】このように、第1の実施形態によれば、ユ
ーザが情報通信端末に対して話しかけた内容が、そのま
ま配信情報としてセンター装置に登録され、他ユーザに
配信されるので、センター装置の管理者がわざわざ配信
情報を入手して配信情報データベースに登録する手間が
省け、情報配信システムの管理コストを低減することが
できる。また、音声データは、属性抽出部によって自動
的に属性と対応付けてデータベースに登録されるため、
管理者が手作業で音声データの属性を判断して登録する
手間が省ける。また、配信情報は随時新たに登録される
ので、ユーザは新鮮な情報を入手することができる。ま
た、ユーザが情報通信端末に対して話しかけた話題に関
連した他ユーザからの情報が情報通信端末を通じて他ユ
ーザの音声で出力されるので、より自然の会話に近い形
で情報を入手することができ、ユーザにとって全く興味
のない情報が出力されてしまうという問題は生じない。
また、ユーザが興味を持っている話題を情報通信端末に
対して単に話しかけるだけで、その話題に関連した情報
が音声出力されるので、キーボードなどによる面倒な操
作を行うことなく所望の情報を得ることができる。ま
た、管理者が配信情報毎に配信先を指定してやる手間も
省ける。
As described above, according to the first embodiment, the contents spoken by the user to the information communication terminal are directly registered in the center device as distribution information and distributed to other users. This saves the administrator the trouble of obtaining the distribution information and registering it in the distribution information database, and the management cost of the information distribution system can be reduced. Further, since the voice data is automatically registered in the database in association with the attribute by the attribute extraction unit,
The administrator does not have to manually determine the attribute of voice data and register it. In addition, since the distribution information is newly registered at any time, the user can obtain fresh information. In addition, since information from another user related to a topic spoken to the information communication terminal by the user is output by the voice of the other user through the information communication terminal, it is possible to obtain information in a form closer to a natural conversation. It is possible, and there is no problem that information that is completely uninteresting to the user is output.
In addition, the user can simply talk to the information communication terminal about the topic of interest, and the information related to the topic is output as voice, so that the desired information can be obtained without the troublesome operation of a keyboard or the like. be able to. In addition, the administrator can save the trouble of designating the delivery destination for each delivery information.

【0065】なお、第1の実施形態では、属性抽出部1
6をセンター装置300に設けるとしたが、これに限ら
ない。例えば、属性抽出部16を、各情報通信端末10
0a〜100cに設けても構わない。具体的には、図2
のマイクロホン10の後段に属性抽出部16を設け、こ
の属性抽出部16によってマイクロホン10から出力さ
れた音声データの属性を抽出し、抽出した属性を音声デ
ータとともにセンター装置300に送信する。センター
装置300では、受信した属性に基づいて音声データを
データベースに登録するとともに、受信した属性に基づ
いてデータベースを検索する。
In the first embodiment, the attribute extraction unit 1
Although 6 is provided in the center device 300, the present invention is not limited to this. For example, the attribute extraction unit 16 is set to each information communication terminal 10
You may provide in 0a-100c. Specifically, FIG.
The attribute extraction unit 16 is provided in the subsequent stage of the microphone 10, the attribute of the voice data output from the microphone 10 is extracted by the attribute extraction unit 16, and the extracted attribute is transmitted to the center device 300 together with the voice data. The center device 300 registers the voice data in the database based on the received attribute and searches the database based on the received attribute.

【0066】またさらには、属性抽出部16の構成の一
部を情報通信端末100a〜100cに設け、他の部分
をセンター装置300に設けるようにしても構わない。
図7および図8に、この一変形例としての情報通信端末
101aおよびセンター装置301の構成を示す。な
お、図7または図8において、図2〜図4に示す構成と
同一の構成については同一の参照符号を付す。図7にお
いて、情報通信端末101aは、図2に示す情報通信端
末100aの構成に加えて、さらに、図4に示した属性
抽出部16の構成の一部である音声認識部21および意
味解析部22を含む。マイクロホン10から出力された
音声データは、これら音声認識部21および意味解析部
22を通じてキーワードに変換される。このキーワード
は、音声データとともにセンター装置301に送信され
る。一方、図8において、センター装置301は、図3
に示すセンター装置300において、属性抽出部16の
代わりに図4に示した属性抽出部16の構成の一部であ
る属性判別部23を含む構成となる。音声情報受信部1
4は、受信した音声データをデータベース登録部15に
供給するとともに、同じく受信したキーワードを属性判
別部23に供給する。属性判別部23は、供給されたキ
ーワードから属性を判別する。以降の処理は、図3に示
す構成と同一である。
Furthermore, a part of the configuration of the attribute extraction unit 16 may be provided in the information communication terminals 100a to 100c, and the other part may be provided in the center device 300.
7 and 8 show the configurations of the information communication terminal 101a and the center device 301 as a modified example. 7 or 8, the same components as those shown in FIGS. 2 to 4 are designated by the same reference numerals. 7, in addition to the configuration of the information communication terminal 100a shown in FIG. 2, the information communication terminal 101a further includes a voice recognition unit 21 and a semantic analysis unit 21 which are part of the configuration of the attribute extraction unit 16 shown in FIG. Including 22. The voice data output from the microphone 10 is converted into keywords through the voice recognition unit 21 and the semantic analysis unit 22. This keyword is transmitted to the center device 301 together with the voice data. On the other hand, in FIG.
In the center apparatus 300 shown in FIG. 3, the attribute discriminating unit 23, which is a part of the constitution of the attribute extracting unit 16 shown in FIG. Voice information receiver 1
4 supplies the received voice data to the database registration unit 15 and also supplies the received keyword to the attribute discrimination unit 23. The attribute discriminating unit 23 discriminates the attribute from the supplied keyword. Subsequent processing is the same as the configuration shown in FIG.

【0067】このように、属性抽出部16は、情報通信
端末側ないしセンター装置側に任意に設けることが可能
である。属性抽出部16をセンター装置側に設けること
によって、各情報通信端末の構成が簡素化されるという
利点がある。一方、本発明を、図23に第1の従来例と
して示したペット型ロボットのように、本来音声認識機
能を備えている装置に適用する場合には、音声認識部2
1の構成を共用することにより構成を簡素化できるとい
う点で、属性抽出部16の特に音声認識部21の構成を
情報通信端末側に設けるのが好ましい。
As described above, the attribute extraction unit 16 can be arbitrarily provided on the information communication terminal side or the center device side. By providing the attribute extraction unit 16 on the side of the center device, there is an advantage that the configuration of each information communication terminal is simplified. On the other hand, when the present invention is applied to an apparatus that originally has a voice recognition function, such as the pet robot shown in FIG. 23 as the first conventional example, the voice recognition unit 2
It is preferable to provide the configuration of the attribute extracting unit 16, particularly the voice recognizing unit 21, on the information communication terminal side in that the configuration can be simplified by sharing the configuration of 1.

【0068】(第2の実施形態)第1の実施形態では、
ユーザが情報通信端末に向かって話しかける度に、セン
ター装置において配信情報データベースを検索して、共
通する話題の音声データを情報通信端末に送信するとい
う処理が必要である。したがって、ユーザは、情報通信
端末と対話を行っている間、通信回線をずっと接続して
いなければならない。そこで、第2の実施形態として、
第1の実施形態と同様の機能を実現しつつ、かつ通信回
線の接続時間を短縮することのできる配信情報システム
について説明する。
(Second Embodiment) In the first embodiment,
Every time the user talks to the information communication terminal, it is necessary to perform a process of searching the distribution information database in the center device and transmitting voice data of a common topic to the information communication terminal. Therefore, the user must keep the communication line connected while interacting with the information communication terminal. Therefore, as a second embodiment,
A distribution information system capable of shortening the connection time of the communication line while realizing the same function as that of the first embodiment will be described.

【0069】本発明の第2の実施形態に係る全体システ
ムについては、図1に示す第1の実施形態と同様である
ので図示を省略する。ただし、情報通信端末100a〜
100cおよびセンター装置300の代わりに、後述す
る情報通信端末102a〜102cおよびセンター装置
302を備える。
The overall system according to the second embodiment of the present invention is the same as that of the first embodiment shown in FIG. However, the information communication terminal 100a-
Instead of 100c and the center device 300, information communication terminals 102a to 102c and a center device 302 described later are provided.

【0070】図9に、情報通信端末102aの構成を示
す。なお、情報通信端末102b、102cの構成は、
情報通信端末102aの構成と同一であるため説明を省
略する。情報通信端末102aは、マイクロホン10
と、属性抽出部16と、音声情報一時記憶部24と、音
声情報送信部11と、情報受信部12と、データベース
登録部25と、受信音声情報格納部26と、データベー
ス検索部27と、音声出力部13とを備える。なお、図
9において、図2および図3に示す構成と同一の構成に
は同一の参照符号を付し、説明を省略する。
FIG. 9 shows the configuration of the information communication terminal 102a. The configuration of the information communication terminals 102b and 102c is as follows.
Since the configuration is the same as that of the information communication terminal 102a, the description will be omitted. The information communication terminal 102a includes the microphone 10
An attribute extraction unit 16, a voice information temporary storage unit 24, a voice information transmission unit 11, an information reception unit 12, a database registration unit 25, a received voice information storage unit 26, a database search unit 27, and a voice. And an output unit 13. In FIG. 9, the same components as those shown in FIGS. 2 and 3 are designated by the same reference numerals, and the description thereof will be omitted.

【0071】属性抽出部16は、マイクロホン10から
出力される音声データから属性を抽出し、音声情報一時
記憶部24およびデータベース検索部27に供給する。
音声情報一時記憶部24は、マイクロホン10から出力
される音声データおよび属性抽出部16によって抽出さ
れた属性を一時的に記憶する。これらの一時的に記憶さ
れているデータは、適宜通信回線が接続されたタイミン
グで、音声情報送信部11を通じてユーザIDとともに
センター装置302に送信される。これらデータに関す
るセンター装置302における処理については後述す
る。情報受信部12は、適宜通信回線が接続されたタイ
ミングで、センター装置302から複数の音声データを
まとめて受信する。これら複数の音声データは、ユーザ
(ここではユーザA)の嗜好に合った音声データの集ま
りである。ただし、実際には、各音声データの属性の情
報も含まれる。データベース登録部25は、受信した複
数の音声データを属性と対応付けて受信音声情報格納部
26に格納する。データベース検索部27は、属性抽出
部16によって抽出された属性に基づいて、受信音声情
報格納部26に格納されている複数の音声データの中か
ら、この属性に関連する音声データを検索し、検索結果
に基づいて1つの音声データを音声出力部13に供給す
る。音声出力部13は、この音声データを音声に変換し
て出力する。
The attribute extraction unit 16 extracts attributes from the voice data output from the microphone 10 and supplies them to the voice information temporary storage unit 24 and the database search unit 27.
The voice information temporary storage unit 24 temporarily stores the voice data output from the microphone 10 and the attribute extracted by the attribute extraction unit 16. These temporarily stored data are transmitted to the center device 302 together with the user ID through the voice information transmitting unit 11 at the timing when the communication line is properly connected. The processing in the center device 302 regarding these data will be described later. The information receiving unit 12 collectively receives a plurality of voice data from the center device 302 at the timing when the communication line is properly connected. The plurality of pieces of voice data are a set of voice data that matches the preference of the user (here, user A). However, in reality, information on the attribute of each audio data is also included. The database registration unit 25 stores the plurality of received voice data in the received voice information storage unit 26 in association with the attributes. Based on the attribute extracted by the attribute extraction unit 16, the database retrieval unit 27 retrieves the voice data related to this attribute from the plurality of voice data stored in the received voice information storage unit 26, and retrieves the voice data. Based on the result, one audio data is supplied to the audio output unit 13. The voice output unit 13 converts this voice data into voice and outputs it.

【0072】図10に、センター装置302の構成を示
す。センター装置302は、音声情報受信部14と、デ
ータベース登録部15と、配信情報データベース17
と、嗜好属性記憶部28と、データベース検索部18
と、情報配信部19とを備える。配信情報データベース
17は、提供音声情報格納部20を含む。なお、図10
において、図3と同一の構成には同一の参照符号を付
し、説明を省略する。
FIG. 10 shows the configuration of the center device 302. The center device 302 includes a voice information receiving unit 14, a database registration unit 15, and a distribution information database 17
, Preference attribute storage unit 28, and database search unit 18
And an information distribution unit 19. The distribution information database 17 includes a provided voice information storage unit 20. Note that FIG.
3, the same components as those in FIG. 3 are designated by the same reference numerals and the description thereof will be omitted.

【0073】音声情報受信部14は、適宜通信回線が接
続されたタイミングで、情報通信端末102a〜102
cから送信されたデータを受信する。なお、前述のよう
にこの受信データには、複数の音声データおよびこれら
複数の音声データの属性に関する情報が含まれており、
データベース登録部15は、これら受信データに基づい
て、音声データを属性と対応付けて順次配信情報データ
ベース17に登録する。一方、受信データに含まれる属
性の情報は、嗜好属性記憶部28にも供給される。嗜好
属性記憶部28は、図11に示すように、属性を、受信
データの送信元ユーザ(ここではユーザA)のユーザI
D(図中のabcとする)と対応付けて、ユーザAの嗜
好に合致する分野である「嗜好属性」として記憶する。
これは、ユーザAが情報通信端末102aに対して話し
かける話題というのは、たいていの場合はユーザの嗜好
に合致している話題であるだろうとの考えからである。
嗜好属性記憶部28は、あるユーザIDに対して新たな
属性が供給される度に、このユーザの嗜好属性にその新
たな属性を追加する。例えば、仮に、図11に示す状態
において、ユーザAからの音声データの属性として「音
楽」という属性が新たに供給されたとき、ユーザID
「abc」に対する嗜好属性として「釣り」「ゴルフ」
「音楽」の3つの属性が登録されることになる。データ
ベース検索部18は、適宜通信回線が接続されたタイミ
ングで、配信情報データベース17に格納されている音
声データの中から、送信先ユーザの嗜好に合った音声デ
ータを検索して情報配信部19に供給する。例えば、仮
に送信先ユーザがユーザAである場合は、データベース
検索部18は、嗜好属性記憶部28においてユーザAの
ユーザID「abc」に対応付けられている嗜好属性
(ここでは「釣り」「ゴルフ」)を参照し、提供音声情
報格納部20に格納されている音声データの中から、こ
の嗜好属性「釣り」「ゴルフ」に対応する音声データを
検索する。例えば、提供音声情報格納部20に図5に示
すようなデータが格納されていた場合には、嗜好属性
「釣り」「ゴルフ」に対応する音声データとして、音声
データV01および音声データV03〜V05を選出す
る。選出された複数の音声データは、その属性ととも
に、情報配信部19を通じてユーザAの情報通信端末1
02aに送信される。その結果、図9に示す受信音声情
報格納部26には、図12に示すような音声データが格
納される。なお、通信回線を接続するタイミングとして
は、例えば、一定時間おき(例えば10分毎)であって
も良いし、配信情報データベース17が更新されたタイ
ミングであっても良いし、その他のタイミングであって
も良い。
The voice information receiving section 14 is connected to the information communication terminals 102a to 102 at the timing when the communication line is properly connected.
Receive the data sent from c. It should be noted that, as described above, this received data includes a plurality of audio data and information regarding attributes of the plurality of audio data,
The database registration unit 15 sequentially registers the voice data in the distribution information database 17 in association with the attribute based on the received data. On the other hand, the attribute information included in the received data is also supplied to the preference attribute storage unit 28. As shown in FIG. 11, the preference attribute storage unit 28 indicates the attribute as the user I of the transmission source user of the received data (here, user A).
It is associated with D (denoted as abc in the figure) and stored as a “preference attribute” which is a field that matches the preference of the user A.
This is because the topic in which the user A talks to the information communication terminal 102a is, in most cases, a topic that matches the taste of the user.
Every time a new attribute is supplied to a certain user ID, the preference attribute storage unit 28 adds the new attribute to the preference attribute of this user. For example, if the attribute “music” is newly supplied as the attribute of the voice data from the user A in the state shown in FIG. 11, the user ID
"Fishing" and "golf" as preference attributes for "abc"
Three attributes of "music" will be registered. The database search unit 18 searches the voice data stored in the delivery information database 17 for voice data that matches the taste of the destination user at the timing when the communication line is appropriately connected, and informs the information delivery unit 19 of the voice data. Supply. For example, if the destination user is user A, the database search unit 18 causes the preference attribute storage unit 28 to associate the preference attribute (here, “fishing” “golf” with the user ID “abc” of the user A). )), The voice data stored in the provided voice information storage unit 20 is searched for voice data corresponding to the preference attributes “fishing” and “golf”. For example, if the provided voice information storage unit 20 stores data as shown in FIG. 5, voice data V01 and voice data V03 to V05 are used as voice data corresponding to the preference attributes “fishing” and “golf”. elect. The plurality of selected voice data, together with their attributes, are transmitted through the information distribution unit 19 to the information communication terminal 1 of the user A.
02a. As a result, the voice data as shown in FIG. 12 is stored in the reception voice information storage unit 26 shown in FIG. The timing for connecting the communication line may be, for example, at regular intervals (every 10 minutes, for example), when the distribution information database 17 is updated, or at other timings. May be.

【0074】ここで、再び図9を参照して、通信回線を
接続していない状態で、ユーザAが情報通信端末102
aに話しかけた場合の動作について、特に説明する。情
報通信端末102aに対して話しかけたユーザAの音声
は、マイクロホン10によって音声データに変換され、
属性抽出部16は、この音声データから属性を抽出す
る。音声データは、通信回線が接続されていないため、
センター装置302に送信することができず、音声情報
一時記憶部24で一時的に記憶されることになる。こう
して、通信回線が接続されるまでの間、音声情報一時記
憶部24には音声データが順次貯まる。属性抽出部16
によって抽出した属性は、データベース検索部27に供
給される。例えば、ユーザAが情報通信端末102aに
向かって釣りに関する話をした場合、データベース検索
部27には、「釣り」という属性が供給される。データ
ベース検索部27は、受信音声情報格納部26に格納さ
れている音声データの中から、属性抽出部16によって
抽出された属性に関する音声データを検索して、適宜1
つの音声データを選出して音声出力部13へ供給する。
具体的には、図12に示す音声データの中から、属性
「釣り」に対応する音声データ(音声データV01、V
04)を検索し、検索結果から適宜1つの音声データを
選出する。この選出方法は、前述したように、格納のタ
イミングにより決定してもランダムであってもその他の
方法で決定しても構わない。その結果、音声出力部13
によって、他ユーザが話した釣りに関する話題が音声で
出力される。
Here, referring again to FIG. 9, when the communication line is not connected, the user A uses the information communication terminal 102.
The operation when talking to a will be particularly described. The voice of the user A speaking to the information communication terminal 102a is converted into voice data by the microphone 10,
The attribute extraction unit 16 extracts an attribute from this voice data. Since the communication line is not connected for voice data,
It cannot be transmitted to the center device 302, and is temporarily stored in the voice information temporary storage unit 24. Thus, the voice data is sequentially stored in the voice information temporary storage unit 24 until the communication line is connected. Attribute extraction unit 16
The attribute extracted by is supplied to the database search unit 27. For example, when the user A talks to the information communication terminal 102a about fishing, the database search unit 27 is supplied with the attribute “fishing”. The database search unit 27 searches the voice data stored in the received voice information storage unit 26 for voice data related to the attribute extracted by the attribute extraction unit 16, and returns 1 as appropriate.
One audio data is selected and supplied to the audio output unit 13.
Specifically, from the voice data shown in FIG. 12, voice data (voice data V01, V
04), and one voice data is appropriately selected from the search results. As described above, this selection method may be determined by the timing of storage, may be random, or may be determined by another method. As a result, the voice output unit 13
Thus, the topic related to fishing that the other user has spoken is output by voice.

【0075】以下、図13に示すフローチャートを参照
して、通信回線が接続されていないときの情報通信端末
102aの動作について説明する。情報通信端末102
aでは、ステップS20で、ユーザが発する音声を音声
データに変換する。ステップS21で、この音声データ
の属性を抽出する。ステップS22で、音声データおよ
びその属性を音声情報一時記憶部24に記憶する。ステ
ップS23で、受信音声情報格納部26に格納されてい
る音声データの中からステップS21において抽出した
属性に対応する音声データを検索により選出する。ステ
ップS24で、選出された音声データを音声に変換して
出力する。
The operation of the information communication terminal 102a when the communication line is not connected will be described below with reference to the flowchart shown in FIG. Information communication terminal 102
In a, in step S20, the voice uttered by the user is converted into voice data. In step S21, the attribute of this voice data is extracted. In step S22, the voice data and its attribute are stored in the voice information temporary storage unit 24. In step S23, the voice data corresponding to the attribute extracted in step S21 is selected from the voice data stored in the received voice information storage unit 26 by searching. In step S24, the selected voice data is converted into voice and output.

【0076】次に、図14に示すフローチャートを参照
して、音声データ受信時におけるセンター装置302の
動作について説明する。ただし、図14において、図6
と同一のステップには同一の参照符号を付す。センター
装置302では、ステップS10で、情報通信端末から
の音声データ(音声データの属性を含む)を受信する。
ステップS11で、受信した音声データの解析および展
開を行う。ステップS13で、提供音声情報格納部20
に、受信した属性および音声データを対応付けて登録す
る。ステップS30で、受信した属性をユーザの嗜好属
性として嗜好属性記憶部28に登録する。
Next, the operation of the center device 302 when receiving voice data will be described with reference to the flowchart shown in FIG. However, in FIG.
Steps that are the same as are labeled with the same reference numerals. In step S10, the center device 302 receives voice data (including the voice data attribute) from the information communication terminal.
In step S11, the received voice data is analyzed and expanded. In step S13, the provided voice information storage unit 20
The received attribute and voice data are registered in association with. In step S30, the received attribute is registered in the preference attribute storage unit 28 as the user's preference attribute.

【0077】次に、図15に示すフローチャートを参照
して、音声データ配信時におけるセンター装置302の
動作について説明する。ただし、図14において、図6
と同一のステップには同一の参照符号を付す。センター
装置302では、ステップS40で、嗜好属性記憶部2
8に記憶されているユーザの嗜好属性に基づいて、提供
音声情報格納部20に格納されている音声データの中か
ら、ユーザの嗜好に合致した音声データを検索する。ス
テップS15で、検索によって選出された音声データを
送信する。
Next, with reference to the flow chart shown in FIG. 15, the operation of the center device 302 at the time of voice data distribution will be described. However, in FIG.
Steps that are the same as are labeled with the same reference numerals. In the center device 302, in step S40, the preference attribute storage unit 2
Based on the user's preference attribute stored in 8, the voice data stored in the provided voice information storage unit 20 is searched for voice data that matches the user's preference. In step S15, the voice data selected by the search is transmitted.

【0078】以上のように、第2の実施形態によれば、
特に、通信回線が接続されていない状態であっても、ユ
ーザが情報通信端末102a〜102cに対して何か話
しかけると、受信音声情報格納部26に格納されている
音声データの中から、ユーザが話しかけた話題に関連す
る1つの音声データが選出されて、情報通信端末102
a〜102cから音声として出力される。よって、通信
回線を常時接続する必要がなく、通信コストを抑えるこ
とができる。さらに、通信回線が接続されていない状態
においてユーザが話しかけた内容は、通信回線が接続さ
れるまでの間、順次、音声データとして音声情報一時記
憶部24に一時的に記憶され、通信回線が接続されたと
きにまとめてセンター装置302に送信される。よっ
て、通信回線が接続されていない状態においてユーザが
話しかけた内容も、情報として無駄にすることなく他ユ
ーザに配信することが可能となる。また、センター装置
302から情報通信端末102a〜102cにそれぞれ
まとめて送信する音声データは、ユーザの嗜好に応じて
フィルタリングして送信するので、通信のトラフィック
を軽減でき、また、情報通信端末102a〜102cの
記憶容量を低減でき、また、ユーザにとって不要な情報
が何らかの拍子に情報通信端末102a〜102cから
出力されてしまうことによる不具合を回避することがで
きる。また、ユーザの嗜好を、ユーザが話しかけた内容
に基づいて自動的に抽出することができるため、ユーザ
の嗜好を管理者が手作業で登録したり、ユーザがキーボ
ード等を使って登録したりといった登録の手間が省け
る。
As described above, according to the second embodiment,
In particular, even if the communication line is not connected, when the user speaks to the information communication terminals 102a to 102c, the user selects from the voice data stored in the received voice information storage unit 26. One voice data related to the talked topic is selected, and the information communication terminal 102 is selected.
Audio is output from a to 102c. Therefore, it is not necessary to always connect the communication line, and the communication cost can be suppressed. Further, the contents spoken by the user in the state where the communication line is not connected are sequentially stored as voice data in the voice information temporary storage unit 24 until the communication line is connected, and the communication line is connected. When it is performed, the information is collectively transmitted to the center device 302. Therefore, the content spoken by the user in a state where the communication line is not connected can be delivered to other users as information without wasting it. Further, since the voice data collectively transmitted from the center device 302 to the information communication terminals 102a to 102c are filtered and transmitted according to the preference of the user, communication traffic can be reduced, and the information communication terminals 102a to 102c can be reduced. It is possible to reduce the storage capacity of the device, and it is possible to avoid a problem caused by information unnecessary for the user being output from the information communication terminals 102a to 102c at some time. In addition, since the user's preference can be automatically extracted based on the contents spoken by the user, the user's preference can be manually registered by the administrator, or the user can register the user's preference using a keyboard or the like. You can save the trouble of registration.

【0079】(第3の実施形態)ユーザからの音声を配
信情報として利用して配信するシステムでは、前述した
ように、いかにして各ユーザ毎に必要な配信情報だけを
送信し、不要な配信情報が配信されないようにするかが
問題であるが、前述の第1の実施形態および第2の実施
形態に係る情報配信システムでは、ユーザからの音声デ
ータを属性によって分類し、ユーザが必要とする内容の
音声データだけを配信することで、この問題を解決して
いる。つまり、情報の内容に基づいて、ユーザに配信す
るかしないかを決定し、不要な情報がユーザに配信され
ないようにしている。一方、以下に説明する第3の実施
形態では、音声情報の提供者が誰であるかを情報通信端
末側で判断することにより情報端末装置から出力する音
声に対して制限を加える。
(Third Embodiment) In a system for distributing a voice from a user as distribution information, as described above, how to transmit only necessary distribution information for each user and unnecessary distribution. The problem is whether to prevent information from being distributed, but in the information distribution system according to the first and second embodiments described above, the voice data from the user is classified according to the attribute and required by the user. This problem is solved by delivering only the audio data of the content. That is, it is determined whether or not to deliver the information to the user based on the content of the information, so that unnecessary information is not delivered to the user. On the other hand, in the third embodiment described below, the voice output from the information terminal device is restricted by determining on the information communication terminal side who is the provider of the voice information.

【0080】本発明の第3の実施形態に係る全体システ
ムは、図1に示す第1の実施形態と同様であるので図示
を省略する。ただし、センター装置300の代わりに図
10に示すセンター装置302を備え、情報通信端末1
00a〜100cの代わりに、後述する情報通信端末1
03a〜103cを備えるものとする。
The overall system according to the third embodiment of the present invention is the same as that of the first embodiment shown in FIG. However, instead of the center device 300, the center device 302 shown in FIG.
Instead of 00a to 100c, an information communication terminal 1 described later
03a to 103c.

【0081】以下、情報通信端末103aについて説明
する。なお、情報通信端末103a〜103cの構成は
同一であるため、情報通信端末103b、103cの説
明は省略する。また、センター装置302については、
第2の実施形態ですでに説明しているので、ここでは説
明を省略する。
The information communication terminal 103a will be described below. Since the information communication terminals 103a to 103c have the same configuration, the description of the information communication terminals 103b and 103c will be omitted. Regarding the center device 302,
Since it has already been described in the second embodiment, the description is omitted here.

【0082】図16に、情報通信端末103aの構成を
示す。情報通信端末103aは、マイクロホン10と、
属性抽出部16と、音声情報一時記憶部24と、音声情
報送信部11と、情報受信部12と、話者照合部29
と、話者情報検索部30と、話者情報格納部31と、デ
ータベース登録部25と、受信音声情報格納部32と、
データベース検索部27と、音声出力部13とを備え
る。なお、図16において、図9と同一の構成には同一
の参照符号を付し、説明を省略する。
FIG. 16 shows the configuration of the information communication terminal 103a. The information communication terminal 103a includes the microphone 10 and
The attribute extraction unit 16, the voice information temporary storage unit 24, the voice information transmission unit 11, the information reception unit 12, and the speaker verification unit 29.
A speaker information search unit 30, a speaker information storage unit 31, a database registration unit 25, a received voice information storage unit 32,
The database search unit 27 and the voice output unit 13 are provided. In FIG. 16, the same components as those in FIG. 9 are designated by the same reference numerals, and the description thereof will be omitted.

【0083】情報受信部12は、センター装置302か
ら配信情報として送信された音声データ(実際には属性
も含む)を受信する。受信した音声データは、話者照合
部29およびデータベース登録部25に供給される。話
者照合部29は、話者照合によって、受信した音声デー
タの話者が予め登録されている話者の中の誰であるかを
照合し、照合結果に基づいて、受信した音声データの話
者の話者IDを出力する。話者IDとは、情報通信端末
103aにおいて話者を識別するために利用される識別
子であって、センター装置302においてユーザを識別
するために利用されるユーザIDとは区別される。話者
IDは、情報通信端末103aにおいて独自に設定可能
である。話者情報検索部30は、話者照合部29から出
力された話者IDに基づいて話者情報格納部31を参照
し、この話者IDに対応する優先度情報を取得する。図
17に、話者情報格納部に格納されるデータの一例を示
す。優先度情報とは、音声データが出力される際の優先
度を表しており、ここでは一例として、優先度を0〜4
までの5段階で規定しており、例えば、優先度情報が
「0」に設定されている場合は、この話者の音声データ
は絶対に出力されない。優先度情報が「4」の場合は、
この話者の音声データは必ず一番に出力される。優先度
情報が「1」および「3」の場合は、優先度情報が
「2」の場合に比べて、それぞれ0.5倍および2倍の
確率で出力される。この話者情報格納部31は、予めユ
ーザが設定可能であり、例えば、家族らの話者IDに対
しては優先度情報を「4」に設定して必ず一番に出力さ
れるようにしておき、嫌いな人の話者IDに対しては優
先度情報を「0」に設定して出力されないようにするこ
とが考えられる。
The information receiving unit 12 receives the voice data (actually also including attributes) transmitted as distribution information from the center device 302. The received voice data is supplied to the speaker verification unit 29 and the database registration unit 25. The speaker verification unit 29 verifies who the speaker of the received voice data is among the pre-registered speakers by speaker verification, and the speaker of the received voice data is talked based on the verification result. The speaker ID of the speaker is output. The speaker ID is an identifier used to identify a speaker in the information communication terminal 103a, and is distinguished from a user ID used to identify a user in the center device 302. The speaker ID can be uniquely set in the information communication terminal 103a. The speaker information retrieval unit 30 refers to the speaker information storage unit 31 based on the speaker ID output from the speaker verification unit 29, and acquires the priority information corresponding to this speaker ID. FIG. 17 shows an example of data stored in the speaker information storage unit. The priority information represents the priority when the audio data is output, and here, as an example, the priority is 0-4.
The voice data of this speaker is never output when the priority information is set to "0". If the priority information is "4",
The voice data of this speaker is always output first. When the priority information is "1" and "3", the probability of output is 0.5 times and twice that of the case where the priority information is "2". The speaker information storage unit 31 can be set in advance by the user. For example, the priority information is set to “4” for the speaker IDs of family members so that the speaker information is always output first. It is conceivable to set the priority information to "0" for the speaker ID of the person who dislikes it so that it is not output.

【0084】話者情報検索部30は、取得した優先度情
報をデータベース登録部25に通知する。データベース
登録部25は、情報受信部12から供給された音声デー
タを、属性情報および優先度情報と対応づけて受信音声
情報格納部32に登録する。このとき、優先度情報が
「0」のものについては必ずしも音声データを格納する
必要はないが、以下では、優先度情報が「0」のものに
ついても登録するものとして説明する。図18に、受信
音声情報格納部32に格納されるデータの一例を示す。
こうして、受信音声情報格納部32には、センター装置
302から配信された複数の音声データが優先度情報と
対応づけて格納されることになる。
The speaker information retrieval unit 30 notifies the database registration unit 25 of the acquired priority information. The database registration unit 25 registers the voice data supplied from the information reception unit 12 in the received voice information storage unit 32 in association with the attribute information and the priority information. At this time, it is not always necessary to store the voice data for the priority information “0”, but in the following description, it is assumed that the priority information “0” is also registered. FIG. 18 shows an example of data stored in the received voice information storage unit 32.
In this way, the received voice information storage unit 32 stores a plurality of voice data distributed from the center device 302 in association with the priority information.

【0085】この状態で、ユーザAが情報通信端末10
3aに対して、例えば釣りに関する話をした場合、この
音声からは、マイクロホン10および属性抽出部16を
通じて「釣り」という属性が抽出され、データベース検
索部27に通知される。データベース検索部27は、こ
れを受けて、受信音声情報格納部32に格納されている
複数の音声データの中から「釣り」に関する音声データ
を検索する。このとき、受信音声情報格納部32に図1
8に示す音声データが格納されていると仮定すると、
「釣り」に関する音声データは、音声データV01およ
びV04である。しかしながら、音声データV04につ
いては優先度情報が「0」、つまり出力しない情報とし
て設定されているので、データベース検索部27は、音
声データV01を音声出力部13に供給し、音声出力部
13は、この音声データV01を音声に変換して出力す
る。なお、データベース検索部27における検索処理に
おいて、例えば優先度情報が「1」と「3」の2つの音
声データが候補として検索された場合には、優先度情報
から計算される確率に基づいていずれか一方の音声デー
タが選出される。この場合、優先度情報が「3」の音声
データは、優先度情報が「1」の音声データに対して、
選出される確率が4倍となる。
In this state, the user A selects the information communication terminal 10
When talking about fishing, for example, with respect to 3a, the attribute "fishing" is extracted from this voice through the microphone 10 and the attribute extraction unit 16, and is notified to the database search unit 27. In response to this, the database search unit 27 searches for voice data regarding “fishing” from the plurality of voice data stored in the received voice information storage unit 32. At this time, the received voice information storage unit 32 is shown in FIG.
Assuming that the voice data shown in 8 is stored,
The voice data regarding "fishing" is voice data V01 and V04. However, since the priority information of the voice data V04 is set to "0", that is, the information not to be output, the database search unit 27 supplies the voice data V01 to the voice output unit 13, and the voice output unit 13 This voice data V01 is converted into voice and output. In the search process in the database search unit 27, for example, when two voice data whose priority information is “1” and “3” are searched as candidates, whichever is based on the probability calculated from the priority information. One of the voice data is selected. In this case, the voice data whose priority information is "3" is different from the voice data whose priority information is "1".
The probability of being elected is four times.

【0086】次に、図19に示すフローチャートを参照
して、センター装置302から受信した音声データを受
信音声情報格納部32に登録するまでの動作を説明す
る。情報通信端末103aでは、ステップS50で、セ
ンター装置302からの音声データを受信する。ステッ
プS51で、受信した音声データに基づいて話者照合処
理を行い、この音声データに対応する話者IDを求め
る。ステップ52で、話者情報格納部31に予め格納さ
れている話者情報を参照して、話者照合により求めた話
者IDに対して設定されている優先度情報を取得する。
ステップS53で、受信した音声データを優先度情報お
よび属性と対応づけて受信音声情報格納部32に格納す
る。
Next, the operation of registering the voice data received from the center device 302 in the received voice information storage unit 32 will be described with reference to the flowchart shown in FIG. The information communication terminal 103a receives the voice data from the center apparatus 302 in step S50. In step S51, speaker verification processing is performed based on the received voice data, and a speaker ID corresponding to this voice data is obtained. In step 52, the speaker information stored in advance in the speaker information storage unit 31 is referred to acquire the priority information set for the speaker ID obtained by the speaker verification.
In step S53, the received voice data is stored in the received voice information storage unit 32 in association with the priority information and the attribute.

【0087】以上のように、第3の実施形態によれば、
音声データの出力優先度を、その話者に応じてユーザ側
で任意に設定することが可能となる。よって、例えば家
族からの音声情報を優先して出力し、誹謗中傷等の多い
礼儀のない者からの音声情報を出力しないようにすると
いったことが可能である。また、極端な例としては、知
人以外からの音声情報を出力しないようにするといった
利用方法も考えられる。
As described above, according to the third embodiment,
It becomes possible for the user to arbitrarily set the output priority of the audio data according to the speaker. Therefore, for example, it is possible to preferentially output the voice information from the family and not to output the voice information from an unpolite person who often suffers slander or the like. Further, as an extreme example, a method of using such as not outputting voice information from anyone other than an acquaintance can be considered.

【0088】なお、本実施形態や前述の第1および第2
の実施形態のようなシステムでは、配信情報として利用
する音声情報は、前述した情報通信端末のマイクロホン
10からユーザによって入力されたものだけでなく、そ
れ以外の例えば一般電話などを通じてユーザIDを有し
ない不特定の者によって入力されたものを利用すること
もできる。そうすると、音声情報の情報源が増加すると
いう利点が生じる。第3の実施形態では、このようなユ
ーザIDを有しない者からの音声データであっても、予
め登録されている場合には音声データ自体から話者を特
定することができるため、音声データの出力を制限する
ことができる。
The present embodiment and the above-mentioned first and second
In the system according to the embodiment of the present invention, the voice information used as the distribution information is not only the information input by the user from the microphone 10 of the information communication terminal described above, but also does not have the user ID through other than that, for example, a general telephone. It is also possible to use the information input by an unspecified person. This has the advantage of increasing the number of sources of voice information. In the third embodiment, even if the voice data is from a person who does not have such a user ID, the speaker can be specified from the voice data itself if the voice data is registered in advance. You can limit the output.

【0089】(第4の実施形態)上記の第3の実施形態
では、話者情報格納部31に予め格納されている話者情
報に基づいて音声データの出力に対して制限を加えると
したが、第4の実施形態に係るシステムでは、情報端末
装置から実際に出力された音声に対するユーザの応答内
容に基づいて話者情報を適宜自動的に登録または更新す
ることが可能である。以下、この第4の実施形態に係る
情報配信システムについて説明する。なお、第4の実施
形態が第3の実施形態と異なる点は、情報通信端末10
3a〜103cの代わりに後述する情報通信端末104
a〜104cを備える点のみであるので、その他の同一
の構成については説明を省略する。
(Fourth Embodiment) In the third embodiment, the output of voice data is limited based on the speaker information stored in the speaker information storage unit 31 in advance. In the system according to the fourth embodiment, it is possible to automatically register or update the speaker information appropriately based on the user's response content to the voice actually output from the information terminal device. The information delivery system according to the fourth embodiment will be described below. The fourth embodiment is different from the third embodiment in that the information communication terminal 10
Information communication terminal 104 described later instead of 3a to 103c
Since only a to 104c are provided, the description of the other same configurations will be omitted.

【0090】図20に、情報通信端末104aの構成を
示す。なお、情報通信端末104a〜104cの構成は
同一であるため、情報通信端末104b、104cの説
明は省略する。情報通信端末104aは、マイクロホン
10と、音声認識部21と、意味解析部22と、属性判
別部23と、音声情報一時記憶部24と、音声情報送信
部11と、情報受信部12と、話者照合部29と、話者
情報検索部30と、話者情報格納部31と、データベー
ス登録部25と、受信音声情報格納部33と、データベ
ース検索部27と、音声出力部13と、好感度判定部3
4と、話者情報登録部35とを備える。なお、図20に
おいて、図16と同一の構成については同一の参照符号
を付し、説明を省略する。
FIG. 20 shows the configuration of the information communication terminal 104a. Since the information communication terminals 104a to 104c have the same configuration, the description of the information communication terminals 104b and 104c will be omitted. The information communication terminal 104a includes a microphone 10, a voice recognition unit 21, a semantic analysis unit 22, an attribute determination unit 23, a voice information temporary storage unit 24, a voice information transmission unit 11, an information reception unit 12, and a talk. Speaker verification unit 29, speaker information retrieval unit 30, speaker information storage unit 31, database registration unit 25, received voice information storage unit 33, database retrieval unit 27, voice output unit 13, and favorable sensitivity. Judgment unit 3
4 and a speaker information registration unit 35. 20, the same components as those in FIG. 16 are designated by the same reference numerals, and the description thereof will be omitted.

【0091】センター装置302から送信された音声デ
ータの優先度情報は、話者照合部29および話者情報検
索部30を通じて、話者情報格納部31より取得され
る。話者情報検索部30は、この優先度情報を話者ID
とともにデータベース登録部25に通知する。データベ
ース登録部25は、受信した音声データを、その属性、
優先度情報および話者IDと対応づけて受信音声情報格
納部33に登録する。図21に、受信音声情報格納部3
3に格納されるデータの一例を示す。
The priority information of the voice data transmitted from the center device 302 is acquired from the speaker information storage unit 31 through the speaker verification unit 29 and the speaker information search unit 30. The speaker information retrieval unit 30 uses the priority information as the speaker ID.
Along with this, the database registration unit 25 is notified. The database registration unit 25 uses the received voice data as its attribute,
It is registered in the received voice information storage unit 33 in association with the priority information and the speaker ID. FIG. 21 shows the received voice information storage unit 3
3 shows an example of data stored in No. 3.

【0092】この状態で、ユーザAが情報通信端末10
3aに対して、例えば釣りに関する話をした場合、この
音声が、マイクロホン10によって音声データに変換さ
れた後、音声認識部21、意味解析部22および属性判
別部23(これらの構成は図16の属性抽出部16に相
当する)を通じて「釣り」という属性が抽出され、デー
タベース検索部27に通知される。データベース検索部
27は、この属性を受けて、受信音声情報格納部33に
格納されている複数の音声データの中から「釣り」に関
する音声データを検索する。このとき、受信音声情報格
納部33に図21に示す音声データが格納されていると
仮定すると、「釣り」に関する音声データは、音声デー
タV01およびV04である。しかしながら、音声デー
タV04については優先度情報が「0」、つまり出力し
ない情報として設定されているので、データベース検索
部27は、音声データV01を音声出力部13に供給
し、音声出力部13は、この音声データV01を音声に
変換して出力する。このとき、データベース検索部27
は、選出した音声データ(ここでは音声データV01)
の話者IDを話者情報登録部35に通知する。
In this state, the user A selects the information communication terminal 10
3a, for example, when talking about fishing, after this voice is converted into voice data by the microphone 10, the voice recognition unit 21, the semantic analysis unit 22, and the attribute determination unit 23 (these configurations are shown in FIG. The attribute “fishing” is extracted through the attribute extraction unit 16) and is notified to the database search unit 27. Upon receiving this attribute, the database search unit 27 searches the voice data regarding “fishing” from the plurality of voice data stored in the received voice information storage unit 33. At this time, assuming that the voice data shown in FIG. 21 is stored in the received voice information storage unit 33, the voice data regarding “fishing” is the voice data V01 and V04. However, since the priority information of the voice data V04 is set to "0", that is, the information not to be output, the database search unit 27 supplies the voice data V01 to the voice output unit 13, and the voice output unit 13 This voice data V01 is converted into voice and output. At this time, the database search unit 27
Is the selected voice data (here, voice data V01)
The speaker ID is notified to the speaker information registration unit 35.

【0093】ユーザAは、上記のようにして音声出力部
13から出力された音声を聞き、例えば「この人、あま
り好きじゃないな」といった内容を話したとする。する
と、このユーザAの音声は、マイクロホン10によって
音声データに変換され、音声認識部21によってテキス
トデータに変換され、意味解析部22によってキーワー
ドが抽出され、このキーワードが好感度判定部34に供
給される。好感度判定部34は、キーワードに基づい
て、ユーザAが、音声出力部13から直前に出力した音
声の話者に対してどのような印象を抱いているかを判定
する。ここでは、ユーザAは、出力された音声の話者に
対してあまりよい印象を抱いていないと判定され、この
判定結果は話者情報登録部35に通知される。話者情報
登録部35は、データベース検索部27から通知された
話者IDと、好感度判定部34から通知された判定結果
に基づいて、話者情報格納部31に話者情報を登録す
る。ここでは、話者IDが「P001」である話者に対
してあまり良い印象を抱いていないということが分かる
ので、話者情報格納部31に例えば図17に示すような
話者情報がすでに登録されている場合には、話者IDに
対する優先度情報を「2」から「1」に変更する。こう
して、ユーザが手作業でわざわざ設定することなく、話
者情報が自動的に最適に設定される。
It is assumed that the user A hears the voice output from the voice output unit 13 as described above and speaks, for example, "I don't like this person very much". Then, the voice of the user A is converted into voice data by the microphone 10, converted into text data by the voice recognition unit 21, a keyword is extracted by the semantic analysis unit 22, and the keyword is supplied to the favorable determination unit 34. It The positivity determination unit 34 determines, based on the keyword, what impression the user A has on the speaker of the voice output immediately before from the voice output unit 13. Here, it is determined that the user A does not have a very good impression on the speaker of the output voice, and the determination result is notified to the speaker information registration unit 35. The speaker information registration unit 35 registers the speaker information in the speaker information storage unit 31 based on the speaker ID notified from the database search unit 27 and the determination result notified from the positivity determination unit 34. Here, since it can be seen that the speaker having the speaker ID “P001” does not have a good impression, the speaker information shown in FIG. 17, for example, is already registered in the speaker information storage unit 31. If so, the priority information for the speaker ID is changed from "2" to "1". Thus, the speaker information is automatically and optimally set without the need for the user to manually set it.

【0094】次に、話者情報格納部31にまだ登録され
ていない話者からの音声データが配信されてきた時の動
作について説明する。話者照合部29は、情報受信部1
2によって受信された音声データに基づいて話者照合処
理を行った結果、この音声データの話者が未登録である
と判断すると、この音声データを話者照合用に登録する
とともに、この音声データの話者に対して適当な話者I
Dを割り当てて、話者情報検索部30に通知する。話者
情報検索部30は、話者照合部29から通知された話者
IDに対応する話者情報を検索するが、この話者IDに
対応する話者情報は、まだ話者情報格納部31に登録さ
れていないため、とりあえず、優先度情報が「2」であ
るとして、この優先度情報および話者IDをデータベー
ス登録部25に通知する。データベース登録部25は、
音声データを、属性、優先度情報および話者IDと対応
づけて受信音声情報格納部33に登録する。この状態
で、ユーザAが何かを話した結果、この未登録の話者の
音声データが音声出力部13によって音声に変換されて
出力されたとする。この未登録の話者からの音声情報を
聞いたユーザAが、それに対して何らかの発言をする
と、その音声は、マイクロホン10によって音声データ
に変換され、さらに音声認識部21、意味解析部22お
よび好感度判定部34を通じて、このユーザAの発言内
容に基づいて、この未登録の話者に対してユーザAが抱
いている印象が判定される。話者情報登録部35は、デ
ータベース検索部27からの話者IDと、好感度判定部
34からの判定結果に基づいて、この話者IDに対する
話者情報を話者情報格納部31に新規に登録する。これ
により、次回以降、この話者IDに対応する話者の音声
データが配信された場合には、この話者情報に基づいて
優先度が決定されることになる。
Next, the operation when the voice data from the speaker not yet registered in the speaker information storage section 31 is delivered will be described. The speaker verification unit 29 is the information receiving unit 1
As a result of performing the speaker verification process based on the voice data received by 2, when it is determined that the speaker of this voice data is not registered, this voice data is registered for speaker verification and the voice data is also registered. Speaker I suitable for the speaker
Allocate D and notify the speaker information search unit 30. The speaker information search unit 30 searches the speaker information corresponding to the speaker ID notified from the speaker verification unit 29, but the speaker information corresponding to this speaker ID is still the speaker information storage unit 31. Since it is not registered in the database, the priority information and the speaker ID are notified to the database registration unit 25 for the time being, assuming that the priority information is “2”. The database registration unit 25
The voice data is registered in the received voice information storage unit 33 in association with the attribute, the priority information and the speaker ID. In this state, it is assumed that, as a result of the user A speaking something, the voice data of the unregistered speaker is converted into voice by the voice output unit 13 and output. When the user A, who has heard the voice information from the unregistered speaker, makes some utterance in response to the voice information, the voice is converted into voice data by the microphone 10, and further, the voice recognition unit 21, the semantic analysis unit 22, and the favorable analysis unit. Through the sensitivity determination unit 34, the impression that the user A has for the unregistered speaker is determined based on the content of the statement made by the user A. The speaker information registration unit 35 newly adds the speaker information for this speaker ID to the speaker information storage unit 31 based on the speaker ID from the database search unit 27 and the determination result from the positivity determination unit 34. register. Accordingly, when the voice data of the speaker corresponding to this speaker ID is delivered from the next time onward, the priority is determined based on this speaker information.

【0095】次に、図22に示すフローチャートを参照
して、情報通信端末104aにおいて、音声を出力して
から話者情報を登録するまでの動作について説明する。
なお、図22において、図13と同一の処理ステップに
は同一のステップ番号を付し、その詳しい説明を省略す
る。ステップS60で、受信音声情報格納部33に格納
されている音声データの中から属性判別部23において
判別した属性に対応する音声データを検索する。ステッ
プS24で、検索された音声データを音声出力する。ス
テップS20で、出力された音声に対してユーザが発し
た音声を入力して音声データに変換する。ステップS6
1で、音声認識処理によって音声データをテキストデー
タに変換し、ステップS62で、テキストデータから意
味のあるキーワードを抽出する。ステップS63で、抽
出されたキーワードに基づいてユーザの話者に対する好
感度を判定する。ステップS64で、好感度の判定結果
に基づいて話者情報を新規に登録、または更新する。
Next, with reference to the flowchart shown in FIG. 22, the operation from the output of voice to the registration of speaker information in the information communication terminal 104a will be described.
Note that, in FIG. 22, the same processing steps as those in FIG. 13 are designated by the same step numbers, and detailed description thereof will be omitted. In step S60, the voice data stored in the received voice information storage unit 33 is searched for voice data corresponding to the attribute determined by the attribute determination unit 23. In step S24, the retrieved voice data is output as voice. In step S20, the voice output by the user is input to the output voice and converted into voice data. Step S6
In step 1, the voice data is converted into text data by the voice recognition process, and in step S62, a meaningful keyword is extracted from the text data. In step S63, the user's liking for the speaker is determined based on the extracted keywords. In step S64, the speaker information is newly registered or updated based on the result of the determination of the likeability.

【0096】以上のように、第4の実施形態によれば、
ユーザが予め話者情報を登録することなく自動的に話者
情報が登録され、優先度が最適に設定される。よって、
不特定多数の話者からの音声データが配信されてくる情
報配信システムにおいては特に有効である。
As described above, according to the fourth embodiment,
The speaker information is automatically registered without the user registering the speaker information in advance, and the priority is optimally set. Therefore,
It is particularly effective in an information distribution system in which voice data from an unspecified number of speakers is distributed.

【0097】なお、第3の実施形態および第4の実施形
態では、第2の実施形態のシステムを基礎として話者照
合による音声データの出力制限を行っているが、これに
限らず、ユーザからの音声データを配信するシステム全
般に適用することができる。例えば、一例として、ユー
ザから情報通信端末や電話を通じて提供された音声デー
タを、その内容に関わらず、各情報通信端末に全て配信
し、情報通信端末で、これら配信された複数の音声デー
タの中から1つの音声データが任意のタイミングで選出
されて出力されるようなシステムに適用することもでき
る。
In the third and fourth embodiments, the output of voice data by speaker verification is limited based on the system of the second embodiment, but the present invention is not limited to this, and the output from the user is limited. It can be applied to all systems that distribute the audio data of. For example, as an example, all the voice data provided by the user through the information communication terminal or the telephone is distributed to each information communication terminal regardless of the content, and the information communication terminal selects from among the plurality of distributed voice data. It can also be applied to a system in which one audio data item is selected and output at an arbitrary timing.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は、本発明の第1の実施形態に係る情報配
信システムの全体構成を示すブロック図である。
FIG. 1 is a block diagram showing an overall configuration of an information distribution system according to a first embodiment of the present invention.

【図2】図2は、情報通信端末の構成を示すブロック図
である。
FIG. 2 is a block diagram showing a configuration of an information communication terminal.

【図3】図3は、センター装置の構成を示すブロック図
である。
FIG. 3 is a block diagram showing a configuration of a center device.

【図4】図4は、属性抽出部の構成を示すブロック図で
ある。
FIG. 4 is a block diagram showing a configuration of an attribute extraction unit.

【図5】図5は、提供音声情報格納部に格納されるデー
タの一例を示す図である。
FIG. 5 is a diagram showing an example of data stored in a provided voice information storage unit.

【図6】図6は、センター装置の動作を示すフローチャ
ートである。
FIG. 6 is a flowchart showing an operation of the center device.

【図7】図7は、第1の実施形態の一変形例における情
報通信端末の構成を示すブロック図である。
FIG. 7 is a block diagram showing a configuration of an information communication terminal according to a modified example of the first exemplary embodiment.

【図8】図8は、第1の実施形態の一変形例におけるセ
ンター装置の構成を示すブロック図である。
FIG. 8 is a block diagram showing a configuration of a center device according to a modification of the first embodiment.

【図9】図9は、本発明の第2の実施形態に係る情報配
信装置における情報通信端末の構成を示すブロック図で
ある。
FIG. 9 is a block diagram showing a configuration of an information communication terminal in the information distribution device according to the second embodiment of the present invention.

【図10】図10は、第2の実施形態におけるセンター
装置の構成を示すブロック図である。
FIG. 10 is a block diagram showing a configuration of a center device according to the second embodiment.

【図11】図11は、嗜好属性記憶部に記憶されるデー
タの一例を示す図である。
FIG. 11 is a diagram illustrating an example of data stored in a preference attribute storage unit.

【図12】図12は、受信音声情報格納部に格納される
データの一例を示す図である。
FIG. 12 is a diagram showing an example of data stored in a received voice information storage unit.

【図13】図13は、通信回線が接続されていないとき
の情報通信端末の動作を示すフローチャートである。
FIG. 13 is a flowchart showing an operation of the information communication terminal when the communication line is not connected.

【図14】図14は、音声データ受信時のセンター装置
の動作を示すフローチャートである。
FIG. 14 is a flowchart showing an operation of the center device when receiving voice data.

【図15】図15は、音声データ配信時のセンター装置
の動作を示すフローチャートである。
FIG. 15 is a flowchart showing an operation of the center device at the time of voice data distribution.

【図16】図16は、本発明の第3の実施形態に係る情
報配信装置における情報通信端末の構成を示すブロック
図である。
FIG. 16 is a block diagram showing a configuration of an information communication terminal in an information distribution device according to a third embodiment of the present invention.

【図17】図17は、話者情報格納部に格納されるデー
タの一例を示す図である。
FIG. 17 is a diagram showing an example of data stored in a speaker information storage unit.

【図18】図18は、受信音声情報格納部に格納される
データの一例を示す図である。
FIG. 18 is a diagram showing an example of data stored in a received voice information storage unit.

【図19】図19は、情報通信端末においてセンター装
置から受信した音声データを登録するまでの動作を示す
フローチャートである。
FIG. 19 is a flowchart showing an operation of registering voice data received from the center device in the information communication terminal.

【図20】図20は、本発明の第4の実施形態に係る情
報配信装置における情報通信端末の構成を示すブロック
図である。
FIG. 20 is a block diagram showing a configuration of an information communication terminal in an information distribution device according to a fourth exemplary embodiment of the present invention.

【図21】図21は、音声情報格納部に格納されるデー
タの一例を示す図である。
FIG. 21 is a diagram showing an example of data stored in a voice information storage unit.

【図22】図22は、情報通信端末において音声を出力
してから話者情報を登録するまでの動作を示すフローチ
ャートである。
FIG. 22 is a flow chart showing an operation from outputting a voice to registering speaker information in the information communication terminal.

【図23】図23は、第1の従来例に係るペット型ロボ
ットの構成を示すブロック図である。
FIG. 23 is a block diagram showing a configuration of a pet robot according to a first conventional example.

【図24】図24は、第2の従来例に係る情報配信シス
テムの全体構成を示すブロック図である。
FIG. 24 is a block diagram showing an overall configuration of an information distribution system according to a second conventional example.

【図25】図25は、第2の従来例におけるセンター装
置の構成を示すブロック図である。
FIG. 25 is a block diagram showing a configuration of a center device in a second conventional example.

【図26】図26は、第2の従来例における情報通信端
末の構成を示すブロック図である。
FIG. 26 is a block diagram showing a configuration of an information communication terminal in a second conventional example.

【符号の説明】[Explanation of symbols]

10 マイクロホン 11 音声情報送信部 12 情報受信部 13 音声出力部 14 音声情報受信部 15 データベース登録部 16 属性抽出部 17 配信情報データベース 18 データベース検索部 19 情報配信部 20 提供音声情報格納部 21 音声認識部 22 意味解析部 23 属性判別部 24 音声情報一時記憶部 25 データベース登録部 26 受信音声情報格納部 27 データベース検索部 28 嗜好属性記憶部 29 話者照合部 30 話者情報検索部 31 話者情報格納部 32 受信音声情報格納部 33 受信音声情報格納部 34 好感度判定部 35 話者情報登録部 100a〜100c 情報通信端末 101a、102a、103a、104a 情報通信端
末 200 インターネット 300、301、302 センター装置
10 Microphone 11 Voice Information Transmission Unit 12 Information Reception Unit 13 Voice Output Unit 14 Voice Information Reception Unit 15 Database Registration Unit 16 Attribute Extraction Unit 17 Distribution Information Database 18 Database Search Unit 19 Information Distribution Unit 20 Provided Voice Information Storage Unit 21 Voice Recognition Unit 22 Semantic analysis unit 23 Attribute discrimination unit 24 Voice information temporary storage unit 25 Database registration unit 26 Received voice information storage unit 27 Database search unit 28 Preference attribute storage unit 29 Speaker verification unit 30 Speaker information search unit 31 Speaker information storage unit 32 reception voice information storage unit 33 reception voice information storage unit 34 favorable rating determination unit 35 speaker information registration units 100a to 100c information communication terminals 101a, 102a, 103a, 104a information communication terminal 200 Internet 300, 301, 302 center device

【手続補正書】[Procedure amendment]

【提出日】平成15年1月20日(2003.1.2
0)
[Submission date] January 20, 2003 (2003.1.2
0)

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0006[Correction target item name] 0006

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0006】図24に、情報配信システムの全体構成を
示す。情報配信システムは、複数のユーザ(ここではユ
ーザA〜C)がそれぞれ操作する複数(ここでは3つ)
の情報通信端末912a〜912cと、インターネット
913と、センター装置914とで構成される。センタ
ー装置914と各情報通信端末912a〜912cと
は、インターネット913を介して通信可能に接続され
る。
FIG. 24 shows the overall configuration of the information distribution system. The information distribution system has a plurality (here, three) operated by a plurality of users (here, users A to C).
Information communication terminals 912a to 912c, the Internet 913, and a center device 914. The center device 914 and each of the information communication terminals 912a to 912c are communicably connected via the Internet 913.

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0086[Correction target item name] 0086

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0086】次に、図19に示すフローチャートを参照
して、センター装置302から受信した音声データを受
信音声情報格納部32に登録するまでの動作を説明す
る。情報通信端末103aでは、ステップS50で、セ
ンター装置302からの音声データを受信する。ステッ
プS51で、受信した音声データに基づいて話者照合処
理を行い、この音声データに対応する話者IDを求め
る。ステップ52で、話者情報格納部31に予め格納
されている話者情報を参照して、話者照合により求めた
話者IDに対して設定されている優先度情報を取得す
る。ステップS53で、受信した音声データを優先度情
報および属性と対応づけて受信音声情報格納部32に格
納する。
Next, the operation of registering the voice data received from the center device 302 in the received voice information storage unit 32 will be described with reference to the flowchart shown in FIG. The information communication terminal 103a receives the voice data from the center apparatus 302 in step S50. In step S51, speaker verification processing is performed based on the received voice data, and a speaker ID corresponding to this voice data is obtained. In step S 52, by referring to the speaker information stored in advance in the speaker information storage unit 31, and acquires the priority information set for speaker ID obtained by speaker verification. In step S53, the received voice data is stored in the received voice information storage unit 32 in association with the priority information and the attribute.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 17/30 170 G06F 17/30 210C 210 230Z 230 H04M 11/06 G10L 15/00 G10L 3/00 571T 15/08 551A 15/10 531W 17/00 545A H04M 11/06 (72)発明者 太田 和代 大阪府門真市元町22番6号 松下AVCマ ルチメディアソフト株式会社内 (72)発明者 山本 浩司 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 宮崎 浩行 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5B075 KK07 ND14 ND23 NK02 NK13 NK24 NK32 PQ04 UU40 5D015 AA04 KK02 LL12 5K101 KK05 KK18 KK19 LL00 MM07 NN07 NN08 NN15 NN36 NN37─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06F 17/30 170 G06F 17/30 210C 210 230Z 230 H04M 11/06 G10L 15/00 G10L 3/00 571T 15 / 08 551A 15/10 531W 17/00 545A H04M 11/06 (72) Inventor Kazuyo Ota 22-6 Motomachi, Kadoma City, Osaka Prefecture Matsushita AVC Multi Media Soft Co., Ltd. (72) Inventor Koji Yamamoto Osaka Prefecture 1006 Kadoma, Kadoma-shi, Matsushita Electric Industrial Co., Ltd. (72) Inventor, Hiroyuki Miyazaki 1006 Kadoma, Kadoma-shi, Osaka F-term, Matsushita Electric Industrial Co., Ltd. (reference) 5B075 KK07 ND14 ND23 NK02 NK13 NK24 NK32 PQ04 UU40 5D015 A KK02 LL12 5K101 KK05 KK18 KK19 LL00 MM07 NN07 NN08 NN15 NN36 NN37

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 センター装置から複数の情報通信端末に
対して通信回線を通じて種々の配信情報を配信する情報
配信システムであって、 ユーザが発した音声を音声データに変換する音声入力手
段と、 前記音声入力手段によって変換された音声データから当
該音声データの属性を抽出する属性抽出手段と、 前記音声入力手段によって変換された音声データを前記
属性抽出手段によって抽出された属性と対応付けて格納
する格納手段と、 前記格納手段にすでに格納されている複数の音声データ
の中から、所望の属性の音声データを検索する検索手段
と、 前記検索手段によって検索された音声データを、所定の
情報通信端末に配信する情報配信手段と、 前記情報配信手段によって配信された音声データを音声
に変換して出力する音声出力手段とを備え、 前記音声入力手段および前記音声出力手段は、前記複数
の情報通信端末のそれぞれに設けられ、前記格納手段、
前記検索手段および前記情報配信手段は、前記センター
装置に設けられることを特徴とする情報配信システム。
1. An information distribution system for distributing various distribution information from a center device to a plurality of information communication terminals through a communication line, and a voice input means for converting a voice uttered by a user into voice data. Attribute extraction means for extracting the attribute of the voice data from the voice data converted by the voice input means, and storage for storing the voice data converted by the voice input means in association with the attribute extracted by the attribute extraction means Means, a search means for searching voice data having a desired attribute from a plurality of voice data already stored in the storage means, and the voice data searched by the search means to a predetermined information communication terminal. An information distribution unit for distributing, and a sound output unit for converting the sound data distributed by the information distribution unit into sound and outputting the sound. The audio input means and the audio output means are provided in each of the plurality of information communication terminals, and the storage means,
The information delivery system, wherein the search means and the information delivery means are provided in the center device.
【請求項2】 前記属性抽出手段は、音声データをテキ
ストデータに変換する音声認識手段と、前記テキストデ
ータから意味のあるキーワードを抽出する意味解析手段
と、前記キーワードに基づいて前記音声データの属性を
判別する属性判別手段とを含む、請求項1記載の情報配
信システム。
2. The attribute extraction means, a voice recognition means for converting voice data into text data, a semantic analysis means for extracting a meaningful keyword from the text data, and an attribute of the voice data based on the keyword. The information distribution system according to claim 1, further comprising an attribute determination unit that determines
【請求項3】 前記検索手段は、前記格納手段にすでに
格納されている複数の音声データの中から前記音声入力
手段によって変換された音声データの属性に対応する属
性の音声データを検索し、 前記情報配信手段は、前記音声入力手段によって変換さ
れた音声データの送信元の情報通信端末に対して前記検
索手段によって検索された音声データを配信することを
特徴とする、請求項1記載の情報配信システム。
3. The search unit searches for voice data having an attribute corresponding to the attribute of the voice data converted by the voice input unit, from a plurality of voice data already stored in the storage unit, The information distribution unit according to claim 1, wherein the information distribution unit distributes the voice data searched by the search unit to an information communication terminal which is a transmission source of the voice data converted by the voice input unit. system.
【請求項4】 前記センター装置は、前記属性抽出手段
によって抽出された属性を、ユーザの嗜好属性としてユ
ーザに対応づけて記憶しておく嗜好属性記憶手段をさら
に備え、 前記検索手段は、前記嗜好属性記憶手段によって記憶さ
れているユーザの嗜好属性を参照して、前記格納手段に
よってすでに格納されている複数の音声データの中から
情報配信先のユーザの嗜好属性に対応する属性の音声デ
ータを検索することを特徴とする、請求項1記載の情報
配信システム。
4. The center device further includes a preference attribute storage unit that stores the attribute extracted by the attribute extraction unit in association with the user as a user preference attribute, and the search unit includes the preference item. By referring to the preference attribute of the user stored by the attribute storage means, the voice data of the attribute corresponding to the preference attribute of the user of the information distribution destination is searched from the plurality of voice data already stored by the storage means. The information distribution system according to claim 1, wherein
【請求項5】 前記属性抽出手段が少なくとも前記複数
の情報通信端末のそれぞれに設けられており、 前記情報配信手段は、前記検索手段によって検索された
音声データを当該音声データの属性とともに配信し、 前記情報通信端末は、それぞれ前記情報配信手段によっ
て配信された音声データを属性と対応づけて格納する受
信音声情報格納手段と、 前記受信音声情報格納手段によって格納されている複数
の音声データの中から、前記属性抽出手段によって抽出
された属性に対応する属性の音声データを検索する端末
側検索手段とをさらに備え、 前記音声出力手段は、前記端末側検索手段によって検索
された音声データを音声に変換して出力することを特徴
とする、請求項4記載の情報配信システム。
5. The attribute extraction means is provided in at least each of the plurality of information communication terminals, and the information delivery means delivers the voice data searched by the search means together with the attribute of the voice data, The information communication terminal includes a reception voice information storage unit that stores the voice data distributed by the information distribution unit in association with an attribute, and a plurality of voice data stored by the reception voice information storage unit. Further comprising a terminal side search means for searching voice data of an attribute corresponding to the attribute extracted by the attribute extraction means, wherein the voice output means converts the voice data searched by the terminal side search means into voice. The information distribution system according to claim 4, wherein the information distribution system outputs the information.
【請求項6】 前記情報通信端末は、それぞれ、前記通
信回線が接続されていない間に前記音声入力手段によっ
て変換された音声データを、前記通信回線が接続される
まで一時的に記憶しておく音声情報一時記憶手段をさら
に備える、請求項5記載の情報配信システム。
6. The information communication terminals each temporarily store the voice data converted by the voice input means while the communication line is not connected, until the communication line is connected. The information distribution system according to claim 5, further comprising voice information temporary storage means.
【請求項7】 センター装置から複数の情報通信端末に
対して通信回線を通じて種々の配信情報を配信する情報
配信システムであって、 ユーザが発した音声を音声データに変換する音声入力手
段と、 前記音声入力手段によって変換された音声データを格納
する格納手段と、 前記格納手段によって格納されている音声データを所定
の情報通信端末に配信する情報配信手段と、 前記情報配信手段によって配信された音声データの話者
を照合して当該音声データの話者を特定する話者照合手
段と、 話者毎に当該話者の音声データの優先度を表す優先度情
報を格納する話者情報格納手段と、 前記配信された音声データを音声に変換して出力する音
声出力手段とを備え、 前記音声入力手段、前記話者照合手段、前記話者情報格
納手段および前記音声出力手段は、前記複数の情報通信
端末のそれぞれに設けられ、前記格納手段および前記情
報配信手段は、前記センター装置に設けられ、前記配信
された音声データは、前記話者情報格納手段によって格
納されている、当該音声データの話者に対応する優先度
情報に基づいて、前記音声出力手段によって音声に変換
されて出力されることを特徴とする情報配信システム。
7. An information distribution system for distributing various distribution information from a center device to a plurality of information communication terminals through a communication line, and a voice input means for converting a voice uttered by a user into voice data, Storage means for storing the voice data converted by the voice input means, information delivery means for delivering the voice data stored by the storage means to a predetermined information communication terminal, and voice data delivered by the information delivery means And a speaker information storage unit for storing priority information indicating the priority of the voice data of the speaker for each speaker, A voice output means for converting the delivered voice data into a voice and outputting the voice, the voice input means, the speaker verification means, the speaker information storage means and the voice Force means is provided in each of the plurality of information communication terminals, the storage means and the information delivery means are provided in the center device, and the delivered voice data is stored by the speaker information storage means. The information delivery system is characterized in that, based on the priority information corresponding to the speaker of the voice data, the voice output means converts and outputs the voice.
【請求項8】 前記情報通信端末は、それぞれ、 前記音声入力手段によって変換された音声データに基づ
いて、前記音声出力手段によって出力された音声の話者
に対してユーザが抱いている印象を判定する好感度判定
手段と、 前記好感度判定手段による判定結果に基づいて、当該話
者に対する優先度情報を前記話者情報格納手段に登録す
る話者情報登録手段をさらに備える、請求項7記載の情
報通信システム。
8. The information communication terminals each determine an impression of a user holding a speaker of a voice output by the voice output unit, based on the voice data converted by the voice input unit. The speaker information registration means for registering priority information for the speaker in the speaker information storage means based on the determination result of the sensitivity determination means. Information and communication system.
【請求項9】 センター装置から通信回線を通じて配信
される種々の配信情報を受信する情報通信端末であっ
て、 ユーザが発した音声を音声データに変換する音声入力手
段と、 前記音声入力手段によって変換された音声データから当
該音声データの属性を抽出する属性抽出手段と、 前記音声入力手段によって変換された音声データを前記
属性抽出手段によって抽出された当該音声データの属性
とともに前記センター装置に送信する音声情報送信手段
と、 前記センター装置から配信された音声データを音声に変
換して出力する音声出力手段とを備える情報通信端末。
9. An information communication terminal for receiving various distribution information distributed from a center device through a communication line, wherein a voice input means for converting a voice uttered by a user into voice data, and the voice input means for converting the voice data. Attribute extraction means for extracting an attribute of the voice data from the extracted voice data, and voice for transmitting the voice data converted by the voice input means to the center device together with the attribute of the voice data extracted by the attribute extraction means An information communication terminal comprising: an information transmitting means; and a voice output means for converting voice data distributed from the center device into voice and outputting the voice.
【請求項10】 前記属性抽出手段は、音声データをテ
キストデータに変換する音声認識手段と、前記テキスト
データから意味のあるキーワードを抽出する意味解析手
段と、前記キーワードに基づいて前記音声データの属性
を判別する属性判別手段とを含む、請求項9記載の情報
通信端末。
10. The attribute extraction means, a voice recognition means for converting voice data into text data, a semantic analysis means for extracting a meaningful keyword from the text data, and an attribute of the voice data based on the keyword. The information communication terminal according to claim 9, further comprising an attribute determining unit that determines
【請求項11】 前記センター装置からは、音声データ
が当該音声データの属性とともに配信され、 前記センター装置から配信された音声データを属性と対
応づけて格納する受信音声情報格納手段と、 前記受信音声情報格納手段によって格納されている複数
の音声データの中から、前記属性抽出手段によって抽出
された属性に対応する属性の音声データを検索する端末
側検索手段とをさらに備え、 前記音声出力手段は、前記端末側検索手段によって検索
された音声データを音声に変換して出力することを特徴
とする、請求項9記載の情報通信端末。
11. The received voice information storage means for distributing voice data from the center device together with an attribute of the voice data, and storing the voice data distributed from the center device in association with the attribute, the received voice. The plurality of voice data stored by the information storage means, further comprises a terminal side search means for searching voice data of the attribute corresponding to the attribute extracted by the attribute extraction means, the voice output means, 10. The information communication terminal according to claim 9, wherein the voice data searched by the terminal side search means is converted into voice and output.
【請求項12】 前記通信回線が接続されていない間に
前記音声入力手段によって変換された音声データを、前
記通信回線が接続されるまで一時的に記憶しておく音声
情報一時記憶手段をさらに備える、請求項11記載の情
報通信端末。
12. A voice information temporary storage means for temporarily storing the voice data converted by the voice input means while the communication line is not connected, until the communication line is connected. The information communication terminal according to claim 11.
【請求項13】 センター装置から通信回線を通じて配
信される種々の配信情報を受信する情報通信端末であっ
て、 ユーザが発した音声を音声データに変換する音声入力手
段と、 前記センター装置から配信された音声データの話者を照
合して当該音声データの話者を特定する話者照合手段
と、 話者毎に当該話者の音声データの優先度を表す優先度情
報を格納する話者情報格納手段と、 前記配信された音声データを音声に変換して出力する音
声出力手段とを備え、 前記配信された音声データは、前記話者情報格納手段に
よって格納されている、当該音声データの話者に対応す
る優先度情報に基づいて、前記音声出力手段によって音
声に変換されて出力されることを特徴とする情報通信端
末。
13. An information communication terminal for receiving various kinds of distribution information distributed from a center device through a communication line, wherein voice input means for converting a voice uttered by a user into voice data and distributed from the center device. Speaker verification means for matching the speaker of the voice data to identify the speaker of the voice data, and speaker information storage for storing the priority information indicating the priority of the voice data of the speaker for each speaker. Means and a voice output means for converting the delivered voice data into voice and outputting the voice, the delivered voice data being stored by the speaker information storage means, the speaker of the voice data. An information communication terminal, which is converted into a voice and output by the voice output means based on the priority information corresponding to.
【請求項14】 前記音声入力手段によって変換された
音声データに基づいて、前記音声出力手段によって出力
された音声の話者に対してユーザが抱いている印象を判
定する好感度判定手段と、 前記好感度判定手段による判定結果に基づいて、当該話
者に対する優先度情報を前記話者情報格納手段に登録す
る話者情報登録手段をさらに備える、請求項13記載の
情報通信端末。
14. A positivity determination means for determining, based on the voice data converted by the voice input means, an impression that the user has for the speaker of the voice output by the voice output means, 14. The information communication terminal according to claim 13, further comprising speaker information registration means for registering priority information for the speaker in the speaker information storage means based on a determination result by the positivity determination means.
【請求項15】 複数の情報通信端末に対して通信回線
を通じて種々の配信情報を配信するセンター装置であっ
て、 前記情報通信端末から音声データを受信する音声情報受
信手段と、 前記受信された音声データを当該音声データの属性と対
応付けて格納する格納手段と、 前記格納手段によってすでに格納されている複数の音声
データの中から、所望の属性の音声データを検索する検
索手段と、 前記検索手段によって検索された音声データを、所定の
情報通信端末に配信する情報配信手段とを備えるセンタ
ー装置。
15. A center device for distributing various kinds of distribution information to a plurality of information communication terminals through communication lines, and voice information receiving means for receiving voice data from the information communication terminals, and the received voice. Storage means for storing data in association with the attribute of the voice data; search means for searching voice data having a desired attribute from a plurality of voice data already stored by the storage means; An information distribution means for distributing the voice data searched by the information communication terminal to a predetermined information communication terminal.
【請求項16】 前記音声情報受信手段によって受信さ
れた音声データから当該音声データの属性を抽出する属
性抽出手段をさらに備え、 前記格納手段は、前記受信された音声データを前記属性
抽出手段によって抽出された属性と対応付けて格納する
ことを特徴とする、請求項15記載のセンター装置。
16. The apparatus further comprises attribute extracting means for extracting an attribute of the voice data from the voice data received by the voice information receiving means, wherein the storing means extracts the received voice data by the attribute extracting means. 16. The center device according to claim 15, wherein the center device stores the associated attribute.
【請求項17】 前記属性抽出手段は、音声データをテ
キストデータに変換する音声認識手段と、前記テキスト
データから意味のあるキーワードを抽出する意味解析手
段と、前記キーワードに基づいて前記音声データの属性
を判別する属性判別手段とを含む、請求項15記載のセ
ンター装置。
17. The attribute extraction unit, a voice recognition unit that converts voice data into text data, a semantic analysis unit that extracts a meaningful keyword from the text data, and an attribute of the voice data based on the keyword. 16. The center device according to claim 15, further comprising attribute determining means for determining.
【請求項18】 前記検索手段は、前記格納手段によっ
てすでに格納されている複数の音声データの中から前記
音声情報受信手段によって受信された音声データの属性
に対応する属性の音声データを検索し、 前記情報配信手段は、前記音声情報受信手段によって受
信された音声データの送信元の情報通信端末に対して前
記検索手段によって検索された音声データを配信するこ
とを特徴とする、請求項15記載のセンター装置。
18. The search means searches for voice data having an attribute corresponding to the attribute of the voice data received by the voice information receiving means from among the plurality of voice data already stored by the storage means, 16. The information distribution unit distributes the voice data searched by the search unit to an information communication terminal which is a transmission source of the voice data received by the voice information receiving unit. Center device.
【請求項19】 前記音声情報受信手段によって受信さ
れた音声データの属性を、ユーザの嗜好属性としてユー
ザに対応づけて記憶しておく嗜好属性記憶手段をさらに
備え、 前記検索手段は、前記嗜好属性記憶手段によって記憶さ
れているユーザの嗜好属性を参照して、前記格納手段に
よってすでに格納されている複数の音声データの中から
情報配信先のユーザの嗜好属性に対応する属性の音声デ
ータを検索することを特徴とする、請求項15記載のセ
ンター装置。
19. A preference attribute storage unit for storing the attribute of the voice data received by the voice information receiving unit as a preference attribute of the user in association with the user, and the search unit includes the preference attribute. By referring to the preference attribute of the user stored by the storage means, the voice data of the attribute corresponding to the preference attribute of the user of the information distribution destination is searched from the plurality of voice data already stored by the storage means. 16. The center device according to claim 15, wherein:
【請求項20】 センター装置から複数の情報通信端末
に対して通信回線を通じて種々の配信情報を配信する情
報配信方法であって、 ユーザが発した音声を音声データに変換する音声入力ス
テップと、 前記音声入力ステップによって変換された音声データか
ら当該音声データの属性を抽出する属性抽出ステップ
と、 前記音声入力ステップによって変換された音声データを
前記属性抽出ステップによって抽出された属性と対応付
けて格納する格納ステップと、 前記格納ステップによってすでに格納されている複数の
音声データの中から、所望の属性の音声データを検索す
る検索ステップと、 前記検索ステップによって検索された音声データを、所
定の情報通信端末に配信する情報配信ステップと、 前記情報配信ステップによって配信された音声データを
音声に変換して出力する音声出力ステップとを備え、 前記音声入力ステップおよび前記音声出力ステップは、
前記複数の情報通信端末のそれぞれにおいて実行され、
前記格納ステップ、前記検索ステップおよび前記情報配
信ステップは、前記センター装置において実行されるこ
とを特徴とする情報配信方法。
20. An information distribution method for distributing various distribution information from a center device to a plurality of information communication terminals through a communication line, comprising a voice input step of converting a voice uttered by a user into voice data. An attribute extraction step of extracting an attribute of the voice data from the voice data converted by the voice input step, and a storage storing the voice data converted by the voice input step in association with the attribute extracted by the attribute extraction step. A search step of searching for voice data having a desired attribute from the plurality of voice data already stored by the storing step; and the voice data searched by the search step to a predetermined information communication terminal. Information distribution step for distribution, and sound distributed by the information distribution step A voice output step of converting voice data into voice and outputting the voice, the voice input step and the voice output step,
Executed in each of the plurality of information communication terminals,
The information distributing method, wherein the storing step, the searching step and the information distributing step are executed in the center device.
【請求項21】 センター装置から複数の情報通信端末
に対して通信回線を通じて種々の配信情報を配信する情
報配信方法であって、 ユーザが発した音声を音声データに変換する音声入力ス
テップと、 前記音声入力ステップによって変換された音声データを
格納する格納ステップと、 前記格納ステップによって格納されている音声データを
所定の情報通信端末に配信する情報配信ステップと、 前記情報配信ステップによって配信された音声データの
話者を照合して当該音声データの話者を特定する話者照
合ステップと、 話者毎に当該話者の音声データの優先度を表す優先度情
報を格納する話者情報格納ステップと、 前記配信された音声データを音声に変換して出力する音
声出力ステップとを備え、 前記音声入力ステップ、前記話者照合ステップ、前記話
者情報格納ステップおよび前記音声出力ステップは、前
記複数の情報通信端末のそれぞれにおいて実行され、前
記格納ステップおよび前記情報配信ステップは、前記セ
ンター装置において実行され、前記配信された音声デー
タは、前記話者情報格納ステップによって格納されてい
る、当該音声データの話者に対応する優先度情報に基づ
いて、前記音声出力ステップによって音声に変換されて
出力されることを特徴とする情報配信方法。
21. An information distribution method for distributing various distribution information from a center device to a plurality of information communication terminals through a communication line, wherein a voice input step of converting a voice uttered by a user into voice data, A storage step of storing the voice data converted by the voice input step, an information delivery step of delivering the voice data stored by the storage step to a predetermined information communication terminal, and a voice data delivered by the information delivery step. A speaker verification step of identifying the speaker of the voice data by comparing the speakers of, and a speaker information storage step of storing priority information indicating the priority of the voice data of the speaker for each speaker. A voice output step of converting the delivered voice data into voice and outputting the voice, the voice input step, the speaker verification step The speaker information storage step and the voice output step are executed in each of the plurality of information communication terminals, the storage step and the information distribution step are executed in the center device, and the distributed voice is transmitted. The data is converted into voice by the voice output step and output based on the priority information corresponding to the speaker of the voice data stored in the speaker information storage step, and output. Delivery method.
JP2001342197A 2001-11-07 2001-11-07 Information distribution system and information distribution method Expired - Fee Related JP3705587B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001342197A JP3705587B2 (en) 2001-11-07 2001-11-07 Information distribution system and information distribution method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001342197A JP3705587B2 (en) 2001-11-07 2001-11-07 Information distribution system and information distribution method

Publications (2)

Publication Number Publication Date
JP2003140688A true JP2003140688A (en) 2003-05-16
JP3705587B2 JP3705587B2 (en) 2005-10-12

Family

ID=19156092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001342197A Expired - Fee Related JP3705587B2 (en) 2001-11-07 2001-11-07 Information distribution system and information distribution method

Country Status (1)

Country Link
JP (1) JP3705587B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005064705A (en) * 2003-08-08 2005-03-10 Doshisha System for supporting person at home
JP2005250010A (en) * 2004-03-03 2005-09-15 Denso It Laboratory Inc Speech data output device, and unit and system for controlling speech data output
JP2005321730A (en) * 2004-05-11 2005-11-17 Fujitsu Ltd Dialog system, dialog system implementation method, and computer program
JP2007222968A (en) * 2006-02-21 2007-09-06 Advanced Telecommunication Research Institute International Communication robot
JP2014179067A (en) * 2013-03-14 2014-09-25 Honda Motor Co Ltd Voice interface system and method
CN108925456A (en) * 2018-05-31 2018-12-04 广州粤创富科技有限公司 A kind of method, apparatus interacted with pet and wearable device
JP2019101399A (en) * 2017-11-30 2019-06-24 日本電信電話株式会社 Favorability estimating apparatus, favorability estimating method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188787A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001290493A (en) * 2000-04-06 2001-10-19 Asahi Kasei Corp Automatic dialogue method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188787A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001290493A (en) * 2000-04-06 2001-10-19 Asahi Kasei Corp Automatic dialogue method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005064705A (en) * 2003-08-08 2005-03-10 Doshisha System for supporting person at home
JP2005250010A (en) * 2004-03-03 2005-09-15 Denso It Laboratory Inc Speech data output device, and unit and system for controlling speech data output
JP2005321730A (en) * 2004-05-11 2005-11-17 Fujitsu Ltd Dialog system, dialog system implementation method, and computer program
US7742924B2 (en) 2004-05-11 2010-06-22 Fujitsu Limited System and method for updating information for various dialog modalities in a dialog scenario according to a semantic context
JP2007222968A (en) * 2006-02-21 2007-09-06 Advanced Telecommunication Research Institute International Communication robot
JP4599522B2 (en) * 2006-02-21 2010-12-15 株式会社国際電気通信基礎技術研究所 Communication robot
JP2014179067A (en) * 2013-03-14 2014-09-25 Honda Motor Co Ltd Voice interface system and method
JP2019101399A (en) * 2017-11-30 2019-06-24 日本電信電話株式会社 Favorability estimating apparatus, favorability estimating method, and program
CN108925456A (en) * 2018-05-31 2018-12-04 广州粤创富科技有限公司 A kind of method, apparatus interacted with pet and wearable device

Also Published As

Publication number Publication date
JP3705587B2 (en) 2005-10-12

Similar Documents

Publication Publication Date Title
US7885390B2 (en) System and method for multi-modal personal communication services
US6853716B1 (en) System and method for identifying a participant during a conference call
US7844454B2 (en) Apparatus and method for providing voice recognition for multiple speakers
US6507643B1 (en) Speech recognition system and method for converting voice mail messages to electronic mail messages
US9571445B2 (en) Unified messaging system and method with integrated communication applications and interactive voice recognition
JP4785722B2 (en) Method, system, and program for managing items in a voice mailbox for at least one user (Internet telephone voice mail management)
US6243445B1 (en) Method and apparatus for telephone data network access
US8185539B1 (en) Web site or directory search using speech recognition of letters
US6219407B1 (en) Apparatus and method for improved digit recognition and caller identification in telephone mail messaging
US9898536B2 (en) System and method to perform textual queries on voice communications
EP1798945A1 (en) System and methods for enabling applications of who-is-speaking (WIS) signals
US8259910B2 (en) Method and system for transcribing audio messages
US20100246784A1 (en) Conversation support
US20050206721A1 (en) Method and apparatus for disseminating information associated with an active conference participant to other conference participants
MXPA04007652A (en) Speech recognition enhanced caller identification.
US20080300852A1 (en) Multi-Lingual Conference Call
CN108932946B (en) Voice interaction method and device for customer-on-demand service
US11776541B2 (en) Communicating announcements
US20010053977A1 (en) System and method for responding to email and self help requests
US20090307090A1 (en) System and Method for Inserting Advertisements in Voicemail
US20020103871A1 (en) Method and apparatus for natural language processing of electronic mail
JP2003140688A (en) System and method for information distribution
KR100822170B1 (en) Database construction method and system for speech recognition ars service
KR20170093703A (en) Message augmentation system and method
US11024303B1 (en) Communicating announcements

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050725

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080805

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090805

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090805

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100805

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110805

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120805

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130805

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees