JP2000259389A - Interaction recording system and interaction recording synthesizer - Google Patents

Interaction recording system and interaction recording synthesizer

Info

Publication number
JP2000259389A
JP2000259389A JP11061092A JP6109299A JP2000259389A JP 2000259389 A JP2000259389 A JP 2000259389A JP 11061092 A JP11061092 A JP 11061092A JP 6109299 A JP6109299 A JP 6109299A JP 2000259389 A JP2000259389 A JP 2000259389A
Authority
JP
Japan
Prior art keywords
information
dialogue
dialog
utterance
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11061092A
Other languages
Japanese (ja)
Inventor
Naoki Hayashi
直樹 林
Kazuo Shibuta
一夫 澁田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP11061092A priority Critical patent/JP2000259389A/en
Publication of JP2000259389A publication Critical patent/JP2000259389A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an interaction recording system and an interaction recording synthesizer where a participant of an interaction can control whether or not an interaction recording is handed down after interaction and which can hand down the interaction recording at relatively lower cost. SOLUTION: In this interaction recording system, each interaction participant carries a user unit 12 with himself, inputs each speech contents from its voice input part 42, and stores them as narration data on his own. Then, after the interaction finishes, the narration data stored in the user unit 12 of all the interaction participants are received from a beam reception/emission part 18, an interaction data generation part 36 generates interaction data on the basis of the former data, and they are stored in an interaction data storage part 38.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は対話記録装置及び対
話記録合成装置に関し、特に複数の対話参加者による対
話を記録する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a dialog recorder and a dialog recorder / synthesizer, and more particularly to a technique for recording a dialog by a plurality of dialog participants.

【0002】[0002]

【従来の技術】複数人による対話(会話、会議)を記録
し、その記録を分析することで新たな知識が得られるこ
とは多い。例えば、顧客との対話は、後でその内容を吟
味してみると(特に、上長やトップセールスにその記録
を見せて意見を聞いてみると)、その場では気づかなか
った問題点や、より良い解決案を考えつくことができ
る。あるいは、システムの使い勝手などを調べるために
プロトコル分析という人の発話を分析する手法が有効で
あることは広く知られている。
2. Description of the Related Art In many cases, new knowledge can be obtained by recording conversations (conversations, conferences) by a plurality of people and analyzing the records. For example, a dialogue with a customer can later be scrutinized (especially by showing the record to a manager or top sales representative and asking for opinions), You can come up with better solutions. Alternatively, it is widely known that a protocol analysis technique of analyzing a human utterance is effective for checking the usability of the system.

【0003】しかしながら、対話は録音設備が完備され
た環境でのみ行われる訳ではない。例えば廊下での立ち
話などのオープンスペースで偶発的に起こった対話が、
業務遂行上の重要なヒントやアイディアを与えてくれる
場合がある。また、顧客を訪問しても、必ずしも面談ス
ペースなど記録を取りやすい場所が使えるわけではな
い。
[0003] However, the dialogue does not always take place only in an environment equipped with recording facilities. For example, a conversation that happened accidentally in an open space, such as standing in a corridor,
They may give you important hints and ideas for doing your job. In addition, even when visiting a customer, a place where records can be easily taken, such as an interview space, cannot always be used.

【0004】このような場所で対話を記録する従来技術
としては、例えば特開平10−134047号公報に示
されるように、PHSのような携帯機器から音声情報を
ネットワークを通じて音声認識サーバに送り、該サーバ
による認識結果を前記携帯機器に送り返すという技術が
ある。
[0004] As a conventional technique for recording a dialogue in such a place, for example, as shown in Japanese Patent Application Laid-Open No. Hei 10-134407, a portable device such as a PHS sends voice information to a voice recognition server through a network, and There is a technique in which a recognition result by a server is sent back to the portable device.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、従来技
術には次の二つの課題がある。
However, the prior art has the following two problems.

【0006】一つ目は、対話が記録されていると感じる
ことが、人間のコミュニケーションに影響を与えること
である。従来技術では、対話記録を取る側(対話の主催
者か参加者の誰か)が対話開始前に記録の準備を行い、
対話中の参加者のすべての発話を記録する。対話を取ら
れる側(残りの参加者)は、事前に記録を取ることへの
同意を求められるかもしれない。ここで同意をしてしま
えば、対話を取られる側は自分の発言は他人に記録され
ており、後で何らかの形で記録が利用されることを対話
中に意識せざるを得ない。このことは、参加者の発言を
抑制したり、逆に参加者が過度に攻撃的あるいは迎合的
な態度をとる可能性が高く、自由で闊達なコミュニケー
ションが阻害される。また、事前の同意がなされなけれ
ば、良いアイディアや意見などが対話の中で形成されて
いった場合であっても、それが記録されていないため、
参加者の記憶に頼って記録を再構成しなければならなく
なる。
First, feeling that a conversation is being recorded affects human communication. In the prior art, the person recording the conversation (either the organizer or the participant of the conversation) prepares the recording before the conversation begins,
Record all utterances of the participant in the conversation. The participant (remaining participant) may be asked to agree to record in advance. Once the consent has been reached, the person receiving the dialogue has to be aware during the dialogue that his / her remark has been recorded by another person and that the recording will be used in some form later. This suppresses the participants' remarks, and conversely, the participants are likely to take an excessively aggressive or compliant attitude, which hinders free and vigorous communication. Also, without good consent, even if good ideas and opinions were formed in the dialogue, they were not recorded,
The records will have to be reconstructed, relying on the participants' memories.

【0007】二つ目は、対話記録の精度とコストに関わ
るものである。特開平10−134047号公報で示さ
れる従来技術では、携帯機器とネットワークとが常に良
好な状態で接続されていなければならない。しかしなが
ら、対話場所がネットワークと接続可能な場所であると
は限らず、接続可能であったとしてもアクセスの混雑や
電波状況などで、ネットワークとの接続が不安定になっ
たり消失する可能性がある。また、接続されている状況
においても、一つの音声認識サーバが、個々の端末から
送られてくる複数の人の音声情報を、端末間ならびに時
間的に音量・音質のレベルが大きく変化しうる状況の中
で、正しく音声認識することは非常に困難である。ま
た、パケット通信型のネットワークを使う場合には、ネ
ットワークの遅延により、正しい発話順序がサーバに伝
わらない可能性もある。さらに、ネットワークを利用し
続けることによる通信コストも大きなものとなる。
The second concerns the accuracy and cost of dialog recording. In the related art disclosed in Japanese Patent Application Laid-Open No. H10-134407, the mobile device and the network must always be connected in a good state. However, the dialogue location is not always a place that can be connected to the network, and even if it can be connected, the connection to the network may be unstable or lost due to access congestion or radio wave conditions. . Also, even in a connected situation, one voice recognition server may convert voice information of a plurality of persons sent from individual terminals between terminals and temporally the level of the volume and sound quality may vary greatly. It is very difficult to recognize speech correctly. When a packet communication network is used, the correct utterance order may not be transmitted to the server due to the delay of the network. Further, the communication cost due to continuing to use the network becomes large.

【0008】一方、特開平10−134047号公報で
示される従来技術の応用として、対話場所で小規模な無
線ネットワークあるいは有線ネットワークを構築して利
用するということが考えられる。しかしながら、無線の
場合は、接続の安定性と音声認識の精度に関して前述の
例と同じ課題が残る。また、有線の場合は、対話場所に
ラインを敷設できるかどうか保証できない。また、いず
れの場合も、ネットワーク構築と撤収に余分なコストが
かかることは言うまでもない。
On the other hand, as an application of the conventional technique disclosed in Japanese Patent Application Laid-Open No. Hei 10-134407, it is conceivable to construct and use a small-scale wireless network or a wired network at a place of conversation. However, in the case of wireless communication, the same problems as in the above-described example remain regarding connection stability and speech recognition accuracy. Also, in the case of a wired connection, it cannot be guaranteed whether or not a line can be laid at a conversation place. In any case, it goes without saying that extra costs are required for network construction and withdrawal.

【0009】本発明は、上記課題に鑑みてなされたもの
であって、その目的は、対話記録を残すかどうかを対話
の参加者が対話後にコントロールでき、さらに比較的低
コストで所望品質の対話記録を残すことのできる対話記
録システム及び対話記録合成装置を提供することにあ
る。
The present invention has been made in view of the above problems, and has as its object to enable a participant of a dialogue to control whether or not to keep a dialogue record after the dialogue, and to provide a dialogue of desired quality at a relatively low cost. It is an object of the present invention to provide a dialog recording system and a dialog recording synthesizing device capable of recording.

【0010】[0010]

【課題を解決するための手段】上記課題を解決するため
に、本発明に係る対話記録システムは、対話参加者毎に
発言情報を記録する発言情報記録手段と、前記発言情報
記録手段に記録される発言情報毎に発声時間情報を生成
する発声時間情報生成手段と、前記発声時間情報に基づ
き、前記発言情報記録手段により記録される発言情報か
ら対話参加者間でなされた対話情報を生成する対話情報
生成手段と、前記対話情報を記録する対話情報記録手段
と、を含むことを特徴とする。
In order to solve the above-mentioned problems, a dialog recording system according to the present invention comprises a statement information recording means for recording statement information for each dialog participant, and a statement information recorded on the statement information recording means. Utterance time information generating means for generating utterance time information for each utterance information, and dialogue for generating dialogue information between dialog participants from the utterance information recorded by the utterance information recording means based on the utterance time information It is characterized by including information generating means, and dialog information recording means for recording the dialog information.

【0011】一方、本発明に係る対話記録合成装置は、
対話参加者毎に記録された発言情報から、該発言情報毎
の発声時間情報に基づき、対話参加者間でなされた対話
情報を生成し、該対話情報を記録することを特徴とす
る。
On the other hand, a dialogue recording / synthesizing apparatus according to the present invention comprises:
It is characterized in that, based on the utterance information recorded for each dialogue participant, dialogue information performed between the dialogue participants is generated based on the utterance time information for each utterance information, and the dialogue information is recorded.

【0012】また、本発明に係るコンピュータ読み取り
可能な媒体は、対話参加者毎に記録された発言情報か
ら、該発言情報毎の発声時間情報に基づき、対話参加者
間でなされた対話情報を生成し、該対話情報を記録する
ようコンピュータを動作させるためのプログラムを記録
したものである。
Further, the computer-readable medium according to the present invention generates dialog information between dialog participants based on utterance time information for each utterance information from utterance information recorded for each dialog participant. And a program for operating a computer to record the dialog information.

【0013】本発明では、対話参加者毎に発言情報を記
録しておき、該発言情報毎に生成される発生時間情報に
基づき、そこから対話情報を生成する。こうすれば、対
話記録を残すかどうかを対話の参加者が対話後にコント
ロールできる。また、対話参加者毎に発言情報を記録す
るようにしたので、ネットワーク等を介して全対話参加
者の発言を記録するよりも低コストで所望品質の記録を
残すことができる。
In the present invention, utterance information is recorded for each dialog participant, and dialog information is generated therefrom based on occurrence time information generated for each utterance information. In this way, the participants of the dialog can control whether or not to keep a record of the dialog after the dialog. Further, since the statement information is recorded for each dialog participant, a record of desired quality can be left at a lower cost than recording the statements of all dialog participants via a network or the like.

【0014】また、本発明の一態様では、前記対話情報
生成手段は、所定第1キーワードを記憶する第1キーワ
ード記憶手段と、前記第1キーワードに対応する第2キ
ーワードを記憶する第2キーワード記憶手段と、を含
み、ある対話参加者の前記第1キーワードの発声時間と
他の対話参加者の前記第2キーワードの発声時間とが近
接するよう前記対話情報を生成することを特徴とする。
この場合、前記第1キーワードは挨拶、呼びかけ、質
問、疑問、又は確認のいずれかを表し、前記第2キーワ
ードはその応答を表すようにできる。
[0014] In one aspect of the present invention, the dialog information generation means includes a first keyword storage means for storing a predetermined first keyword, and a second keyword storage for storing a second keyword corresponding to the first keyword. Means for generating the dialogue information such that the utterance time of the first keyword of one dialogue participant is close to the utterance time of the second keyword of another dialogue participant.
In this case, the first keyword may indicate any one of a greeting, a call, a question, a question, and a confirmation, and the second keyword may indicate a response.

【0015】こうすれば、「こんにちは」などの挨拶や
呼びかけとその応答、「〜ですか」などの質問や疑問と
その応答、「〜でしょうか」などの確認とその応答、な
どをそれぞれ前記第1キーワード及び前記第2キーワー
ドとして前記第1及び第2キーワード記憶手段に記憶さ
せておくことで、それらが時間的に近接して交わされる
ことを手掛かりに、より正確な対話情報を容易に生成で
きるようになる。
If the [0015] This, greetings and called for a response such as "Hello", "~ Is" questions or doubts and its response, such as, the respective "would be - or" confirmation of such and its response, and the first By storing the one keyword and the second keyword in the first and second keyword storage means, it is possible to easily generate more accurate conversation information based on the fact that they are exchanged in temporal proximity. Become like

【0016】また、本発明の一態様では、前記対話情報
生成手段は、所定第3キーワードを記憶する第3キーワ
ード記憶手段を含み、ある対話参加者の発声時間帯に他
の対話参加者によって前記第3キーワードが発声されう
ることを考慮して、前記対話情報を生成することを特徴
とする。この場合、前記第3キーワードは相づち、感動
表現、又は割込表現のいずれかを表すようにできる。
Further, in one aspect of the present invention, the dialogue information generating means includes third keyword storage means for storing a predetermined third keyword, and the other dialogue participant operates during a utterance time period of one dialogue participant. The dialog information is generated in consideration of the fact that a third keyword can be uttered. In this case, the third keyword may be one of a combination, an emotional expression, and an interrupt expression.

【0017】こうすれば、「ええ」「おぉ」「ちょっ
と」などの相づち、感動表現又は割込表現を前記第3キ
ーワードとして前記第3キーワード記憶手段に記憶させ
ておくことで、それらが他人の発言中に重複して発せら
れ得ることを考慮して、より正確な対話情報を容易に生
成できるようになる。
[0017] In this way, by storing in the third keyword storage means the impressive expression or the interrupt expression such as "yes", "oh", "slightly", etc. It is possible to easily generate more accurate conversation information in consideration of the fact that it can be repeated during a comment.

【0018】また、本発明の一態様では、前記対話情報
生成手段は、対話参加者毎に発言情報を文字列情報に変
換し、それら文字列情報から前記対話情報を生成するこ
とを特徴とする。こうすれば、比較的容易に各対話参加
者の発言内容を判断できるようになるため、より正確な
対話情報を容易に生成できるようになる。特に、前記第
1〜第3キーワードを文字列として各記憶手段に記憶さ
せておくことにより、前記第1〜第3キーワードを用い
た対話情報の生成を容易に行うことができる。
In one aspect of the present invention, the dialog information generating means converts the utterance information into character string information for each dialog participant, and generates the dialog information from the character string information. . This makes it possible to relatively easily judge the content of remarks of each dialog participant, so that more accurate dialog information can be easily generated. In particular, by storing the first to third keywords in each storage unit as a character string, it is possible to easily generate dialog information using the first to third keywords.

【0019】[0019]

【発明の実施の形態】以下、本発明の好適な実施の形態
について図面に基づき詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the drawings.

【0020】図1は、本発明の実施の形態に係る対話記
録システムの構成を示す図である。同図に示すように、
この対話記録システム10は複数のユーザ用ユニット1
2a〜12cを含んで構成される。本実施の形態では、
一人のユーザ(対話参加者)に対して一つのユーザ用ユ
ニット12が一意的に与えられる。各ユーザ用ユニット
12a〜12cは、後述するビーム通信機能を用いて、
他のユーザ用ユニット12とデータを送受信することが
できる。また、ビーム通信機能を有するストレージ16
にデータを保存する、あるいは、ストレージ16からデ
ータを取り出すことができる。また、ビーム通信機能を
有するプリンタ14へデータを送り、データを印刷する
ことができる。
FIG. 1 is a diagram showing a configuration of a dialog recording system according to an embodiment of the present invention. As shown in the figure,
The dialog recording system 10 includes a plurality of user units 1.
2a to 12c. In the present embodiment,
One user unit 12 is uniquely given to one user (dialogue participant). Each of the user units 12a to 12c uses a beam communication function described later,
Data can be transmitted / received to / from another user unit 12. The storage 16 having a beam communication function
Or the data can be retrieved from the storage 16. Further, data can be sent to the printer 14 having the beam communication function, and the data can be printed.

【0021】以下、ユーザ用ユニット12を構成する各
機能部について説明する。
Hereinafter, the respective functional units constituting the user unit 12 will be described.

【0022】(1)日時データ生成部 日時データ生成部44は、他の機能部にその時点におけ
る日時データを渡す機能を持つ。日時データは、199
8.12.6.17.25.13.335のように、年
・月・日・時・分・秒・ミリ秒で構成されている。な
お、本機能部は時計を内蔵しており、その時刻合わせは
後述するコマンド入力部を用いて行う。
(1) Date / Time Data Generation Unit The date / time data generation unit 44 has a function of passing date / time data at that time to another function unit. The date and time data is 199
It is composed of year, month, day, hour, minute, second, and millisecond as in 8.12.6.17.25.13.335. The function unit has a built-in clock, and the time is adjusted using a command input unit described later.

【0023】(2)識別番号記憶部 識別番号記憶部22は、ユーザ用ユニット12に一意に
与えられた識別番号を記憶する機能を持つ。識別番号記
憶部22に記憶された識別番号は、後述する通信制御部
20が他のユーザ用ユニット12との通信をする際に用
いられる。
(2) Identification Number Storage Unit The identification number storage unit 22 has a function of storing an identification number uniquely given to the user unit 12. The identification number stored in the identification number storage unit 22 is used when the communication control unit 20 described later communicates with another user unit 12.

【0024】(3)ビーム通信制御部 ビーム通信制御部20は、他のユーザ用ユニット12の
ビーム通信制御部20と連携して、ユーザ用ユニット1
2間のビーム通信を実現する機能を持つ。ビーム通信の
開始は、後述するコマンド入力部を用いた指示に従う。
(3) Beam Communication Control Unit The beam communication control unit 20 cooperates with the beam communication control unit 20 of the other user unit 12 to operate the user unit 1
It has a function to realize beam communication between the two. The start of beam communication follows an instruction using a command input unit described later.

【0025】(4)ビーム受発光部 ビーム受発光部18は、前記ビーム通信制御部の制御に
応じて、ビームを受光または発光する機能を有する。本
実施の形態では、通信内容が他人に届くのを防ぐため
に、ビームが届く範囲(受発光部間の距離と相対角度)
を小さくしている。
(4) Beam receiving / emitting unit The beam receiving / emitting unit 18 has a function of receiving or emitting a beam according to the control of the beam communication control unit. In this embodiment, in order to prevent communication contents from reaching another person, a range where a beam reaches (distance and relative angle between light receiving and emitting units)
Is smaller.

【0026】(5)UI制御部 UI制御部26は、後述する他の機能部と連携して、後
述するコマンド入力部24と情報表示部28とを用いて
ユーザとのインタラクションを行う機能を持つ。
(5) UI Control Unit The UI control unit 26 has a function of interacting with a user using a command input unit 24 and an information display unit 28 described later in cooperation with other function units described later. .

【0027】(6)情報表示部 情報表示部28は、ユーザへ情報を表示するための機能
を持つ。
(6) Information Display Unit The information display unit 28 has a function for displaying information to the user.

【0028】(7)コマンド入力部 コマンド入力部24は、ユーザがコマンドを入力するた
めの機能を持つ。具体的には、次の5つのボタンが用意
されている。
(7) Command Input Unit The command input unit 24 has a function for a user to input a command. Specifically, the following five buttons are prepared.

【0029】「メニュー」ボタン:ユーザが操作メニュ
ーの表示/非表示を切り替えるために用いる。操作メニ
ュー項目には、a)個人情報の登録、b)音声特徴の登
録、c)データ送信、d)データ受信、e)データ削
除、f)データにコメント、g)マイク音量調整、h)
時刻合わせ、という7つのトップレベルメニューがあ
り、各項目で詳細を決めるためのサブメニューがある。
"Menu" button: Used by the user to switch between displaying and hiding the operation menu. The operation menu items include a) registration of personal information, b) registration of voice characteristics, c) data transmission, d) data reception, e) data deletion, f) comment on data, g) microphone volume adjustment, h)
There are seven top-level menus for setting the time, and a submenu for determining details for each item.

【0030】「+」ボタン:リスト中で次の選択肢を選
ぶ、あるいは、数値を上げるなど、正方向に値を変化さ
せるために用いる。
"+" Button: Used to change the value in the positive direction, such as selecting the next option in the list or increasing the numerical value.

【0031】「−」ボタン:リスト中で前の選択肢を選
ぶ、あるいは、数値を下げるなど、負方向に値を変化さ
せるために用いる。
"-" Button: Used to change the value in the negative direction, such as selecting the previous option in the list or decreasing the numerical value.

【0032】「○」ボタン:その選択肢を選ぶ、あるい
は、確認メッセージに「はい」で答えるなど、各種の決
定に用いる。
"O" button: Used for various decisions, such as selecting an option or answering a confirmation message with "Yes".

【0033】「×」ボタン:サブメニューから上位メニ
ューへ戻る、あるいは、確認メッセージに「いいえ」で
答えるなど、各種のキャンセルに用いる。
"X" button: Used for various cancellations, such as returning from a submenu to a higher-level menu or answering a confirmation message with "No".

【0034】ユーザ用ユニット12間でデータを送受信
する際は、まず受信側のユーザ用ユニット12で「デー
タ受信」を選択して受信待ち状態にした後、送信側のユ
ーザ用ユニット12で「データ送信」を選択してデータ
を送信する。なおデータを送信する際は、送信者を特定
するため、送信側のユーザ用ユニット12の前記識別番
号と、後述するユーザ個人情報管理部32に記憶された
送信側ユーザの氏名と、が送信対象たるデータとともに
送信される。
When transmitting and receiving data between the user units 12, first, the user unit 12 on the receiving side selects "data reception" and waits for reception. Select "Send" to send the data. When transmitting data, in order to identify the sender, the identification number of the user unit 12 on the transmitting side and the name of the transmitting user stored in the user personal information management unit 32 described below are transmitted. Sent together with the barrel data.

【0035】(8)音声入力部 音声入力部42はマイクを含んで構成されており、ユー
ザの音声を入力するための機能を持つ。音声入力のため
のマイクは、ユーザの声以外の音を拾わないよう、強い
指向性を持っている。ユーザは、前記操作メニューのマ
イク音量調整を用いて、ユーザの声だけが認識できるよ
うにマイクの装着位置を調整できる。
(8) Voice Input Unit The voice input unit 42 includes a microphone and has a function for inputting a user's voice. The microphone for voice input has strong directivity so as not to pick up sounds other than the voice of the user. The user can use the microphone volume adjustment in the operation menu to adjust the microphone mounting position so that only the user's voice can be recognized.

【0036】(9)音声認識部 音声認識部40は、前記音声入力部42で入力されたユ
ーザの音声を、テキストデータに変換する機能を持つ。
音声認識部40では、認識の精度を高めるために、いく
つかの例をユーザに予め発声してもらい、周波数分布や
音量変化などユーザ固有の音声の特徴を登録することが
できる。この登録の実行は、前記操作メニューから「音
声特徴の登録」が選択されることで行われる。
(9) Voice Recognition Unit The voice recognition unit 40 has a function of converting the user's voice input by the voice input unit 42 into text data.
In order to improve the accuracy of the recognition, the voice recognition unit 40 can have the user utter some examples in advance and register the characteristics of the voice unique to the user, such as frequency distribution and volume change. This registration is performed by selecting “Registration of voice feature” from the operation menu.

【0037】(10)ユーザ個人情報管理部 ユーザ個人情報管理部32は、ユーザの氏名、所属、連
絡先など、ユーザの個人情報を管理する機能を持つ。ユ
ーザ個人情報管理部32で管理されるデータは、通信時
の確認や、対話データの生成などに利用される。
(10) User Personal Information Management Unit The user personal information management unit 32 has a function of managing user personal information such as the user's name, affiliation, and contact information. Data managed by the user personal information management unit 32 is used for confirmation during communication, generation of conversation data, and the like.

【0038】ここで管理されるデータは、前記音声入力
部42と音声認識部40を用いて入力される。具体的に
は、まず、前記操作メニューの「個人情報の登録」を選
択し、この後に表示されるサブメニューから「氏名」な
ど個々の項目を選択する。次に、前記音声入力部42に
向かって入力したいデータをユーザが話す。前記音声入
力部42から入力された音声は、前記音声認識部40に
よってテキストデータに変換され、前記情報表示部28
に前記テキストデータが表示される。ユーザは正しけれ
ば「○」ボタンを押して確定し、間違っていれば「×」
ボタンを押す。「○」ボタンが押された場合は、前記テ
キストデータが前記選択された項目の値としてユーザ個
人情報管理部32に記憶される。「×」ボタンが押され
た場合は認識結果を訂正するサブメニューが呼び出され
る。
The data managed here is input using the voice input unit 42 and the voice recognition unit 40. Specifically, first, "Register personal information" is selected from the operation menu, and individual items such as "Name" are selected from a submenu displayed thereafter. Next, the user speaks data to be input to the voice input unit 42. The voice input from the voice input unit 42 is converted into text data by the voice recognition unit 40, and is converted into text data.
Displays the text data. If the user is correct, press the “○” button to confirm, if incorrect, “X”
I press the button. When the “○” button is pressed, the text data is stored in the user personal information management unit 32 as the value of the selected item. When the "x" button is pressed, a submenu for correcting the recognition result is called.

【0039】(11)ナレーションデータ生成部 ナレーションデータ生成部34は、ナレーションデータ
を生成する機能を有する。ナレーションデータは、本発
明に係る発言情報及び発声時間情報の一例であり、発話
の順序・時間・内容の組からなる順列データである。
(11) Narration Data Generation Unit The narration data generation unit 34 has a function of generating narration data. The narration data is an example of utterance information and utterance time information according to the present invention, and is permutation data including a set of utterance order, time, and content.

【0040】ナレーションデータの一例を図2に示す。
同図は、本対話記録システム10の二名のユーザ(ここ
ではユーザA,Bとする)の間で図3に示した対話が行
われた場合に、個々のユーザ用ユニット12で生成され
るナレーションデータを示している。図2(a)はユー
ザAのナレーションデータであり、同図(b)はユーザ
Bのナレーションデータである。
FIG. 2 shows an example of the narration data.
FIG. 4 shows a narration generated by each user unit 12 when the dialog shown in FIG. 3 is performed between two users (here, users A and B) of the dialog recording system 10. Shows the data. FIG. 2A shows the narration data of the user A, and FIG. 2B shows the narration data of the user B.

【0041】すなわち、時間的に連続した発話は前記音
声認識部40で変換され、その変換結果であるテキスト
データまたは無声を示すヌル(null)値が同図の各
行右端欄に格納されている。各行中央欄には、同じ行の
発言(又は無声)に要した時間(本実施の形態では秒を
単位とし、1/100秒までを有効桁とする)が格納さ
れている。時間計測は、前記音声入力部42で入力され
る音声を計測対象とし、前記日時データ生成部44が生
成する時刻データを用いて計測される。また、各行左端
欄には、同行右端欄に格納された発言(又は無声)の順
が格納される。
That is, utterances that are temporally continuous are converted by the voice recognition unit 40, and the converted text data or a null value indicating silence is stored in the right end column of each row in FIG. In the center column of each line, the time required for the utterance (or silence) of the same line is stored (in the present embodiment, the unit is seconds and the effective digit is 1/100 second). The time is measured using the voice input by the voice input unit 42 as a measurement target, and is measured using time data generated by the date and time data generating unit 44. Also, the order of the utterance (or unvoiced) stored in the right end column of the same line is stored in the left end column of each line.

【0042】同図に示すナレーションデータを生成する
際に行われる、発話が時間的に連続しているかどうかの
判定(別発言として次行にデータを格納すべきか否かの
判定)は、ユーザの声が途切れた時間が一定の時間(例
えば0.2秒)を越えるかどうかによって行われる。ま
た、ある発話から一定の時間(本実施の形態では150
秒)無声だった場合は、それまでの発話を一つのナレー
ションデータとして、後述するナレーションデータ記憶
部30に記憶させる。
The determination of whether or not utterances are temporally continuous (determination of whether or not data should be stored in the next line as another utterance), which is performed when generating the narration data shown in FIG. This is performed depending on whether or not the time during which the voice is interrupted exceeds a certain time (for example, 0.2 seconds). In addition, a certain period of time from a certain utterance (150 in this embodiment)
(Second) If the user is unvoiced, the previous utterance is stored as one narration data in a narration data storage unit 30 described later.

【0043】なお、後述するようにナレーションデータ
の中央欄に記録される「時間」は各ユーザの発言を組み
合わせて対話データを生成する際に用いられるものであ
り、種々の変形実施が可能である。例えば、各発言毎に
発言開始時刻又は発言終了時刻を記憶するようにもでき
る。
As will be described later, "time" recorded in the center column of the narration data is used when generating dialogue data by combining the statements of each user, and various modifications can be made. . For example, the speech start time or the speech end time can be stored for each speech.

【0044】(12)ナレーションデータ記憶部 ナレーションデータ記憶部30は、前記ナレーションデ
ータ生成部34で生成されたナレーションデータを、記
憶された時点の日時データとコメントとともに記憶する
機能を持つ。前記日時データと前記コメントは、ナレー
ションデータ記憶部30に記憶されたナレーションデー
タへの操作をする際に前記情報表示部28に表示され、
ナレーションデータの内容をユーザが想起する助けとな
る。なお、前記コメントは、ユーザが前記操作メニュー
の「データにコメント」を選択してコメントを話すこと
で、前記音声認識部40を介してテキストデータとして
入力される。
(12) Narration Data Storage Unit The narration data storage unit 30 has a function of storing the narration data generated by the narration data generation unit 34 together with the date and time data and the comment at the time of storage. The date and time data and the comment are displayed on the information display unit 28 when operating on the narration data stored in the narration data storage unit 30,
Helps the user to recall the contents of the narration data. The comment is input as text data via the voice recognition unit 40 when the user selects “comment to data” in the operation menu and speaks the comment.

【0045】ナレーションデータ記憶部30で記憶され
たデータは、後述する対話データの生成に用いられる。
また、前記操作メニューの「データ送信」指示に応じ
て、ナレーションデータ記憶部30で記憶されるデータ
は他のユーザ用ユニット12、あるいはストレージ16
やプリンタ14に送信される。また、前記操作メニュー
の「データ削除」指示に応じて、ナレーションデータ記
憶部30で記憶されるデータは削除される。
The data stored in the narration data storage unit 30 is used for generating interactive data described later.
Further, in response to the “data transmission” instruction of the operation menu, the data stored in the narration data storage unit 30 is stored in another user unit 12 or storage 16.
And the printer 14. Further, the data stored in the narration data storage unit 30 is deleted in response to the “data deletion” instruction in the operation menu.

【0046】(13)対話データ生成部 対話データ生成部36は、対話データを生成する機能を
有する。対話データは、図4に一例を示すように、異な
るユーザ(全ての対話参加者)のナレーションデータの
内容を、その発話順にしたがって組み合わせたものであ
る。
(13) Dialogue Data Generator The dialogue data generator 36 has a function of generating dialogue data. As shown in an example in FIG. 4, the conversation data is obtained by combining the contents of narration data of different users (all conversation participants) according to their utterance order.

【0047】対話データ生成の原則的アルゴリズムは、
対話においては一人が話しているときは他の人は黙って
いることが多いので、ある人の発話部分が他の人の無声
部分に時間的に収まる箇所を見つけて組み合わす、とい
うものである。例えば、ユーザAの発声時間帯が図5
(a)に示すようにa1,a2,a3であり、ユーザB
の発声時間帯が同図(b)に示すようにb1,b2であ
り、さらにユーザCの発声時間帯が同図(c)に示すよ
うにc1,c2,c3である場合には、同図(d)に示
すようにして各ユーザの発言時間帯の相対的位置が決定
される。すなわち、対話データ生成部36では、いずれ
かのユーザが発声している最中に他のユーザが発声して
いるという状態が出来るだけ生じないよう、各ユーザの
発声時間帯を相対的に前後させる。具体的には、異なる
ユーザのナレーションデータ中で、内容がテキスト(文
字列情報)である組の時間の値と、内容がヌル値である
組の時間の値とを比較し、組み合わせ方を見つけだす。
その後、ユーザの全発言を時間順で抽出し、それを元に
対話データを生成する。図6は、図5に示す発言時間帯
に各ユーザが発言し、対話がなされた場合に、対話デー
タ生成部36で生成される対話データを示す図である。
The principle algorithm for generating interactive data is:
In a conversation, when one person is talking, the other person is often silent, so we find and combine places where one person's speech part fits in the other person's silent part in time. . For example, the utterance time zone of the user A is shown in FIG.
As shown in (a), it is a1, a2, a3, and the user B
In the case where the utterance time period of b is b1 and b2 as shown in FIG. 3B and the utterance time period of user C is c1, c2 and c3 as shown in FIG. As shown in (d), the relative position of each user's speaking time zone is determined. In other words, the conversation data generation unit 36 relatively moves the uttering time period of each user forward and backward so that a state in which another user is uttering while one user is uttering is not generated as much as possible. . Specifically, in the narration data of different users, the time value of a set whose content is text (character string information) is compared with the time value of a set whose content is a null value to find out a combination method. .
After that, all the utterances of the user are extracted in chronological order, and conversation data is generated based on the extracted utterances. FIG. 6 is a diagram illustrating the dialog data generated by the dialog data generating unit 36 when each user speaks during the speaking time period illustrated in FIG. 5 and a dialog is performed.

【0048】また、対話において、ある人が話していて
も別の人が話す場合もある。この場合として、相手の話
を促す相づち(「ええ」など)や感動表現(「おー」
「なるほど」など)、あるいは自分が話したいことを示
す割り込み表現(「ええと」「ちょっと」「あのお」な
ど)がある。前記組み合わせを見つける際に、そのよう
な発話は無視することで、組み合わせ方を見つけやすく
する。これは上記原則的アルゴリズムの例外をなす。本
実施の形態では、そのような発話は内容がヌル値である
として、その前後のヌル値のものと時間を加算したデー
タ(これを「縮退データ」と呼ぶ)を用いて組み合わせ
方を見つけだす。図7に、一例として、図2のナレーシ
ョンデータの縮退データを示す。
In a dialogue, there is a case where one person speaks and another person speaks. In this case, it may be a combination that encourages the other party's talk (such as “Eh”) or an emotional expression (“Oh”
There is an interrupt expression ("uh,""slightly,""oh," etc.) that indicates what you want to talk about. In finding the combination, ignoring such utterances makes it easier to find the combination. This is an exception to the principle algorithm described above. In the present embodiment, it is assumed that the content of such an utterance is a null value, and a combination method is found using data obtained by adding time to the null value before and after the utterance (this is called “degenerate data”). FIG. 7 shows, as an example, degenerated data of the narration data of FIG.

【0049】さらに、組み合わせ方を見つける際に発話
の時間と無声部分の時間だけでは組み合わせ方が一意に
決まらない場合がある。例えば、図7に示すデータで
は、ユーザAの順序4の無声部分にユーザBの順序1の
発話部分が入る組み合わせと、ユーザAの順序6−8の
無声部分にユーザBの順序1の発話部分が入る組み合わ
せという、2つの組み合わせが考えられる。この場合に
は、発話の内容から1)相手に対する挨拶・呼びかけ
(「おはようございます」「**さん」など)とその応
答、2)相手に対する質問・疑問(「ちょっといいです
か」「そこなんですが」など)とその応答、3)相手に
対する確認(「これでよろしいでしょうか」「どうでし
ょう」など)とその応答を見つけだす。具体的には、対
話データ生成部36では、時間的に近接して発言される
と考えられる一対のキーワードの各々をそれぞれ第1キ
ーワード、第2キーワードとし、それらを予めメモリに
保持するようにしている。
Further, when finding the combination, the combination may not be uniquely determined only by the time of the utterance and the time of the unvoiced portion. For example, in the data shown in FIG. There are two combinations that can be entered. In this case, from the content of the utterance, 1) greeting / call to the other party ("Good morning" or "**" etc.) and the response, and 2) Questions / questions to the other party ("Are you good?" 3) Check with the other party (eg, "Is this OK?""Howabout?") And find the response. Specifically, the conversation data generation unit 36 sets a pair of keywords that are considered to be uttered in close proximity to each other as a first keyword and a second keyword, respectively, and stores them in a memory in advance. I have.

【0050】図7に示す縮退データでは、2つのナレー
ションデータのそれぞれに「こんにちは」という挨拶が
あり、それらは時間的に近接しているはずである。した
がって、これらの組み合わせ方として、ユーザAの順序
4の無声部分にユーザBの順序1の発話部分が入る組み
合わせの方が適切である。このように、発話時間と前記
3つの内容的特徴とを用いることで、組み合わせ方を見
つけることができる。
[0050] in a degraded data shown in FIG. 7, in each of the two narration data there is a greeting of "Hello", they should have close temporal proximity. Therefore, a combination in which the unvoiced part of the order 4 of the user A includes the utterance part of the order 1 of the user B is more appropriate as the combination method. As described above, a combination method can be found by using the utterance time and the three content characteristics.

【0051】図8に対話データ生成部36における処理
の流れを示す。対話データ生成部36の処理は、前記操
作メニューでデータ受信を選択し、他のユーザ用ユニッ
トから他のユーザのナレーションデータを受信したとき
に起動される(S101)。S102では、前記情報表
示部28にナレーションデータ選択用のリストが表示さ
れ、ユーザに選択を促す。ユーザによる選択がなされた
後、前記受信したナレーションデータおよび前記選択さ
れたナレーションデータの縮退データを生成し(S10
3)、これに基づいて前記ナレーションデータの組み合
わせ方を決定する(S104)。そして、前記決定に従
って、前記ナレーションデータの内容を転記して対話デ
ータを生成する(S105)。ここで、同時に発話され
ている内容は、時間的に先に発話されたものを対話デー
タ中で前に配置し、その発話の後ろに後で発話された内
容を配置する。また、この生成の際に、誰の発話かわか
るように、発話内容に応じてユーザ名を対話データに付
け加える。次に、対話データ中で同じ人が連続して発話
している部分があれば、これを一つにまとめる(S10
6,図9参照)。最後に、前記対話データを次に説明す
るする対話データ記憶部38へ記憶させる(S10
7)。
FIG. 8 shows the flow of processing in the interactive data generation unit 36. The process of the interactive data generation unit 36 is started when data reception is selected from the operation menu and narration data of another user is received from another user unit (S101). In S102, a list for selecting narration data is displayed on the information display unit 28, and prompts the user to make a selection. After the selection is made by the user, the received narration data and the degenerated data of the selected narration data are generated (S10).
3) Based on this, the way of combining the narration data is determined (S104). Then, in accordance with the determination, the contents of the narration data are transcribed to generate interactive data (S105). Here, as for the contents uttered at the same time, the contents uttered earlier in time are arranged before in the conversation data, and the contents uttered later are arranged after the utterance. At the time of this generation, a user name is added to the conversation data according to the content of the utterance so that the utterance can be understood. Next, if there is a portion where the same person continuously speaks in the conversation data, these are combined into one (S10).
6, FIG. 9). Finally, the dialog data is stored in a dialog data storage unit 38 described below (S10).
7).

【0052】(14)対話データ記憶部 対話データ記憶部38は、対話データ生成部36で生成
された対話データを、記憶された時点の日時データとコ
メントとともに記憶する機能を持つ。対話データ記憶部
38が提供する機能は、前記ナレーションデータ記憶部
30と同様である。
(14) Dialogue Data Storage Unit The dialogue data storage unit 38 has a function of storing the dialogue data generated by the dialogue data generator 36 together with the date and time data and comments at the time of storage. The functions provided by the conversation data storage unit 38 are the same as those of the narration data storage unit 30.

【0053】以上説明した対話記録システム10によれ
ば、各ユーザが携帯するユーザ用ユニット12に個別に
発話データを記録しておき、後からユーザ用ユニット1
2間で発話データを交換すると、少なくとも一つのユー
ザ用ユニット12にて自動的に発話データを組み合わせ
て対話データを生成できるようになる。
According to the dialog recording system 10 described above, the utterance data is individually recorded in the user unit 12 carried by each user, and the user unit 1 is later recorded.
When the utterance data is exchanged between the two, the at least one user unit 12 can automatically combine the utterance data to generate conversation data.

【0054】この結果、個人の発言は一次的にはその人
が持つユーザ用ユニット12にだけ記録されるようにで
き、その人が同意したときのみ、他の人に発話データを
渡して対話データを生成することができる。したがっ
て、対話後に参加者が合意した場合にだけ、対話記録が
生成され、合意されない場合には対話記録はどこにも存
在しない、という記録の開示コントロールが可能にな
る。
As a result, the utterance of the individual can be primarily recorded only in the user unit 12 owned by the person, and only when the person agrees, the utterance data is passed to another person and the conversation data is transmitted. Can be generated. Therefore, a record of the dialogue is generated only when the participants agree upon the dialogue after the dialogue, and the record disclosure control that the dialogue record does not exist anywhere otherwise is possible.

【0055】また上記対話記録システム10では、ユー
ザの対話中、各ユーザ用ユニット12がデータを送受信
したり同期をとったりする必要が全くない。したがっ
て、ネットワーク接続不能な場所や、音響や電波状況の
悪い場所や、マイクセッティングが物理的に困難な場所
でも、従来技術に比べてはるかに容易に対話の記録を取
ることができ、同じ品質の記録を取るために必要な機材
の準備及び操作又は運営にかかるコスト、並びに対話内
容の編集にかかるコストを大幅に下げられる。
In the dialog recording system 10, there is no need for each user unit 12 to transmit / receive data or synchronize during a user's dialog. Therefore, even in places where network connection is not possible, in places with poor acoustic or radio wave conditions, or where it is physically difficult to set microphones, it is possible to record conversations much more easily than in the conventional technology, and to achieve the same quality. The cost of preparing and operating or operating the equipment required to keep a record, and the cost of editing the dialogue can be greatly reduced.

【0056】なお、以上の対話記録システム10は種々
の変形実施が可能である。
The above-described dialog recording system 10 can be variously modified.

【0057】たとえば、以上説明した対話記録システム
10では他のユーザ用ユニット12との通信はビームに
よって平文で行っていたが、この通信をファイルを暗号
化し、電波によって通信するようにしてもよい。電波を
使うことで、ユーザ用ユニット12の位置や向きの制約
がビームに比べて大幅に緩和される。また、暗号化され
ていることで電波の範囲内の他者がファイルを受信した
としても、他者は暗号化されたファイルを展開できない
ので、他人が対話記録を見ることを防ぐことができる。
For example, in the dialog recording system 10 described above, communication with the other user units 12 is performed in plain text by using a beam. However, this communication may be performed by encrypting a file and communicating by radio waves. By using radio waves, restrictions on the position and orientation of the user unit 12 are greatly eased as compared with beams. Further, even if another person within the range of the radio wave receives the file due to the encryption, the other person cannot develop the encrypted file, so that the other person can be prevented from viewing the conversation record.

【0058】また、以上の対話記録システム10では、
各ユーザの発言内容を一旦テキストデータに変換してナ
レーションデータの形式に変換したが、元の音声情報の
まま処理を進めるようにしてもよい。また、以上の説明
では対話データをテキスト形式で生成するようにした
が、対話データを音声情報により構成するようにしても
よい。この場合、例えば対話の組合せ自体はテキスト形
式のナレーションデータに基づいて行い、その組合せに
従って各ユーザの音声を編集し、対話データを生成すれ
ばよい。
In the above dialogue recording system 10,
Although the content of each user's remark is once converted into text data and converted into the form of narration data, the process may proceed with the original voice information. In the above description, the dialog data is generated in a text format. However, the dialog data may be configured by voice information. In this case, for example, the combination of the conversations may be performed based on the narration data in the text format, and the voice of each user may be edited according to the combination to generate the conversation data.

【0059】さらに、以上の対話記録システム10では
実際にユーザ間でなされた対話のうち発言内容だけを対
話記録に残すようにしたが、各ユーザ用ユニット12に
CCDカメラ等を設けておき、対話データに各ユーザの
表情などの画像(例えば動画像)を関連づけるようにし
てもよい。
Further, in the above dialogue recording system 10, only the contents of remarks among the dialogues actually performed between the users are recorded in the dialogue record. An image (for example, a moving image) such as a facial expression of each user may be associated with the data.

【0060】また、以上説明した対話記録システム10
は、電子手帳やスマートフォンのような各ユーザが占有
する携帯可能な専用デバイスを用いる形態とすることが
できる。また、ミニノートPCやウエアラブルPCのよ
うな各ユーザが使用する可搬型汎用計算デバイスに上記
対話記録システム10の機能を実現するソフトウエアを
インストールし、またはそれを実現するハードウエアを
装着するようにしてもよい。
The dialog recording system 10 described above
Can use a portable dedicated device occupied by each user, such as an electronic organizer or a smartphone. In addition, software for realizing the function of the dialog recording system 10 is installed in a portable general-purpose computing device used by each user such as a mini-notebook PC or a wearable PC, or hardware for realizing the function is installed. You may.

【0061】さらに、電子手帳やミニノートのような一
体型デバイスと、機能に応じて用意される複数ユニット
と、を含んで構成されるデバイスという形態を採用する
こともできる。この形態の一例としては、ヘッドセット
型ユニット(音声入力機能を持つ)と腕時計型ユニット
(ボタンによる入力と画面表示とビームによる通信機能
とを持つ)とベルト装着型ユニット(本発明に関わる演
算と記憶の機能を持つ)とを有線または無線でつなぐ形
態がある。また別の例として、眼鏡型ユニット(音声入
力と画面表示とビームによる通信機能とを持つ)とパッ
ド型ユニット(ボタンによる入力とを持つ)とホルスタ
ー装着型ユニット(本発明に関わる演算と記憶の機能を
持つ)とを有線または無線でつなぐ形態がある。
Further, a form of a device including an integrated device such as an electronic organizer or a mini-notebook and a plurality of units prepared according to functions may be adopted. Examples of this mode include a headset type unit (having a voice input function), a wristwatch type unit (having a button input, a screen display, and a beam communication function), and a belt-mounted type unit (computation related to the present invention. (Having a memory function) in a wired or wireless manner. As another example, an eyeglass-type unit (having voice input, screen display, and communication function using a beam), a pad-type unit (having input by a button), and a holster-mounted unit (calculation and storage related to the present invention) (Having a function).

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施の形態に係る対話記録システム
の構成を示す図である。
FIG. 1 is a diagram showing a configuration of a dialog recording system according to an embodiment of the present invention.

【図2】 ナレーションデータの一例を示す図である。FIG. 2 is a diagram showing an example of narration data.

【図3】 ユーザAとユーザBとの対話例を示す図であ
る。
FIG. 3 is a diagram illustrating an example of a dialogue between a user A and a user B;

【図4】 対話データの一例を示す図である。FIG. 4 is a diagram illustrating an example of conversation data.

【図5】 複数のナレーションデータの組合せ手順を説
明する図である。
FIG. 5 is a diagram illustrating a procedure for combining a plurality of narration data.

【図6】 図5に示される手順により生成される対話デ
ータを示す図である。
FIG. 6 is a diagram showing dialog data generated by the procedure shown in FIG.

【図7】 縮退データを示す図である。FIG. 7 is a diagram illustrating degenerated data.

【図8】 対話データ生成部の処理を説明するフロー図
である。
FIG. 8 is a flowchart illustrating processing of a conversation data generation unit.

【図9】 同一人にかかる発言を一行にまとめた対話デ
ータを示す図である。
FIG. 9 is a diagram showing dialog data in which remarks regarding the same person are put together in one line.

【符号の説明】[Explanation of symbols]

10 対話記録システム、12 ユーザ用ユニット、1
4 プリンタ、16ストレージ、18 ビーム受発光
部、20 ビーム通信制御部、22 識別番号記憶部、
24 コマンド入力部、26 UI制御部、28 情報
表示部、30ナレーションデータ記憶部、32 ユーザ
個人情報管理部、34 ナレーションタ生成部、36
対話データ生成部、38 対話データ記憶部、40 音
声認識部、42 音声入力部、44 日時データ生成
部。
10 dialogue recording system, 12 user unit, 1
4 printer, 16 storage, 18 beam receiving / emitting unit, 20 beam communication control unit, 22 identification number storage unit,
24 command input section, 26 UI control section, 28 information display section, 30 narration data storage section, 32 user personal information management section, 34 narrator generation section, 36
A dialogue data generator, 38 a dialogue data storage, 40 a voice recognizer, 42 a voice input unit, 44 a date and time data generator;

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 対話参加者毎に発言情報を記録する発言
情報記録手段と、 前記発言情報記録手段に記録される発言情報毎に発声時
間情報を生成する発声時間情報生成手段と、 前記発声時間情報に基づき、前記発言情報記録手段によ
り記録される発言情報から対話参加者間でなされた対話
情報を生成する対話情報生成手段と、 前記対話情報を記録する対話情報記録手段と、 を含むことを特徴とする対話記録システム。
1. utterance information recording means for recording utterance information for each dialogue participant; utterance time information generation means for generating utterance time information for each utterance information recorded in the utterance information recording means; Dialog information generating means for generating dialog information between dialog participants based on the utterance information recorded by the utterance information recording means, based on the information, and dialog information recording means for recording the dialog information. A featured dialogue recording system.
【請求項2】 請求項1に記載の対話記録システムにお
いて、 前記対話情報生成手段は、 所定第1キーワードを記憶する第1キーワード記憶手段
と、 前記第1キーワードに対応する第2キーワードを記憶す
る第2キーワード記憶手段と、を含み、 ある対話参加者の前記第1キーワードの発声時間と他の
対話参加者の前記第2キーワードの発声時間とが近接す
るよう前記対話情報を生成することを特徴とする対話記
録システム。
2. The dialogue recording system according to claim 1, wherein the dialogue information generation unit stores a first keyword storage unit that stores a predetermined first keyword, and stores a second keyword that corresponds to the first keyword. Second keyword storage means, wherein the dialog information is generated such that the utterance time of the first keyword of a certain dialog participant and the utterance time of the second keyword of another dialog participant are close to each other. And dialogue recording system.
【請求項3】 請求項2に記載の対話記録システムにお
いて、 前記第1キーワードは挨拶、呼びかけ、質問、疑問、又
は確認のいずれかを表し、前記第2キーワードはその応
答を表すことを特徴とする対話記録システム。
3. The dialogue recording system according to claim 2, wherein the first keyword represents one of a greeting, a call, a question, a question, and a confirmation, and the second keyword represents a response. Dialogue recording system.
【請求項4】 請求項1〜3のいずれかに記載の対話記
録システムにおいて、 前記対話情報生成手段は、 所定第3キーワードを記憶する第3キーワード記憶手段
を含み、 ある対話参加者の発声時間帯に他の対話参加者によって
前記第3キーワードが発声されうることを考慮して、前
記対話情報を生成することを特徴とする対話記録システ
ム。
4. The dialogue recording system according to claim 1, wherein said dialogue information generating means includes third keyword storage means for storing a predetermined third keyword, and a utterance time of a dialogue participant. A dialog recording system, wherein the dialog information is generated considering that the third keyword may be uttered by another dialog participant in a band.
【請求項5】 請求項4に記載の対話記録システムにお
いて、 前記第3キーワードは相づち、感動表現、又は割込表現
のいずれかを表すことを特徴とする対話記録システム。
5. The dialogue recording system according to claim 4, wherein said third keyword represents one of a joint expression, an emotional expression, and an interrupt expression.
【請求項6】 請求項1〜5のいずれかに記載の対話記
録システムにおいて、 前記対話情報生成手段は、対話参加者毎に発言情報を文
字列情報に変換し、それら文字列情報から前記対話情報
を生成することを特徴とする対話記録システム。
6. The dialogue recording system according to claim 1, wherein said dialogue information generating means converts utterance information into character string information for each dialogue participant, and converts the dialogue information from the character string information. A dialogue recording system for generating information.
【請求項7】 対話参加者毎に記録された発言情報か
ら、該発言情報毎の発声時間情報に基づき、対話参加者
間でなされた対話情報を生成し、該対話情報を記録する
ことを特徴とする対話記録合成装置。
7. A method for generating dialog information between dialog participants based on utterance time information for each utterance information from the utterance information recorded for each dialog participant, and recording the dialog information. Dialogue recording synthesizer.
【請求項8】 対話参加者毎に記録された発言情報か
ら、該発言情報毎の発声時間情報に基づき、対話参加者
間でなされた対話情報を生成し、該対話情報を記録する
ようコンピュータを動作させるためのプログラムを記録
した媒体。
8. A computer which generates, based on utterance information recorded for each dialogue participant, dialogue information between dialogue participants based on utterance time information for each utterance information, and records the dialogue information. A medium on which a program for operation is recorded.
JP11061092A 1999-03-09 1999-03-09 Interaction recording system and interaction recording synthesizer Pending JP2000259389A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11061092A JP2000259389A (en) 1999-03-09 1999-03-09 Interaction recording system and interaction recording synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11061092A JP2000259389A (en) 1999-03-09 1999-03-09 Interaction recording system and interaction recording synthesizer

Publications (1)

Publication Number Publication Date
JP2000259389A true JP2000259389A (en) 2000-09-22

Family

ID=13161104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11061092A Pending JP2000259389A (en) 1999-03-09 1999-03-09 Interaction recording system and interaction recording synthesizer

Country Status (1)

Country Link
JP (1) JP2000259389A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274345A (en) * 2002-03-14 2003-09-26 Ricoh Co Ltd Multimedia recording device, multimedia editing device, recording medium therefor, multimedia reproducing device, speech record generating device
JP2005237017A (en) * 2005-03-07 2005-09-02 Toshiba Corp Communication recording system
JP2007027918A (en) * 2005-07-13 2007-02-01 Sharp Corp Real world communication management apparatus
JP2010267143A (en) * 2009-05-15 2010-11-25 Fujitsu Ltd Robot device for collecting communication information
JP2013225003A (en) * 2012-04-20 2013-10-31 Nippon Telegr & Teleph Corp <Ntt> Voice data analyzing device, voice data analyzing method, and voice data analyzing program
JP2013225002A (en) * 2012-04-20 2013-10-31 Nippon Telegr & Teleph Corp <Ntt> Data analyzing device, data analyzing method, and data analyzing program
WO2023095629A1 (en) * 2021-11-29 2023-06-01 株式会社日立ソリューションズ Conversation management device, conversation management system, and conversation management method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274345A (en) * 2002-03-14 2003-09-26 Ricoh Co Ltd Multimedia recording device, multimedia editing device, recording medium therefor, multimedia reproducing device, speech record generating device
JP4662228B2 (en) * 2002-03-14 2011-03-30 株式会社リコー Multimedia recording device and message recording device
JP2005237017A (en) * 2005-03-07 2005-09-02 Toshiba Corp Communication recording system
JP2007027918A (en) * 2005-07-13 2007-02-01 Sharp Corp Real world communication management apparatus
JP2010267143A (en) * 2009-05-15 2010-11-25 Fujitsu Ltd Robot device for collecting communication information
JP2013225003A (en) * 2012-04-20 2013-10-31 Nippon Telegr & Teleph Corp <Ntt> Voice data analyzing device, voice data analyzing method, and voice data analyzing program
JP2013225002A (en) * 2012-04-20 2013-10-31 Nippon Telegr & Teleph Corp <Ntt> Data analyzing device, data analyzing method, and data analyzing program
WO2023095629A1 (en) * 2021-11-29 2023-06-01 株式会社日立ソリューションズ Conversation management device, conversation management system, and conversation management method

Similar Documents

Publication Publication Date Title
US5995590A (en) Method and apparatus for a communication device for use by a hearing impaired/mute or deaf person or in silent environments
US8285257B2 (en) Emotion recognition message system, mobile communication terminal therefor and message storage server therefor
CN108337380B (en) Automatically adjusting user interface for hands-free interaction
US20150348538A1 (en) Speech summary and action item generation
JP4364251B2 (en) Apparatus, method and program for detecting dialog
KR20140022824A (en) Audio-interactive message exchange
JPWO2019111346A1 (en) Two-way speech translation system, two-way speech translation method and program
US20220231873A1 (en) System for facilitating comprehensive multilingual virtual or real-time meeting with real-time translation
JP2010541481A (en) Active in-use search via mobile device
CN112860877A (en) Customer service operation processing method and device, electronic equipment and storage medium
JP4729171B2 (en) Electronic book apparatus and audio reproduction system
JP2010034695A (en) Voice response device and method
US8892173B2 (en) Mobile electronic device and sound control system
JP2000259389A (en) Interaction recording system and interaction recording synthesizer
JP2020113150A (en) Voice translation interactive system
JP4168539B2 (en) Dialog information distribution system and dialog information distribution apparatus
JP2002057752A (en) Portable terminal
Sawhney Contextual awareness, messaging and communication in nomadic audio environments
JP6730651B1 (en) Voice conversion device, voice conversion system and program
JP2007259427A (en) Mobile terminal unit
CN111179943A (en) Conversation auxiliary equipment and method for acquiring information
JP4232453B2 (en) Call voice text conversion system
JP2002041279A (en) Agent message system
JPH10161518A (en) Terminal device and host device used for vocal practice training equipment and vocal practice training system
JP6596913B2 (en) Schedule creation device, schedule creation method, program