JP4069207B2 - Communication equipment - Google Patents

Communication equipment Download PDF

Info

Publication number
JP4069207B2
JP4069207B2 JP2005052041A JP2005052041A JP4069207B2 JP 4069207 B2 JP4069207 B2 JP 4069207B2 JP 2005052041 A JP2005052041 A JP 2005052041A JP 2005052041 A JP2005052041 A JP 2005052041A JP 4069207 B2 JP4069207 B2 JP 4069207B2
Authority
JP
Japan
Prior art keywords
client terminal
data
face
audio data
means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005052041A
Other languages
Japanese (ja)
Other versions
JP2006236149A (en
Inventor
加奈代 小倉
一志 西本
Original Assignee
国立大学法人北陸先端科学技術大学院大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人北陸先端科学技術大学院大学 filed Critical 国立大学法人北陸先端科学技術大学院大学
Priority to JP2005052041A priority Critical patent/JP4069207B2/en
Publication of JP2006236149A publication Critical patent/JP2006236149A/en
Application granted granted Critical
Publication of JP4069207B2 publication Critical patent/JP4069207B2/en
Application status is Active legal-status Critical
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数ユーザのクライアント端末に対して受信した音声データを提供することにより音声によるコミュニケーションを支援するコミュニケーション装置に関する。 The present invention relates to a communication apparatus for supporting communication by voice by providing a voice data received for multiple users of the client terminals.

インターネット環境が普及した現在、電子メールや電子掲示板、チャットのような非対面型のテキストをベースとしたコミュニケーションが日常的に利用されている。 Now that the Internet environment has spread, e-mail and electronic bulletin board, communication of the non-face-to-face text-based, such as chat are routinely used. 中でもテキストチャットは逐次やりとりをするという点で対面対話に通じる点がある。 Among them, text chat there is a point that leads to face-to-face interaction in terms of the sequential exchange. また一方で、「マルチスレッド対話」が容易に可能であるという対面対話にはない利点を持っている。 On the other hand, has the advantage not to face conversation as "multithreading dialogue" is easily possible. ここで、マルチスレッド対話とは、会話空間で同時並行的に複数の話題についての対話が進行し、しかもある一人の参加者が同時に複数の話題に参加しているような対話である。 Here, the multi-threaded dialogue, dialogue proceeds of the concurrently multiple topics in a conversation space, yet there is one of the participants is a dialogue, such as participating in multiple topics at the same time. 対面対話でも、多人数が集まれば、同じ場で複数話題が同時に展開されることはあるが、これは話題に基づく集団の単なる分割にすぎないため、マルチスレッド対話とは見なさない。 Facing in conversation, get together is multiplayer, there is a plurality topics are deployed simultaneously in the same spot, but this is because merely dividing the population based on the topic, not considered to be multi-threaded conversation.

日常の対面対話では、一定時間は、対話参加者全員が単一の話題を共有し、しかもその話題についての発話を行う必要があり、話者は一人だけであることが求められる(同期性の制約)。 In the day-to-day face-to-face dialogue, a certain period of time, interactive all participants share a single topic, yet it is necessary to perform a speech about the topic, it is required that the speaker is only one person (of synchronicity constraints). そのため、対面対話は非効率的に進行していると言える。 Therefore, face-to-face interaction is said to be progressive inefficiently. また、この結果、今交わされている話題とは別のことを思いついても、すぐに発話することができず、思いついた内容そのものを忘れてしまうことがしばしば起こる。 In addition, as a result, even came up with that of another is a topic that has been exchanged now, as soon as it is not possible to speak, that forget came up content itself often occur.

また、対話参加者の位置関係の影響の有無という点でもテキストチャットと対面対話では大きな違いがある。 In addition, there is a big difference in also in terms of the presence or absence of the influence of the positional relationship between the dialogue participants and text chat face-to-face dialogue. 対面対話の場合、特に会議や会食のような多人数で1つの場を共有する状況では、最初についた座席の位置関係によって会話を交わしやすい人、そうでない人の区分が決定する(近接性の制約)。 In the case of face-to-face dialogue, in a situation in which especially to share a single place in the multiplayer such as meetings and dinner, first with the position exchanged easily person the conversation by the relationship of the seat, of those who do not classification is determined (of proximity constraints). 自分の座席から離れている人と話をするためには、座席を移動するか、大声で相手に呼びかける必要がある。 In order to talk to people who are away from your seat, move the seat, it is necessary to call to the other party in a loud voice. 前者の場合は、会話そのものを中断させ、後者の場合は、呼びかけた相手の会話を遮ることになり、どちらの場合も、会話進行の大きな妨げになる。 In the former case, to interrupt the conversation itself, in the latter case, it would be to block the conversation calling other party, in both cases, a big obstacle to progress conversation.

これに対して、テキストチャット対話では、このような制約が無いため,思いついたことや過去の任意の発話に関連する内容をいつでも発言順序を気にせず発言可能となる。 In contrast, in the text chat dialogue, and for this reason such a restriction is not, it is possible to speak without the content related to come up with things and the past of any of the utterance to worry about the remark order at any time. つまり、マルチスレッド対話を行うことが可能となるため、対話が効率化される。 In other words, it becomes possible to perform multi-threaded conversation, conversation is efficient. また、テキストチャット対話では、発言履歴が会話空間であり、発言履歴に表示される参加者個々のログイン名が参加者の分身であると言える。 In addition, the text in the chat dialogue, a message log the conversation space, participants individual login name to be displayed on the message log can be said to be the alter ego of the participants. ここでは単に誰が参加しているのかという存在情報のみが意味を持ち、参加者の位置関係という概念そのものが存在しない。 Here, only the presence information of whether simply who is participating has to have a meaning, there is no concept itself that the positional relationship between the participants. そのため、対面対話とは異なり参加者の位置関係を気にせずに発言することが可能である。 Therefore, it is possible to speak without having to worry about the positional relationship between the participants Unlike face-to-face dialogue. ゆえに、たとえば企画会議などにおいてアイディアをもれなく収集するような際に非常に有効である。 Therefore, it is very effective at the time, such as to collect without exception the ideas in, for example, planning meetings.

しかし、テキスト対話では文字入力のわずらわしさのために、思うような発言を十分に行うことが難しい。 However, because of the hassle of character input in the text dialogue, it is difficult to perform sufficiently to speak, such as think. このため、音声対話によりコミュニケーションを支援する装置、特に、音声対話によるマルチスレッド対話を実現可能な装置が求められる。 Therefore, a device to support the communication by voice dialogue, in particular, multi-threaded conversation can provide the device is determined by the speech dialogue.

音声データによりコミュニケーションを支援する装置として、下記非特許文献1には、空間的位置関係にかかわらず、音声認識を用いて同一スレッドに属する話者の発話音声がより明確に聞こえる等の自動的音響効果を付加した同時的会話環境である“The Mad Hatter's Cocktail Party”が開示されている。 As an apparatus for supporting communication by voice data, the following Non-Patent Document 1, regardless of the spatial relationship, automatic sound such as sound clearer utterance voice of the speaker belonging to the same thread using the speech recognition is a simultaneous conversation environment obtained by adding the effect "the Mad Hatter's Cocktail Party" has been disclosed. このシステムでは,音声認識を用いた同一スレッドの自動判定を行っているため、認識精度の問題が生じてしまい確実性が低くなる。 In this system, because a automatic determination of the same thread using speech recognition certainty recognition accuracy problems would occur is low.

ところが、音声を用いた対話(対面対話、電話、音声チャット)では、今のところマルチスレッド対話は実現不可能ないし非常に困難である。 However, dialogue with voice (face-to-face dialogue, telephone, voice chat), the far multi-threaded dialogue is very difficult to not unfeasible. その最大の理由は、一般に人は複数の発言を同時に聞いてそれらを記憶し、理解することができないことにある。 The biggest reason is, generally people will remember them to hear more of the speech at the same time, that it is not possible to understand.

対面でマルチスレッド対話を行なうためには、我々は、一度に複数の発言を聞き分け、記憶し、理解することが必要とされる。 To perform multithreading dialogue in person, we tame a plurality of speech at a time, and stored, it is required to understand. しかし、これは人間の認知能力の範囲内では困難である。 However, this is difficult within the human cognitive performance. したがって、マルチスレッド対話が行なわれることはめったにない。 Thus, multithreading interaction is rarely performed. 一方テキストチャットでは、誰が、いつ、何を発言したかという発言にかかわるデータが保存され、それが発言履歴として表示され、参加者は自由に履歴を閲覧できる。 On the one hand, text chat, who, when, what the stored data relating to the remarks of whether the remarks, it appears as saying history, participants can browse the free history. これが人間の短期記憶を補う役割を果たしているために同期性の制約が解消され、また発言履歴が対話の場として機能するために近接性の制約も解消される。 This synchronization constraints to play a role to compensate for human short-term memory is eliminated, also speaking history is also eliminated proximity constraints to function as a place for dialogue. この結果、テキストチャットではマルチスレッド対話が可能となっていると思われる。 As a result, seems to be in the text chat has become a possible multi-threaded dialogue. つまりマルチスレッド対話の実現には,発言履歴が不可欠であると考えられる。 That is the realization of multi-threaded dialogue is considered to be an essential message log.

音声チャットシステムでは、個々の発言が音声データとして計算機上に記録され、いつ誰が発言したかを示すログリストも表示されるために、何度でも必要に応じて聞きなおすことができる。 The voice chat system, individual remarks are recorded on the computer as voice data, any time to anyone is also displayed in the log list, which indicates whether the speaking, it is possible to re-hear if many times as necessary. つまり音声データやログの保存によって人の短期記憶が補助されているため、対面対話や電話よりはマルチスレッド対話を実現しやすい音声コミュニケーション・メディアとなっている。 That is because the short-term memory of the people by the storage of audio data and the log has been auxiliary, has become to realize the multi-threaded interactive sensitive voice communication media than face-to-face dialogue and phone.

しかし、ログ上では個々の発言(音声データ)の関連性が見えず、音を再生して聞いてみないとどの発言(音声データ)とどの発言(音声データ)とがつながっているのかがわからない。 However, relevance can not be seen in the individual remarks on the log (voice data), I do not know and do not ask to play a sound which he said (voice data) and any speech (voice data) are connected is . このため、既存の音声チャットシステムでは依然としてマルチスレッド対話を実現することが難しい。 For this reason, still it is difficult to realize a multi-thread dialogue with existing voice chat system.

本発明は、このような実情に鑑みてなされたものであり、音声によるコミュニケーションを支援するものであり、音声データ間の相互関係を把握可能とすることによりマルチスレッド対話が実現可能なコミュニケーション装置を提供することを目的とする。 The present invention has been made in view of such circumstances, it is intended to support communications by voice, a communication device capable of realizing multi-thread interaction by enabling grasp the correlation between voice data an object of the present invention is to provide.

発明者等は、従来のテキストチャットシステムを用いた場合に、マルチスレッド状況を維持するために、どのような手段がとられているか、その傾向を調査した。 Inventors, when using a conventional text chat system, in order to maintain the multi-threaded situation, what means are taken, and investigated the trend. その結果を下記に示す。 The result is shown in the following.

チャット対話収録で得たデータについて予備分析を行なった結果、発言履歴の参照しにくさがある中で話の流れを追い、できる限りスムーズに対話を進めるために貢献していると考えられる3種類の表現が存在することがわかった。 The data obtained in the chat dialogue recording a result of performing a preliminary analysis, to follow the flow of the story in which there is a reference to the difficulty of the message log, 3 is considered to have contributed to advance the smooth dialogue as much as possible types it was found that the expression of there.
1)誰に向けた発言であるかを明記する表現(固有名詞を含む)(図6では“>人”) 1) Meikisuru express who you are remarks towards (including proper nouns) (in FIG. 6 "> people")
例)まだまだ今年はこれからですよ。 Example) still this year is yet to come. >Bさん 2)どの話に関連した発言をしているかを明記する表現(図6では“>単語”) > B's 2) Meikisuru express what you are relevant remarks to any story (in FIG. 6 "> Word")
例)意見わかれるとこみたいです>マロンクリーム 3)どの発言に対して発言をしているかを明記する表現(この場合はコピー&ペーストを行なっていると推測される場合)(図6では“>コピぺ”) Example) opinion break up Toko seems> If Marron cream 3) Meikisuru express whether you are speaking for any remarks (in this case is presumed to have carried out the copy-and-paste) (in FIG. 6 "> Copy Bae ")
例)A:栗と生クリームって合わないと思いません? Example) A: I do not think and do not fit me chestnuts and whipped cream? >ALL>とても合うと思うよ。 > ALL> I think very fit. マロンクリームってめっちゃうまいやん! Yan Truly delicious I Marron cream!
(「栗と生クリームって合わないと思いません?>ALL」がコピー&ペーストされた部分。) ( "I do not think that does not suit me chestnuts and whipped cream?> ALL" copy and paste portions.)

これら3つの表現が対話中に出現した割合のグラフを図6に示す。 A graph of percentage of these three expression appeared in the dialogue shown in FIG. さらに、発言間の意味的つながりの判定作業を行なった上で、3つの表現を発言間のインターバル(発言間距離)ごとに分類した出現頻度の結果を示すグラフを図7に示す。 Furthermore, after performing the determination operations of semantic links between speech, shown in Figure 7 a graph showing the results of frequency classified for each interval between speech three representations (remark distance). なお、分析対象としたデータは、2人対話が3対話311発言分、3人対話が5対話559発言分、計870発言分の発言履歴データであり、全てチャット経験者を被験者としたデータである。 It should be noted that the data that has been analyzed is, two people dialogue 3 interactive 311 remarks minute, three people dialogue is 5 interactive 559 remarks minute, a message log data of a total of 870 remarks minute, all chat experience in the data that was subject is there.

図6を見ると、3つの表現をあわせると分析対象発言の約1/4の割合で、話をスムースに進めるためにいずれかの表現を用いていることがわかる。 Turning to FIG. 6, at about 1/4 the rate of analyte remarks matching the three representations, it can be seen that using any of the expressions to advance story smoothly. また、図7を見ると、隣接する発言同士が異なる話題である場合(発言間距離2以上の場合)にどの表現も出現頻度が増加している。 Looking at the Figure 7, also frequency No language when speaking with adjacent a different topic (for speech distance 2 or higher) is increasing. このことから、より複雑な状況になればなるほど、話の流れを追いやすくするために、誰に対する発言なのか、どの話、どの発言に関する発言なのかなど、発言間の関連を明記して対応していると推測できる。 From this fact, The more a more complex situation, to make it easier to follow the flow of the story, who for or remarks of, any story, such as how remarks remarks to about, corresponding to specify the relationship between speech You have to be able to guess.

以上の結果から、発明者等は、本発明のコミュニケーション装置を開発した。 From the above results, the inventors have developed a communication device of the present invention. 本発明のコミュニケーション装置は、複数のユーザのクライアント端末から音声データを受信する手段と、当該受信した音声データを蓄積記憶する手段と、当該蓄積記憶した音声データの一覧を複数のユーザのクライアント端末に提供する手段と、当該一覧を受信したクライアント端末からの要求に応じて、要求された音声データを当該クライアント端末に提供する手段とを備える、複数のユーザ間における音声データを用いた対話を可能とするコミュニケーション装置であり、 Communication device of the present invention includes means for receiving audio data from a client terminal of a plurality of users, and means for storing stores the voice data the received, a list of audio data the accumulated and stored in the client terminal of the plurality of users means for providing, in response to a request from the client terminal that has received the list, the requested audio data and means for providing to the client terminal, and allow interaction with the voice data among a plurality of users is a communication device that,
前記対話における音声データ間の関連を示す情報を前記一覧に付加する手段を備え、 前記クライアント端末により、音声データが生成され、前記音声データの一覧から先行する音声データが選択され、当該生成された音声データと当該選択された先行する音声データの識別子とがアップロードされると、 And means for adding information indicating the association between the voice data in the conversation in the list, by the client terminal, the audio data is generated, the audio data preceding the list of the audio data was selected and the produced If the identifier of the audio data preceding the selected audio data and the are uploaded,
前記音声データを蓄積記憶する手段は、前記生成された音声データと選択された先行する音声データを特定する識別子とを関連付けて蓄積記憶し、 Said means for storing stores voice data storage stores in association with the identifier identifying the audio data preceding said selected with the generated audio data,
前記音声データ間の関連を示す情報を前記一覧に付加する手段は、当該音声データの一覧に前記蓄積記憶した音声データに関する情報を追加するとともに当該音声データに関する情報に前記先行する音声データを特定する識別子を付与することを特徴とする Means for adding information indicating the association between the voice data to the list identifies audio data the preceding information relating to the audio data as well as additional information about the audio data the accumulated and stored in the list of the audio data characterized in that it grant an identifier.

この本発明によれば、一覧を参照することにより、 その音声データがいずれの音声データに対する発言であるかを把握することができる。 According to the present invention, by referring to the list, it is possible that audio data to understand whether the speech to any of the audio data.

または、本発明は、クライアント端末により、音声データが生成され、ユーザの一覧から発言相手の識別子が選択され、当該生成された音声データと当該選択された発言相手の識別子とがアップロードされると、音声データを蓄積記憶する手段は、前記生成された音声データと選択された発言相手の識別子とを関連付けて蓄積記憶し、音声データ間の関連を示す情報を前記音声データの一覧に付加する手段は、当該一覧に前記蓄積記憶した音声データに関する情報を追加するとともに当該音声データに関する情報に前記発言相手の識別子を付与することを特徴とする。 Alternatively, the present invention is, by the client terminal, the audio data is generated, is selected identifier remark party from the list of users, when the identifier of the generated audio data and the selected speech partner is uploaded, means for storing stores voice data storage stores in association with the identifier of the generated audio data and the selected speech partner, means for adding information indicating an association between the voice data to the list of the audio data , characterized by applying the identifier of the talk partner information about the audio data as well as additional information about the audio data the accumulated and stored in the list.

この発明によれば、一覧を参照することにより、音声データごとに発言相手を知ることができ、音声データの相互関係を把握することができる。 According to the present invention, by referring to the list, it is possible to know the speech partner for each audio data, it is possible to grasp the correlation of the audio data.

または、本発明は、クライアント端末により、音声データが生成され、音声データの一覧から先行する音声データが選択され、当該生成された音声データと前記選択された先行する音声データの発言者の識別子とがアップロードされると、音声データを蓄積記憶する手段は、前記選択された先行する音声データの発言者の識別子を発言相手の識別子として前記生成された音声データと関連付けて蓄積記憶し、音声データ間の関連を示す情報を前記音声データの一覧に付加する手段は、当該一覧に前記蓄積記憶した音声データに関する情報を追加するとともに当該音声データに関する情報に前記発言相手の識別子を付与することを特徴とする。 Alternatively, the present invention is, by the client terminal, the audio data is generated, the audio data is selected preceding the list of audio data, the speaker identifier of the audio data preceding the with the generated voice data is the selected When There is uploaded, means for storing stores audio data accumulated in association with the voice data the generated the speaker identifier of the audio data preceding said selected as the identifier of the speech partner, between voice data means for adding information indicating the association of the list of the audio data, and wherein applying the talk partner identifier information relating to the audio data as well as additional information about the audio data the accumulated and stored in the list to. この発明によれば、一覧を参照することにより、 音声データごとに発言相手を知ることができ、音声データの相互関係を把握することができる。 According to the present invention, by referring to the list, it is possible to know the speech partner for each audio data, it is possible to grasp the correlation of the audio data.

また、本発明のコミュニケーション装置は、 複数のユーザのクライアント端末とサーバとを有し、前記サーバは、前記複数のクライアント端末から音声データを受信する手段と、当該受信した音声データを蓄積記憶する手段と、当該蓄積記憶した音声データの一覧を複数のユーザのクライアント端末に提供する手段と、当該一覧を受信したクライアント端末からの要求に応じて、要求された音声データを当該クライアント端末に提供する手段とを備え、複数のユーザ間における音声データを用いた対話を可能とするコミュニケーション装置であり、 Further, the communication apparatus of the present invention, a plurality of users of client terminals and a server, the server includes means for receiving the voice data from said plurality of client terminals, means for storing stores the voice data the received If, means for providing a list of audio data the accumulated and stored in the client terminal of a plurality of users in response to a request from the client terminal that has received the list, means for providing the requested audio data to the client terminal with the door, a communication device that enables a dialogue with voice data among a plurality of users,
前記サーバは、前記対話における音声データ間の関連を示す情報を前記一覧に付加する手段を備え、前記各クライアント端末は、信号を発信する発信手段と、発信手段からの信号を受信する受信手段とを備え、当該発信手段と受信手段は、発言者のクライアント端末に備えられる発信手段を発言相手のクライアント端末に備えられる受信手段を指し示すようにして信号を送受信可能であり、 Wherein the server includes means for adding information indicating the association between the voice data in the conversation in the list, each client terminal, and transmitting means for transmitting a signal, receiving means for receiving a signal from the transmitting means comprising a receiving means with the transmitting means can transmit and receive signals to point to the receiving means provided with transmitting means provided in the client terminal speaker client terminal remarks opponent
発言者のクライアント端末から前記サーバに音声データが送信され、且つ、当該発言者の発信手段から信号を受信した発言相手の受信手段を備えるクライアント端末から前記サーバに当該発言相手の識別子が送信されると、 Audio data is transmitted from the speaker of the client terminal to the server, and the identifier of the speech partner is transmitted to the server from the client terminal to a receiving means of the speech partner has received the signal from the transmitting means of the speaker When,
前記サーバは、受信した当該音声データと受信した当該発言相手の識別子とを関連付けて蓄積記憶し、前記音声データの一覧に当該音声データに関する情報を追加するとともに当該音声データに関する情報に当該発言相手の識別子を付与することを特徴とする。 The server of the speech partner received and received the audio data accumulation stored in association with the identifier of the speech partner information about the audio data as well as additional information relating to the audio data to the list of the audio data characterized in that it grant an identifier.

この発明によれば、発言者がクライアント端末から音声データをコミュニケーション装置に送信し、自己の発信手段を用いて発言相手の受信手段に信号を送信すると、その信号を受け取った受信手段を備える発言相手のクライアント端末から当該発言相手の識別子がコミュニケーション装置に送信される。 According to the present invention, transmits speaker is the client terminal the audio data to the communication device, and send a signal to the receiving means of the speech partner with its own transmission means, speech comprises receiving means has received the signal opponent identifier of the speech partner is transmitted to the communication device from a client terminal. コミュニケーション装置は、受信した当該音声データと受信した当該発言相手の識別子とを関連付けて蓄積記憶し、前記音声データの一覧に当該音声データに関する情報を追加するとともに当該音声データに関する情報に当該発言相手の識別子を付与する Communication devices of the speech partner received and received the audio data accumulation stored in association with the identifier of the speech partner information about the audio data as well as additional information relating to the audio data to the list of the audio data to grant an identifier. 発言者は、発言相手を指し示すなどのように、送信手段を用いて発言相手の受信手段に信号を送る動作をするだけで、一覧に発言相手の情報を付加することができる。 Speaker, as such point to the speech partner, only the operation of sending a signal to the receiving means of the speech partner using the transmitting means, it is possible to add information of the speech partner list.

また、本発明のコミュニケーション装置は、テキストデータが入力可能であり、入力されたテキストデータは、前記一覧に付加されることを特徴とする。 Further, the communication apparatus of the present invention is a text data can be entered, the text data is inputted, characterized in that it is added to the list. この発明によれば、音声データのみならず、テキストデータによってもコミュニケーションが図られる。 According to the present invention, not only the voice data, communication is achieved by text data. たとえば、具体的かつ詳細な内容は音声で入力し、その内容のタイトルやキーワードなどだけを文字として入力するようなことが可能となり、個々の音声データ間の関係を意味的に明示することが可能となる。 For example, specific and detailed contents entered in voice, it is possible that only enter title or keyword of the contents as a character, semantically possible to express the relationship between individual audio data to become. また、音声では入力できない「顔文字」のようなものも音声に付加して入力可能となる。 Also, in addition to voice even things like you can not enter "emoticons" allows input in the voice.

本発明のコミュニケーション装置によれば、コミュニケーションに参加するユーザは、 一覧を参照することにより、音声データの相互関係を把握することができるため、音声によるマルチスレッド型の対話が可能となる。 According to the communication apparatus of the present invention, the users participating in the communication, by referring to the list, it is possible to grasp the correlation of the audio data, it is possible to interact multithreaded voice. とくに、音声データ間の関連を示す情報として、発言者や発言相手を特定する情報が含まれている場合は、個々の音声データごとに、誰の発言であるか、誰に対しての発言であるか、を把握することができる。 In particular, as information indicating an association between the voice data, if it contains information that identifies the speaker or speaking partner for individual voice data, whose a either speech, in remarks to anyone or some, it is possible to grasp the. また、音声データ間の関連を示す情報として、先行する音声データを特定する情報が含まれる場合は、個々の音声データが、先行するいずれの音声データを受けた発言であるかを把握することができる。 Further, as information indicating an association between the voice data, if they contain information identifying the previous audio data, that the individual voice data, to understand whether the remarks that received either of the audio data preceding it can. また、これらの両方が含まれる場合は、音声データ間の相互関係を更に詳しく把握することができる。 Also, when these both are included, it is possible to further detail grasp the correlation between voice data.

ユーザは、発言相手を選択するだけで、その音声データの発言相手を指定でき、また、 対話において先行する音声データを選択するだけで、その音声データがいずれの音声データを受けて発言されたものかの情報を付加することができるため、音声データ間の関連付けを簡単に行うことができ、マルチスレッド型の対話が滞りなく円滑に進行される。 The user simply selects the speech partner, to specify the speech partner of the audio data, and simply select an audio data preceding the dialogue, also the voice data is speech receives any audio data it is possible to add the one of the information, can easily associations between the audio data, the multi-threaded conversation is proceeding smoothly without a hitch.

さらに、信号を発信する発信手段と、その信号を受信する受信手段とを用いることにより、発言者が発言相手を指し示すような感覚で、 一覧に発言相手を特定する情報を付加することができる。 Furthermore, a transmitter means for transmitting a signal by using a receiving means for receiving the signal, it is possible to speaker is a sense that indicates the speech partner, adds information for identifying the speech partner list. このシステムを対面型の対話に導入すれば、マルチスレッド型の対話が可能となるだけでなく、全く新しくしかも効率的な対話スタイルを確立することが可能となる。 By introducing this system to face-to-face conversation, not only multithreaded interaction is possible, it is possible to establish a completely new yet efficient interaction style. これは会議などにおいて非常に有効であると期待できる。 This can be expected to be very effective in such meeting. また、発信手段を発言相手側に向ける動作により発言相手を見ることとなり、ログデータを見続けるような状況が回避され、対話がより自然に進行する。 In addition, it is possible to see the remarks opponent by the operation to direct the transmission means to speak the other side, the situation such as continue to see the log data is avoided, dialogue progresses more naturally.

さらに、 一覧にテキストデータが付加されると、 一覧を参照することによって、音声データ間の意味的なつながりを把握することが可能となる。 Furthermore, when the text data is added to the list, by referring to the list, it is possible to grasp the semantic connections between the audio data. これによってマルチスレッド対話をより効率的に行うことができる。 This makes it possible to perform multi-threaded interactive more efficiently. また、従来のテキスト・音声混合チャットシステムでは、音声の再生手段を持たない参加者は音声データの内容を全く理解できなかった。 In addition, in the conventional text and audio mixing chat system, participants who do not have a playback means of voice could not completely understand the contents of the voice data. 本システムによれば、付加されたタイトルやキーワードなどのテキストデータで、おおまかながら音声データの内容を理解可能となる。 According to the present system, in the text data, such as the added title or keyword, it is possible to understand the contents of the voice data while rough.

(第1の実施の形態) (First Embodiment)
以下、本発明に係るコミュニケーション装置Sについて図面を参照しながら説明する。 DESCRIPTION communication device S will be described with reference to the drawings according to the present invention. 図1は、本実施の形態のコミュニケーション装置Sを説明する説明図である。 Figure 1 is an explanatory diagram for explaining a communication device S of this embodiment. コミュニケーション装置Sは、コンピュータシステムであるサーバにより実現され、インターネットなどのネットワークを介して同じくコンピュータシステムである複数のクライアント端末C1,,,Cxと接続可能となっている。 Communication device S is realized by a server is a computer system, and can connect to a plurality of client terminals C1 ,,, Cx is also a computer system via a network such as the Internet.

コミュニケーション装置Sは、例えば、音声チャットシステムのように、ユーザのクライアント端末C1,,,Cxから音声データを受信し、その受信した音声データを提供することにより、音声によるコミュニケーションを支援するシステムである。 Communication device S, for example, as in the voice chat system, receives voice data from the client terminal C1 ,,, Cx users, by providing the voice data the received, is a system for supporting communication by voice .

クライアント端末C1,,,Cxは、音声によるコミュニケーション参加のために、ネットワークを介してコミュニケーション装置Sにアクセス可能となっている。 The client terminal C1 ,,, Cx, because of participation communication by voice, and can access the communication device S via the network. クライアント端末C1,,,Cxは、音声を録音する録音機能を備え、録音された音声は、音声データとしてネットワークを介してコミュニケーション装置Sにアップロード可能となっている。 The client terminal C1 ,,, Cx has a recording function to record audio, recorded audio is capable uploaded to the communication apparatus S through a network as the voice data.

コミュニケーション装置Sは、クライアント端末C1,,,Cxからの要求に応じて、各クライアント端末C1,,,Cxにユーザインタフェース画面を表示する。 Communication device S, in response to a request from the client terminal C1 ,,, Cx, displays a user interface screen to the client terminal C1 ,,, Cx. 図2は、コミュニケーション装置Sがクライアント端末C1,,,Cxに提供するユーザインタフェース画面を示す図である。 Figure 2 is a diagram showing a user interface screen communication device S is provided to the client terminal C1 ,,, Cx.

クライアント端末C1,,,Cxにおいて、参加者の識別子であるハンドル名を入力する欄1にハンドル名が入力され、ログインのボタン2が押下されると、コミュニケーション装置Sは、その信号を受信し、ユーザインタフェース画面のユーザ一覧の欄3にログイン状態にあるユーザの識別子(ここではハンドル名)と、履歴一覧の欄4に蓄積記憶されているログデータを表示する。 In the client terminal C1 ,,, Cx, handle name is entered in the column 1 to enter the handle name is an identifier of the participants, when the login button 2 is pressed, the communication apparatus S receives the signal, a user interface screen a user identifier in the column 3 of the user list in login state (here, the handle name), displays the log data stored stored in the column 4 of the history list.

コミュニケーション装置Sは、ユーザインタフェース画面と同時に提供するプログラムにより、クライアント端末C1,,,Cxに下記の機能を実現させる。 Communication device S, by a program that provides a user interface screen at the same time, to realize the following functions to the client terminal C1 ,,, Cx.

(録音機能) (Recording function)
コミュニケーション装置Sは、クライアント端末C1,,,Cxに、音声を録音して音声データを生成させ、その音声データをコミュニケーション装置Sにアップロードさせる録音機能を実現させる。 Communication device S to the client terminal C1 ,,, Cx, to generate audio data to record audio, to realize the recording function to be uploaded to the communication device S to the sound data. 実現させる録音機能としては三種類有り、(1)通常録音機能、(2)先行音声データ指定録音機能、(3)発言相手指定録音機能、を備える。 There three kinds as recording function for realizing, comprises, (1) Normal recording function, (2) preceding the audio data specified recording function, (3) speaking party specified recording function.

(通常録音機能) (Normal recording function)
クライアント端末C1,,,Cxは、ユーザインタフェース画面の録音関連ボタン群5のうち「録音」ボタン6の押下を検知すると、図3に示されるような「発言完了」ボタンを、ユーザインタフェース画面をすべて覆い隠す形で画面上に表示し、録音を開始する。 The client terminal C1 ,,, Cx, upon detecting press of the "Record" button 6 of the record associated buttons 5 of the user interface screen, the "floor Finish" button, as shown in FIG. 3, all the user interface screen displayed on the screen in a way that obscures, to start recording. クライアント端末C1,,,Cxは「発言完了」ボタンの押下を検知すると録音を終了し、生成された音声データ、及び、その音声データの発言者の識別子(ここではハンドル名)をコミュニケーション装置Sにアップロードする。 Client terminal C1 ,,, Cx terminates the recording and detecting the press of the "remarks Finish" button, the generated voice data, and, speaker of the identifier of the voice data (here, handle name) to the communication device S to upload. ここで、発言者とは、音声データの元となる発言をした者であり、音声データを生成してアップロードする者のことである。 Here, the speaker, is the person who has made a remark which is the source of the voice data, is that of the person who uploaded to generate the voice data.

図4は、ユーザインタフェース画面の履歴一覧の欄4のログデータを抽出して示す図である。 Figure 4 is a diagram showing by extracting the log data in the column 4 of the history list of a user interface screen. コミュニケーション装置Sは、音声データを特定する識別子a1,発言者を特定する識別子(ハンドル名)a2,発言時刻となるアップロード時刻a3を、受信した音声データに関する基本ログデータとし、受信した音声データと基本ログデータとを関連付けて蓄積記憶する。 Communication device S, identifier a1 to identify the voice data, identifier that identifies the speaker (handle name) a2, the upload time a3 to be the speech time, the basic log data related to the audio data received, the voice data and the basic received storing in association with the log data. つぎに、コミュニケーション装置Sは、各クライアント端末C1,,,Cxに対してその基本ログデータを提供し、再表示させたユーザインタフェース画面の履歴一覧の欄4に、生成された基本ログデータを追加表示させる。 Next, the communication device S, and provides the primary log data to each client terminal C1 ,,, Cx, the column 4 of the history list of a user interface screen that is displayed again, add the generated base log data has been to be displayed.

(先行音声データ指定録音機能1) (Preceding voice data specified recording function 1)
また、クライアント端末C1,,,Cxは、生成した音声データと、先行する音声データとを対応付けてアップロードする機能を備える。 The client terminal C1 ,,, Cx includes a voice data generated by the preceding function to upload in association with audio data. クライアント端末C1,,,Cxは、上記通常録音機能により音声の録音を完了した後に、ユーザインタフェース画面の履歴一覧の欄4から、先行する音声データが選択されるとともに、「先行発言指定」ボタン7が押下されると、選択された先行する音声データを特定する識別子a1を、音声データや発言者の識別子(ハンドル名)とともにコミュニケーション装置Sにアップロードする。 The client terminal C1 ,,, Cx, after completing the recording of the speech by the normal recording function, the column 4 of the history list of a user interface screen, along with the preceding speech data is selected, "the preceding remarks designation" button 7 There when depressed, an identifier a1 for identifying the audio data preceding the selected and uploaded to the communication device S together with the audio data and speaker identifier (handle name). なお、履歴一覧は音声データの履歴を示すものであり、先行する音声データの一覧の役割も同時に果たす。 It should be noted that the history list are those that show the history of the voice data, the role of the list of audio data preceding also play at the same time.

(先行音声データ指定録音機能2) (Preceding voice data specified recording function 2)
また、別の先行音声データ指定録音機能として、履歴一覧の欄4から先行する音声データが選択された後に、「発言への返信録音」ボタン8が押下されると、「発言完了」ボタンを表示し、発言の録音を開始する。 In addition, the display as another prior voice data specified recording function, after the voice data has been selected preceding from column 4 of the history list, the button 8 "reply recording of the speech" is pressed, the "remarks Finish" button and, to start the recording of the remarks. 「発言完了」ボタンが押下されると録音を終了し、生成された音声データと、発言者の識別子(ハンドル名)と、選択された音声データを特定する識別子1aとを、コミュニケーション装置Sにアップロードする。 To end the recording as "remarks completion" button is pressed, upload and voice data that has been generated, the speaker of the identifier (handle name), and an identifier 1a to identify the voice data that has been selected, the communication device S to.

コミュニケーション装置Sは、上記二通りのいずれかの先行音声データ指定録音機能により生成された音声データ、発言者の識別子(ハンドル名)、及び、選択された先行する音声データを特定する識別子a1を受信すると、生成された音声データと基本ログデータに、選択された先行する音声データを特定する識別子a1を付加し、互いに関連付けて蓄積記憶する。 Communication device S, the audio data generated by any one of the preceding audio data specified recording function of the two ways, the speaker identifier (handle name), and receives an identifier a1 for identifying the audio data preceding the selected then, the generated audio data and the primary log data, and adding an identifier a1 for identifying the audio data preceding the selected, accumulated in association with each other. その後、各クライアント端末C1,,,Cxに対して、基本ログデータ、及び、選択された先行する音声データの識別子a1を提供する。 Thereafter, for each client terminal C1 ,,, Cx, the primary log data, and provides an identifier a1 audio data preceding the selected. クライアント端末C1,,,Cxの履歴一覧には、基本ログデータが表示されるとともに、基本ログデータの文末に、例えば「>>[2]」のように、先行する音声データを特定する識別子a4が付与される。 The history list of client terminal C1 ,,, Cx, along with the basic log data is displayed, the end of a basic log data, for example, ">> [2]" as in, to identify the preceding voice data identifier a4 There are granted.

(発言相手指定録音機能1) (Remarks opponent specified recording function 1)
また、クライアント端末C1,,,Cxは、発言相手を指定して録音を行う発言相手指定録音機能を備える。 In addition, the client terminal C1 ,,, Cx is provided with a remark the other party specified recording function to perform the recording by specifying the remarks opponent. この機能としては3パターン存在する。 As this feature exist three patterns. 第1のパターンとして、上記通常録音機能で発言を録音し、ユーザ一覧の欄3から発言相手が選択されるとともに「発言相手指定」ボタン9の押下を検知すると、確認のために「発言相手指定」ボタン9を選択した発言相手の識別子(ハンドル名)に変更する。 As a first pattern, to record the speech in the normal recording function, upon detecting depression of the "floor party designation" button 9 with speech partner is selected from column 3 of the user list, "remarks partner specified for confirmation the "button 9 to change to the selected remark opponent of the identifier (handle name). その変更されたボタン9の押下を検知すると、生成された音声データと発言相手を特定する識別子(ハンドル名)とをコミュニケーション装置にアップロードする。 When detecting the depression of the changed button 9, uploads the identifier (handle name) for identifying the generated speech data and speech partner communication device. 例えば、通常録音完了後に、ユーザ一覧の欄3から「Bob」が選択されたと仮定する。 For example, assume that after the normal recording completed "Bob" is selected from column 3 of the user list. そうすると、「発言相手指定」ボタン9を「>Bob」という表示のボタンに変更し、そのボタン9の押下を検知すると、「Bob」を指定した発言が完了することになる。 Then, change to the button on the display of the "remarks opponent designation" button 9 "> Bob", and detects the press of the button 9, will be to speak you specify "Bob" is complete.

(発言相手指定録音機能2) (Remarks opponent specified recording function 2)
また、第2のパターンとして、クライアント端末C1,,,Cxは、ユーザ一覧の欄3から発言相手となるユーザが選択された後に、「相手指定録音」ボタン10の押下を検知すると、「発言完了」ボタンを表示画面に表示し、録音を開始する。 As a second pattern, the client terminal C1 ,,, Cx, after the user from column 3 of the user list the speech partner has been selected, when detecting the press of the "other party specified record" button 10, "remarks completion "button displayed on the display screen, to start recording. 「発言完了」ボタンの押下を検知すると、録音を終了し、生成された音声データと、発言者の識別子(ハンドル名)と、選択された発言相手の識別子(ハンドル名)をコミュニケーション装置Sにアップロードする。 Upon detection of the press of the "remarks completion" button, upload and audio data to end the recording, has been generated, the speaker of the identifier (handle name), selected remarks opponent of the identifier (handle name) to the communication device S to.

(発言相手指定録音機能3) (Remarks opponent specified recording function 3)
また、第3のパターンでは、履歴一覧から選んだ音声データの発言者を発言相手として指定する。 In addition, in the third pattern, specify the speaker of the audio data selected from the history list as saying opponent. クライアント端末C1,,,Cxは、履歴一覧の欄4から音声データが選択されるとともに、「発言者への返答録音」ボタン11の押下を検知すると、「発言完了」ボタンを表示画面に表示し、録音を開始する。 Client terminal C1 ,,, Cx is, from column 4 of the history list together with the audio data is selected, upon detecting the depression of the button 11, "reply recording of the speaker", to display the "remarks completion" button on the display screen , to start recording. 「発言完了」ボタンの押下を検知すると、録音を終了し、生成された音声データと、発言者の識別子(ハンドル名)と、選択された音声データの発言者の識別子(ハンドル名)とをコミュニケーション装置Sにアップロードする。 Upon detection of the press of the "remarks completion" button, to stop recording, and audio data that is generated, the speaker of the identifier (handle name), and the speaker of the identifier of the audio data that has been selected (handle name) Communication uploaded to the device S. 選択された音声データの発言者の識別子は、発言相手の識別子として取り扱われる。 Speaker of the identifier of the selected audio data is treated as an identifier of the remarks opponent.

コミュニケーション装置Sは、上記機能により受信した音声データと、基本ログデータと、選択された発言相手の識別子(発言相手指定録音機能3においては「選択された音声データの発言者の識別子」)とを蓄積記憶し、各クライアント端末C1,,,Cxに対してこれらの情報を提供する。 Communication device S, and audio data received by the above-mentioned function, and the basic log data, and selected remarks opponent of identifier ( "speaker of the identifier of the selected audio data" in the remarks opponent specified recording function 3) accumulation store, to provide this information to each client terminal C1 ,,, Cx. クライアント端末C1,,,Cxの履歴一覧の欄4には、基本ログデータが表示されるとともに、発言相手として選択したユーザの識別子(ハンドル名)a5が付加される。 In the column 4 of the history list of client terminal C1 ,,, Cx, along with the basic log data is displayed, the identifier (handle name) of the selected user as saying opponent a5 is added. たとえば、クライアント端末C1,,,Cxに表示される履歴一覧の欄4には,基本ログデータの文末に「>Bob」のよう発言相手の識別子(ハンドル名)が付与される. For example, in column 4 of the history list that is displayed on the client terminal C1 ,,, Cx, remarks opponent of identifier such as "> Bob" to the end of the sentence of the basic log data (handle name) is given. なお,自己が他のユーザから発言相手として指定を受けた場合には,行頭に「>>>You:」と表示される. In the case where the self has been designated as saying opponent from the other users, the beginning of the line to the ">>> You:" to be displayed.

また、以上のそれぞれの機能は組み合わせても動作可能である。 Also operable in combination each of the functions described above. たとえば、基本ログデータに、「>Bob>>[4]」のように、発言相手の指定と先行音声データの指定の両方を付与する機能も備える。 For example, the basic log data, "> Bob >> [4]" as in, also includes the ability to grant both of the specified designated as the preceding voice data of the speech partner. さらに、発言相手指定録音機能は、「>Susie>Andy」のように複数の発言相手の指定を行なう機能も備える。 In addition, remarks opponent specified recording function, also has a function to perform a specified multiple of remarks opponent such as "> Susie> Andy".

(再生機能) (Playback function)
コミュニケーション装置Sは、クライアント端末C1,,,Cxに、受信した音声データを再生する再生機能を実現させる。 Communication device S to the client terminal C1 ,,, Cx, thereby realizing the reproduction function of reproducing the received voice data. クライアント端末C1,,,Cxは、履歴一覧の欄4からログデータが選択されるとともに、「これ→を聞く」ボタン12が押下されると、その選択されたログデータに対応する音声データをコミュニケーション装置Sに要求する。 Client terminal C1 ,,, Cx is, along with the log data from column 4 of the history list is selected, and "listen to this →" button 12 is pressed, communication audio data corresponding to the selected log data to request to the apparatus S. コミュニケーション装置Sは、クライアント端末C1,,,Cxから、音声データの送信要求を受け取ると、要求を受けた音声データをクライアント端末C1,,,Cxに提供する。 Communication apparatus S is provided from the client terminal C1 ,,, Cx, when receiving the transmission request of the audio data, the audio data which has received the request to the client terminal C1 ,,, Cx. クライアント端末C1,,,Cxは、受信した音声データを再生する。 Client terminal C1 ,,, Cx reproduces the voice data received.

また、クライアント端末C1,,,C3xは、履歴一覧の欄4でのダブルクリックを検知した場合にも、そのダブルクリックされたログデータに対応する音声データをコミュニケーション装置Sに要求する。 The client terminal C1 ,,, C3X, even when detecting the double-click in the column 4 of the history list, to request the voice data corresponding to the double-clicked log data to the communication device S. コミュニケーション装置Sは、要求された音声データをクライアント端末C1,,,Cxに提供し、それを受信したクライアント端末C1,,,Cxは音声データを再生する。 Communication device S, provides the requested audio data to the client terminal C1 ,,, Cx, the client terminal C1 ,,, Cx which has received it reproduces the audio data. これによれば、ダブルクリックのみで音声データを再生できるため操作性が良い。 According to this, a good operability because it can reproduce the audio data only by double-clicking.

また、再生機能の付加機能として、「次を聞く」ボタン13の押下を検知すると、ログデータの配列順に、直前に再生した音声データの次の音声データをコミュニケーション装置Sに要求する。 Further, as an additional function of reproducing function, upon detecting press of the "Next listen" button 13, the arrangement order of the log data, to request the next audio data of the audio data reproduced immediately before the communication device S. コミュニケーション装置Sは、要求された音声データをクライアント端末C1,,,Cxに提供し、それを受信したクライアント端末C1,,,Cxは音声データを再生する。 Communication device S, provides the requested audio data to the client terminal C1 ,,, Cx, the client terminal C1 ,,, Cx which has received it reproduces the audio data. この機能を使うと、履歴一覧のログデータの配列順(時系列順)で、音声データを聞くことができる。 With this feature, in the order of arrangement of the log data of the history list (in chronological order), it is possible to listen to the voice data.

また、再生機能の付加機能として、「自分宛を聞く」ボタン14の押下を検知すると、それを操作したユーザの識別子(ハンドル名)が発言相手として付与されているログデータに対応する音声データのみをコミュニケーション装置Sに要求する。 In addition, as an additional function of the playback function, "hear addressed to myself" When detecting the depression of the button 14, only the audio data that the user of the identifier manipulate it (handle name) corresponding to the log data that has been granted as saying opponent the request to the communication apparatus S. コミュニケーション装置Sはその音声データのみをクライアント端末C1,,,Cxに提供し、クライアント端末C1,,,Cxはそれを再生する。 Communication device S to provide only the sound data to the client terminal C1 ,,, Cx, the client terminal C1 ,,, Cx is to play it. 自分宛が複数ある場合は、履歴一覧の欄4で選択されている音声データよりも後の音声データ(後にアップロードされた音声データ)で、かつその選択されている音声データにもっとも時間的に近い音声データを再生する。 If addressed to have multiple, in (audio data uploaded later) audio data after the audio data has been selected in the section 4 of the history list, and most temporally close to the voice data that is the selected to play the audio data. 時系列に順次連続して再生するようにしても良い。 It may be reproduced sequentially in succession to the time series. この機能を使うと、履歴一覧のなかから自分宛の音声データのみを聞くことができる。 With this feature, it is possible to hear only the voice data addressed to itself from among the history list.

また、再生機能の付加機能として、「先行発言を聞く」ボタン15の押下を検知すると、履歴一覧の欄4から指定されているログデータに付加されている先行する音声データをコミュニケーション装置Sに要求する。 Further, as an additional function of the playback function, "hear preceding remarks" When detecting the depression of the button 15, requests the audio data preceding is added to the log data that is specified by the column 4 of the history list to communication device S to. コミュニケーション装置Sはその音声データのみをクライアント端末C1,,,Cxに提供し、クライアント端末C1,,,Cxはそれを再生する。 Communication device S to provide only the sound data to the client terminal C1 ,,, Cx, the client terminal C1 ,,, Cx is to play it. この機能を使うと、関連する先行の音声データを遡って聞くことができる。 With this feature, it is possible to hear back the audio data of the relevant prior.

(第2の実施の形態) (Second Embodiment)
図5(a)(b)は、本実施の形態のコミュニケーション装置Sを説明する説明図である。 Figure 5 (a) (b) is an explanatory diagram for explaining a communication device S of this embodiment. 本実施の形態のコミュニケーション装置Sは、主に、会議などの対面方式の対話の場面において使用され、対面対話を行ないながらマルチスレッド対話を実現するものである。 Communication device S of this embodiment is mainly used in the dialogue scene facing system such as meetings, and realizes a multi-threaded conversation while performing face-to-face conversation. コミュニケーション装置Sは、上記実施の形態のコミュニケーション装置Sに、発言者が発言相手を指し示すような動作を行なうことにより、発言相手を指定することができる機能を備える。 Communication device S, the communication device S in the above embodiment, by performing an operation such as speaker points to remark partner comprises a function capable of specifying the speech partner.

コミュニケーション装置Sは、信号を発信する発信手段b1と、発信手段から発信された信号を受信する受信手段b2とを備える。 Communication apparatus S is provided with transmission means b1 for transmitting a signal, the receiving means b2 for receiving a signal transmitted from transmitting means. 発信手段b1は、先端に赤外線発光ダイオード(LED)が内蔵されており、スイッチを押下することにより、赤外線光で識別子が発信される。 Transmitting means b1 is an infrared light emitting diode (LED) is built on the tip, by pressing the switch, the identifier is transmitted by infrared light. 発信手段b1は、すべてのユーザが一つずつ持ち、発信される識別子は発信手段b1ごとに異なるように、各々に固有の識別子が設定されている。 Transmitting means b1, all users one by one retention identifier originating in differently for each transmission means b1, already has a unique identifier to each. 各クライアント端末C1,,,CxにはRS-232Cインタフェースを介して受信手段b2が一つずつ接続されている。 Each client terminal C1 ,,, Cx receiver b2 via the RS-232C interface is one by one connection.

以下、発言者のクライアント端末C1と、発言相手のクライアント端末C2を例に説明する(図5(b))。 Hereinafter, the speaker of the client terminal C1, illustrating a client terminal C2 remarks counterpart Examples (Figure 5 (b)). 発言者は、クライアント端末C1から音声録音機能を用いて音声データと発言者の識別子をコミュニケーション装置Sにアップロードし、図5(b)に示すように、発信手段b1を発言相手の受信手段b2に向けてスイッチを押下する。 Speaker uploads the speaker identifier and audio data to the communication device S by using the voice recording function from a client terminal C1, as shown in FIG. 5 (b), the transmission means b1 in the reception unit b2 remarks opponent pressing the switch towards. 発信手段b1が赤外線光で発言者の識別子Xを発信すると、受信手段b2が赤外線受光部でその識別子Xを受信し、受信手段b2が接続されている発言相手のクライアント端末C2にその識別子Xを伝える。 When transmitting means b1 originates an identifier X of the speaker in the infrared light receiving means b2 receives the identifier X in the infrared receiver, the identifier X to the client terminal C2 remarks partner receiving means b2 are connected tell. クライアント端末C2は、受信した識別子Xと、そのクライアント端末C2を使用する発言相手の識別子Yとを、コミュニケーション装置Sに通知する。 The client terminal C2 is the identifier X received, the identifier Y remarks partner that uses the client terminal C2, and notifies the communication device S.

コミュニケーション装置Sは、発言者のクライアント端末C1から、音声データと発言者の識別子Xとを受信し、また、発言相手のクライアント端末C2から、発言者の識別子Xと発言相手の識別子Yとを受信する。 Communication device S, from the speaker of the client terminal C1, receives the identifier X of the audio data and the speaker, also from the client terminal C2 of the speech partner receives the identifier Y speakers identifier X and remarks partner to. 発言者のクライアント端末C1から受信した発言者の識別子Xと、発言相手のクライアント端末C2から受信した発言者の識別子Xが一致する場合は、受信した音声データのログデータに発言相手の識別子Yを付加する。 An identifier X of speaker received from speaker of the client terminal C1, if the identifier X speaker received from the client terminal C2 of the speech partner match, the identifier Y remarks opponent log data of the audio data received added to. 発言者は、発信手段b1により受信手段b2に信号を送るだけで、発言相手を指し示すような簡単な動作で音声データのログデータに発言相手の情報を付加することができる。 Speaker is only send a signal to the receiving means b2 by transmission means b1, it is possible to add information of the speech partner log data of the audio data by a simple operation such as pointing the speech partner. 受信した発言者の識別子Xを音声データのログデータに付加してもよい。 The identifier X of the received speaker may also be added to the log data of the voice data. これにより、発言者が発言相手を指し示すような簡単な動作で、音声データのログデータに発言者の情報を付加することができる。 This makes it possible to speaker is a simple operation such as pointing the speech partner, adds information of speaker to log data of the audio data. 発言相手の識別子Yと発言者の識別子Xとを両方付加すると、より効果的である。 If the identifier Y remarks partner identifier X of the speaker to both added, it is more effective.

(第3の実施の形態) (Third Embodiment)
本実施の形態のコミュニケーション装置Sは、音声データに加えて、テキストデータを入力可能とするものである。 Communication device S of this embodiment, in addition to voice data, and makes it possible input text data. コミュニケーション装置Sは、クライアント端末C1,,,Cxからテキストデータと音声データを特定する識別子a1を受信すると、そのテキストデータを音声データのログデータに関連付けて記憶する。 Communication device S receives an identifier a1 to identify the text data and voice data from the client terminal C1 ,,, Cx, in association with the text data in the log data of the audio data. そのテキストデータは音声データのログデータとともに、クライアント端末C1,,,Cxに提供され、各クライアント端末C1,,,Cxの履歴一覧の欄4にログデータとともにテキストデータが表示される。 The text data, together with the log data of the voice data, are provided to the client terminal C1 ,,, Cx, the text data is displayed together with the log data in column 4 of the history list of each client terminal C1 ,,, Cx. これにより、個々の音声データ間の関係を意味的に明示することが可能となる。 Thus, it is possible to semantically express the relationship between the individual voice data. また、音声では入力できない「顔文字」のようなものも、音声に付加して入力可能となる。 In addition, the voice also things like you can not enter "emoticons", and can be entered in addition to voice.

(有効性に関する実験) (Experiments on the effectiveness)
以下に、第1の実施の形態を例として、本発明の有効性を確認すべく、実験をおこなった。 Hereinafter, as an example of the first embodiment, in order to verify the effectiveness of the present invention, work was performed. 7人の大学院生から成るグループ2組計14人に対し,以下3つの条件での実験を行なった。 To 2 pairs and total 14 persons group of 7 graduate students, experiments were conducted in three conditions below. 被験者は全員、何らかの形でテキストチャットを利用した経験はあるが、ボイスチャットの経験はない。 All subjects, but there is experience using text chat in some way, the voice chat experience is not. また、システムの慣れによる影響を抑えるため、個々のグループの使用順序は異なる。 In addition, in order to suppress the influence of the familiar systems, use order of each group is different.

・Base:一般的なインターフェースをもつボイスチャットシステムを非対面状況で使用。 · Base: Using a non-face-to-face situation voice chat system with common interfaces. 実際には、本発明のコミュニケーション装置(以下、ChaTELという)が提供する機能のうち、発言履歴と、「これを聞く」および「録音」ボタンのみを使用可能としたものを使用した。 In fact, the communication device of the present invention (hereinafter referred to as ChaTEL) among the functions provided by, it was used and the message log, what was available only and "Record" button "listen to this".
・ 非対面ChaTEL:ChaTELをそのまま非対面状況で使用。 And non-face-to-face ChaTEL: as it is used in a non-face-to-face situation ChaTEL.
・ 対面のChaTEL:ChaTELをそのまま対面状況で使用。 - face-to-face ChaTEL: as it is used in face-to-face situation ChaTEL.

実験では、最初に7人の被験者からなるグループを3人と4人の2つのサブグループに分け、それぞれのサブグループに異なる話題を与え、これらの話題について2つのサブグループが同時並行的に約20分間話をするように教示した。 In the experiment, first divide a group of seven subjects in three and four two subgroups, give different topic to each subgroup, approximately concurrently two subgroups on these topics taught to speak for 20 minutes. 与えた話題は、「行ってみたい場所」、「昔よくした遊びについて」など、比較的自由なテーマである。 Given the topic, "carried out by location I want", such as "About the old days well the play" is a relatively free themes. なお、これらの与えた話題については、各サブグループでひと通り完結するまで話を続けることを求めたが、それ以外の話をすることや、別のサブグループの話題に参加することについては禁止していない。 It is to be noted that the topics that these gave, prohibition about it, but was determined to continue the story until complete walk through in each sub-group, and to talk otherwise, to participate in the topic of another sub-group 're not. また非対面条件では、全員が完全に離れた場所で実験を行い、対面条件では、全員が円状に配置するようなセッティングを行なった。 In the non-face condition, we conducted experiments where everyone is completely separated, the face-to-face condition was performed settings as everyone has circularly arranged.

本システムで付与した、発言相手指定および先行発言指定機能により、マルチスレッド状況に対応しやすくなると考えられるため、対話構造そのものに影響が出ること予想される。 Was granted in this system, the speech partner designated and the preceding remarks specified function, considered likely multithreaded situation, it is expected that it can impact interactive structure itself. そこで、まず、非対面状況で、発言相手指定および先行発言指定機能を持たないBaseシステムを使用した場合とChaTELを使用した場合の対話構造比較を行なった。 Therefore, first, in a non face-to-face situation was conducted a dialogue structure comparison when using the case and ChaTEL using Base System Without speaking party designated and the preceding remarks specified functions. ここで、対話構造を比較するために、実験で取得したデータの個々の発言がどの発言と意味的につながりがあるかを同定し、木構造の概念を用いて、始端数(スレッドの開始点の数)、パス数(1スレッド内の個々の発言を結びつける経路数)、終端数(スレッドの末端の数)を算出した。 Here, in order to compare the dialogue structure, to identify whether semantically ties with individual remarks which speech data obtained in experiments, using the concept of a tree structure, starting number (thread start point number), the number of paths linking individual remarks pass number (1 thread), it was calculated terminating number (the number of threads of the end). また、各スレッドの始端発言のIDと、最後の終端発言のIDの差をスレッド長とする。 Further, to the ID of the starting utterance of each thread, a thread length difference ID of the last end speech. これは、それぞれのスレッドが幅広く展開されるのか、深く展開されるのかを判断するための材料のひとつとして使用できる。 This whether each thread is widely deployed, can be used as one of materials for determining whether deeply deployed. 結果を表1に示す。 The results are shown in Table 1.

表1より、A. From Table 1, A. Bどちらの被験者群もBase、本システムどちらについてもスレッド長を除いた項目に大きな違いはないことがわかる。 B Both groups of subjects also Base, for both the system it can be seen that there is no big difference to the items except for the thread length also. スレッド長については、A,Bどちらの被験者群も、Baseよりも本システムを利用したほうが大きくなる傾向にあることがわかる。 The thread length, A, B both subject groups, it can be seen that there is a tendency that better to use this system than Base increases. これは、発言の分岐が起こっても、本システムを利用したほうが1スレッドが長く継続されるということであり、スレッド数そのものがほぼ同じであれば、スレッドが長く続けば続くほどマルチスレッド状況が生じやすくなっているということを意味する。 This is also happening is a branch of speech, better utilizing the present system is that it is one thread is continues for a long time, if it is almost the same number of threads per se, is a multi-threaded situation as the thread continues if continued long It means that which is likely to occur. よって、本システムを利用した場合のほうが、マルチスレッドを長く継続できるということになる。 Thus, more in the case of using this system is, it comes to a multi-thread long can continue.

また、発言相手指定および先行発言指定機能を持たないBaseシステムと本システムとでは、個々の参加メンバーがシステム利用中に同時参加しているスレッド数にどの程度差があるのかを算出した。 In addition, in the Base system and the system that do not have a voice partner designation and the preceding remarks specified functions, the individual participating members was calculated whether there is a degree of difference to the number of threads that are simultaneously participating in the system use. なお、各参加者の同時参加スレッド数は、以下のようにして求めた。 It should be noted that the simultaneous participation number of threads each participant, was determined as follows. まず、各スレッドについて、個々の参加者による最初の発言と最後の発言を求め、その両発言の間はその参加者はそのスレッドに参加しているものとみなすこととした。 First, for each thread to obtain the first speech and last statements by individual participants, during which both remark that participant was be regarded as participating in the thread. その上で、個々の発言が行なわれた時に、個々の参加メンバーが、その時点で存在しているスレッドのうちのいくつに参加していたかということを算出して求めた。 On top of that, when the individual remarks have been made, the individual participating members, was determined by calculating that or not to participate in some of the threads that are present at that time. 結果を表2に示す。 The results are shown in Table 2.

表2より、A,Bどちらの被験者群もBaseよりも本システムを利用した場合のほうが平均同時参加スレッド数が多くなっていることがわかる。 From Table 2, A, B also than the Base both subject groups it can be seen that the more in the case of using this system is increasingly average simultaneous participation number of threads. また,Baseの平均同時参加スレッド数が1.0以下であるということは、自分が確実に発言できる機会がくるまでは、聞くことに専念していることを、また本システムの平均同時参加スレッド数が1.0以上であるということは、常にいずれかのスレッドで発言を行いながら、別のスレッドでも発言を行おうとしていることを示唆している。 In addition, the fact that the average simultaneous participation number of threads of Base is 1.0 or less, until he comes opportunity that can reliably say, that are devoted to be heard, the average simultaneous participation number of threads of this system There is the fact that is 1.0 or more, always while to speak in any of the thread, it suggests that you are trying to speak in another thread.

前節より、発言相手指定および先行発言指定機能をもつ本システムが、マルチスレッド状況の発生に有効に機能していることがわかった。 From the previous section, the system having the speech partner designated and the preceding remarks specified function, was found to function effectively in the development of multi-threaded situation. しかし、これだけでは、対面状況でマルチスレッド状況に有効であるかという点では不十分である。 However, this alone is, in terms of whether it is effective in a multi-thread situation face-to-face situation is insufficient. そこで、本システムを非対面状況で用いた場合と対面状況で用いた場合との比較実験を行なった。 Therefore, a comparison was made experiments with the case of using this system in the case and the facing situations that used in non-face-to-face situation. まず、この場合も、前節同様の方法で、両システムを用いた際の対話構造の比較を行なった。 First, also in this case, in the previous section similar manner, a comparison was made dialogue structure when using both systems. 結果を表3に示す。 The results are shown in Table 3.

表3より、どちらの被験者群も、非対面、対面状況での対話構造に大きな差は見られなかった。 From Table 3, both groups of subjects, non-face-to-face, a large difference in interaction structure of face-to-face situation was not observed.

さらに、非対面状況、対面状況での差異を見るため、対面状況での実験時に収録したビデオ収録データを検討した。 In addition, non-face-to-face situation, to see the difference between the face-to-face situation, we examined the video recorded data was recorded at the time of the experiment of face-to-face situation. その中で、非対面状況では、通常の対面対話とほぼ同じ音量で発言をしていたにも関わらず、対面状況では、小声で発言するということが音声データ、ビデオの両方から確認できた。 Among them, in the non-face-to-face situation, usually of the face-to-face dialogue and in spite of had to speak almost at the same volume, the face-to-face situation, it was confirmed from both voice data, video of the fact that to speak in a low voice. さらに対面状況で参加者メンバーが目の前にいるにも関わらず、大半の参加者が発言履歴が表示されているモニターに注視している時間が長いということが観察された。 Furthermore, in spite of the participant members in front of the eyes in the face-to-face situation, the time that the majority of participants say history is gazing at the monitor that is displayed it is that long was observed. これらから、対面状況での本システムの利用は、物理的には同じ場所を共有しつつも、心理的には独立した自分の空間を保持したまま対話していることが推測される。 These use of the system of the face-to-face situation, even while sharing the physical same location in, it is estimated that the psychological interacting while maintaining the independent own space. 一方で、他の参加メンバーの笑い声に反応したり場の雰囲気を共有している場面も見受けられた。 On the other hand, it was also seen scenes that share the atmosphere of the place or react to the laughter of the other participating members.

本発明のコミュニケーション装置によれば、近接性、同期性の制約なしに対面でのマルチスレッド対話を可能とするために、音声による効率的な発言入力を可能とし、発言履歴と相手指定/対応発言指定機能の提供によって、対面状況でも音声によるマルチスレッド対話を可能とした。 According to the communication apparatus of the present invention, proximity, in order to enable multi-threaded dialogue face-to-face without the synchronization constraints, allow efficient speech input by voice, message log and the mating specified / corresponding remark by the provision of specified functions and enables multi-threaded conversation voice in face-to-face situation. さらに、開発したシステムがマルチスレッド対話の進行に有効となることを、実験で得た対話データを中心に分析を行ない、検証した。 Furthermore, the fact that developed system is effective in the progression of multithreaded dialogue performs analysis about the interaction data obtained in experiments was verified.

非対面条件で、通常のインターフェースを持つボイスチャットシステムと本研究で開発したシステムとの比較では、前者よりも後者のほうが、1スレッドあたりのスレッド長が長くなることが確認された。 In non-face condition, in comparison with voice chat and system developed in this study with normal interface, the latter than the former, it was confirmed that the thread length per thread becomes longer. また、本研究で開発したシステムを用いたほうが、各参加者が同時に関与するスレッド数が多くなることが確認された。 In addition, better to use a system that was developed in this study, each participant has been confirmed that the greater the number of threads that are involved at the same time. これらのことから、相手指定や先行発言指定を行なうことで、同じ話題を長く維持しながら、複数の話題に同時に参加できることが示され、本システムを用いるとマルチスレッド状況が生じやすくなるということが示唆された。 From these, by performing opponent specification and the prior remarks specified, while maintaining the same topic long, at the same time been shown to be able to participate in more than one topic, it is that there is likely to occur multithreaded situations using the present system It was suggested.

対面状況時のビデオ記録から、笑いを共有するなどの場の雰囲気を共有している場面はあるにせよ、発言履歴に注視しがちになってしまい、参加者同士が表情を確認する等の対面対話の利点が生かされていないことが示唆された。 Face-to-face, such as from a video recording at the time of face-to-face situation, whether there is a scene that share the place atmosphere, such as sharing a laugh, it will become prone to attention to the message log, participants each other to make sure the facial expressions that the benefits of the dialogue has not been utilized has been suggested. 心理的には互いに独立したままの対話空間を、実空間に接地することにより、対面状況対話空間を共有しやすくする工夫が必要である。 The interaction space remains in psychological independent of each other, by grounding the real space, it is necessary to devise to easily share the face situation interaction space. そこで、対面状況で、相手の表情を確認できるくらいの視線の移動がごく自然な動作で可能となるよう、相手指定を、発言者が相手を「指差しする」動作によって行なう機能を追加した。 Therefore, in the face-to-face situation, so that the movement of the line of sight of enough to see the facial expressions of the other party it is possible in a very natural action, a partner specified, the speaker has added a function carried out by the operation to "finger-pointing" the opponent.
これにより、実世界での身体的に相手を指差しするという自然な行為による発言の対象者指定が可能となり、その行為の再に相手の方を見ることで、場の雰囲気そのものもより自然なものとなった。 As a result, physically it is possible to subject designation of remarks by the natural act of the opponent to finger-pointing in the real world, by looking at the re to the other party of the act, the atmosphere itself of place even more natural It became a thing.

本発明は、その趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。 The present invention is, of course can be appropriately changed without departing from the scope thereof.

本実施の形態のコミュニケーション装置を説明する説明図である。 It is an explanatory diagram illustrating a communication apparatus of the present embodiment. コミュニケーション装置がクライアント端末に提供するユーザインタフェース画面を示す図。 Illustrates a user interface screen communication device provides to the client terminal. 「発言完了」ボタンを示す図。 It shows a "speech Finish" button. ユーザインタフェース画面の履歴一覧の欄のログデータを抽出して示す図。 It shows by extracting column of log data history list of a user interface screen. 本実施の形態のコミュニケーション装置を説明する説明図。 Explanatory view illustrating a communication apparatus of this embodiment. 3つの表現が対話中に出現した割合のグラフ。 Ratio graph of three of expression appeared in the dialogue. 3つの表現を発言間のインターバル(発言間距離)ごとに分類した出現頻度の結果を示すグラフ。 Graph showing the results of the classified frequency for each of the three intervals between speech representation (speech distance).

符号の説明 DESCRIPTION OF SYMBOLS

S コミュニケーション装置 C1,,,Cx クライアント端末 1 ハンドル名を入力する欄 2 ログインのボタン 3 ユーザ一覧の欄 4 履歴一覧の欄 5 録音関連ボタン群 6 「録音」ボタン 7 「先行発言指定」ボタン 8 「発言への返信録音」ボタン 9 「発言相手指定」ボタン 10 「相手指定録音」ボタン 11 「発言者への返信録音」ボタン 12 「これ→を聞く」ボタン 13 「次を聞く」ボタン 14 「自分宛を聞く」ボタン 15 「先行発言を聞く」ボタン a1 音声データを特定する識別子 a2 発言者を特定する識別子 a3 発言時刻となるアップロード時刻 a4 先行する音声データを特定する識別子 b1 発信手段 b2 受信手段 S communication devices C1 ,,, Cx client terminal 1 handle name field 5 recording of the column 4 history list of button 3 user list of column 2 login to enter the relevant button group 6 "Record" button 7 "preceding remarks designation" button 8 " reply recording "button 9," remarks partner designation "button 10 to the remark" the other party specified recording "button 11" listening to reply recording "button 12" This → to the speaker "button 13" listen to the next "button 14" self-addressed listen "button 15" prior remarks hear the "button a1 voice data specific identifier b1 transmission means b2 receiving means the voice data to be uploaded time a4 preceded by the identifier a3 speaking time to identify the identifier a2 speaker to identify the

Claims (9)

  1. 複数のユーザのクライアント端末から音声データを受信する手段と、 It means for receiving audio data from a client terminal of a plurality of users,
    当該受信した音声データを蓄積記憶する手段と、 It means for storing stores the voice data the received,
    当該蓄積記憶した音声データの一覧を複数のユーザのクライアント端末に提供する手段と、 Means for providing a list of audio data the accumulated and stored in the client terminal of the plurality of users,
    当該一覧を受信したクライアント端末からの要求に応じて、要求された音声データを当該クライアント端末に提供する手段とを備える、 In response to a request from a client terminal which has received the list, the requested audio data and means for providing to the client terminal,
    複数のユーザ間における音声データを用いた対話を可能とするコミュニケーション装置であり、 A communication device that enables a dialogue with voice data among a plurality of users,
    前記対話における音声データ間の関連を示す情報を前記一覧に付加する手段を備え、 And means for adding information indicating the association between the voice data in the conversation in the list,
    前記クライアント端末により、音声データが生成され、前記音声データの一覧から先行する音声データが選択され、当該生成された音声データと当該選択された先行する音声データの識別子とがアップロードされると、 Wherein the client terminal, the audio data is generated, the audio data preceding the list of audio data is selected and the identifier of the audio data preceding that is voice data and the selection is the generation is uploaded,
    前記音声データを蓄積記憶する手段は、前記生成された音声データと選択された先行する音声データを特定する識別子とを関連付けて蓄積記憶し、 Said means for storing stores voice data storage stores in association with the identifier identifying the audio data preceding said selected with the generated audio data,
    前記音声データ間の関連を示す情報を前記一覧に付加する手段は、当該音声データの一覧に前記蓄積記憶した音声データに関する情報を追加するとともに当該音声データに関する情報に前記先行する音声データを特定する識別子を付与することを特徴とするコミュニケーション装置。 Means for adding information indicating the association between the voice data to the list identifies audio data the preceding information relating to the audio data as well as additional information about the audio data the accumulated and stored in the list of the audio data Communication apparatus characterized by imparting an identifier.
  2. 前記クライアント端末のユーザインタフェース画面に、音声を録音させて前記音声データを生成させる録音手段と、前記先行する音声データを選択させる音声データの一覧と、前記録音手段により生成させた音声データとともに前記音声データの一覧から選択させた先行する音声データの識別子をアップロードさせる先行発言指定手段とを表示させることを特徴とする請求項1記載のコミュニケーション装置。 The user interface screen of the client terminal, and recording means for generating the voice data by recording a voice, a list of audio data for selecting the audio data to the preceding, the audio together with audio data was generated by the recording means Communication apparatus according to claim 1, wherein the displaying the preceding remarks specifying means for uploading the identifier of the audio data preceding that was selected from a list of data.
  3. 前記クライアント端末のユーザインタフェース画面に、前記先行する音声データを選択させる音声データの一覧と、前記選択させた音声データに対する返信を録音させて音声データを生成させる発言への返信録音手段と、前記録音を終了させ且つ前記音声データの一覧から選択させた先行する音声データの識別子とともに前記発言への返信録音手段により生成させた音声データをアップロードさせる発言完了手段とを表示させることを特徴とする請求項1記載のコミュニケーション装置。 The user interface screen of the client terminal, a list of audio data for selecting the audio data to the preceding, and replies recording means by recording a reply to the voice data to which the were selected to speak to generate the audio data, the recording claims, characterized in that to display the speech completion means for uploading the audio data is generated by the return recording means to the speech together with the identifier of the audio data is terminated and the preceding were selected from a list of the audio data 1 communication device as claimed.
  4. 複数のユーザのクライアント端末から音声データを受信する手段と、 It means for receiving audio data from a client terminal of a plurality of users,
    当該受信した音声データを蓄積記憶する手段と、 It means for storing stores the voice data the received,
    当該蓄積記憶した音声データの一覧と前記ユーザの一覧を複数のユーザのクライアント端末に提供する手段と、 It means for providing a list of the the list of audio data the accumulated stored user in the client terminal of the plurality of users,
    当該一覧を受信したクライアント端末からの要求に応じて、要求された音声データを当該クライアント端末に提供する手段とを備え、 In response to a request from a client terminal which has received the list, the requested audio data and means for providing to the client terminal,
    複数のユーザ間における音声データを用いた対話を可能とするコミュニケーション装置であり、 A communication device that enables a dialogue with voice data among a plurality of users,
    前記対話における音声データ間の関連を示す情報を前記音声データの一覧に付加する手段を備え、 And means for adding information indicating the association between the voice data in the conversation in the list of the audio data,
    前記クライアント端末により、音声データが生成され、前記ユーザの一覧から発言相手の識別子が選択され、当該生成された音声データと当該選択された発言相手の識別子とがアップロードされると、 Wherein the client terminal, the audio data is generated, the identifier of the speech partner from a list of the user is selected and the identifier of the generated audio data and the selected speech partner is uploaded,
    前記音声データを蓄積記憶する手段は、前記生成された音声データと選択された発言相手の識別子とを関連付けて蓄積記憶し、 It said means for storing stores voice data storage stores in association with the identifier of the selected speech partner and the generated audio data,
    前記音声データ間の関連を示す情報を前記音声データの一覧に付加する手段は、当該一覧に前記蓄積記憶した音声データに関する情報を追加するとともに当該音声データに関する情報に前記発言相手の識別子を付与することを特徴とするコミュニケーション装置。 Means for adding information indicating the association between the voice data to the list of the audio data, to impart the talk partner identifier information relating to the audio data as well as additional information about the audio data the accumulated and stored in the list communication apparatus, characterized in that.
  5. 前記クライアント端末のユーザインタフェース画面に、音声を録音させて前記音声データを生成させる録音手段と、前記発言相手の識別子を選択させるユーザ一覧と、前記録音手段により生成させた音声データとともに前記ユーザ一覧から選択させた発言相手の識別子をアップロードさせる発言相手指定手段とを表示させることを特徴とする請求項4記載のコミュニケーション装置。 The user interface screen of the client terminal, and recording means for generating the voice data by recording a voice, and a user list to select the identifier of the talk partner from said user list along with the audio data is generated by the recording means Communication apparatus according to claim 4, wherein the displaying the speech partner designation means for uploading the identifier was selected speech partner.
  6. 前記クライアント端末のユーザインタフェース画面に、前記発言相手の識別子を選択させるユーザ一覧と、前記選択させた発言相手に対する発言を録音させて音声データを生成させる相手指定録音手段と、前記ユーザ一覧から選択させた発言相手の識別子とともに相手指定録音手段により生成させた音声データをアップロードさせる発言完了手段とを表示させることを特徴とする請求項4記載のコミュニケーション装置。 The user interface screen of the client terminal, a user list to select the identifier of the talk partner, and the partner designated recording means for generating a speech data by recording the speech for speech partner was the selected, is selected from the user list Communication apparatus according to claim 4, wherein together with the identifier of the speech partner by displaying the remarks completion means for uploading the audio data is generated by the other party specified recording device has.
  7. 複数のユーザのクライアント端末から音声データを受信する手段と、 It means for receiving audio data from a client terminal of a plurality of users,
    当該受信した音声データを蓄積記憶する手段と、 It means for storing stores the voice data the received,
    当該蓄積記憶した音声データの一覧を複数のユーザのクライアント端末に提供する手段と、 Means for providing a list of audio data the accumulated and stored in the client terminal of the plurality of users,
    当該一覧を受信したクライアント端末からの要求に応じて、要求された音声データを当該クライアント端末に提供する手段とを備え、 In response to a request from a client terminal which has received the list, the requested audio data and means for providing to the client terminal,
    複数のユーザ間における音声データを用いた対話を可能とするコミュニケーション装置であり、 A communication device that enables a dialogue with voice data among a plurality of users,
    前記対話における音声データ間の関連を示す情報を前記音声データの一覧に付加する手段を備え、 And means for adding information indicating the association between the voice data in the conversation in the list of the audio data,
    前記クライアント端末により、音声データが生成され、前記音声データの一覧から先行する音声データが選択され、当該生成された音声データと前記選択された先行する音声データの発言者の識別子とがアップロードされると、 By the client terminal, the audio data is generated, the the audio data selection preceding the list of audio data, the speaker identifier of the audio data preceding the with the generated voice data is the selected is uploaded When,
    前記音声データを蓄積記憶する手段は、前記選択された先行する音声データの発言者の識別子を発言相手の識別子として前記生成された音声データと関連付けて蓄積記憶し、 Said means for storing stores audio data accumulated in association with the voice data the generated the speaker identifier of the audio data preceding said selected as the identifier of the speech partner,
    前記音声データ間の関連を示す情報を前記音声データの一覧に付加する手段は、当該一覧に前記蓄積記憶した音声データに関する情報を追加するとともに当該音声データに関する情報に前記発言相手の識別子を付与することを特徴とするコミュニケーション装置。 Means for adding information indicating the association between the voice data to the list of the audio data, to impart the talk partner identifier information relating to the audio data as well as additional information about the audio data the accumulated and stored in the list communication apparatus, characterized in that.
  8. 前記クライアント端末のユーザインタフェース画面に、前記先行する音声データを選択させる音声データの一覧と、前記選択させた先行する音声データの発言者への返答を録音させて音声データを生成させる発言者への返答録音手段と、前記録音が完了すると前記音声データの一覧から選択させた先行する音声データの発言者の識別子とともに前記発言者への返信録音手段により生成させた音声データをアップロードさせる発言完了手段とを表示させることを特徴とする請求項7記載のコミュニケーション装置。 The user interface screen of the client terminal, said preceding a list of audio data for selecting the audio data, of said reply was recorded to the speaker of the audio data preceding that was selected to speaker to generate sound data and reply recording means, and the remarks completion means to upload the voice data that was generated by the reply recording means to the recording the speaker with the speaker of the identifier of the audio data preceding that was selected from a list of the voice data to be completed Communication apparatus according to claim 7, wherein the displaying the.
  9. 複数のユーザのクライアント端末とサーバとを有し、 And a client terminal of a plurality of users and the server,
    前記サーバは、前記複数のクライアント端末から音声データを受信する手段と、 The server includes means for receiving the voice data from said plurality of client terminals,
    当該受信した音声データを蓄積記憶する手段と、 It means for storing stores the voice data the received,
    当該蓄積記憶した音声データの一覧を複数のユーザのクライアント端末に提供する手段と、 Means for providing a list of audio data the accumulated and stored in the client terminal of the plurality of users,
    当該一覧を受信したクライアント端末からの要求に応じて、要求された音声データを当該クライアント端末に提供する手段とを備え、 In response to a request from a client terminal which has received the list, the requested audio data and means for providing to the client terminal,
    複数のユーザ間における音声データを用いた対話を可能とするコミュニケーション装置であり、 A communication device that enables a dialogue with voice data among a plurality of users,
    前記サーバは、前記対話における音声データ間の関連を示す情報を前記一覧に付加する手段を備え、 Wherein the server includes means for adding information indicating the association between the voice data in the conversation in the list,
    前記各クライアント端末は、信号を発信する発信手段と、発信手段からの信号を受信する受信手段とを備え、 Each client terminal includes a transmitting means for transmitting a signal, and receiving means for receiving a signal from the transmitting means,
    当該発信手段と受信手段は、発言者のクライアント端末に備えられる発信手段を発言相手のクライアント端末に備えられる受信手段を指し示すようにして信号を送受信可能であり、 The transmitting means and the receiving means can transmit and receive signals to point to the receiving means provided with transmitting means provided in the client terminal speaker client terminal remarks opponent
    発言者のクライアント端末から前記サーバに音声データが送信され、且つ、当該発言者の発信手段から信号を受信した発言相手の受信手段を備えるクライアント端末から前記サーバに当該発言相手の識別子が送信されると、 Audio data is transmitted from the speaker of the client terminal to the server, and the identifier of the speech partner is transmitted to the server from the client terminal to a receiving means of the speech partner has received the signal from the transmitting means of the speaker When,
    前記サーバは、受信した当該音声データと受信した当該発言相手の識別子とを関連付けて蓄積記憶し、前記音声データの一覧に当該音声データに関する情報を追加するとともに当該音声データに関する情報に当該発言相手の識別子を付与することを特徴とするコミュニケーション装置。 The server of the speech partner received and received the audio data accumulation stored in association with the identifier of the speech partner information about the audio data as well as additional information relating to the audio data to the list of the audio data Communication apparatus characterized by imparting an identifier.
JP2005052041A 2005-02-25 2005-02-25 Communication equipment Active JP4069207B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005052041A JP4069207B2 (en) 2005-02-25 2005-02-25 Communication equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005052041A JP4069207B2 (en) 2005-02-25 2005-02-25 Communication equipment

Publications (2)

Publication Number Publication Date
JP2006236149A JP2006236149A (en) 2006-09-07
JP4069207B2 true JP4069207B2 (en) 2008-04-02

Family

ID=37043704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005052041A Active JP4069207B2 (en) 2005-02-25 2005-02-25 Communication equipment

Country Status (1)

Country Link
JP (1) JP4069207B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4740076B2 (en) * 2006-09-12 2011-08-03 シャープ株式会社 Message exchange terminal
US8180029B2 (en) * 2007-06-28 2012-05-15 Voxer Ip Llc Telecommunication and multimedia management method and apparatus
JP5993277B2 (en) * 2012-10-26 2016-09-14 株式会社コナミデジタルエンタテインメント Display device, control method, and program

Also Published As

Publication number Publication date
JP2006236149A (en) 2006-09-07

Similar Documents

Publication Publication Date Title
US8856237B2 (en) Systems and methods for providing a client-server infrastructure for asynchronous and synchronus collaboration including co-editing activity collision prevention
US7679640B2 (en) Method and system for conducting a sub-videoconference from a main videoconference
US7099798B2 (en) Event-based system and process for recording and playback of collaborative electronic presentations
Bavelas Gestures as part of speech: Methodological implications
US9742830B2 (en) Systems and methods for asynchronously joining and leaving video conferences and merging multiple video conferences
US20100192072A1 (en) Systems and methods of collaboration
AU2004248274B2 (en) Intelligent collaborative media
US20030216181A1 (en) Use of multiple player real-time voice communications on a gaming device
US5784568A (en) Multi-party audio chat system which allows individual user utterances to be staged separately to render received utterances in order
KR101124766B1 (en) System and method for managing a contact center with a graphical call connection metaphor
CN102388379B (en) And enhanced notes for automatic online collaborative computing session
US20080229215A1 (en) Interaction In A Virtual Social Environment
US9876827B2 (en) Social network collaboration space
US9412377B2 (en) Computer-implemented system and method for enhancing visual representation to individuals participating in a conversation
US7844454B2 (en) Apparatus and method for providing voice recognition for multiple speakers
US20060164508A1 (en) Method and system for allowing video conference to choose between various associated videoconferences
US7933226B2 (en) System and method for providing communication channels that each comprise at least one property dynamically changeable during social interactions
Voida et al. When conventions collide: the tensions of instant messaging attributed
US20080252637A1 (en) Virtual reality-based teleconferencing
US9232180B2 (en) System and method for coordinating data transmission via user-maintained modes
US20080137558A1 (en) Catch-up playback in a conferencing system
US6332153B1 (en) Apparatus and method for multi-station conferencing
EP2274870B1 (en) Open architecture based domain dependent real time multi-lingual communication service
US20140229866A1 (en) Systems and methods for grouping participants of multi-user events
US7698141B2 (en) Methods, apparatus, and products for automatically managing conversational floors in computer-mediated communications

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20060808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060808

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20060912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061013

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070613

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070903

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071022

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071012

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20071022

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071217

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150