JP2002344915A - Communication grasping device, and its method - Google Patents

Communication grasping device, and its method

Info

Publication number
JP2002344915A
JP2002344915A JP2001143574A JP2001143574A JP2002344915A JP 2002344915 A JP2002344915 A JP 2002344915A JP 2001143574 A JP2001143574 A JP 2001143574A JP 2001143574 A JP2001143574 A JP 2001143574A JP 2002344915 A JP2002344915 A JP 2002344915A
Authority
JP
Japan
Prior art keywords
utterance
communication
displayed
history information
statement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001143574A
Other languages
Japanese (ja)
Inventor
Akiko Orito
朗子 折戸
Takeshi Motohashi
健 本橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2001143574A priority Critical patent/JP2002344915A/en
Publication of JP2002344915A publication Critical patent/JP2002344915A/en
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To display in real time a present conversation and conversations traced back to the past by taking the contents and status of the conversations into account so as to smoothly and efficiently progress a conference. SOLUTION: The communication grasping method includes a steps of converting conversation information such as entered voice and finger language into characters, interpreting utterance history information including utterance contents and utterance states based on the present and past conversations from entered conversation information, attaching the utterance history information to the converted characters while keeping explicit performance of a cross- reference between utterers and the utterance history information, and displaying characters with the utterance history information attached thereto as a consecutive character string according to time serial transition in the order of reception.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えばコミュニケ
ーション状況視覚把握装置の分野において利用可能であ
り、会議等における会話を、現在・過去の内容や状況を
加味して文字に変換して表示することが可能な、コミュ
ニケーション把握装置、および、その方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention can be used, for example, in the field of a communication situation visual grasping device, and converts a conversation in a conference or the like into characters in consideration of current and past contents and situations, and displays the characters. The present invention relates to a communication comprehension device and a communication comprehension device capable of performing the same.

【0002】[0002]

【従来の技術】従来、一箇所に集まって行われる会議や
ミーティング、さらには遠方との通信回線を通じたTV
会議におけるコミュニケーションでは、顔を合わせなが
ら音声を媒体にして会話を行っている。この場合、会話
内容を記録するために、録音テープ等を用いたりしてい
る。
2. Description of the Related Art Conventionally, conferences and meetings that are gathered in one place, and TVs through communication lines with distant places.
In communication at meetings, conversations are conducted using voice as a medium while face to face. In this case, a recording tape or the like is used to record the conversation content.

【0003】[0003]

【発明が解決しようとする課題】しかし、従来のコミュ
ニケーションの場において、現在の会話や過去にさかの
ぼった会話を、その会話の内容や状況をも加味してリア
ルタイムで表示するような方法は存在しない。
However, there is no method of displaying a current conversation or a conversation that has been traced in the past in real time in consideration of the content and situation of the conversation in a conventional communication environment. .

【0004】このため、近過去の議論の内容を再度参照
することは困難であり、議論の展開が把握しにくかった
り、引用が困難となったり、同じ内容の説明が繰り返し
て行われたり、説明の取りこぼしが生じたりすることが
ある。
[0004] For this reason, it is difficult to refer back to the contents of discussions in the past, and it is difficult to grasp the development of the discussions, it is difficult to cite, the same contents are repeatedly explained, May be missed.

【0005】また、現存のTV会議室システムは、対面
会議に見た目上近づけようとしているものなので、音声
と顔画像との伝達が中心となっており、前述したような
会話の内容や状況をも加味してリアルタイムで表示する
ようなものではない。
[0005] In addition, since the existing TV conference room system is intended to be visually closer to a face-to-face conference, transmission of voices and face images is mainly performed, and the content and situation of the conversation as described above are also considered. It is not something that is displayed in real time with the addition.

【0006】一方、このような問題を解決しようとし
て、音声認識によって会議の会話内容の認識結果をディ
スプレイ上に表示することは可能と考えられるが、単に
音声認識結果を表示するのみでは、対面コミュニケーシ
ョンで重要である視線の一致、自然な目線の動きを妨げ
ることになる。
On the other hand, in order to solve such a problem, it is considered possible to display the recognition result of the conversation content of the conference on a display by voice recognition, but it is possible to display face-to-face communication simply by displaying the voice recognition result. It is important to match the line of sight and to prevent natural movement of the line of sight.

【0007】しかも、単に音声対話に文字チャットを併
用するだけでは、参加者の出力媒体が増すだけで、集中
力が分散され、問題の解決には至らない。
[0007] Furthermore, simply using the text chat together with the voice conversation merely increases the output media of the participants, disperses the concentration, and does not solve the problem.

【0008】そこで、本発明の目的は、現在の会話や過
去にさかのぼった会話を、その会話の内容や状況をも加
味してリアルタイムで表示し、ひいては会議を円滑に効
率良く行うことが可能な、コミュニケーション把握装
置、および、その方法を提供することにある。
Accordingly, an object of the present invention is to display a current conversation or a conversation that has been traced in the past in real time in consideration of the content and situation of the conversation, thereby enabling a smooth and efficient meeting. , A communication grasping device, and a method thereof.

【0009】[0009]

【課題を解決するための手段】本発明は、発言者の会話
情報を認識し、文字化して表示する装置であって、会話
情報を入力する入力手段と、前記入力された会話情報を
文字に変換する変換手段と、前記入力された会話情報か
ら、現在および過去の会話に基づく発言内容と発言状況
とを含む発言履歴情報を解読する解読手段と、前記発言
者と前記発言履歴情報との対応関係の明示性を保った状
態で、前記変換した文字に該発言履歴情報を付加する付
加手段と、前記発言履歴情報が付加された文字を、時系
列的な推移に従って連なる文字列として入力順に表示す
る表示制御手段とを具えることによって、コミュニケー
ション把握装置を構成する。
SUMMARY OF THE INVENTION The present invention relates to an apparatus for recognizing speech information of a speaker and displaying the speech information in character form, comprising: input means for inputting the speech information; Conversion means for converting, from the input conversation information, decoding means for decoding the statement history information including the statement content and the statement status based on the current and past conversations, the correspondence between the speaker and the statement history information An adding unit for adding the utterance history information to the converted character while maintaining the clarity of the relationship, and displaying the character to which the utterance history information is added as a continuous character string according to a time-series transition in an input order. And a display control means for configuring the communication comprehension device.

【0010】ここで、発言履歴情報として、最新および
過去にさかのぼる発言内容や、発言量、発言の活発さ、
および発言の頻度を含む発言状況を含んでもよい。
Here, as the statement history information, the contents of the statement, the amount of the statement, the amount of the statement, the activity of the statement,
And a speech situation including the speech frequency.

【0011】最新の発言内容は、常に発言者の近傍に表
示し、過去の発言内容は、時間の経過と共に前後関係を
保ったまま表示位置を徐々に移動してもよい。
The contents of the latest remark may be always displayed in the vicinity of the speaker, and the contents of the past remarks may be gradually moved over time while maintaining the context.

【0012】発言者の発言内容は、隣の発言者の発言内
容と重ならないように文字間隔を決めて表示し、過去の
発言内容になるにつれて文字間隔が狭く重なって表示し
てもよい。
The content of the utterance of the speaker may be displayed with the character spacing determined so as not to overlap with the content of the utterance of the next speaker, and may be displayed with the character spacing becoming narrower and overlapping as the content of the past utterance increases.

【0013】最新の発言内容は、速く表示し、過去の発
言内容は、過去にさかのぼるに従ってゆっくりと表示
し、ある位置で止まって消滅してもよい。
The contents of the latest remark may be displayed quickly, and the contents of past remarks may be displayed slowly as it goes back to the past, and may stop at a certain position and disappear.

【0014】文字を雲状形態にして、発言者の近傍に表
示してもよい。
The character may be displayed in the form of a cloud in the vicinity of the speaker.

【0015】文字の雲状形態は、前記発言状況に応じて
雲形の形状が全体的に変化させてもよい。本発明は、発
言者の会話情報を認識し、文字化して表示する方法であ
って、会話情報を入力する工程と、前記入力された会話
情報を文字に変換する工程と、前記入力された会話情報
から、現在および過去の会話に基づく発言内容と発言状
況とを含む発言履歴情報を解読する工程と、前記発言者
と前記発言履歴情報との対応関係の明示性を保った状態
で、前記変換した文字に該発言履歴情報を付加する工程
と、前記発言履歴情報が付加された文字を、時系列的な
推移に従って連なる文字列として入力順に表示する工程
とを具えることによって、コミュニケーション把握方法
を提供する。
In the cloud-like form of the character, the shape of the cloud may be changed as a whole according to the utterance situation. The present invention relates to a method for recognizing a speaker's conversation information and displaying it in characters, wherein the step of inputting conversation information, the step of converting the inputted conversation information into characters, and the step of From the information, the step of decoding the statement history information including the statement content and the statement status based on the current and past conversations, and the conversion is performed while maintaining the clarity of the correspondence between the speaker and the statement history information. A communication grasp method by providing a step of adding the utterance history information to the set characters and a step of displaying the characters to which the utterance history information is added as a continuous character string according to a chronological transition in an input order. provide.

【0016】本発明は、発言者の会話情報を文字化して
表示制御するためのプログラムであって、該プログラム
は、コンピュータによって読み取り可能な記録媒体に記
録されており、音声又は手話を含む会話情報を入力する
工程と、前記入力させた会話情報を文字に変換する工程
と、前記入力させた会話情報から、現在および過去の会
話に基づく発言内容と発言状況とを含む発言履歴情報を
解読する工程と、前記発言者と前記発言履歴情報との対
応関係の明示性を保った状態で、前記変換した文字に該
発言履歴情報を付加する工程と、前記発言履歴情報が付
加された文字を、時系列的な推移に従って連なる文字列
として入力順に表示する工程とを具えることによって、
コミュニケーション把握制御プログラムを提供する。
The present invention is a program for controlling the display of a speaker by converting the conversation information into characters. The program is recorded on a computer-readable recording medium, and includes conversation information including voice or sign language. , Converting the input conversation information into characters, and decoding, from the input conversation information, utterance history information including utterance contents and utterance states based on current and past conversations Adding the utterance history information to the converted character while maintaining the clarity of the correspondence between the utterer and the utterance history information; and And displaying the characters in a sequence according to the sequential transition in the order of input.
Provide a communication grasp control program.

【0017】本発明は、コンピュータによって、発言者
の会話情報を文字化して表示制御するためのプログラム
を記録した媒体であって、該制御プログラムはコンピュ
ータに、音声又は手話を含む会話情報を入力させ、前記
入力させた会話情報を文字に変換させ、前記入力させた
会話情報から、現在および過去の会話に基づく発言内容
と発言状況とを含む発言履歴情報を解読させ、前記発言
者と前記発言履歴情報との対応関係の明示性を保った状
態で、前記変換した文字に該発言履歴情報を付加させ、
前記発言履歴情報が付加された文字を、時系列的な推移
に従って連なる文字列として入力順に表示させ、ここ
で、前記発言内容は、隣の発言者の発言内容と重ならな
いように文字間隔を決めて表示させ、過去の発言内容に
なるにつれて文字間隔を狭くして重ならせながら、過去
にさかのぼるに従ってゆっくりと表示させ、ある位置で
止まって消滅させ、文字を雲状形態にして、発言者の近
傍で、前記発言状況に応じて雲形の形状を全体的に変化
させながら表示させることによって、コミュニケーショ
ン把握制御プログラムを記録した媒体を提供する。
According to the present invention, there is provided a medium recording a program for controlling the display of a speaker by converting the conversation information into characters by a computer. The control program causes the computer to input conversation information including voice or sign language. Converting the input conversation information into characters, decoding the statement history information including the statement contents and the statement status based on current and past conversations from the entered conversation information, and While maintaining the clarity of the correspondence relationship with the information, the statement history information is added to the converted character,
The characters to which the utterance history information is added are displayed in the order of input as a continuous character string according to a chronological transition.Here, the utterance content is determined so that the character interval does not overlap with the utterance content of an adjacent speaker. The characters are narrowed down and overlapped as the content of the past remarks overlaps, and slowly displayed as it goes back in the past, stops at a certain position and disappears, and makes the characters cloudy, In the vicinity, a medium in which a communication grasp control program is recorded is provided by displaying while changing the shape of the cloud as a whole according to the utterance situation.

【0018】[0018]

【発明の実施の形態】以下、図面を参照して、本発明の
実施の形態を詳細に説明する。 [第1の例]本発明の第1の実施の形態を、図1〜図4
に基づいて説明する。 (概要)まず、本発明の概要について説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings. [First Example] FIGS. 1 to 4 show a first embodiment of the present invention.
It will be described based on. (Outline) First, an outline of the present invention will be described.

【0019】本発明の実行に当り、以下の3つの点〜
を考慮する。
In implementing the present invention, the following three points:
Consider.

【0020】コミュニケーションの内容の2次利用が
必要であり、このために音声の文字化を行い、視覚的情
報によって2次利用を行えるようにする。
[0020] Secondary use of communication contents is necessary. For this purpose, voice is transcribed so that secondary use can be performed by visual information.

【0021】この際、対話の視線をさえぎらない視覚
利用であることか重要であるので、文字を雲状に話者の
そばに表示することによって実現する。
At this time, since it is important to use visuals that do not obstruct the line of sight of the dialogue, it is realized by displaying characters in a cloud shape near the speaker.

【0022】コミュニケーションの内容ばかりでな
く、コミュニケーションの状況を把握するために、発話
量や状況の明示化が必要であり、文字の雲状表示の頻度
および濃度を用いて表現する。
In order to grasp not only the contents of the communication but also the state of the communication, it is necessary to clarify the amount of utterance and the state, and the expression is made using the frequency and density of cloud display of characters.

【0023】そこで、本発明では、以下の手法を用い
る。
Therefore, in the present invention, the following method is used.

【0024】記録に残る形で可視化されていない(時系
列の)コミュニケーション手段(例として、音声会話、
手話)による過去のコミュニケーションの内容につい
て、 1)文字化装置を用いて、かかるコミュニケーション内
容を文字に変換する。ただし、コミュニケーションが途
絶している時間(例として、会話では発声していない時
間)は、空白スペースとして文字化する。
Communication means that are not visualized (chronologically) in a recorded manner (for example, voice conversation,
Regarding the contents of past communication by sign language): 1) Convert the communication contents into characters by using a character conversion device. However, the time during which communication is interrupted (for example, the time during which no speech is made in conversation) is converted into a character as a blank space.

【0025】2)コミュニケーション手段を用いて、文
字をコミュニケーションしている当事者の近傍に、コミ
ュニケーションの内容と当事者との関係の明示性を保っ
た状態で、表示の可能範囲に、コミュニケーションの内
容の推移を追って連なる文字列として表示する。
2) The transition of the contents of the communication to the displayable range in a state where the contents of the communication and the relationship between the parties are clearly maintained in the vicinity of the party communicating the characters using the communication means. Is displayed as a continuous character string.

【0026】ここで、表示の形態としては、 3)文字化されたコミュニケーションの内容(空白を含
む)は、逐次、時系列的順序を保つように表示可能範囲
に表示する。
Here, the display form is: 3) Characterized communication contents (including blanks) are sequentially displayed in a displayable range so as to maintain a chronological order.

【0027】4)表示する空白部以外の文字には、文字
の存在を強調するようにフォントの周囲に背景効果を付
す。
4) A character other than the blank portion to be displayed is provided with a background effect around the font so as to emphasize the presence of the character.

【0028】5)時間の経過と共に、過去のコミュニケ
ーションの内容の表示部分は、前後関係を保ったまま表
示位置を徐々に移動させ、可視化された最新のコミュニ
ケーションの内容を常に当事者の近傍(上部や下部)に
表示する。
5) With the passage of time, the display part of the contents of the past communication is gradually moved while maintaining the context, and the latest visualized contents of the communication are always displayed in the vicinity of the party (upper part or lower part). At the bottom).

【0029】6)空白部(発言のない時間)は、透明
(何も表示しない)あるいは目立たない表示(少なくと
も無文字)とする。
6) The blank part (the time when there is no speech) is made transparent (nothing is displayed) or inconspicuous display (at least no characters).

【0030】(コミュニケーション把握処理)図1は、
本発明に係るコミュニケーション把握処理の1例を示
す。この例では、以下のステップに基づいて、発言者の
会話情報を認識し、文字化して表示する処理を行う。
(Communication Grasp Processing) FIG.
1 shows an example of a communication comprehension process according to the present invention. In this example, based on the following steps, a process of recognizing the conversation information of the speaker, converting it into characters, and displaying it is performed.

【0031】ステップS1では、会話情報を入力する。In step S1, conversation information is input.

【0032】ステップS2では、入力された会話情報を
文字に変換する。
In step S2, the input conversation information is converted into characters.

【0033】ステップS3では、入力された会話情報か
ら、現在および過去の会話に基づく発言内容と発言状況
とを含む発言履歴情報を解読する。
In step S3, from the input conversation information, utterance history information including utterance contents and utterance states based on current and past conversations is decoded.

【0034】ステップS4では、発言者と発言履歴情報
との対応関係の明示性を保った状態で、変換した文字に
該発言履歴情報を付加する。
In step S4, the statement history information is added to the converted character while maintaining the clarity of the correspondence between the speaker and the statement history information.

【0035】ステップS5では、発言履歴情報が付加さ
れた文字を、時系列的な推移に従って連なる文字列とし
て入力順に表示する。
In step S5, the characters to which the utterance history information is added are displayed in the input order as a continuous character string according to a time-series transition.

【0036】以上の点を踏まえて、以下、具体的な例を
挙げて説明する。
Based on the above points, a specific example will be described below.

【0037】(具体例)本例では、コミュニケーション
手段として音声を用い、コミュニケーション例として対
面型口頭会議を想定した場合の例について説明する。
(Specific Example) In this example, an example in which voice is used as a communication means and a face-to-face oral meeting is assumed as a communication example will be described.

【0038】(装置構成)図4は、コミュニケーション
把握装置としての文字化装置の構成例を示す。
(Device Configuration) FIG. 4 shows a configuration example of a characterizing device as a communication grasping device.

【0039】本文字化装置1は、情報入力装置としての
音声入力装置10と、音声認識装置20と、表示装置3
0とに大別される。
The character conversion device 1 includes a voice input device 10 as an information input device, a voice recognition device 20, a display device 3
It is roughly divided into 0.

【0040】この場合、音声入力装置10は、会話情報
としての音声を集音する1個のマイクにより構成され
る。音声認識装置20は、文字変換部22と、履歴解読
部23と、付加部24とからなる音声認識部21を備え
ている。表示装置30は、表示制御部31と、各個人の
上方に表示画面33(すなわちプロジェクション画面)
を投影する3個のプロジェクタ32とを備えている。
In this case, the voice input device 10 is composed of one microphone that collects voice as conversation information. The speech recognition device 20 includes a speech recognition unit 21 including a character conversion unit 22, a history decoding unit 23, and an addition unit 24. The display device 30 includes a display control unit 31 and a display screen 33 (ie, a projection screen) above each individual.
Are projected.

【0041】ここで、本発明に係る各部の構成は、以下
のようになる。
Here, the configuration of each unit according to the present invention is as follows.

【0042】文字変換部22は、入力された会話情報を
文字に変換する機能をもつ。
The character converter 22 has a function of converting the input conversation information into characters.

【0043】履歴解読部23は、入力された音声から、
現在および過去の会話に基づく発言内容と発言状況とを
含む発言履歴情報を解読する機能をもつ。この場合、発
言内容とは、最新および過去にさかのぼる情報である。
発言状況とは、発言量、発言の活発さ、発言の頻度を含
む情報である。
The history decoding unit 23 converts the input speech
It has a function of decoding utterance history information including utterance content and utterance status based on current and past conversations. In this case, the statement content is information that is the latest and goes back to the past.
The speech status is information including the speech volume, the activity of the speech, and the frequency of the speech.

【0044】付加部24は、発言者と発言履歴情報との
対応関係の明示性を保った状態で、変換した文字に発言
履歴情報を付加する機能をもつ。
The adding section 24 has a function of adding the statement history information to the converted character while maintaining the clarity of the correspondence between the speaker and the statement history information.

【0045】表示制御部31は、発言履歴情報が付加さ
れた文字を、時系列的な推移に従って連なる文字列とし
て、入力順すなわち認識順に表示制御する機能をもつ。
The display control section 31 has a function of controlling the display of the character to which the utterance history information is added, as a character string connected according to a chronological transition in the input order, that is, in the recognition order.

【0046】なお、本例では、3つの装置10,20,
30に分けて構成したが、これに限るものではなく、装
置内で一体に構成してもよい。さらに、会話情報として
は、音声に限るものではなく、その他の情報例えば手話
でもよい。手話の場合は、手の動きを認識して文字化す
る機能が必要となる。
In this example, the three devices 10, 20,
Although the configuration is divided into 30, the configuration is not limited to this, and it may be configured integrally in the apparatus. Further, the conversation information is not limited to voice, but may be other information such as sign language. In the case of sign language, a function of recognizing the movement of the hand and converting it into a character is required.

【0047】(文字化処理)次に、本装置1の動作につ
いて説明する。
(Characterization processing) Next, the operation of the present apparatus 1 will be described.

【0048】図3(a)は、本装置1を利用した対面型
口頭会議の場面を示す。
FIG. 3A shows a scene of a face-to-face oral conference using the present apparatus 1.

【0049】発言者101〜103による各音声A〜C
は、音声入力装置10に入力され、音声認識装置20に
よって解析処理される。その後、表示装置30から発言
者101〜103に対応した時系列的な文字列(現在お
よび過去を含む)201〜203として雲形状に出力表
示される。
Each voice A to C by speakers 101 to 103
Is input to the voice input device 10 and analyzed by the voice recognition device 20. Thereafter, the display device 30 outputs and displays the time-series character strings (including the present and the past) 201 to 203 corresponding to the speakers 101 to 103 in a cloud shape.

【0050】以下、文字化処理を詳細に説明する。Hereinafter, the characterizing process will be described in detail.

【0051】会議参加者(ここでは発言者101〜10
3)は、音声入力装置(マイク)10を通じて発言す
る。これによって入力された音声は、音声認識装置22
を通じて文字に変換される。
Conference participants (here, speakers 101 to 10)
3) speaks through the voice input device (microphone) 10. The voice input by this is input to the voice recognition device 22.
Is converted to characters through

【0052】なお、テーブル上に置かれるマイク10は
1個とするが、多人数の音声の中から各個人を識別する
技術が難しい場合には、マイク10を各個人が別個に身
に付けるようにしたり、初回のみ各個人の音声認識を学
習させるような処理を追加させてもよい。また、本例で
は、音声入力装置10としてマイクを用いるが、これに
限るものではなく、音声認識装置20内で、音声認識部
21にヘッドセット50(図3(b)参照、ヘッドセッ
ト50は、マイクロホン51とヘッドホン52とからな
る)を組み合わせたものを使用してもよい。
Although the number of microphones 10 placed on the table is one, if it is difficult to identify each individual from among a large number of voices, each individual should wear the microphone 10 separately. Alternatively, a process for learning the voice recognition of each individual only for the first time may be added. Further, in this example, a microphone is used as the voice input device 10, but the present invention is not limited to this, and the voice recognition unit 21 is provided with a headset 50 (see FIG. , A microphone 51 and a headphone 52).

【0053】発言者101の文字化された発言Aは、直
ちに音声認識装置20で解析処理された後、表示装置3
0によって表示画面33上に表示される。この表示画面
33としては、各個人の上方にプロジェクタ32で投影
するプロジェクション画面33に限るものではなく、例
えば、各個人の持つ表示器、参加者全員から見ることの
できる共通画面、又は、会議を行う部屋の壁面等を利用
することができる。
The character A of the speaker 101 is immediately analyzed by the voice recognition device 20, and then the display device 3
0 is displayed on the display screen 33. The display screen 33 is not limited to the projection screen 33 projected by the projector 32 above each individual. For example, the display screen of each individual, a common screen that can be viewed from all participants, or a conference The wall or the like of the room where the operation is performed can be used.

【0054】(表示例)図2は、発言者101の発言A
が文字化されて、表示画面33上に文字列201として
表示された内容を示す。
(Display Example) FIG. 2 shows the statement A of the speaker 101.
Indicates the contents displayed as a character string 201 on the display screen 33 in the form of characters.

【0055】発言Aが文字状に可視化された文字列20
1は、天井近くなど発言者101よりも上部方向に、隣
の発言者の発言表示と重ならないように幅を決めて表示
される。この場合、表示される文字列201は、最初は
速く、上に上がっていくに従ってゆっくりとなり、ある
位置で止まって消える。文字を表示する間は、相対的に
は高速で上部へ移動する。
A character string 20 in which the remark A is visualized in a character shape
1 is displayed in a direction above the speaker 101, such as near the ceiling, with a determined width so as not to overlap with the statement display of the next speaker. In this case, the displayed character string 201 is fast at first, slows down as it goes up, stops at a certain position, and disappears. While displaying characters, they move upward at a relatively high speed.

【0056】このような表示に際して、発言Aが文字化
された文字列201は、逐次(認識された順、すなわち
文字に変換された順に従って)発言者101の上部から
表示され、表示領域の下部端から横書きに表示される。
In such a display, the character string 201 in which the utterance A is converted into characters is displayed sequentially (in the order of recognition, that is, in the order of conversion into characters) from the upper part of the utterer 101, and the lower part of the display area. It is displayed horizontally from the edge.

【0057】発言Aが表示された文字列201が蓄積し
てくるに応じて、表示画面33上の表示領域はスクロー
ルし、最新発言が最も下部に表示されることとなる。
As the character string 201 displaying the message A accumulates, the display area on the display screen 33 is scrolled, and the latest message is displayed at the bottom.

【0058】そして、時間の経過と共に、発言量が蓄積
されてくるが、常に直前の発言Aが可視であるように、
最上部(古い発言)から順に、文字表示色が薄く目立た
なくなる、或いは、消えていく、或いは、文字サイズを
小さくすることによって、表示領域全体を確保する。
Then, as the time elapses, the amount of remarks is accumulated, and the immediately preceding remark A is always visible.
In order from the top (oldest utterance), the character display color becomes light and inconspicuous or disappears, or the character size is reduced, thereby securing the entire display area.

【0059】文字がスクロールする速度は、各人の発言
量およびスピードがまちまちであることから、必ずしも
参加者全員で一致するものではないが、発言文字が表示
しきれないことがないように、古い発言ほどサイズを小
さくしたり、発言量と速度が大きい者についてはスクロ
ール速度を速くするなどして調整する。
The scrolling speed of the characters is not necessarily the same for all the participants because the amount and speed of each person's utterance vary, but the oldest utterance characters are used so that the utterance characters cannot be displayed completely. Adjustment is made by reducing the size of the utterance or by increasing the scroll speed for a person whose utterance amount and speed are large.

【0060】また、表示される文字列201は、各文字
フォントに半透明な背景を付け、発言全体を外観する
と、雲形状のように見える。無音部(発言がないため、
文字に変換されない時間)は背景のない(雲のない)透
明部を表示(すなわち、空白時間に応じてスペースを表
示)し、前項の発言の在る部分(蒸気雲部)と視覚的に
判別ができる(すなわち、しゃべらないと頭の上に雲が
できない)。結果的に、表示される文字の周りにぼやっ
と雲があり、無音部には雲はないので、発言量や頻度に
応じて、全体の雲の形が変化してみえる。
The displayed character string 201 has a translucent background to each character font, and looks like a cloud when the entire remark is made. Silence (Since there is no remark,
At the time that is not converted to characters, a transparent part without a background (no clouds) is displayed (that is, a space is displayed according to the blank time), and it is visually distinguished from the part (steam cloud part) where the utterance described in the preceding paragraph is present You can do it (that is, if you don't speak, there's no cloud above your head). As a result, there is a cloud around the displayed characters and there is no cloud in the silent part, so that the shape of the whole cloud can be seen to change according to the amount of speech and the frequency.

【0061】また、さかのぼる短時間に繰り返して同じ
単語を発言している場合には、表示される文字がボール
ドになる、逆に薄く表示する、文字色が変化する、など
の強調効果を付与してもよい。
When the same word is repeatedly spoken in a short period of time, an emphasis effect such as bolding of the displayed characters, display of the characters faintly, change of the character color, and the like is given. You may.

【0062】(まとめ)以上により、文字化処理の利点
についてまとめる。
(Summary) The advantages of the characterizing process are summarized as described above.

【0063】1)発言内容を発言者個人の上方(又は下
方など)、本人の近傍に表示することによって、誰がど
れくらい何を発言した(している)かを明快に可視化す
ることができる。
1) By displaying the contents of a statement above (or below) the individual speaker or in the vicinity of the person himself / herself, it is possible to clearly visualize who has spoken and how much.

【0064】2)過去一定時間内の或いは総発言内容を
表示し、誰がどれくらい発言しているか、その差異を定
量的に可視化表示できる。
2) The content of a total utterance within a certain period of time in the past or the total utterance content is displayed, and the difference between who utters and how much can be visualized quantitatively.

【0065】3)発言の経緯や頻度情報が、視覚的に参
照できる。
3) The history and frequency information of the comment can be visually referenced.

【0066】4)一箇所で一人しかいない場合等、表示
画像が共有されていないときは、自・他・発言者の隠れ
ている過去発言も必要に応じてスクロールして参照でき
る。
4) When the displayed image is not shared, for example, when there is only one person at one place, the past utterances hidden by the self / other / speaker can be scrolled and referenced as necessary.

【0067】5)総時間、或いは、過去の一定時間内に
おける発言量が対話空間と違和感のない位置に表示され
ることによって、会議参加者にとっては、対話を損なう
ことなく、発言状況や内容が参照でき、次の発言をより
効果的にする情報が得られる。例えば、発言の内容が冷
静に判断できるとか、発言していない人の分布が明確で
あることによって、発言を促すことができる。
5) The total time or the amount of remarks within a certain period of time in the past is displayed at a position that does not make the user feel uncomfortable with the conversation space. You can refer to and get information that makes the next statement more effective. For example, it is possible to promptly make a statement when the content of the statement can be judged calmly or when the distribution of persons who have not made a statement is clear.

【0068】[第2の例]本発明の第2の実施の形態
を、図5に基づいて説明する。なお、前述した第1の例
と同一部分についてはその説明を省略し、同一符号を付
す。
[Second Example] A second embodiment of the present invention will be described with reference to FIG. The description of the same parts as those in the first example is omitted, and the same reference numerals are given.

【0069】図5は、TV画面等を用いた遠隔会議を想
定した場合の例である。文字化装置1の構成は、前述し
た図4と同様である。なお、本例でも、音声認識用のヘ
ッドセットを用いてもよい。
FIG. 5 shows an example in which a remote conference using a TV screen or the like is assumed. The configuration of the character encoding device 1 is the same as that of FIG. In this example, a headset for voice recognition may be used.

【0070】文字化装置1によって発言者101〜10
3の発言A〜Cが文字化され、表示画面33上に雲状の
文字列201〜203として表示される。これら発言者
101〜103と、表示された文字列201〜203と
は、TVカメラ400により撮影されて、遠方の相手側
に送られる。
The uttering devices 101 to 10
3 are converted into characters and displayed on the display screen 33 as cloud character strings 201 to 203. These speakers 101 to 103 and the displayed character strings 201 to 203 are photographed by the TV camera 400 and sent to a distant partner.

【0071】その一方で、TV画面60上には、遠方の
相手側である発言者301,302の発言内容が雲状の
文字列401,402として表示される。
On the other hand, on the TV screen 60, the utterance contents of the utterers 301 and 302, which are distant partners, are displayed as cloud character strings 401 and 402.

【0072】このように遠隔会議に文字化装置1を利用
することにより、遠隔参加者の画像はTV画面60上で
あっても、当人の発言内容表示は、近接の(例えば参加
者の上部)空間上に表示することによって、相手方の発
言内容の一部がこちら側に存在することになり、TV会
議ではぬぐえない距離感を低減し、なにかしら親近感を
感じることができ、会議を円滑に行うことができる。
As described above, by using the character encoding device 1 for the remote conference, even if the image of the remote participant is on the TV screen 60, the display of the utterance content of the person concerned is close (for example, the upper part of the participant). ) By displaying in the space, a part of the content of the other party's remarks will be present on this side, the sense of distance that can not be wiped out in a TV conference can be reduced, and a sense of intimacy can be felt in some way, It can be done smoothly.

【0073】また、発言者101〜103が日本語、発
言者301,302が英語というように会話に用いる言
語が異なるような場合には、文字化装置1内に翻訳機能
をさらに備えることによって、一段とスムーズに会議を
行うことが可能となる。
When the speakers 101 to 103 use different languages for conversation, such as Japanese and the speakers 301 and 302 use English, a translating function is further provided in the characterizing device 1. It is possible to hold meetings more smoothly.

【0074】[0074]

【発明の効果】以上説明したように、本発明によれば、
入力された音声や手話等の会話情報を文字に変換し、入
力された会話情報から現在および過去の会話に基づく発
言内容と発言状況とを含む発言履歴情報を解読し、発言
者と発言履歴情報との対応関係の明示性を保った状態
で、該変換した文字に発言履歴情報を付加し、発言履歴
情報が付加された文字を時系列的な推移に従って連なる
文字列として入力順に表示するようにしたので、自己お
よび他人を識別したコミュニケーション内容、および、
未記録によって参照が困難だった過去のコミュニケーシ
ョン内容を、該コミュニケーションの発言量、発言の活
発さや頻度といった従来視覚的には認知できなかった指
標と共に、視覚的に提示することが可能となり、これに
より、コミュニケーションを重層的で一層密度の濃いも
のとし、現在の会話や過去にさかのぼった会話をその会
話の内容や状況をも加味してリアルタイムで表示し、ひ
いては会議を円滑に効率良く行うことができる。
As described above, according to the present invention,
Conversation information such as input voice and sign language is converted into characters, and from input conversation information, utterance history information including utterance contents and utterance status based on current and past conversations is decoded, and utterer and utterance history information While maintaining the clarity of the correspondence relationship with, the utterance history information is added to the converted character, and the characters to which the utterance history information is added are displayed in the input order as a continuous character string according to a chronological transition. Communication content that has identified itself and others, and
It is possible to visually present past communication contents that were difficult to refer to due to unrecorded data, together with indices such as the amount of speech of the communication, the activity and frequency of speech, which could not be visually recognized conventionally, and , Communication can be multi-layered and denser, and current and past conversations can be displayed in real time, taking into account the content and situation of the conversation, and consequently meetings can be held smoothly and efficiently .

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態である、コミュニケ
ーション把握処理を説明するフローチャートである。
FIG. 1 is a flowchart illustrating a communication grasp process according to a first embodiment of the present invention.

【図2】表示画面に表示された雲状の文字列の内容を示
す説明図である。
FIG. 2 is an explanatory diagram showing the contents of a cloud-like character string displayed on a display screen.

【図3】(a)は対面型口頭会議の場面を示す斜視図、
(b)はヘッドセットを用いて発言する様子を示す斜視
図である。
FIG. 3A is a perspective view showing a scene of a face-to-face oral meeting,
(B) is a perspective view showing how to speak using a headset.

【図4】本発明に係る文字化装置の構成を示すブロック
図である。
FIG. 4 is a block diagram illustrating a configuration of a character encoding device according to the present invention.

【図5】本発明の第2の実施の形態である、遠隔会議を
示す説明図である。
FIG. 5 is an explanatory diagram showing a remote conference which is a second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 文字化装置(コミュニケーション把握装置) 10 情報入力装置 20 音声認識装置 21 音声認識部 22 文字変換部 23 履歴解読部 24 付加部 30 表示装置 31 表示制御部 32 プロジェクタ 33 表示画面 60 TV画面 101〜103 発言者 201〜203 文字列 301〜302 発言者 400 TVカメラ DESCRIPTION OF SYMBOLS 1 Characterization device (communication grasping device) 10 Information input device 20 Voice recognition device 21 Voice recognition unit 22 Character conversion unit 23 History decoding unit 24 Addition unit 30 Display device 31 Display control unit 32 Projector 33 Display screen 60 TV screen 101 to 103 Speaker 201-203 Character string 301-302 Speaker 400 TV camera

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/00 G10L 3/00 551G 15/22 561C Fターム(参考) 5B091 AA11 BA19 CA02 CA14 CB12 5C064 AA02 AA06 AB06 AC02 AC06 AC08 AC09 AC12 AC14 AC18 5D015 KK02 5E501 AA01 AB20 AC34 BA03 CA02 CB15 EA21 FA13 FB32 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI theme coat ゛ (reference) G10L 15/00 G10L 3/00 551G 15/22 561C F term (reference) 5B091 AA11 BA19 CA02 CA14 CB12 5C064 AA02 AA06 AB06 AC02 AC06 AC08 AC09 AC12 AC14 AC18 5D015 KK02 5E501 AA01 AB20 AC34 BA03 CA02 CB15 EA21 FA13 FB32

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】 発言者の会話情報を認識し、文字化して
表示する装置であって、 会話情報を入力する入力手段と、 前記入力された会話情報を文字に変換する変換手段と、 前記入力された会話情報から、現在および過去の会話に
基づく発言内容と発言状況とを含む発言履歴情報を解読
する解読手段と、 前記発言者と前記発言履歴情報との対応関係の明示性を
保った状態で、前記変換した文字に該発言履歴情報を付
加する付加手段と、 前記発言履歴情報が付加された文字を、時系列的な推移
に従って連なる文字列として入力順に表示する表示制御
手段とを具えたことを特徴とするコミュニケーション把
握装置。
1. An apparatus for recognizing speech information of a speaker and displaying the speech information in a character form, comprising: input means for inputting conversation information; conversion means for converting the inputted conversation information into characters; Decoding means for decoding utterance history information including utterance content and utterance status based on current and past conversations from the obtained conversation information, and a state in which the correspondence relationship between the utterer and the utterance history information is maintained. And adding display means for adding the utterance history information to the converted character, and display control means for displaying the character added with the utterance history information as a continuous character string in a time-series transition in the order of input. Communication grasping device characterized by that.
【請求項2】 前記発言履歴情報は、 最新および過去にさかのぼる発言内容と、 発言量、発言の活発さ、および発言の頻度を含む発言状
況とを含むことを特徴とする請求項1記載のコミュニケ
ーション把握装置。
2. The communication according to claim 1, wherein the utterance history information includes utterance contents that are traced to the latest and the past, and utterance status including utterance volume, utterance activity, and utterance frequency. Holding device.
【請求項3】 前記表示制御手段は、 最新の発言内容は、常に発言者の近傍に表示し、 過去の発言内容は、時間の経過と共に前後関係を保った
まま表示位置を徐々に移動していくことを特徴とする請
求項1又は2のいずれかに記載のコミュニケーション把
握装置。
3. The display control means always displays the latest utterance content in the vicinity of the utterer, and gradually moves the display position of the past utterance content while maintaining the context with the passage of time. The communication comprehension device according to claim 1, wherein the communication comprehension is performed.
【請求項4】 前記表示制御手段は、 前記発言者の発言内容は、隣の発言者の発言内容と重な
らないように文字間隔を決めて表示し、 過去の発言内容になるにつれて文字間隔が狭く重なって
表示することを特徴とする請求項1ないし3のいずれか
に記載のコミュニケーション把握装置。
4. The display control means, wherein the content of the utterance of the utterer is determined and displayed so that the utterance content of the utterer does not overlap with the utterance content of an adjacent utterer. The communication comprehension device according to any one of claims 1 to 3, wherein the communication grasp device is displayed in an overlapping manner.
【請求項5】 前記表示制御手段は、 最新の発言内容は、速く表示し、 過去の発言内容は、過去にさかのぼるに従ってゆっくり
と表示し、ある位置で止まって消滅することを特徴とす
る請求項1ないし4のいずれかに記載のコミュニケーシ
ョン把握装置。
5. The display control means according to claim 1, wherein the latest utterance content is displayed quickly, the past utterance content is displayed slowly as it goes back to the past, and stops at a certain position and disappears. 5. The communication grasp device according to any one of 1 to 4.
【請求項6】 前記表示制御手段は、 文字を雲状形態にして、発言者の近傍に表示することを
特徴とする請求項1ないし5のいずれかに記載のコミュ
ニケーション把握装置。
6. The communication comprehension device according to claim 1, wherein the display control means displays the characters in the form of a cloud in the vicinity of the speaker.
【請求項7】 前記文字の雲状形態は、前記発言状況に
応じて雲形の形状が全体的に変化することを特徴とする
請求項6記載のコミュニケーション把握装置。
7. The communication comprehension device according to claim 6, wherein the cloud-like form of the character has a cloud-like shape that changes as a whole according to the speech situation.
【請求項8】 発言者の会話情報を認識し、文字化して
表示する方法であって、 会話情報を入力する工程と、 前記入力された会話情報を文字に変換する工程と、 前記入力された会話情報から、現在および過去の会話に
基づく発言内容と発言状況とを含む発言履歴情報を解読
する工程と、 前記発言者と前記発言履歴情報との対応関係の明示性を
保った状態で、前記変換した文字に該発言履歴情報を付
加する工程と、 前記発言履歴情報が付加された文字を、時系列的な推移
に従って連なる文字列として入力順に表示する工程とを
具えたことを特徴とするコミュニケーション把握方法。
8. A method of recognizing conversation information of a speaker and displaying the conversation information in characters, comprising: inputting conversation information; converting the input conversation information into characters; From the conversation information, the step of decoding the statement history information including the statement content and statement status based on the current and past conversations, and, while maintaining the clarity of the correspondence between the speaker and the statement history information, A communication comprising: a step of adding the comment history information to the converted characters; and a step of displaying the characters to which the comment history information is added as a continuous character string according to a chronological transition in an input order. How to figure out.
【請求項9】 前記発言履歴情報は、 最新および過去にさかのぼる発言内容と、 発言量、発言の活発さ、および発言の頻度を含む発言状
況とを含むことを特徴とする請求項8記載のコミュニケ
ーション把握方法。
9. The communication according to claim 8, wherein the utterance history information includes utterance contents retroactively and retroactively, and utterance status including utterance amount, utterance activity, and utterance frequency. How to figure out.
【請求項10】 最新の発言内容は、常に発言者の近傍
に表示し、 過去の発言内容は、時間の経過と共に前後関係を保った
まま表示位置を徐々に移動していくことを特徴とする請
求項8又は9記載のコミュニケーション把握方法。
10. The latest utterance content is always displayed in the vicinity of the utterer, and the past utterance content gradually moves the display position while maintaining the context with the passage of time. The communication grasp method according to claim 8 or 9.
【請求項11】 前記発言者の発言内容は、隣の発言者
の発言内容と重ならないように文字間隔を決めて表示
し、 過去の発言内容になるにつれて文字間隔が狭く重なって
表示することを特徴とする請求項8ないし10のいずれ
かに記載のコミュニケーション把握方法。
11. The statement content of said speaker is displayed with character spacing determined so as not to overlap with the comment content of an adjacent speaker, and the character spacing is narrowly overlapped and displayed as the content of the past statement becomes larger. The communication grasping method according to any one of claims 8 to 10, wherein:
【請求項12】 最新の発言内容は、速く表示し、 過去の発言内容は、過去にさかのぼるに従ってゆっくり
と表示し、ある位置で止まって消滅することを特徴とす
る請求項8ないし11のいずれかに記載のコミュニケー
ション把握方法。
12. The content of the latest statement is displayed quickly, and the content of the past statement is slowly displayed as it goes back to the past, and stops at a certain position and disappears. Communication grasp method described in.
【請求項13】 文字を雲状形態にして、発言者の近傍
で、発言状況に応じて雲形の形状を変化させながら表示
することを特徴とする請求項8ないし12のいずれかに
記載のコミュニケーション把握方法。
13. The communication according to claim 8, wherein the character is displayed in the form of a cloud and the shape of the cloud is changed in the vicinity of the speaker while changing the shape of the cloud according to the state of the utterance. How to figure out.
【請求項14】 発言者の会話情報を文字化して表示制
御するためのプログラムであって、該プログラムは、コ
ンピュータによって読み取り可能な記録媒体に記録され
ており、 音声又は手話を含む会話情報を入力する工程と、 前記入力させた会話情報を文字に変換する工程と、 前記入力させた会話情報から、現在および過去の会話に
基づく発言内容と発言状況とを含む発言履歴情報を解読
する工程と、 前記発言者と前記発言履歴情報との対応関係の明示性を
保った状態で、前記変換した文字に該発言履歴情報を付
加する工程と、 前記発言履歴情報が付加された文字を、時系列的な推移
に従って連なる文字列として入力順に表示する工程とを
具えたことを特徴とするコミュニケーション把握制御プ
ログラム。
14. A program for characterizing and controlling the display of conversation information of a speaker, the program being recorded on a computer-readable recording medium, and inputting conversation information including voice or sign language. And the step of converting the input conversation information to characters, and, from the input conversation information, decoding statement history information including statement content and statement status based on current and past conversations, Adding the utterance history information to the converted character while maintaining the clarity of the correspondence between the utterer and the utterance history information; and And displaying the characters as a continuous string according to the transition in the order of input.
【請求項15】 前記発言内容は、隣の発言者の発言内
容と重ならないように文字間隔を決めて表示し、 過去の発言内容になるにつれて文字間隔を狭くして重な
らせながら、過去にさかのぼるに従ってゆっくりと表示
し、ある位置で止まって消滅することを特徴とする請求
項14記載のコミュニケーション把握制御プログラム。
15. The utterance content is displayed with a character interval determined so as not to overlap with the utterance content of an adjacent speaker, and the character interval is narrowed and overlapped as the past utterance content is increased. The communication grasp control program according to claim 14, wherein the communication grasp control program is displayed slowly as it goes back, stops at a certain position, and disappears.
【請求項16】 文字を雲状形態にして、発言者の近傍
で、前記発言状況に応じて雲形の形状を全体的に変化さ
せながら表示することを特徴とする請求項14又は15
記載のコミュニケーション把握制御プログラム。
16. The character is displayed in the form of a cloud, and is displayed in the vicinity of the speaker while changing the shape of the cloud as a whole according to the state of the utterance.
Communication grasp control program described.
【請求項17】 コンピュータによって、発言者の会話
情報を文字化して表示制御するためのプログラムを記録
した媒体であって、 該制御プログラムはコンピュータに、 音声又は手話を含む会話情報を入力させ、 前記入力させた会話情報を文字に変換させ、 前記入力させた会話情報から、現在および過去の会話に
基づく発言内容と発言状況とを含む発言履歴情報を解読
させ、 前記発言者と前記発言履歴情報との対応関係の明示性を
保った状態で、前記変換した文字に該発言履歴情報を付
加させ、 前記発言履歴情報が付加された文字を、時系列的な推移
に従って連なる文字列として入力順に表示させ、 ここで、前記発言内容は、隣の発言者の発言内容と重な
らないように文字間隔を決めて表示させ、 過去の発言内容になるにつれて文字間隔を狭くして重な
らせながら、過去にさかのぼるに従ってゆっくりと表示
させ、ある位置で止まって消滅させ、 文字を雲状形態にして、発言者の近傍で、前記発言状況
に応じて雲形の形状を全体的に変化させながら表示させ
ることを特徴とするコミュニケーション把握制御プログ
ラムを記録した媒体。
17. A medium storing a program for controlling display of a speaker by converting the conversation information into characters by a computer, wherein the control program causes the computer to input conversation information including voice or sign language. The input conversation information is converted into characters, and from the input conversation information, the statement history information including the statement contents and the statement status based on the current and past conversations is decoded, and the speaker and the statement history information are interpreted. While maintaining the clarity of the correspondence relationship, the statement history information is added to the converted character, and the characters to which the statement history information is added are displayed in the input order as a continuous character string according to a chronological transition. Here, the utterance content is displayed with the character spacing determined so as not to overlap with the utterance content of the next speaker, and the character spacing is determined as the past utterance content becomes higher. While narrowing and overlapping, it is displayed slowly as it goes back in the past, stops at a certain position and disappears, makes the character cloud-like, and in the vicinity of the speaker, the entire shape of the cloud according to the said speech situation A medium storing a communication grasp control program characterized in that the program is displayed while being dynamically changed.
JP2001143574A 2001-05-14 2001-05-14 Communication grasping device, and its method Pending JP2002344915A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001143574A JP2002344915A (en) 2001-05-14 2001-05-14 Communication grasping device, and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001143574A JP2002344915A (en) 2001-05-14 2001-05-14 Communication grasping device, and its method

Publications (1)

Publication Number Publication Date
JP2002344915A true JP2002344915A (en) 2002-11-29

Family

ID=18989701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001143574A Pending JP2002344915A (en) 2001-05-14 2001-05-14 Communication grasping device, and its method

Country Status (1)

Country Link
JP (1) JP2002344915A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302196A (en) * 2003-03-31 2004-10-28 Nec Corp Apparatus, method, and program for speech recognition
JP2005275536A (en) * 2004-03-23 2005-10-06 Advanced Telecommunication Research Institute International Apparatus and method for determining conversation leader
WO2008120792A1 (en) * 2007-04-02 2008-10-09 Keio University Information transmission system associated with location
JP2011028344A (en) * 2009-07-22 2011-02-10 Fuji Xerox Co Ltd Electronic conference system, device and program for supporting electronic conference
JP2011165056A (en) * 2010-02-12 2011-08-25 Nec Casio Mobile Communications Ltd Information processor and program
JP2012073396A (en) * 2010-09-28 2012-04-12 Toshiba Corp Conference support device, method and program
JP2013109523A (en) * 2011-11-18 2013-06-06 Ricoh Co Ltd Information processing device, storage device, information processing system, and program
US8521525B2 (en) 2009-03-26 2013-08-27 Brother Kogyo Kabushiki Kaisha Communication control apparatus, communication control method, and non-transitory computer-readable medium storing a communication control program for converting sound data into text data
US8560315B2 (en) 2009-03-27 2013-10-15 Brother Kogyo Kabushiki Kaisha Conference support device, conference support method, and computer-readable medium storing conference support program
US8965760B2 (en) 2010-09-28 2015-02-24 Brother Kogyo Kabushiki Kaisha Communication device, method, non-transitory computer readable medium, and system of a remote conference
JP2017129873A (en) * 2017-03-06 2017-07-27 本田技研工業株式会社 Conversation assist device, method for controlling conversation assist device, and program for conversation assist device
JP2019061557A (en) * 2017-09-27 2019-04-18 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program
WO2022014441A1 (en) * 2020-07-16 2022-01-20 ソニーグループ株式会社 Display device, display method, and program
WO2022024371A1 (en) * 2020-07-31 2022-02-03 マクセル株式会社 Web meeting system and web meeting program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302196A (en) * 2003-03-31 2004-10-28 Nec Corp Apparatus, method, and program for speech recognition
JP2005275536A (en) * 2004-03-23 2005-10-06 Advanced Telecommunication Research Institute International Apparatus and method for determining conversation leader
WO2008120792A1 (en) * 2007-04-02 2008-10-09 Keio University Information transmission system associated with location
US8521525B2 (en) 2009-03-26 2013-08-27 Brother Kogyo Kabushiki Kaisha Communication control apparatus, communication control method, and non-transitory computer-readable medium storing a communication control program for converting sound data into text data
US8560315B2 (en) 2009-03-27 2013-10-15 Brother Kogyo Kabushiki Kaisha Conference support device, conference support method, and computer-readable medium storing conference support program
JP2011028344A (en) * 2009-07-22 2011-02-10 Fuji Xerox Co Ltd Electronic conference system, device and program for supporting electronic conference
JP2011165056A (en) * 2010-02-12 2011-08-25 Nec Casio Mobile Communications Ltd Information processor and program
JP2012073396A (en) * 2010-09-28 2012-04-12 Toshiba Corp Conference support device, method and program
US8676578B2 (en) 2010-09-28 2014-03-18 Kabushiki Kaisha Toshiba Meeting support apparatus, method and program
US8965760B2 (en) 2010-09-28 2015-02-24 Brother Kogyo Kabushiki Kaisha Communication device, method, non-transitory computer readable medium, and system of a remote conference
JP2013109523A (en) * 2011-11-18 2013-06-06 Ricoh Co Ltd Information processing device, storage device, information processing system, and program
JP2017129873A (en) * 2017-03-06 2017-07-27 本田技研工業株式会社 Conversation assist device, method for controlling conversation assist device, and program for conversation assist device
JP2019061557A (en) * 2017-09-27 2019-04-18 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program
US11194535B2 (en) 2017-09-27 2021-12-07 Fujifilm Business Innovation Corp. Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
JP7056055B2 (en) 2017-09-27 2022-04-19 富士フイルムビジネスイノベーション株式会社 Information processing equipment, information processing systems and programs
WO2022014441A1 (en) * 2020-07-16 2022-01-20 ソニーグループ株式会社 Display device, display method, and program
WO2022024371A1 (en) * 2020-07-31 2022-02-03 マクセル株式会社 Web meeting system and web meeting program

Similar Documents

Publication Publication Date Title
US8515728B2 (en) Language translation of visual and audio input
US20190087734A1 (en) Information processing apparatus and information processing method
US8243116B2 (en) Method and system for modifying non-verbal behavior for social appropriateness in video conferencing and other computer mediated communications
JP2002344915A (en) Communication grasping device, and its method
US20130211826A1 (en) Audio Signals as Buffered Streams of Audio Signals and Metadata
WO2017200074A1 (en) Dialog method, dialog system, dialog device, and program
WO2001045088A1 (en) Electronic translator for assisting communications
JP2003345379A6 (en) Audio-video conversion apparatus and method, audio-video conversion program
WO2018105373A1 (en) Information processing device, information processing method, and information processing system
JP2019208138A (en) Utterance recognition device and computer program
US11790887B2 (en) System with post-conversation representation, electronic device, and related methods
JP2020181022A (en) Conference support device, conference support system and conference support program
US20240221718A1 (en) Systems and methods for providing low latency user feedback associated with a user speaking silently
JP2002023716A (en) Presentation system and recording medium
CN117173295A (en) Method for realizing interaction between digital person and user based on interaction platform
WO2023210149A1 (en) Information processing device, information processing method, and computer program
JP6950708B2 (en) Information processing equipment, information processing methods, and information processing systems
WO2017200077A1 (en) Dialog method, dialog system, dialog device, and program
WO2020116001A1 (en) Information processing device and information processing method
US20210082427A1 (en) Information processing apparatus and information processing method
JP2005189846A (en) Audio control screen system
WO2023058393A1 (en) Information processing device, information processing method, and program
US20220172711A1 (en) System with speaker representation, electronic device and related methods
KR102657353B1 (en) Device of generating subtitle based on voice interface stt, and method of generating subtitle based on voice interface stt
JP4219129B2 (en) Television receiver