JP2006251898A - Information processor, information processing method, and program - Google Patents
Information processor, information processing method, and program Download PDFInfo
- Publication number
- JP2006251898A JP2006251898A JP2005064062A JP2005064062A JP2006251898A JP 2006251898 A JP2006251898 A JP 2006251898A JP 2005064062 A JP2005064062 A JP 2005064062A JP 2005064062 A JP2005064062 A JP 2005064062A JP 2006251898 A JP2006251898 A JP 2006251898A
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- data
- speaker
- information processing
- utterance data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
従来、会議等の情報が漏れなく記録でき、後でユーザが要求する情報を容易に指定して選択された部分のみを再生できる再生装置が提案されている(特許文献1)。 2. Description of the Related Art Conventionally, there has been proposed a playback apparatus that can record information such as conferences without omission, and can play back only selected portions by easily specifying information requested by a user later (Patent Document 1).
また、会議における参加者の発言の構造を検出し、表示する発言構造検出表示装置が特許文献2で提案されている。特許文献2記載の装置は、発言者毎の発言区間の情報と、発言者毎の姿勢と誰への発言かを特定し、所定の時間区間における発言の流れを検出することにより、インターラクションの高い発言相互の関係が表示できるというものである。 Further, Patent Document 2 proposes a speech structure detection and display device that detects and displays the speech structure of participants in a conference. The apparatus described in Patent Document 2 specifies information on a speech section for each speaker, an attitude for each speaker, and who speaks, and detects a flow of speech in a predetermined time section. High reciprocal relations can be displayed.
また、関連のある複数の発言群ごとに適切な発言構造区間を特定し、提示することにより、会議情報の再生に際し、所望する個所に効率よくアクセスするための発言構造情報提示装置が提案されている(特許文献3)。 Also, a speech structure information presentation device has been proposed for efficiently accessing a desired location when reproducing conference information by identifying and presenting an appropriate speech structure section for each of a plurality of related speech groups. (Patent Document 3).
しかしながら、従来技術では、たとえばある会議参加者が会議で何についてどのように語ったのか、またどのような関心やスタンスを持っているのかなどを的確に把握することは難しいという問題がある。 However, in the prior art, there is a problem that it is difficult to accurately grasp, for example, what and how a certain conference participant talked about at the conference and what interest and stance they have.
そこで、本発明は、上記問題点に鑑みてなされたもので、各人の関心やスタンスを的確に把握できる情報処理装置、情報処理方法およびプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide an information processing apparatus, an information processing method, and a program capable of accurately grasping each person's interest and stance.
上記課題を解決するために、本発明は、発話データを記憶する記憶手段と、前記記憶手段に記憶された発話データに基づいて、前記発話データの時間軸に対応させて前記発話データ内の単語の出現回数を集計する集計手段とを備える情報処理装置である。本発明によれば、発話データの時間軸に対応させて発話データ内の単語の出現回数(出現頻度)を集計することで、たとえば会議を後から振り返る際、誰がいつどのような内容を話したかが容易にわかり、参加者各人の関心、スタンス(姿勢)を的確に把握することができる。 In order to solve the above problems, the present invention provides a storage means for storing speech data, and words in the speech data corresponding to the time axis of the speech data based on the speech data stored in the storage means. It is an information processing apparatus provided with the totaling means which totalizes the appearance frequency. According to the present invention, by counting the number of appearances (appearance frequency) of words in the utterance data in correspondence with the time axis of the utterance data, for example, when reviewing the meeting later, who spoke what and when It is easy to understand and can accurately understand the interests and stances of each participant.
本発明は、前記発話データ内の単語の出現回数を前記話者データの時間軸に対応させたグラフを表示する制御手段をさらに備える。これにより、たとえば会議を後から振り返る際、誰がいつどのような内容を話したかが容易にわかり、参加者各人の関心、姿勢、スタンスを的確に把握することができる。本発明は、前記発話データ内の単語の出現回数を前記話者データの時間軸に対応させたグラフを話者毎に表示する制御手段をさらに備える。前記制御手段は、前記発話データ内の単語の中で出現回数の多い単語名を前記グラフに対応させて表示することを特徴とする。これにより、どのような単語名を話したのかを一目で知ることができる。 The present invention further includes control means for displaying a graph in which the number of appearances of words in the utterance data is associated with the time axis of the speaker data. Thus, for example, when looking back at a meeting later, it is easy to know who spoke what and when, and it is possible to accurately grasp the interest, attitude, and stance of each participant. The present invention further includes control means for displaying, for each speaker, a graph in which the number of appearances of words in the utterance data is associated with the time axis of the speaker data. The control means displays word names having a high frequency of appearance among words in the utterance data in association with the graph. Thereby, it is possible to know at a glance what word name is spoken.
前記制御手段は、前記発話データ内の単語の中で出現回数の多い単語名を発話時刻とともに前記グラフに対応させて表示することを特徴とする。これにより、いつどのような単語名を話したのかを一目で把握することができる。前記制御手段は、前記グラフに対応させて発話相手を表示することを特徴とする。これにより、だれと話したのかを一目で把握することができる。前記制御手段は、前記グラフ上で所定の操作を行うことにより対応する映像を再生することを特徴とする。これにより、実際に話者データを確認できる。 The control means displays word names having a high frequency of appearance among words in the utterance data in association with the utterance time in correspondence with the graph. Thereby, it is possible to grasp at a glance what kind of word name is spoken. The control means displays an utterance partner in correspondence with the graph. As a result, it is possible to grasp at a glance who has spoken to. The control means reproduces a corresponding video by performing a predetermined operation on the graph. Thereby, the speaker data can be actually confirmed.
本発明は、前記集計手段が集計する話者を設定する設定手段をさらに備える。本発明によれば、特定の話者に対して単語の出現回数を知ることができる。本発明は、所定の音声認識技術を用いて話者の音声データから書き起こしテキストを生成することにより前記発話データを作成する音声処理手段をさらに備える。あらかじめ書き起こしテキストを作成しておくことにより、すばやく結果を表示させることができる。前記発話データは、会議中に検出された音声データから作成されていることを特徴とする。これにより会議の振り返りを支援することができる。また、前記発話データは、発話開始時刻、発話終了時刻、話者、発話内容および発話相手を含むことを特徴とする。 The present invention further includes setting means for setting speakers to be counted by the counting means. According to the present invention, it is possible to know the number of times a word appears for a specific speaker. The present invention further includes voice processing means for creating the utterance data by generating a transcript from the voice data of the speaker using a predetermined voice recognition technique. By creating a transcript in advance, the results can be displayed quickly. The utterance data is created from voice data detected during a meeting. Thereby, the reflection of the meeting can be supported. The utterance data includes an utterance start time, an utterance end time, a speaker, an utterance content, and an utterance partner.
本発明は、所定の記憶手段に記憶された発話データを取得するステップと、前記発話データに基づいて、前記発話データの時間軸に対応させて前記発話データ内の単語の出現回数を集計するステップとを有する情報処理方法である。本発明によれば、発話データの時間軸に対応させて発話データ内の単語の出現回数(出現頻度)を集計することで、会議を後から振り返る際、誰がいつどのような内容を話したかが容易にわかり、参加者各人の関心、姿勢、スタンスを的確に把握することができる。本発明は、前記発話データ内の単語の出現回数を前記話者データの時間軸に対応させたグラフを表示するステップをさらに有する。 The present invention includes a step of acquiring utterance data stored in a predetermined storage means, and a step of counting the number of appearances of words in the utterance data in accordance with the time axis of the utterance data based on the utterance data Is an information processing method. According to the present invention, by counting the number of appearances (appearance frequency) of words in the utterance data in correspondence with the time axis of the utterance data, it is easy to determine who spoke what and when and when to look back on the meeting later. You can understand the interests, attitudes, and stances of each participant. The present invention further includes a step of displaying a graph in which the number of appearances of words in the utterance data is associated with the time axis of the speaker data.
本発明は、発話データを取得するステップ、前記発話データに基づいて、前記時間軸に対応させて前記発話データ内の単語の出現回数を集計するステップ、前記発話データ内の単語の出現回数を前記話者データの時間軸に対応させたグラフを表示するための情報を生成するステップをコンピュータに実行させるためのプログラムである。本発明によれば、発話データの時間軸に対応させて発話データ内の単語の出現回数(出現頻度)を集計することで、会議を後から振り返る際、誰がいつどのような内容を話したかが容易にわかり、参加者各人の関心、姿勢、スタンスを的確に把握することができる。 The present invention includes a step of acquiring utterance data, a step of counting the number of appearances of words in the utterance data based on the utterance data, in correspondence with the time axis, and the number of appearances of words in the utterance data. A program for causing a computer to execute a step of generating information for displaying a graph corresponding to a time axis of speaker data. According to the present invention, by counting the number of appearances (appearance frequency) of words in the utterance data in correspondence with the time axis of the utterance data, it is easy to tell who spoke what and when when looking back at the meeting later. You can understand the interests, attitudes, and stances of each participant.
本発明によれば、各人の関心やスタンスを的確に把握できる情報処理装置、情報処理方法およびプログラムを提供することができる。 According to the present invention, it is possible to provide an information processing apparatus, an information processing method, and a program that can accurately grasp each person's interests and stances.
以下、本発明を実施するための最良の形態について説明する。 Hereinafter, the best mode for carrying out the present invention will be described.
図1は、会議履歴表示装置(情報処理装置)1のブロック図である。図1に示すように、会議履歴表示装置1は、会議記録データベース2、音声認識部3、発話データベース4、話者設定部5、集計部6、制御部7、表示部8およびスピーカ9を備える。
FIG. 1 is a block diagram of a conference history display device (information processing device) 1. As shown in FIG. 1, the conference
会議履歴表示装置1は、会議の履歴を表示するものである。会議記録データベース2は、会議中に検出された会議参加者(話者)の音声データおよび会議映像データを格納するものである。音声認識部3は、所定の音声認識技術を用いて会議記録データベース2に格納された話者の音声データから書き起こしテキストを生成することにより発話内容を含む発話データを作成し、発話開始時刻、発話修了時刻、話者、発話相手、発話内容を含む発話データを発話データベース4に格納する。このようにして、発話データは、会議中に検出された音声データから作成される。
The conference
図2は発話データベース4の内容を示す図である。図2に示すように、発話データベース4内は、発話の開始時刻、発話の終了時刻、話者、発話内容(発話データ)、発話相手のフィールドからなる。ここでは、会議参加者(話者)として、Aさん、Bさん、Cさん、Dさんが存在する。このため、発話相手もAさん、Bさん、Cさん、Dさんが存在する。また、発話内容はテキストデータとして保持されている。話者設定部5は、たとえばキーボードやマウス等により構成される。ユーザは、話者設定部5を用いることにより集計部6で集計する話者を設定することができる。
FIG. 2 shows the contents of the utterance database 4. As shown in FIG. 2, the utterance database 4 includes utterance start time, utterance end time, speaker, utterance content (utterance data), and utterance partner fields. Here, Mr. A, Mr. B, Mr. C, and Mr. D exist as conference participants (speakers). For this reason, there are A, B, C, and D as speaking partners. The utterance content is held as text data. The
集計部6は、設定された話者が話した発話データを発話データベース4から抽出する。図3は、話者としてCさんが設定された場合に発話データベース4から抽出された発話データを示す図である。話者としてCが設定された場合、発話データベース4からは図3に示す発話データが発話データベース4から抽出される。集計部6は、抽出された発話データのうち「発話内容」のフィールドにあるテキストを解析し、発話データの時間軸に対応させて発話データ内の単語の出現回数を集計する。ここで、発話データの時間軸に対応させてとは、発話データの時間を保持しながらまたは発話データの時間軸を考慮しながらという意味である。集計部6が、図3に示した発話内容のフィールドにあるテキストから名詞のみを抽出した例を図4に示す。図4に示すように、集計部6は、発話内容のフィールド内の名詞だけを単語として抽出する。
The
表示部8は、たとえばディスプレイ装置によって構成される。制御部7は、集計結果をもとに、グラフ上に(例えば)棒グラフで出現した単語の合計回数とその中で出現回数が多かった単語を表示し、あわせて、そのときの発話相手のアイコンも表示する。
The
次に、表示部8の表示例について説明する。図5は、話者としてCさんを設定した場合の表示例を示す図である。図5に示すように、制御部7は、発話データの発話内容内の単語の出現回数を話者データの時間軸に対応させた棒グラフを表示する。図5において、横軸は会議経過時間を示し、会議開始時刻と会議終了時刻が分かるように表示されている。縦軸はCさんの発話単語数を示す。ウインドウ20には、話者設定部5により設定された話者名(Cさん)が表示されている。
Next, a display example of the
また、制御部7は、発話データの発話内容内の単語の中で出現回数の多い(出現数が上位の)単語名「コスト」、「問題」、「拠点」、「××」をグラフに対応させて表示する。さらに、制御部7は、発話データの発話内容内の単語の中で出現回数の多い単語名を発話時刻「15時43分04秒」、「15時43分45秒」「15時44分45秒」とともにグラフに対応させて表示する。制御部7は、発話データの発話内容内の単語の中で出現回数の多い単語名を表示する際に、対話相手であるBさんを表わすアイコンBをグラフに対応させて表示する。ユーザがたとえばバー21を移動またはクリックするなどのように、グラフ上で所定の操作を行うと、制御部7は、対応する会議映像および音声データを表示部8およびスピーカ9から再生する。
In addition, the control unit 7 graphs the word names “cost”, “problem”, “base”, and “xx” that have the highest number of appearances (the number of appearances is higher) among the words in the utterance content of the utterance data. Display in correspondence. Further, the control unit 7 selects the word names having the highest number of appearances among the words in the utterance content of the utterance data as utterance times “15:43:04”, “15:43:45”, “15:44:45”. "Seconds" is displayed in correspondence with the graph. When the control unit 7 displays a word name having a high frequency of appearance among words in the utterance content of the utterance data, the control unit 7 displays an icon B representing Mr. B who is the conversation partner in association with the graph. When the user performs a predetermined operation on the graph such as, for example, moving or clicking the bar 21, the control unit 7 reproduces the corresponding conference video and audio data from the
次に、他の表示例について説明する。図6は、A、B、Cさんを話者として設定した場合の表示例を示す図である。図6に示すように、制御部7は、発話データの発話内容内の単語の出現回数を話者データの時間軸に対応させた折れ線グラフを話者(A、B、C)毎に表示する。図6において、横軸は会議経過時間を示し、会議開始時刻と会議終了時刻が分かるように表示されている。縦軸は話者の発話単語数を示す。ウインドウ20には、話者設定部5により設定された話者名A、B、Cさんが表示されている。
Next, another display example will be described. FIG. 6 is a diagram illustrating a display example when A, B, and C are set as speakers. As shown in FIG. 6, the control unit 7 displays, for each speaker (A, B, C), a line graph in which the number of appearances of words in the utterance content of the utterance data is associated with the time axis of the speaker data. . In FIG. 6, the horizontal axis indicates the conference elapsed time and is displayed so that the conference start time and conference end time can be understood. The vertical axis indicates the number of words spoken by the speaker. In the
制御部7は、発話データの発話内容内の単語の出現回数を話者データの時間軸に対応させた折れ線グラフを表示する際に、対話相手である、Aさん、Bさん、Cさんを表わすアイコンA、B、Cをグラフに対応させて表示する。「Aさんの発言」の線L1は、文字通り「Aさんがいつ何単語話したか」を表わしている。それらの線上に現れる顔アイコンは、「Aさんの発言」の線L1上であれば、その時点でのAさんの対話相手をあらわしている。AからDの4人の会議の場合、「Aさんの発言」の線L1上にはAさん以外の参加者であるB、C、Dのうちの誰かの顔アイコンが現れることになる。逆に、Aさんの発言の線上にはAさんの顔アイコンは現れない。L21は、Bさんの発言をあらわす線である。そこだけたちあがっているのは、その前後の時間には発言がまったくなかった(会議開始からしばらくは発言があったが、その後のある時間は発言しておらず、会議の最後の方で少し発言した)ということをあらわしている。ユーザがたとえばバー21を移動またはクリックするなどのように、グラフ上で所定の操作を行うと、制御部7は、対応する会議映像を再生する。 When the control unit 7 displays a line graph in which the number of appearances of words in the utterance content of the utterance data is associated with the time axis of the speaker data, the control unit 7 represents the conversation partners A, B, and C. Icons A, B, and C are displayed in correspondence with the graph. The line L1 of “Mr. A's remark” literally represents “when and how many words Mr. A spoke”. If the face icon appearing on these lines is on the line L1 of “Mr. A's remark”, it represents Mr. A's conversation partner at that time. In the case of a meeting of four people from A to D, a face icon of someone among B, C, and D who is a participant other than Mr. A appears on the line L1 of “Mr. A's remark”. Conversely, Mr. A's face icon does not appear on the line of Mr. A's remarks. L21 is a line representing Mr. B's remarks. There was no remarks at the time before and after that (no remarks for a while after the start of the meeting, but a certain time after that, a little remarks at the end of the meeting) )). When the user performs a predetermined operation on the graph such as, for example, moving or clicking the bar 21, the control unit 7 reproduces the corresponding conference video.
次に、会議履歴表示装置1の動作について説明する。図7は、会議履歴表示装置1の動作フローチャートである。ステップS1で、音声認識部3は、所定の音声認識技術を用いて会議記録データベース2に格納された話者の音声データから書き起こしテキストを生成することにより発話データを作成し、発話開始時刻、発話修了時刻、話者、発話相手に対応させて話者データを発話データベース4に格納する。ステップS2で、ユーザは、話者設定部5を用いることにより集計部6で集計する話者を設定する。
Next, the operation of the conference
ステップS3で、集計部6は、抽出されたデータの「発話内容」のフィールドにあるテキストを解析し、発話データの時間軸に対応させて発話データの発話内容内の単語の出現回数を集計する。ステップS4で、制御部7は、図5および図6に示すように、発話データ内の単語の出現回数を話者データの時間軸に対応させたグラフを表示する。
In step S3, the
本実施例の会議履歴表示装置によれば、ある参加者を設定すると、あらかじめ音声認識されてテキスト化されているデータを検索し、その参加者の発話頻度や発話内容を解析した結果を視覚的に表示することによって、誰がいつどのような内容を話したかが容易にわかり、参加者各人の関心やスタンスを的確かつ直感的に把握することができる。すなわち、少なくとも参加者の音声が記録されている会議を後から振り返る際、参加者各人の関心や姿勢を容易にかつ直観的に把握することができる。 According to the conference history display device of the present embodiment, when a certain participant is set, data that has been voice-recognized and converted into text is searched in advance, and the result of analyzing the participant's utterance frequency and utterance content is visually displayed. By displaying on the screen, it is easy to know who spoke what and when, and it is possible to accurately and intuitively grasp the interest and stance of each participant. That is, when looking back at a meeting where at least the voice of the participant is recorded, it is possible to easily and intuitively grasp the interest and attitude of each participant.
なお、本発明による情報処理装置は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を用いて実現される。プログラムをハードディスク装置や、CD−ROM、DVDまたはフレキシブルディスクなどの可搬型記憶媒体等からインストールし、または通信回路からダウンロードし、CPUがこのプログラムを実行することで、情報処理方法の各ステップが実現される。また、プログラムは、発話データを取得するステップ、前記発話データに基づいて、前記時間軸に対応させて前記発話データ内の単語の出現回数を集計するステップ、前記発話データ内の単語の出現回数を前記話者データの時間軸に対応させたグラフを表示するための情報を生成するステップをコンピュータに実行させる。発話データベース4は発話データを記憶する記憶手段に、音声認識部3が音声処理手段にそれぞれ対応する。
The information processing apparatus according to the present invention is realized using, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. Each step of the information processing method is realized by installing the program from a hard disk drive, a portable storage medium such as a CD-ROM, DVD or flexible disk, or downloading from a communication circuit, and the CPU executing this program Is done. The program further includes a step of acquiring utterance data, a step of counting the number of appearances of words in the utterance data in correspondence with the time axis based on the utterance data, and the number of appearances of words in the utterance data. A computer is caused to generate the information for displaying the graph corresponding to the time axis of the speaker data. The speech database 4 corresponds to storage means for storing speech data, and the
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.
1 会議履歴表示装置
2 会議記録データベース
3 音声認識部
4 発話データベース
5 話者設定部
6 集計部
7 制御部
8 表示部
9 スピーカ
DESCRIPTION OF
Claims (14)
前記記憶手段に記憶された発話データに基づいて、前記発話データの時間軸に対応させて前記発話データ内の単語の出現回数を集計する集計手段と
を備えることを特徴とする情報処理装置。 Storage means for storing utterance data;
An information processing apparatus comprising: an aggregation unit that aggregates the number of appearances of words in the utterance data in correspondence with a time axis of the utterance data based on the utterance data stored in the storage unit.
前記発話データに基づいて、前記発話データの時間軸に対応させて前記発話データ内の単語の出現回数を集計するステップと
を有することを特徴とする情報処理方法。 Obtaining utterance data stored in a predetermined storage means;
An information processing method comprising: counting the number of appearances of words in the utterance data based on the utterance data in correspondence with a time axis of the utterance data.
前記発話データに基づいて、前記時間軸に対応させて前記発話データ内の単語の出現回数を集計するステップ、
前記発話データ内の単語の出現回数を前記話者データの時間軸に対応させたグラフを表示するための情報を生成するステップをコンピュータに実行させるためのプログラム。
Obtaining utterance data;
Based on the utterance data, counting the number of appearances of words in the utterance data in correspondence with the time axis;
The program for making a computer perform the step which produces | generates the information for displaying the graph which made the frequency | count of appearance of the word in the said speech data correspond to the time-axis of the said speaker data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005064062A JP2006251898A (en) | 2005-03-08 | 2005-03-08 | Information processor, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005064062A JP2006251898A (en) | 2005-03-08 | 2005-03-08 | Information processor, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006251898A true JP2006251898A (en) | 2006-09-21 |
Family
ID=37092366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005064062A Pending JP2006251898A (en) | 2005-03-08 | 2005-03-08 | Information processor, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006251898A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006349871A (en) * | 2005-06-14 | 2006-12-28 | Toyota Motor Corp | Device for estimating driver's burden |
JP2012073396A (en) * | 2010-09-28 | 2012-04-12 | Toshiba Corp | Conference support device, method and program |
EP2320333A3 (en) * | 2009-11-06 | 2012-06-20 | Ricoh Company, Ltd. | Comment recording appartus, method, program, and storage medium |
JPWO2010113438A1 (en) * | 2009-03-31 | 2012-10-04 | 日本電気株式会社 | Speech recognition processing system and speech recognition processing method |
JP2013003413A (en) * | 2011-06-17 | 2013-01-07 | Nippon Telegr & Teleph Corp <Ntt> | Conversation data analysis device, method and program |
JP2015114855A (en) * | 2013-12-12 | 2015-06-22 | 日本電信電話株式会社 | Discussion support device and discussion support program |
EP3010016A1 (en) * | 2014-10-15 | 2016-04-20 | Fujitsu Limited | Input information support apparatus, method for supporting input information, and input information support program |
JP2017004270A (en) * | 2015-06-10 | 2017-01-05 | 日本電信電話株式会社 | Conference support system and conference support method |
WO2019130817A1 (en) * | 2017-12-25 | 2019-07-04 | 京セラドキュメントソリューションズ株式会社 | Information processing device and speech analysis method |
-
2005
- 2005-03-08 JP JP2005064062A patent/JP2006251898A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4507996B2 (en) * | 2005-06-14 | 2010-07-21 | トヨタ自動車株式会社 | Driver load estimation device |
JP2006349871A (en) * | 2005-06-14 | 2006-12-28 | Toyota Motor Corp | Device for estimating driver's burden |
JPWO2010113438A1 (en) * | 2009-03-31 | 2012-10-04 | 日本電気株式会社 | Speech recognition processing system and speech recognition processing method |
JP5533854B2 (en) * | 2009-03-31 | 2014-06-25 | 日本電気株式会社 | Speech recognition processing system and speech recognition processing method |
US8862473B2 (en) | 2009-11-06 | 2014-10-14 | Ricoh Company, Ltd. | Comment recording apparatus, method, program, and storage medium that conduct a voice recognition process on voice data |
EP2320333A3 (en) * | 2009-11-06 | 2012-06-20 | Ricoh Company, Ltd. | Comment recording appartus, method, program, and storage medium |
US8676578B2 (en) | 2010-09-28 | 2014-03-18 | Kabushiki Kaisha Toshiba | Meeting support apparatus, method and program |
JP2012073396A (en) * | 2010-09-28 | 2012-04-12 | Toshiba Corp | Conference support device, method and program |
JP2013003413A (en) * | 2011-06-17 | 2013-01-07 | Nippon Telegr & Teleph Corp <Ntt> | Conversation data analysis device, method and program |
JP2015114855A (en) * | 2013-12-12 | 2015-06-22 | 日本電信電話株式会社 | Discussion support device and discussion support program |
US9870197B2 (en) | 2014-10-15 | 2018-01-16 | Fujitsu Limited | Input information support apparatus, method for supporting input information, and computer-readable recording medium |
EP3010016A1 (en) * | 2014-10-15 | 2016-04-20 | Fujitsu Limited | Input information support apparatus, method for supporting input information, and input information support program |
JP2017004270A (en) * | 2015-06-10 | 2017-01-05 | 日本電信電話株式会社 | Conference support system and conference support method |
WO2019130817A1 (en) * | 2017-12-25 | 2019-07-04 | 京セラドキュメントソリューションズ株式会社 | Information processing device and speech analysis method |
CN111149153A (en) * | 2017-12-25 | 2020-05-12 | 京瓷办公信息系统株式会社 | Information processing apparatus and utterance analysis method |
JPWO2019130817A1 (en) * | 2017-12-25 | 2020-10-22 | 京セラドキュメントソリューションズ株式会社 | Information processing device and utterance analysis method |
US11404064B2 (en) | 2017-12-25 | 2022-08-02 | Kyocera Document Solutions Inc. | Information processing apparatus and speech analysis method |
CN111149153B (en) * | 2017-12-25 | 2023-11-07 | 京瓷办公信息系统株式会社 | Information processing apparatus and speech analysis method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8731935B2 (en) | Issuing alerts on detection of contents of interest introduced during a conference | |
JP2006251898A (en) | Information processor, information processing method, and program | |
US4924387A (en) | Computerized court reporting system | |
US8407049B2 (en) | Systems and methods for conversation enhancement | |
JP4558308B2 (en) | Voice recognition system, data processing apparatus, data processing method thereof, and program | |
KR100752568B1 (en) | Event-driven annotation techniques | |
US8381238B2 (en) | Information processing apparatus, information processing method, and program | |
JP5685702B2 (en) | Speech recognition result management apparatus and speech recognition result display method | |
WO2007132690A1 (en) | Speech data summary reproducing device, speech data summary reproducing method, and speech data summary reproducing program | |
US11355099B2 (en) | Word extraction device, related conference extraction system, and word extraction method | |
KR20100000336A (en) | Apparatus and method for processing multimedia contents | |
US20160275942A1 (en) | Method for Substantial Ongoing Cumulative Voice Recognition Error Reduction | |
JP2013222347A (en) | Minute book generation device and minute book generation method | |
WO2010133072A1 (en) | Pronunciation evaluating device and method | |
JP6176041B2 (en) | Information processing apparatus and program | |
CN116129874A (en) | Communication system and method of operating a communication system | |
USRE35658E (en) | Computerized court reporting system | |
JP2006251042A (en) | Information processor, information processing method and program | |
JP2018097239A (en) | Voice reproduction device and program | |
JPH11259501A (en) | Speech structure detector/display | |
JP2007108524A (en) | Voice input evaluation apparatus and method, and program | |
JP2013092912A (en) | Information processing device, information processing method, and program | |
JP2007258934A5 (en) | ||
TW201409259A (en) | Multimedia recording system and method | |
JP3927155B2 (en) | Dialog recording apparatus and dialog recording program |