JPH07334075A - Presentation supporting device - Google Patents

Presentation supporting device

Info

Publication number
JPH07334075A
JPH07334075A JP6122220A JP12222094A JPH07334075A JP H07334075 A JPH07334075 A JP H07334075A JP 6122220 A JP6122220 A JP 6122220A JP 12222094 A JP12222094 A JP 12222094A JP H07334075 A JPH07334075 A JP H07334075A
Authority
JP
Japan
Prior art keywords
presentation
voice
parameter
output
document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6122220A
Other languages
Japanese (ja)
Inventor
Hideaki Kikuchi
英明 菊池
Haru Andou
ハル 安藤
Nobuo Hataoka
信夫 畑岡
Yasumasa Matsuda
泰昌 松田
Shigeto Osuji
成人 大條
Tsukasa Hasegawa
司 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP6122220A priority Critical patent/JPH07334075A/en
Publication of JPH07334075A publication Critical patent/JPH07334075A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B33/00Electroluminescent light sources
    • H05B33/12Light sources with substantially two-dimensional radiating surfaces
    • H05B33/20Light sources with substantially two-dimensional radiating surfaces characterised by the chemical or physical composition or the arrangement of the material in which the electroluminescent material is embedded

Abstract

PURPOSE:To confirm the presentation contents and method by a user as soon as the original of the presentation is completed and to evaluate the training result of the presentation by analyzing the generated document, converting the analyzed document into a presentation expression and reading the presentation through the use of voice synthesis. CONSTITUTION:The generated document is analyzed in a document analysis means 102 using a keyboard input means 100 or a mouse input means 101, a voice input means 104 and a voice recognition means 105. The attribute value as a result of the analysis conducted by the means 102 is outputted to a presentation expression converting means 103. Moreover, a presentation condition specifying means 108 outputs the conditions related to the conversion method of the presentation expression display inputted by the means 100 or 101 to the means 103. A parameter setting means 107 outputs the parameters added to the document presentation expression display which is the output of the means 103 to a voice synthesis means 109.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ワープロなどの書類作
成アプリケーションに係わり、特にプレゼンテーション
用の原稿作成およびプレゼンテーションの確認,訓練の
補助となり、利用者のプレゼンテーション技能を上達さ
せるのに好適なプレゼンテーション支援装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a document preparation application such as a word processor, and in particular, it assists in preparation of a manuscript for presentation, confirmation of a presentation, and training, and is suitable for presentation support suitable for improving presentation skills of users. Regarding the device.

【0002】[0002]

【従来の技術】書類作成アプリケーションにおいて、プ
レゼンテーション用の原稿の作成の際には、入力した文
書の正確さの他に、プレゼンテーションに要する時間や
プレゼンテーションとしての原稿のわかりやすさなどを
確認する機能が要求される。そのために、システムは、
原稿を読み上げる速度を自由に変更しうるものであり、
かつ、図などのオブジェクトを含む原稿を読み上げる必
要がある。しかし、従来の書類作成アプリケーションに
おいて、読み上げ機能は原稿を一定の速度で読み上げ、
また、その際、読み上げる原稿は、文章あるいは表内の
項目のようなテキスト文のみであった。また、他方で、
ユーザのプレゼンテーションを訓練するために、ユーザ
のプレゼンテーションを評価する機能が要求される。従
来の書類作成アプリケーションおよびプレゼンテーショ
ンツールにおいては、発声方法や発話を評価する機能は
なかった。
2. Description of the Related Art In a document preparation application, when preparing a manuscript for a presentation, in addition to the accuracy of the input document, a function for confirming the time required for the presentation and the comprehension of the manuscript as a presentation is required. It To that end, the system
The speed at which the manuscript is read can be changed freely,
At the same time, it is necessary to read a manuscript containing objects such as figures. However, in the conventional document creation application, the reading function reads the manuscript at a constant speed,
At that time, the manuscript to be read was only a text or a text such as an item in the table. Also, on the other hand,
In order to train the user's presentation, the ability to evaluate the user's presentation is required. In the conventional document creation application and presentation tool, there is no function for evaluating the utterance method and utterance.

【0003】[0003]

【発明が解決しようとする課題】本発明の目的は、前記
従来の技術では対応できなかった、プレゼンテーション
の確認とプレゼンテーションの訓練を行う、書類作成ア
プリケーションにおけるプレゼンテーション支援機能を
提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a presentation support function in a document creation application for confirming a presentation and training a presentation, which cannot be dealt with by the conventional techniques.

【0004】[0004]

【課題を解決するための手段】上記の問題のうち、プレ
ゼンテーション確認の際の問題を解決するために、作成
された文書を解析する手段と、解析された文書を発表形
式の表現に変換する手段と、発表形式の表現を音声合成
により読み上げる手段を備えた。また、上記の問題のう
ち、プレゼンテーション評価の際の問題を解決するため
に、利用者のプレゼンテーション練習時の音声を分析す
る手段と、発話速度,発話時間,抑揚などの音響的特徴
を評価する手段を備えた。
[Means for Solving the Problems] Among the above problems, in order to solve the problem at the time of confirming the presentation, a means for analyzing the created document and a means for converting the analyzed document into a presentation format expression. And, it was equipped with a means to read out the presentation style expression by voice synthesis. Further, among the above problems, in order to solve the problem at the time of presentation evaluation, a means for analyzing the voice of the user during the presentation practice, and a means for evaluating acoustic characteristics such as speech speed, speech time, and intonation. Equipped with.

【0005】[0005]

【作用】作成された文書を解析し、解析された文書を発
表形式表現に変換したものを音声合成により読み上げる
ことにより、利用者はプレゼンテーション用の原稿作成
と同時に、プレゼンテーション内容や方法を確認するこ
とが可能になる。また、利用者のプレゼンテーション練
習時の音声を分析し、発話速度,発話時間,抑揚などの
音響的特徴を評価することにより、利用者のプレゼンテ
ーションの練習を評価することを可能にする。
[Function] By analyzing the created document and reading the analyzed document converted into the presentation format by voice synthesis, the user can confirm the content and method of the presentation at the same time as creating the manuscript for the presentation. Will be possible. In addition, by analyzing the voice of the user during the practice of the presentation and evaluating the acoustic characteristics such as the speech speed, the speech time, and the intonation, it is possible to evaluate the practice of the presentation of the user.

【0006】[0006]

【実施例】図1は、本発明のプレゼンテーション支援装
置の一実施例を示すブロック図である。図1において、
プレゼンテーション確認機能に用いられる手段は、キー
ボード入力手段100,マウス入力手段101,文書解
析手段102,発表形式変換手段103,音声入力手段
104,音声認識手段105,パラメータ抽出手段10
6,パラメータ設定手段107,発表条件指定手段10
8,音声合成手段109,音声出力手段110,画面表
示手段111,画面出力手段112,情報同期出力手段
113,音声再生手段114である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a block diagram showing an embodiment of a presentation support device according to the present invention. In FIG.
The means used for the presentation confirmation function are keyboard input means 100, mouse input means 101, document analysis means 102, presentation format conversion means 103, speech input means 104, speech recognition means 105, parameter extraction means 10
6, parameter setting means 107, presentation condition designating means 10
8, a voice synthesizing means 109, a voice output means 110, a screen display means 111, a screen output means 112, an information synchronization output means 113, and a voice reproduction means 114.

【0007】キーボード入力手段100は、文書作成な
どに用いられるキーボードである。マウス入力手段10
1は、文書作成やパラメータの設定などに用いられるマ
ウスである。文書解析手段102は、キーボード入力手
段100あるいはマウス入力手段101を用いて作成さ
れた文書を解析する手段である。発表形式変換手段10
3は文書中の文字列や図形を発表形式の表現に変換する
手段である。音声入力手段104は、音声を入力するの
に用いられるマイクロフォンなどの道具である。音声認
識手段105は、入力された音声を分析して、相当する
単語列およびその他の分析結果を出力する手段である。
パラメータ抽出手段106は、入力された音声の音響的
特徴パラメータを抽出する手段である。パラメータ設定
手段107は、入力された音声の音響的特徴パラメータ
を、発表形式の文字表現に付加して、発表時間,速度を
算出して出力する手段である。音声合成手段109は、
音響的特徴パラメータが付加された文字表現から音声規
則合成を行う手段である。音声出力手段110は、スピ
ーカなどの、音声を出力する手段である。画面表示手段
111は、文書や各パラメータなどを画面に表示するた
めの制御を行う手段である。画面出力手段112は、デ
ィスプレイなどの、文字あるいは図形を出力する手段で
ある。情報同期出力手段は、同時に入力された音声情報
とポインティング情報を再生出力する際に、それぞれの
出力手段を同期する手段である。音声再生手段は、記憶
している音声を再生出力する手段である。
The keyboard input means 100 is a keyboard used for creating a document. Mouse input means 10
A mouse 1 is used for creating a document and setting parameters. The document analysis means 102 is means for analyzing a document created using the keyboard input means 100 or the mouse input means 101. Presentation format conversion means 10
Reference numeral 3 is a means for converting a character string or a figure in a document into a presentation-style expression. The voice input means 104 is a tool such as a microphone used for inputting voice. The voice recognition unit 105 is a unit that analyzes the input voice and outputs a corresponding word string and other analysis results.
The parameter extraction unit 106 is a unit that extracts the acoustic feature parameter of the input voice. The parameter setting unit 107 is a unit that adds the acoustic feature parameter of the input voice to the character representation in the presentation format, calculates the presentation time and speed, and outputs the result. The voice synthesizer 109
It is means for performing voice rule synthesis from character representations to which acoustic feature parameters are added. The voice output unit 110 is a unit that outputs voice, such as a speaker. The screen display unit 111 is a unit that performs control for displaying a document, parameters, and the like on the screen. The screen output unit 112 is a unit such as a display that outputs characters or graphics. The information synchronizing output means is means for synchronizing the respective output means when reproducing and outputting the voice information and the pointing information input at the same time. The sound reproducing means is means for reproducing and outputting the stored sound.

【0008】図1の実施例において、キーボード入力手
段100あるいはマウス入力手段101および音声入力
手段104,音声認識手段105を用いて作成された文
書が、文書解析手段102において解析される。
In the embodiment of FIG. 1, a document created by using the keyboard input means 100 or the mouse input means 101, the voice input means 104, and the voice recognition means 105 is analyzed by the document analysis means 102.

【0009】図2には、図1の文書解析手段102の解
析内容として、(a)に解析する文書、(b)に文書を
文書内の文字列,図形などの各構成要素に分解した結
果、(c)に(b)の各構成要素に付与される属性値の例
を示す。文書解析手段102は、文書をまず、文書内の
文字列や図形,数値,表などの各構成要素(オブジェク
ト)に分解し、次に各構成要素について文書内での親子
関係,クラス,サブクラス,文書内における位置座標な
どの属性値を解析する。
FIG. 2 shows, as the analysis contents of the document analysis means 102 in FIG. 1, (a) a document to be analyzed, and (b) a result of decomposing the document into constituent elements such as character strings and figures in the document. , (C) show examples of attribute values given to the respective components of (b). The document analysis unit 102 first decomposes the document into each constituent element (object) such as a character string, a figure, a numerical value, and a table in the document, and then, regarding each constituent element, a parent-child relationship, a class, a subclass, Analyze attribute values such as position coordinates in the document.

【0010】文書解析手段102の解析結果としての属
性値は、図1に示す発表形式変換手段103に出力され
る。
The attribute value as the analysis result of the document analysis means 102 is output to the presentation format conversion means 103 shown in FIG.

【0011】図3は、図1の発表形式変換手段103の
一実施例を示す図である。図3において、発表形式変換
手段301は、文書を発表形式表現の文章に変換する手
段である。文書解析手段300は前述したように、文書
内の構成要素群に属性値を付加して出力する。また、発
表条件指定手段302は、キーボード入力手段305あ
るいはマウス入力手段306を用いて入力された発表形
式表現の変換方法に関わる条件を発表形式変換手段30
1に出力する。
FIG. 3 is a diagram showing an embodiment of the presentation format conversion means 103 of FIG. In FIG. 3, a presentation format conversion means 301 is a means for converting a document into a sentence in a presentation format expression. As described above, the document analysis unit 300 adds the attribute value to the component group in the document and outputs it. Further, the presentation condition designating means 302 sets the conditions relating to the conversion method of the presentation format expression input using the keyboard input means 305 or the mouse input means 306 to the presentation format conversion means 30.
Output to 1.

【0012】ここで、発表形式表現の変換方法に関わる
条件とは、プレゼンテーションにおいてタイトルを説明
する際の説明表現や図を説明する方法などを言う。これ
らは主に選択候補を用意し、利用者に選択させることに
より指定されるが、利用者が自由に変更できるものとす
る。
[0012] Here, the condition relating to the method of converting the presentation format expression refers to a method of explaining a descriptive expression and a figure when explaining a title in a presentation. These are specified mainly by preparing selection candidates and allowing the user to select, but the user can freely change.

【0013】発表形式表現定型303には、発表形式の
表現の定型をあらかじめ格納する。通常、発表形式変換
手段301は、文書解析手段300から送られる文書表
現について、発表形式表現定型303を参照して変換処
理を行う。しかし、利用者から変換処理の方法について
指定があれば、発表形式変換手段301は、発表条件指
定手段302から送られる変換条件に基づいて、変換処
理を行う。こうして、発表形式変換手段301は、次に
文書表現を発表形式表現に変換したものをパラメータ設
定手段304に出力する。
In the presentation format representation template 303, a presentation format representation template is stored in advance. Normally, the presentation format conversion unit 301 performs conversion processing on the document expression sent from the document analysis unit 300 by referring to the presentation format expression fixed form 303. However, if the user specifies the conversion processing method, the presentation format conversion means 301 performs the conversion processing based on the conversion conditions sent from the presentation condition specification means 302. In this way, the presentation format conversion unit 301 outputs the document representation converted into the presentation format representation to the parameter setting unit 304.

【0014】図4は、図1のパラメータ設定手段107
の一実施例のブロック図である。図4において、パラメ
ータ設定手段404は、発表形式変換手段403の出力
について、文書を発表形式表現で読み上げる際の規則合
成のパラメータを付加する手段である。図4において、
発表条件指定手段402は、キーボード入力手段400あ
るいはマウス入力手段401などを用いて入力された規
則合成のパラメータに関わる条件をパラメータ設定手段
404に出力する。
FIG. 4 shows the parameter setting means 107 of FIG.
It is a block diagram of an example of. In FIG. 4, a parameter setting unit 404 is a unit that adds a parameter for rule composition when reading a document in the presentation format expression to the output of the presentation format conversion unit 403. In FIG.
The presentation condition designating means 402 outputs to the parameter setting means 404 the conditions relating to the rule composition parameters input using the keyboard input means 400 or the mouse input means 401.

【0015】ここで、規則合成のパラメータに関わる条
件とは、プレゼンテーションの時間や発声の速度および
プレゼンテーションにおいて強調する箇所や方法,抑揚
の付け方などを言う。これらは主に選択候補を用意し、
利用者に選択させることにより指定されるが、利用者が
自由に変更できるものとする。また、これらの条件のう
ち、利用者の発話から得ることのできる、発声の速度や
強調方法,抑揚の方法などは、利用者が発話によって指
定することを可能にする。
Here, the conditions relating to the parameter of rule synthesis are the time of presentation, the speed of utterance, the place and method to be emphasized in the presentation, how to add intonation, and the like. These mainly prepare selection candidates,
It is specified by the user's selection, but the user can freely change it. Further, among these conditions, the user can specify the utterance speed, the emphasis method, the intonation method, and the like, which can be obtained from the user's utterance, by the utterance.

【0016】図4において説明すれば、音声認識手段4
06は、マイクロフォンなどの音声入力手段405を用
いて入力された利用者の音声について、音声認識処理を
行う。音声認識手段406において分析した結果によ
り、音素継続時間長算出手段407は、音素継続時間長
を算出する。発話時間計測手段408は、利用者の発話
時間を計測する。パワー算出手段409は、パワーを算
出する。韻律情報抽出手段410は、韻律情報を抽出す
る。それぞれの算出結果,抽出結果はパラメータ設定手
段404に送られる。パラメータ設定手段404は、こ
うして入力されたパラメータを、前述の発表形式変換手
段403の出力である文書の発表形式表現に付加したも
のを、音声合成手段412に出力する。
Referring to FIG. 4, the voice recognition means 4
Reference numeral 06 performs voice recognition processing on the voice of the user input using the voice input means 405 such as a microphone. The phoneme duration calculation unit 407 calculates the phoneme duration based on the result of analysis by the voice recognition unit 406. The speech time measuring means 408 measures the speech time of the user. The power calculation means 409 calculates the power. The prosody information extraction means 410 extracts prosody information. The respective calculation results and extraction results are sent to the parameter setting means 404. The parameter setting means 404 adds the parameters thus input to the presentation format expression of the document which is the output of the above-mentioned presentation format conversion means 403, and outputs the result to the speech synthesis means 412.

【0017】図5は、図1に示したパラメータ設定手段
107の一実施例の構成を示す図である。図5におい
て、パラメータ設定手段107はパラメータ付加手段5
00と,標準発表時間算出手段501と,発表速度算出
手段502と,発表時間算出手段503と,標準音素継
続時間長テーブル504からなる。
FIG. 5 is a diagram showing the configuration of an embodiment of the parameter setting means 107 shown in FIG. In FIG. 5, the parameter setting means 107 is the parameter adding means 5
00, standard announcement time calculation means 501, announcement speed calculation means 502, announcement time calculation means 503, and standard phoneme duration time table 504.

【0018】パラメータ付加手段500は、発表形式変
換手段505から出力される文書の発表形式表現に、パ
ラメータ抽出手段506あるいは発表条件指定手段50
7から出力されるパラメータを付加して、パラメータ付
加表現を出力する。さらに、標準発表時間算出手段50
1は、パラメータ付加表現について、対応する文書をプ
レゼンテーションとして音声出力する際の所要時間を算
出する。
The parameter adding means 500 adds the parameter extraction means 506 or the announcement condition designating means 50 to the announcement format representation of the document output from the announcement format conversion means 505.
The parameter output from 7 is added, and the parameter addition expression is output. Furthermore, the standard presentation time calculation means 50
1 calculates the time required for outputting the corresponding document as a presentation by speech for the parameter-added expression.

【0019】ここで、標準発表時間算出手段501にお
いて、パラメータ付加表現から標準発表時間を算出する
際、あらかじめ音素継続時間長が格納されている標準音
素継続時間長テーブル504を参照することにより、パ
ラメータ付加表現内の各音素に対して継続時間長を調
べ、全音素継続時間長を加算する。次に、標準発表時間
算出手段501は、パラメータ付加手段500で付加さ
れたパラメータ付加表現内の全単語間および句間,文間
のポーズ長を加算する。さらに、標準発表時間算出手段
501は、全音素継続時間長と全ポーズ長とを加算し、
文書の標準的な発表時間を算出し、出力する。
Here, when the standard presentation time calculation means 501 calculates the standard presentation time from the parameter-added expression, by referring to the standard phoneme duration table 504 in which the phoneme duration is stored in advance, The duration is checked for each phoneme in the additional expression, and the duration of all phonemes is added. Next, the standard presentation time calculation means 501 adds the pause lengths between all words, phrases, and sentences in the parameter addition expression added by the parameter addition means 500. Furthermore, the standard presentation time calculation means 501 adds the total phoneme duration time and the total pose length,
Calculate and output the standard publication time of a document.

【0020】ここで、あらかじめ発表時間が指定されて
いる場合と、発表速度が指定されている場合で、パラメ
ータ設定手段における処理のフローが異なる。
Here, the flow of processing in the parameter setting means differs depending on whether the announcement time is designated in advance or when the announcement speed is designated.

【0021】図6に、パラメータ設定手段における処理
のフローチャートを示す。図5のブロック図を用いて図
6を説明すると、標準発表時間算出手段501において
標準発表時間が算出された後(s1),発表条件指定手
段507において発表時間が指定されている場合(s
2),発表速度算出手段502では、標準発表時間と指
定された発表時間が一致するように、各音素継続時間長
を伸縮させる(s3)。その結果、決定した各音素継続
時間長をパラメータ付加表現に付加して発表時間算出手
段503に出力する。発表時間算出手段503では、パ
ラメータ付加表現における頁,段落,図などの各構成単
位の音声出力時間を算出し(s4)、画面表示手段に出
力する。さらに、パラメータ付加表現を音声合成手段に
出力する(s5)。
FIG. 6 shows a flowchart of processing in the parameter setting means. Referring to FIG. 6 with reference to the block diagram of FIG. 5, when the standard presentation time is calculated by the standard presentation time calculation means 501 (s1), and the presentation time is specified by the presentation condition designating means 507 (s
2) The presentation speed calculation unit 502 expands or contracts the duration of each phoneme so that the standard presentation time and the specified presentation time match (s3). As a result, the determined phoneme duration is added to the parameter addition expression and output to the presentation time calculation unit 503. The presentation time calculation means 503 calculates the voice output time of each structural unit such as a page, paragraph, figure in the parameter addition expression (s4) and outputs it to the screen display means. Further, the parameter addition expression is output to the voice synthesizing means (s5).

【0022】また、発表条件指定手段507において発
表時間が指定されていないが(s2)、発表速度が指定さ
れている場合には(s6)、発表速度算出手段502は
用いず、発表時間算出手段503において、指定された
発表速度から得られる音素継続時間長比に基づいて、パ
ラメータ付加表現における頁,段落,図などの各構成要
素毎の音声出力時間を算出し(s7)、画面表示手段に
出力する。その際、指定された発表速度は標準発表時間
算出手段501の出力である表現に付加されて音声合成
手段に送られる(s5)。
If the presentation time is not designated by the presentation condition designating means 507 (s2), but the presentation speed is designated (s6), the presentation speed calculating means 502 is not used and the presentation time calculating means is not used. In 503, the voice output time for each constituent element such as page, paragraph, and figure in the parameter addition expression is calculated based on the phoneme duration length ratio obtained from the specified presentation speed (s7), and is displayed on the screen display means. Output. At this time, the designated presentation speed is added to the expression which is the output of the standard presentation time calculation means 501 and sent to the speech synthesis means (s5).

【0023】図7は、図1に示した情報同期出力手段1
13の一実施例の構成を示す図である。音声記憶手段7
03は、マイクロフォンなどの音声入力手段700を用
いて入力された利用者の音声を記憶する。ポインティン
グ情報記憶手段704は、ポインティング入力手段70
1を用いて入力されたポインティング情報を記憶する。
出力同期手段705は、文書の一部に対応してあらかじ
め入力され、記録された音声およびポインティング情報
を、必要に応じて出力する。ここでは、音声記憶手段7
03から音声情報を受け取り、音声再生手段706へ出
力する。同様にポインティング情報記憶手段704から
ポインティング情報を受け取り、画面表示手段707へ
出力する。その際、出力同期手段705はこれらの情報
を同期して出力するように、音声再生手段706および
画面表示手段707を制御する。なお、同時に入力され
たポインティング情報が存在しない場合には、音声再生
手段706により音声情報のみを出力する。
FIG. 7 shows the information synchronization output means 1 shown in FIG.
13 is a diagram showing the configuration of an example of No. 13 of FIG. Voice storage means 7
03 stores the user's voice input using the voice input means 700 such as a microphone. The pointing information storage means 704 is a pointing input means 70.
The pointing information input using 1 is stored.
The output synchronization unit 705 outputs the voice and pointing information that is input and recorded in advance corresponding to a part of the document, as necessary. Here, the voice storage means 7
03, the audio information is received and output to the audio reproducing means 706. Similarly, it receives the pointing information from the pointing information storage means 704 and outputs it to the screen display means 707. At that time, the output synchronization unit 705 controls the audio reproduction unit 706 and the screen display unit 707 so as to output these information in synchronization. If there is no pointing information input at the same time, the audio reproducing unit 706 outputs only the audio information.

【0024】このようにして、作成された文書を解析
し、解析された文書を発表形式の表現に変換し、発表形
式の表現を音声合成により読み上げることにより、プレ
ゼンテーション確認の機能を実現する。さらに、その
際、利用者が入力した音声およびポインティング情報
を、文書に連結して記憶する機能を実現する。
In this way, the function of confirming the presentation is realized by analyzing the created document, converting the analyzed document into the presentation format expression, and reading the presentation format expression by voice synthesis. Further, at this time, a function of linking the voice and pointing information input by the user with the document and storing the document is realized.

【0025】次に、図1において、プレゼンテーション
評価機能に用いられる手段は、音声入力手段104,音
声認識手段105,パラメータ抽出手段106,パラメ
ータ判定手段115,画面表示手段111,画面出力手
段112である。
Next, in FIG. 1, means used for the presentation evaluation function are voice input means 104, voice recognition means 105, parameter extraction means 106, parameter determination means 115, screen display means 111, and screen output means 112. .

【0026】音声入力手段104は、音声を入力するの
に用いられるマイクロフォンなどの道具である。音声認
識手段105は、入力された音声を分析して、相当する
単語列およびその他の分析結果を出力する手段である。
パラメータ抽出手段106は、入力された音声の音響的
特徴パラメータを抽出する手段である。パラメータ判定
手段115は、利用者の音声から抽出されたパラメータ
の値を、あらかじめ設定されている標準的な値と比較
し、判定する手段である。画面表示手段111は、文書
や各パラメータなどを画面に表示するための制御を行う
手段である。画面出力手段112は、ディスプレイなど
の、文字あるいは図形を出力する手段である。
The voice input means 104 is a tool such as a microphone used for inputting voice. The voice recognition unit 105 is a unit that analyzes the input voice and outputs a corresponding word string and other analysis results.
The parameter extraction unit 106 is a unit that extracts the acoustic feature parameter of the input voice. The parameter determining unit 115 is a unit that compares the value of the parameter extracted from the voice of the user with a standard value that is set in advance to make a determination. The screen display unit 111 is a unit that performs control for displaying a document, parameters, and the like on the screen. The screen output unit 112 is a unit such as a display that outputs characters or graphics.

【0027】図1の実施例において、音声入力手段10
4を用いて入力された利用者の音声が、音声認識手段1
05において認識され、パラメータ抽出手段106にお
いて、利用者の音声の音響的特徴パラメータが抽出され
る。
In the embodiment of FIG. 1, voice input means 10
The user's voice input using 4 is the voice recognition means 1
It is recognized at 05, and the acoustic feature parameter of the voice of the user is extracted at the parameter extraction means 106.

【0028】図8は、図1に示したパラメータ抽出手段
106の一実施例の構成を示す図である。図1のパラメ
ータ抽出手段106は、利用者のプレゼンテーションを
評価するために、利用者の音声の各種パラメータを抽出
し、パラメータ判定手段115で判定する。図8では、入
力音声から抽出するパラメータとして、キーワードを扱
っている。キーワード抽出手段802は、音声入力手段
800を用いて入力された利用者の音声を音声認識手段
801で処理した結果について、キーワードを抽出する
手段である。
FIG. 8 is a diagram showing the configuration of an embodiment of the parameter extracting means 106 shown in FIG. The parameter extraction unit 106 of FIG. 1 extracts various parameters of the user's voice in order to evaluate the user's presentation, and the parameter determination unit 115 makes a determination. In FIG. 8, the keyword is treated as a parameter extracted from the input voice. The keyword extracting unit 802 is a unit that extracts a keyword with respect to the result obtained by processing the voice of the user input using the voice input unit 800 by the voice recognition unit 801.

【0029】図8において、まず、マイクロフォンなど
の音声入力手段800を用いて入力された利用者の音声
は、音声認識手段801に送られ、音響的な分析が行わ
れる。分析した結果から、キーワード抽出手段802に
おいてキーワードが抽出され、画面表示手段803によ
り、キーワードが所定の位置に挿入された文書を画面に
表示するよう、画面出力手段を制御する。
In FIG. 8, first, the voice of the user input using the voice input means 800 such as a microphone is sent to the voice recognition means 801, and acoustic analysis is performed. Keywords are extracted by the keyword extraction means 802 from the analyzed results, and the screen display means 803 controls the screen output means so that the document in which the keywords are inserted at a predetermined position is displayed on the screen.

【0030】図9は、図1に示したパラメータ抽出手段
106の他の一実施例の構成を示す図である。キーワー
ド抽出手段902は、音声入力手段900を用いて入力
された利用者の音声を音声認識手段901で処理した結
果について、キーワードを抽出する手段である。キーワ
ード判定手段904は、入力されたキーワードについ
て、あらかじめ用意されたキーワードを比較して、判定
する手段である。
FIG. 9 is a diagram showing the configuration of another embodiment of the parameter extracting means 106 shown in FIG. The keyword extracting unit 902 is a unit that extracts a keyword with respect to the result of processing by the voice recognition unit 901 the voice of the user input using the voice input unit 900. The keyword determining unit 904 is a unit that compares the input keywords with keywords prepared in advance and determines the keywords.

【0031】図9において、まず、マイクロフォンなど
の音声入力手段900を用いて入力された利用者の音声
は、音声認識手段901に送られ、音響的な分析が行わ
れる。分析した結果から、キーワード抽出手段902に
おいてキーワードが抽出される。ここで、文書解析手段
903は、文書中のキーワードを抽出することにし、キ
ーワード判定手段904において、このキーワードとキ
ーワード抽出手段904の結果としてのキーワードを比較
し、一致の割合を判定する。そして画面表示手段905
により、この判定の結果を画面に表示するよう画面出力
手段を制御する。
In FIG. 9, first, the voice of the user input using the voice input means 900 such as a microphone is sent to the voice recognition means 901 and acoustically analyzed. Keywords are extracted by the keyword extracting means 902 from the analyzed results. Here, the document analysis unit 903 decides to extract the keyword in the document, and the keyword determination unit 904 compares this keyword with the keyword as a result of the keyword extraction unit 904 to determine the matching ratio. And screen display means 905
The screen output means is controlled so that the result of this determination is displayed on the screen.

【0032】図10は、図1のパラメータ抽出手段10
6のさらに他の一実施例の構成を示す図である。図1の
パラメータ抽出手段106は、利用者のプレゼンテーシ
ョンを評価するために、利用者の音声の各種パラメータ
を抽出し、パラメータ判定手段115で判定する。ここ
では、判定するパラメータとして、音素検出率,抑揚,
発話速度,発話時間を扱っている。音素検出手段100
1は、利用者の音声から音素を検出する手段である。音
素検出率判定手段1002は、検出した音素の割合を判
定する手段である。韻律情報解析手段1003は、利用
者の音声から韻律情報を解析する手段である。抑揚判定
手段1004は、解析した韻律情報から得られる抑揚の
度合いを判定する手段である。発話速度解析手段100
5は、利用者の音声から発話速度を解析する手段であ
る。発話速度判定手段1006は、解析した発話速度を
判定する手段である。発話時間計測手段1007は、利
用者の発話時間を計測する手段である。発話時間判定手
段1008は、計測した発話時間を判定する手段であ
る。
FIG. 10 shows the parameter extraction means 10 of FIG.
6 is a diagram showing the configuration of yet another embodiment of No. 6 of FIG. The parameter extraction unit 106 of FIG. 1 extracts various parameters of the user's voice in order to evaluate the user's presentation, and the parameter determination unit 115 makes a determination. Here, as the parameters to be determined, the phoneme detection rate, intonation,
It deals with speaking speed and speaking time. Phoneme detecting means 100
Reference numeral 1 is a means for detecting phonemes from the user's voice. The phoneme detection rate determination means 1002 is means for determining the proportion of the detected phonemes. The prosody information analysis means 1003 is means for analyzing prosody information from the voice of the user. The intonation determination means 1004 is means for determining the degree of intonation obtained from the analyzed prosody information. Speech rate analyzing means 100
Reference numeral 5 is a means for analyzing the speech rate from the voice of the user. The speech rate determining means 1006 is means for determining the analyzed speech rate. The utterance time measuring means 1007 is means for measuring the utterance time of the user. The utterance time determination means 1008 is means for determining the measured utterance time.

【0033】ここでは、例として、発話速度を判定する
場合について説明する。まず、マイクロフォンなどの音
声入力手段1000を用いて入力された利用者の音声
は、音声認識手段1010に送られ、音響的な分析が行
われる。分析した結果から、発話速度解析手段1005
において発話速度が解析される。あらかじめ設定された
発話速度と、発話速度解析手段1005の結果としての
発話速度を比較し、判定する。そして画面表示手段10
09により、この判定の結果を画面に表示するよう、画
面出力手段を制御する。
Here, as an example, the case of determining the speech rate will be described. First, the user's voice input using the voice input unit 1000 such as a microphone is sent to the voice recognition unit 1010 and acoustically analyzed. From the analysis result, the speech rate analyzing means 1005
Speech rate is analyzed at. The preset speech rate is compared with the speech rate as a result of the speech rate analysis unit 1005 to make a determination. And the screen display means 10
The screen output means is controlled by 09 to display the result of this determination on the screen.

【0034】このようにして、利用者の音声を分析し
て、音素検出率,発話時間,抑揚などの特徴を判定し、
評価することにより、プレゼンテーション評価の機能を
実現する。
In this way, the voice of the user is analyzed to determine features such as the phoneme detection rate, speech time, and intonation,
By evaluating, the function of presentation evaluation is realized.

【0035】[0035]

【発明の効果】作成された文書を解析し、解析された文
書を発表形式表現に変換したものを音声合成により読み
上げることにより、利用者はプレゼンテーション用の原
稿作成と同時に、プレゼンテーション内容や方法を確認
することを可能にした。また、利用者のプレゼンテーシ
ョン練習時の音声を分析し、発話速度,発話時間,抑揚
などの音響的特徴を評価することにより、利用者のプレ
ゼンテーションの練習を評価することを可能にした。
[Effects of the Invention] The created document is analyzed, and the analyzed document is converted into a presentation format expression and read aloud by voice synthesis, so that the user can confirm the presentation content and method at the same time as creating the original for presentation. Made it possible. In addition, by analyzing the voice of the user during the practice of the presentation and evaluating the acoustic characteristics such as the speech speed, the speech time, and the intonation, it is possible to evaluate the practice of the presentation of the user.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のプレゼンテーション支援装置の一実施
例を示すブロック図。
FIG. 1 is a block diagram showing an embodiment of a presentation support device of the present invention.

【図2】文書解析手段の一実施例を示すブロック図。FIG. 2 is a block diagram showing an embodiment of document analysis means.

【図3】発表形式変換手段の処理の一実施例を示す図。FIG. 3 is a diagram showing an example of processing of presentation format conversion means.

【図4】パラメータ設定手段の一実施例を示すブロック
図。
FIG. 4 is a block diagram showing an embodiment of parameter setting means.

【図5】パラメータ設定手段の一実施例の構成を示すブ
ロック図。
FIG. 5 is a block diagram showing the configuration of an embodiment of parameter setting means.

【図6】パラメータ設定手段における処理のフローチャ
ート。
FIG. 6 is a flowchart of a process in a parameter setting unit.

【図7】情報同期出力手段の一実施例の構成を示すブロ
ック図。
FIG. 7 is a block diagram showing the configuration of an embodiment of an information synchronization output means.

【図8】パラメータ抽出手段の一実施例の構成を示すブ
ロック図。
FIG. 8 is a block diagram showing the configuration of an embodiment of parameter extracting means.

【図9】パラメータ抽出手段の他の一実施例の構成を示
すブロック図。
FIG. 9 is a block diagram showing the configuration of another embodiment of parameter extracting means.

【図10】パラメータ抽出手段のさらに他の一実施例を
示すブロック図。
FIG. 10 is a block diagram showing still another embodiment of the parameter extracting means.

【符号の説明】 100…キーボード入力手段、101…マウス入力手
段、102…文書解析手段、103…発表形式変換手
段、104…音声入力手段、105…音声認識手段、1
06…パラメータ抽出手段、107…パラメータ設定手
段、108…発表条件指定手段、109…音声合成手
段、110…音声出力手段、111…画面表示手段、1
12…画面出力手段、113…情報同期出力手段、11
4…音声再生手段、115…パラメータ判定手段。
[Explanation of Codes] 100 ... Keyboard input means, 101 ... Mouse input means, 102 ... Document analysis means, 103 ... Presentation format conversion means, 104 ... Voice input means, 105 ... Voice recognition means, 1
06 ... Parameter extracting means, 107 ... Parameter setting means, 108 ... Presentation condition designating means, 109 ... Voice synthesizing means, 110 ... Voice output means, 111 ... Screen display means, 1
12 ... Screen output means, 113 ... Information synchronization output means, 11
4 ... Voice reproducing means, 115 ... Parameter judging means.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G10L 3/00 551 Z 9/00 301 A (72)発明者 松田 泰昌 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立製作所映像メディア研究所内 (72)発明者 大條 成人 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立製作所映像メディア研究所内 (72)発明者 長谷川 司 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立製作所映像メディア研究所内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G10L 3/00 551 Z 9/00 301 A (72) Inventor Yasumasa Matsuda Yoshida Totsuka-ku, Yokohama-shi, Kanagawa 292, Machi, Hitachi Ltd., Visual Media Research Laboratory (72) Inventor, Ojo Adult, 292, Yoshida-cho, Totsuka-ku, Yokohama, Kanagawa Prefecture, Japan, (72) Incorporated, Hitachi, Ltd. Visual Media Research Institute, Hasegawa, Yokohama, Kanagawa 292 Yoshida-cho, Totsuka-ku, Hitachi Ltd. Visual Media Research Laboratories

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】少なくともキーボードなどの文字入力手段
と,ペンあるいはマウスなどのポインティング入力手段
と,文字だけでなく図表を含む文書を解析する文書解析
手段と,文章をプレゼンテーションの説明文形式の文章
に変換する発表形式変換手段と,音声入力手段と,利用
者の音声を認識する音声認識手段と,利用者の音声の特
徴パラメータを抽出するパラメータ抽出手段と,文章を
音声に変換する際のパラメータを設定するパラメータ設
定手段と,前記発表形式変換手段と前記パラメータ設定
手段の方式を指定する発表条件指定手段と,文章を音声
に変換する音声合成手段と,音声を出力する音声出力手
段と,文書および読み上げに関する特徴を画面に表示す
る画面表示手段と,画面出力手段と,情報同期出力手段
と,音声再生手段とを持つプレゼンテーションを補助す
る確認装置と,少なくとも前記音声入力手段と,前記音
声認識手段と,前記パラメータ抽出手段と,利用者の音
声の特徴パラメータを判定するパラメータ判定手段と,
前記画面表示手段と,前記画面出力手段を持つプレゼン
テーションを補助する訓練装置とを組み合わせて持つこ
とを特徴とするプレゼンテーション支援装置。
1. At least a character input means such as a keyboard, a pointing input means such as a pen or a mouse, a document analysis means for analyzing a document including not only characters but also a chart, and a sentence in a sentence format of a presentation. The presentation format converting means for converting, the voice inputting means, the voice recognizing means for recognizing the voice of the user, the parameter extracting means for extracting the characteristic parameter of the voice of the user, and the parameter for converting the sentence into the voice Parameter setting means for setting, presentation condition converting means and announcement condition specifying means for designating the method of the parameter setting means, voice synthesizing means for converting sentences into voices, voice output means for outputting voices, documents, and Screen display means for displaying the characteristics relating to reading on the screen, screen output means, information synchronization output means, and audio reproduction means A confirmation device for assisting a presentation with at least said audio input means, the speech recognition means, and said parameter extraction unit, and the parameter determining means for determining characteristic parameters of the user's voice,
A presentation support device comprising a combination of the screen display means and a training device having the screen output means for assisting a presentation.
【請求項2】請求項1記載のプレゼンテーションを補助
する確認装置において、読み上げる条件を定型か、ある
いはユーザの指定条件で自由に条件を設定でき、プレゼ
ンテーション内容や方法の確認を可能にする機能をもつ
ことを特徴とするプレゼンテーション支援装置。
2. The confirmation device for assisting the presentation according to claim 1, which has a function of enabling the user to confirm the content of the presentation and the method of freely setting the conditions to be read out or by the conditions specified by the user. A presentation support device characterized in that
【請求項3】請求項1記載のプレゼンテーションを補助
する訓練装置において、利用者の音声の種々の特徴パラ
メータを判定することにより利用者のプレゼンテーショ
ンを評価する機能をもつことを特徴とするプレゼンテー
ション支援装置。
3. The training device for assisting a presentation according to claim 1, wherein the training support device has a function of evaluating the user's presentation by determining various characteristic parameters of the user's voice. .
【請求項4】請求項2記載のプレゼンテーション支援装
置において、前記文書解析手段は、文書内の構成要素毎
に種類,位置などの属性値を解析する機能を持つことを
特徴とするプレゼンテーション支援装置。
4. The presentation support apparatus according to claim 2, wherein the document analysis unit has a function of analyzing attribute values such as type and position for each constituent element in the document.
【請求項5】請求項2記載のプレゼンテーション支援装
置において、前記発表条件指定手段は、文字入力手段あ
るいはポインティング入力手段などを用いて入力された
情報について、発表形式表現の変換方法を前記発表形式
変換手段に出力し、読み上げの際の音声規則合成のパラ
メータを前記パラメータ設定手段に出力する機能を持つ
ことを特徴とするプレゼンテーション支援装置。
5. The presentation support apparatus according to claim 2, wherein the presentation condition designating means converts the presentation format representation of the information entered by using character input means or pointing input means. A presentation support device having a function of outputting to a parameter setting means and a parameter of voice rule synthesis at the time of reading to the parameter setting means.
【請求項6】請求項2記載のプレゼンテーション支援装
置において、前記発表形式変換手段は、標準的な発表形
式表現として用意されている発表形式表現定型を利用し
て、前記文書解析手段の出力する文書構成要素群を発表
形式表現に変換する機能を持つことを特徴とするプレゼ
ンテーション支援装置。
6. The presentation support apparatus according to claim 2, wherein the presentation format conversion means uses a presentation format expression fixed form prepared as a standard presentation format expression, and a document output by the document analysis means. A presentation support device having a function of converting a group of components into a presentation format expression.
【請求項7】請求項2記載のプレゼンテーション支援装
置において、前記発表形式変換手段は、前記発表条件指
定手段の出力する発表条件に基づいて、前記文書解析手
段の出力する文書構成要素群を発表形式表現に変換する
機能を持つことを特徴とするプレゼンテーション支援装
置。
7. The presentation support apparatus according to claim 2, wherein the presentation format conversion means presents a group of document constituent elements output by the document analysis means on the basis of a presentation condition output by the presentation condition designating means. A presentation support device having a function of converting into an expression.
【請求項8】請求項2記載のプレゼンテーション支援装
置において、前記パラメータ抽出手段は、特に音声入力
手段を用いて利用者が入力した音声について、音素継続
時間長を算出する音素継続時間長算出手段と,発話時間
を計測する発話時間計測手段と,韻律情報を抽出する韻
律情報抽出手段と,パワーを算出するパワー算出手段を
有し、算出および抽出した音素継続時間長,発話時間,
韻律情報,パワーなどの情報をパラメータ設定手段に出
力する機能を持つことを特徴とするプレゼンテーション
支援装置。
8. The presentation support device according to claim 2, wherein the parameter extracting means calculates a phoneme duration length calculation means for calculating a phoneme duration time for a voice input by a user, particularly using a voice input means. , Utterance time measuring means for measuring utterance time, prosody information extracting means for extracting prosody information, and power calculating means for calculating power, and calculates and extracts phoneme duration, utterance time,
A presentation support device having a function of outputting information such as prosody information and power to a parameter setting means.
【請求項9】請求項2記載のプレゼンテーション支援装
置において、前記パラメータ設定手段は、前記発表形式
変換手段の出力する発表表現に、前記発表条件指定手段
が出力する強調方法,ポーズ長などの音響的特徴情報を
付加するパラメータ付加手段を持つことを特徴とするプ
レゼンテーション支援装置。
9. The presentation support apparatus according to claim 2, wherein the parameter setting unit acoustically outputs a presentation expression output by the presentation format conversion unit such as an emphasis method output by the presentation condition specifying unit and a pause length. A presentation support apparatus having a parameter addition means for adding characteristic information.
【請求項10】請求項2記載のプレゼンテーション支援
装置において、前記パラメータ付加手段は、文書の文字
表現に音響的特徴情報を付加した表現を出力することに
し、前記パラメータ設定手段は、該表現について、標準
音素継続時間長が格納されている標準音素継続時間長テ
ーブルから音素継続時間長を付加し、さらに該表現の全
ての音素継続時間長を加算し、また、単語間あるいは句
間,文間のポーズ長を加算することにより、文書の標準
発表時間を算出する標準発表時間算出手段を持つことを
特徴とするプレゼンテーション支援装置。
10. The presentation support apparatus according to claim 2, wherein the parameter adding means outputs an expression in which acoustic feature information is added to a character expression of the document, and the parameter setting means: A phoneme duration is added from the standard phoneme duration table in which the standard phoneme duration is stored, and all phoneme durations of the expression are added, and word-to-word or phrase-to-sentence-to-sentence A presentation support apparatus having a standard presentation time calculation means for calculating a standard publication time of a document by adding a pause length.
【請求項11】請求項2記載のプレゼンテーション支援
装置において、前記パラメータ設定手段は、前記標準発
表時間算出手段の出力する文書の標準発表時間につい
て、前記発表条件指定手段が出力する発表時間から、発
表速度を算出する発表速度算出手段を持つことを特徴と
するプレゼンテーション支援装置。
11. The presentation support apparatus according to claim 2, wherein the parameter setting means makes an announcement about the standard presentation time of the document output by the standard presentation time calculation means from the presentation time output by the presentation condition designating means. A presentation support device having a presentation speed calculation means for calculating a speed.
【請求項12】請求項2記載のプレゼンテーション支援
装置において、前記パラメータ設定手段は、前記発表速
度算出手段から出力される発表速度に基づいて、前記パ
ラメータ付加手段から出力される表現について、総発表
時間あるいは各構成単位毎の発表時間を算出し、さらに
該発表時間を画面表示手段へ出力する発表時間算出手段
を持つことを特徴とするプレゼンテーション支援装置。
12. The presentation support apparatus according to claim 2, wherein the parameter setting means, based on the presentation speed output from the presentation speed calculation means, expresses the total output time of the expressions output from the parameter addition means. Alternatively, the presentation support apparatus is characterized in that it has a presentation time calculation means for calculating the presentation time for each structural unit and further outputting the presentation time to the screen display means.
【請求項13】請求項2記載のプレゼンテーション支援
装置において、前記発表速度算出手段は、前記パラメー
タ付加手段から出力される請求項10記載の表現に、各
音素の継続時間長を付加した表現を出力することにし、
前記音声合成手段は該表現から音声を合成し、音声出力
手段へ音声を出力する機能を持つことを特徴とするプレ
ゼンテーション支援装置。
13. The presentation support apparatus according to claim 2, wherein the presentation speed calculation means outputs an expression obtained by adding the duration of each phoneme to the expression output from the parameter adding means. Decided to do
A presentation support apparatus, wherein the voice synthesizing unit has a function of synthesizing a voice from the expression and outputting the voice to a voice output unit.
【請求項14】請求項3記載のプレゼンテーション支援
装置において、音声記憶手段は音声入力手段を用いて入
力された音声情報を記憶するものとし、音声再生手段は
音声記憶手段で記憶した音声を再生出力するものとし、
ポインティング情報記憶手段はポインティング入力手段
を用いて入力されたポインティング情報を記憶するもの
とし、前記情報同期出力手段は、前記音声記憶手段にお
いて記憶した音声と、前記ポインティング情報記憶手段
に記憶されている情報について、同時に入力された情報
同士を同期して、前記音声再生手段と前記画面表示手段
に情報を出力するよう命令する出力同期手段を持つこと
を特徴とするプレゼンテーション支援装置。
14. The presentation support apparatus according to claim 3, wherein the audio storage means stores audio information input using the audio input means, and the audio reproduction means reproduces and outputs the audio stored in the audio storage means. And
The pointing information storage means stores the pointing information input using the pointing input means, and the information synchronization output means stores the voice stored in the voice storage means and the information stored in the pointing information storage means. Regarding the above, the presentation support device is characterized by having an output synchronization means for instructing the audio reproduction means and the screen display means to output the information by synchronizing the information inputted at the same time.
【請求項15】請求項3記載のプレゼンテーション支援
装置において、前記パラメータ抽出手段は、音声入力手
段を用いて入力された音声を分析し、キーワードを抽出
するキーワード抽出手段と、キーワードを文書の該当位
置に挿入し、挿入後の文書を画面に表示する画面表示手
段とを持つことを特徴とするプレゼンテーション支援装
置。
15. The presentation support apparatus according to claim 3, wherein the parameter extraction unit analyzes the voice input using the voice input unit and extracts the keyword, and the keyword extraction unit extracts the keyword from the corresponding position of the document. And a screen display means for displaying the inserted document on the screen.
【請求項16】請求項3記載のプレゼンテーション支援
装置において、前記文書解析手段は文書中のキーワード
を抽出して出力することにし、前記パラメータ抽出手段
は、該キーワードを照合して、前記キーワード抽出手段
により出力されるキーワードを判定するキーワード判定
手段を有し、判定結果を前記画面表示手段において画面
に表示することを特徴とするプレゼンテーション支援装
置。
16. The presentation support apparatus according to claim 3, wherein the document analysis unit extracts and outputs a keyword in the document, and the parameter extraction unit collates the keyword and the keyword extraction unit. A presentation support device comprising: a keyword determination unit for determining a keyword output by the above, and the determination result is displayed on the screen by the screen display unit.
【請求項17】請求項3記載のプレゼンテーション支援
装置において、前記パラメータ抽出手段は、音声入力手
段を用いて入力された音声を分析して、音素検出処理を
行い音素検出率を出力する音素検出手段と、該音素検出
率を判定する音素検出率判定手段とを有し、判定結果を
前記画面表示手段において画面に表示する機能を持つこ
とを特徴とするプレゼンテーション支援装置。
17. The presentation support device according to claim 3, wherein the parameter extraction means analyzes the voice input using the voice input means, performs a phoneme detection process, and outputs a phoneme detection rate. And a phoneme detection rate determination means for determining the phoneme detection rate, and a function of displaying the determination result on the screen in the screen display means.
【請求項18】請求項3記載のプレゼンテーション支援
装置において、前記パラメータ抽出手段は、音声入力手
段を用いて入力された音声を分析して、韻律情報を解析
して抑揚の度合いを出力する韻律情報解析手段と、該抑
揚の度合いをあらかじめ保持している標準的な抑揚の度
合いと照合して判定する抑揚判定手段とを有し、判定結
果を前記画面表示手段において画面に表示する機能を持
つことを特徴とするプレゼンテーション支援装置。
18. The presentation support device according to claim 3, wherein the parameter extraction unit analyzes the voice input using the voice input unit, analyzes the prosody information, and outputs the degree of intonation. Having an analyzing means and an intonation judging means for judging by comparing the degree of intonation with a standard tongue degree which is held in advance, and having a function of displaying the judgment result on the screen by the screen displaying means. Presentation support device.
【請求項19】請求項3記載のプレゼンテーション支援
装置において、前記パラメータ抽出手段は、音声入力手
段を用いて入力された音声を分析し、発話速度を解析す
る発話速度解析手段と、該発話速度を判定する発話速度
判定手段とを有し、前記画面表示手段において該発話速
度あるいは判定結果を画面に表示する機能を持つことを
特徴とするプレゼンテーション支援装置。
19. The presentation support apparatus according to claim 3, wherein the parameter extracting unit analyzes the voice input by using the voice input unit and analyzes the voice speed, and the voice speed analyzing unit and the voice speed. A presentation support device comprising: a speech rate determining means for determining, and the screen display means having a function of displaying the speech rate or the determination result on a screen.
【請求項20】請求項3記載のプレゼンテーション支援
装置において、前記パラメータ抽出手段は、音声入力手
段を用いて入力された音声を分析して、発話時間を計測
する発話時間計測手段と、該発話時間を判定する発話時
間判定手段とを有し、前記画面表示手段において該発話
時間あるいは判定結果を画面に表示する機能を持つこと
を特徴とするプレゼンテーション支援装置。
20. The presentation support apparatus according to claim 3, wherein the parameter extracting means analyzes the voice input using the voice input means and measures the utterance time, and the utterance time measuring means. A presentation support device, comprising: a speech time determining means for determining whether the speech time or the determination result is displayed on the screen by the screen display means.
JP6122220A 1994-06-03 1994-06-03 Presentation supporting device Pending JPH07334075A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6122220A JPH07334075A (en) 1994-06-03 1994-06-03 Presentation supporting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6122220A JPH07334075A (en) 1994-06-03 1994-06-03 Presentation supporting device

Publications (1)

Publication Number Publication Date
JPH07334075A true JPH07334075A (en) 1995-12-22

Family

ID=14830529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6122220A Pending JPH07334075A (en) 1994-06-03 1994-06-03 Presentation supporting device

Country Status (1)

Country Link
JP (1) JPH07334075A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2345183A (en) * 1998-12-23 2000-06-28 Canon Res Ct Europe Ltd Monitoring speech presentation
WO2008069187A1 (en) * 2006-12-05 2008-06-12 The University Of Tokyo Presentation support device, method, and program
JP4762976B2 (en) * 2004-04-16 2011-08-31 モエ,リチャード,エイ Timekeeping practice method and system
JP2012146209A (en) * 2011-01-13 2012-08-02 Nikon Corp Electronic device and control program for electronic device
JP2020160425A (en) * 2019-09-24 2020-10-01 株式会社博報堂Dyホールディングス Evaluation system, evaluation method, and computer program
JP2021089768A (en) * 2021-02-19 2021-06-10 株式会社インタラクティブソリューションズ Presentation evaluation device, presentation evaluation system, presentation evaluation program, and control method for the presentation evaluation device
JP2022123673A (en) * 2021-02-12 2022-08-24 株式会社フォーサイト Lecture evaluation system and method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2345183A (en) * 1998-12-23 2000-06-28 Canon Res Ct Europe Ltd Monitoring speech presentation
GB2345183B (en) * 1998-12-23 2003-11-05 Canon Res Ct Europ Ltd Speech monitoring system
JP4762976B2 (en) * 2004-04-16 2011-08-31 モエ,リチャード,エイ Timekeeping practice method and system
WO2008069187A1 (en) * 2006-12-05 2008-06-12 The University Of Tokyo Presentation support device, method, and program
JP2008139762A (en) * 2006-12-05 2008-06-19 Univ Of Tokyo Presentation support device, method, and program
JP2012146209A (en) * 2011-01-13 2012-08-02 Nikon Corp Electronic device and control program for electronic device
JP2020160425A (en) * 2019-09-24 2020-10-01 株式会社博報堂Dyホールディングス Evaluation system, evaluation method, and computer program
JP2022123673A (en) * 2021-02-12 2022-08-24 株式会社フォーサイト Lecture evaluation system and method
JP2021089768A (en) * 2021-02-19 2021-06-10 株式会社インタラクティブソリューションズ Presentation evaluation device, presentation evaluation system, presentation evaluation program, and control method for the presentation evaluation device

Similar Documents

Publication Publication Date Title
US9478219B2 (en) Audio synchronization for document narration with user-selected playback
EP0216129B1 (en) Apparatus for making and editing dictionary entries in a text to speech conversion system
US6549887B1 (en) Apparatus capable of processing sign language information
US20060194181A1 (en) Method and apparatus for electronic books with enhanced educational features
JP2001188777A (en) Method and computer for relating voice with text, method and computer for generating and reading document, method and computer for reproducing voice of text document and method for editing and evaluating text in document
JP2004347786A (en) Speech display output controller, image display controller, and speech display output control processing program, image display control processing program
JPH05333900A (en) Method and device for speech synthesis
JP2003186379A (en) Program for voice visualization processing, program for voice visualization figure display and for voice and motion image reproduction processing, program for training result display, voice-speech training apparatus and computer system
JP2006337667A (en) Pronunciation evaluating method, phoneme series model learning method, device using their methods, program and recording medium
JPH07334075A (en) Presentation supporting device
JP3270356B2 (en) Utterance document creation device, utterance document creation method, and computer-readable recording medium storing a program for causing a computer to execute the utterance document creation procedure
JP2019056791A (en) Voice recognition device, voice recognition method and program
JP2003162291A (en) Language learning device
JP4744338B2 (en) Synthetic speech generator
JP2844817B2 (en) Speech synthesis method for utterance practice
JP2006236037A (en) Voice interaction content creation method, device, program and recording medium
JP2003186489A (en) Voice information database generation system, device and method for sound-recorded document creation, device and method for sound recording management, and device and method for labeling
JPS63157226A (en) Conversation type sentence reading device
JP4964695B2 (en) Speech synthesis apparatus, speech synthesis method, and program
JP2536169B2 (en) Rule-based speech synthesizer
JPH08272388A (en) Device and method for synthesizing voice
KR102418465B1 (en) Server, method and computer program for providing voice reading service of story book
JPH07210185A (en) Reading information preparing device and reading device
KR102107445B1 (en) Text to speech converting apparatus capable of applying an optional speech model and operating method thereof
JP3522005B2 (en) Speech synthesizer