JP2006085418A - Presentation support device, presentation support method and presentation support program - Google Patents
Presentation support device, presentation support method and presentation support program Download PDFInfo
- Publication number
- JP2006085418A JP2006085418A JP2004269354A JP2004269354A JP2006085418A JP 2006085418 A JP2006085418 A JP 2006085418A JP 2004269354 A JP2004269354 A JP 2004269354A JP 2004269354 A JP2004269354 A JP 2004269354A JP 2006085418 A JP2006085418 A JP 2006085418A
- Authority
- JP
- Japan
- Prior art keywords
- presentation
- keyword
- image
- voice
- presenter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、プレゼンテーション支援装置、プレゼンテーション支援方法、及びプレゼンテーション支援プログラムに関し、特に、プレゼンテーション画像をスクリーンに拡大投影するプロジェクターを用いてプレゼンテーションを行う場合におけるプレゼンテーション支援装置、プレゼンテーション支援方法、及びプレゼンテーション支援プログラムに関する。 The present invention relates to a presentation support apparatus, a presentation support method, and a presentation support program. .
従来のプレゼンテーションでは、発表する内容を透明のシートに印刷し、これをOHP(オーバーヘッドプロジェクター)によりスクリーンに投影することにより行うのが一般的であったが、近年では、パーソナルコンピュータ(PC)と液晶プロジェクタを用いて行うことが多くなってきた。PCを用いる場合、プレゼンテーションソフトの機能によりグラフィックや動画等も簡単に扱うことができるため非常に便利である。 In conventional presentations, it has been common to print the content to be presented on a transparent sheet and project it onto the screen using an overhead projector (OHP). In recent years, however, personal computers (PCs) and liquid crystals have been used. More and more work is done using projectors. When using a PC, graphics and moving images can be easily handled by the function of the presentation software, which is very convenient.
通常、発表者は発表内容を良く理解しているため、発表内容のシナリオ原稿を読まなくてもスクリーンに投影された発表スライドを見るだけでプレゼンテーションを行うことが可能な場合が多いと考えられるが、国際学会での発表等、外国語でプレゼンテーションを行う場合には、事前にシナリオ原稿を用意しておき、これを読みながらプレゼンテーションしなければならない場合もある。この場合、事前にシナリオ原稿を紙に印刷して出力する準備が必要となる、手にシナリオ原稿を持って発表すると発表スライドを切り替える際にシナリオ原稿をめくる必要があり目立つ、発表会場は暗い場合が多くシナリオ原稿を読みづらい、緊張によりどこまでシナリオ原稿を読んだかわからなくなる、といったデメリットがある。 Usually, the presenter understands the content of the presentation well, so it is often possible to make a presentation just by looking at the presentation slide projected on the screen without reading the scenario manuscript of the presentation content. When giving a presentation in a foreign language, such as a presentation at an international conference, it may be necessary to prepare a scenario manuscript in advance and present it while reading it. In this case, it is necessary to prepare to print the scenario manuscript on paper in advance, and if you present it with a scenario manuscript in hand, you will need to turn the scenario manuscript when switching the presentation slides. However, there are disadvantages that it is difficult to read the scenario manuscript, and it is difficult to know how far the scenario manuscript has been read due to tension.
プレゼンテーションをスムーズに進行させるためのシステムとしては、例えば特許文献1には、説明者が持つ指示具によりページ送り等の予め決められた操作を行うことができるシステムが提案されている。また、特許文献2には、ディスプレイ装置の両側に操作部を設けたシステムが提案されている。
As a system for smoothly proceeding with the presentation, for example,
また、特許文献3には、作成された文書を解析し、解析された文書を発表形式表現に変換したものを音声合成により読み上げることにより、プレゼンテーション用の原稿作成と同時に、プレゼンテーション内容や方法を確認することができるシステムが提案されている。
しかしながら、上記従来技術は何れも、プレゼンテーションの進捗状況を把握しやすくし、発表をスムーズに行うことを支援することができるものではなかった。 However, none of the above prior arts can easily grasp the progress of the presentation and can support smooth presentation.
本発明は上記事実を考慮して成されたものであり、発表者によるプレゼンテーションを正確かつスムーズに行うことを支援することができると共に進捗の把握を容易にすることができるプレゼンテーション支援装置、プレゼンテーション支援方法、及びプレゼンテーション支援プログラムを得ることを目的とする。 The present invention has been made in consideration of the above-described facts, and can provide a presentation support device and a presentation support that can support accurate and smooth presentation by a presenter and can easily grasp progress. The object is to obtain a method and a presentation support program.
上記目的を達成するために、請求項1記載の発明は、入力された画像をスクリーンに投影する投影装置にプレゼンテーション画像を出力するプレゼンテーション支援装置であって、前記プレゼンテーション画像の説明者の音声を入力する音声入力手段と、入力された説明者の音声を認識し、当該認識した音声の音声認識データを出力する音声認識手段と、 前記スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードを記憶した記憶手段と、前記音声認識データに前記キーワードが含まれているか否かを判断する判断手段と、前記音声認識データに前記キーワードが含まれていない場合に警告する警告手段と、を備えたことを特徴とする。
In order to achieve the above object, the invention described in
この発明に係るプレゼンテーション支援装置は、入力された画像をスクリーンに投影する投影装置にプレゼンテーション画像を出力する。説明者は、スクリーンに投影されたプレゼンテーション画像を参照しながらプレゼンテーションを行う。 The presentation support device according to the present invention outputs a presentation image to a projection device that projects the input image onto a screen. The presenter gives a presentation while referring to the presentation image projected on the screen.
プレゼンテーション画像の説明者の音声は、音声入力手段により入力され、音声認識手段によって音声認識される。音声認識手段は、認識した音声の音声認識データを例えば文字列データとして出力する。 The voice of the presenter of the presentation image is input by the voice input unit and is recognized by the voice recognition unit. The voice recognition means outputs the voice recognition data of the recognized voice as, for example, character string data.
また、記憶手段には、スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードが記憶されている。このキーワードは、例えばスクリーンに投影されたプレゼンテーション画像に関して説明する場合に必ず説明すべき重要な言葉等である。 The storage unit stores a predetermined keyword related to the description of the presentation image projected on the screen. This keyword is, for example, an important word that must be explained when explaining a presentation image projected on a screen.
判断手段は、音声認識データに記憶手段に記憶されたキーワードが含まれているか否かを判断し、警告手段は、音声認識データにキーワードが含まれていないと判断された場合には、それを警告する。 The determination means determines whether or not the keyword stored in the storage means is included in the voice recognition data, and the warning means determines that the keyword is not included in the voice recognition data. Warning.
このように、説明者の音声を認識し、認識結果にキーワードが含まれていない場合には、それを警告するので、説明者がキーワードを忘れていたような場合には注意を喚起し、説明を促すことができる。これにより、プレゼンテーションを正確かつスムーズに行うことを支援することができると共に、進捗の把握も容易にすることができる。 In this way, if the speaker's voice is recognized and the keyword is not included in the recognition result, it will be warned, so if the explainer has forgotten the keyword, it will call attention and explain Can be encouraged. As a result, it is possible to support accurate and smooth presentation and to easily grasp the progress.
なお、請求項2に記載したように、前記記憶手段は、前記キーワードと、前記プレゼンテーション画像に対応したキーワードに関する部分画像との対応関係を記憶し、前記警告手段は、前記音声認識データに前記キーワードが含まれていない場合に、当該キーワードに対応した部分画像を拡大した拡大画像を前記投影装置に出力するようにしてもよい。
In addition, as described in
これにより、説明者がキーワードを忘れていたような場合には、そのキーワードに対応したプレゼンテーション画像に含まれる部分画像が拡大されてスクリーンに投影されるため、より明確に警告することができる。なお、部分画像を点滅させたり、部分画像の付近に警告するためのマークを表示させる等して警告するようにしてもよい。 Thereby, when the presenter has forgotten the keyword, the partial image included in the presentation image corresponding to the keyword is enlarged and projected onto the screen, so that the warning can be made more clearly. The warning may be made by blinking the partial image or displaying a warning mark in the vicinity of the partial image.
また、請求項3に記載したように、前記プレゼンテーション画像の切り替えを指示する指示手段をさらに備え、前記判断手段は、前記指示手段によりプレゼンテーション画像の切り替えが指示された場合に、前記プレゼンテーション画像に対応したキーワードのうち未発声のキーワードが存在するか否かを判断し、前記警告手段は、未発声のキーワードが存在する場合に警告するようにしてもよい。これにより、プレゼンテーション画像が次のページに切り替えられる前に説明者に警告されるため、不要なページの切り替えを防ぐことができる。 In addition, according to a third aspect of the present invention, the information processing apparatus further includes instruction means for instructing switching of the presentation image, and the determination means corresponds to the presentation image when switching of the presentation image is instructed by the instruction means. It may be determined whether there is an unspoken keyword among the keywords, and the warning means may warn when an unspoken keyword exists. Thus, since the presenter is warned before the presentation image is switched to the next page, unnecessary page switching can be prevented.
請求項4記載の発明は、入力された画像をスクリーンに投影する投影装置にプレゼンテーション画像を出力するプレゼンテーション支援方法であって、前記プレゼンテーション画像の説明者の音声を入力し、入力された説明者の音声を認識し、当該認識した音声の音声認識データを出力し、前記音声認識データに前記スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードが含まれているか否かを判断し、前記音声認識データに前記キーワードが含まれていない場合に警告することを特徴とする。 According to a fourth aspect of the present invention, there is provided a presentation support method for outputting a presentation image to a projection device that projects the input image onto a screen, wherein the voice of the presenter of the presentation image is input, and the input of the presenter Recognizing speech, outputting speech recognition data of the recognized speech, determining whether the speech recognition data includes a predetermined keyword related to a description of a presentation image projected on the screen, and A warning is issued when the keyword is not included in the recognition data.
この方法によれば、プレゼンテーションを正確かつスムーズに行うことを支援することができると共に、進捗の把握も容易にすることができる。 According to this method, the presentation can be supported accurately and smoothly, and the progress can be easily grasped.
請求項5記載の発明は、コンピュータに、入力された画像をスクリーンに投影する投影装置にプレゼンテーション画像を出力させるためのプレゼンテーション支援プログラムであって、前記プレゼンテーション画像の説明者の音声を入力するステップと、入力された説明者の音声を認識し、当該認識した音声の音声認識データを出力するステップと、前記音声認識データに前記スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードが含まれているか否かを判断するステップと、前記音声認識データに前記キーワードが含まれていない場合に警告するステップと、を含む処理をコンピュータに実行させることを特徴とする。 The invention according to claim 5 is a presentation support program for causing a computer to output a presentation image to a projection device for projecting the input image onto a screen, the step of inputting the voice of the presenter of the presentation image; A step of recognizing the input speech of the presenter and outputting speech recognition data of the recognized speech, and the speech recognition data includes predetermined keywords relating to the description of the presentation image projected on the screen. And a step of causing the computer to execute a process including a step of determining whether or not the keyword is included in the voice recognition data.
このプログラムをコンピュータに実行させることより、プレゼンテーションを正確かつスムーズに行うことを支援することができると共に、進捗の把握も容易にすることができる。 By causing the computer to execute this program, it is possible to support accurate and smooth presentation and to easily grasp the progress.
本発明によれば、発表者によるプレゼンテーションを正確かつスムーズに行うことを支援することができると共に進捗の把握を容易にすることができる、という効果を有する。 ADVANTAGE OF THE INVENTION According to this invention, it has the effect that it can support that the presentation by a presenter is performed correctly and smoothly, and can grasp | ascertain progress easily.
以下、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described.
図1には、本発明に係るプレゼンテーションシステム10の概略構成を示した。プレゼンテーションシステム10は、スクリーン12、プロジェクター14、プレゼンテーション支援装置16、音声マイク18、及びリモコン20を含んで構成されている。
FIG. 1 shows a schematic configuration of a
プレゼンテーション支援装置16は、例えばパーソナルコンピュータ等で構成され、発表者22が発表する内容のスライド画像(プレゼンテーション画像)をプロジェクター14へ出力する。プロジェクター14は、プレゼンテーション支援装置16からのスライド画像を拡大してスクリーン12に投影する。
The
リモコン20は、スクリーン12に投影されたスライド画像を切り替えるための操作装置であり、例えば次ページ、前ページ、ページ番号指定等の操作を行うことができる。発表者22がリモコン20を操作することにより、操作内容に応じたリモコン信号がプレゼンテーション支援装置16へ送信される。プレゼンテーション支援装置16では、受信したリモコン信号に応じてスクリーンに投影すべきスライド画像を選択し、プロジェクター14へ出力する。これにより、プロジェクター14に投影されるスライド画像が切り替えられる。
The
発表者22の音声の音声信号は、例えば音声マイク18によってプレゼンテーション支援装置16へ送信される。なお、音声マイク18は、無線のマイクでもよいし、有線のマイクでもよい。
The audio signal of the speech of the
プレゼンテーション支援装置16では、入力された発表者22の音声信号に基づいて音声認識処理を行い、音声認識結果に基づいて、スクリーン12に投影されたスライド画像に対応したキーワードを発表者22が発声したか否かを判断し、発声していない場合には、その旨を警告する(詳細は後述)。
In the
図2には、プレゼンテーション支援装置16の概略構成を示すブロック図を示した。プレゼンテーション支援装置16は、音声入力部30、音声認識部32、表示部34、操作部36、記憶部38、リモコン受光部40、通信部42、及び各部を統括制御する制御部44を含んで構成されている。
FIG. 2 is a block diagram showing a schematic configuration of the
音声入力部30は、音声マイク18からの音声信号を受信して、音声認識部32へ出力する。音声認識部32は、音声入力部30からの音声信号に基づいて音声認識処理を行い、認識した音声の文字列データを出力する。なお、音声認識部32の音声認識方法としては特定話者の音声を認識する方法でもよいし、不特定話者の音声を認識する方法の何れでもよいが、特定話者の音声を認識する場合には、特定話者の音声を登録する必要がある。
The
表示部34は、液晶ディスプレイ等で構成され、プロジェクター14へ出力するスライド画像等の各種画像を表示する。
The
操作部36は、例えばキーボードやマウス、ポインティングデバイス等を含んで構成される。
The
記憶部38は、スライド画像を表示部34に表示したりプロジェクター14へ出力したりするためのプレゼンテーションプログラム等の各種プログラム、スライド画像等の各種データ、後述するキーワードテーブル等が記憶される。
The
リモコン受光部40は、リモコン20からのリモコン信号を受信して制御部44へ出力する。
The remote control
通信部42は、プロジェクター14へスライド画像を出力したりプロジェクター14と各種データや制御信号の授受を行うためのものである。通信部42とプロジェクター14との通信方式は無線通信でもよいし有線通信でもよい。
The
プレゼンテーション支援装置16がプロジェクター14へ出力するスライド画像は、例えば図3に示すように、複数のオブジェクト画像(部分画像)を含んで構成される。例えば、1ページ目のスライド画像P1は、オブジェクト画像OBJ1、OBJ2、OBJ3を含んで構成されており、2ページ目のスライド画像P2は、オブジェクト画像OBJ4、OBJ5、OBJ6を含んで構成されている。なお、オブジェクト画像には、写真や図形等のイメージ画像の他、テキスト画像も含まれる。
The slide image output from the
このように、各スライド画像は、少なくとも1つ以上のオブジェクト画像を含んで構成される。従って、スライド画像のスライド画像データは、オブジェクト画像のオブジェクト画像データを含んで構成され、各スライド画像のスライド画像データによりプレゼンテーションファイルが構成される。なお、各オブジェクト画像にはオブジェクト名が付与され、このオブジェクト名によりオブジェクト画像を特定することができる。 As described above, each slide image includes at least one object image. Therefore, the slide image data of the slide image is configured to include the object image data of the object image, and a presentation file is configured by the slide image data of each slide image. Each object image is given an object name, and the object image can be specified by the object name.
また、発表者22がスクリーン12に投影されたスライド画像の各オブジェクト画像について説明する際には、そのオブジェクト画像に関する重要なキーワードを必ず説明する必要がある場合がある。例えば図3に示すように、スライド画像P1に含まれるオブジェクト画像OBJ1は、‘A’というキーワード(文字列)が重要なキーワードであり、同様にオブジェクト画像OBJ2は‘B’が重要なキーワードである。なお、2ページ目のスライド画像P2に含まれるオブジェクト画像OBJ4のように、1つのオブジェクト画像に関して複数のキーワード‘D’、‘E’が含まれる場合もあり、また、オブジェクト画像OBJ6のようにキーワードを含まない場合もある。
In addition, when the
記憶部38には、図4に示すような各スライド画像のキーワードとオブジェクト画像との対応関係に関するキーワードテーブル50が記憶されている。
The
キーワードテーブル50は、図4に示すように、プレゼンテーションファイルに含まれるスライド画像のページNo、スライド画像に含まれるオブジェクト画像のオブジェクト名、キーワード、発声フラグとの対応関係を表すデータである。 As shown in FIG. 4, the keyword table 50 is data representing the correspondence relationship between the page number of the slide image included in the presentation file, the object name of the object image included in the slide image, the keyword, and the utterance flag.
制御部44では、音声認識部32により音声認識された発表者22の音声の文字列データとキーワードテーブル50とに基づいて発表者22がキーワードを発声したか否かを判断する。そして、キーワードを発声していない場合には、そのキーワードに対応したオブジェクト画像を拡大した画像をプロジェクター14に出力してスクリーン12に表示させる等の方法により発表者22に対して警告する。これにより、発表者22は重要なキーワードを説明していないことを認識することができ、説明の漏れを防ぐことができると共に、発表の進捗状況を容易に把握することができる。
The
次に、本実施形態の作用として、プレゼンテーション支援装置16で実行される制御ルーチンについて、図5に示すフローチャートを参照して説明する。
Next, as an operation of the present embodiment, a control routine executed by the
なお、図5に示す制御ルーチンは、プレゼンテーション支援装置16においてプレゼンテーションファイルの読み込みが指示され、プレゼンテーションプログラムが起動されると実行される。
The control routine shown in FIG. 5 is executed when the
まず、ステップ100では、制御部44が、プレゼンテーションファイルに含まれるスライド画像の1ページ目のスライド画像データを通信部42を介してプロジェクター14に出力する。これにより、1ページ目のスライド画像P1の拡大画像がスクリーン12に投影される。発表者22は、スクリーン12に投影されたスライド画像P1を参照しながら内容について説明する。発表者22の音声は、音声マイク18によって拾われて音声入力部30に入力される。
First, in
ステップ102では、音声入力部30に発表者22の音声が入力されたか否かを判断する。そして、音声が入力された場合には、ステップ104へ移行し、音声が入力されていない場合には、ステップ110へ移行する。
In
ステップ104では、音声入力部30に入力された音声信号について音声認識部32が音声認識処理し、文字列データとして制御部44へ出力する。
In
次のステップ106では、制御部44は、音声認識部32からの文字列データとキーワードテーブル50とに基づいて、スクリーン12に投影されたスライド画像P1に関するキーワードを発声したか否かを判断する。
In the
具体的には、入力された文字列データの中に、スクリーン12に投影されたスライド画像P1に関するキーワードが含まれるか否かを判断する。1ページ目のスライド画像P1の場合には、図4に示すキーワードテーブル50を参照することにより、3つのキーワード‘A’、‘B’、‘C’が含まれていることがわかるので、入力された文字列データの中に‘A’、‘B’、‘C’の文字列が含まれているか否かを判断する。
Specifically, it is determined whether or not a keyword related to the slide image P1 projected on the
そして、音声認識部32から入力された文字列データの中にスクリーン12に投影されたスライド画像に対応したキーワードが含まれていた場合には、ステップ108へ移行し、そのキーワードの発声フラグが制御部44により書き換えられる。具体的には、制御部44は、図4に示す発声フラグを、発声済みを表すデータ(例えば‘1’)に書き換える。なお、発声フラグは、デフォルトでは未発声を表すデータ(例えば‘0’)に予め設定されている。
If the keyword corresponding to the slide image projected on the
これにより、キーワードテーブル50を参照することにより、キーワードを発声したか否かを容易に把握することができる。 Thus, by referring to the keyword table 50, it is possible to easily grasp whether or not the keyword is uttered.
ステップ110では、制御部44は、リモコン20からページ切り替えを指示するリモコン信号がリモコン受光部40により受信されたか否かを判断する。そして、ページ切り替えが指示された場合には、ステップ112へ移行し、ページ切り替えが指示されていない場合には、ステップ102へ戻って上記と同様の処理を行う。
In
ステップ112では、制御部44は、スクリーン12に投影されたスライド画像に関するキーワードのうち未発声のキーワードが存在するか否かを判断する。すなわち、図4に示すキーワードテーブル50を参照し、スクリーン12に投影されたスライド画像に関するキーワードの発声フラグが全て発声済みになっているか否かを判断する。例えば1ページ目のスライド画像P1の場合には、キーワード‘A’、‘B’、‘C’の発声フラグが全て発声済みとなっているか否かを判断する。
In
そして、未発声のキーワードが存在する場合には、ステップ116へ移行する。一方、未発声のキーワードが存在しない場合、すなわちスクリーン12に投影されたスライド画像に関するキーワードを全て発声済みの場合には、ステップ100へ戻り、切り替えが指示されたページのスライド画像のスライド画像データをプロジェクター14へ出力する。これによりスクリーン12に投影されるスライド画像が切り替わる。
If there are unspoken keywords, the process proceeds to step 116. On the other hand, if there are no unspoken keywords, that is, if all the keywords related to the slide image projected on the
ステップ116では、警告処理を行う。具体的には、キーワードテーブル50を参照し、未発声のキーワードに対応したオブジェクト画像のオブジェクト名を取得し、このオブジェクト名に対応したオブジェクト画像データを拡大した画像のデータをプロジェクター14へ出力する。これにより、未発声のキーワードに対応したオブジェクト画像が拡大されてスクリーン12に投影される。これにより、発表者22は、そのキーワードに関して説明していないことを容易に認識することができ、発表漏れを防いで正確な発表を支援することができると共に、発表に進捗状況を把握することができる。
In step 116, warning processing is performed. Specifically, referring to the keyword table 50, the object name of the object image corresponding to the unspoken keyword is acquired, and the image data obtained by enlarging the object image data corresponding to the object name is output to the
なお、警告方法としてはこれに限らず、他の方法により警告してもよい。例えば、未発声のキーワードに対応したオブジェクト画像付近に注意を喚起するためのマークを表示させるようにしてもよい。 The warning method is not limited to this, and other methods may be used for warning. For example, a mark for calling attention may be displayed near an object image corresponding to an unspoken keyword.
また、本実施形態では、ページ切り替えが指示された際に、未発声のキーワードが存在する場合に警告する場合について説明したが、キーワードの発声順序が予め定めた順序と異なる場合に警告するようにしてもよい。例えば、図4に示すキーワードテーブル50に発声順序の項を設けたり、あるいはキーワードテーブル50の各行のデータを発声順序に従って予め並べて記憶しておく。そして、発声されたキーワードの順序を確認し、そのキーワードよりも前に発声すべきキーワードが存在する場合には、その時点で上記の警告処理を行う。これにより、より正確かつスムーズにプレゼンテーションが行われるよう支援することができる。 Further, in this embodiment, a case where a warning is given when an unspoken keyword is present when page switching is instructed has been described. However, a warning is given when the order in which keywords are spoken is different from a predetermined order. May be. For example, a term of utterance order is provided in the keyword table 50 shown in FIG. 4, or data of each row of the keyword table 50 is stored in advance according to the utterance order. Then, the order of the spoken keywords is confirmed, and if there is a keyword to be spoken before that keyword, the above warning processing is performed at that time. Thereby, it is possible to support the presentation to be performed more accurately and smoothly.
また、例えばプレゼンテーション支援装置16の表示部34にプレゼンテーション用のシナリオ原稿を表示させ、これを見ながら発表を行うことができるような場合には、シナリオ原稿に含まれる文字列と一致する文字列を音声認識した場合に、その文字列の色を他の文字列と異なる色にして表示部34に表示させるようにしてもよい。これにより、どこまで発表したかを容易に把握することができる。
Further, for example, when a scenario document for presentation is displayed on the
10 プレゼンテーションシステム
12 スクリーン
14 プロジェクター
16 プレゼンテーション支援装置
18 音声マイク
20 リモコン
22 発表者
30 音声入力部
32 音声認識部
34 表示部
36 操作部
38 記憶部
40 リモコン受光部
42 通信部
44 制御部
50 キーワードテーブル
DESCRIPTION OF
Claims (5)
前記プレゼンテーション画像の説明者の音声を入力する音声入力手段と、
入力された説明者の音声を認識し、当該認識した音声の音声認識データを出力する音声認識手段と、
前記スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードを記憶した記憶手段と、
前記音声認識データに前記キーワードが含まれているか否かを判断する判断手段と、
前記音声認識データに前記キーワードが含まれていない場合に警告する警告手段と、
を備えたことを特徴とするプレゼンテーション支援装置。 A presentation support device that outputs a presentation image to a projection device that projects an input image onto a screen,
Voice input means for inputting the voice of the presenter of the presentation image;
Voice recognition means for recognizing the input voice of the presenter and outputting voice recognition data of the recognized voice;
Storage means for storing a predetermined keyword related to the description of the presentation image projected on the screen;
Determining means for determining whether or not the keyword is included in the speech recognition data;
Warning means for warning if the keyword is not included in the speech recognition data;
A presentation support apparatus characterized by comprising:
前記警告手段は、前記音声認識データに前記キーワードが含まれていない場合に、当該キーワードに対応した部分画像を拡大した拡大画像を前記投影装置に出力することを特徴とする請求項1記載のプレゼンテーション支援装置。 The storage means stores a correspondence relationship between the keyword and a partial image related to the keyword corresponding to the presentation image,
2. The presentation according to claim 1, wherein when the keyword is not included in the speech recognition data, the warning unit outputs an enlarged image obtained by enlarging a partial image corresponding to the keyword to the projection device. Support device.
前記プレゼンテーション画像の説明者の音声を入力し、
入力された説明者の音声を認識し、当該認識した音声の音声認識データを出力し、
前記音声認識データに前記スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードが含まれているか否かを判断し、
前記音声認識データに前記キーワードが含まれていない場合に警告する、
ことを特徴とするプレゼンテーション支援方法。 A presentation support method for outputting a presentation image to a projection device that projects an input image on a screen,
Enter the voice of the presenter of the presentation image,
Recognize the voice of the presenter and output the voice recognition data of the recognized voice,
Determining whether the speech recognition data includes a predetermined keyword related to the description of the presentation image projected on the screen;
Warn if the keyword is not included in the speech recognition data;
A presentation support method characterized by that.
前記プレゼンテーション画像の説明者の音声を入力するステップと、
入力された説明者の音声を認識し、当該認識した音声の音声認識データを出力するステップと、
前記音声認識データに前記スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードが含まれているか否かを判断するステップと、
前記音声認識データに前記キーワードが含まれていない場合に警告するステップと、
を含む処理をコンピュータに実行させることを特徴とするプレゼンテーション支援プログラム。 A presentation support program for causing a computer to output a presentation image to a projection device that projects an input image onto a screen,
Inputting the audio of the presenter of the presentation image;
Recognizing the input voice of the presenter and outputting voice recognition data of the recognized voice;
Determining whether the voice recognition data includes a predetermined keyword related to a description of a presentation image projected on the screen;
Warning when the speech recognition data does not include the keyword;
A presentation support program for causing a computer to execute a process including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004269354A JP2006085418A (en) | 2004-09-16 | 2004-09-16 | Presentation support device, presentation support method and presentation support program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004269354A JP2006085418A (en) | 2004-09-16 | 2004-09-16 | Presentation support device, presentation support method and presentation support program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006085418A true JP2006085418A (en) | 2006-03-30 |
Family
ID=36163880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004269354A Pending JP2006085418A (en) | 2004-09-16 | 2004-09-16 | Presentation support device, presentation support method and presentation support program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006085418A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123447A (en) * | 2006-11-15 | 2008-05-29 | Mitsubishi Electric Information Systems Corp | Operator business support system |
KR101171109B1 (en) * | 2010-03-12 | 2012-08-06 | (주)초이스테크놀로지 | Portable presentation apparatus having keyword association function, driving method thereof and method of providing keyword association function using the same |
JP2013025609A (en) * | 2011-07-22 | 2013-02-04 | Mizuho Information & Research Institute Inc | Explanation support system, explanation support method and explanation support program |
JP2014146375A (en) * | 2014-04-17 | 2014-08-14 | Mizuho Information & Research Institute Inc | Explanation support system and explanation support method |
KR20190096676A (en) * | 2018-02-09 | 2019-08-20 | 충북대학교 산학협력단 | Presentation control system using user presentation pattern |
-
2004
- 2004-09-16 JP JP2004269354A patent/JP2006085418A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123447A (en) * | 2006-11-15 | 2008-05-29 | Mitsubishi Electric Information Systems Corp | Operator business support system |
JP4690999B2 (en) * | 2006-11-15 | 2011-06-01 | 三菱電機インフォメーションシステムズ株式会社 | Operator work support system |
KR101171109B1 (en) * | 2010-03-12 | 2012-08-06 | (주)초이스테크놀로지 | Portable presentation apparatus having keyword association function, driving method thereof and method of providing keyword association function using the same |
JP2013025609A (en) * | 2011-07-22 | 2013-02-04 | Mizuho Information & Research Institute Inc | Explanation support system, explanation support method and explanation support program |
JP2014146375A (en) * | 2014-04-17 | 2014-08-14 | Mizuho Information & Research Institute Inc | Explanation support system and explanation support method |
KR20190096676A (en) * | 2018-02-09 | 2019-08-20 | 충북대학교 산학협력단 | Presentation control system using user presentation pattern |
KR102036279B1 (en) * | 2018-02-09 | 2019-10-24 | 충북대학교 산학협력단 | Presentation control system using user presentation pattern |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3728304B2 (en) | Information processing method, information processing apparatus, program, and storage medium | |
JP3814566B2 (en) | Information processing apparatus, information processing method, and control program | |
CN111902831B (en) | Demonstration support system | |
JP7200533B2 (en) | Information processing device and program | |
JP2006085418A (en) | Presentation support device, presentation support method and presentation support program | |
US11838459B2 (en) | Information processing system, information processing apparatus, and information processing method | |
JP2011076384A (en) | Information output device and information output program | |
US8515173B2 (en) | Image processing system, image processing method and computer readable medium | |
CN110599822A (en) | Voice blackboard-writing display method, system and storage medium | |
JP2004325905A (en) | Device and program for learning foreign language | |
JP2017102939A (en) | Authoring device, authoring method, and program | |
JP5716718B2 (en) | Chinese display control apparatus, Chinese display control program, and Chinese display control method | |
JP2004288008A (en) | Program for presentation, and system for presentation | |
US20220382513A1 (en) | Display system, display device, and control method for display device | |
JP2009080614A (en) | Display controller, program, and display system | |
JP7383885B2 (en) | Information processing device and program | |
JP5114578B2 (en) | Video display device with built-in voice recognition function | |
JP2008158630A (en) | Image output device and image output method | |
JP2008058678A (en) | Voice output device and program | |
JP6080058B2 (en) | Authoring apparatus, authoring method, and program | |
JP2006235880A (en) | Information processor, information processing method, information processing program and computer-readable recording medium with its program recorded thereon | |
KR20140109551A (en) | Apparatus and method for learning foreign language by using augmented reality | |
JP2015225506A (en) | Image processing device and program | |
JPH05314328A (en) | Manual card and information processor | |
JP2011187064A (en) | Image processing system and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20070219 |