JP2006085418A - Presentation support device, presentation support method and presentation support program - Google Patents

Presentation support device, presentation support method and presentation support program Download PDF

Info

Publication number
JP2006085418A
JP2006085418A JP2004269354A JP2004269354A JP2006085418A JP 2006085418 A JP2006085418 A JP 2006085418A JP 2004269354 A JP2004269354 A JP 2004269354A JP 2004269354 A JP2004269354 A JP 2004269354A JP 2006085418 A JP2006085418 A JP 2006085418A
Authority
JP
Japan
Prior art keywords
presentation
keyword
image
voice
presenter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004269354A
Other languages
Japanese (ja)
Inventor
Tetsuo Ashida
哲郎 芦田
Yoshihiro Ito
嘉広 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2004269354A priority Critical patent/JP2006085418A/en
Publication of JP2006085418A publication Critical patent/JP2006085418A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To support accurate and smooth presentation by a presenter, and to facilitate grasp of progress. <P>SOLUTION: This presentation support device 16 outputs a slide image explained by the presenter 22 to a projector 14. The projector 14 magnifies the inputted slide image and projects it to a screen 12. The presentation support device 16 selects the slide image according to a remote control signal transmitted from a remote controller 20 and outputs it to the projector 14. Voice of the presenter 22 is transmitted to the presentation support device 16 through a voice microphone 18. The presentation support device 16 performs a voice recognition process of an inputted voice signal of the presenter 22, decides whether the presenter 22 vocalizes a keyword corresponding to the slide image or not, on the basis of a voice recognition result thereof, and gives a warning when not vocalizing. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、プレゼンテーション支援装置、プレゼンテーション支援方法、及びプレゼンテーション支援プログラムに関し、特に、プレゼンテーション画像をスクリーンに拡大投影するプロジェクターを用いてプレゼンテーションを行う場合におけるプレゼンテーション支援装置、プレゼンテーション支援方法、及びプレゼンテーション支援プログラムに関する。   The present invention relates to a presentation support apparatus, a presentation support method, and a presentation support program. .

従来のプレゼンテーションでは、発表する内容を透明のシートに印刷し、これをOHP(オーバーヘッドプロジェクター)によりスクリーンに投影することにより行うのが一般的であったが、近年では、パーソナルコンピュータ(PC)と液晶プロジェクタを用いて行うことが多くなってきた。PCを用いる場合、プレゼンテーションソフトの機能によりグラフィックや動画等も簡単に扱うことができるため非常に便利である。   In conventional presentations, it has been common to print the content to be presented on a transparent sheet and project it onto the screen using an overhead projector (OHP). In recent years, however, personal computers (PCs) and liquid crystals have been used. More and more work is done using projectors. When using a PC, graphics and moving images can be easily handled by the function of the presentation software, which is very convenient.

通常、発表者は発表内容を良く理解しているため、発表内容のシナリオ原稿を読まなくてもスクリーンに投影された発表スライドを見るだけでプレゼンテーションを行うことが可能な場合が多いと考えられるが、国際学会での発表等、外国語でプレゼンテーションを行う場合には、事前にシナリオ原稿を用意しておき、これを読みながらプレゼンテーションしなければならない場合もある。この場合、事前にシナリオ原稿を紙に印刷して出力する準備が必要となる、手にシナリオ原稿を持って発表すると発表スライドを切り替える際にシナリオ原稿をめくる必要があり目立つ、発表会場は暗い場合が多くシナリオ原稿を読みづらい、緊張によりどこまでシナリオ原稿を読んだかわからなくなる、といったデメリットがある。   Usually, the presenter understands the content of the presentation well, so it is often possible to make a presentation just by looking at the presentation slide projected on the screen without reading the scenario manuscript of the presentation content. When giving a presentation in a foreign language, such as a presentation at an international conference, it may be necessary to prepare a scenario manuscript in advance and present it while reading it. In this case, it is necessary to prepare to print the scenario manuscript on paper in advance, and if you present it with a scenario manuscript in hand, you will need to turn the scenario manuscript when switching the presentation slides. However, there are disadvantages that it is difficult to read the scenario manuscript, and it is difficult to know how far the scenario manuscript has been read due to tension.

プレゼンテーションをスムーズに進行させるためのシステムとしては、例えば特許文献1には、説明者が持つ指示具によりページ送り等の予め決められた操作を行うことができるシステムが提案されている。また、特許文献2には、ディスプレイ装置の両側に操作部を設けたシステムが提案されている。   As a system for smoothly proceeding with the presentation, for example, Patent Document 1 proposes a system that can perform a predetermined operation such as page turning with an indicating tool possessed by an explainer. Patent Document 2 proposes a system in which operation units are provided on both sides of a display device.

また、特許文献3には、作成された文書を解析し、解析された文書を発表形式表現に変換したものを音声合成により読み上げることにより、プレゼンテーション用の原稿作成と同時に、プレゼンテーション内容や方法を確認することができるシステムが提案されている。
特開2000−207122号公報 特開2001−356868号公報 特開平7−334075号公報
In Patent Document 3, the created document is analyzed, and the analyzed document is converted into a presentation format and read out by speech synthesis, so that the presentation content and method can be confirmed at the same time as the preparation of the presentation manuscript. A system that can do this has been proposed.
JP 2000-207122 A JP 2001-356868 A JP-A-7-334075

しかしながら、上記従来技術は何れも、プレゼンテーションの進捗状況を把握しやすくし、発表をスムーズに行うことを支援することができるものではなかった。   However, none of the above prior arts can easily grasp the progress of the presentation and can support smooth presentation.

本発明は上記事実を考慮して成されたものであり、発表者によるプレゼンテーションを正確かつスムーズに行うことを支援することができると共に進捗の把握を容易にすることができるプレゼンテーション支援装置、プレゼンテーション支援方法、及びプレゼンテーション支援プログラムを得ることを目的とする。   The present invention has been made in consideration of the above-described facts, and can provide a presentation support device and a presentation support that can support accurate and smooth presentation by a presenter and can easily grasp progress. The object is to obtain a method and a presentation support program.

上記目的を達成するために、請求項1記載の発明は、入力された画像をスクリーンに投影する投影装置にプレゼンテーション画像を出力するプレゼンテーション支援装置であって、前記プレゼンテーション画像の説明者の音声を入力する音声入力手段と、入力された説明者の音声を認識し、当該認識した音声の音声認識データを出力する音声認識手段と、 前記スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードを記憶した記憶手段と、前記音声認識データに前記キーワードが含まれているか否かを判断する判断手段と、前記音声認識データに前記キーワードが含まれていない場合に警告する警告手段と、を備えたことを特徴とする。   In order to achieve the above object, the invention described in claim 1 is a presentation support device that outputs a presentation image to a projection device that projects the input image onto a screen, and inputs the voice of the presenter of the presentation image. Voice recognition means for recognizing the input speech of the presenter and outputting voice recognition data of the recognized voice, and predetermined keywords relating to the description of the presentation image projected on the screen are stored. Storage means, determination means for determining whether or not the keyword is included in the voice recognition data, and warning means for warning when the keyword is not included in the voice recognition data. It is characterized by.

この発明に係るプレゼンテーション支援装置は、入力された画像をスクリーンに投影する投影装置にプレゼンテーション画像を出力する。説明者は、スクリーンに投影されたプレゼンテーション画像を参照しながらプレゼンテーションを行う。   The presentation support device according to the present invention outputs a presentation image to a projection device that projects the input image onto a screen. The presenter gives a presentation while referring to the presentation image projected on the screen.

プレゼンテーション画像の説明者の音声は、音声入力手段により入力され、音声認識手段によって音声認識される。音声認識手段は、認識した音声の音声認識データを例えば文字列データとして出力する。   The voice of the presenter of the presentation image is input by the voice input unit and is recognized by the voice recognition unit. The voice recognition means outputs the voice recognition data of the recognized voice as, for example, character string data.

また、記憶手段には、スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードが記憶されている。このキーワードは、例えばスクリーンに投影されたプレゼンテーション画像に関して説明する場合に必ず説明すべき重要な言葉等である。   The storage unit stores a predetermined keyword related to the description of the presentation image projected on the screen. This keyword is, for example, an important word that must be explained when explaining a presentation image projected on a screen.

判断手段は、音声認識データに記憶手段に記憶されたキーワードが含まれているか否かを判断し、警告手段は、音声認識データにキーワードが含まれていないと判断された場合には、それを警告する。   The determination means determines whether or not the keyword stored in the storage means is included in the voice recognition data, and the warning means determines that the keyword is not included in the voice recognition data. Warning.

このように、説明者の音声を認識し、認識結果にキーワードが含まれていない場合には、それを警告するので、説明者がキーワードを忘れていたような場合には注意を喚起し、説明を促すことができる。これにより、プレゼンテーションを正確かつスムーズに行うことを支援することができると共に、進捗の把握も容易にすることができる。   In this way, if the speaker's voice is recognized and the keyword is not included in the recognition result, it will be warned, so if the explainer has forgotten the keyword, it will call attention and explain Can be encouraged. As a result, it is possible to support accurate and smooth presentation and to easily grasp the progress.

なお、請求項2に記載したように、前記記憶手段は、前記キーワードと、前記プレゼンテーション画像に対応したキーワードに関する部分画像との対応関係を記憶し、前記警告手段は、前記音声認識データに前記キーワードが含まれていない場合に、当該キーワードに対応した部分画像を拡大した拡大画像を前記投影装置に出力するようにしてもよい。   In addition, as described in claim 2, the storage unit stores a correspondence relationship between the keyword and a partial image related to the keyword corresponding to the presentation image, and the warning unit stores the keyword in the voice recognition data. May not be included, an enlarged image obtained by enlarging the partial image corresponding to the keyword may be output to the projection device.

これにより、説明者がキーワードを忘れていたような場合には、そのキーワードに対応したプレゼンテーション画像に含まれる部分画像が拡大されてスクリーンに投影されるため、より明確に警告することができる。なお、部分画像を点滅させたり、部分画像の付近に警告するためのマークを表示させる等して警告するようにしてもよい。   Thereby, when the presenter has forgotten the keyword, the partial image included in the presentation image corresponding to the keyword is enlarged and projected onto the screen, so that the warning can be made more clearly. The warning may be made by blinking the partial image or displaying a warning mark in the vicinity of the partial image.

また、請求項3に記載したように、前記プレゼンテーション画像の切り替えを指示する指示手段をさらに備え、前記判断手段は、前記指示手段によりプレゼンテーション画像の切り替えが指示された場合に、前記プレゼンテーション画像に対応したキーワードのうち未発声のキーワードが存在するか否かを判断し、前記警告手段は、未発声のキーワードが存在する場合に警告するようにしてもよい。これにより、プレゼンテーション画像が次のページに切り替えられる前に説明者に警告されるため、不要なページの切り替えを防ぐことができる。   In addition, according to a third aspect of the present invention, the information processing apparatus further includes instruction means for instructing switching of the presentation image, and the determination means corresponds to the presentation image when switching of the presentation image is instructed by the instruction means. It may be determined whether there is an unspoken keyword among the keywords, and the warning means may warn when an unspoken keyword exists. Thus, since the presenter is warned before the presentation image is switched to the next page, unnecessary page switching can be prevented.

請求項4記載の発明は、入力された画像をスクリーンに投影する投影装置にプレゼンテーション画像を出力するプレゼンテーション支援方法であって、前記プレゼンテーション画像の説明者の音声を入力し、入力された説明者の音声を認識し、当該認識した音声の音声認識データを出力し、前記音声認識データに前記スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードが含まれているか否かを判断し、前記音声認識データに前記キーワードが含まれていない場合に警告することを特徴とする。   According to a fourth aspect of the present invention, there is provided a presentation support method for outputting a presentation image to a projection device that projects the input image onto a screen, wherein the voice of the presenter of the presentation image is input, and the input of the presenter Recognizing speech, outputting speech recognition data of the recognized speech, determining whether the speech recognition data includes a predetermined keyword related to a description of a presentation image projected on the screen, and A warning is issued when the keyword is not included in the recognition data.

この方法によれば、プレゼンテーションを正確かつスムーズに行うことを支援することができると共に、進捗の把握も容易にすることができる。   According to this method, the presentation can be supported accurately and smoothly, and the progress can be easily grasped.

請求項5記載の発明は、コンピュータに、入力された画像をスクリーンに投影する投影装置にプレゼンテーション画像を出力させるためのプレゼンテーション支援プログラムであって、前記プレゼンテーション画像の説明者の音声を入力するステップと、入力された説明者の音声を認識し、当該認識した音声の音声認識データを出力するステップと、前記音声認識データに前記スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードが含まれているか否かを判断するステップと、前記音声認識データに前記キーワードが含まれていない場合に警告するステップと、を含む処理をコンピュータに実行させることを特徴とする。   The invention according to claim 5 is a presentation support program for causing a computer to output a presentation image to a projection device for projecting the input image onto a screen, the step of inputting the voice of the presenter of the presentation image; A step of recognizing the input speech of the presenter and outputting speech recognition data of the recognized speech, and the speech recognition data includes predetermined keywords relating to the description of the presentation image projected on the screen. And a step of causing the computer to execute a process including a step of determining whether or not the keyword is included in the voice recognition data.

このプログラムをコンピュータに実行させることより、プレゼンテーションを正確かつスムーズに行うことを支援することができると共に、進捗の把握も容易にすることができる。   By causing the computer to execute this program, it is possible to support accurate and smooth presentation and to easily grasp the progress.

本発明によれば、発表者によるプレゼンテーションを正確かつスムーズに行うことを支援することができると共に進捗の把握を容易にすることができる、という効果を有する。   ADVANTAGE OF THE INVENTION According to this invention, it has the effect that it can support that the presentation by a presenter is performed correctly and smoothly, and can grasp | ascertain progress easily.

以下、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described.

図1には、本発明に係るプレゼンテーションシステム10の概略構成を示した。プレゼンテーションシステム10は、スクリーン12、プロジェクター14、プレゼンテーション支援装置16、音声マイク18、及びリモコン20を含んで構成されている。   FIG. 1 shows a schematic configuration of a presentation system 10 according to the present invention. The presentation system 10 includes a screen 12, a projector 14, a presentation support device 16, an audio microphone 18, and a remote controller 20.

プレゼンテーション支援装置16は、例えばパーソナルコンピュータ等で構成され、発表者22が発表する内容のスライド画像(プレゼンテーション画像)をプロジェクター14へ出力する。プロジェクター14は、プレゼンテーション支援装置16からのスライド画像を拡大してスクリーン12に投影する。   The presentation support device 16 is composed of, for example, a personal computer, and outputs a slide image (presentation image) having contents presented by the presenter 22 to the projector 14. The projector 14 enlarges and projects the slide image from the presentation support device 16 on the screen 12.

リモコン20は、スクリーン12に投影されたスライド画像を切り替えるための操作装置であり、例えば次ページ、前ページ、ページ番号指定等の操作を行うことができる。発表者22がリモコン20を操作することにより、操作内容に応じたリモコン信号がプレゼンテーション支援装置16へ送信される。プレゼンテーション支援装置16では、受信したリモコン信号に応じてスクリーンに投影すべきスライド画像を選択し、プロジェクター14へ出力する。これにより、プロジェクター14に投影されるスライド画像が切り替えられる。   The remote controller 20 is an operation device for switching slide images projected on the screen 12, and can perform operations such as specifying the next page, previous page, and page number, for example. When the presenter 22 operates the remote controller 20, a remote control signal corresponding to the operation content is transmitted to the presentation support device 16. The presentation support device 16 selects a slide image to be projected on the screen according to the received remote control signal, and outputs it to the projector 14. Thereby, the slide image projected on the projector 14 is switched.

発表者22の音声の音声信号は、例えば音声マイク18によってプレゼンテーション支援装置16へ送信される。なお、音声マイク18は、無線のマイクでもよいし、有線のマイクでもよい。   The audio signal of the speech of the presenter 22 is transmitted to the presentation support device 16 by the audio microphone 18, for example. The audio microphone 18 may be a wireless microphone or a wired microphone.

プレゼンテーション支援装置16では、入力された発表者22の音声信号に基づいて音声認識処理を行い、音声認識結果に基づいて、スクリーン12に投影されたスライド画像に対応したキーワードを発表者22が発声したか否かを判断し、発声していない場合には、その旨を警告する(詳細は後述)。   In the presentation support device 16, speech recognition processing is performed based on the input speech signal of the presenter 22, and the presenter 22 utters a keyword corresponding to the slide image projected on the screen 12 based on the speech recognition result. If the voice is not spoken, a warning to that effect is given (details will be described later).

図2には、プレゼンテーション支援装置16の概略構成を示すブロック図を示した。プレゼンテーション支援装置16は、音声入力部30、音声認識部32、表示部34、操作部36、記憶部38、リモコン受光部40、通信部42、及び各部を統括制御する制御部44を含んで構成されている。   FIG. 2 is a block diagram showing a schematic configuration of the presentation support apparatus 16. The presentation support apparatus 16 includes a voice input unit 30, a voice recognition unit 32, a display unit 34, an operation unit 36, a storage unit 38, a remote control light receiving unit 40, a communication unit 42, and a control unit 44 that controls each unit. Has been.

音声入力部30は、音声マイク18からの音声信号を受信して、音声認識部32へ出力する。音声認識部32は、音声入力部30からの音声信号に基づいて音声認識処理を行い、認識した音声の文字列データを出力する。なお、音声認識部32の音声認識方法としては特定話者の音声を認識する方法でもよいし、不特定話者の音声を認識する方法の何れでもよいが、特定話者の音声を認識する場合には、特定話者の音声を登録する必要がある。   The voice input unit 30 receives a voice signal from the voice microphone 18 and outputs it to the voice recognition unit 32. The voice recognition unit 32 performs voice recognition processing based on the voice signal from the voice input unit 30 and outputs character string data of the recognized voice. Note that the voice recognition method of the voice recognition unit 32 may be a method of recognizing the voice of a specific speaker or a method of recognizing the voice of an unspecified speaker. It is necessary to register the voice of a specific speaker.

表示部34は、液晶ディスプレイ等で構成され、プロジェクター14へ出力するスライド画像等の各種画像を表示する。   The display unit 34 includes a liquid crystal display and displays various images such as a slide image output to the projector 14.

操作部36は、例えばキーボードやマウス、ポインティングデバイス等を含んで構成される。   The operation unit 36 includes, for example, a keyboard, a mouse, a pointing device, and the like.

記憶部38は、スライド画像を表示部34に表示したりプロジェクター14へ出力したりするためのプレゼンテーションプログラム等の各種プログラム、スライド画像等の各種データ、後述するキーワードテーブル等が記憶される。   The storage unit 38 stores various programs such as a presentation program for displaying a slide image on the display unit 34 and outputting the slide image to the projector 14, various data such as a slide image, a keyword table described later, and the like.

リモコン受光部40は、リモコン20からのリモコン信号を受信して制御部44へ出力する。   The remote control light receiving unit 40 receives a remote control signal from the remote control 20 and outputs it to the control unit 44.

通信部42は、プロジェクター14へスライド画像を出力したりプロジェクター14と各種データや制御信号の授受を行うためのものである。通信部42とプロジェクター14との通信方式は無線通信でもよいし有線通信でもよい。   The communication unit 42 is for outputting a slide image to the projector 14 and exchanging various data and control signals with the projector 14. The communication method between the communication unit 42 and the projector 14 may be wireless communication or wired communication.

プレゼンテーション支援装置16がプロジェクター14へ出力するスライド画像は、例えば図3に示すように、複数のオブジェクト画像(部分画像)を含んで構成される。例えば、1ページ目のスライド画像P1は、オブジェクト画像OBJ1、OBJ2、OBJ3を含んで構成されており、2ページ目のスライド画像P2は、オブジェクト画像OBJ4、OBJ5、OBJ6を含んで構成されている。なお、オブジェクト画像には、写真や図形等のイメージ画像の他、テキスト画像も含まれる。   The slide image output from the presentation support device 16 to the projector 14 is configured to include a plurality of object images (partial images), for example, as shown in FIG. For example, the slide image P1 for the first page includes object images OBJ1, OBJ2, and OBJ3, and the slide image P2 for the second page includes object images OBJ4, OBJ5, and OBJ6. The object image includes a text image in addition to an image image such as a photograph or a figure.

このように、各スライド画像は、少なくとも1つ以上のオブジェクト画像を含んで構成される。従って、スライド画像のスライド画像データは、オブジェクト画像のオブジェクト画像データを含んで構成され、各スライド画像のスライド画像データによりプレゼンテーションファイルが構成される。なお、各オブジェクト画像にはオブジェクト名が付与され、このオブジェクト名によりオブジェクト画像を特定することができる。   As described above, each slide image includes at least one object image. Therefore, the slide image data of the slide image is configured to include the object image data of the object image, and a presentation file is configured by the slide image data of each slide image. Each object image is given an object name, and the object image can be specified by the object name.

また、発表者22がスクリーン12に投影されたスライド画像の各オブジェクト画像について説明する際には、そのオブジェクト画像に関する重要なキーワードを必ず説明する必要がある場合がある。例えば図3に示すように、スライド画像P1に含まれるオブジェクト画像OBJ1は、‘A’というキーワード(文字列)が重要なキーワードであり、同様にオブジェクト画像OBJ2は‘B’が重要なキーワードである。なお、2ページ目のスライド画像P2に含まれるオブジェクト画像OBJ4のように、1つのオブジェクト画像に関して複数のキーワード‘D’、‘E’が含まれる場合もあり、また、オブジェクト画像OBJ6のようにキーワードを含まない場合もある。   In addition, when the presenter 22 explains each object image of the slide image projected on the screen 12, it may be necessary to explain important keywords related to the object image. For example, as shown in FIG. 3, the object image OBJ1 included in the slide image P1 is an important keyword for the keyword (character string) “A”, and similarly, the object image OBJ2 is an important keyword for “B”. . A plurality of keywords “D” and “E” may be included for one object image, such as the object image OBJ4 included in the slide image P2 of the second page, and a keyword such as the object image OBJ6 may be included. May not be included.

記憶部38には、図4に示すような各スライド画像のキーワードとオブジェクト画像との対応関係に関するキーワードテーブル50が記憶されている。   The storage unit 38 stores a keyword table 50 relating to the correspondence between the keyword of each slide image and the object image as shown in FIG.

キーワードテーブル50は、図4に示すように、プレゼンテーションファイルに含まれるスライド画像のページNo、スライド画像に含まれるオブジェクト画像のオブジェクト名、キーワード、発声フラグとの対応関係を表すデータである。   As shown in FIG. 4, the keyword table 50 is data representing the correspondence relationship between the page number of the slide image included in the presentation file, the object name of the object image included in the slide image, the keyword, and the utterance flag.

制御部44では、音声認識部32により音声認識された発表者22の音声の文字列データとキーワードテーブル50とに基づいて発表者22がキーワードを発声したか否かを判断する。そして、キーワードを発声していない場合には、そのキーワードに対応したオブジェクト画像を拡大した画像をプロジェクター14に出力してスクリーン12に表示させる等の方法により発表者22に対して警告する。これにより、発表者22は重要なキーワードを説明していないことを認識することができ、説明の漏れを防ぐことができると共に、発表の進捗状況を容易に把握することができる。   The control unit 44 determines whether or not the presenter 22 has uttered the keyword based on the character string data of the speech of the presenter 22 recognized by the speech recognition unit 32 and the keyword table 50. If the keyword is not spoken, the presenter 22 is warned by a method such as outputting an enlarged image of the object image corresponding to the keyword to the projector 14 and displaying it on the screen 12. Thereby, the presenter 22 can recognize that an important keyword is not explained, can prevent omission of explanation, and can easily grasp the progress of the presentation.

次に、本実施形態の作用として、プレゼンテーション支援装置16で実行される制御ルーチンについて、図5に示すフローチャートを参照して説明する。   Next, as an operation of the present embodiment, a control routine executed by the presentation support apparatus 16 will be described with reference to a flowchart shown in FIG.

なお、図5に示す制御ルーチンは、プレゼンテーション支援装置16においてプレゼンテーションファイルの読み込みが指示され、プレゼンテーションプログラムが起動されると実行される。   The control routine shown in FIG. 5 is executed when the presentation support apparatus 16 is instructed to read a presentation file and the presentation program is started.

まず、ステップ100では、制御部44が、プレゼンテーションファイルに含まれるスライド画像の1ページ目のスライド画像データを通信部42を介してプロジェクター14に出力する。これにより、1ページ目のスライド画像P1の拡大画像がスクリーン12に投影される。発表者22は、スクリーン12に投影されたスライド画像P1を参照しながら内容について説明する。発表者22の音声は、音声マイク18によって拾われて音声入力部30に入力される。   First, in step 100, the control unit 44 outputs slide image data of the first page of the slide image included in the presentation file to the projector 14 via the communication unit 42. As a result, an enlarged image of the slide image P1 of the first page is projected on the screen 12. The presenter 22 will explain the content with reference to the slide image P1 projected on the screen 12. The voice of the presenter 22 is picked up by the voice microphone 18 and input to the voice input unit 30.

ステップ102では、音声入力部30に発表者22の音声が入力されたか否かを判断する。そして、音声が入力された場合には、ステップ104へ移行し、音声が入力されていない場合には、ステップ110へ移行する。   In step 102, it is determined whether or not the voice of the presenter 22 has been input to the voice input unit 30. If a voice is input, the process proceeds to step 104. If a voice is not input, the process proceeds to step 110.

ステップ104では、音声入力部30に入力された音声信号について音声認識部32が音声認識処理し、文字列データとして制御部44へ出力する。   In step 104, the speech recognition unit 32 performs speech recognition processing on the speech signal input to the speech input unit 30 and outputs the speech signal to the control unit 44 as character string data.

次のステップ106では、制御部44は、音声認識部32からの文字列データとキーワードテーブル50とに基づいて、スクリーン12に投影されたスライド画像P1に関するキーワードを発声したか否かを判断する。   In the next step 106, the control unit 44 determines whether or not a keyword related to the slide image P <b> 1 projected on the screen 12 is uttered based on the character string data from the voice recognition unit 32 and the keyword table 50.

具体的には、入力された文字列データの中に、スクリーン12に投影されたスライド画像P1に関するキーワードが含まれるか否かを判断する。1ページ目のスライド画像P1の場合には、図4に示すキーワードテーブル50を参照することにより、3つのキーワード‘A’、‘B’、‘C’が含まれていることがわかるので、入力された文字列データの中に‘A’、‘B’、‘C’の文字列が含まれているか否かを判断する。   Specifically, it is determined whether or not a keyword related to the slide image P1 projected on the screen 12 is included in the input character string data. In the case of the slide image P1 of the first page, by referring to the keyword table 50 shown in FIG. 4, it can be seen that three keywords “A”, “B”, and “C” are included. It is determined whether or not the character string data “A”, “B”, and “C” is included in the character string data thus obtained.

そして、音声認識部32から入力された文字列データの中にスクリーン12に投影されたスライド画像に対応したキーワードが含まれていた場合には、ステップ108へ移行し、そのキーワードの発声フラグが制御部44により書き換えられる。具体的には、制御部44は、図4に示す発声フラグを、発声済みを表すデータ(例えば‘1’)に書き換える。なお、発声フラグは、デフォルトでは未発声を表すデータ(例えば‘0’)に予め設定されている。   If the keyword corresponding to the slide image projected on the screen 12 is included in the character string data input from the voice recognition unit 32, the process proceeds to step 108, and the utterance flag of the keyword is controlled. It is rewritten by the unit 44. Specifically, the control unit 44 rewrites the utterance flag shown in FIG. 4 to data indicating utterance (for example, “1”). Note that the utterance flag is set in advance to data (for example, “0”) indicating unspoken voice by default.

これにより、キーワードテーブル50を参照することにより、キーワードを発声したか否かを容易に把握することができる。   Thus, by referring to the keyword table 50, it is possible to easily grasp whether or not the keyword is uttered.

ステップ110では、制御部44は、リモコン20からページ切り替えを指示するリモコン信号がリモコン受光部40により受信されたか否かを判断する。そして、ページ切り替えが指示された場合には、ステップ112へ移行し、ページ切り替えが指示されていない場合には、ステップ102へ戻って上記と同様の処理を行う。   In step 110, the control unit 44 determines whether or not a remote control signal instructing page switching from the remote control 20 is received by the remote control light receiving unit 40. If page switching is instructed, the process proceeds to step 112. If page switching is not instructed, the process returns to step 102 and the same processing as described above is performed.

ステップ112では、制御部44は、スクリーン12に投影されたスライド画像に関するキーワードのうち未発声のキーワードが存在するか否かを判断する。すなわち、図4に示すキーワードテーブル50を参照し、スクリーン12に投影されたスライド画像に関するキーワードの発声フラグが全て発声済みになっているか否かを判断する。例えば1ページ目のスライド画像P1の場合には、キーワード‘A’、‘B’、‘C’の発声フラグが全て発声済みとなっているか否かを判断する。   In step 112, the control unit 44 determines whether there is an unspoken keyword among the keywords related to the slide image projected on the screen 12. That is, with reference to the keyword table 50 shown in FIG. 4, it is determined whether or not all of the keyword utterance flags relating to the slide image projected on the screen 12 have been uttered. For example, in the case of the slide image P1 of the first page, it is determined whether or not the utterance flags of the keywords ‘A’, ‘B’, and ‘C’ are all uttered.

そして、未発声のキーワードが存在する場合には、ステップ116へ移行する。一方、未発声のキーワードが存在しない場合、すなわちスクリーン12に投影されたスライド画像に関するキーワードを全て発声済みの場合には、ステップ100へ戻り、切り替えが指示されたページのスライド画像のスライド画像データをプロジェクター14へ出力する。これによりスクリーン12に投影されるスライド画像が切り替わる。   If there are unspoken keywords, the process proceeds to step 116. On the other hand, if there are no unspoken keywords, that is, if all the keywords related to the slide image projected on the screen 12 have been uttered, the process returns to step 100 and the slide image data of the slide image of the page instructed to switch is returned. Output to the projector 14. Thereby, the slide image projected on the screen 12 is switched.

ステップ116では、警告処理を行う。具体的には、キーワードテーブル50を参照し、未発声のキーワードに対応したオブジェクト画像のオブジェクト名を取得し、このオブジェクト名に対応したオブジェクト画像データを拡大した画像のデータをプロジェクター14へ出力する。これにより、未発声のキーワードに対応したオブジェクト画像が拡大されてスクリーン12に投影される。これにより、発表者22は、そのキーワードに関して説明していないことを容易に認識することができ、発表漏れを防いで正確な発表を支援することができると共に、発表に進捗状況を把握することができる。   In step 116, warning processing is performed. Specifically, referring to the keyword table 50, the object name of the object image corresponding to the unspoken keyword is acquired, and the image data obtained by enlarging the object image data corresponding to the object name is output to the projector 14. As a result, the object image corresponding to the unspoken keyword is enlarged and projected onto the screen 12. As a result, the presenter 22 can easily recognize that the keyword is not explained, can prevent the omission of presentation, can support accurate presentation, and can grasp the progress of the presentation. it can.

なお、警告方法としてはこれに限らず、他の方法により警告してもよい。例えば、未発声のキーワードに対応したオブジェクト画像付近に注意を喚起するためのマークを表示させるようにしてもよい。   The warning method is not limited to this, and other methods may be used for warning. For example, a mark for calling attention may be displayed near an object image corresponding to an unspoken keyword.

また、本実施形態では、ページ切り替えが指示された際に、未発声のキーワードが存在する場合に警告する場合について説明したが、キーワードの発声順序が予め定めた順序と異なる場合に警告するようにしてもよい。例えば、図4に示すキーワードテーブル50に発声順序の項を設けたり、あるいはキーワードテーブル50の各行のデータを発声順序に従って予め並べて記憶しておく。そして、発声されたキーワードの順序を確認し、そのキーワードよりも前に発声すべきキーワードが存在する場合には、その時点で上記の警告処理を行う。これにより、より正確かつスムーズにプレゼンテーションが行われるよう支援することができる。   Further, in this embodiment, a case where a warning is given when an unspoken keyword is present when page switching is instructed has been described. However, a warning is given when the order in which keywords are spoken is different from a predetermined order. May be. For example, a term of utterance order is provided in the keyword table 50 shown in FIG. 4, or data of each row of the keyword table 50 is stored in advance according to the utterance order. Then, the order of the spoken keywords is confirmed, and if there is a keyword to be spoken before that keyword, the above warning processing is performed at that time. Thereby, it is possible to support the presentation to be performed more accurately and smoothly.

また、例えばプレゼンテーション支援装置16の表示部34にプレゼンテーション用のシナリオ原稿を表示させ、これを見ながら発表を行うことができるような場合には、シナリオ原稿に含まれる文字列と一致する文字列を音声認識した場合に、その文字列の色を他の文字列と異なる色にして表示部34に表示させるようにしてもよい。これにより、どこまで発表したかを容易に把握することができる。   Further, for example, when a scenario document for presentation is displayed on the display unit 34 of the presentation support device 16 and the presentation can be performed while viewing the document, a character string that matches the character string included in the scenario document is displayed. When speech recognition is performed, the color of the character string may be displayed on the display unit 34 with a color different from that of other character strings. Thereby, it is possible to easily grasp how far the announcement has been made.

プレゼンテーションシステムの概略構成図である。It is a schematic block diagram of a presentation system. プレゼンテーション支援装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of a presentation assistance apparatus. スライド画像の構成とキーワードとの関係について説明するためのイメージ図である。It is an image figure for demonstrating the relationship between the structure of a slide image, and a keyword. キーワードテーブルの一例を示す図である。It is a figure which shows an example of a keyword table. プレゼンテーション支援装置で実行される制御ルーチンのフローチャートである。It is a flowchart of the control routine performed with a presentation assistance apparatus.

符号の説明Explanation of symbols

10 プレゼンテーションシステム
12 スクリーン
14 プロジェクター
16 プレゼンテーション支援装置
18 音声マイク
20 リモコン
22 発表者
30 音声入力部
32 音声認識部
34 表示部
36 操作部
38 記憶部
40 リモコン受光部
42 通信部
44 制御部
50 キーワードテーブル
DESCRIPTION OF SYMBOLS 10 Presentation system 12 Screen 14 Projector 16 Presentation support apparatus 18 Voice microphone 20 Remote control 22 Presenter 30 Voice input part 32 Voice recognition part 34 Display part 36 Operation part 38 Storage part 40 Remote control light-receiving part 42 Communication part 44 Control part 50 Keyword table

Claims (5)

入力された画像をスクリーンに投影する投影装置にプレゼンテーション画像を出力するプレゼンテーション支援装置であって、
前記プレゼンテーション画像の説明者の音声を入力する音声入力手段と、
入力された説明者の音声を認識し、当該認識した音声の音声認識データを出力する音声認識手段と、
前記スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードを記憶した記憶手段と、
前記音声認識データに前記キーワードが含まれているか否かを判断する判断手段と、
前記音声認識データに前記キーワードが含まれていない場合に警告する警告手段と、
を備えたことを特徴とするプレゼンテーション支援装置。
A presentation support device that outputs a presentation image to a projection device that projects an input image onto a screen,
Voice input means for inputting the voice of the presenter of the presentation image;
Voice recognition means for recognizing the input voice of the presenter and outputting voice recognition data of the recognized voice;
Storage means for storing a predetermined keyword related to the description of the presentation image projected on the screen;
Determining means for determining whether or not the keyword is included in the speech recognition data;
Warning means for warning if the keyword is not included in the speech recognition data;
A presentation support apparatus characterized by comprising:
前記記憶手段は、前記キーワードと、前記プレゼンテーション画像に対応したキーワードに関する部分画像との対応関係を記憶し、
前記警告手段は、前記音声認識データに前記キーワードが含まれていない場合に、当該キーワードに対応した部分画像を拡大した拡大画像を前記投影装置に出力することを特徴とする請求項1記載のプレゼンテーション支援装置。
The storage means stores a correspondence relationship between the keyword and a partial image related to the keyword corresponding to the presentation image,
2. The presentation according to claim 1, wherein when the keyword is not included in the speech recognition data, the warning unit outputs an enlarged image obtained by enlarging a partial image corresponding to the keyword to the projection device. Support device.
前記プレゼンテーション画像の切り替えを指示する指示手段をさらに備え、前記判断手段は、前記指示手段によりプレゼンテーション画像の切り替えが指示された場合に、前記プレゼンテーション画像に対応したキーワードのうち未発声のキーワードが存在するか否かを判断し、前記警告手段は、未発声のキーワードが存在する場合に警告することを特徴とする請求項1又は請求項2記載のプレゼンテーション支援装置。   Instructing means for instructing switching of the presentation image is further provided, and the determining means includes an unspoken keyword among keywords corresponding to the presentation image when switching of the presentation image is instructed by the instructing means. The presentation support apparatus according to claim 1, wherein the warning unit issues a warning when an unspoken keyword is present. 入力された画像をスクリーンに投影する投影装置にプレゼンテーション画像を出力するプレゼンテーション支援方法であって、
前記プレゼンテーション画像の説明者の音声を入力し、
入力された説明者の音声を認識し、当該認識した音声の音声認識データを出力し、
前記音声認識データに前記スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードが含まれているか否かを判断し、
前記音声認識データに前記キーワードが含まれていない場合に警告する、
ことを特徴とするプレゼンテーション支援方法。
A presentation support method for outputting a presentation image to a projection device that projects an input image on a screen,
Enter the voice of the presenter of the presentation image,
Recognize the voice of the presenter and output the voice recognition data of the recognized voice,
Determining whether the speech recognition data includes a predetermined keyword related to the description of the presentation image projected on the screen;
Warn if the keyword is not included in the speech recognition data;
A presentation support method characterized by that.
コンピュータに、入力された画像をスクリーンに投影する投影装置にプレゼンテーション画像を出力させるためのプレゼンテーション支援プログラムであって、
前記プレゼンテーション画像の説明者の音声を入力するステップと、
入力された説明者の音声を認識し、当該認識した音声の音声認識データを出力するステップと、
前記音声認識データに前記スクリーンに投影されたプレゼンテーション画像の説明に関する予め定めたキーワードが含まれているか否かを判断するステップと、
前記音声認識データに前記キーワードが含まれていない場合に警告するステップと、
を含む処理をコンピュータに実行させることを特徴とするプレゼンテーション支援プログラム。
A presentation support program for causing a computer to output a presentation image to a projection device that projects an input image onto a screen,
Inputting the audio of the presenter of the presentation image;
Recognizing the input voice of the presenter and outputting voice recognition data of the recognized voice;
Determining whether the voice recognition data includes a predetermined keyword related to a description of a presentation image projected on the screen;
Warning when the speech recognition data does not include the keyword;
A presentation support program for causing a computer to execute a process including:
JP2004269354A 2004-09-16 2004-09-16 Presentation support device, presentation support method and presentation support program Pending JP2006085418A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004269354A JP2006085418A (en) 2004-09-16 2004-09-16 Presentation support device, presentation support method and presentation support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004269354A JP2006085418A (en) 2004-09-16 2004-09-16 Presentation support device, presentation support method and presentation support program

Publications (1)

Publication Number Publication Date
JP2006085418A true JP2006085418A (en) 2006-03-30

Family

ID=36163880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004269354A Pending JP2006085418A (en) 2004-09-16 2004-09-16 Presentation support device, presentation support method and presentation support program

Country Status (1)

Country Link
JP (1) JP2006085418A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123447A (en) * 2006-11-15 2008-05-29 Mitsubishi Electric Information Systems Corp Operator business support system
KR101171109B1 (en) * 2010-03-12 2012-08-06 (주)초이스테크놀로지 Portable presentation apparatus having keyword association function, driving method thereof and method of providing keyword association function using the same
JP2013025609A (en) * 2011-07-22 2013-02-04 Mizuho Information & Research Institute Inc Explanation support system, explanation support method and explanation support program
JP2014146375A (en) * 2014-04-17 2014-08-14 Mizuho Information & Research Institute Inc Explanation support system and explanation support method
KR20190096676A (en) * 2018-02-09 2019-08-20 충북대학교 산학협력단 Presentation control system using user presentation pattern

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123447A (en) * 2006-11-15 2008-05-29 Mitsubishi Electric Information Systems Corp Operator business support system
JP4690999B2 (en) * 2006-11-15 2011-06-01 三菱電機インフォメーションシステムズ株式会社 Operator work support system
KR101171109B1 (en) * 2010-03-12 2012-08-06 (주)초이스테크놀로지 Portable presentation apparatus having keyword association function, driving method thereof and method of providing keyword association function using the same
JP2013025609A (en) * 2011-07-22 2013-02-04 Mizuho Information & Research Institute Inc Explanation support system, explanation support method and explanation support program
JP2014146375A (en) * 2014-04-17 2014-08-14 Mizuho Information & Research Institute Inc Explanation support system and explanation support method
KR20190096676A (en) * 2018-02-09 2019-08-20 충북대학교 산학협력단 Presentation control system using user presentation pattern
KR102036279B1 (en) * 2018-02-09 2019-10-24 충북대학교 산학협력단 Presentation control system using user presentation pattern

Similar Documents

Publication Publication Date Title
JP3728304B2 (en) Information processing method, information processing apparatus, program, and storage medium
JP3814566B2 (en) Information processing apparatus, information processing method, and control program
CN111902831B (en) Demonstration support system
JP7200533B2 (en) Information processing device and program
JP2006085418A (en) Presentation support device, presentation support method and presentation support program
US11838459B2 (en) Information processing system, information processing apparatus, and information processing method
JP2011076384A (en) Information output device and information output program
US8515173B2 (en) Image processing system, image processing method and computer readable medium
CN110599822A (en) Voice blackboard-writing display method, system and storage medium
JP2004325905A (en) Device and program for learning foreign language
JP2017102939A (en) Authoring device, authoring method, and program
JP5716718B2 (en) Chinese display control apparatus, Chinese display control program, and Chinese display control method
JP2004288008A (en) Program for presentation, and system for presentation
US20220382513A1 (en) Display system, display device, and control method for display device
JP2009080614A (en) Display controller, program, and display system
JP7383885B2 (en) Information processing device and program
JP5114578B2 (en) Video display device with built-in voice recognition function
JP2008158630A (en) Image output device and image output method
JP2008058678A (en) Voice output device and program
JP6080058B2 (en) Authoring apparatus, authoring method, and program
JP2006235880A (en) Information processor, information processing method, information processing program and computer-readable recording medium with its program recorded thereon
KR20140109551A (en) Apparatus and method for learning foreign language by using augmented reality
JP2015225506A (en) Image processing device and program
JPH05314328A (en) Manual card and information processor
JP2011187064A (en) Image processing system and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070219