JP2008158630A - Image output device and image output method - Google Patents

Image output device and image output method Download PDF

Info

Publication number
JP2008158630A
JP2008158630A JP2006344274A JP2006344274A JP2008158630A JP 2008158630 A JP2008158630 A JP 2008158630A JP 2006344274 A JP2006344274 A JP 2006344274A JP 2006344274 A JP2006344274 A JP 2006344274A JP 2008158630 A JP2008158630 A JP 2008158630A
Authority
JP
Japan
Prior art keywords
data
image data
page
presentation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006344274A
Other languages
Japanese (ja)
Inventor
Shigeo Hasui
樹生 蓮井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006344274A priority Critical patent/JP2008158630A/en
Publication of JP2008158630A publication Critical patent/JP2008158630A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image output device and an image output method that can change presentation image data along the content of presentation. <P>SOLUTION: If the recognition result of a voice input from a presenter matches a character string for a page change included in a first page of presentation document data during the output of a first page of presentation image data 201, a presentation device 110 changes the image data output to a projection device 107 from the first page of presentation image data to a second page of presentation image data. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像出力装置及び画像出力方法に関する。   The present invention relates to an image output apparatus and an image output method.

従来から、入力画像された投影するプロジェクタ等の投影装置(表示装置)が知られている。投影装置には、PC等の画像出力装置から出力されたプレゼンテーション画像が入力される。そして、投影装置は、入力されたプレゼンテーション画像を拡大してスクリーンに投影することで、プレゼンテーションを行う。   2. Description of the Related Art Conventionally, a projection device (display device) such as a projector that projects an input image is known. A presentation image output from an image output device such as a PC is input to the projection device. The projection device performs the presentation by enlarging the input presentation image and projecting it on the screen.

画像出力装置としてのPCは、PCの特定のキー(エンターキー)やマウスのボタンが押下されたことを認識し、複数ページのプレゼンテーション画像のうち、何れのページを投影装置へ出力するかを切り替える。   A PC as an image output device recognizes that a specific key (enter key) or mouse button of the PC has been pressed, and switches which page of a plurality of presentation images is output to the projection device. .

しかし、キーボードやマウスを用いてページを切り替える方法は、説明者が一旦説明を中断してページを切り替える操作をする必要があり、プレゼンテーションが円滑に行われないという問題点があった。   However, the method of switching pages using a keyboard or a mouse has a problem in that a presentation is not smoothly performed because it is necessary for an instructor to temporarily interrupt the explanation and perform a page switching operation.

この問題点を解決するために、複数ページのプレゼンテーション画像を切り替えるためのキーワード(例えば、「次のスライド」)を予め画像出力装置に登録しておく方法が考えられる。この方法では、登録したキーワードが音声で入力された場合に、プレゼンテーション画像を切り替えることで、プレゼンテーションを円滑に行うものである(例えば、特許文献1参照。)。
特開平8−339198
In order to solve this problem, a method of previously registering a keyword (for example, “next slide”) for switching presentation images of a plurality of pages in the image output apparatus is conceivable. In this method, when a registered keyword is input by voice, a presentation is smoothly performed by switching presentation images (see, for example, Patent Document 1).
JP-A-8-339198

しかしながら、特許文献1の方法は、複数ページのプレゼンテーション画像を切り替えるにあたって、いずれのページについても同じキーワード(例えば、「次のスライド」)を用いてページの切り替えを行う。従って、プレゼンテーションを行うにあたって説明者が話す内容とは関係のないキーワードが各ページについて発声されるので、不自然なプレゼンテーションとなってしまう。   However, the method of Patent Literature 1 switches pages using the same keyword (for example, “next slide”) for any page when switching presentation images of a plurality of pages. Therefore, since keywords that are not related to the contents spoken by the presenter in the presentation are uttered on each page, the presentation becomes unnatural.

本発明は、上記の問題を鑑みてなされたものであり、複数ページの画像データを切り替える際にプレゼンテーションの説明者(発表者)に煩雑な操作を要求せず、プレゼンテーションの内容に沿って画像データの切り替えを行うことができる画像出力装置及び画像出力方法を提供することにある。   The present invention has been made in view of the above-described problem, and does not require a complicated operation from the presenter (presenter) of the presentation when switching image data of a plurality of pages, and the image data according to the contents of the presentation. It is an object to provide an image output apparatus and an image output method capable of switching between the two.

上記目的を達成するために、本発明の画像出力装置は、表示装置に画像データを出力する画像出力装置であって、画像データと、前記画像データに対応付けた文書データとを組み合わせたページ単位のプレゼンテーションデータを複数ページ分について記憶する記憶手段と、前記記憶手段に記憶された複数ページ分の画像データを、ページ切り替え指示に基づいて1ページずつ切り替えて前記表示装置へ出力する画像出力手段と、前記プレゼンテーションデータの説明者の音声を認識する音声認識手段と、第1ページの画像データの前記表示装置による表示中に、前記第1ページの文書データに含まれるページ切り替えのためのデータに対応する前記認識結果が入力された場合、前記表示装置へ出力する画像データを、前記第1ページの画像データから前記第1ページに引き続く第2ページの画像データに切り替えるための前記ページ切り替え指示を前記画像出力手段に出力するページ切り替え指示手段とを有することを特徴とする。   In order to achieve the above object, an image output device of the present invention is an image output device that outputs image data to a display device, and is a page unit that combines image data and document data associated with the image data. Storage means for storing a plurality of pages of presentation data, and image output means for switching image data for a plurality of pages stored in the storage means to the display device by switching one page at a time based on a page switching instruction. A voice recognition means for recognizing the voice of the presenter of the presentation data, and data for switching pages included in the document data of the first page during display of the image data of the first page by the display device When the recognition result is input, the image data to be output to the display device is the image of the first page. And having a page switching instruction means for outputting the page switching instruction for switching from the over data to the image data of the second page following the first page to the image output unit.

また、本発明の画像出力方法は、複数ページの画像データを切り替えて表示装置に出力する画像出力方法であって、第1ページの画像データの前記表示装置による表示中に、前記画像データの説明者の音声を認識する音声認識工程と、前記第1ページの画像データに対応付けられた文書データに含まれるページ切り替えのためのデータに対応する認識結果が前記音声認識工程にて入力された場合、前記表示装置へ出力する画像データを、前記第1ページの画像データから前記第1ページに引き続く第2ページの画像データに切り替える−ページ切り替え工程とを有することを特徴とする。   The image output method of the present invention is an image output method for switching and outputting a plurality of pages of image data to a display device, and the description of the image data during display of the first page of image data by the display device A speech recognition process for recognizing a person's voice and a recognition result corresponding to data for page switching included in the document data associated with the image data of the first page is input in the speech recognition process And switching the image data to be output to the display device from the image data of the first page to the image data of the second page subsequent to the first page-page switching step.

本発明によれば、複数ページの画像データを切り替える際にプレゼンテーションの説明者(発表者)に煩雑な操作を要求せず、プレゼンテーションの内容に沿って画像データの切り替えを行うことができる画像出力装置及び画像出力方法を提供することができる。   According to the present invention, when switching image data of a plurality of pages, an image output apparatus capable of switching image data according to the contents of the presentation without requiring a complicated operation from the presenter (presenter) of the presentation. And an image output method.

以下、添付の図面を参照して本発明の好適な実施形態を説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

<第1実施形態>
図1は、第1実施形態における音声認識機能付きプレゼンテーション装置の構成を示すブロック図である。
<First Embodiment>
FIG. 1 is a block diagram illustrating a configuration of a presentation apparatus with a voice recognition function according to the first embodiment.

プレゼンテーション装置110は、データ入力部100、データ抽出部101、第1の音声データ生成部102、音声入力部103、第2の音声データ生成部104、音声データ判定部105、プレゼンテーション画像出力部106、記憶部111を有する。   The presentation device 110 includes a data input unit 100, a data extraction unit 101, a first audio data generation unit 102, an audio input unit 103, a second audio data generation unit 104, an audio data determination unit 105, a presentation image output unit 106, A storage unit 111 is included.

データ入力部100は、LAN等のネットワークまたは1対1で接続されたPC等の外部装置109からプレゼンテーションデータを受信するとともに、入力されたプレゼンテーションデータをデータ抽出部101へ出力する。   The data input unit 100 receives presentation data from a network such as a LAN or an external device 109 such as a PC connected one-to-one, and outputs the input presentation data to the data extraction unit 101.

プレゼンテーションデータは、図2に示すように、プレゼンテーション画像データ201とプレゼンテーション画像に対応するプレゼンテーション文書データ202とを組み合わせたページ単位のデータである。図2に示すプレゼンテーション画像データ201は、テキストオブジェクトである見出し210や本文211aおよび211bと画像オブジェクト212aおよび212bから構成される。プレゼンテーション文書データ202には、プレゼンテーション画像データ201に対して説明者(発表者)が発声する台詞に対応する文字列で構成される。   As shown in FIG. 2, the presentation data is data in units of pages in which presentation image data 201 and presentation document data 202 corresponding to the presentation image are combined. The presentation image data 201 shown in FIG. 2 includes a heading 210 and texts 211a and 211b, which are text objects, and image objects 212a and 212b. The presentation document data 202 is composed of a character string corresponding to a speech uttered by the presenter (presenter) with respect to the presentation image data 201.

図3は、プレゼンテーションデータ200のデータ構造220を示す図である。データ構造220は、ページ番号要素221、プレゼンテーション画像要素222、タイトル要素223、テキスト要素224、画像オブジェクト要素225および説明原稿要素226等から構成される。   FIG. 3 is a diagram showing a data structure 220 of the presentation data 200. The data structure 220 includes a page number element 221, a presentation image element 222, a title element 223, a text element 224, an image object element 225, an explanation original element 226, and the like.

データ抽出部101は、データ入力部100からページ単位で入力されたプレゼンテーションデータ200から、プレゼンテーション画像データ201とプレゼンテーション文書データ202とを抽出し、第1の音声データ生成部102へ出力する。データ抽出部が抽出したプレゼンテーション画像データは、ページ情報と関連付けて記憶部111に記憶される。   The data extraction unit 101 extracts presentation image data 201 and presentation document data 202 from the presentation data 200 input in units of pages from the data input unit 100, and outputs them to the first audio data generation unit 102. The presentation image data extracted by the data extraction unit is stored in the storage unit 111 in association with the page information.

第1の音声データ生成部102は、データ抽出部101から入力されたプレゼンテーション文書データ202に含まれる文字列に対応した音声比較用データを生成し、記憶部111へ出力する。記憶部111は、データ抽出部101で抽出されたプレゼンテーション画像データ201と第1の音声データ生成部102で生成された音声比較用データとを関連付けて記憶する。ここで、音声比較用データは図4に示すようなテーブル300で構成される。音声比較用データは、図4の例では、19の文節に区切られて記憶部111に記憶されている。   The first audio data generation unit 102 generates audio comparison data corresponding to the character string included in the presentation document data 202 input from the data extraction unit 101, and outputs it to the storage unit 111. The storage unit 111 stores the presentation image data 201 extracted by the data extraction unit 101 and the audio comparison data generated by the first audio data generation unit 102 in association with each other. Here, the voice comparison data is composed of a table 300 as shown in FIG. In the example of FIG. 4, the voice comparison data is stored in the storage unit 111 by being divided into 19 clauses.

テーブル300は、プレゼンテーションデータ200内のページ番号を示すプレゼンテーションページ番号301と、前記説明用原稿データ内の文字列を所定の単位で分割した各文字列データ302とを有する。また、各文字列データに対する重み付けを示す重要度データ303を有する。重要度データは、所定の方式を用いて付与するものであり、図3では、プレゼンテーション画像内のテキストオブジェクトと一致する文字列に対して、重要度1を割り当て、それ以外の文字列に対して重要度0を付与している。   The table 300 includes a presentation page number 301 indicating a page number in the presentation data 200 and character string data 302 obtained by dividing a character string in the explanatory document data by a predetermined unit. In addition, importance data 303 indicating weighting for each character string data is included. Importance data is assigned using a predetermined method. In FIG. 3, importance 1 is assigned to a character string that matches a text object in a presentation image, and other character strings are assigned. An importance level of 0 is assigned.

一方、音声入力部103は、マイク等の音声入力装置108からの音声信号を受信して、第2の音声データ生成部104へ出力する。第2の音声データ生成部104は、入力された音声信号に基づいた音声認識処理を行い、認識した音声を文字列に変換して生成した音声比較用データを、音声データ判定部105へ出力する。ここで、音声認識処理手法としては、入力された音声をある一定時間間隔の特徴ベクトルの時系列として解析する方法が知られている。この方法では、特徴ベクトル列と不図示の音声辞書から出力された認識候補となる単語モデルとのパターンパッチングを行うことで、入力された音声の分析を行う。パターンマッチングの手法としては、下記の文献に示されるような手法が知られている。
・「デジタル音声処理」(古井貞煕著、1985年、東海大学出版)
・「確立モデルによる音声認識」(中川聖一著、1988年、電子情報通信学会)
音声データ判定部105は、記憶部111から取得した音声比較用データと第2の音声データ生成部104が生成した音声比較用データとの一致をページ単位で判定する。1ページ分の音声比較用データ全てが、第2の音声データ生成部104で生成された音声比較データと一致したと判定された場合に、音声データ判定部105は、ページ判定終了情報をプレゼンテーション画像出力部106へ出力する。図4に示した音声比較用データは、19の文節から構成されている。プレゼンテーション装置110は、テーブル300のある文節の文字列と、第2の音声データ生成部104が生成した音声比較用データの文字列が一致すると判断する。そして、プレゼンテーション装置110は、テーブル300の引き続く文節の文字列と、第2の音声データ生成部104が生成した音声比較用データの文字列が一致するかどうかを次に判断する。このような判断を19の文節の各々について行うことで、1ページ分の音声比較用データが、第2の音声データ生成部104で生成された音声比較データと一致したか否かを判定する。
On the other hand, the voice input unit 103 receives a voice signal from the voice input device 108 such as a microphone, and outputs it to the second voice data generation unit 104. The second voice data generation unit 104 performs voice recognition processing based on the input voice signal, and outputs the voice comparison data generated by converting the recognized voice to a character string to the voice data determination unit 105. . Here, as a speech recognition processing method, a method of analyzing input speech as a time series of feature vectors at a certain time interval is known. In this method, input speech is analyzed by performing pattern patching between a feature vector sequence and a word model that is a recognition candidate output from a speech dictionary (not shown). As a pattern matching technique, a technique as shown in the following document is known.
・ "Digital audio processing" (by Sadahiro Furui, 1985, Tokai University Press)
・ "Voice recognition by established model" (Seiichi Nakagawa, 1988, IEICE)
The voice data determination unit 105 determines whether the voice comparison data acquired from the storage unit 111 matches the voice comparison data generated by the second voice data generation unit 104 on a page basis. When it is determined that all of the audio comparison data for one page matches the audio comparison data generated by the second audio data generation unit 104, the audio data determination unit 105 displays the page determination end information as the presentation image. Output to the output unit 106. The voice comparison data shown in FIG. 4 is composed of 19 clauses. The presentation device 110 determines that the character string of a phrase in the table 300 matches the character string of the voice comparison data generated by the second voice data generation unit 104. Then, the presentation device 110 next determines whether or not the character string of the subsequent phrase in the table 300 matches the character string of the voice comparison data generated by the second voice data generation unit 104. By making such a determination for each of the 19 clauses, it is determined whether the audio comparison data for one page matches the audio comparison data generated by the second audio data generation unit 104.

プレゼンテーション画像出力部106は、記憶部111から取得したプレゼンテーション画像データ201を、プロジェクタ等の投影装置107へ出力する。また、プレゼンテーション画像出力部106は、音声データ判定部105からページ判定終了情報を受信した場合に、投影装置107へ出力中のプレゼンテーション画像を次のページのプレゼンテーション画像に切り替える。   The presentation image output unit 106 outputs the presentation image data 201 acquired from the storage unit 111 to the projection device 107 such as a projector. In addition, when the presentation image output unit 106 receives the page determination end information from the audio data determination unit 105, the presentation image output unit 106 switches the presentation image being output to the projection device 107 to the presentation image of the next page.

次に、第1実施形態におけるプレゼンテーション装置110で実行される処理について、図5に示すフローチャートを用いて説明する。   Next, processing executed by the presentation device 110 according to the first embodiment will be described with reference to the flowchart shown in FIG.

図5に示すフローチャートにおける各ステップは、プレゼンテーション装置110が、外部装置109からプレゼンテーションデータ200が入力されることにより開始されるものとする。   Each step in the flowchart illustrated in FIG. 5 is started by the presentation device 110 when the presentation data 200 is input from the external device 109.

まず、ステップ500でプレゼンテーション装置110は、データ抽出部101に入力されたプレゼンテーションデータ200に対して構造解析を行う。そして、プレゼンテーション装置110は、プレゼンテーション画像要素222および説明原稿要素226を検出しプレゼンテーション画像データ201とプレゼンテーション画像データに対応するプレゼンテーション文書データ202を抽出する。また、プレゼンテーション装置110は、プレゼンテーション画像データ201が含むテキスト要素224を検出して、プレゼンテーション画像データ201に含まれるテキストオブジェクトを抽出する。また、プレゼンテーション装置110は、プレゼンテーションデータ200に含まれるプレゼンテーション画像データ201のページ数を取得する。   First, in step 500, the presentation device 110 performs structural analysis on the presentation data 200 input to the data extraction unit 101. Then, the presentation apparatus 110 detects the presentation image element 222 and the explanatory document element 226, and extracts the presentation image data 201 and the presentation document data 202 corresponding to the presentation image data. Further, the presentation device 110 detects the text element 224 included in the presentation image data 201 and extracts a text object included in the presentation image data 201. In addition, the presentation device 110 acquires the number of pages of the presentation image data 201 included in the presentation data 200.

そして、プレゼンテーション装置110は、データ抽出部101が抽出したプレゼンテーション画像データ201を記憶部111に保存する。その一方、プレゼンテーション装置110は、プレゼンテーション文書データ202及びプレゼンテーション画像データ201に含まれるテキストオブジェクトを第1の音声データ生成部102へ出力する。   The presentation apparatus 110 stores the presentation image data 201 extracted by the data extraction unit 101 in the storage unit 111. On the other hand, the presentation device 110 outputs the text objects included in the presentation document data 202 and the presentation image data 201 to the first audio data generation unit 102.

ステップ501でプレゼンテーション装置110は、第1の音声データ生成部102において、ステップ500での抽出結果に基づいて音声比較用データを生成する。まずプレゼンテーション装置110は、プレゼンテーション画像データ201に含まれるテキストオブジェクトおよびプレゼンテーション文書データ202とに基づいて、プレゼンテーション文書データ202を、意味を持つ最小単位の文節に分解する。そして、プレゼンテーション装置110は、抽出した文節(単語列)を基に音声比較用データを構成するテーブル300を生成する。ここで、プレゼンテーション画像データ201が有するテキストオブジェクトと一致するプレゼンテーション文書データ202の文節に対しては重要度1を割り当てる。一方、プレゼンテーション画像データ201が有するテキストオブジェクトと一致しないプレゼンテーション文書データ202の文節には、重要度0を割り当てる。重要度の付与方法としては、前述の手法に加え、予め重要度を品詞の種類や固有の文字列毎に決めておいても良い。第1の音声データ生成部102が生成した音声比較データは音声データ判定部105に出力される。   In step 501, the presentation apparatus 110 generates audio comparison data based on the extraction result in step 500 in the first audio data generation unit 102. First, the presentation device 110 decomposes the presentation document data 202 into meaningful minimum unit clauses based on the text object and the presentation document data 202 included in the presentation image data 201. Then, the presentation device 110 generates a table 300 that constitutes audio comparison data based on the extracted clause (word string). Here, importance 1 is assigned to the phrase of the presentation document data 202 that matches the text object included in the presentation image data 201. On the other hand, importance 0 is assigned to the clause of the presentation document data 202 that does not match the text object included in the presentation image data 201. As a method of assigning importance, in addition to the above-described method, importance may be determined in advance for each type of part of speech or unique character string. The voice comparison data generated by the first voice data generation unit 102 is output to the voice data determination unit 105.

ステップ502でプレゼンテーション装置110は、プレゼンテーション装置110の操作者(プレゼンテーションの説明者)がプレゼンテーション動作の開始を指示したか否かを判定する。プレゼンテーションの説明者による開始の指示が有れば、記憶部111に記憶された第1ページ目のプレゼンテーション画像データが、プレゼンテーション画像出力部106を介して投影装置107に出力される。   In step 502, the presentation device 110 determines whether or not the operator of the presentation device 110 (presenter of the presentation) has instructed the start of the presentation operation. If there is a start instruction by the presenter of the presentation, the presentation image data of the first page stored in the storage unit 111 is output to the projection device 107 via the presentation image output unit 106.

ステップ503でプレゼンテーション装置110は、音声入力部103において音声入力装置108から音声が入力されたか否かを判別し、入力があればステップS504へ進み、音声入力が無い場合は待ち状態となる。   In step 503, the presentation apparatus 110 determines whether or not a voice is input from the voice input apparatus 108 in the voice input unit 103. If there is an input, the process proceeds to step S504. If there is no voice input, the presentation apparatus 110 enters a waiting state.

ステップ504でプレゼンテーション装置110は、第2の音声データ生成部104において音声認識処理を行い、文字列データからなる音声比較用データを生成する。第2の音声データ生成部104は、生成した音声比較用データを音声データ判定部105へ出力し、ステップ505へ遷移する。   In step 504, the presentation apparatus 110 performs voice recognition processing in the second voice data generation unit 104, and generates voice comparison data including character string data. The second audio data generation unit 104 outputs the generated audio comparison data to the audio data determination unit 105, and the process proceeds to step 505.

ステップ505で音声データ判定部105は、記憶部111から取得した第1ページ目の音声比較用データと第2の音声データ生成部104から入力された音声比較データとの比較処理を行う。音声データ判定部105は、記憶部111から取得した音声比較用データを基に、音声比較結果テーブル500を作成する。音声比較結果テーブル500は、図6に示すものであり、記憶部111から取得した音声比較用データが有するテーブル300から得られるプレゼンテーションページ番号501、プレゼンテーション文書データ202が有する文字列502とを有する。更に、音声比較結果テーブル500は、文字列502の各文節の重要度503に加え、プレゼンテーション文書データ202が有する文字列と入力された音声から生成した音声比較用データとの比較結果を示す比較済みフラグ504を有する。そして、音声データ判定部105は、第2の音声データ生成部104から入力された音声比較用データと記憶部111から取得した音声比較用データとを各文節について比較する。図6のテーブルは、音声認識の結果入力された文字列が「それでは明日の天気をお伝えします」であった場合を例示している。「それでは明日の天気をお伝えします」には、記憶部111から取得した音声比較用データに含まれる「それでは」、「明日の天気」、「を」、「お伝えします」と一致するので、各文字列(文節)について比較済みフラグとして値1が書き込まれる。なお、比較済みフラグの初期値として0が設定されており、比較が行われていない文字列の比較済みフラグの値は0である。ステップS505における判定をした後にプレゼンテーション装置110はステップS506に処理を進め、ステップS505における比較結果に基づいて、比較済みフラグ504を更新する。   In step 505, the audio data determination unit 105 performs a comparison process between the audio comparison data for the first page acquired from the storage unit 111 and the audio comparison data input from the second audio data generation unit 104. The voice data determination unit 105 creates a voice comparison result table 500 based on the voice comparison data acquired from the storage unit 111. The audio comparison result table 500 is shown in FIG. 6 and includes a presentation page number 501 obtained from the table 300 included in the audio comparison data acquired from the storage unit 111 and a character string 502 included in the presentation document data 202. Furthermore, the audio comparison result table 500 is a comparison indicating the comparison result between the character string included in the presentation document data 202 and the audio comparison data generated from the input audio, in addition to the importance 503 of each phrase of the character string 502. It has a flag 504. Then, the voice data determination unit 105 compares the voice comparison data input from the second voice data generation unit 104 with the voice comparison data acquired from the storage unit 111 for each phrase. The table in FIG. 6 exemplifies a case where the character string input as a result of the speech recognition is “Let's tell about tomorrow's weather”. “I will tell you the weather tomorrow” will match the words “Okay”, “Tomorrow ’s weather”, “O” and “I will tell you” included in the audio comparison data acquired from the storage unit 111. A value of 1 is written as a compared flag for each character string (sentence). Note that 0 is set as the initial value of the compared flag, and the value of the compared flag for character strings that have not been compared is 0. After making the determination in step S505, the presentation apparatus 110 proceeds to step S506, and updates the compared flag 504 based on the comparison result in step S505.

プレゼンテーション装置110は、ステップS506で比較結果を更新した後に、ステップ507へ処理を進め、現在のページ(第1ページ)のプレゼンテーション文書データ202に含まれる全ての文節の比較が終了したかについて判定する。具体的には、現在のページに含まれる全ての文節についての比較済みフラグの値を確認し、全てのフラグが比較済みを示す値(=1)であれば、ページ内の比較が終了したものとしてステップ508へ処理を進める。一方、ステップS507でページ内比較終了と判定されない場合は、ステップS503へ遷移して、次の音声入力待ち状態となる。   After updating the comparison result in step S506, the presentation apparatus 110 advances the processing to step 507, and determines whether or not all the phrases included in the presentation document data 202 of the current page (first page) have been compared. . Specifically, the value of the compared flag for all the clauses included in the current page is confirmed, and if all the flags indicate a value (= 1) indicating that the comparison has been completed, the comparison within the page has been completed. Then, the process proceeds to step 508. On the other hand, if it is not determined in step S507 that the comparison within the page has been completed, the process proceeds to step S503 to wait for the next voice input.

ここで、ステップS507における比較が終了したか否かの判定方法に関して、図6の重要度503を参照して、重要度の高い文節に対する比較済みフラグのみを、判定対象としても良い。具体的にプレゼンテーション装置110は、音声比較結果テーブル500において重要度503の値が1である文節の比較済みフラグが全て1であればページ内比較終了と判定する。   Here, regarding the determination method of whether or not the comparison in step S507 has been completed, only the compared flag for the phrase having a high importance may be determined as a determination target with reference to the importance 503 in FIG. Specifically, the presentation device 110 determines that the in-page comparison is completed if all of the compared flags of the clauses having the importance level 503 of 1 in the audio comparison result table 500 are 1.

ステップS508でプレゼンテーション装置110は、複数ページのプレゼンテーションデータ200について、全ページ分のプレゼンテーション文書データ202の比較が終了したか否かを判定する。具体的に、プレゼンテーション装置110は、ステップS500で取得したプレゼンテーションページ数とプレゼンテーションページ番号501が一致するかを判定し、一致した場合は処理終了とする。一致していない場合はステップS509へ遷移する。   In step S <b> 508, the presentation apparatus 110 determines whether or not the comparison of the presentation document data 202 for all pages has been completed for the presentation data 200 for a plurality of pages. Specifically, the presentation device 110 determines whether the number of presentation pages acquired in step S500 matches the presentation page number 501. If they match, the processing ends. If they do not match, the process proceeds to step S509.

ステップS509でプレゼンテーション装置110は、プレゼンテーション画像出力部106において記憶部111から、現在のページに引き続く次ページのプレゼンテーション画像データ201を取得して、投影装置107へ出力し、ステップS510へ遷移する。   In step S509, the presentation device 110 acquires the presentation image data 201 of the next page following the current page from the storage unit 111 in the presentation image output unit 106, outputs the presentation image data 201 to the projection device 107, and transitions to step S510.

ステップS510でプレゼンテーション装置110は、次ページのプレゼンテーション文書データ202を記憶部111から取得して音声データ判定部105に設定し、ステップS503へ遷移する。   In step S510, the presentation apparatus 110 acquires the presentation document data 202 of the next page from the storage unit 111, sets it in the audio data determination unit 105, and proceeds to step S503.

以上説明した処理ルーチンにより、複数ページのプレゼンテーション画像データを切り替える際にプレゼンテーションの説明者(発表者)に煩雑な操作を要求せず、更にプレゼンテーションの内容に沿ってプレゼンテーション画像データの切り替えを行うことができる。   By the processing routine described above, when switching presentation image data of a plurality of pages, it is possible to switch presentation image data according to the contents of the presentation without requiring a complicated operation from the presenter (presenter) of the presentation. it can.

<第2実施形態>
以下、本発明の第2実施形態について説明する。
Second Embodiment
Hereinafter, a second embodiment of the present invention will be described.

第1実施形態は、音声の入力により複数ページのプレゼンテーション画像データをページ単位で切り替える例に関するものであった。それに対して第2実施形態は、音声の入力に応じて、プレゼンテーション画像データに新たな画像データを付加して表示させる例に関するものである。   The first embodiment relates to an example in which presentation image data of a plurality of pages is switched in units of pages by voice input. On the other hand, the second embodiment relates to an example in which new image data is added to the presentation image data and displayed in accordance with the input of sound.

なお、第2実施形態は第1実施形態の変形例であり、下記で特に説明する点を除いては、第1実施形態と同様であるので説明を省略する。   Note that the second embodiment is a modification of the first embodiment, and is the same as the first embodiment except for the points specifically described below, and thus the description thereof is omitted.

付加画像データを含むプレゼンテーションデータの一例について、図7を用いて説明する。   An example of presentation data including additional image data will be described with reference to FIG.

図7において、プレゼンテーションデータ600は、プレゼンテーション画像データ601とプレゼンテーション文書データ602とで構成されている。   In FIG. 7, presentation data 600 is composed of presentation image data 601 and presentation document data 602.

プレゼンテーションデータ600は、前述の図2に示したプレゼンテーションデータ200と同様の構成である。具体的には、1ページ以上のプレゼンテーションデータ600の各ページは、プレゼンテーション画像データ601とプレゼンテーション文書データ602とを組み合わせたデータで構成される。   The presentation data 600 has the same configuration as the presentation data 200 shown in FIG. Specifically, each page of one or more presentation data 600 is composed of data obtained by combining presentation image data 601 and presentation document data 602.

図7に示すプレゼンテーション画像データ601は、テキストオブジェクトである見出し610や本文611aおよび612aと画像オブジェクト611bおよび611cから構成される。   The presentation image data 601 shown in FIG. 7 includes a heading 610, a body 611a and 612a, which are text objects, and image objects 611b and 611c.

プレゼンテーションを行うにあたって、複数ページのプレゼンテーション画像データを単にページ単位で切り替えるよりも、各ページにおいてオブジェクトが後から付加されるようにするのが効果的である。例えば、見出し610のみを背景画像データとして最初に表示させ、その後に本文611aや612aを表示させるようにすれば、本文の内容がプレゼンテーションを見る側に効果的に伝わる。第2実施形態では、背景画像データに新たに付加して表示させる画像データを付加画像データと呼ぶ。付加画像データは、テキストオブジェクトであっても画像オブジェクトであっても良く、また、それらを複数組み合わせたオブジェクトを付加画像データとしても良い。図7の例では、テキストオブジェクト611a、画像オブジェクト611b、611cを組み合わせたものを付加画像データA611としている。また、テキストオブジェクト612aを付加画像データB612としている。   In performing a presentation, it is more effective to add an object to each page later than simply switching presentation image data of a plurality of pages in units of pages. For example, if only the heading 610 is displayed as background image data first, and then the text 611a and 612a are displayed, the contents of the text are effectively transmitted to the viewer of the presentation. In the second embodiment, image data that is newly added to the background image data and displayed is referred to as additional image data. The additional image data may be a text object or an image object, and an object obtained by combining a plurality of them may be used as the additional image data. In the example of FIG. 7, a combination of a text object 611a and image objects 611b and 611c is used as additional image data A611. The text object 612a is used as additional image data B612.

プレゼンテーション装置110は、図8に示すように、プレゼンテーションの実行を開始した時は、見出し610のみを背景画像データとして表示する。次に、プレゼンテーション装置110は、図9に示すように、背景画像データである見出し610に対して、付加画像データA611を付加して投影装置107へ出力する。最後に、プレゼンテーション装置110は、図10に示すように、背景画像データである見出し610に対して、付加画像データA611及び付加画像データB612を付加して投影装置107へ出力する。   As shown in FIG. 8, the presentation device 110 displays only the heading 610 as background image data when the execution of the presentation is started. Next, as shown in FIG. 9, the presentation device 110 adds additional image data A 611 to the heading 610 that is background image data, and outputs the result to the projection device 107. Finally, as shown in FIG. 10, the presentation apparatus 110 adds the additional image data A611 and the additional image data B612 to the heading 610 that is the background image data, and outputs the result to the projection apparatus 107.

なお、図8から図9、図9から図10への切り替えは、プレゼンテーション文書データ602に含まれる付加画像データを指定する指定文字列が検出された場合に行われる。   The switching from FIG. 8 to FIG. 9 and FIG. 9 to FIG. 10 is performed when a designated character string for designating additional image data included in the presentation document data 602 is detected.

具体的には、プレゼンテーション文書データ602には、付加画像データを付加するための文字列として「♯♯♯」が含まれており、プレゼンテーション装置110がこの文字列を認識することにより、付加画像データの付加が行われる。   Specifically, the presentation document data 602 includes “##” as a character string for adding the additional image data, and the presentation apparatus 110 recognizes this character string, thereby adding the additional image data. Is added.

ここで、図11を用いてプレゼンテーションデータ600のデータ構造620を説明する。データ構造620は、ページ番号要素621、プレゼンテーション画像要素622、タイトル要素623、テキスト要素624、画像オブジェクト要素625および説明原稿要素626から構成される。データ構造620を構成する各要素は、更にアニメーショングループ情報を示すアニメーション属性630a、630bおよびアニメーション実行順を示すアニメーション順序属性631a、631bを有する。ここで、アニメーション属性630aおよびアニメーション順序属性631bを有する要素は付加画像データA611に属し、このページで1番目に背景画像データに付加される画像データであることを示す。また、アニメーション属性630bを有する要素は、付加画像データB612に属し、このページで2番目に背景画像データに付加される画像データであることを示す。なお、背景画像データに画像データを付加する態様としては種々の方法が考えられるが、例えば付加画像データを背景画像データの左右から移動させるようにしてアニメーションとして表示させる方法が考えられる。   Here, the data structure 620 of the presentation data 600 will be described with reference to FIG. The data structure 620 includes a page number element 621, a presentation image element 622, a title element 623, a text element 624, an image object element 625, and an explanation original element 626. Each element constituting the data structure 620 further has animation attributes 630a and 630b indicating animation group information and animation order attributes 631a and 631b indicating animation execution order. Here, the element having the animation attribute 630a and the animation order attribute 631b belongs to the additional image data A611, and indicates that the image data is first added to the background image data on this page. The element having the animation attribute 630b belongs to the additional image data B612, and indicates that the image data is the second image data added to the background image data on this page. Various methods are conceivable for adding image data to the background image data. For example, a method of displaying the additional image data as an animation by moving it from the left and right of the background image data is conceivable.

次に、付加画像データを含むプレゼンテーションデータの音声比較用データのテーブルについて図12および図13を用いて説明する。   Next, a table of audio comparison data of presentation data including additional image data will be described with reference to FIGS.

テーブル700は、前述のテーブル300と同様な構成である。ただし、テーブル300に加えて、アニメーション属性をしめすアニメーション属性データ704およびアニメーション実行位置を指定する文字列であるか否かを示すアニメーション実行位置指定フラグ705を有する。   The table 700 has the same configuration as the table 300 described above. However, in addition to the table 300, animation attribute data 704 indicating animation attributes and an animation execution position designation flag 705 indicating whether the character string is a character string designating an animation execution position are provided.

アニメーション属性データ704は、1つの付加画像データに含まれる文字列には同一の値が入り、図12の例では、アニメーション属性値a1およびa2のいずれかの値をとる。また付加画像データに含まれない文字列に対しては、アニメーション属性データとして値0をとる。   The animation attribute data 704 has the same value in the character string included in one additional image data, and takes one of the animation attribute values a1 and a2 in the example of FIG. For character strings not included in the additional image data, a value of 0 is taken as animation attribute data.

また、アニメーション実行位置指定フラグ705の初期値は0であるが、予め指定されたアニメーション実行位置指定文字列(第2実施形態では、「♯♯♯」)を検出した場合は、値1が付与される。   The initial value of the animation execution position designation flag 705 is 0, but a value of 1 is assigned when a previously designated animation execution position designation character string (“###” in the second embodiment) is detected. Is done.

図13は、アニメーション実行順序とアニメーション属性データを対応付けたアニメーション管理テーブル710を示す図である。   FIG. 13 is a diagram showing an animation management table 710 that associates the animation execution order with animation attribute data.

次に、第2実施形態におけるプレゼンテーション装置が実行する処理について、図14に示すフローチャートおよび図15および図16を用いて説明する。   Next, processing executed by the presentation apparatus according to the second embodiment will be described with reference to the flowchart shown in FIG. 14 and FIGS. 15 and 16.

図14に示すフローチャートにおける各ステップは、プレゼンテーション装置110が、外部装置109からプレゼンテーションデータが入力されることにより開始されるものとする。   Each step in the flowchart shown in FIG. 14 is started when the presentation device 110 receives presentation data from the external device 109.

まず、ステップ800でプレゼンテーション装置110は、データ抽出部101に入力されたプレゼンテーションデータ600に対して構造解析を行う。そして、プレゼンテーション装置110は、プレゼンテーション画像要素622および説明原稿要素626を検出しプレゼンテーション画像データ601とプレゼンテーション画像データに対応するプレゼンテーション文書データ602を抽出する。また、プレゼンテーション装置110は、プレゼンテーション画像データ601が含むテキストオブジェクト要素624を検出して、プレゼンテーション画像データ601に含まれるテキストオブジェクトを抽出する。更に、アニメーション属性630aおよび630bを抽出する。また、プレゼンテーション装置110は、プレゼンテーションデータ600に含まれるプレゼンテーション画像データ601のページ数を取得する。   First, in step 800, the presentation device 110 performs structural analysis on the presentation data 600 input to the data extraction unit 101. Then, the presentation apparatus 110 detects the presentation image element 622 and the explanatory document element 626 and extracts the presentation image data 601 and the presentation document data 602 corresponding to the presentation image data. In addition, the presentation apparatus 110 detects the text object element 624 included in the presentation image data 601 and extracts the text object included in the presentation image data 601. Furthermore, animation attributes 630a and 630b are extracted. In addition, the presentation device 110 acquires the number of pages of the presentation image data 601 included in the presentation data 600.

そして、プレゼンテーション装置110は、データ抽出部101が抽出したプレゼンテーション画像データ601を記憶部111に保存する。その一方、プレゼンテーション装置110は、プレゼンテーション文書データ602及びプレゼンテーション画像データ601に含まれるテキストオブジェクトを第1の音声データ生成部102へ出力する。   The presentation device 110 stores the presentation image data 601 extracted by the data extraction unit 101 in the storage unit 111. On the other hand, the presentation device 110 outputs the text objects included in the presentation document data 602 and the presentation image data 601 to the first audio data generation unit 102.

ステップ801でプレゼンテーション装置110は、第1の音声データ生成部102において、ステップ800での抽出結果に基づいて音声比較用データを生成する。まずプレゼンテーション装置110は、プレゼンテーション画像データ601に含まれるテキストオブジェクトおよびプレゼンテーション文書データ602とに基づいて、プレゼンテーション文書データ602を、意味を持つ最小単位の文節に分解する。そして、プレゼンテーション装置110は、抽出した文節(単語列)を基に音声比較用データを構成するテーブル300を生成する。ここで、プレゼンテーション画像データ601が有するテキストオブジェクトと一致するプレゼンテーション文書データ602の文節に対しては重要度1を割り当てる。一方、プレゼンテーション画像データ601が有するテキストオブジェクトと一致しないプレゼンテーション文書データ602の文節には、重要度0を割り当てる。重要度の付与方法としては、前述の手法に加え、予め重要度を品詞の種類や固有の文字列毎に決めておいても良い。第1の音声データ生成部102が生成した音声比較データは音声データ判定部105に出力される。更に、あらかじめ指定されたアニメーション実行位置指定文字列(第2実施形態では、「###」とする)を検出した場合は、アニメーション文字位置指定フラグの値を1に設定する。更にステップ800で抽出したアニメーション属性に応じてアニメーション属性データ704を生成する。また、アニメーション属性とアニメーション実行順序を対応つけた前述のアニメーション管理テーブル710を生成する。   In step 801, the presentation device 110 uses the first audio data generation unit 102 to generate audio comparison data based on the extraction result in step 800. First, the presentation apparatus 110 breaks down the presentation document data 602 into meaningful minimum unit clauses based on the text object included in the presentation image data 601 and the presentation document data 602. Then, the presentation device 110 generates a table 300 that constitutes audio comparison data based on the extracted clause (word string). Here, importance 1 is assigned to the phrase of the presentation document data 602 that matches the text object included in the presentation image data 601. On the other hand, importance 0 is assigned to the clause of the presentation document data 602 that does not match the text object included in the presentation image data 601. As a method of assigning importance, in addition to the above-described method, importance may be determined in advance for each type of part of speech or unique character string. The voice comparison data generated by the first voice data generation unit 102 is output to the voice data determination unit 105. Further, when an animation execution position designation character string designated in advance (“##” in the second embodiment) is detected, the value of the animation character position designation flag is set to 1. Furthermore, animation attribute data 704 is generated according to the animation attribute extracted in step 800. Further, the above-described animation management table 710 in which animation attributes are associated with the animation execution order is generated.

ステップ802でプレゼンテーション装置110は、プレゼンテーション装置110の操作者(プレゼンテーションの説明者)がプレゼンテーション動作の開始を指示したか否かを判定する。プレゼンテーションの説明者による開始の指示が有れば、記憶部111に記憶された第1ページ目のプレゼンテーション画像データが、プレゼンテーション画像出力部106を介して投影装置107に出力される。   In step 802, the presentation device 110 determines whether or not the operator of the presentation device 110 (presenter of the presentation) has instructed the start of the presentation operation. If there is a start instruction by the presenter of the presentation, the presentation image data of the first page stored in the storage unit 111 is output to the projection device 107 via the presentation image output unit 106.

ステップ803でプレゼンテーション装置110は、音声入力部103において音声入力装置108から音声が入力されたか否かを判別し、入力があればステップS804へ進み、音声入力が無い場合は待ち状態となる。   In step 803, the presentation apparatus 110 determines whether or not voice is input from the voice input apparatus 108 in the voice input unit 103. If there is an input, the process proceeds to step S804, and if there is no voice input, the presentation apparatus 110 enters a waiting state.

ステップ804でプレゼンテーション装置110は、第2の音声データ生成部104において音声認識処理を行い、文字列データからなる音声比較用データを生成する。第2の音声データ生成部104は、生成した音声比較用データを音声データ判定部105へ出力し、ステップ805へ遷移する。   In step 804, the presentation apparatus 110 performs voice recognition processing in the second voice data generation unit 104, and generates voice comparison data including character string data. The second audio data generation unit 104 outputs the generated audio comparison data to the audio data determination unit 105, and the process proceeds to step 805.

ステップ805で音声データ判定部105は、記憶部111から取得した第1ページ目の音声比較用データと第2の音声データ生成部104から入力された音声比較データとの比較処理を行う。音声データ判定部105は、記憶部111から取得した音声比較用データを基に、音声比較結果テーブル900を作成する。音声比較結果テーブル900は、図15に示すものであり、記憶部111から取得した音声比較用データが有するテーブル700から得られるプレゼンテーションページ番号901、プレゼンテーション文書データ602が有する文字列902とを有する。更に、音声比較結果テーブル900は、文字列902の各文節の重要度903、アニメーション属性に応じたアニメーション属性データ904、アニメーション実行位置フラグ905を有する。それに加え、音声比較結果テーブル900は、プレゼンテーション文書データ602が有する文字列と入力された音声から生成した音声比較用データとの比較結果を示す比較済みフラグ906を有する。更に、プレゼンテーション装置110は、アニメーション管理テーブル710を基に、アニメーション実行管理テーブル910を作成する。そして、音声データ判定部105は、第2の音声データ生成部104から入力された音声比較用データと記憶部111から取得した音声比較用データとを各文節について比較する。図15のテーブルは、音声認識の結果入力された文字列が「それでは明日の天気をお伝えします」であった場合を例示している。「それでは明日の天気をお伝えします」には、記憶部111から取得した音声比較用データに含まれる「それでは」、「明日の天気」、「を」、「お伝えします」と一致するので、各文字列(文節)について比較済みフラグとして値1が書き込まれる。なお、比較済みフラグの初期値として0が設定されており、比較が行われていない文字列の比較済みフラグの値は0である。ステップS805における判定をした後にプレゼンテーション装置110はステップS806に処理を進め、ステップS805における比較結果に基づいて、比較済みフラグ806を更新する。   In step 805, the audio data determination unit 105 performs a comparison process between the audio comparison data for the first page acquired from the storage unit 111 and the audio comparison data input from the second audio data generation unit 104. The voice data determination unit 105 creates a voice comparison result table 900 based on the voice comparison data acquired from the storage unit 111. The audio comparison result table 900 is shown in FIG. 15 and includes a presentation page number 901 obtained from the table 700 included in the audio comparison data acquired from the storage unit 111 and a character string 902 included in the presentation document data 602. Furthermore, the voice comparison result table 900 includes importance 903 of each phrase of the character string 902, animation attribute data 904 corresponding to the animation attribute, and animation execution position flag 905. In addition, the audio comparison result table 900 includes a compared flag 906 that indicates a comparison result between the character string included in the presentation document data 602 and the audio comparison data generated from the input audio. Further, the presentation device 110 creates an animation execution management table 910 based on the animation management table 710. Then, the voice data determination unit 105 compares the voice comparison data input from the second voice data generation unit 104 with the voice comparison data acquired from the storage unit 111 for each phrase. The table in FIG. 15 exemplifies a case where the character string input as a result of the speech recognition is “Let's tell about tomorrow's weather”. “I will tell you the weather tomorrow” will match the words “Okay”, “Tomorrow ’s weather”, “O” and “I will tell you” included in the audio comparison data acquired from the storage unit 111. A value of 1 is written as a compared flag for each character string (sentence). Note that 0 is set as the initial value of the compared flag, and the value of the compared flag for character strings that have not been compared is 0. After making the determination in step S805, the presentation apparatus 110 advances the process to step S806, and updates the compared flag 806 based on the comparison result in step S805.

プレゼンテーション装置110は、ステップS807で、テーブル900のアニメーション実行位置データ905および比較済みフラグ906を参照して、付加画像データの表示を実行するべきアニメーション実行位置であるか否かを判定する。プレゼンテーション装置110は、比較済みフラグ906を参照して、アニメーション実行位置フラグ905より前に位置する文字列に対応する比較済みフラグ906の値が、全て比較済みを示す値1であれば、ステップS808へ遷移する。それ以外の場合はステップ809へ遷移する。   In step S807, the presentation apparatus 110 refers to the animation execution position data 905 and the compared flag 906 in the table 900, and determines whether or not the animation execution position is to execute the display of the additional image data. The presentation apparatus 110 refers to the compared flag 906, and if the value of the compared flag 906 corresponding to the character string positioned before the animation execution position flag 905 is a value 1 indicating that all have been compared, step S808. Transition to. Otherwise, the process proceeds to step 809.

ステップS808でプレゼンテーション装置110は、アニメーション実行管理テーブル910を参照し、アニメーション実行順序911に応じて付加画像データを表示(アニメーションを実行)する。付加画像データを表示させた後に、プレゼンテーション装置110は、実行済みフラグ913の値に1を設定し、ステップ809へ遷移する。   In step S808, the presentation apparatus 110 refers to the animation execution management table 910 and displays the additional image data (executes the animation) according to the animation execution order 911. After displaying the additional image data, the presentation device 110 sets the value of the executed flag 913 to 1 and proceeds to step 809.

プレゼンテーション装置110は、ステップ809で、現在のページ(第1ページ)のプレゼンテーション文書データ202に含まれる全ての文節の比較が終了したかについて判定する。具体的には、現在のページに含まれる全ての文節についての比較済みフラグの値を確認し、全てのフラグが比較済みを示す値(=1)であれば、ページ内の比較が終了したものとしてステップ810へ処理を進める。一方、ステップS809でページ内比較終了と判定されない場合は、ステップS803へ遷移して、次の音声入力待ち状態となる。   In step 809, the presentation device 110 determines whether all the phrases included in the presentation document data 202 of the current page (first page) have been compared. Specifically, the value of the compared flag for all the clauses included in the current page is confirmed, and if all the flags indicate a value (= 1) indicating that the comparison has been completed, the comparison within the page has been completed. Then, the process proceeds to step 810. On the other hand, if it is not determined in step S809 that the in-page comparison is completed, the process proceeds to step S803, and the next voice input waiting state is entered.

ここで、ステップS809における比較が終了したか否かの判定方法に関して、図15の重要度903を参照して、重要度の高い文節に対する比較済みフラグのみを、判定対象としても良い。具体的にプレゼンテーション装置110は、音声比較結果テーブル900において重要度903の値が1である文節の比較済みフラグが全て1であればページ内比較終了と判定する。   Here, regarding the determination method as to whether or not the comparison in step S809 has been completed, only the compared flag for the phrase having a high importance may be determined as a determination target with reference to the importance 903 in FIG. Specifically, the presentation device 110 determines that the in-page comparison is completed if all of the compared flags of the phrase having the importance 903 value of 1 in the audio comparison result table 900 are 1.

ステップS810でプレゼンテーション装置110は、複数ページのプレゼンテーションデータ600について、全ページ分のプレゼンテーション文書データ602の比較が終了したか否かを判定する。具体的に、プレゼンテーション装置110は、ステップS800で取得したプレゼンテーションページ数とプレゼンテーションページ番号901が一致するかを判定し、一致した場合は処理終了とする。一致していない場合はステップS811へ遷移する。   In step S810, the presentation apparatus 110 determines whether or not the comparison of the presentation document data 602 for all the pages has been completed for the presentation data 600 for a plurality of pages. Specifically, the presentation device 110 determines whether or not the number of presentation pages acquired in step S800 matches the presentation page number 901. If they match, the processing ends. If they do not match, the process proceeds to step S811.

ステップS811でプレゼンテーション装置110は、プレゼンテーション画像出力部106において記憶部111から、現在のページに引き続く次ページのプレゼンテーション画像データ601を取得して、投影装置107へ出力し、ステップS812へ遷移する。   In step S811, the presentation apparatus 110 acquires the presentation image data 601 of the next page following the current page from the storage unit 111 in the presentation image output unit 106, outputs the presentation image data 601 to the projection apparatus 107, and transitions to step S812.

ステップS812でプレゼンテーション装置110は、次ページのプレゼンテーション文書データ602を記憶部111から取得して音声データ判定部105に設定し、ステップS803へ遷移する。   In step S812, the presentation apparatus 110 acquires the presentation document data 602 of the next page from the storage unit 111 and sets it in the audio data determination unit 105, and the process proceeds to step S803.

以上説明した処理ルーチンにより、複数ページのプレゼンテーション画像データを切り替える際にプレゼンテーションの説明者(発表者)に煩雑な操作を要求せず、更にプレゼンテーションの内容に沿ってプレゼンテーション画像データの切り替えを行うことができる。   By the processing routine described above, when switching presentation image data of a plurality of pages, it is possible to switch presentation image data according to the contents of the presentation without requiring a complicated operation from the presenter (presenter) of the presentation. it can.

更に、第2実施形態は、プレゼンテーション画像データを、背景画像データと付加画像データとで構成する。そして、背景画像データに対して音声認識の結果に基づいて付加画像を表示させることで、プレゼンテーションの説明者(発表者)に煩雑な操作を要求せず、プレゼンテーションを見る者に対して効果的なプレゼンテーションを実行することができる。   Furthermore, in the second embodiment, the presentation image data is composed of background image data and additional image data. By displaying an additional image on the background image data based on the result of the speech recognition, it is effective for the viewer of the presentation without requiring a complicated operation from the presenter (presenter) of the presentation. A presentation can be performed.

(第3の実施形態)
次に、本発明の第3実施形態について説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.

前述した第1実施形態及び第2実施形態におけるプレゼンテーション装置110は、外部装置109から入力されたプレゼンテーションデータに基づいてプレゼンテーション画像データの出力を行うものであった。それに対して第3実施形態のプレゼンテーション装置110は、紙原稿を読み取って得た画像データに基づいてプレゼンテーションデータを生成する例を示す。なお、下記に説明する点を除いては、第3実施形態のプレゼンテーション装置110が実行する処理は、第1実施形態又は第2実施形態におけるプレゼンテーション装置110が実行する処理と同様であるので、説明を省略する。   The presentation apparatus 110 in the first and second embodiments described above outputs presentation image data based on presentation data input from the external apparatus 109. On the other hand, the presentation apparatus 110 according to the third embodiment shows an example in which presentation data is generated based on image data obtained by reading a paper document. Except for the points described below, the processing executed by the presentation device 110 according to the third embodiment is the same as the processing executed by the presentation device 110 according to the first embodiment or the second embodiment. Is omitted.

図17は、第3実施形態におけるプレゼンテーション装置110の構成を示す図であり、図1における外部装置109に替えて画像読み取り装置1701がプレゼンテーション装置110に接続されている。   FIG. 17 is a diagram illustrating a configuration of the presentation device 110 according to the third embodiment. An image reading device 1701 is connected to the presentation device 110 instead of the external device 109 in FIG.

画像読み取り装置1701は、記録紙上に記録された画像をCCD等の画像入力センサを用いて電気信号化された画像データを得る装置である。プレゼンテーションの説明者は、図18に示すような画像が記録された記録紙を画像読み取り装置1701にセットすることで画像データをデータ入力部100に入力する。   The image reading apparatus 1701 is an apparatus that obtains image data obtained by converting an image recorded on a recording sheet into an electrical signal using an image input sensor such as a CCD. The presenter of the presentation inputs image data to the data input unit 100 by setting a recording sheet on which an image as shown in FIG.

図18は、記録紙上に記録された画像を示すものであり、プレゼンテーション画像データ1801と、プレゼンテーション文書データ1802とを有する。プレゼンテーション装置110の操作者(プレゼンテーションの説明者)は、図18に示すような記録紙を画像読み取り装置1701にセットし、画像の読み取りを指示することで、記録紙上の画像の読み取りを開始する。なお、記録紙は複数枚で構成されており、画像読み取り装置1701は複数枚の記録紙を1ページずつページ単位で読み取ってページ単位の画像データを得る。データ入力部100には、画像読み取り装置1701からページ単位で画像データが入力される。そして、データ入力部100は、入力されたページ単位の画像データをデータ抽出部101へ出力する。   FIG. 18 shows an image recorded on a recording sheet, which includes presentation image data 1801 and presentation document data 1802. An operator of the presentation apparatus 110 (presentation instructor) sets a recording sheet as shown in FIG. 18 on the image reading apparatus 1701 and instructs the reading of the image to start reading the image on the recording sheet. Note that the recording sheet is composed of a plurality of sheets, and the image reading device 1701 reads the plurality of recording sheets page by page to obtain page unit image data. Image data is input to the data input unit 100 from the image reading device 1701 in units of pages. Then, the data input unit 100 outputs the input page unit image data to the data extraction unit 101.

データ抽出部101は、データ入力部100からページ単位で入力された画像データとしてのプレゼンテーションデータ1800から、プレゼンテーション画像データ1801とプレゼンテーション文書データ1802とを抽出する。そして、データ抽出部101は、第1の音声データ生成部102へ出力する。データ抽出部が抽出したプレゼンテーション画像データは、ページ情報と関連付けて記憶部111に記憶される。   The data extraction unit 101 extracts presentation image data 1801 and presentation document data 1802 from presentation data 1800 as image data input in units of pages from the data input unit 100. Then, the data extraction unit 101 outputs the data to the first audio data generation unit 102. The presentation image data extracted by the data extraction unit is stored in the storage unit 111 in association with the page information.

なお、データ抽出部101は、入力された画像データにおける1801に相当する部分を切り取って、プレゼンテーション画像データ1801として抽出する。一方、データ抽出部101は、入力された画像データにおける1802に相当する部分を切り取り、切り取った部分に文字認識処理を行って画像データを文字列に変換する。文字認識処理としては、予め複数の文字を画像データ化した文字パターンデータを記憶部111に記憶させておき、切り取られた画像データが記憶部111に記憶されたいずれの文字パターンデータと一致するかを判断して認識するようにすればよい。そして、認識された結果として得られた文字列は、プレゼンテーション文書データ1802として、プレゼンテーション画像データ1801と対応付けて記憶部111に記憶される。このような、処理を複数ページの各々について行うことで、記憶部111には、複数ページのプレゼンテーションデータが記憶されることとなる。従って、記録紙上に記録された画像を読み取って、データ抽出部101によりプレゼンテーション画像データ1801とプレゼンテーション文書データ1802を組み合わせて記憶させることができる。   The data extraction unit 101 cuts out a portion corresponding to 1801 in the input image data and extracts it as presentation image data 1801. On the other hand, the data extraction unit 101 cuts a portion corresponding to 1802 in the input image data, performs character recognition processing on the cut portion, and converts the image data into a character string. In the character recognition process, character pattern data obtained by converting a plurality of characters into image data is stored in the storage unit 111 in advance, and which character pattern data stored in the storage unit 111 matches the cut image data. It is only necessary to judge and recognize. The character string obtained as a result of recognition is stored in the storage unit 111 as presentation document data 1802 in association with the presentation image data 1801. By performing such processing for each of a plurality of pages, the storage unit 111 stores a plurality of pages of presentation data. Accordingly, the image recorded on the recording paper can be read and the data extraction unit 101 can store the presentation image data 1801 and the presentation document data 1802 in combination.

以上説明した処理ルーチンにより、複数ページのプレゼンテーション画像データを切り替える際にプレゼンテーションの説明者(発表者)に煩雑な操作を要求せず、更にプレゼンテーションの内容に沿ってプレゼンテーション画像データの切り替えを行うことができる。   By the processing routine described above, when switching presentation image data of a plurality of pages, it is possible to switch presentation image data according to the contents of the presentation without requiring a complicated operation from the presenter (presenter) of the presentation. it can.

また、プレゼンテーション画像データとプレゼンテーション文書データとを組み合わせたプレゼンテーションデータを記録紙上の画像を読み取ることで生成することができるので、画像が記録された記録紙を用いたプレゼンテーションを容易に行うことが出来る。   In addition, since presentation data combining presentation image data and presentation document data can be generated by reading an image on a recording paper, a presentation using the recording paper on which the image is recorded can be easily performed.

(他の実施例)
以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体(記録媒体)等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
(Other examples)
Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, storage medium (recording medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.

尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される。ここで、プログラムとは、実施形態では図に示すフローチャートに対応したプログラムを示す。   According to the present invention, a software program that realizes the functions of the above-described embodiments is supplied directly or remotely to a system or apparatus, and the computer of the system or apparatus reads and executes the supplied program code. Is also achieved. Here, the program indicates a program corresponding to the flowchart shown in the drawing in the embodiment.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。   Examples of the recording medium for supplying the program include a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. Further, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムは、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのものをダウンロードすることによっても供給できる。また、圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   In addition, the program can be supplied by connecting to a homepage on the Internet using a browser of a client computer and downloading the computer program of the present invention from the homepage. It can also be supplied by downloading a compressed file including an automatic installation function to a recording medium such as a hard disk. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる方法もある。この方法では、鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. There is also a way to make it. This method can also be realized by executing an encrypted program using the key information and installing it on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。また、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. Further, based on the instructions of the program, the OS running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込ませる方法が考えられる。この場合、書き込まれたプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。   Furthermore, a method is conceivable in which a program read from a recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. In this case, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the written program instruction, and the functions of the above-described embodiments are realized by the processing. .

音声認識機能付きプレゼンテーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the presentation apparatus with a speech recognition function. プレゼンテーションデータ200の構成を示す概念図である。3 is a conceptual diagram showing a configuration of presentation data 200. FIG. プレゼンテーションデータ200のデータ構造220を示す図である。3 is a diagram showing a data structure 220 of presentation data 200. FIG. 音声比較用データを説明する図である。It is a figure explaining the data for audio | voice comparison. プレゼンテーション装置110が実行する処理を示すフローチャートである。5 is a flowchart showing processing executed by the presentation device 110. 音声比較結果テーブルを示す図である。It is a figure which shows an audio | voice comparison result table. 付加画像データを含むプレゼンテーションデータの一例を示す図である。It is a figure which shows an example of the presentation data containing additional image data. 投影装置に出力されるプレゼンテーション画像データの一例を示す図である。It is a figure which shows an example of the presentation image data output to a projection apparatus. 投影装置に出力されるプレゼンテーション画像データの一例を示す図である。It is a figure which shows an example of the presentation image data output to a projector. 投影装置に出力されるプレゼンテーション画像データの一例を示す図である。It is a figure which shows an example of the presentation image data output to a projection apparatus. プレゼンテーションデータ600のデータ構造620を示す図である。6 is a diagram showing a data structure 620 of presentation data 600. FIG. 音声比較用データを説明する図である。It is a figure explaining the data for audio | voice comparison. アニメーション管理テーブル710を示す図である。It is a figure which shows the animation management table 710. プレゼンテーション装置110が実行する処理を示すフローチャートである。5 is a flowchart showing processing executed by the presentation device 110. 音声比較結果テーブルを示す図である。It is a figure which shows an audio | voice comparison result table. アニメーション実行管理テーブルを示す図である。It is a figure which shows an animation execution management table. 音声認識機能付きプレゼンテーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the presentation apparatus with a speech recognition function. 画像読み取り装置が読み取る記録紙の一例を示す図である。It is a figure which shows an example of the recording paper which an image reading apparatus reads.

符号の説明Explanation of symbols

110 プレゼンテーション装置
200 プレゼンテーションデータ
201 プレゼンテーション画像データ
202 プレゼンテーション文書データ
500 音声比較結果テーブル
600 プレゼンテーションデータ
601 プレゼンテーション画像データ
602 プレゼンテーション文書データ
611 付加画像データA
612 付加画像データB
110 Presentation Device 200 Presentation Data 201 Presentation Image Data 202 Presentation Document Data 500 Audio Comparison Result Table 600 Presentation Data 601 Presentation Image Data 602 Presentation Document Data 611 Additional Image Data A
612 Additional image data B

Claims (10)

表示装置に画像データを出力する画像出力装置であって、
画像データと、前記画像データに対応付けた文書データとを組み合わせたページ単位のプレゼンテーションデータを複数ページ分について記憶する記憶手段と、
前記記憶手段に記憶された複数ページ分の画像データを、ページ切り替え指示に基づいて1ページずつ切り替えて前記表示装置へ出力する画像出力手段と、
前記プレゼンテーションデータの説明者の音声を認識する音声認識手段と、
第1ページの画像データの前記表示装置による表示中に、前記第1ページの文書データに含まれるページ切り替えのためのデータに対応する前記認識結果が入力された場合、前記表示装置へ出力する画像データを、前記第1ページの画像データから前記第1ページに引き続く第2ページの画像データに切り替えるための前記ページ切り替え指示を前記画像出力手段に出力するページ切り替え指示手段と、
を有することを特徴とする画像出力装置。
An image output device that outputs image data to a display device,
Storage means for storing, for a plurality of pages, page-by-page presentation data combining image data and document data associated with the image data;
Image output means for switching the image data for a plurality of pages stored in the storage means to the display device by switching one page at a time based on a page switching instruction;
Voice recognition means for recognizing the voice of the presenter of the presentation data;
An image to be output to the display device when the recognition result corresponding to the page switching data included in the document data of the first page is input during the display of the image data of the first page by the display device Page switching instruction means for outputting the page switching instruction for switching the data from the image data of the first page to the image data of the second page following the first page, to the image output means;
An image output apparatus comprising:
前記画像データは、背景画像データと前記背景画像データに付加する付加画像データとを含み、
前記文書データは、前記付加画像データに対応付けた前記付加画像データを表示させるためのデータを含み、
第1ページの背景画像データの前記表示装置による表示中に、前記第1ページの文書データに含まれる前記付加画像データを表示させるためのデータに対応する前記認識結果が入力された場合、前記第1ページの背景画像データに前記付加画像データを付加する指示を前記画像出力手段に出力する付加画像データ指示手段と、
を有することを特徴とする請求項1に記載の画像出力装置。
The image data includes background image data and additional image data to be added to the background image data,
The document data includes data for displaying the additional image data associated with the additional image data,
When the recognition result corresponding to the data for displaying the additional image data included in the document data of the first page is input during the display of the background image data of the first page by the display device, Additional image data instruction means for outputting an instruction to add the additional image data to one page of background image data to the image output means;
The image output apparatus according to claim 1, further comprising:
前記文書データは、ページ切り替えのためのデータを複数含み、
前記ページ切り替え指示手段は、前記音声認識手段の複数の認識結果と前記ページ切り替えのための複数のデータが一致する場合、前記ページ切り替え指示を前記画像出力手段に出力することを特徴とする請求項1又は2に記載の画像出力装置。
The document data includes a plurality of data for page switching,
The page switching instruction means outputs the page switching instruction to the image output means when a plurality of recognition results of the voice recognition means and a plurality of data for page switching match. The image output apparatus according to 1 or 2.
紙原稿を読み取って前記画像データと前記文書データとを組み合わせたページ単位のプレゼンテーションデータを生成する生成手段とを有し、
前記記憶手段は、前記生成手段が生成した前記ページ単位のプレゼンテーションデータを記憶することを特徴とする請求項1乃至3のいずれかに記載の画像出力装置。
Generating means for generating presentation data in units of pages by reading a paper original and combining the image data and the document data;
The image output apparatus according to claim 1, wherein the storage unit stores the presentation data in units of pages generated by the generation unit.
前記説明者によるページ切り替え指示を受け付け、前記ページ切り替え指示を前記画像出力手段に出力する第2のページ切り替え指示手段を有することを特徴とする請求項1乃至4のいずれかに記載の画像出力装置。   5. The image output apparatus according to claim 1, further comprising a second page switching instruction unit that receives a page switching instruction by the explainer and outputs the page switching instruction to the image output unit. 6. . 複数ページの画像データを切り替えて表示装置に出力する画像出力方法であって、
第1ページの画像データの前記表示装置による表示中に、前記画像データの説明者の音声を認識する音声認識工程と、
前記第1ページの画像データに対応付けられた文書データに含まれるページ切り替えのためのデータに対応する認識結果が前記音声認識工程にて入力された場合、前記表示装置へ出力する画像データを、前記第1ページの画像データから前記第1ページに引き続く第2ページの画像データに切り替える−ページ切り替え工程と、
を有することを特徴とする画像出力方法。
An image output method for switching image data of a plurality of pages and outputting it to a display device,
A voice recognition step of recognizing the voice of the explainer of the image data during the display of the image data of the first page by the display device;
When the recognition result corresponding to the data for page switching included in the document data associated with the image data of the first page is input in the voice recognition step, the image data to be output to the display device is Switching from image data of the first page to image data of a second page subsequent to the first page-a page switching step;
An image output method comprising:
前記画像データは、背景画像データと前記背景画像データに付加する付加画像データを含み、
前記文書データは、前記付加画像データに対応付けた前記付加画像データを表示させるためのデータを含み、
第1ページの背景画像データの前記表示装置による表示中に、前記第1ページの文書データに含まれる前記付加画像データを表示させるためのデータに対応する前記認識結果が入力された場合、前記第1ページの背景画像データに前記付加画像データを付加して出力する付加工程と、
を有することを特徴とする請求項6に記載の画像出力方法。
The image data includes background image data and additional image data to be added to the background image data,
The document data includes data for displaying the additional image data associated with the additional image data,
When the recognition result corresponding to the data for displaying the additional image data included in the document data of the first page is input during the display of the background image data of the first page by the display device, An additional step of adding the additional image data to the output of one page of the background image data and outputting;
The image output method according to claim 6, further comprising:
前記文書データは、ページ切り替えのためのデータを複数含み、
前記ページ切り替え指示工程は、前記音声認識工程の複数の認識結果と前記ページ切り替えのための複数のデータが一致する場合に前記第1ページの画像データから前記第2ページの画像データに切り替えることを特徴とする請求項6又は7に記載の画像出力方法。
The document data includes a plurality of data for page switching,
The page switching instruction step switches from the image data of the first page to the image data of the second page when a plurality of recognition results in the voice recognition step and a plurality of data for page switching match. The image output method according to claim 6, wherein the image output method is characterized in that:
紙原稿を読み取って前記画像データと前記文書データとを組み合わせたページ単位のプレゼンテーションデータを生成する生成工程とを有することを特徴とする請求項6乃至8のいずれかに記載の画像出力方法。   The image output method according to claim 6, further comprising a generation step of reading a paper document and generating presentation data in units of pages by combining the image data and the document data. 前記説明者によるページ切り替え指示を受け付け、前記第1ページのプレゼンテーション画像データを前記第2ページのプレゼンテーション画像データに切り替える第2のページ切り替え工程を有することを特徴とする請求項6乃至9のいずれかに記載の画像出力方法。   10. The method according to claim 6, further comprising: a second page switching step of receiving a page switching instruction from the presenter and switching the presentation image data of the first page to the presentation image data of the second page. The image output method described in 1.
JP2006344274A 2006-12-21 2006-12-21 Image output device and image output method Withdrawn JP2008158630A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006344274A JP2008158630A (en) 2006-12-21 2006-12-21 Image output device and image output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006344274A JP2008158630A (en) 2006-12-21 2006-12-21 Image output device and image output method

Publications (1)

Publication Number Publication Date
JP2008158630A true JP2008158630A (en) 2008-07-10

Family

ID=39659494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006344274A Withdrawn JP2008158630A (en) 2006-12-21 2006-12-21 Image output device and image output method

Country Status (1)

Country Link
JP (1) JP2008158630A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013186493A (en) * 2012-03-05 2013-09-19 Toshiba Tec Corp Content creation device and program
JP2018133009A (en) * 2017-02-17 2018-08-23 コニカミノルタ株式会社 Information processing apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013186493A (en) * 2012-03-05 2013-09-19 Toshiba Tec Corp Content creation device and program
JP2018133009A (en) * 2017-02-17 2018-08-23 コニカミノルタ株式会社 Information processing apparatus
JP7005905B2 (en) 2017-02-17 2022-01-24 コニカミノルタ株式会社 Information processing equipment

Similar Documents

Publication Publication Date Title
JP5257330B2 (en) Statement recording device, statement recording method, program, and recording medium
JP2000081892A (en) Device and method of adding sound effect
JP6336749B2 (en) Speech synthesis system and speech synthesis method
CN110740275A (en) nonlinear editing systems
EP2442299A2 (en) Information processing apparatus, information processing method, and program
JP7200533B2 (en) Information processing device and program
US20080243510A1 (en) Overlapping screen reading of non-sequential text
JP5079718B2 (en) Foreign language learning support system and program
JP2008268478A (en) Accent adjustable speech synthesizer
JP2006065675A (en) Data search method and apparatus
CN110782899B (en) Information processing apparatus, storage medium, and information processing method
JP2008158630A (en) Image output device and image output method
JP4738847B2 (en) Data retrieval apparatus and method
WO2020121638A1 (en) Information processing device, information processing system, information processing method, and program
TWI782436B (en) Display system and method of interacting with the same
JP2005004100A (en) Listening system and voice synthesizer
JP5975033B2 (en) Speech synthesis apparatus, speech synthesis method, and speech synthesis program
JP2004171174A (en) Device and program for reading text aloud, and recording medium
JP2020197957A (en) Idea support device, idea support system and program
JP5125404B2 (en) Abbreviation determination device, computer program, text analysis device, and speech synthesis device
JP2000214874A (en) Sound synthesizing apparatus and its method, and computer-readable memory
KR101030777B1 (en) Method and apparatus for producing script data
JP3414326B2 (en) Speech synthesis dictionary registration apparatus and method
JP2006047866A (en) Electronic dictionary device and control method thereof
JP6640788B2 (en) Language conversion program and language conversion device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100302