JP2006065588A - Information reading device, information reading program, and information reading program recording medium - Google Patents

Information reading device, information reading program, and information reading program recording medium Download PDF

Info

Publication number
JP2006065588A
JP2006065588A JP2004247366A JP2004247366A JP2006065588A JP 2006065588 A JP2006065588 A JP 2006065588A JP 2004247366 A JP2004247366 A JP 2004247366A JP 2004247366 A JP2004247366 A JP 2004247366A JP 2006065588 A JP2006065588 A JP 2006065588A
Authority
JP
Japan
Prior art keywords
data
character string
display
link
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004247366A
Other languages
Japanese (ja)
Inventor
Kenichi Kumagai
建一 熊谷
Yoshihiro Kitamura
義弘 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004247366A priority Critical patent/JP2006065588A/en
Publication of JP2006065588A publication Critical patent/JP2006065588A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable a user to easily produce link data for a document only for reading, and to reduce a burden on a reader when a link character string is displayed. <P>SOLUTION: The information reading device comprises a storage device 3 for storing first electronic data including text data and second electronic data including data recognizable as characters, an electronic document display control section 15 for producing data for display for displaying at least the first electronic data, a display device 5 for displaying the data for display, an input device 2 allowing an input operation, a character string input processing section 10 for specifying a specific character string in the first electronic data as a selected character string based on an input from the input device 2, a data retrieval section 12 that recognizes a character from the second electronic data and retrieves a character string acting as a reference character string matching with the selected string for the recognition result, and a link data producing section 14 for producing the link data indicating an association between the selected string and the data position of the reference character string. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、電子書籍などの電子ドキュメントを、利用者が容易に理解でき、かつ、利用者にとって使い勝手の良い、情報閲覧装置、情報閲覧プログラム及び情報閲覧プログラム記録媒体に関する。   The present invention relates to an information browsing apparatus, an information browsing program, and an information browsing program recording medium that allow a user to easily understand an electronic document such as an electronic book and that is convenient for the user.

現在、多くの電子ドキュメントはテキストデータ、画像データや音データなどから構成される。例えば、テキストデータと画像データから構成されるドキュメントなどでは、テキストデータと画像データとが別々のファイルに分離して記述されたり、同一ファイル内の離れた位置に記述されたりする。そして、ドキュメント作成者は1つの画像データに図番号などを割当てておき、テキストデータ中にて図番号を書き、読者に画像データを参照しながら文字にて説明を行う。   Currently, many electronic documents are composed of text data, image data, sound data, and the like. For example, in a document composed of text data and image data, the text data and the image data are described separately in separate files, or are described at separate positions in the same file. Then, the document creator assigns a figure number or the like to one image data, writes the figure number in the text data, and explains in text while referring to the image data to the reader.

しかしながら、上記のようなテキストデータと画像データとが互いに離れた位置にある電子ドキュメントのテキストデータを読んでいる途中に画像データを見ようとすると、いちいち画像データがある位置に画面をスクロールしなければならない。   However, if the user tries to view the image data while reading the text data of the electronic document in which the text data and the image data are separated from each other, the screen must be scrolled to the position where the image data exists. Don't be.

同様にテキストデータと音データとが互いに離れた位置にある電子ドキュメントのテキストデータを読んでいる途中に関連する音データを聞こうとすると、音データをいちいち探してから再生しなければならない。   Similarly, if the user wants to listen to sound data related to the text data and the sound data that are separated from each other while reading the text data of the electronic document, the sound data must be searched and reproduced.

そこで、例えば、ドキュメント作成者がテキストデータ中にある図番号を表す文字列とそれに対応した画像データや音データなどをあらかじめ関連付けておき(以下このように関連付けられた文字列をリンク文字列と呼ぶ)、読者がそのリンク文字列を指定すると、それに対応したデータにジャンプし、データを表示あるいは再生させる技術がある。   Therefore, for example, a document creator associates a character string representing a figure number in text data with image data or sound data corresponding to the character string in advance (hereinafter, the character string thus associated is referred to as a link character string). ), When the reader designates the link character string, there is a technique for jumping to the corresponding data and displaying or reproducing the data.

そのようなリンク文字列を作成する先行技術として、特開平6−314230(以下第1従来技術と称する)及び特開2003−308314(以下第2従来技術と称する)がある。   As prior arts for creating such a link character string, there are JP-A-6-314230 (hereinafter referred to as the first prior art) and JP-A-2003-308314 (hereinafter referred to as the second prior art).

第1従来技術では、あるデータを参照する参照体データと、その参照体データから参照される被参照データを同時に表示して、被参照体データを表す画像を参照体データにドラッグすることにより、任意の2つの電子データを関連付けることができる。図20を用いて第1従来技術を具体的に説明する。   In the first prior art, by simultaneously displaying reference object data referring to certain data and referenced data referenced from the reference object data, and dragging an image representing the referenced object data to the reference object data, Any two pieces of electronic data can be associated. The first prior art will be specifically described with reference to FIG.

利用者がマウスなどを使って、図20の文字列1001を参照体データとして指定すると、その文字列が参照文字列としてメモリに記憶される。そして、利用者が、被参照体データを表す画像1002を文字列1001の位置にドラッグさせると、CPUが文字列1001と被参照体画像1002とを関連付けて記憶する。   When the user designates the character string 1001 of FIG. 20 as reference body data using a mouse or the like, the character string is stored in the memory as a reference character string. When the user drags the image 1002 representing the referenced object data to the position of the character string 1001, the CPU stores the character string 1001 and the referenced object image 1002 in association with each other.

第2従来技術では、電子ドキュメントを作成している時に、現在作成している電子ドキュメントに関連するデータを提示することによって、その電子ドキュメントを他の電子データと関連付けることができる。図21のブロック図を用いて第2従来技術を具体的に説明する。   In the second prior art, when an electronic document is created, the electronic document can be associated with other electronic data by presenting data related to the currently created electronic document. The second prior art will be specifically described with reference to the block diagram of FIG.

文書入力部1101にて利用者が入力した単語列は、電子ドキュメントデータベース1105Bとして電子ドキュメント内の位置情報とともに記憶部1105に記憶され、また文書情報抽出部1102及び情報検索部1103へ渡される。文書情報抽出部1102は、形態素解析などにより文書入力部1101から渡された単語列から電子ドキュメントの検索キーとなる単語データなどを抽出し、それを検索用データ1105Aとして記憶部1105に記憶する。情報検索部1103は、文書入力部1101にて入力された単語列と、検索用データ1105Aの検索キーとが一致するか否かを判定し、電子ドキュメントデータベース1105Bの中で一致した検索キーをもつ電子ドキュメントを検索する。文書情報提示部1104は、上記の検索により該当した類似電子ドキュメントを表示する。
特開平6−314230号公報(平成6年11月8日公開) 特開2003−308314号公報(平成15年10月31日公開)
The word string input by the user in the document input unit 1101 is stored in the storage unit 1105 together with position information in the electronic document as an electronic document database 1105B, and is passed to the document information extraction unit 1102 and the information search unit 1103. The document information extraction unit 1102 extracts word data or the like serving as a search key for an electronic document from a word string passed from the document input unit 1101 by morphological analysis or the like, and stores it in the storage unit 1105 as search data 1105A. The information search unit 1103 determines whether the word string input by the document input unit 1101 matches the search key of the search data 1105A, and has a search key that matches in the electronic document database 1105B. Search for electronic documents. The document information presentation unit 1104 displays the similar electronic document corresponding to the search.
JP-A-6-314230 (published on November 8, 1994) JP 2003-308314 A (published October 31, 2003)

しかしながら、従来技術において、ドキュメント作成者以外の者がリンク文字列を作成する場合には、他人の作成した文書構成を把握する必要があるので、リンク文字列を作成するのに多大な労力が必要となる。以下、各従来技術についてこの課題を詳細に説明する。   However, in the prior art, when a person other than the document creator creates a link character string, it is necessary to grasp the document structure created by another person, so a great deal of effort is required to create the link character string. It becomes. Hereinafter, this problem will be described in detail for each conventional technique.

第1従来技術では、参照体データと被参照体データとを関連付けるために、利用者が手動で被参照体データを探さなければならないので、リンク文字列を作成するのに多大な労力が必要となる。   In the first prior art, in order to associate the reference object data with the referenced object data, the user must manually search for the referenced object data, so a great amount of labor is required to create the link character string. Become.

第2従来技術では、利用者があるテキスト文字列とある画像データとを関連付けるためにそのテキスト文字列に関連した画像を検索する場合に、そのテキスト文字列と画像データの近傍位置のテキスト文字列とを比較し、比較により一致した文字列の近傍にある画像データを検索に該当すると想定していた。このため、画像データの説明あるいは補足をしたテキスト文字列がない場合、利用者は所望の画像データを検索できないので、リンク文字列を作成するのに多大な労力が必要となる。   In the second prior art, when a user searches for an image related to a text character string in order to associate a text character string with a certain image data, the text character string at a position near the text character string and the image data. And the image data in the vicinity of the character string matched by the comparison is assumed to correspond to the search. For this reason, if there is no text character string that explains or supplements image data, the user cannot search for desired image data, and thus a great amount of labor is required to create a link character string.

本発明は、上記の課題を解決するためになされたものであって、多様な形態の電子ドキュメントにおいても利用者が簡単にリンク文字列を作成することができる情報閲覧装置、情報閲覧プログラム及び情報閲覧プログラム記録媒体の提供を目的としている。   The present invention has been made to solve the above-described problem, and is an information browsing apparatus, an information browsing program, and information that allow a user to easily create a link character string even in various forms of electronic documents. The purpose is to provide a browsing program recording medium.

(発明のポイント)
上記課題を解決する発明の要点は、以下のようにまとめることができる。
1.表示装置に表示されている電子ドキュメントから選択された文字列を、同一の電子ドキュメントや他の電子ドキュメントから検索して、電子ドキュメントの検索により該当したデータ部分を表示する。従って、利用者は、特定文字列に関連付けたいデータを指定する手間が省ける。
2.特定データが関連付けられた文字列を表示する場合には、その関連付けられた特定データも同時に表示する。関連付けたデータを自動的に表示することによって、利用者は表示された電子ドキュメントを容易に理解できる。
(Point of invention)
The main points of the invention for solving the above-mentioned problems can be summarized as follows.
1. A character string selected from the electronic document displayed on the display device is searched from the same electronic document or another electronic document, and the corresponding data portion is displayed by searching the electronic document. Therefore, the user can save time and effort to specify data to be associated with the specific character string.
2. When displaying a character string associated with specific data, the associated specific data is also displayed. By automatically displaying the associated data, the user can easily understand the displayed electronic document.

本発明と作用・効果の対応について、以下で詳細な説明を述べる。
本発明の情報閲覧装置は、テキストデータを含む第1の電子データ、および文字として認識可能なデータを含む第2の電子データを記憶する記憶手段と、少なくとも第1の電子データ表示するための表示用データを作成する表示用データ作成手段と、前記表示用データを表示する表示手段と、入力操作が可能な入力手段と、前記入力手段からの入力に基づいて第1の電子データにおける特定の文字列を選択文字列として指定する文字列入力処理手段と、第2の電子データから文字を認識する認識手段と、前記認識手段による認識結果に対して、前記選択文字列と一致する参照文字列となる文字列を検索する検索手段と、前記選択文字列と前記参照文字列のデータ位置との関連付けを示すリンクデータを作成するリンクデータ作成手段とを備えたことを特徴としている。
A detailed description of the correspondence between the present invention and the action / effect will be given below.
The information browsing apparatus according to the present invention includes storage means for storing first electronic data including text data and second electronic data including data recognizable as characters, and a display for displaying at least the first electronic data. Display data creation means for creating data, display means for displaying the display data, input means capable of input operation, and a specific character in the first electronic data based on the input from the input means A character string input processing means for designating a string as a selected character string; a recognition means for recognizing characters from second electronic data; and a reference character string that matches the selected character string with respect to a recognition result by the recognition means; Search means for searching for a character string, and link data creation means for creating link data indicating an association between the selected character string and the data position of the reference character string It is characterized in that.

なお、第1の電子データと第2の電子データは同一の電子ドキュメントファイルに含まれているもの、あるいは異なる電子ドキュメントファイルに含まれているものの何れでもよい。   The first electronic data and the second electronic data may be included in the same electronic document file or included in different electronic document files.

上記のように、本情報閲覧装置では、前記認識手段、前記検索手段及び前記リンクデータ作成手段を備えるので、関連付けたいデータ種類がテキストデータ以外であっても、簡単にリンクデータを作成することができる。例えば利用者が書き換えることができない読込専用ドキュメントにおいてもリンクデータを作成できる。   As described above, since the information browsing apparatus includes the recognition unit, the search unit, and the link data creation unit, link data can be easily created even if the data type to be associated is other than text data. it can. For example, link data can be created even in a read-only document that cannot be rewritten by the user.

上記情報閲覧装置において、第2の電子データは文字を含む画像データであり、前記認識手段はこの画像データから文字を認識する構成としても良い。   In the information browsing apparatus, the second electronic data may be image data including a character, and the recognition unit may recognize the character from the image data.

上記のように、本情報閲覧装置では、前記認識手段を備えるので、利用者は関連付けたいデータ種類が画像データであっても、簡単にリンクデータを作成することができる。   As described above, since the information browsing apparatus includes the recognition unit, the user can easily create link data even if the data type to be associated is image data.

上記情報閲覧装置は、前記表示用データ作成手段にて作成された表示用データ中に、上記リンクデータにて示される参照文字列が存在するか否かを判定する文字列有無判定手段と、前記文字列有無判定手段にて前記参照文字列が存在すると判定された場合に、第2の電子データの、前記参照文字列を含む領域の少なくとも一部が、参照データとして第1の電子データと共に前記表示手段に表示されるように、表示用データ作成手段を制御する表示制御手段とをさらに備えた構成としても良い。   The information browsing apparatus includes a character string presence / absence determining unit that determines whether or not a reference character string indicated by the link data exists in the display data created by the display data creating unit; When it is determined by the character string presence / absence determining means that the reference character string exists, at least a part of the second electronic data including the reference character string is used as reference data together with the first electronic data. A display control means for controlling the display data creation means so as to be displayed on the display means may be further provided.

上記構成によれば、前記文字列有無判定手段及び前記表示制御手段を備えるので、利用者はリンク文字列をマウスなどでクリックし、前記選択文字列に関連付けられた参照データの位置へジャンプする手間がかからない。   According to the above configuration, since the character string presence / absence determination unit and the display control unit are provided, the user clicks on the link character string with a mouse or the like and jumps to the position of the reference data associated with the selected character string. It does not take.

上記情報閲覧装置は、前記参照データの前記表示手段における表示位置を設定する表示位置設定手段をさらに備える構成としても良い。   The information browsing apparatus may further include a display position setting unit that sets a display position of the reference data on the display unit.

上記構成によれば、前記表示位置設定手段を備えるので、利用者は自分の好みに応じて、前記参照データを表示する画面上の位置を設定できる。   According to the above configuration, since the display position setting means is provided, the user can set the position on the screen for displaying the reference data according to his / her preference.

上記情報閲覧装置において、前記表示位置設定手段は、前記参照データの一部の領域を前記表示手段に表示する場合において、該参照データの前記表示手段に表示する領域の初期位置を設定する構成としても良い。   In the information browsing apparatus, the display position setting unit sets an initial position of a region to be displayed on the display unit of the reference data when the partial region of the reference data is displayed on the display unit. Also good.

上記構成によれば、前記表示位置設定手段を備えるので、表示手段に表示される参照データの初期位置を設定でき、利用者が所望の参照データ位置を見るために機器を操作をする手間が必要ない。   According to the above configuration, since the display position setting means is provided, the initial position of the reference data displayed on the display means can be set, and the user needs to operate the device in order to see the desired reference data position. Absent.

上記情報閲覧装置において、前記表示制御手段は、前記表示手段に表示されている第1の電子データにおける選択文字列、およびこの選択文字列に関連付けられている、前記参照データにおける参照文字列が他のデータと識別可能に表示されるように、前期表示用データ作成手段を制御する構成としても良い。   In the information browsing apparatus, the display control unit may include a selected character string in the first electronic data displayed on the display unit and a reference character string in the reference data associated with the selected character string. The display data generation means for the previous period may be controlled so that it can be distinguished from the data.

上記構成によれば、前記表示制御手段を備えるので、例えば、テキストデータの文字列と、テキストデータのリンク文字列に関連付けられた図表データの文字列との関係を一目で把握できるので、使い勝手が良い。なお、他のデータと識別可能に表示されるとは、例えば他のデータと異なる表示形態にて表示されることである。   According to the above configuration, since the display control means is provided, for example, the relationship between the character string of the text data and the character string of the chart data associated with the link character string of the text data can be grasped at a glance. good. Note that “displayed in a distinguishable manner from other data” means, for example, that the data is displayed in a different display form from the other data.

上記情報閲覧装置は、前記参照データの前記表示手段に表示されている領域における文字として認識可能なデータをテキストデータに変換する変換手段をさらに備えている構成としても良い。   The information browsing apparatus may further include a conversion unit that converts data recognizable as characters in the area of the reference data displayed on the display unit into text data.

上記構成によれば、文字として認識可能な領域を前記選択文字列に関連付けられたデータの、前記表示手段に表示されている領域に限定するので、認識に要する計算の量を削減できる。また、利用者はテキストデータと、テキストデータの前記選択文字列に関連付けられた図表データとの文字列を同時に見ながら、リンクデータを作成できるので、使い勝手が良い。   According to the above configuration, since the area recognizable as a character is limited to the area displayed on the display means of the data associated with the selected character string, the amount of calculation required for recognition can be reduced. Further, since the user can create link data while simultaneously viewing the text data and the character string of the chart data associated with the selected character string of the text data, it is easy to use.

上記情報閲覧装置において、第2の電子データは音声データであり、前記認識手段は音声認識手段であることを特徴とする構成としても良い。   In the information browsing apparatus, the second electronic data may be voice data, and the recognition unit may be a voice recognition unit.

上記構成によれば、前記認識手段を備えるので、電子ドキュメントを閲覧している途中にある単語に関連した音声データを検索する必要がない。   According to the above configuration, since the recognition unit is provided, it is not necessary to search for voice data related to a word in the middle of browsing an electronic document.

上記情報閲覧装置において、リンクデータ作成手段が作成する前記リンクデータには、前記音声データ中における前記参照文字列に対応するデータの存在位置を示す時間情報が含まれている構成としても良い。   In the information browsing apparatus, the link data created by the link data creating unit may include time information indicating the location of data corresponding to the reference character string in the voice data.

上記構成によれば、前記リンクデータ作成手段を備え、参照文字列に対応する音データの存在位置を示す時間情報を関連付けるので、音の早送りや頭だしなどの手間を省くことができる。   According to the above configuration, since the link data creating means is provided and time information indicating the position of the sound data corresponding to the reference character string is associated, it is possible to save troubles such as fast-forwarding of the sound and cueing.

以上のように、本発明の情報閲覧装置は、テキストデータを含む第1の電子データ、および文字として認識可能なデータを含む第2の電子データを記憶する記憶手段と、少なくとも第1の電子データを表示するための表示用データを作成する表示用データ作成手段と、表示手段と、入力手段と、前記入力手段からの入力に基づいて第1の電子データにおける特定の文字列を選択文字列として指定する文字列入力処理手段と、第2の電子データから文字を認識する認識手段と、前記認識手段による認識結果に対して、前記選択文字列と一致する参照文字列となる文字列を検索する検索手段と、前記選択文字列と前記参照文字列のデータ位置との関連付けを示すリンクデータを作成するリンクデータ作成手段とを備えた構成である。   As described above, the information browsing apparatus of the present invention includes the storage means for storing the first electronic data including text data and the second electronic data including data recognizable as characters, and at least the first electronic data. Display data creation means for creating display data for displaying the display, display means, input means, and a specific character string in the first electronic data based on the input from the input means as a selected character string A character string input processing means to be designated, a recognition means for recognizing characters from the second electronic data, and a character string to be a reference character string that matches the selected character string is searched for the recognition result by the recognition means It is a configuration comprising search means and link data creation means for creating link data indicating the association between the selected character string and the data position of the reference character string.

これにより、関連付けたいデータ種類がテキストデータ以外であっても、簡単にリンクデータを作成することができる。例えば利用者が書き換えることができない読込専用ドキュメントにおいてもリンクデータを作成できる。   Thereby, even if the data type to be associated is other than text data, link data can be easily created. For example, link data can be created even in a read-only document that cannot be rewritten by the user.

以下添付図面を参照して本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the accompanying drawings.

[ハードウェアの構成]
図2を用いて、本発明の実施形態におけるハードウェア構成について説明する。図2の情報閲覧装置は、制御装置1、入力装置2、記憶装置3、外部記憶媒体読書き装置4、表示装置5及び通信装置6によって構成され、各部はバス7によって接続される。
[Hardware configuration]
A hardware configuration according to the embodiment of the present invention will be described with reference to FIG. The information browsing apparatus in FIG. 2 includes a control device 1, an input device 2, a storage device 3, an external storage medium reading / writing device 4, a display device 5, and a communication device 6, and each unit is connected by a bus 7.

制御装置1は、プリプロセッサやメモリなどにより構成され、例えば記憶装置3が記憶している制御プログラムに従って動作する。さらに具体的には、後述する機能部による処理結果を記憶装置3に保存するとともに、記憶装置3が記憶しているデータ(以下記憶装置3のデータと略記する)を表示装置5及び通信装置6に出力する。   The control device 1 is configured by a preprocessor, a memory, and the like, and operates according to a control program stored in the storage device 3, for example. More specifically, the processing results of the functional units described later are stored in the storage device 3, and data stored in the storage device 3 (hereinafter abbreviated as data in the storage device 3) are displayed on the display device 5 and the communication device 6. Output to.

入力装置2は、カーソルキーなどの各種キーを備えたキーボード、ジョグダイヤル、手書きOCR、あるいはポインティングデバイス(例えばマウス)などによって構成され、入力装置2によって入力された信号(例えばキーボードで押下されたキーの信号)を制御装置1へ出力する。また、マイク、A/Dコンバータ及び音声認識エンジンを別途備え、音声入力を用いても良い。   The input device 2 is composed of a keyboard having various keys such as cursor keys, a jog dial, a handwritten OCR, or a pointing device (for example, a mouse). A signal input by the input device 2 (for example, a key pressed on the keyboard) Signal) to the control device 1. Further, a microphone, an A / D converter, and a voice recognition engine may be separately provided and voice input may be used.

記憶装置3は、RAMあるいはROMなどによって構成され、入力データ、一時データ及び処理データを保存するためのワークエリアを有す。   The storage device 3 is constituted by a RAM or a ROM, and has a work area for storing input data, temporary data, and processing data.

また、記憶装置3は、テキスト、画像データあるいは音データなどから構成される電子ドキュメント3Bを記憶している。電子ドキュメント3Bは、例えば、XML(eXtensible Markup Language)フォーマットなどで記述しておけば良い。勿論、これらの電子ドキュメントは複数記憶することが可能である。   The storage device 3 stores an electronic document 3B composed of text, image data, sound data, or the like. The electronic document 3B may be described in, for example, an XML (extensible Markup Language) format. Of course, a plurality of these electronic documents can be stored.

また、記憶装置3は、文字列のデータ位置と画像データなどの電子データのデータ位置との関連付けを示すリンクデータを記憶する。このリンクデータの構造については後述する。   The storage device 3 also stores link data indicating the association between the data position of the character string and the data position of electronic data such as image data. The structure of this link data will be described later.

外部記憶媒体読書き装置4は、SDメモリカード用リーダーライターなどによって構成され、記憶装置3に記憶されているデータの外部記憶媒体への書込み、及び外部記憶媒体のデータの記憶装置3への読込みを行う。   The external storage medium read / write device 4 is composed of a reader / writer for an SD memory card, etc., and writes data stored in the storage device 3 to the external storage medium and reads data from the external storage medium to the storage device 3. I do.

表示装置5は、CRTや液晶モニタなどにより構成され、記憶装置3のデータを表示する。   The display device 5 includes a CRT, a liquid crystal monitor, and the like, and displays data in the storage device 3.

通信装置6は、ネットワークインタフェースカードなどにより構成され、ネットワークケーブルなどを介して接続されたサーバ装置とデータの送受信を行う。   The communication device 6 is configured by a network interface card or the like, and transmits / receives data to / from a server device connected via a network cable or the like.

[ブロック図による機能構成]
ここで、図1のブロック図を用いて、本実施の形態における情報閲覧装置の機能構成を説明する。この情報閲覧装置は、入力装置2、記憶装置3、表示装置5及び制御装置1、並びに制御装置1が実行するプログラムによって構成される文字列入力処理部10、検索範囲指定部11、データ検索部12、候補データ表示制御部13、リンクデータ作成部14及び電子ドキュメント表示制御部15を備える。
[Functional configuration based on block diagram]
Here, the functional configuration of the information browsing apparatus in the present embodiment will be described using the block diagram of FIG. The information browsing device includes an input device 2, a storage device 3, a display device 5, a control device 1, and a character string input processing unit 10, a search range specifying unit 11, and a data search unit configured by a program executed by the control device 1. 12, a candidate data display control unit 13, a link data creation unit 14, and an electronic document display control unit 15.

電子ドキュメント表示制御部15は、電子ドキュメントのフォーマットを解釈し、それを表示装置5に表示するための表示用データを作成する。さらに、表示用データの中に、他のデータにリンクしているデータが存在するか否かを判定し、その判定結果に基づいて表示用データを変更する。電子ドキュメント表示制御部15の処理については後に詳細に述べる。   The electronic document display control unit 15 interprets the format of the electronic document and creates display data for displaying it on the display device 5. Furthermore, it is determined whether or not there is data linked to other data in the display data, and the display data is changed based on the determination result. The processing of the electronic document display control unit 15 will be described in detail later.

文字列入力処理部10は、表示装置5に表示されている電子ドキュメントの内で利用者が入力装置2を用いて選択した文字列及びその文字列のファイル位置を記憶装置3のワークエリアに記憶する。以下の説明では、文字列入力処理部10にて入力された文字列を単に入力選択文字列と呼ぶ。   The character string input processing unit 10 stores the character string selected by the user using the input device 2 in the electronic document displayed on the display device 5 and the file position of the character string in the work area of the storage device 3. To do. In the following description, a character string input by the character string input processing unit 10 is simply referred to as an input selection character string.

検索範囲指定部11は、利用者が入力装置2を用いて指定した、電子ドキュメント3B、あるいは電子ドキュメント3Bの特定位置をワークエリアに記憶する。検索範囲指定部11が指定する範囲は、データ検索部12の検索対象となる。勿論、利用者が何も選択していない場合、つまり検索範囲指定部11が何も指定していない場合は、記憶装置3に記憶されている全電子ドキュメント3Bを検索しても良い。   The search range designation unit 11 stores the electronic document 3B designated by the user using the input device 2 or a specific position of the electronic document 3B in the work area. The range specified by the search range specifying unit 11 is a search target of the data search unit 12. Of course, when the user has not selected anything, that is, when the search range specifying unit 11 has not specified anything, all the electronic documents 3B stored in the storage device 3 may be searched.

データ検索部12は、検索範囲指定部11が指定する電子ドキュメント3Bの範囲内において、入力選択文字列と同じ文字列を含む画像データ、音データや動画データなどのマルチメディアデータを検索する。データ検索部12の処理は、後に詳細に説明する。   The data search unit 12 searches for multimedia data such as image data, sound data, and moving image data including the same character string as the input selection character string within the range of the electronic document 3B specified by the search range specifying unit 11. The processing of the data search unit 12 will be described in detail later.

候補データ表示制御部13は、データ検索部12の検索により該当したデータからなる候補リストを作成し、その候補リストを表示装置5に表示する。   The candidate data display control unit 13 creates a candidate list including the corresponding data by the search of the data search unit 12 and displays the candidate list on the display device 5.

リンクデータ作成部14は、候補データ表示制御部13の動作にて表示装置5に表示された候補リストの内で利用者が入力装置2を用いて選択した候補と、入力選択文字列とを関連付ける。以下、入力選択文字列と関連付けられた文字列をリンク文字列(参照文字列)、入力選択文字列に関連付けられたデータを被リンクデータと呼ぶ。この被リンクデータは、図10に示すように、リンク文字列の少なくともデータ位置を示す情報を含むものである。そして、リンクデータ作成部14は、それらの関連付けを示すリンクデータを記憶装置3に保存する。リンクデータ作成部14の処理は、後に詳細に説明する。   The link data creation unit 14 associates the candidate selected by the user using the input device 2 in the candidate list displayed on the display device 5 by the operation of the candidate data display control unit 13 with the input selection character string. . Hereinafter, a character string associated with the input selection character string is referred to as a link character string (reference character string), and data associated with the input selection character string is referred to as linked data. As shown in FIG. 10, the linked data includes at least information indicating the data position of the link character string. Then, the link data creation unit 14 stores link data indicating their association in the storage device 3. The processing of the link data creation unit 14 will be described in detail later.

尚、図1の実施形態に通信装置6を加え、サーバ・クライアントシステムとしてのクライアント装置とし、記憶装置3に記憶されているリンクデータ3A及び電子ドキュメント3Bをサーバ装置の記憶装置に記憶させても良い。   1 may be added as a client device as a server / client system, and the link data 3A and the electronic document 3B stored in the storage device 3 may be stored in the storage device of the server device. good.

[フローチャートによる動作例]
(情報閲覧装置の動作の概要)
図3のフローチャートを用いて、情報閲覧装置の動作の概要について説明する。また、図4を用いて、図3のフローチャートに示した動作例について説明する。
[Operation example by flowchart]
(Outline of operation of information browsing device)
An outline of the operation of the information browsing apparatus will be described with reference to the flowchart of FIG. The operation example shown in the flowchart of FIG. 3 will be described with reference to FIG.

S1では、電子ドキュメント表示制御部15が、電子ドキュメントを表示装置5に表示するための表示用データを作成し、この表示用データを表示装置5が表示する。図4はS1の表示例を表している。S1の処理の詳細は後述する。   In S1, the electronic document display control unit 15 creates display data for displaying the electronic document on the display device 5, and the display device 5 displays the display data. FIG. 4 shows a display example of S1. Details of the processing of S1 will be described later.

S2では、文字入力処理部10が、利用者が入力装置2を用いて選択した文字列(入力選択文字列)及びその文字列が存在するファイル位置を記憶装置3のワークエリアに記憶する。図4では、利用者が文字列890“Figure 2”を選択しており、文字入力処理部10がその文字列及び文字列位置を記憶装置3のワークエリアに記憶している。   In S <b> 2, the character input processing unit 10 stores the character string (input selection character string) selected by the user using the input device 2 and the file position where the character string exists in the work area of the storage device 3. In FIG. 4, the user selects the character string 890 “FIGURE 2”, and the character input processing unit 10 stores the character string and the character string position in the work area of the storage device 3.

S3では、利用者が入力装置2を用いて指定した電子ドキュメント3B、あるいは電子ドキュメント3Bの特定範囲を検索範囲指定部11がワークエリアに記憶する。検索範囲指定部11がワークエリアに記憶した範囲、即ち検索範囲指定部11が指定する範囲は、データ検索部12の検索対象となる。尚、S3にて利用者が指定する電子ドキュメントは、表示装置5に表示されているファイル以外のものでも良い。例えば、異なる情報閲覧装置に記憶されているファイルであっても良い。   In S3, the search range designation unit 11 stores the electronic document 3B designated by the user using the input device 2 or a specific range of the electronic document 3B in the work area. The range stored in the work area by the search range specifying unit 11, that is, the range specified by the search range specifying unit 11 is a search target of the data search unit 12. Note that the electronic document designated by the user in S3 may be a file other than the file displayed on the display device 5. For example, it may be a file stored in a different information browsing device.

S4では、データ検索部12が、S3にて指定した電子ドキュメント範囲(検索範囲指定部11が指定する範囲)からS2にて記憶した入力選択文字列に関連する電子データを検索する。S4の処理の詳細は後述する。   In S4, the data search unit 12 searches for electronic data related to the input selection character string stored in S2 from the electronic document range specified in S3 (the range specified by the search range specifying unit 11). Details of the process of S4 will be described later.

S5では、候補データ表示制御部13が、S4の検索処理にて該当した検索結果を表示するための表示用データを作成する。このとき、複数の検索結果が存在した場合には、利用者にその検索結果の選択を促す表示を行い、利用者の入力に基づいて検索結果を決定しても良い。   In S5, the candidate data display control unit 13 creates display data for displaying the search result corresponding to the search process in S4. At this time, if there are a plurality of search results, a display prompting the user to select the search results may be displayed, and the search results may be determined based on the user's input.

S6では、リンクデータ作成部14が、S2にて記憶した入力選択文字列と、S5の検索結果の何れかに相当する電子データとの関連付けを示すリンクデータを作成する。S6の処理の詳細は後述する。   In S6, the link data creation unit 14 creates link data indicating the association between the input selection character string stored in S2 and the electronic data corresponding to any of the search results in S5. Details of the process of S6 will be described later.

(データ検索部12の処理)
まず、図5を用いて、データ検索部12の機能構成について詳しく説明する。データ検索部12は、オブジェクトデータ検出部120、テキスト検索部121、文字認識部122、音声認識部123及び動画処理部124から構成される。
(Processing of the data search unit 12)
First, the functional configuration of the data search unit 12 will be described in detail with reference to FIG. The data search unit 12 includes an object data detection unit 120, a text search unit 121, a character recognition unit 122, a voice recognition unit 123, and a moving image processing unit 124.

オブジェクトデータ検出部120は、検索範囲指定部11が指定する電子ドキュメント3B範囲に存在する、テキストデータ、画像データ、音データや動画データを検出する。   The object data detection unit 120 detects text data, image data, sound data, and moving image data that exist in the electronic document 3B range designated by the search range designation unit 11.

オブジェクトデータ検出部120がテキストデータを検出した場合には、テキスト検索部121がその検出したテキストデータ内において入力選択文字列に一致する文字列を検索し、検索に該当した文字列を検索結果として記憶装置3のワークエリアに保存する。   When the object data detection unit 120 detects the text data, the text search unit 121 searches the detected text data for a character string that matches the input selected character string, and uses the character string corresponding to the search as a search result. Save in the work area of the storage device 3.

オブジェクトデータ検出部120が画像データを検出した場合には、文字認識部122がその検出した画像データの文字認識を行い、さらに文字認識部122がその認識結果中において入力選択文字列に一致する文字列を検索し、検索に該当した文字列を検索結果として記憶装置3のワークエリアに保存する。   When the object data detection unit 120 detects image data, the character recognition unit 122 performs character recognition of the detected image data, and the character recognition unit 122 further matches the input selected character string in the recognition result. The column is searched, and the character string corresponding to the search is stored in the work area of the storage device 3 as a search result.

オブジェクトデータ検出部120が音データを検出した場合には、音声認識部123がその検出した音データの音声認識を行い、さらに音声認識部123がその認識結果中において入力選択文字列に一致する文字列を検索し、検索に該当した文字列を検索結果として記憶装置3のワークエリアに保存する。   When the object data detection unit 120 detects sound data, the voice recognition unit 123 performs voice recognition of the detected sound data, and the voice recognition unit 123 further matches the input selected character string in the recognition result. The column is searched, and the character string corresponding to the search is stored in the work area of the storage device 3 as a search result.

オブジェクトデータ検出部120が動画データを検出した場合には、動画処理部124がその動画データの各静止画像データに対して文字認識を行い、さらに動画データの音データに対して音声認識を行う。そして、さらに動画処理部124が上記処理と同様に各認識結果中に入力選択文字列に一致するものがあるか否かを検索し、検索に該当した文字列を検索結果として記憶装置3のワークエリアに保存する。   When the object data detection unit 120 detects moving image data, the moving image processing unit 124 performs character recognition for each still image data of the moving image data, and further performs voice recognition for sound data of the moving image data. Then, the moving image processing unit 124 searches whether there is a match with the input selected character string in each recognition result as in the above process, and uses the character string corresponding to the search as a search result. Save to area.

次に、図6のフローチャートを用いて、データ検索部12の処理(図3のS4に相当)について説明する。ここでは、図7のように表示装置5に表示されている電子ドキュメントにおける文字列900“Figure 2”を利用者が入力装置2を用いて選択した場合(つまり“Figure 2”が入力選択文字列の場合)、かつ利用者が入力装置2を用いて指定した結果、検索範囲指定部11が図8の電子ドキュメント範囲905を指定している場合を例として説明を補足する。また、検索範囲指定部11にて図9のような全て画像データで記述されている電子ドキュメント範囲905Bが指定された場合についても説明する。尚、検索範囲指定部11が指定する範囲は図7の電子ドキュメントと同一である必要はなく、別のファイルであっても良い。   Next, processing (corresponding to S4 in FIG. 3) of the data search unit 12 will be described using the flowchart in FIG. Here, as shown in FIG. 7, when the user selects the character string 900 “FIGURE 2” in the electronic document displayed on the display device 5 using the input device 2 (that is, “FIGURE 2” is the input selection character string). And the case where the search range designation unit 11 designates the electronic document range 905 in FIG. 8 as a result of designation by the user using the input device 2 will be supplemented. The case where the electronic document range 905B described in the image data as shown in FIG. 9 is designated by the search range designation unit 11 will also be described. Note that the range specified by the search range specifying unit 11 does not have to be the same as that of the electronic document in FIG. 7, and may be a different file.

S20では、オブジェクトデータ検出部120が、検索範囲指定部11にて指定されている範囲を細分化した領域の一つである部分領域(以下この領域を検索フォーカス領域と呼ぶ)にテキストデータが存在するか否かを判定する。S20にて検索フォーカス領域にテキストデータが存在すると判定した場合にはS21の処理に進む。そうでない場合にはS30の処理に進む。   In S20, text data exists in a partial area (hereinafter referred to as a search focus area), which is one of areas obtained by subdividing the range designated by the search range designation unit 11 in the object data detection unit 120. It is determined whether or not to do. If it is determined in S20 that text data exists in the search focus area, the process proceeds to S21. Otherwise, the process proceeds to S30.

S30では、オブジェクトデータ検出部120が、検索フォーカス領域に画像データが存在するか否かを判定する。S30にて検索フォーカス領域に画像データが存在すると判定した場合にはS31の処理に進む。そうでない場合にはS40の処理に進む。   In S30, the object data detection unit 120 determines whether image data exists in the search focus area. If it is determined in S30 that image data exists in the search focus area, the process proceeds to S31. Otherwise, the process proceeds to S40.

S40では、オブジェクトデータ検出部120が、検索フォーカス領域に音データが存在するか否かを判定する。S40にて検索フォーカス領域に音データが存在すると判定した場合にはS41の処理に進む。そうでない場合にはS50の処理に進む。   In S40, the object data detection unit 120 determines whether sound data exists in the search focus area. If it is determined in S40 that sound data exists in the search focus area, the process proceeds to S41. Otherwise, the process proceeds to S50.

S50では、オブジェクトデータ検出部120が、検索フォーカス領域に動画データが存在するか否かを判定する。S50にて検索フォーカス領域に動画データが存在すると判定した場合にはS51の処理に進む。そうでない場合にはS60の処理に進む。   In S50, the object data detection unit 120 determines whether moving image data exists in the search focus area. If it is determined in S50 that moving image data exists in the search focus area, the process proceeds to S51. Otherwise, the process proceeds to S60.

S60では、オブジェクトデータ検出部120が、S20、S30、S40及びS50での判定の対象となる領域、つまり検索フォーカス領域を更新し、検索フォーカス領域を次に進める。例えば、検索フォーカス領域は、S20、S30、S40及びS50にて該当するデータが存在しなかった場合には電子ドキュメントの1行分とし、1行分ずつ進められ、S20、S30、S40あるいはS50にて該当データが存在した場合にはそのデータ量分、つまり該当したテキストデータ、画像データ、音データ及び動画データ量分進めれば良い。   In S60, the object data detection unit 120 updates the area to be determined in S20, S30, S40, and S50, that is, the search focus area, and advances the search focus area to the next. For example, if the corresponding data does not exist in S20, S30, S40, and S50, the search focus area is set as one line of the electronic document, and the search focus area is advanced by one line, and the process proceeds to S20, S30, S40, or S50. If the corresponding data exists, the data amount, that is, the corresponding text data, image data, sound data, and moving image data amount may be advanced.

S61では、検索範囲指定部11にて指定されている範囲全てについて入力選択文字の検索を行ったか否かを判定する。全範囲について検索が行われたのであれば、図6の処理を終了する。そうでない場合はS20の処理へ進む。   In S61, it is determined whether or not the input selection character has been searched for the entire range specified by the search range specifying unit 11. If the entire range has been searched, the processing in FIG. 6 is terminated. Otherwise, the process proceeds to S20.

S21では、テキスト検索部121が、S20にて検知したテキストデータに文字列入力処理部10にて入力された文字列(入力選択文字列)と同じものがあるか否かを判定する。同じ文字列(参照文字列)がある場合にはS22の処理に移る。そうでない場合は、S30の処理に移る。   In S21, the text search unit 121 determines whether the text data detected in S20 is the same as the character string (input selection character string) input by the character string input processing unit 10. If there is the same character string (reference character string), the process proceeds to S22. Otherwise, the process proceeds to S30.

図8の場合では、S20にてテキストデータ909,910,911が検知され、S21にて図7の入力選択文字列900“Figure 2”と同じ文字列のテキストデータ910が存在すると判定される。従って、この場合にはS22の処理に移る。   In the case of FIG. 8, text data 909, 910, and 911 are detected in S20, and it is determined in S21 that text data 910 having the same character string as the input selection character string 900 “Figure 2” in FIG. 7 exists. Accordingly, in this case, the process proceeds to S22.

S22では、テキスト検索部121が、S20にて検知されたテキストデータのうち、入力選択文字列に該当したデータ位置の情報を含む被リンクデータを作成し、それを記憶装置3のワークエリアに記憶する。   In S22, the text search unit 121 creates linked data including information on the data position corresponding to the input selected character string from the text data detected in S20, and stores it in the work area of the storage device 3. To do.

ここで、図10を用いて被リンクデータのデータ構造について説明する。
ワークエリアに記憶される被リンクデータのデータ構造体960は、該当した画像データを含むファイルの名前である「被リンクデータのファイル名961」、検索において該当したデータのファイル位置である「被リンクデータのファイル位置962」、入力選択文字列と一致した文字列の座標位置「一致文字列位置963」、該入力された文字列(入力選択文字列)との相関の高さを示す「一致度964」、及び検索において該当したデータの種類を示す「データ種類965」から構成される。ただし、後述するが、「データ種類965」が画像データか音データかによって「一致文字列位置963」の意味は異なる。
Here, the data structure of the linked data will be described with reference to FIG.
The data structure 960 of linked data stored in the work area includes “file name 961 of linked data” that is the name of the file that includes the corresponding image data, and “linked data” that is the file position of the corresponding data in the search. “Data file position 962”, coordinate position “matching character string position 963” of the character string matched with the input selected character string, “matching degree” indicating the degree of correlation with the input character string (input selected character string) 964 ”and“ data type 965 ”indicating the type of data corresponding to the search. However, as described later, the meaning of “matching character string position 963” differs depending on whether the “data type 965” is image data or sound data.

S22の処理では、入力選択文字列と一致するテキストデータがあるので、「一致度964」は高い値としておく(例えば100とすれば良い)。また、「一致文字列位置963」としてはS10にて一致したテキストが存在する座標位置などを記憶する。また、「データ種類965」はテキストであるので「テキストデータ」となる。   In the process of S22, since there is text data that matches the input selection character string, the “matching degree 964” is set to a high value (for example, 100). Further, as “matching character string position 963”, the coordinate position where the matched text exists in S10 is stored. Further, since “data type 965” is text, it becomes “text data”.

このように、文字列のデータ位置と画像データなどの電子データのデータ位置との関連付けを示すリンクデータは電子ドキュメントと独立したデータであるので、電子ドキュメントが読取り専用であろうと無かろうと、利用者の指示により文字列と特定の電子データ位置とを関連付けることができる。   As described above, the link data indicating the association between the data position of the character string and the data position of the electronic data such as the image data is data independent of the electronic document. Therefore, the link data can be used regardless of whether the electronic document is read-only or not. A character string and a specific electronic data position can be associated with each other according to the instructions of the person.

S31では、文字認識部122が、S30にて検知した画像データについて文字認識を行う。   In S31, the character recognition unit 122 performs character recognition on the image data detected in S30.

S32では、文字認識部122が、その画像データに、入力選択文字列と一致する文字列(参照文字列)があるか否かを判定する。一致する文字列がある場合にはS33の処理に移る。そうでない場合には、S40の処理に移る。   In S32, the character recognition unit 122 determines whether the image data includes a character string (reference character string) that matches the input selection character string. If there is a matching character string, the process proceeds to S33. Otherwise, the process proceeds to S40.

S33では、文字認識部122が、S22と同様に、S30にて検知された画像データを検索に該当したとし、検索結果として被リンクデータを作成し、記憶装置3のワークエリアに記憶する。また、1つの画像にて一致した文字列が複数あった場合は、それら全てについて被リンクデータを作成し、ワークエリアに記憶する。   In S33, as in S22, the character recognition unit 122 assumes that the image data detected in S30 corresponds to the search, creates linked data as a search result, and stores it in the work area of the storage device 3. If there are a plurality of matching character strings in one image, linked data is created for all of them and stored in the work area.

ただし、S22の場合と違い、被リンクデータ候補のデータ構造体において「一致度964」は、正規化した文字認識のマッチングスコアを記憶する。例えば、0〜100の間に正規化すれば良い。また、「一致文字列位置963」は該当した画像データにおける入力選択文字列が記述されている位置となり、「データ種類965」は「画像データ」となる。   However, unlike the case of S22, the “matching degree 964” in the data structure of the linked data candidate stores a normalized matching score for character recognition. For example, normalization may be performed between 0 and 100. The “matching character string position 963” is a position where the input selection character string is described in the corresponding image data, and the “data type 965” is “image data”.

上記処理により、検索範囲指定部11が指定する範囲において、例えば図9のように画像データとテキストデータが分離されておらず、文字列が画像データとして記憶されている場合にも、入力選択文字列を検索することができる。図9では文字列910Bがテキストデータではなく画像データとして保存されている。また、後述するが、「一致文字列位置963」を正確に記憶することによって、電子ドキュメント表示制御部15が利用者に電子ドキュメントの内容を分かり易く表示出来る。   In the range specified by the search range specifying unit 11 by the above processing, the input selected character is also used when, for example, image data and text data are not separated as shown in FIG. 9 and a character string is stored as image data. You can search columns. In FIG. 9, the character string 910B is stored as image data instead of text data. As will be described later, by correctly storing “matching character string position 963”, the electronic document display control unit 15 can display the contents of the electronic document in an easy-to-understand manner to the user.

S41では、音声認識部123が、S40にて検知した音データの音声認識を行う。   In S41, the voice recognition unit 123 performs voice recognition of the sound data detected in S40.

S42では、音声認識部123が、S41の音声認識結果に、入力選択文字列と同じ文字列(参照文字列)があるか否かを判定する。同じ文字列がある場合にはS43の処理に移る。そうでない場合には、S50の処理に移る。   In S42, the speech recognition unit 123 determines whether or not the speech recognition result in S41 includes the same character string (reference character string) as the input selected character string. If there is the same character string, the process proceeds to S43. Otherwise, the process proceeds to S50.

S43では、音声認識部123が、S40にて検知された音データを検索に該当したとし、被リンクデータの候補としてワークエリアに記憶する。勿論、1つの音データの音声認識結果から入力選択文字列と一致した文字列が複数あった場合(同じ単語を何度も発話している場合)は、それら全てを被リンクデータの候補として記憶装置3のワークエリアに記憶する。   In S43, the voice recognition unit 123 assumes that the sound data detected in S40 corresponds to the search, and stores it in the work area as a candidate for linked data. Of course, when there are a plurality of character strings that match the input selection character string from the speech recognition result of one sound data (when the same word is spoken many times), all of them are stored as candidates for linked data. Store in the work area of the device 3.

S43の処理では、被リンクデータの「データ種類965」は「音データ」となる。「一致度964」は、正規化した音声認識のマッチングスコアを記憶する。例えば、0〜100の間に正規化すれば良い。また、「一致文字列位置963」は、該当した音データにおける入力選択文字列と同じ言葉を発話した時刻となる。   In the process of S43, the “data type 965” of the linked data is “sound data”. “Matching level 964” stores a matching score of normalized speech recognition. For example, normalization may be performed between 0 and 100. The “matching character string position 963” is the time when the same word as the input selected character string in the corresponding sound data is uttered.

例えば、検索範囲指定部11が指定する範囲において、複数の単語の意味を説明している国語の授業を録音した音声データが存在する場合には、上記のように単語と授業の音声の特定時刻とを関連付けることによって、利用者は授業のどこでその単語を説明していたかを探すために、音声位置を探さなくて良い。   For example, in the range specified by the search range specifying unit 11, if there is audio data recording a Japanese language class explaining the meaning of a plurality of words, the specific time of the word and the class audio as described above , The user does not have to search for the voice position to find where in the class the word was explained.

S51では、動画処理部124が、S50にて検知した動画データの画像シーケンスの各画像データについて文字認識を行う。   In S51, the moving image processing unit 124 performs character recognition on each image data of the image sequence of the moving image data detected in S50.

S52では、動画処理部124が、上記各画像データに、入力選択文字列と一致する文字列(参照文字列)があるか否かを判定する。一致する文字列がある場合にはS53の処理に移る。そうでない場合には、S54の処理に移る。   In S52, the moving image processing unit 124 determines whether each of the image data includes a character string (reference character string) that matches the input selection character string. If there is a matching character string, the process proceeds to S53. Otherwise, the process proceeds to S54.

S53では、動画処理部124が、S50にて検知された動画データを検索に該当したとし、検索結果として被リンクデータを作成し、それを記憶装置3のワークエリアに記憶する。また、動画の静止画像シーケンスの中に、入力選択文字列が一致する静止画像が複数あった場合は、それら全てについて被リンクデータを作成し、記憶装置3のワークエリアに記憶する。同様に、1つの画像にて一致した文字列が複数あった場合は、それら全てについて被リンクデータを作成し、記憶装置3のワークエリアに記憶する。   In S53, the moving image processing unit 124 assumes that the moving image data detected in S50 corresponds to the search, creates linked data as a search result, and stores it in the work area of the storage device 3. Further, when there are a plurality of still images with matching input selection character strings in the moving image still image sequence, linked data is created for all of them and stored in the work area of the storage device 3. Similarly, when there are a plurality of matched character strings in one image, linked data is created for all of them and stored in the work area of the storage device 3.

S53の場合には、被リンクデータの「データ種類965」は「動画の画像データ」となる。「一致度964」は、正規化した文字認識のマッチングスコアを記憶する。例えば、0〜100の間に正規化すれば良い。また、「一致文字列位置963」は該当した静止画データの動画データにおける時刻及び、その該当した静止画における入力選択文字列が記述されている座標位置となる。   In the case of S53, the “data type 965” of the linked data is “moving image data”. “Matching level 964” stores a matching score of normalized character recognition. For example, normalization may be performed between 0 and 100. The “matching character string position 963” is a time in the moving image data of the corresponding still image data and a coordinate position in which the input selection character string in the corresponding still image is described.

S54では、動画処理部124が、S50にて検知した動画データの音データについて音声認識を行う。   In S54, the moving image processing unit 124 performs voice recognition on the sound data of the moving image data detected in S50.

S55では、動画処理部124が、S54の音声認識結果に入力選択文字列と同じ文字列があるか否かを判定する。同じ文字列がある場合にはS56の処理に移る。そうでない場合には、S60の処理に移る。   In S55, the moving image processing unit 124 determines whether or not there is the same character string as the input selected character string in the voice recognition result in S54. If there is the same character string, the process proceeds to S56. Otherwise, the process proceeds to S60.

S56では、動画処理部124が、S50にて検知した動画データを検索に該当したとし、検索結果として被リンクデータを作成し、それを記憶装置3のワークエリアに記憶する。勿論、1つの動画データの音声認識結果から入力選択文字列と一致した文字列が複数あった場合(同じ単語を何度も発話している場合)は、それら全てについて被リンクデータを作成し、記憶装置3のワークエリアに記憶する。   In S <b> 56, the moving image processing unit 124 assumes that the moving image data detected in S <b> 50 corresponds to the search, creates linked data as a search result, and stores it in the work area of the storage device 3. Of course, when there are multiple character strings that match the input selection character string from the voice recognition result of one video data (when the same word is spoken many times), the linked data is created for all of them, Store in the work area of the storage device 3.

S56の場合には、被リンクデータの「データ種類965」は「動画の音データ」となる。「一致度964」は、正規化した音声認識のマッチングスコアを記憶する。例えば、0〜100の間に正規化すれば良い。また、「一致文字列位置963」は、該当した音データにおける入力選択文字列と同じ言葉を発話した時刻となる。   In the case of S56, the “data type 965” of the linked data is “moving sound data”. “Matching level 964” stores a matching score of normalized speech recognition. For example, normalization may be performed between 0 and 100. The “matching character string position 963” is the time when the same word as the input selected character string in the corresponding sound data is uttered.

例えば、アニメを用いて複数の単語の意味を説明している動画データがあるような場合には、上記のように特定単語と画像シーケンスの特定画像の特定座標位置を関連付けたり、特定単語と音声の特定時刻とを関連付けたりすることによって、利用者は授業のどこで(どの時刻に)その単語が説明されていたかを探すために、動画位置を探さなくて良い。   For example, when there is moving image data that explains the meaning of multiple words using animation, the specific word and the specific coordinate position of the specific image of the image sequence are associated as described above, By associating with a specific time, the user does not have to search for a moving image position in order to find out where (at which time) the word was explained in the class.

S61にて、検索が完了したと判定されると、候補データ表示制御部13が表示装置5にS22,S33、S43、S53及びS56にて記憶された被リンクデータの候補を一致度964が高い順に出力する。一致度964が高い候補ほど利用者にとって所望の候補であるので、利用者は所望の候補を選ぶのに手間がかからない。   If it is determined in S61 that the search has been completed, the candidate data display control unit 13 indicates that the linked data candidates stored in S22, S33, S43, S53, and S56 on the display device 5 have a high degree of coincidence 964. Output in order. A candidate with a higher degree of matching 964 is a desired candidate for the user, and therefore the user does not have to take time to select the desired candidate.

(リンクデータ作成部14の処理)
ここで、リンクデータ作成部14の処理(図3のS6に相当)について詳細に説明する。
(Process of link data creation unit 14)
Here, the processing of the link data creation unit 14 (corresponding to S6 in FIG. 3) will be described in detail.

リンクデータ作成部14は、候補データ表示制御部13にて表示された被リンクデータのリストの内で利用者が入力装置2を用いて選択した被リンクデータと、入力選択文字列とを関連付ける。ここで、図10を用いてそれらの関連付けを表すリンクデータのデータ構造について詳細に説明する。   The link data creation unit 14 associates the linked data selected by the user using the input device 2 in the linked data list displayed by the candidate data display control unit 13 with the input selection character string. Here, the data structure of the link data representing the association will be described in detail with reference to FIG.

リンクデータ3Aは、入力選択文字列の内容「文字列内容951」、その入力選択文字列のファイル位置を示す「文字列ファイル位置952」及び利用者が選択した被リンクデータである「被リンクデータ960」から構成される。このうち、被リンクデータ960は、上記で説明したデータ構造である。リンクデータは、文字列ファイル位置952の位置にある文字列内容951の文字列と、被リンクデータ960とを関連付けることを示す。   The link data 3A includes the contents of the input selection character string “character string content 951”, “character string file position 952” indicating the file position of the input selection character string, and “link data to be linked” selected by the user. 960 ". Of these, the linked data 960 has the data structure described above. The link data indicates that the character string of the character string contents 951 at the character string file position 952 is associated with the linked data 960.

尚、図7の電子ドキュメントの文字列900“Figure 2”を利用者が入力装置2を用いて選択(つまり“Figure 2”が入力選択文字列)した後にリンクデータ作成部14が入力選択文字列900とある被リンクデータとを関連付ける際に、文字列901“Figure 2”にも文字列900と同じ被リンクデータを自動的に関連付けても良い。具体的には、リンクデータ3Aを同時に複数作る処理を行う。さらに言うと、電子ドキュメントの表示装置5に表示されていない領域に存在する文字列“Figure 2”の全てに被リンクデータを関連付けても良い。このように同じ文字列を同時に関連付けることによって、電子ドキュメント表示制御部15が利用者に電子ドキュメントの内容を分かり易く表示出来る。   It should be noted that after the user selects the character string 900 “FIGURE 2” of the electronic document in FIG. 7 using the input device 2 (that is, “FIGURE 2” is the input selection character string), the link data creation unit 14 selects the input selection character string. When associating 900 with certain linked data, the same linked data as the character string 900 may be automatically associated with the character string 901 “FIGURE 2”. Specifically, a process of creating a plurality of link data 3A at the same time is performed. Furthermore, the linked data may be associated with all of the character string “Figure 2” existing in the area not displayed on the electronic document display device 5. Thus, by associating the same character string at the same time, the electronic document display control unit 15 can display the contents of the electronic document in an easy-to-understand manner to the user.

(電子ドキュメント表示制御部15の処理)
まず、図11を用いて、電子ドキュメント表示制御部15の機能構成について詳しく説明する。電子ドキュメント表示制御部15は、表示用データ作成部150、リンク文字列検出部151、デフォルト位置設定部152、識別表示指示処理部153、部分リンクデータ作成部154及び表示用データ更新部155から構成される。
(Processing of electronic document display control unit 15)
First, the functional configuration of the electronic document display control unit 15 will be described in detail with reference to FIG. The electronic document display control unit 15 includes a display data creation unit 150, a link character string detection unit 151, a default position setting unit 152, an identification display instruction processing unit 153, a partial link data creation unit 154, and a display data update unit 155. Is done.

表示用データ作成部150は、電子ドキュメントのフォーマットを解釈し、それを表示装置5に表示するための表示用データを作成する。   The display data creation unit 150 interprets the format of the electronic document and creates display data for displaying it on the display device 5.

リンク文字列検出部151は、表示用データ作成部150が作成した表示用データの中に、他のデータへのリンクを示すリンク文字列が存在するか否かを判定する。   The link character string detection unit 151 determines whether or not a link character string indicating a link to other data exists in the display data created by the display data creation unit 150.

デフォルト位置設定部152は、利用者が入力装置2を用いて行った指示に基づいて、被リンクデータのどの位置から表示するかを決定する。この処理については後述する。   The default position setting unit 152 determines from which position of the linked data to display based on an instruction given by the user using the input device 2. This process will be described later.

識別表示指示処理部153は、利用者が入力装置2を用いて選択した選択文字列及び、その選択文字列に関連付けられている被リンクデータにおける文字列を他のデータと識別できるように表示する。この処理については後述する。   The identification display instruction processing unit 153 displays the selected character string selected by the user using the input device 2 and the character string in the linked data associated with the selected character string so as to be distinguished from other data. . This process will be described later.

部分リンクデータ作成部154は、被リンクデータが表示される表示装置5の領域において、入力選択文字列と同じ文字列を含む画像データ、音データや動画データなどのマルチメディアデータを検索する。部分リンクデータ作成部154の処理はデータ検索部12とほぼ同じであるが、検索対象となる領域が違う。   The partial link data creation unit 154 searches for multimedia data such as image data, sound data, and moving image data including the same character string as the input selected character string in the area of the display device 5 where the linked data is displayed. The processing of the partial link data creation unit 154 is almost the same as that of the data search unit 12, but the search target area is different.

表示用データ更新部155は、リンク文字列検出部151と識別表示指示処理部153の指示に基づいて、表示用データを更新する。   The display data update unit 155 updates the display data based on instructions from the link character string detection unit 151 and the identification display instruction processing unit 153.

次に、図12のフローチャートを用いて、電子ドキュメント表示制御部15の処理について説明する。ここでは、図7のように表示装置5に表示されている表示用データにおける文字列900“Figure 2”と図8の画像データ907との関連付けを示すリンクデータが作成されていることを前提として説明を補足する。   Next, processing of the electronic document display control unit 15 will be described using the flowchart of FIG. Here, it is assumed that link data indicating the association between the character string 900 “Figure 2” in the display data displayed on the display device 5 and the image data 907 in FIG. 8 is created as shown in FIG. Supplement the explanation.

S100では、表示用データ作成部150が、記憶装置3の電子ドキュメント3Bを表示装置5へ出力するための表示用データを作成する。   In S100, the display data creation unit 150 creates display data for outputting the electronic document 3B in the storage device 3 to the display device 5.

S101では、リンク文字列検出部151が、S100にて作成した表示用データの領域にリンク文字列、つまりリンクデータの文字列内容951に示される文字列があるか否かを判定する。もし、リンク文字列が存在するならばS103の処理に移る。そうでないなら、S102の処理に移り、S100にて作成した表示用データを表示装置5へ出力する。   In S101, the link character string detection unit 151 determines whether or not there is a link character string, that is, a character string indicated in the character string content 951 of the link data in the display data area created in S100. If a link character string exists, the process proceeds to S103. If not, the process proceeds to S102, and the display data created in S100 is output to the display device 5.

S103では、リンク文字列検出部151が、リンク文字列に相当するリンクデータを記憶装置3から取得する。   In S103, the link character string detection unit 151 acquires link data corresponding to the link character string from the storage device 3.

S104では、S103にて得たリンクデータを利用者に提示するために表示レイアウトを更新する。ここで、このS104の処理ついて図13のフローチャートを用いて詳細に説明する。   In S104, the display layout is updated to present the link data obtained in S103 to the user. Here, the process of S104 will be described in detail with reference to the flowchart of FIG.

S201では、表示用データ更新部155が、S103にて取得したリンクデータの被リンクデータ960を表示するために表示レイアウトを変更する。S202では、S201にて変更した表示レイアウトを表示装置5へ出力する。   In S201, the display data update unit 155 changes the display layout in order to display the linked data 960 of the link data acquired in S103. In S202, the display layout changed in S201 is output to the display device 5.

図14は、被リンクデータ960のデータ種類965が「テキストデータ」であった場合のS202の表示例を示している。図14では、図7のようなテキストデータのみの表示レイアウトが、 “Figure 2”に関連付けられた被リンクデータを970の領域に表示する表示レイアウトに変更されている(以下、図14の970のような、関連付けられた被リンクデータが表示される領域を被リンク表示領域と呼ぶ。また、それに対し被リンク表示領域970以外の領域を本文表示領域972と呼ぶ)。   FIG. 14 shows a display example of S202 when the data type 965 of the linked data 960 is “text data”. In FIG. 14, the display layout of only text data as shown in FIG. 7 is changed to a display layout that displays the linked data associated with “Figure 2” in the area 970 (hereinafter referred to as 970 in FIG. 14). Such an area where linked data to be linked is displayed is called a linked display area, and an area other than the linked display area 970 is called a text display area 972.

ここで、図14の本文表示領域972のテキストデータは被リンク表示領域970に対して重ならないように表示されている(以下このような表示を回り込み表示と呼ぶ)。このように表示することによって、利用者の被リンクデータの表示/非表示を切替える手間を省くことができる。また、スクロールバー971により被リンク表示領域970はスクロール可能になっており、利用者は所望の情報を手軽に参照できる。さらに、被リンクデータの一致文字列位置963、即ち“Figure 2”の位置が被リンク表示領域970の中央に来るように表示されている。尚、この表示位置は以下に説明するが変更可能である。   Here, the text data in the text display area 972 in FIG. 14 is displayed so as not to overlap the linked display area 970 (hereinafter, such display is referred to as wraparound display). By displaying in this way, it is possible to save the trouble of switching the display / non-display of the linked data of the user. Further, the linked display area 970 can be scrolled by a scroll bar 971, and the user can easily refer to desired information. Further, the matching character string position 963 of the linked data, that is, the position of “Figure 2” is displayed so as to come to the center of the linked display area 970. Although this display position will be described below, it can be changed.

尚、図14のように被リンク表示領域970を表示画面の右下に寄せる必要はない。例えば、図15のようにリンク文字列の直下の行に被リンク表示領域970を位置させても良い。図15のように表示すると、リンク文字列とそれに関連するデータの位置が近いので、読者は視線を移動する手間が省ける。   It is not necessary to bring the linked display area 970 to the lower right of the display screen as shown in FIG. For example, the linked display area 970 may be positioned in the line immediately below the link character string as shown in FIG. If the display is as shown in FIG. 15, the position of the link character string and the data related to the link character string is close, so the reader can save the trouble of moving the line of sight.

さらに、利用者の入力装置2の入力に基づいて、デフォルト位置設定部152が被リンク表示領域970の位置を任意に設定できるようにしても良い。利用者の好みを反映できるので、利用者にとって使い勝手が良い。   Further, the default position setting unit 152 may arbitrarily set the position of the linked display area 970 based on the input of the user input device 2. Since user preferences can be reflected, it is convenient for users.

また、被リンクデータ960のデータ種類965が「画像データ」であった場合でも、上記説明した、被リンクデータ960のデータ種類965が「テキストデータ」である処理と同じである。   Further, even when the data type 965 of the linked data 960 is “image data”, the processing is the same as that described above in which the data type 965 of the linked data 960 is “text data”.

図16は、被リンクデータ960のデータ種類965が「音データ」であった場合のS202の表示例を示している。図16では、データ種類965が「音データ」である二つの被リンクデータが文字列“solar system”980に関連付けられている。ただし、二つの被リンクデータは同じ音声ファイルの異なる時刻を示しているものとする。つまり、二つの被リンクデータは、ファイル名961およびファイル位置962が同じであり、一致文字列位置963が異なっている。そして、図16では、1つの音データに対して、特定時刻から頭だし再生できる再生ボタン(981と982)が表示されている。それらの時刻は、各被リンクデータの一致文字列位置963にて示される時刻である。利用者がこれら再生ボタン981あるいは982をクリックすると、対応する時刻から音データを再生する。   FIG. 16 shows a display example of S202 when the data type 965 of the linked data 960 is “sound data”. In FIG. 16, two linked data whose data type 965 is “sound data” are associated with the character string “solar system” 980. However, it is assumed that the two linked data indicate different times of the same audio file. That is, the two linked data have the same file name 961 and file position 962, and different matching character string positions 963. In FIG. 16, playback buttons (981 and 982) that can be played from the specified time are displayed for one piece of sound data. These times are the times indicated by the matching character string position 963 of each linked data. When the user clicks the play button 981 or 982, sound data is played from the corresponding time.

上記のように、リンク文字列を発話している音声データ位置から再生できる再生ボタンを表示することによって、音声の早送りや頭だしなどの手間を省くことができる。つまり、利用者は、わざわざある単語の説明文の音声を探す手間がなくなる
図17は、被リンクデータ960のデータ種類965が複数の「動画の画像データ」であった場合のS202の表示例を示している。図17の992の領域に動画の画像ストリームデータが表示される。そして、全被リンクデータが文字列“solar system”980に関連付けられている。利用者が再生ボタン990をクリックすると、文字列“solar system”が存在する画像位置から動画の再生をする。
As described above, by displaying the playback button that can be played back from the voice data position where the link character string is spoken, it is possible to save time and trouble such as fast-forwarding of the voice and cueing. That is, the user does not have to bother to search for the audio of the explanation of a certain word. FIG. 17 shows an example of display in S202 when the data type 965 of the linked data 960 is a plurality of “moving image data”. Show. The moving image stream data is displayed in the area 992 in FIG. All linked data is associated with the character string “solar system” 980. When the user clicks the play button 990, the moving image is played from the image position where the character string “solar system” exists.

また、図17では、データ種類965が「動画の画像データ」であった場合の全被リンクデータにおいて互いにファイル名961とファイル位置962が同じである状況となっている。即ち複数のリンクデータが同じ動画データを被リンクデータとして指し、さらにその動画データの連続した時刻を指している。この状況では、991(斜線表示)に示すように、その被リンクデータに相当する区間が識別できるように表示されている。尚、データ種類965が複数の「動画の音データ」であった場合は、データ種類965が複数の「音データ」の場合と同じ処理をすれば良い。   In FIG. 17, the file name 961 and the file position 962 are the same in all linked data when the data type 965 is “moving image data”. That is, a plurality of link data indicates the same moving image data as the linked data, and further indicates the continuous time of the moving image data. In this situation, as indicated by 991 (displayed with diagonal lines), the section corresponding to the linked data is displayed so that it can be identified. When the data type 965 is a plurality of “moving sound data”, the same processing as that when the data type 965 is a plurality of “sound data” may be performed.

上記のようにリンク文字列を表示する画像位置から再生できる再生ボタン990を表示することによって、例えば、動画の早送りや頭だしなどの手間を省くことができる。また、図17の991のように、動画データ中のリンク文字列が表示される区間が利用者に識別できるように表示することによって、利用者はどの区間が関連した映像があるかが分かり易い。   By displaying the playback button 990 that can be played back from the image position where the link character string is displayed as described above, for example, it is possible to save troubles such as fast-forwarding of the moving image and heading. In addition, as indicated by 991 in FIG. 17, by displaying so that the section in which the link character string in the moving image data is displayed can be identified to the user, it is easy for the user to know which section has an associated video. .

S100にて作成した表示用データの領域に複数のリンク文字列が存在する場合は、各リンク文字列に関連付けられた被リンクデータの全てを一度に表示しても良い。しかしながら、表示画面の一番上に位置するリンク文字列に関連する被リンクデータのみを表示することが望ましい。なぜなら、被リンクデータを一度に多く表示しすぎると、逆に読者にとって電子ドキュメントが見難くなるからである。   When there are a plurality of link character strings in the display data area created in S100, all of the linked data associated with each link character string may be displayed at a time. However, it is desirable to display only the linked data related to the link character string located at the top of the display screen. This is because if too much linked data is displayed at once, it is difficult for the reader to view the electronic document.

S203では、デフォルト位置設定部152が、利用者から被リンク表示領域970に表示する被リンクデータの位置をスクロールする指示がなされたか否かを判定する。利用者がそのような指示をしたと判定した場合はS204の処理に移る。そうでない場合は、S206の処理に移る。   In S <b> 203, the default position setting unit 152 determines whether or not the user has instructed to scroll the position of the linked data displayed in the linked display area 970. If it is determined that the user has given such an instruction, the process proceeds to S204. Otherwise, the process proceeds to S206.

S204では、デフォルト位置設定部152が、利用者によって指定された被リンク表示領域970に表示する被リンクデータのデフォルト位置を設定する。そして、S204の対象となっている被リンクデータの一致文字列位置963を、新しく指定したデフォルト位置に置き換える。例えば、図14のような場合では、利用者が被リンク表示領域970にあるスクロールバー971を用いて画面を切替えた後、入力装置2の位置設定ボタン等を押すことによって、デフォルト位置を指定できるようにすれば良い。   In S204, the default position setting unit 152 sets the default position of the linked data to be displayed in the linked display area 970 designated by the user. Then, the matching character string position 963 of the linked data that is the target of S204 is replaced with the newly designated default position. For example, in the case of FIG. 14, the user can specify the default position by switching the screen using the scroll bar 971 in the linked display area 970 and then pressing the position setting button or the like of the input device 2. You can do that.

ここで、図18(A)〜図18(C)を用いて、S203とS204の具体的な処理及び、その効果について説明する。   Here, with reference to FIG. 18A to FIG. 18C, the specific processing of S203 and S204 and the effects thereof will be described.

図18では、(A)の画像に含まれる文字“大”995Aが本文中の文字列に関連付けられたとしている。その時、(B)にて示されるように、(A)の画像の一部を被参照データ領域970に表示すると、利用者は所望の“大”の文字995Bを見るためにスクロールしなければならない。そこで、例えば(C)に示すように、利用者が“大”の文字995Cが中央に来るように画像を一度スクロールさせ、位置設定ボタン等を押し、デフォルト位置を指定できるようにする。そうすれば、次回から利用者は「大」の文字を見るために毎回スクロールする手間がなくなる。   In FIG. 18, it is assumed that the character “Large” 995A included in the image of (A) is associated with the character string in the text. At that time, as shown in (B), when a part of the image of (A) is displayed in the referenced data area 970, the user must scroll to view the desired “large” character 995B. . Thus, for example, as shown in (C), the user scrolls the image once so that the “Large” character 995C is in the center, and presses a position setting button or the like so that the default position can be designated. Then, from the next time, the user will not have the trouble of scrolling every time to see the “Large” character.

また、上記と同様の操作にて、デフォルト表示される画像サイズの拡大・縮小率を設定できるようにしても良い。ただし、その場合では被リンクデータ960はデフォルト拡大率のデータ項目を持つ必要がある。デフォルトの拡大・縮小率を設定できると、画像データの原寸大きさに関わらず、利用者にとって見易い表示が可能となる。   Further, the enlargement / reduction ratio of the image size displayed as a default may be set by the same operation as described above. However, in that case, the linked data 960 needs to have a data item of a default enlargement ratio. If the default enlargement / reduction ratio can be set, a user-friendly display is possible regardless of the original size of the image data.

S206では、識別表示指示処理部153が、利用者から特定文字の識別表示の指示があったか否かを判定する。もし利用者が特定文字の識別表示を指示したと判断した場合にはS207の処理に移る。そうでない場合にはS209の処理に移る。   In S206, the identification display instruction processing unit 153 determines whether or not there is an instruction to identify and display a specific character from the user. If it is determined that the user has instructed specific character identification display, the process proceeds to S207. Otherwise, the process proceeds to S209.

S207では、識別表示指示処理部153が、被リンク表示領域970にて表示されている文字列を検出する。このとき、画像データに対しても文字認識を行い、文字列を検出する。尚、文字列を検出する領域を被リンク表示領域970にて表示されている部分に制限する必要はない。ただし、文字列検出の対象領域を大きくするほど、文字列検出のための計算量が大きくなってしまう。   In S207, the identification display instruction processing unit 153 detects the character string displayed in the linked display area 970. At this time, character recognition is also performed on the image data to detect a character string. It is not necessary to limit the area for detecting the character string to the portion displayed in the linked display area 970. However, the larger the target area for character string detection, the greater the amount of calculation for character string detection.

S208では、本文表示領域972の文字列の中に、S207で検出した文字列と一致したものがあれば、表示用データ更新部155が、一致した文字列とそれ以外の文字列とを識別できるように識別表示を行う。   In S208, if any character string in the text display area 972 matches the character string detected in S207, the display data update unit 155 can identify the matched character string and other character strings. The identification display is performed as follows.

図19は、その1例を示している。図19では、被リンク表示領域970に表示されている文字列“923”と“921”が検出され、その検出された文字列が本文表示領域972にあるので、それらが点線で囲まれ識別表示されている。尚、図19は一例であり、文字列の背景色を変えたり、文字列にアンダーラインを引いたり、文字列のフォント種類を変えたりして、識別表示しても良い。このように、本文表示領域972と被リンク表示領域970において同じ文字列がある場合に、それらを識別表示することにより、利用者は電子ドキュメントの内容を容易に把握できる。   FIG. 19 shows one example. In FIG. 19, the character strings “923” and “921” displayed in the linked display area 970 are detected, and the detected character strings are in the text display area 972. Has been. Note that FIG. 19 is an example, and the identification display may be performed by changing the background color of the character string, underlining the character string, or changing the font type of the character string. As described above, when there are the same character strings in the text display area 972 and the linked display area 970, the user can easily grasp the contents of the electronic document by identifying and displaying them.

S209では、利用者から部分リンクデータの作成指示がなされたか否かを判定する。ここで、部分リンクデータとは被リンク表示領域970に表示されているデータと本文表示領域972にあるデータとの関連付けを示すリンクデータであり、上述したリンクデータとは異なる。即ち、部分リンクデータは、限定された領域からの検索に基づいて作成されるので、通常のリンクデータと区別する。利用者から部分リンクデータの作成指示がなされたと判定された場合には、S210の処理に移る。またそうでない場合にはS213の処理に移る。   In S209, it is determined whether or not a user has instructed creation of partial link data. Here, the partial link data is link data indicating the association between the data displayed in the linked display area 970 and the data in the text display area 972, and is different from the link data described above. That is, partial link data is created based on a search from a limited area, and is therefore distinguished from normal link data. If it is determined that an instruction to create partial link data has been issued by the user, the process proceeds to S210. Otherwise, the process proceeds to S213.

S210では、本文表示領域972における、利用者によって選択された文字列を入力する。   In S210, the character string selected by the user in the text display area 972 is input.

S211では、部分リンクデータ作成部154が、表示されている被リンク表示領域970の領域に限定してS210にて入力された文字列を検索する。そして、検索により該当する文字列があれば、利用者が入力装置2を用いてその該当結果を選択できるように表示装置5に表示する。このように、検索する領域を、表示されている被リンク表示領域970に限定するので、検索に要する計算の量を削減できる。また、利用者はテキストデータと、テキストデータのリンク文字列に関連付けられた図表データとの文字列を同時に見ながら、リンク文字列を作成できるので、使い勝手が良い。ただし、文字列の検索範囲を表示されている被リンク表示領域970に完全に限定する必要はなく、表示していない部分も検索しても良い。ただし、文字列の検索範囲を被リンク表示領域970に表示されている部分に限定すると、余分な計算量を削減することができる。   In S211, the partial link data creation unit 154 searches for the character string input in S210 limited to the displayed linked display area 970. Then, if there is a corresponding character string by the search, it is displayed on the display device 5 so that the user can select the corresponding result using the input device 2. As described above, since the area to be searched is limited to the displayed linked display area 970, the amount of calculation required for the search can be reduced. In addition, since the user can create a link character string while simultaneously viewing the text data and the character string of the chart data associated with the link character string of the text data, it is easy to use. However, it is not necessary to completely limit the search range of the character string to the displayed linked display area 970, and a portion that is not displayed may be searched. However, if the search range of the character string is limited to the portion displayed in the linked display area 970, the excessive calculation amount can be reduced.

S212では、部分リンクデータ作成部154が、S211にて該当した文字列の内利用者が選択したものと、S210にて選択された文字列とを関連付けたことを示す部分リンクデータを作成する。   In S212, the partial link data creation unit 154 creates partial link data indicating that the user selects the corresponding character string in S211 and the character string selected in S210.

これらの処理はデータ検索部12と同じ処理であるが、利用者は本文表示領域972のテキストを参照しながら、被リンク表示領域970に表示されている文字列との関連付けを行えるので、利用者にとってより使い勝手が良い。   These processes are the same as those performed by the data search unit 12, but the user can associate the character string displayed in the linked display area 970 with reference to the text in the text display area 972. It is easier to use.

S213では、利用者から本文表示領域のスクロール指示がなされたか否かを判定する。スクロール指示があった場合は、図13のフローチャートの処理を終える。   In S213, it is determined whether or not the user has instructed to scroll the text display area. If there is a scroll instruction, the process of the flowchart of FIG.

[ソフトウェアでの実施例]
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、他のシステムあるいは装置に供給し、そのシステムあるいは装置のコンピュータCPUが記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
[Examples in software]
An object of the present invention is to supply a recording medium that records a program code of software that realizes the functions of the above-described embodiments to another system or apparatus, and the computer CPU of the system or apparatus is stored in the recording medium. Needless to say, this can also be achieved by reading and executing the program code.

この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。   In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

プログラムコードを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性のメモリカード、等を用いることができる。   As a recording medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a magnetic tape, a nonvolatile memory card, and the like can be used.

また、上記プログラムコードは、通信ネットワークのような伝送媒体を介して、他のコンピュータシステムから記録装置等へダウンロードされるものであってもよい。   The program code may be downloaded from another computer system to a recording device or the like via a transmission medium such as a communication network.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU of the expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

以上で述べたように、本発明のデータ検索部12の効果により、例えば、あるテキストデータと、図9のように画像データとテキストデータが分離されておらず文字列も画像データとして記憶されているデータを関連付ける場合にも、二つのデータを簡単に関連付けることができる。   As described above, due to the effect of the data search unit 12 of the present invention, for example, certain text data and image data and text data are not separated as shown in FIG. 9, and character strings are also stored as image data. Even when the existing data are related, the two data can be easily related.

また、本発明のリンクデータは電子ドキュメントと独立したデータ構造であるので、ドキュメントが読取り専用であろうと無かろうと、利用者は二つのデータを関連付けることができる。   In addition, since the link data of the present invention has a data structure independent of the electronic document, the user can associate two data regardless of whether the document is read-only or not.

また、電子ドキュメントの表示装置に表示する表示用データにリンクデータが存在した場合には、例えば、図14や図15のように対応する被リンクデータを表示する。従って、利用者はリンク文字列をマウスなどでクリックし、対応する画像データの位置へジャンプする手間がかからない。また、読者は本文データを見ながら被リンクデータを参照することができるので、電子ドキュメントを容易に把握できる。   When link data exists in the display data displayed on the electronic document display device, for example, the corresponding linked data is displayed as shown in FIGS. Therefore, the user does not need to click the link character string with a mouse or the like to jump to the corresponding image data position. In addition, since the reader can refer to the linked data while looking at the text data, the electronic document can be easily grasped.

また、上記のように文字列と音データの特定時刻とを関連付け、さらに、音データの特定時刻が関連付けられたリンク文字列がある場合にはその音データ位置を再生する再生ボタンを表示する。従って、電子ドキュメントを閲覧している途中にある単語に関連した音声データを検索する必要がない。また、文字列と音データの特定時刻とを関連付けるので、音声の早送りや頭だしなどの手間を省くことができる。   Further, as described above, the character string and the specific time of the sound data are associated with each other, and if there is a link character string associated with the specific time of the sound data, a reproduction button for reproducing the sound data position is displayed. Therefore, it is not necessary to search for voice data related to a word in the middle of browsing an electronic document. In addition, since the character string and the specific time of the sound data are associated with each other, it is possible to save troubles such as fast-forwarding of voice and cueing.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードを格納することになる。   When the present invention is applied to the recording medium, the recording medium stores program codes corresponding to the flowcharts described above.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

本発明は、電子書籍などマルチメディアデータを含む電子ドキュメントを閲覧する装置に適用可能である。   The present invention can be applied to an apparatus for browsing an electronic document including multimedia data such as an electronic book.

本発明の実施の一形態を示すものであって、本発明の情報閲覧装置の機能的な構成を示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 illustrates an embodiment of the present invention, and is a block diagram illustrating a functional configuration of an information browsing apparatus according to the present invention. 図1に示した情報閲覧装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the information browsing apparatus shown in FIG. 図1に示した情報閲覧装置の処理動作の概要を説明するフローチャートである。It is a flowchart explaining the outline | summary of the processing operation of the information browsing apparatus shown in FIG. 図1に示した表示装置に表示されている電子ドキュメントの一例を示す説明図である。FIG. 2 is an explanatory diagram illustrating an example of an electronic document displayed on the display device illustrated in FIG. 1. 図1のデータ検索部の詳細な機能構成を示すブロック図である。It is a block diagram which shows the detailed function structure of the data search part of FIG. 図1のデータ検索部の処理動作を説明するフローチャートである。It is a flowchart explaining the processing operation of the data search part of FIG. 図1に示した表示装置に表示されている電子ドキュメントの一例を示す説明図である。FIG. 2 is an explanatory diagram illustrating an example of an electronic document displayed on the display device illustrated in FIG. 1. 図1に示した検索範囲指定部による電子ドキュメントの指定動作の一例を示す説明図である。It is explanatory drawing which shows an example of the designation | designated operation | movement of the electronic document by the search range designation | designated part shown in FIG. 図1に示した検索範囲指定部による電子ドキュメントの指定動作の他の例を示す説明図である。It is explanatory drawing which shows the other example of the designation | designated operation | movement of the electronic document by the search range designation | designated part shown in FIG. 図1に示したリンクデータ作成部が作成するリンクデータの構造を示す説明図である。It is explanatory drawing which shows the structure of the link data which the link data preparation part shown in FIG. 1 produces. 図1に示した電子ドキュメント表示制御部の詳細な機能構成を示すブロック図である。It is a block diagram which shows the detailed functional structure of the electronic document display control part shown in FIG. 図1に示した電子ドキュメント表示制御部の処理動作を説明するフローチャートである。4 is a flowchart for explaining a processing operation of the electronic document display control unit shown in FIG. 1. 図12に示した、電子ドキュメント表示制御部におけるS104の処理を詳細に説明するフローチャートである。13 is a flowchart for explaining in detail the processing of S104 in the electronic document display control unit shown in FIG. 図13に示した、電子ドキュメント表示制御部におけるS202の動作に基づく表示装置での表示例を示すものであって、本文の電子ドキュメントと共にテキストデータの被リンクデータが表示された状態を示す説明図である。FIG. 13 is a diagram illustrating a display example on the display device based on the operation of S202 in the electronic document display control unit illustrated in FIG. 13, and is an explanatory diagram illustrating a state in which linked data of text data is displayed together with the electronic document of the body text It is. 図14に示した表示例の他の例を示す説明図である。FIG. 15 is an explanatory diagram illustrating another example of the display example illustrated in FIG. 14. 図13に示した、電子ドキュメント表示制御部におけるS202の動作に基づく表示装置でのさらに他の表示例を示すものであって、表示装置に本文の電子ドキュメントと共に音データの被リンクデータが表示された状態を示す説明図である。FIG. 13 shows still another display example on the display device based on the operation of S202 in the electronic document display control unit shown in FIG. 13, and the linked data of the sound data is displayed on the display device together with the electronic document of the main text. It is explanatory drawing which shows the state. 図13に示した、電子ドキュメント表示制御部におけるS202の動作に基づく表示装置でのさらに他の表示例を示すものであって、表示装置に本文の電子ドキュメントと共に動画データの被リンクデータが表示された状態を示す説明図である。FIG. 14 shows still another display example on the display device based on the operation of S202 in the electronic document display control unit shown in FIG. 13, and the linked data of the moving image data is displayed on the display device together with the electronic document of the text. It is explanatory drawing which shows the state. 図18(A)は、図13に示した、デフォルト位置設定部におけるS203とS204の具体的な動作例を説明するものであって、画像に含まれる文字“大”が本文中の文字列に関連付けられた状態を示す説明図、図18(B)は、図18(A)に示した画像の一部が被参照データ領域に表示された状態を示す説明図、図18(C)は、ユーザにて“大”の文字が中央に来るように画像がスクロールされた状態を示す説明図である。FIG. 18A explains a specific operation example of S203 and S204 in the default position setting unit shown in FIG. 13, and the character “Large” included in the image is converted into a character string in the text. FIG. 18B is an explanatory diagram showing a state of being associated, FIG. 18B is an explanatory diagram showing a state in which a part of the image shown in FIG. 18A is displayed in the referenced data area, and FIG. It is explanatory drawing which shows the state by which the image was scrolled so that the character of "large" might come to the center by the user. 図13に示した、電子ドキュメント表示制御部におけるS208の動作に基づく表示装置での表示例を示す説明図である。It is explanatory drawing which shows the example of a display with a display apparatus based on operation | movement of S208 in an electronic document display control part shown in FIG. 参照体データと被参照体データとを関連付ける従来技術(第1従来技術)を説明するための図である。It is a figure for demonstrating the prior art (1st prior art) which links | relates reference body data and referenced body data. 参照体データと被参照体データとを関連付ける従来技術(第2従来技術)を説明するためのブロック図である。It is a block diagram for demonstrating the prior art (2nd prior art) which links | relates reference body data and to-be-referenced body data.

符号の説明Explanation of symbols

1 制御装置
2 入力装置(入力手段)
3 記憶装置(記憶手段)
4 外部記憶媒体読書き装置
5 表示装置(表示手段)
6 通信装置
7 バス
10 文字列入力処理部(文字列入力処理手段)
11 検索範囲指定部
12 データ検索部(認識手段、検索手段)
13 候補データ表示制御部
14 リンクデータ作成部(リンクデータ作成手段)
15 電子ドキュメント表示制御部
120 オブジェクトデータ検出部
121 テキスト検索部
122 文字認識部
123 音声認識部
124 動画処理部
150 表示用データ作成部(表示用データ作成手段)
151 リンク文字列検出部(選択文字列有無判定手段)
152 デフォルト位置設定部(表示位置設定手段)
153 識別表示指示処理部
154 部分リンクデータ作成部(変換手段)
155 表示用データ更新部(表示制御手段)
1 Control device 2 Input device (input means)
3. Storage device (storage means)
4 External storage medium read / write device 5 Display device (display means)
6 Communication device 7 Bus 10 Character string input processing section (character string input processing means)
11 Search range specification part 12 Data search part (recognition means, search means)
13 candidate data display control unit 14 link data creation unit (link data creation means)
15 electronic document display control unit 120 object data detection unit 121 text search unit 122 character recognition unit 123 voice recognition unit 124 video processing unit 150 display data creation unit (display data creation means)
151 Link character string detector (selected character string presence / absence determining means)
152 Default position setting section (display position setting means)
153 Identification display instruction processing unit 154 Partial link data creation unit (conversion means)
155 Display data update unit (display control means)

Claims (11)

テキストデータを含む第1の電子データ、および文字として認識可能なデータを含む第2の電子データを記憶する記憶手段と、
少なくとも第1の電子データ表示するための表示用データを作成する表示用データ作成手段と、
前記表示用データを表示する表示手段と、
入力操作が可能な入力手段と、
前記入力手段からの入力に基づいて第1の電子データにおける特定の文字列を選択文字列として指定する文字列入力処理手段と、
第2の電子データから文字を認識する認識手段と、
前記認識手段による認識結果に対して、前記選択文字列と一致する参照文字列となる文字列を検索する検索手段と、
前記選択文字列と前記参照文字列のデータ位置との関連付けを示すリンクデータを作成するリンクデータ作成手段とを備えていることを特徴とする情報閲覧装置。
Storage means for storing first electronic data including text data and second electronic data including data recognizable as characters;
Display data creating means for creating display data for displaying at least first electronic data;
Display means for displaying the display data;
Input means capable of input operation;
A character string input processing means for designating a specific character string in the first electronic data as a selected character string based on an input from the input means;
Recognition means for recognizing characters from the second electronic data;
Search means for searching for a character string to be a reference character string that matches the selected character string with respect to a recognition result by the recognition means;
An information browsing apparatus comprising link data creating means for creating link data indicating an association between the selected character string and a data position of the reference character string.
第2の電子データは文字を含む画像データであり、前記認識手段はこの画像データから文字を認識することを特徴とする請求項1に記載の情報閲覧装置。   The information browsing apparatus according to claim 1, wherein the second electronic data is image data including characters, and the recognition unit recognizes characters from the image data. 前記表示用データ作成手段にて作成された表示用データ中に、上記リンクデータにて示される参照文字列が存在するか否かを判定する文字列有無判定手段と、
前記文字列有無判定手段にて前記参照文字列が存在すると判定された場合に、第2の電子データの、前記参照文字列を含む領域の少なくとも一部が、参照データとして第1の電子データと共に前記表示手段に表示されるように、表示用データ作成手段を制御する表示制御手段とをさらに備えたことを特徴とする請求項2に記載の情報閲覧装置。
Character string presence / absence determining means for determining whether or not the reference character string indicated by the link data is present in the display data created by the display data creating means;
When it is determined by the character string presence / absence determining means that the reference character string exists, at least a part of the second electronic data including the reference character string is used as reference data together with the first electronic data. The information browsing apparatus according to claim 2, further comprising display control means for controlling display data creation means so as to be displayed on the display means.
前記参照データの前記表示手段における表示位置を設定する表示位置設定手段をさらに備えたことを特徴とする請求項3に記載の情報閲覧装置。   The information browsing apparatus according to claim 3, further comprising display position setting means for setting a display position of the reference data in the display means. 前記表示位置設定手段は、前記参照データの一部の領域を前記表示手段に表示する場合において、該参照データの前記表示手段に表示する領域の初期位置を設定することを特徴とする請求項4に記載の情報閲覧装置。   5. The display position setting means sets an initial position of an area of the reference data to be displayed on the display means when displaying a partial area of the reference data on the display means. Information browsing device described in 1. 前記表示制御手段は、前記表示手段に表示されている第1の電子データにおける選択文字列、およびこの選択文字列に関連付けられている、前記参照データにおける参照文字列が他のデータと識別可能に表示されるように、前期表示用データ作成手段を制御することを特徴とする請求項3に記載の情報閲覧装置。   The display control unit can identify a selected character string in the first electronic data displayed on the display unit and a reference character string in the reference data associated with the selected character string from other data. 4. The information browsing apparatus according to claim 3, wherein the display data creation means for the previous period is controlled so as to be displayed. 前記参照データの前記表示手段に表示されている領域における文字として認識可能なデータをテキストデータに変換する変換手段をさらに備えていることを特徴とする請求項3に記載の情報閲覧装置。   4. The information browsing apparatus according to claim 3, further comprising conversion means for converting data recognizable as characters in the area of the reference data displayed on the display means into text data. 第2の電子データは音声データであり、前記認識手段は音声認識手段であることを特徴とする請求項1に記載の情報閲覧装置。   The information browsing apparatus according to claim 1, wherein the second electronic data is voice data, and the recognition unit is a voice recognition unit. リンクデータ作成手段が作成する前記リンクデータには、前記音声データ中における前記参照文字列に対応するデータの存在位置を示す時間情報が含まれていることを特徴とする請求項8に記載の情報閲覧装置。   9. The information according to claim 8, wherein the link data created by the link data creation means includes time information indicating a location of data corresponding to the reference character string in the voice data. Browsing device. 請求項1から9の何れか1項に記載の情報閲覧装置を動作させる情報閲覧プログラムであって、コンピュータを上記の各手段として機能させるための情報閲覧プログラム。   An information browsing program for operating the information browsing apparatus according to any one of claims 1 to 9, wherein the information browsing program causes a computer to function as each of the above means. 請求項10に記載の情報閲覧プログラムが記録されたことを特徴とするコンピュータ読取り可能なプログラム記録媒体。   A computer-readable program recording medium on which the information browsing program according to claim 10 is recorded.
JP2004247366A 2004-08-26 2004-08-26 Information reading device, information reading program, and information reading program recording medium Withdrawn JP2006065588A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004247366A JP2006065588A (en) 2004-08-26 2004-08-26 Information reading device, information reading program, and information reading program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004247366A JP2006065588A (en) 2004-08-26 2004-08-26 Information reading device, information reading program, and information reading program recording medium

Publications (1)

Publication Number Publication Date
JP2006065588A true JP2006065588A (en) 2006-03-09

Family

ID=36112036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004247366A Withdrawn JP2006065588A (en) 2004-08-26 2004-08-26 Information reading device, information reading program, and information reading program recording medium

Country Status (1)

Country Link
JP (1) JP2006065588A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007317105A (en) * 2006-05-29 2007-12-06 Advanced Telecommunication Research Institute International On demand link producing system
JP2012181873A (en) * 2012-01-07 2012-09-20 Patentisland Corp Electronic book display control device, electronic book display control program, electronic book display control method, and electronic book
JP2013143110A (en) * 2012-01-12 2013-07-22 Konica Minolta Inc Image forming apparatus and document data preview display method in the same
CN103699891A (en) * 2012-09-27 2014-04-02 京瓷办公信息系统株式会社 Image processing apparatus and image processing method
JP2015041309A (en) * 2013-08-23 2015-03-02 株式会社ナカヨ Method of displaying reference information during document display

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007317105A (en) * 2006-05-29 2007-12-06 Advanced Telecommunication Research Institute International On demand link producing system
JP2012181873A (en) * 2012-01-07 2012-09-20 Patentisland Corp Electronic book display control device, electronic book display control program, electronic book display control method, and electronic book
JP2013143110A (en) * 2012-01-12 2013-07-22 Konica Minolta Inc Image forming apparatus and document data preview display method in the same
US8839104B2 (en) 2012-01-12 2014-09-16 Konica Minolta Business Technologies, Inc. Adjusting an image using a print preview of the image on an image forming apparatus
CN103699891A (en) * 2012-09-27 2014-04-02 京瓷办公信息系统株式会社 Image processing apparatus and image processing method
JP2014067370A (en) * 2012-09-27 2014-04-17 Kyocera Document Solutions Inc Image processor and image processing program
JP2015041309A (en) * 2013-08-23 2015-03-02 株式会社ナカヨ Method of displaying reference information during document display

Similar Documents

Publication Publication Date Title
US10747417B2 (en) Information processing apparatus, information processing method and information processing program for using a cursor
US20080079693A1 (en) Apparatus for displaying presentation information
US10204085B2 (en) Display and selection of bidirectional text
US10642463B2 (en) Interactive management system for performing arts productions
JP6217645B2 (en) Information processing apparatus, playback state control method, and program
JP2001195165A (en) Gui control system and device and recording medium
US20080126387A1 (en) System and method for synchronizing data
US8615706B2 (en) Method and apparatus for improving data entry for a form
US20130262968A1 (en) Apparatus and method for efficiently reviewing patent documents
JP2005352849A (en) Program and method for screen display control, and portable information device
US20170192946A1 (en) Annotations for Electronic Content
US9996522B2 (en) Dictionary device for determining a search method based on a type of a detected touch operation
JP2003029911A (en) Information processor, information processing method, recording medium and program
JP4741406B2 (en) Nonlinear editing apparatus and program thereof
JP2001075989A (en) Device and method for presenting information and computer readable recording medium recording information presenting program
JP5345963B2 (en) Method for generating tag data to search for images
JP3359948B2 (en) Document presentation device and method
US20110153331A1 (en) Method for Generating Voice Signal in E-Books and an E-Book Reader
JP2006065588A (en) Information reading device, information reading program, and information reading program recording medium
US9870134B2 (en) Interactive blocking and management for performing arts productions
JP2005341182A (en) Cooking recipe editing and presentating system
JP2001306601A (en) Device and method for document processing and storage medium stored with program thereof
US11093696B2 (en) Playable text editor and editing method therefor
JP7176272B2 (en) Information processing device and program
TWM575595U (en) E-book apparatus with audible narration

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071106