JP2010044767A - Document processor, document processing method, and recording medium - Google Patents

Document processor, document processing method, and recording medium Download PDF

Info

Publication number
JP2010044767A
JP2010044767A JP2009195546A JP2009195546A JP2010044767A JP 2010044767 A JP2010044767 A JP 2010044767A JP 2009195546 A JP2009195546 A JP 2009195546A JP 2009195546 A JP2009195546 A JP 2009195546A JP 2010044767 A JP2010044767 A JP 2010044767A
Authority
JP
Japan
Prior art keywords
document
video
data
sentence
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009195546A
Other languages
Japanese (ja)
Inventor
Katashi Nagao
確 長尾
Kazuyuki Marukawa
和幸 丸川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009195546A priority Critical patent/JP2010044767A/en
Publication of JP2010044767A publication Critical patent/JP2010044767A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To present information by outputting video data related to a specified part on document data. <P>SOLUTION: A document processor includes an input means for inputting first electronic document data; a presentation output control means for performing output control of presentation information for presenting contents of the first electronic document data; a specifying means for specifying a part of second electronic document data out of the second electronic document data controlled in presentation output by the presentation output control means; a video or still image selecting means for selecting one or more video data or still image data corresponding to a part of the first electronic document data input based on the input means and the second electronic document data specified by the specifying means; and a video or still image output control means for sequentially performing output control of a plurality of the video data or still image data selected by the video or still image selecting means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は電子文書処理に関し、特に電子文書データと関連するビデオデータを出力することのできる文書処理装置に関するものである。   The present invention relates to electronic document processing, and more particularly to a document processing apparatus capable of outputting video data related to electronic document data.

従来、インターネットにおいて、ウィンドウ形式でハイパーテキスト型情報を提供するアプリケーションサービスとしてWWW(World Wide Web)が提供されている。   2. Description of the Related Art Conventionally, on the Internet, WWW (World Wide Web) is provided as an application service that provides hypertext type information in a window format.

WWWは、文書の作成、公開または共有化の文書処理を実行し、新しいスタイルの文書の在り方を示したシステムである。しかし、文書の実際上の利用の観点からは、文書の内容に基づいた文書の分類や要約といった、WWWを越える高度な文書処理が求められている。このような高度な文書処理には、文書の内容の機械的な処理が不可欠である。   The WWW is a system that performs document processing for creating, publishing, or sharing a document, and shows a new style of document. However, from the viewpoint of practical use of documents, advanced document processing exceeding WWW, such as document classification and summarization based on document contents, is required. For such advanced document processing, mechanical processing of document contents is indispensable.

しかしながら、文書の内容の機械的な処理は、以下のような理由から依然として困難である。
第1に、ハイパーテキストを記述する言語であるHTML(Hyper Text Markup Language)は、文書の表現については規定するが、文書の内容についてはほとんど規定しない。第2に、文書間に構成されたハイパーテキストのネットワークは、文書の読者にとって文書の内容を理解するために必ずしも利用しやすいものではない。第3に、一般に文章の著作者は読者の便宜を念頭に置かずに著作するが、文書の読者の便宜が著作者の便宜と調整されることはない。
However, mechanical processing of document contents is still difficult for the following reasons.
First, HTML (Hyper Text Markup Language), which is a language for describing hypertext, defines the expression of a document but hardly specifies the contents of the document. Secondly, a hypertext network formed between documents is not always easy for a reader of a document to understand the contents of the document. Third, in general, the author of the text writes without regard to the convenience of the reader, but the convenience of the reader of the document is not coordinated with the convenience of the author.

このように、WWWは新しい文書の在り方を示したシステムであるが、文書を
機械的に処理しないので、高度な文書処理をおこなうことができなかった。換言すると、高度な文書処理を実行するためには、文書を機械的に処理することが必要となる。
As described above, the WWW is a system that indicates a new document. However, since the document is not mechanically processed, advanced document processing cannot be performed. In other words, in order to perform advanced document processing, it is necessary to mechanically process the document.

そこで、文書の機械的な処理を目標として、文書の機械的な処理を支援するシステムが自然言語研究の成果に基づいて開発されている。自然言語研究による文書処理として、文書の著作者等による文書の内部構造についての属性情報、いわゆるタグの付与を前提とした、文書に付与されたタグを利用する機械的な文書処理が提案されている。   Therefore, with the goal of mechanical processing of documents, a system that supports mechanical processing of documents has been developed based on the results of natural language research. As document processing by natural language research, mechanical document processing that uses the tag attached to the document on the premise of the attribute information on the internal structure of the document by the author of the document, so-called tag assignment, has been proposed. Yes.

ところで、近年のコンピュータの普及や、ネットワーク化の進展に伴い、文章処理や、文書の内容に依存した索引などで、テキスト文書の作成、ラベル付け、変更などをおこなう文書処理の高機能化が求められている。たとえば、ユーザの要望に応じた文書の要約や、文書の分類等が望まれる。
また、文書やその要約を表示する文書ビューワや表示部の形態に適した表示スタイルや、表示とともに行われる読み上げ機能、さらには文書や画像の表示と読み上げの連動など、よりユーザーにとって好適な処理が求められている。
そしてさらに、文書データに関連して動画や静止画などのビデオデータを出力することができるようにすれば、ユーザーにとって、より多様かつ高度であり、さらに的確な情報を提供できることが期待されるが、従って、各種の文書処理に加えてビデオデータとの連携化が望まれている。
By the way, with the spread of computers in recent years and the progress of networking, it is necessary to increase the functionality of document processing that creates, labels, and changes text documents with text processing and indexing depending on the contents of the document. It has been. For example, document summarization or document classification according to the user's request is desired.
In addition, processing suitable for the user, such as a display style suitable for the form of the document viewer and display unit that displays the document and its summary, a reading function that is performed along with the display, and the linkage between the display of the document and the image and reading are also possible. It has been demanded.
Furthermore, if video data such as moving images and still images can be output in relation to document data, it is expected that users will be able to provide more diverse and sophisticated information and more accurate information. Therefore, in addition to various document processing, it is desired to link with video data.

本発明は、このような事情に鑑みて提案されたものであって、文書処理装置において提示する文書データに対応してビデオデータを出力することができるようにし、特にユーザーが指定した部分についてのビデオデータが出力されるようにすることで、ユーザーに対する的確、多様、高度な情報を提示できるようにすることを目的とする。   The present invention has been proposed in view of such circumstances, and enables video data to be output in correspondence with document data presented in a document processing apparatus, particularly for a portion designated by a user. The purpose is to be able to present accurate, diverse, and advanced information to the user by outputting video data.

このため本発明の文書処理装置は、第1の電子文書データを入力する入力手段と、前記第1の電子文書データの内容を提示する提示情報を出力制御する提示出力制御手段と、前記提示出力制御手段により提示出力制御された前記第2の電子文書データの中から、前記第2の電子文書データのうちの一部を指定する指定手段と、前記入力手段に基づいて入力された前記第1の電子文書データ及び前記指定手段で指定された前記第2の電子文書データのうちの一部に対応する1又は複数のビデオデータ又は静止画データを選択するビデオ又は静止画選択手段と、前記ビデオ又は静止画選択手段で選択された複数のビデオデータ又は静止画データ順次出力制御するビデオ又は静止画出力制御手段とを備える。 For this reason, the document processing apparatus of the present invention includes an input unit for inputting first electronic document data, a presentation output control unit for controlling output of presentation information for presenting the contents of the first electronic document data, and the presentation output. Of the second electronic document data presented and controlled by the control means, a designation means for designating a part of the second electronic document data , and the first input based on the input means the electronic document data and video, or still image selection means for selecting one or more video data or still image data corresponding to a part of the specified second electronic document data by said designating means, said video Alternatively, a video or still image output control unit that sequentially outputs and controls a plurality of video data or still image data selected by the still image selection unit.

前記ビデオ又は静止画選択手段において、前記入力手段に基づいて入力された前記第1の電子文書データに対応する1又は複数のビデオデータ又は静止画データを選択する場合には、前記第1の電子文書データの内容に該当する部分に関するビデオデータ又は静止画データを選択するようにする。When the video or still image selection means selects one or more video data or still image data corresponding to the first electronic document data input based on the input means, the first electronic Video data or still image data relating to a portion corresponding to the content of the document data is selected.

また、前記ビデオ又は静止画出力制御手段において、前記第2の電子文書データを提示出力するエリア上に出力するか、第2のビデオ又は静止画のみを表示するエリアに提示出力するかを制御するようにする。
また、前記提示出力制御手段において、複数の電子文書データのリストを提示するようにする。
Further, the video or still image output control means controls whether the second electronic document data is output on an area where the second electronic document data is presented or output, or whether the second video or still picture is presented and output on an area where only the second video or still image is displayed. Like that.
Further, the presentation output control means presents a list of a plurality of electronic document data .

本発明の文書処理方法は、第1の電子文書データを入力する入力手順と、前記第1の電子文書データの内容を提示する提示情報を出力制御する提示出力制御手順と、前記提示出力制御手順により提示出力された前記第2の電子文書データの中から、前記第2の電子文書データのうちの一部を指定する指定手順と、前記入力手段に基づいて入力された前記第1の電子文書データ及び前記指定手順で指定された前記第2の電子文書データのうちの一部に対応する1又は複数のビデオデータ又は静止画データを選択するビデオ又は静止画選択手順と、前記ビデオ又は静止画選択手順で選択された複数のビデオデータ又は静止画データ順次出力制御するビデオ又は静止画出力制御手順と、が行われるようにする。 The document processing method of the present invention includes an input procedure for inputting first electronic document data, a presentation output control procedure for controlling the presentation information for presenting the contents of the first electronic document data, and the presentation output control procedure. A designation procedure for designating a part of the second electronic document data from the second electronic document data presented and output by the first electronic document inputted based on the input means a video or still image selection procedure to select one or more video data or still image data corresponding to a part of the specified second electronic document data in the data and the specified procedure, the video or still image A video or still image output control procedure for sequentially outputting a plurality of video data or still image data selected in the selection procedure is performed.

また本発明の記録媒体は、以上のような各手順を有する動作制御プログラムが記録されているものとする。   The recording medium of the present invention records an operation control program having the above procedures.

以上の説明からわかるように本発明では、次のような効果が得られる。
即ち本発明の文書処理装置及び文書処理方法によれば、1又は複数の電子文書データについての提示された内容のうちの一部が指定されることにより、指定された部分に対応する1又は複数のビデオデータが出力制御されるようにしているため、文書の提示とともに、指定された部分、つまり或る文書全体もしくは文書内容のうちの一部に関連する映像などを、ユーザーに提供でき、ユーザーに対して的確で、かつ多様、高度な情報を提供できるという効果がある。
またビデオデータとしては、提供できる情報量の多い動画や、イメージを的確に伝えることのできる静止画を、それぞれ適切に用いることで、ユーザーに対する適切な情報提示が可能となる。
As can be seen from the above description, the present invention provides the following effects.
That is, according to the document processing apparatus and the document processing method of the present invention, one or more corresponding to a specified portion is specified by specifying a part of the presented contents of one or more electronic document data. Video data is output controlled so that, along with the presentation of the document, a specified part, that is, a video related to an entire document or a part of the document content can be provided to the user. It is possible to provide accurate, diverse, and advanced information.
In addition, as video data, appropriate information can be presented to the user by appropriately using a moving image with a large amount of information that can be provided and a still image that can accurately convey an image.

また1又は複数の電子文書データの本文又は要約文を提示して、その提示された文書の一部を指定したり、或いはキーワードで一部を指定できるようにすることで、電子文書データに対しての多様な指定が可能となる。例えば文、文節、文字などの単位で指定できる。
そしてそのように指定された文書の一部に対応して付加されているビデオ指定情報(ビデオタグ)に基づいて、1又は複数のビデオデータを選択し、出力することで、ユーザーにとって見たい部分のみのビデオデータを出力できるなど、ユーザーの要望に細かく対応できるビデオ出力が実現できる。
In addition, by presenting the text or summary of one or more electronic document data, it is possible to specify a part of the presented document, or to specify a part with a keyword. Can be specified in various ways. For example, it can be specified in units of sentences, clauses, characters, etc.
Then, one or a plurality of video data is selected and output based on the video designation information (video tag) added corresponding to a part of the document designated as such, so that the part that the user wants to see Only video data can be output, and video output that can respond precisely to user requests can be realized.

また1又は複数の電子文書データ(又はビデオデータ)のタイトル情報を提示して、そのうちの一部のタイトル情報を指定できるようにすることで、電子文書データ単位の指定やビデオデータそのものの指定が容易に実行できる。
そしてそのように指定された1又は複数のタイトル(つまり電子文書データ又はビデオデータ)に関連するビデオデータが出力されるようにしたことで、ユーザーに各電子文書データやビデオデータの内容を適切かつ簡易に提供できる。
In addition, by presenting title information of one or a plurality of electronic document data (or video data) so that a part of the title information can be designated, designation of electronic document data unit or designation of video data itself can be performed. Easy to implement.
Since video data related to one or a plurality of titles (that is, electronic document data or video data) designated in such a manner is output, the contents of each electronic document data and video data can be appropriately and appropriately given to the user. It can be provided easily.

さらに本発明の記録媒体によれば、本発明の文書処理方法を実現するプログラムを提供できることになり、例えば汎用のパーソナルコンピュータ等を用いて、本発明の文書処理装置を容易に実現できるようになる。これにより、一般ユーザーは容易に上記効果を享受できるものとなる。   Furthermore, according to the recording medium of the present invention, a program for realizing the document processing method of the present invention can be provided. For example, the document processing apparatus of the present invention can be easily realized by using a general-purpose personal computer or the like. . Thereby, a general user can enjoy the said effect easily.

本発明の実施の形態の文書処理装置のブロック図である。It is a block diagram of the document processing apparatus of embodiment of this invention. 実施の形態で用いる文書構造の説明図である。It is explanatory drawing of the document structure used by embodiment. 実施の形態の文章構造を表示するウインドウの説明図である。It is explanatory drawing of the window which displays the sentence structure of embodiment. 実施の形態の手動分類処理のフローチャートである。It is a flowchart of the manual classification process of embodiment. 実施の形態のインデックス作成処理のフローチャートである。It is a flowchart of the index creation process of an embodiment. 実施の形態のエレメントの活性値の説明図である。It is explanatory drawing of the active value of the element of embodiment. 実施の形態の活性拡散処理のフローチャートである。It is a flowchart of the active diffusion process of embodiment. 実施の形態の中心活性値更新処理のフローチャートである。It is a flowchart of the center active value update process of embodiment. 実施の形態の分類ウインドウの説明図である。It is explanatory drawing of the classification | category window of embodiment. 実施の形態の閲覧ウインドウの説明図である。It is explanatory drawing of the browsing window of embodiment. 実施の形態の分類モデルの説明図である。It is explanatory drawing of the classification model of embodiment. 実施の形態の自動分類処理のフローチャートである。It is a flowchart of the automatic classification | category process of embodiment. 実施の形態の自動分類のフローチャートである。It is a flowchart of automatic classification of an embodiment. 実施の形態の語義間関連度算出処理のフローチャートである。It is a flowchart of the relevance calculation process between meanings of an embodiment. 実施の形態の語義間関連度の説明図である。It is explanatory drawing of the relevance degree between meanings of embodiment. 実施の形態の文書読み上げ処理のフローチャートである。It is a flowchart of the document reading process of an embodiment. 実施の形態の読み上げ用ファイル生成処理のフローチャートである。It is a flowchart of the file generation process for reading of embodiment. 実施の形態のタグファイル例の説明図である。It is explanatory drawing of the tag file example of embodiment. 実施の形態のタグファイル例の説明図である。It is explanatory drawing of the tag file example of embodiment. 実施の形態の読み上げ用ファイル例の説明図である。It is explanatory drawing of the example of the file for reading of embodiment. 実施の形態の読み上げ用ファイル例の説明図である。It is explanatory drawing of the example of the file for reading of embodiment. 実施の形態の読み上げウインドウの説明図である。It is explanatory drawing of the reading-out window of embodiment. 実施の形態の要約作成処理のフローチャートである。It is a flowchart of the summary preparation process of embodiment. 実施の形態の要約文表示処理のフローチャートである。It is a flowchart of the summary sentence display process of embodiment. 実施の形態のテロップ表示処理のフローチャートである。It is a flowchart of the telop display process of an embodiment. 実施の形態の閲覧ウインドウの表示例の説明図である。It is explanatory drawing of the example of a display of the browsing window of embodiment. 実施の形態の閲覧ウインドウの要約文を含む表示例の説明図である。It is explanatory drawing of the example of a display containing the summary sentence of the browsing window of embodiment. 実施の形態の閲覧ウインドウでのテロップ表示例の説明図である。It is explanatory drawing of the example of a telop display in the browsing window of embodiment. 実施の形態のテロップ表示動作の説明図である。It is explanatory drawing of the telop display operation | movement of embodiment. 実施の形態の閲覧ウインドウでのテロップ表示後の表示例の説明図である。It is explanatory drawing of the example of a display after the telop display in the browsing window of embodiment. 実施の形態のタグファイル及びビデオファイルの説明図である。It is explanatory drawing of the tag file and video file of embodiment. 実施の形態のビデオタグ付のタグファイルの説明図である。It is explanatory drawing of the tag file with a video tag of embodiment. 実施の形態のビデオタグ付のタグファイルの説明図である。It is explanatory drawing of the tag file with a video tag of embodiment. 実施の形態のビデオタグ付のタグファイルの説明図である。It is explanatory drawing of the tag file with a video tag of embodiment. 実施の形態のビデオ出力用ファイルの説明図である。It is explanatory drawing of the file for video output of embodiment. 実施の形態のビデオ出力形態の説明図である。It is explanatory drawing of the video output form of embodiment. 実施の形態の閲覧ウインドウからのビデオ出力処理のフローチャートである。It is a flowchart of the video output process from the browsing window of embodiment. 実施の形態の閲覧ウインドウでのビデオ出力の説明図である。It is explanatory drawing of the video output in the browsing window of embodiment. 実施の形態の閲覧ウインドウでの文書表示状態の説明図である。It is explanatory drawing of the document display state in the browsing window of embodiment. 実施の形態の閲覧ウインドウでの文書の一部指定の説明図である。It is explanatory drawing of a part specification of the document in the browsing window of embodiment. 実施の形態の閲覧ウインドウでの文書表示状態の説明図である。It is explanatory drawing of the document display state in the browsing window of embodiment. 実施の形態の閲覧ウインドウでのキーワードによる文書の一部指定の説明図である。It is explanatory drawing of partial specification of the document by the keyword in the browsing window of embodiment. 実施の形態の分類ウインドウからのビデオ出力処理のフローチャートである。It is a flowchart of the video output process from the classification | category window of embodiment. 実施の形態のビデオウインドウの説明図である。It is explanatory drawing of the video window of embodiment. 実施の形態のビデオリストウインドウからのビデオ出力処理のフローチャートである。It is a flowchart of the video output process from the video list window of embodiment. 実施の形態のビデオリストウインドウの説明図である。It is explanatory drawing of the video list window of embodiment. 実施の形態の文書処理装置の機能ブロックの説明図である。It is explanatory drawing of the functional block of the document processing apparatus of embodiment.

以下、本発明の実施の形態について次の順序で説明する。
1.文書処理装置の構成
2.文書データ構造
3.文書データに対する手動分類処理
3−1 処理手順
3−2 インデックス作成
3−3 文書閲覧/分類作成/分類操作
3−4 分類モデル作成/登録
4.文書データに対する自動分類処理
4−1 処理手順
4−2 自動分類
5.読み上げ処理
6.要約作成/表示処理
7.ビデオファイルの出力処理
7−1 ビデオファイル及びタグ
7−2 ビデオ出力形態
7−3 閲覧ウインドウからのビデオ出力処理
7−4 分類ウインドウからのビデオ出力処理
7−5 ビデオリストウインドウからのビデオ出力形態
8.文書処理装置の機能ブロック構成
Hereinafter, embodiments of the present invention will be described in the following order.
1. 1. Configuration of document processing apparatus 2. Document data structure 3. Manual classification processing for document data 3-1 Processing procedure 3-2 Index creation 3-3 Document browsing / classification creation / classification operation 3-4 Classification model creation / registration 4. Automatic classification process for document data 4-1 Processing procedure 4-2 Automatic classification Reading process 6. 6. Summary creation / display processing Video file output process 7-1 Video file and tag 7-2 Video output form 7-3 Video output process from viewing window 7-4 Video output process from classification window 7-5 Video output form from video list window 8 . Functional block configuration of document processing device

1.文書処理装置の構成
本発明の実施の形態としての文書処理装置1は、図1に示すように、制御部11およびインターフェース12を備える本体10と、ユーザからの入力を受けて本体10に送る入力部20と、外部との信号の送受信を行う通信部21と、本体10からの出力を表示する表示部30と、記録媒体32に対して情報を記録/再生する記録/再生部31と、音声出力部33と、HDD(ハードディスクドライブ)34を有している。
1. Configuration of Document Processing Apparatus As shown in FIG. 1, a document processing apparatus 1 according to an embodiment of the present invention includes a main body 10 including a control unit 11 and an interface 12, and inputs sent to the main body 10 in response to input from a user. Unit 20, a communication unit 21 for transmitting / receiving signals to / from the outside, a display unit 30 for displaying output from the main body 10, a recording / reproducing unit 31 for recording / reproducing information on / from a recording medium 32, and audio An output unit 33 and an HDD (hard disk drive) 34 are provided.

本体10は、制御部11およびインターフェース12を有し、この文書処理装置1の主要な部分を構成している。
制御部11は、この文書処理装置1における処理を実行するCPU13と、揮発性のメモリであるRAM14と、不揮発性のメモリであるROM15とを有している。
CPU13は、たとえばROM15に記録された手順にしたがって、必要な場合にはデータを一時的にRAM14に格納して、プログラムを実行するための制御をおこなう。
この制御部11の動作としては、詳しくはそれぞれ後述していくが、供給された文書データに関する分類処理、要約作成処理、読み上げ動作のための音声読み上げ用ファイルの生成処理、及びこれらの処理に必要な文書解析などがある。さらに、文書データに関連するビデオデータの出力制御処理も行う。そしてこれらの動作のために必要なプログラムやアプリケーションソフトが、ROM15や、HDD34、あるいは記録媒体32に記憶されている。
なお、制御部11が用いる文書処理プログラムは上記のようにあらかじめROM15に格納されたり、あるいは、記録媒体32やHDD34から取り込むことが考えられるが、例えば通信部21を介してインターネット等のネットワークから、外部サーバ等が提供する文書処理プログラムをダウンロードすることも考えられる。
The main body 10 has a control unit 11 and an interface 12 and constitutes a main part of the document processing apparatus 1.
The control unit 11 includes a CPU 13 that executes processing in the document processing apparatus 1, a RAM 14 that is a volatile memory, and a ROM 15 that is a nonvolatile memory.
For example, according to the procedure recorded in the ROM 15, the CPU 13 temporarily stores data in the RAM 14 when necessary, and performs control for executing the program.
The operation of the control unit 11 will be described in detail later, but it is necessary for the classification processing relating to the supplied document data, the summary creation processing, the generation processing of the voice reading file for the reading operation, and these processing. Document analysis. Furthermore, output control processing of video data related to document data is also performed. Programs and application software necessary for these operations are stored in the ROM 15, the HDD 34, or the recording medium 32.
The document processing program used by the control unit 11 may be stored in the ROM 15 in advance as described above, or may be taken in from the recording medium 32 or the HDD 34. For example, from the network such as the Internet via the communication unit 21, It is also conceivable to download a document processing program provided by an external server or the like.

インターフェース12は、制御部11、入力部20、通信部21、表示部30、記録/再生部31、音声出力部33、HDD34に接続される。
そしてインターフェース12は、制御部11の制御の下に、入力部20からのデータの入力、通信部21との間のデータの入出力、表示部30へのデータの出力、記録/再生部31に対するデータの入出力、音声出力部33へのデータの出力、HDD34に対するデータの入出力の各動作を行う。具体的には制御部11と上記各部の間でのデータの入出力のタイミングを調整したり、データの形式を変換することなどを行う。
The interface 12 is connected to the control unit 11, input unit 20, communication unit 21, display unit 30, recording / playback unit 31, audio output unit 33, and HDD 34.
Under the control of the control unit 11, the interface 12 inputs data from the input unit 20, inputs / outputs data to / from the communication unit 21, outputs data to the display unit 30, and outputs to the recording / reproducing unit 31. Data input / output, data output to the audio output unit 33, and data input / output to / from the HDD 34 are performed. Specifically, the timing of data input / output between the control unit 11 and each of the above units is adjusted, the data format is converted, and the like.

入力部20は、この文書処理装置1に対するユーザの入力を受ける部分である。この入力部20は、たとえばキーボードやマウスにより構成される。ユーザは、この入力部20を用い、キーボードによリキーワード等の文字を入力したり、マウスにより表示部30に表示されている電子文書のエレメントを選択することなどができる。
なお、以下では文書処理装置1で扱う電子文書を、「文書データ」又は単に「文書」と称することにする。また「エレメント」とは文書を構成する要素であって、たとえば文書、文および語が含まれる。
The input unit 20 is a part that receives user input to the document processing apparatus 1. The input unit 20 is configured by a keyboard or a mouse, for example. The user can use the input unit 20 to input characters such as keywords using the keyboard, or to select an element of the electronic document displayed on the display unit 30 with the mouse.
Hereinafter, an electronic document handled by the document processing apparatus 1 is referred to as “document data” or simply “document”. An “element” is an element constituting a document, and includes, for example, a document, a sentence, and a word.

通信部21は、この文書処理装置1に外部からたとえば通信回線を介して送信される信号を受信したり、通信回線に信号を送信する部位である。この通信部21は、外部から送信された1又は複数の文書等のデータを受信し、受信したデータを本体10に送る。もちろん通信回線を介して外部装置にデータを送信することも行われる。
また、文書データに付随して、もしくは独立して、1又は複数のビデオデータ(ビデオファイル)が通信部21により取り込まれることもある。
The communication unit 21 is a part that receives a signal transmitted to the document processing apparatus 1 from the outside via, for example, a communication line or transmits a signal to the communication line. The communication unit 21 receives data such as one or a plurality of documents transmitted from the outside, and sends the received data to the main body 10. Of course, data is also transmitted to an external device via a communication line.
Further, one or a plurality of video data (video files) may be taken in by the communication unit 21 accompanying or independently of the document data.

表示部30は、この文書処理装置1の出力としての文字や画像情報を表示する部位である。この表示部30は、たとえば陰極線管(cathode ray tube;CRT)や液晶表示装置(Liquid crystal display;LCD)などにより構成され、たとえば単数または複数のウィンドウを表示し、このウィンドウ上に文字、図形等を表示する。   The display unit 30 is a part that displays characters and image information as an output of the document processing apparatus 1. The display unit 30 is configured by, for example, a cathode ray tube (CRT), a liquid crystal display (LCD), or the like, and displays, for example, one or a plurality of windows, and characters, figures, etc. are displayed on the windows. Is displayed.

記録/再生部31は、例えばいわゆるフロッピーディスクのような記録媒体32に対してデータの記録/再生を行う。
なお、ここでは記録媒体32の例としてフロッピーディスク(磁気ディスク)を例をあげているが、もちろん光ディスク、光磁気ディスク、メモリカードなど、可搬性メディアであれば記録媒体32の例として適用できる。そして記録/再生部31は、メディアに応じた記録再生装置(ディスクドライブ、カードドライブなど)であればよい。
The recording / reproducing unit 31 records / reproduces data on / from a recording medium 32 such as a so-called floppy disk.
Although a floppy disk (magnetic disk) is taken as an example of the recording medium 32 here, it is needless to say that a portable medium such as an optical disk, a magneto-optical disk, or a memory card can be applied as an example of the recording medium 32. The recording / reproducing unit 31 may be any recording / reproducing device (disk drive, card drive, etc.) corresponding to the medium.

記録媒体32が、文書を処理するための文書処理プログラムが記録されているものである場合は、記録/再生部31は、その記録媒体32から文書処理プログラムを読み出して制御部11に供給することができる。
また記録媒体32に文書データやビデオデータが記録されていれば、記録/再生部31でそれを読み出して制御部11に供給することができる。即ち文書処理装置1にとって、通信部21による文書データ及びビデオデータの受信とは別の、文書データ及びビデオデータの入力態様となる。
さらに、制御部11は当該文書処理装置1で処理した文書データを記録/再生部31において記録媒体32に記録させることもできる。
If the recording medium 32 records a document processing program for processing a document, the recording / reproducing unit 31 reads the document processing program from the recording medium 32 and supplies the document processing program to the control unit 11. Can do.
If document data or video data is recorded on the recording medium 32, it can be read out by the recording / reproducing unit 31 and supplied to the control unit 11. That is, the document processing apparatus 1 has an input mode of document data and video data different from the reception of document data and video data by the communication unit 21.
Further, the control unit 11 can record the document data processed by the document processing apparatus 1 in the recording medium 32 in the recording / reproducing unit 31.

音声出力部33は、文書処理装置1の出力としての文書を、読み上げ音声として出力する部位である。
即ち音声出力部33は、制御部11が文書情報(後述する読み上げ用ファイル)に基づいた音声合成処理により生成した音声信号が供給された際に、その音声信号の出力処理を行うことで、表示部30とともに文書処理装置1の出力手段として機能する。
The voice output unit 33 is a part that outputs a document as an output of the document processing apparatus 1 as a reading voice.
That is, the voice output unit 33 performs output processing of the voice signal when the voice signal generated by the voice synthesis process based on the document information (a reading file to be described later) is supplied by the control unit 11, thereby displaying the voice signal. It functions as an output unit of the document processing apparatus 1 together with the unit 30.

HDD34は、文書処理装置1における大容量の記録領域を提供する。HDD34は、制御部11の制御に基づいて情報の記録/再生を行う。
このHDD34は、制御部11で実行される各種処理のためのアプリケーションプログラム、例えば音声合成のためのプログラムなどの格納するために用いられたり、例えば当該文書処理装置1に取り込まれた文書データやビデオデータ等を格納しておく部位として用いることなどが可能となる。
The HDD 34 provides a large capacity recording area in the document processing apparatus 1. The HDD 34 records / reproduces information based on the control of the control unit 11.
The HDD 34 is used for storing application programs for various processes executed by the control unit 11, such as a program for speech synthesis, or document data or video captured in the document processing apparatus 1, for example. It can be used as a part for storing data or the like.

2.文書データ構造
続いて、本例における文書データの構造について説明する。本例においては、文書処理は、文書に付与された属性情報であるタグを参照しておこなわれる。本例で用いられるタグには、文書の構造を示す統語論的(syntactic)タグと、多言語間で文書の機械的な内容理解を可能にするような意味的(semantic)・語用論的タグとがある。
2. Document Data Structure Next, the structure of document data in this example will be described. In this example, document processing is performed with reference to tags that are attribute information given to the document. The tags used in this example are syntactic tags that indicate the structure of the document, and semantic and pragmatics that allow the understanding of the mechanical content of the document across multiple languages. There is a tag.

統語論的なタグとしては、文書の内部構造を記述するものがある。
タグ付けによる内部構造は、図2に示すように、文書、文、語彙エレメント等の各エレメントが互いに、通常リンク、参照・被参照リンクによりリンクされて構成されている。
図中において、白丸“○”はエレメントを示し、最下位の白丸は文書における最小レベルの語に対応する語彙エレメントである。また、実線は文書、文、語彙エレメント等のエレメント間のつながり示す通常リンク(normal link)であり、破線は参照・被参照による係り受け関係を示す参照リンク(reference link)である。
文書の内部構造は、上位から下位への順序で、文書(documemt)、サブディビジョン(subdivision)、段落(paragraph)、文(sentence)、サブセンテンシャルセグメント(subsentential segment)、・・・、語彙エレメントから構成される。このうち、サブディビジョンと段落はオプションである。
Some syntactic tags describe the internal structure of a document.
As shown in FIG. 2, the internal structure by tagging is configured such that each element such as a document, a sentence, and a vocabulary element is linked to each other by a normal link and a reference / referenced link.
In the drawing, a white circle “◯” indicates an element, and the lowest white circle is a vocabulary element corresponding to the word at the lowest level in the document. A solid line is a normal link indicating a connection between elements such as a document, a sentence, and a vocabulary element, and a broken line is a reference link indicating a dependency relationship by reference / reference.
The internal structure of the document is in order from top to bottom, from document (documemt), subdivision (paradivision), paragraph (sentence), subsentential segment (...), vocabulary element Composed. Of these, subdivisions and paragraphs are optional.

一方、意味論・語用論的なタグ付けとしては、多義語の意味のように意味等の情報を記述するものがある。
本例におけるタグ付けは、HTML(Hyper Text Markup Language)と同様なXML(Extensible Markup Language)の形式によるものである。
On the other hand, as semantic / pragmatic tagging, there is one in which information such as meaning is described like the meaning of a multiple meaning word.
Tagging in this example is based on an XML (Extensible Markup Language) format similar to HTML (Hyper Text Markup Language).

タグ付けの一例を次に示すが、文書へのタグ付けはこの方法に限られない。また、以下では英語と日本語の文書の例を示すが、タグ付けによる内部構造の記述は他の言語にも同様に適用することができる。   An example of tagging is shown below, but tagging of documents is not limited to this method. Moreover, although the example of an English and Japanese document is shown below, the description of the internal structure by tagging can be applied to other languages similarly.

たとえば、“Time flies like an arrow.”という文については、下記のようなタグ付けをすることができる。< >が、文書に対して付与されたタグである。   For example, the sentence “Time flies like an arrow.” Can be tagged as follows. <> Is a tag assigned to the document.

<文><名詞句 語義=“time0”>time</名詞句>
<動詞句><動詞 語義=“fly1”>flies</動詞>
<副詞句><副詞 語義=like0>like</副詞> <名詞句>an
<名詞 語義=“arrow0”>arrow</名詞></名詞句>
</副詞句></動詞句>.</文>
<Sentence><noun phrase meaning = “time0”> time </ noun phrase>
<Verb phrase><Verb meaning = “fly1”> flies </ verb>
<Adverb phrase><adverb meaning = like0> like </ adverb><nounphrase> an
<Noun meaning = “arrow0”> arrow </ noun></ noun phrase>
</ Adverb phrase></ Verb phrase>. </ Sentence>

ここで<文>、<名詞>、<名詞句>、<動詞>、<動詞句>、<副詞>、<副詞句>は、それぞれ文、名詞、名詞句、動詞、動詞句、形容詞/副詞(前置詞句または後置詞句を含む)、形容詞句/副詞句、を示している。つまり文の統語構造(syntactic structure)を表している。   Where <sentence>, <noun>, <noun phrase>, <verb>, <verb phrase>, <adverb>, and <adverb phrase> are a sentence, noun, noun phrase, verb, verb phrase, adjective / adverb, respectively. (Including prepositional or postpositional phrases), adjective / adverbic phrases. In other words, it represents the syntactic structure of the sentence.

これらのタグは、エレメントの先端の直前および終端の直後に対応して配置される。エレメントの終端の直後に配置されるタグは、記号“ /”によりエレメントの終端であることを示している。エレメントとは統語的構成素、すなわち句、節、および文のことである。
なお、語義(word sense)=“time0”は、語“time”の有する複数の意味、すなわち複数の語義のうちの第0番目の意味を指している。具体的には、語“time”には少なくとも名詞、形容詞、動詞の意味があるが、ここでは語“time”が名詞(=第0番目の意味)であることを示している。同様に、語“オレンジ”は少なくとも植物の名前、色、果物の意味があるが、これらも語義によって区別することができる。
These tags are arranged corresponding to immediately before the end of the element and immediately after the end of the element. A tag placed immediately after the end of the element indicates the end of the element by the symbol “/”. Elements are syntactic constructs: phrases, clauses, and sentences.
Note that the word sense = “time 0” indicates a plurality of meanings of the word “time”, that is, the 0th meaning of the plurality of meanings. Specifically, the word “time” has a meaning of at least a noun, an adjective, and a verb. Here, the word “time” indicates a noun (= the 0th meaning). Similarly, the word “orange” has at least a plant name, color, and fruit meaning, which can also be distinguished by meaning.

本例では、文書データについては、図3に示すように、表示部30上のウィンドウ101において、その統語構造を表示することができる。このウィンドウ101においては、右半面103に語彙エレメントが、左半面102に文の内部構造がそれぞれ表示されている。   In this example, the syntactic structure of the document data can be displayed in a window 101 on the display unit 30 as shown in FIG. In this window 101, vocabulary elements are displayed on the right half surface 103, and the internal structure of the sentence is displayed on the left half surface 102.

例えば図示するようにこのウィンドウ101には、タグ付けにより内部構造が記述された文章「A氏のB会が終わったC市で、一部の大衆紙と一般紙がその写真報道を自主規制する方針を紙面で明らかにした。」の一部が表示されている。この文書のタグ付けの例は次のようになる。   For example, as shown in the figure, in this window 101, a sentence “in which the internal structure is described by tagging“ C city where Mr. A's B meeting ended ”, some public newspapers and general newspapers self-regulate the photo coverage. Part of "Clarified policy on paper" is displayed. An example of tagging this document is as follows:

<文書><文><副詞句 関係=“場所”><名詞句><副詞句 場所=“C市”>
<副詞句 関係=“主語”><名詞句 識別子=“B会”><副詞句 関係=“所属”><人名 識別子=“A氏”>A氏</人名>の</副詞句><組織名 識別子=“B会”>B会</組織名></名詞句>が</副詞句>
終わった</副詞句><地名 識別子=“C市”>C市</地名></名詞句>で、</副詞句><副詞句 関係=“主語”><名詞句 識別子=“press” 統語=“並列”><名詞句><副詞句>一部の</副詞句>大衆紙</名詞句>と<名詞>一般紙</名詞></名詞句>が</副詞句>
<副詞句 関係=“目的語”><副詞句 関係=“内容” 主語=“press”><副詞句 関係=“目的語”><名詞句><副詞句><名詞 共参照=“B会”>そ</名詞>の</副詞句>写真報道</名詞句>を</副詞句>
自主規制する</副詞句>方針を</副詞句>
<副詞句 間係=“位置”>紙面で</副詞句>
明らかにした。</文></文書>
<Document><sentence><adverb phrase relationship = "place"><nounphrase><adverb phrase location = "C city">
<Adverb phrase relationship = “subject”><noun phrase identifier = “B-kai”><adverb phrase relationship = “affiliation”><person name identifier = “Mr. A”> Mr. A </ person name></ adverb phrase>< Organization name Identifier = “Group B”> Group B </ Organization name></ Noun phrase> is </ adverb phrase>
</ Adverb phrase><place name identifier = “C city”> C city </ place name></ noun phrase>, </ adverb phrase><adverb phrase relationship = “subject”><noun phrase identifier = “press "Syntax =" Parallel "><nounphrase><adverbphrase> Some </ adverb phrase> popular paper </ noun phrase> and <noun> general paper </ noun></ noun phrase></ adverb phrase >
<Adverb phrase relationship = “object”><adverb phrase relationship = “content” subject = “press”><adverb phrase relationship = “object”><nounphrase><adverbphrase><noun co-reference = “Group B ”> So </ noun></ adverb phrase> Photo report </ noun phrase></ adverb phrase>
Self-regulatory </ adverb phrase> policy </ adverb phrase>
<Adverb phrase interposition = "position"> on paper </ adverb phrase>
Revealed. </ Sentence></Document>

このようにタグ付されることで、各一対のタグ< >〜</ >によって文書の構造が表現される。
例えば<文書>〜</文書>で1つの文書の範囲が示され、同様に<文>〜</文>で1つの文の範囲が示される。また例えば、<名詞句 識別子=“B会”>〜</名詞句>により、「A氏のB会」という部分が「B会」を識別子とする名詞句として表現される。
即ち上記タグ付により、図3の左半面102に示した文の内部構造が表現される。
By tagging in this way, the structure of the document is expressed by each pair of tags <> to </>.
For example, a range of one document is indicated by <document> to </ document>, and similarly, a range of one sentence is indicated by <sentence> to </ sentence>. Further, for example, the part “Mr. A's B meeting” is expressed as a noun phrase having “B meeting” as an identifier by <noun phrase identifier = “B meeting”> to </ noun phrase>.
In other words, the internal structure of the sentence shown on the left half surface 102 of FIG.

さらに、この文書においては、「一部の大衆紙と一般紙」は、統語=“並列”というタグにより並列であることが表されている。並列の定義は、係り受け関係を共有するということである。特に何も指定がない場合、たとえば、<名詞句 関係=x><名詞>A</名詞><名詞>B</名詞></名詞句>は、AがBに依存関係があることを表す。関係=xは関係属性を表す。   Further, in this document, “some popular papers and general papers” are represented as parallel by the tag “Syntax =“ Parallel ””. The definition of parallel means that the dependency relationship is shared. Unless otherwise specified, for example, <noun phrase relationship = x> <noun> A </ noun> <noun> B </ noun> </ noun phrase> indicates that A is dependent on B To express. Relation = x represents a relation attribute.

関係属性は、統語、意味、修辞についての相互関係を記述する。主語、目的語、間接目的語のような文法機能、動作主、被動作者、受益者などのような主題役割、および理由、結果などのような修辞関係はこの関係属性により記述される。本例では、主語、目的語、間接目的語のような比較的容易な文法機能について関係属性を記述する。 Relational attributes describe the interrelationships between syntax, meaning, and rhetoric. Grammatical functions such as subject, object, indirect object, subject roles such as actors, activists, beneficiaries, and rhetorical relationships such as reasons, results, etc. are described by this relation attribute. In this example, relational attributes are described for relatively easy grammatical functions such as a subject, object, and indirect object.

また、この文書においては、“A氏”、“B会”、“C市”のような固有名詞について、地名、人名、組織名等のタグにより属性が記述されている。これら地名、人名、組織名等のタグが付与されることで、その語が固有名詞であることが表現される。   In this document, the attributes of proper nouns such as “Mr. A”, “Group B”, and “C City” are described by tags such as place names, person names, and organization names. By adding tags such as place names, person names, organization names, etc., it is expressed that the word is a proper noun.

3.文書データに対する手動分類処理
3−1 処理手順
本例の文書処理装置1では、例えば通信部21(又は記録/再生部31)により外部から文書データが取り込まれると、その文書データを内容に応じて分類する処理を行う。なお、以下の説明では、外部からの文書データは通信部21を介して取り込まれるとして述べていくが、その説明は、外部からフロッピーディスク等の可搬性メディアの形態で供給され、記録/再生部31から文書データが取り込まれる場合も同様となるものである。
3. Manual Classification Processing for Document Data 3-1 Processing Procedure In the document processing apparatus 1 of this example, when document data is captured from the outside by, for example, the communication unit 21 (or the recording / reproducing unit 31), the document data is converted according to the content. Perform the classification process. In the following description, document data from the outside is described as being taken in via the communication unit 21, but the description is supplied from the outside in the form of a portable medium such as a floppy disk, and the recording / playback unit The same applies to the case where document data is fetched from 31.

分類処理としては、文書データ内容に応じてユーザーが手動で分類する手動分類処理と、文書処理装置1が自動的に分類する自動分類処理がある。
これらの分類処理は、後述する分類モデルに基づいて行われるわけであるが、文書処理装置1においては、初期状態では分類モデルは存在しない。そのため初期状態にある時点では、手動分類処理として、分類モデルの作成を含む分類処理が必要になる。そして、分類モデルが生成された後においては、入力された文書データに対して自動分類処理が可能となるものである。
まずここでは、最初に実行することが必要とされる手動分類処理について説明する。即ちこの手動分類処理とは、初期状態にある文書処理装置1が外部から送られた文書データを受信した際に、ユーザーの操作に基づいて、制御部11が分類モデルの作成及び文書データの分類を行う動作となる。
As the classification process, there are a manual classification process in which the user manually classifies according to the contents of the document data, and an automatic classification process in which the document processing apparatus 1 automatically classifies.
These classification processes are performed based on a classification model to be described later. However, in the document processing apparatus 1, there is no classification model in the initial state. Therefore, at the time of being in the initial state, classification processing including creation of a classification model is necessary as manual classification processing. After the classification model is generated, automatic classification processing can be performed on the input document data.
First, here, the manual classification process that needs to be executed first will be described. That is, the manual classification process is a process in which the control unit 11 creates a classification model and classifies document data based on a user operation when the document processing apparatus 1 in the initial state receives document data sent from the outside. It becomes operation to perform.

まず手動分類処理としての全体の処理手順を図4に示す。なお、各処理ステップの詳細な処理については後述する。   First, FIG. 4 shows the entire processing procedure as manual classification processing. Detailed processing of each processing step will be described later.

図4のステップF11は、文書処理装置1の受信部21による文書受信処理を示している。このステップF11では、受信部21は、たとえば通信回線を介して送信された1又は複数の文書を受信する。受信部21は、受信した文書を文書処理装置の本体10に送る。制御部11は供給された1又は複数の文書データをRAM14又はHDD34に格納する。   Step F11 in FIG. 4 shows document reception processing by the reception unit 21 of the document processing apparatus 1. In step F11, the receiving unit 21 receives one or a plurality of documents transmitted via, for example, a communication line. The receiving unit 21 sends the received document to the main body 10 of the document processing apparatus. The control unit 11 stores the supplied one or more document data in the RAM 14 or the HDD 34.

なお、文書受信時には、その文書に関連するビデオデータ(動画又は静止画データ)を含むビデオファイルが受信される場合があり(もちろんビデオデータのみの受信もあり得る)、1又は複数のビデオファイルが受信された場合は、制御部11はそのビデオファイルを取り込んでRAM14又はHDD34に格納する。ビデオファイルに関する処理については後に詳述する。   When a document is received, a video file including video data (moving image or still image data) related to the document may be received (of course, only video data may be received). If received, the control unit 11 captures the video file and stores it in the RAM 14 or the HDD 34. Processing related to the video file will be described in detail later.

ステップF12では、文書処理装置1の制御部11は、受信部21から送られた複数の文書の特徴を抽出し、それぞれの文書の特徴情報すなわちインデックスを作成する。制御部11は、作成したインデックスを、たとえばRAM14又はHDD34に記憶させる。
後述するがインデックスは、その文書に特徴的な、固有名詞、固有名詞以外の語義などを含むものであり、文書の分類や検索に利用できるものである。
In step F12, the control unit 11 of the document processing apparatus 1 extracts features of a plurality of documents sent from the receiving unit 21, and creates feature information, that is, an index of each document. The control unit 11 stores the created index in, for example, the RAM 14 or the HDD 34.
As will be described later, the index includes proper nouns and meanings other than proper nouns that are characteristic of the document, and can be used for document classification and search.

ステップF13の文書閲覧は、ユーザーの必要に応じて実行される処理である。つまりユーザーの操作に応じて行われる。なお、このステップF13や次のステップF14は、ユーザ操作に基づく処理である。
入力された文書データに対しては、ユーザーは所要の操作を行うことにより、表示部30の画面上で、その文書内容を閲覧することができる。
そして文書閲覧中は、ユーザーは画面上のアイコン等に対する操作により、例えば後述する要約作成などの各種処理を指示できるが、この手動分類処理に関しては、ステップF14として示すように、分類項目の作成及び分類操作としての処理に進むことになる。
ステップF14では、ユーザーが分類項目(なお本明細書では、分類項目のことをカテゴリともいう)を設定する操作を行うことに応じて、制御部11は分類項目を生成/表示していく。またユーザーが文書データを、設定された分類項目に振り分けていく操作も行うことになり、それに応じて制御部11は文書データの振り分け/表示を行うことになる。
The document browsing in step F13 is a process executed as required by the user. That is, it is performed according to the user's operation. This step F13 and the next step F14 are processes based on user operations.
With respect to the input document data, the user can view the document contents on the screen of the display unit 30 by performing a required operation.
While the document is being browsed, the user can instruct various processing such as summary creation, which will be described later, by operating the icons and the like on the screen. The process proceeds to the classification operation.
In step F14, the control unit 11 generates / displays the classification item in response to the user performing an operation of setting the classification item (in this specification, the classification item is also referred to as a category). The user also performs an operation of distributing the document data to the set classification items, and the control unit 11 distributes / displays the document data accordingly.

ステップF15では、制御部11は、ステップF14でユーザーが行った分類項目作成及び分類操作に応じて、分類モデルを作成する。
分類モデルは、文書を分類する複数の分類項目(カテゴリ)から構成されるとともに、各カテゴリに対して各文書のインデックス(ステップF12で作成した各文書のインデックス)を対応づけることで、分類状態を規定するデータである。
このような分類モデルを生成したら、ステップF16で、その分類モデルを登録する。即ち制御部11は、分類モデルをたとえばRAM14に記憶させることで登録を行う。
以上の図4の処理により、文書処理状態1が初期状態にある時に入力された1又は複数の各文書データについて、手動分類及び分類モデルの作成が行われたことになる。
この図4のステップF12以下の処理について詳しく述べていく。
In step F15, the control unit 11 creates a classification model in accordance with the classification item creation and classification operation performed by the user in step F14.
The classification model is composed of a plurality of classification items (categories) for classifying documents, and the classification state is determined by associating each document with an index of each document (index of each document created in step F12). It is data to prescribe.
If such a classification model is generated, the classification model is registered in step F16. That is, the control unit 11 performs registration by storing the classification model in, for example, the RAM 14.
According to the processing of FIG. 4 described above, manual classification and classification model creation are performed for one or a plurality of document data input when the document processing state 1 is in the initial state.
The processing after step F12 in FIG. 4 will be described in detail.

3−2 インデックス作成
ステップF14では、制御部11は入力された文書データについてインデックスの作成を行う。
まず、或る1つの文書データに対して作成されたインデックスの具体例を示す。
3-2 Index Creation In step F14, the control unit 11 creates an index for the input document data.
First, a specific example of an index created for a certain document data is shown.

<インデックス 日付=“AAAA/BB/CC” 時刻=“DD:EE:FF” 文書アドレス=“1234”>
<ユーザの操作履歴 最大要約サイズ=“100”>
<選択 エレメントの数=“10”>ピクチャーテル</選択>
・・・
</ユーザの操作履歴>
<要約>減税規模、触れず−X首相の会見</要約>
<語 語義=“0003” 中心活性値=“140.6”>触れず</語>
<語 語義=“0105” 識別子=“X” 中心活性値=“67.2”>首相</語><人名 識別子=“X” 語 語義=“6103” 中心活性値=“150.2”>X首相</語 /人名>
<語 語義=“5301” 中心活性値=“120.6”>求めた</語>
<語 語義=“2350” 識別子=“X” 中心活性値=“31.4”>首相</語>
<語 語義=“9582” 中心活性値=“182.3”>強調した</語>
<語 語義=“2595” 中心活性値=“93.6”>触れる</語>
<語 語義=“9472” 中心活性値=“12.0”>予告した</語>
<語 語義=“4934” 中心活性値=“46.7”>触れなかった</語>
<語 語義=“0178” 中心活性値=“175.7”>釈明した</語>
<語 語義=“7248” 識別子=“X” 中心活性値=“130.6”>私</語>
<語 語義=“3684” 識別子=“X” 中心活性値=“121.9”>首相</語

<語 語義=“1824” 中心活性値=“144.4.”>訴えた</語>
<語 語義=“7289” 中心活性値=“176.8”>見せた</語>
</インデックス>
<Index date = "AAAA / BB / CC" Time = "DD: EE: FF" Document address = "1234">
<User operation history Maximum summary size = "100">
<Number of selected elements = “10”> Picturetel </ Selected>
...
</ User operation history>
<Summary> Tax reduction scale, untouched-Prime Minister X's meeting </ summary>
<Word meaning = “0003” Central activity value = “140.6”> Do not touch </ word>
<Word meaning = “0105” identifier = “X” central activity value = “67.2”> prime minister </ word><person name identifier = “X” word meaning = “6103” central activity value = “150.2”> prime X Word / Person Name>
<Word meaning = “5301” central activity value = “120.6”> determined </ word>
<Word meaning = “2350” Identifier = “X” Central activity value = “31.4”> Prime Minister </ word>
<Word meaning = “9582” Central activity value = “182.3”> Emphasized </ Word>
<Word meaning = “2595” central activity value = “93.6”> touch </ word>
<Word meaning = "9472" Central activity value = "12.0"> Noticed </ Word>
<Word meaning = "4934" Central activity value = "46.7"> I didn't touch </ Word>
<Word meaning = “0178” central activity value = “175.7”> explained </ word>
<Word meaning = “7248” identifier = “X” central activity value = “130.6”> I </ word>
<Word meaning = “3684” Identifier = “X” Central activity value = “121.9”> Prime Minister </ word>
<Word meaning = “1824” central activity value = “144.4.”> Appealed </ word>
<Word meaning = “7289” central activity value = “176.8”> showed </ word>
</ Index>

このインデックスにおいては、<インデックス>および</インデックス>は、インデックスの始端および終端を、<日付>および<時刻>はこのインデックスが作成された日付および時刻を、<要約>および</要約>はこのインデックスの内容の要約の始端および終端を、それぞれ示している。
また、<語>および</語>は語の始端および終端を示している。
さらに例えば、語義=“0003”は、第3番目の語義であることを示している。他についても同様である。上述したように、同じ語でも複数の意味を持つ場合があるので、それを区別するために語義ごとに番号が予め決められており、その該当する語義が番号で表されているものである。
In this index, <index> and </ index> are the beginning and end of the index, <date> and <time> are the date and time this index was created, and <summary> and </ summary> are The beginning and end of the summary of the contents of this index are shown respectively.
<Word> and </ Word> indicate the beginning and end of a word.
Further, for example, meaning = “0003” indicates the third meaning. The same applies to other cases. As described above, since the same word may have a plurality of meanings, a number is predetermined for each meaning in order to distinguish them, and the corresponding meaning is represented by a number.

また、<ユーザの操作履歴>および</ユーザの操作履歴>は、ユーザの操作履歴の始端および終端を、<選択>および</選択>は、選択されたエレメントの始端および終端を、それぞれ示している。最大要約サイズ=“100”は、要約の最大のサイズが100文字であることを、エレメントの数=“10”は、選択されたエレメントの数が10であることを示している。   <User operation history> and </ User operation history> indicate the start and end of the user operation history, and <Select> and </ Select> indicate the start and end of the selected element, respectively. ing. The maximum summary size = “100” indicates that the maximum size of the summary is 100 characters, and the number of elements = “10” indicates that the number of selected elements is 10.

この例のように、インデックスは、その文書に特徴的な、固有名詞、固有名詞以外の語義などを含むものである。
例えばこのようなインデックスを作成するステップF12の処理を、図5〜図8で説明する。なお、図5は1つの文書データに対するインデックス作成処理を示しており、従って複数の文書データについて処理を行う場合は、各文書データについてこの図5の処理が行われることになる。
また図5のステップF31の詳細な処理を図7に示し、さらに図7のステップF43の詳細な処理を図8に示している。
As in this example, the index includes proper nouns, meanings other than proper nouns, and the like that are characteristic of the document.
For example, the process of step F12 for creating such an index will be described with reference to FIGS. FIG. 5 shows an index creation process for one document data. Therefore, when processing a plurality of document data, the process of FIG. 5 is performed for each document data.
FIG. 7 shows detailed processing in step F31 in FIG. 5, and FIG. 8 shows detailed processing in step F43 in FIG.

上述した図4のステップF12のインデックス作成処理としては、まず図5のステップF31の活性拡散が行われる。
この活性拡散とは、文書データについて、エレメントの中心活性値を文書の内部構造に基づいて拡散することで、中心活性値の高いエレメントと関わりのあるエレメントにも高い中心活性値を与えるような処理である。
即ち、文書を構成する各エレメントに対して初期値としての中心活性値を与えた後、その中心活性値を、文書の内部構造、具体的にはリンク構造に基づいて拡散する。
この中心活性値は、タグ付けによる内部構造に応じて決定されるので、文書の特徴の抽出等に利用されるものである。
制御部11は、このステップF31として、活性拡散を行い、活性拡散の結果として得られた各エレメントの中心活性値を、たとえばRAM14に記憶させることになる。
As the index creation processing in step F12 in FIG. 4 described above, first, active diffusion in step F31 in FIG. 5 is performed.
This active diffusion is a process for giving high central activity values to elements associated with elements having high central activity values by diffusing the central activity values of the elements based on the internal structure of the document data. It is.
That is, after giving a central activation value as an initial value to each element constituting the document, the central activation value is diffused based on the internal structure of the document, specifically, the link structure.
Since this central activity value is determined according to the internal structure by tagging, it is used for extracting document features and the like.
As step F31, the control unit 11 performs active diffusion, and stores the central active value of each element obtained as a result of the active diffusion in the RAM 14, for example.

ステップF31の活性拡散について、図6〜図8で詳しく説明していく。
まずエレメントとエレメントのリンク構造の例を図6に示す。
図6においては、文書を構成するエレメントとリンクの構造の一部として、エレメントE1、E2の周辺を示している。E1〜E8はエレメントの例であり、この中でエレメントE1、E2に注目して説明する。
The active diffusion in step F31 will be described in detail with reference to FIGS.
First, an example of the element-element link structure is shown in FIG.
In FIG. 6, the periphery of the elements E1 and E2 is shown as part of the structure of the elements and links constituting the document. E1 to E8 are examples of elements, and the description will be given focusing on the elements E1 and E2.

エレメントE1の中心活性値はe1であるとし、またエレメントE2の中心活性値はe2であるとする。
このエレメントE1,E2は、リンクL12(上述した通常リンクもしくは参照リンク)にて接続されている。
リンクL12のエレメントE1に接続する端点をT12、エレメントE2に接続する端点をT21とする。
エレメントE1は、さらにエレメントE3,E4,E5と、それぞれリンクL13,L14,L15で接続されている。各リンクL13,L14,L15におけるエレメントE1側の端点をそれぞれT13,T14,T15とする。
またエレメントE2は、エレメントE6,E7,E8とも、それぞれリンクL26,L27,L28で接続されている。各リンクL26,L27,L28におけるエレメントE2側の端点をそれぞれT26,T27,T28とする。
このようなリンク構造の例を用いながら、図7、図8の活性拡散処理を説明していく。
Assume that the central activity value of element E1 is e1, and the central activity value of element E2 is e2.
The elements E1 and E2 are connected by a link L12 (the above-described normal link or reference link).
An end point connected to the element E1 of the link L12 is T12, and an end point connected to the element E2 is T21.
The element E1 is further connected to elements E3, E4, and E5 via links L13, L14, and L15, respectively. The end points on the element E1 side of the links L13, L14, and L15 are denoted as T13, T14, and T15, respectively.
Element E2 is also connected to elements E6, E7, and E8 by links L26, L27, and L28, respectively. The end points on the element E2 side in each of the links L26, L27, and L28 are T26, T27, and T28, respectively.
The active diffusion process of FIGS. 7 and 8 will be described using an example of such a link structure.

図7のステップF41で制御部11は、インデックス作成対象としての文書データについて活性拡散を開始するにあたり、まず文書データの全エレメントについて中心活性値の初期設定を行う。
中心活性値の初期値としては、例えば固有名詞や、ユーザーが選択(クリック)したエレメント等に高い値を与えるようにする。
また制御部11は、参照リンクと通常リンクに関して、エレメントを連結するリンクの端点T(xx)の端点活性値を0に設定する。制御部11は、このように付与した端点活性値の初期値を、たとえばRAM14に記憶させる。
In step F41 of FIG. 7, when starting the active diffusion for the document data as the index creation target, the control unit 11 first performs the initial setting of the central active value for all the elements of the document data.
As the initial value of the central activity value, for example, a high value is given to a proper noun or an element selected (clicked) by the user.
The control unit 11 sets the end point activation value of the end point T (xx) of the link connecting the elements to 0 for the reference link and the normal link. The control unit 11 stores the initial value of the end point activation value thus assigned, for example, in the RAM 14.

ステップF42においては、制御部11は、文書を構成するエレメントEiを計数するカウンタの初期化をおこなう。すなわち、エレメントを計数するカウンタのカウント値iを1に設定する。i=1の場合、このカウンタは、第1番目のエレメント(例えば図6のエレメントE1)を参照することになる。   In step F42, the control unit 11 initializes a counter for counting the elements Ei constituting the document. That is, the count value i of the counter for counting elements is set to 1. When i = 1, this counter refers to the first element (for example, element E1 in FIG. 6).

ステップF43においては、制御部11は、カウンタが参照するエレメントについて、新たな中心活性値を計算する中心活性値更新処理を実行する。
この中心活性値更新処理について、エレメントE1についての処理を例に挙げながら、図8で詳しく説明する。
この中心活性値更新処理は、エレメントについての端点活性値を更新し、さらに更新された端点活性値と現在の中心活性値を用いて、新たな中心活性値を算出する処理となる。
In step F43, the control unit 11 executes a center activity value update process for calculating a new center activity value for the element referred to by the counter.
The center activation value update process will be described in detail with reference to FIG. 8 taking the process for the element E1 as an example.
This center activation value update process is a process of updating the endpoint activation value for the element, and further calculating a new center activation value using the updated endpoint activation value and the current center activation value.

図8のステップF51では、制御部11は、文書を構成するエレメントEi(例えばこの場合E1)に一端が接続されたリンクの数を計数するカウンタの初期化をおこなう。すなわち、リンクを計数するカウンタのカウント値jを1に設定する。j=1の場合、このカウンタは、エレメントEiと接続された第1番目のリンクL(yy)を参照することになる。図6の例では、エレメントE1についての第1のリンクとして例えばリンクL12を参照する。   In step F51 of FIG. 8, the control unit 11 initializes a counter that counts the number of links having one end connected to an element Ei (for example, E1 in this case) constituting the document. That is, the count value j of the counter for counting links is set to 1. When j = 1, this counter refers to the first link L (yy) connected to the element Ei. In the example of FIG. 6, for example, a link L12 is referred to as the first link for the element E1.

ステップF52で制御部11は、参照中のリンク、つまりエレメントE1とE2を接続するリンクL12について、関係属性のタグを参照することにより通常リンクであるか否かを判断する。制御部11は、リンクL12が通常リンクであればステップF53に、一方リンクL12が参照リンクであればステップF54に処理を進める。   In step F52, the control unit 11 determines whether the link being referred to, that is, the link L12 connecting the elements E1 and E2, is a normal link by referring to the relation attribute tag. The control unit 11 proceeds to step F53 if the link L12 is a normal link, and proceeds to step F54 if the link L12 is a reference link.

リンクL12が通常リンクと判断されてステップF53に進んだ場合は、制御部11は、エレメントE1の通常リンクL12に接続された端点T12の新たな端点活性値を計算する処理をおこなう。
端点T12の端点活性値t12は、リンク先のエレメントE2の端点活性値のうち、リンクL12以外のリンクに接続するすべての端点の各端点活性値(この場合T26、T27、T28の各端点活性値t26、t27,t28)と、エレメントE2の中心活性値e2を加算し、この加算で得た値を、文書に含まれるエレメントの総数で除することにより求められる。
制御部11は、この様な演算を、RAM14から読み出した各端点活性値および各中心活性値を用いて行うことで、通常リンクと接続された端点についての新たな端点活性値を算出し、算出した端点活性値を、RAM14に記憶させる。つまり端点T12の端点活性値t12を更新する。
When it is determined that the link L12 is a normal link and the process proceeds to step F53, the control unit 11 performs a process of calculating a new end point activation value of the end point T12 connected to the normal link L12 of the element E1.
The endpoint activation value t12 of the endpoint T12 is the endpoint activation value of all endpoints connected to the link other than the link L12 among the endpoint activation values of the link destination element E2 (in this case, the endpoint activation values of T26, T27, and T28). t26, t27, t28) and the central activation value e2 of the element E2, and the value obtained by this addition is divided by the total number of elements included in the document.
The control unit 11 calculates a new end point activation value for the end point connected to the normal link by performing such calculation using each end point activation value and each center activation value read from the RAM 14. The end point activation value thus stored is stored in the RAM 14. That is, the endpoint activation value t12 of the endpoint T12 is updated.

一方、ステップF52でリンクL12が参照リンクであると判断され、ステップF54に進んだ場合は、同じく制御部11は、通常リンクL12に接続されたエレメントE1の端点T12の新たな端点活性値を計算する処理をおこなうことになるが、端点活性値の算出のための演算は次のようになる。
即ちこの場合は、端点T12の端点活性値t12は、リンク先のエレメントE2の端点活性値のうち、リンクL12以外のリンクに接続するすべての端点の各端点活性値(この場合T26、T27、T28の各端点活性値t26、t27,t28)と、エレメントE2の中心活性値e2を加算した値とする。(つまり除算がない点が上記通常リンクの場合と異なるものとなる)
そして制御部11は、この様な演算を、RAM14から読み出した各端点活性値および各中心活性値を用いて行うことで、参照リンクと接続された端点についての新たな端点活性値を算出し、算出した端点活性値を、RAM14に記憶させる。つまり端点T12の端点活性値t12を更新する。
On the other hand, when it is determined in step F52 that the link L12 is a reference link and the process proceeds to step F54, the control unit 11 similarly calculates a new end point activation value of the end point T12 of the element E1 connected to the normal link L12. The calculation for calculating the end point activation value is as follows.
That is, in this case, the endpoint activation value t12 of the endpoint T12 is the endpoint activation value of all endpoints connected to the link other than the link L12 among the endpoint activation values of the link destination element E2 (in this case, T26, T27, T28). The end point activation values t26, t27, and t28) are added to the center activation value e2 of the element E2. (In other words, the point that there is no division is different from the case of the above normal link)
And the control part 11 calculates a new end point active value about the end point connected with the reference link by performing such calculation using each end point active value and each center active value read from RAM14, The calculated end point activation value is stored in the RAM 14. That is, the endpoint activation value t12 of the endpoint T12 is updated.

このようなステップF53又はF54の処理を行なったら、制御部11はステップF55での判別処理を介して(判別結果がNOであれば)ステップF57に進み、カウント値jをインクリメントしてステップF52に戻る。
即ち続いて、カウント値j=2とされることにより、エレメントE1についての第2のリンク(例えばリンクL13)が参照されることになるため、上記同様にステップF52以降の処理でリンクL13に接続される端点T13の端点活性値t13が算出/更新されることになる。
After performing the processing of step F53 or F54, the control unit 11 proceeds to step F57 via the determination processing in step F55 (if the determination result is NO), increments the count value j, and proceeds to step F52. Return.
That is, subsequently, since the count value j = 2 is set, the second link (for example, the link L13) for the element E1 is referred to. The end point activation value t13 of the end point T13 is calculated / updated.

ステップF55では、制御部11は、現在カウント値iで参照中のエレメントEi(E1)について、全てのリンクについての新たな端点活性値が計算されたか否かを判別して処理を分岐するものであるため、端点活性値の更新処理は、参照中のエレメントEiの全ての端点活性値が更新されるまで行われる。
つまりステップF57でカウント値jがインクリメントされながら処理が繰り返されることで、例えばエレメントE1については、端点T12,T13,T14,T15についてそれぞれ端点活性値t12,t13,t14,t15が更新されていき、その全てが更新された時点で、処理はステップF55からF56に進むことになる。
In step F55, the control unit 11 determines whether or not new end point activation values for all links have been calculated for the element Ei (E1) that is currently being referenced with the count value i, and branches the process. Therefore, the end point activation value update processing is performed until all end point activation values of the element Ei being referred to are updated.
That is, by repeating the processing while incrementing the count value j in step F57, for example, for the element E1, the endpoint activation values t12, t13, t14, and t15 are updated for the endpoints T12, T13, T14, and T15, respectively. When all of them are updated, the process proceeds from step F55 to F56.

エレメントEiについての全ての端点活性値が求められたことに応じて、ステップF56では、更新された端点活性値を用いて、エレメントEiの新たな中心活性値eiを算出する。
エレメントEiの新たな中心活性値eiは、エレメントEiの現在の中心活性値eiとエレメントEiのすべての端点の新たな端点活性値の和で求められる。例えば図6のエレメントE1の場合は、新たな中心活性値e1(new)は、
e1(new)=e1+t12+t13+t14+t15
となる。
In response to the determination of all the end point activation values for the element Ei, in step F56, a new center activation value ei of the element Ei is calculated using the updated end point activation value.
The new center activation value ei of the element Ei is obtained by the sum of the current center activation value ei of the element Ei and the new endpoint activation values of all the endpoints of the element Ei. For example, in the case of element E1 in FIG. 6, the new center activation value e1 (new) is
e1 (new) = e1 + t12 + t13 + t14 + t15
It becomes.

制御部11は、このようにして現在カウント値iで参照中のエレメントEiの中心活性値eiを算出する。そして、制御部11は、計算した新たな中心活性値eiをRAM14に記憶させる。つまりエレメントEiの中心活性値eiを更新する。(但しこの時点では、後述するステップF45の処理で用いるため、旧中心活性値も保持しておく)   In this way, the control unit 11 calculates the center activation value ei of the element Ei being referenced with the current count value i. Then, the control unit 11 stores the calculated new center activation value ei in the RAM 14. That is, the center activation value ei of the element Ei is updated. (However, at this point of time, the old center activation value is also retained for use in the processing of step F45 described later)

図7のステップF43の中心活性値更新処理として、以上図8に示したような処理が行われるたら、制御部11の処理は図7のステップF44に進み、制御部11は、文書中のすべてのエレメントについて中心活性値更新処理が完了したか否かを判断する。具体的には、制御部11は、カウント値iが、文書に含まれるエレメントの総数に達したか否かを判断する。
制御部11は、すべてのエレメントについて中心活性値更新処理が完了していないときは、ステップF47に処理を進め、カウント値iをインクリメントしてステップF43に戻る。
例えば上記のようにエレメントE1についての処理が終わった後であれば、カウント値i=2とされて、今度はエレメントE2が参照されることになる。
そしてエレメントE2について、ステップF43の中心活性値更新処理(即ち図8の処理)が上記同様に行われる。
重複説明となるため詳細は述べないが、図6のリンク例でいえば、エレメントE2の場合は、図8の処理において端点T21,T26,T27,T28の各端点活性値t21,t26,t27,t28が更新された後、新たな中心活性値e2(new)が、
e2(new)=e2+t21+t26+t27+t28
として算出され、更新されることになる。
When the process as shown in FIG. 8 is performed as the central activation value update process in step F43 in FIG. 7, the process of the control unit 11 proceeds to step F44 in FIG. It is determined whether or not the center activity value update processing has been completed for the element. Specifically, the control unit 11 determines whether or not the count value i has reached the total number of elements included in the document.
When the central activation value update process has not been completed for all the elements, the control unit 11 proceeds to step F47, increments the count value i, and returns to step F43.
For example, after the processing for the element E1 is completed as described above, the count value i = 2 is set, and this time, the element E2 is referred to.
Then, for the element E2, the center activation value update process of step F43 (that is, the process of FIG. 8) is performed in the same manner as described above.
Although not described in detail because of overlapping explanation, in the example of the link in FIG. 6, in the case of element E2, in the process of FIG. 8, the endpoint activation values t21, t26, t27, After t28 is updated, the new center activation value e2 (new) is
e2 (new) = e2 + t21 + t26 + t27 + t28
Is calculated and updated.

図7の処理においては、このようにステップF47でカウント値iがインクリメントされて参照エレメントが変更されながらステップF43の中心活性値更新処理が繰り返されることで、文書に含まれる全てのエレメントの中心活性値が更新されていくことになる。   In the processing of FIG. 7, the central activity value update processing of step F43 is repeated while the count value i is incremented in step F47 and the reference element is changed in this way, so that the central activity of all elements included in the document is obtained. The value will be updated.

文書中のすべてのエレメントについて中心活性値の更新が完了したときは、処理はステップF44からF45に進むことになる。
ステップF45においては、制御部11は、文書に含まれるすべてのエレメントの中心活性値の変化分、すなわち新たに計算された中心活性値の元の中心活性値に対する変化分について平均値を計算する。
例えば制御部11は、RAM14に記憶された旧中心活性値と、更新した新たな中心活性値を、文書に含まれるすべてのエレメントについて読み出す。そして各エレメントについて新中心活性値と旧中心活性値の差分を求め、その差分の総和をエレメントの総数で除することにより、すべてのエレメントの中心活性値の変化分の平均値を計算する。
制御部11は、このように計算したすべてのエレメントの中心活性値の変化分の平均値を、たとえばRAM14に記憶させる。
When the update of the central active value is completed for all elements in the document, the process proceeds from step F44 to F45.
In step F45, the control unit 11 calculates an average value for the change in the central activity value of all elements included in the document, that is, the change in the newly calculated central activity value with respect to the original central activity value.
For example, the control unit 11 reads the old center activity value stored in the RAM 14 and the updated new center activity value for all elements included in the document. Then, the difference between the new center activity value and the old center activity value is obtained for each element, and the sum of the differences is divided by the total number of elements, thereby calculating the average value of the change in the center activity value of all the elements.
The control unit 11 stores, for example, the RAM 14 in the average value of the change in the central activity value of all the elements calculated in this way.

続いてステップF46において制御部11は、ステップF45で計算した平均値が、あらかじめ設定された閾値以内であるか否かを判断する。
そして、制御部11は、上記平均値が閾値以内である場合は、活性拡散処理としての一連の行程を終了するが、上記平均値が閾値以内でないときには、ステップF42にもどって、上述した一連の行程を再び実行する。
Subsequently, in step F46, the control unit 11 determines whether or not the average value calculated in step F45 is within a preset threshold value.
When the average value is within the threshold value, the control unit 11 ends the series of steps as the active diffusion process. When the average value is not within the threshold value, the control unit 11 returns to Step F42 and returns to the series of processes described above. Run the process again.

この一連の活性拡散処理は、中心活性値が高いエレメントに関連のある(リンクする)エレメントについて、その中心活性値を引き上げていく処理といえるものである。
ところが、この活性拡散を1回行うのみでは、インデックス作成処理の目的を考えたときに、本来中心活性値を引き上げられるべきエレメントの中で、中心活性値が十分に引き上げられないものが発生する場合もありうる。例えば、1回の活性拡散では、中心活性値の初期値が高く設定されたエレメントに直接リンクするエレメントについては、或る程度中心活性値が引き上げられるが、直接リンクしていないエレメントは、それがインデックスとして重要なエレメントであっても十分に中心活性値が引き上げられないことが生ずる。
そこで、ステップF46の判断を介して、必要に応じて活性拡散処理を複数回行うようにすることで、全体的に中心活性値が収束されるようにし、中心活性値が引き上げられない重要なエレメントがなるべく生じないようにするものである。
なお、複数回の活性拡散で、全体的に中心活性値が収束されていくのは、活性拡散処理で更新された各エレメントの中心活性値に基づいて、さらに次の活性拡散処理で各エレメントの中心活性値が更新されていくためである。但し、このような活性拡散処理が多数回行われすぎると、全エレメントの中心活性値が収束しきってほぼ同値となるような事態となり、不適切である。
このため、ステップF45,F46の処理として、中心活性値の変化分の平均値を求めるように、その変化分に基づいて活性拡散処理の終了タイミングを判断することで、インデックス作成に好適な活性拡散が実現されることになる。
This series of active diffusion processes can be said to be a process of raising the central activity value of an element related (linked) to an element having a high central activity value.
However, when this active diffusion is performed only once, when the purpose of the index creation process is considered, there is an element in which the central activity value cannot be sufficiently increased among elements that should originally increase the central activity value. There is also a possibility. For example, in a single active diffusion, the central activity value is increased to some extent for an element directly linked to an element whose initial value of the central activity value is set high. Even if the element is important as an index, the center activity value may not be sufficiently increased.
Therefore, by performing the active diffusion process a plurality of times as necessary through the determination in step F46, the central active value is converged as a whole, and the important element that the central active value cannot be raised. This is to prevent as much as possible.
It should be noted that the central activity value is converged as a whole by multiple active diffusions, based on the central activity value of each element updated by the active diffusion processing, and further by the next active diffusion processing. This is because the central activity value is updated. However, if such an active diffusion process is performed too many times, the central activity values of all elements converge and become almost the same value, which is inappropriate.
For this reason, as processing of steps F45 and F46, active diffusion suitable for index creation is determined by determining the end timing of the active diffusion processing based on the change so as to obtain the average value of the change in the central activity value. Will be realized.

以上の図7、図8のような活性拡散処理(即ち図5のステップF31)が完了したら、制御部11の処理は図5のステップF32に進むことになる。
ステップF32においては、制御部11は、ステップF31で得られた各エレメントの中心活性値に基づいて、中心活性値があらかじめ設定された閾値を超えるエレメントを抽出する。制御部11は、このように抽出したエレメントをRAM14に記憶させる。
When the active diffusion process as shown in FIGS. 7 and 8 (that is, step F31 in FIG. 5) is completed, the process of the control unit 11 proceeds to step F32 in FIG.
In step F32, the control unit 11 extracts elements whose center activity value exceeds a preset threshold based on the center activity value of each element obtained in step F31. The control unit 11 stores the extracted elements in the RAM 14.

続いてステップF33においては、制御部11は、ステップF32にて抽出したエレメントをたとえばRAM14から読み出す。そして制御部11は、この抽出したエレメントの中からすべての固有名詞を取り出してインデックスに加える。固有名詞は語義を持たず、辞書に載っていないなどの特殊の性質を有するので固有名詞以外の語とは別に扱うものである。なお語義とは、前述したように、語の有する複数の意味のうちの各意味に対応したものである。
各エレメントが固有名詞であるか否かは、文書に付されたタグに基づいて判断することができる。たとえば、図3に示したタグ付けによる内部構造においては、“A氏”、“B会”および“C市”は、タグによる関係属性がそれぞれ“人名”、“組織名”および“地名”であるので固有名詞であることが分かる。そして、制御部11は、取り出した固有名詞をインデックスに加え、その結果をRAM14に記憶させる。
Subsequently, in step F33, the control unit 11 reads out the element extracted in step F32 from the RAM 14, for example. Then, the control unit 11 extracts all proper nouns from the extracted elements and adds them to the index. Proper nouns have no special meaning and have special properties such as not being listed in the dictionary, so they are handled separately from words other than proper nouns. The word meaning corresponds to each meaning of a plurality of meanings of the word as described above.
Whether each element is a proper noun can be determined based on a tag attached to the document. For example, in the internal structure with tagging shown in FIG. 3, “Mr. A”, “Group B”, and “C City” have the relationship attributes of “person name”, “organization name”, and “place name”, respectively. It can be seen that it is a proper noun. And the control part 11 adds the taken-out proper noun to an index, and memorize | stores the result in RAM14.

次のステップF34においては、制御部11は、ステップF32にて抽出したエレメントの中から、固有名詞以外の語義を取り出してインデックスに加え、その結果をRAM14に記憶させる。   In the next step F34, the control unit 11 extracts meanings other than proper nouns from the elements extracted in step F32, adds them to the index, and stores the results in the RAM 14.

以上の処理により、例えば上記した具体例のようなインデックスが生成される。即ちインデックスは、タグ付けされた文書の特徴を発見して、その特徴を配列したものとなり、その文書の特徴は、文書の内部構造に応じて拡散処理された中心活性値に基づいて判断されるものとなる。
そしてこのようなインデックスは、文書を代表するような特徴を表す語義および固有名詞を含むので、所望の文書を参照する際に用いることができる。
なお、インデックスには、文書の特徴を表す語義および固有名詞とともに、その文書がRAM14(又はHDD34)において記憶された位置を示す文書アドレスを含めておく。
Through the above processing, for example, an index like the above-described specific example is generated. That is, the index is a feature of tagged documents, and the features are arranged, and the features of the document are determined based on the central activity value subjected to diffusion processing according to the internal structure of the document. It will be a thing.
Such an index includes meanings and proper nouns that represent features representing the document, and can be used when referring to a desired document.
The index includes a document address indicating a position where the document is stored in the RAM 14 (or HDD 34), along with a meaning and proper nouns representing the characteristics of the document.

3−3 文書閲覧/分類作成/分類操作
以上の図5〜図8で説明したインデックス作成処理は図4のステップF12で行われるものとなる。従って図4の手動分類処理としては、続いてステップF13,F14の処理、即ち上述したようにユーザーによる閲覧及び手動分類の処理に移る。
3-3 Document Browsing / Category Creation / Classification Operation The index creation processing described above with reference to FIGS. 5 to 8 is performed in step F12 in FIG. Therefore, the manual classification process in FIG. 4 proceeds to the processes of steps F13 and F14, that is, the browsing and manual classification processes by the user as described above.

上述のように、図4のステップF13においては、ユーザーは表示部30に表示される文書を閲覧することができる。
またステップF14においては、ユーザーが分類項目を設定する操作や、文書データを、設定された分類項目に振り分けていく操作を行うことができる。
このステップF13,F14で行われる操作や、それに対応する制御部11の処理及び表示部30の表示例は以下のようになる。
As described above, in step F13 in FIG. 4, the user can browse the document displayed on the display unit 30.
In step F14, the user can perform an operation for setting a classification item or an operation for distributing document data to the set classification item.
The operations performed in steps F13 and F14, the processing of the control unit 11 corresponding thereto, and the display example of the display unit 30 are as follows.

図9、図10は表示部30における表示の具体例を示している。
まず図9は、詳しくは後述する分類モデルに対応した分類ウインドウ201の表示例である。即ち、文書分類の表示に用いられるグラフィックユーザインターフェース(graphic user interface;GUI)の具体例となる。
この分類ウィンドウ201には、操作用のボタン表示202として、画面のウィンドウの状態を初期の位置にもどすポジションリセット(position reset)ボタン202aと、文書の内容を閲読するブラウザ(browser:後述する閲覧ウインドウ)を呼び出すブラウザボタン202bと、このウィンドウからの脱出(exit)ボタン202cとが表示される。
さらに、同じくボタン表示202として、詳しくは後述するが、この分類ウインドウ201から指定した文書に関するビデオ出力を実行させるためのビデオボタン202dが表示され、また、後述するビデオリストウインドウを呼び出すビデオリストボタン202eが表示される。
9 and 10 show specific examples of display on the display unit 30. FIG.
First, FIG. 9 is a display example of a classification window 201 corresponding to a classification model described later in detail. That is, it is a specific example of a graphic user interface (GUI) used for displaying the document classification.
In this classification window 201, as a button display 202 for operation, a position reset button 202a for returning the window state of the screen to an initial position, and a browser (browser: viewing window described later) for reading the contents of the document ) And a exit button 202c from this window are displayed.
Further, as will be described later in detail as the button display 202, a video button 202d for executing video output related to a document designated from the classification window 201 is displayed, and a video list button 202e for calling a video list window described later is displayed. Is displayed.

また、この分類ウィンドウ201は、分類モデルに対応する分類項目に応じた小ウインドウとして、文書分類エリア203,204,205・・・が形成される。
文書分類エリア203は、“他のトピックス”を表示するエリアとされる。この”他のトピックス”の文書分類エリア203は、まだ分類されていない文書が提示される領域となる。例えば図4のステップF11で受信された各文書(つまりこれから分類しようとする文書)は、この”他のトピックス”の文書分類エリア203に提示される。
文書分類エリア204は、例えば”ビジネスニュース”に分類された文書が提示される領域となる。
文書分類エリア205は、例えば”政治ニュース”に分類された文書が提示される領域となる。
これら以外にも、図中で符号を付していない文書分類エリアは、それぞれ特定の分類項目に応じた文書が提示される領域となる。
Further, the classification window 201 is formed with document classification areas 203, 204, 205... As small windows corresponding to the classification items corresponding to the classification model.
The document classification area 203 is an area for displaying “other topics”. This “other topics” document classification area 203 is an area where documents that have not been classified yet are presented. For example, each document received in step F11 in FIG. 4 (that is, a document to be classified in the future) is presented in the document classification area 203 of this “other topics”.
The document classification area 204 is an area where documents classified as “business news” are presented, for example.
The document classification area 205 is an area in which documents classified as “political news” are presented, for example.
In addition to these, the document classification areas not denoted by reference numerals in the figure are areas where documents corresponding to specific classification items are presented.

これらの各文書分類エリア203,204・・・では、その各文書分類エリアに設定された分類項目(カテゴリ)に分類された文書が、その文書のアイコンと文書のタイトルにより提示される。タイトルがない場合には、一文の要約がタイトルとして用いられて表示される。
また各文書分類エリア203,204・・・の大きさは固定的ではなく、ユーザーがドラッグ操作などにより各文書分類エリアを区切る区切枠211,212,213・・・を移動させることにより、各文書分類エリア203,204・・・の面積を任意に変更させることができる。文書分類エリアの数もユーザーが任意に増減できる。
In each of these document classification areas 203, 204..., Documents classified into the classification items (categories) set in the respective document classification areas are presented by the document icon and the document title. If there is no title, a summary of one sentence is used as the title and displayed.
Further, the size of each document classification area 203, 204... Is not fixed, and each document can be moved by moving the separation frames 211, 212, 213. The areas of the classification areas 203, 204... Can be arbitrarily changed. The number of document classification areas can be arbitrarily increased or decreased by the user.

また各文書分類エリア203,204・・・の項目タイトル(例えば「政治ニュース」など)は、ユーザーが任意に設定、変更できるものである。
なお、この文書分類エリアの数及び各項目タイトルは、後述する分類モデルの分類項目に応じたものとなる。言い換えれば、ユーザーがこの分類ウインドウ201においてマウスやキーボード等による入力部20からの操作で、文書分類エリアの設定や削除、或いは項目タイトル設定を行うことで、分類モデルの分類項目の数や項目タイトルが設定されることになる。
なお、分類ウインドウ201に一覧表示されている各文書データに対して、ユーザーが選択(クリック)することで、チェックマーク214が付される。
Further, item titles (for example, “political news”) of the document classification areas 203, 204... Can be arbitrarily set and changed by the user.
The number of document classification areas and the item titles correspond to the classification items of a classification model to be described later. In other words, the user can set or delete a document classification area or set an item title by operating the input unit 20 using a mouse, a keyboard, or the like in the classification window 201. Will be set.
Note that a check mark 214 is added to each document data displayed in a list in the classification window 201 when the user selects (clicks).

図10は、ユーザーが文書データの内容を閲覧する閲覧ウインドウ301の例を示している。
例えばユーザーが、図9の分類ウインドウ201において或る文書をクリックして選択した状態(或る1つのタイトル(文書データ)に対してチェックマーク214が付された状態)としたうえで、ブラウザボタン202bをクリックすることで、制御部11は図10のように選択された文書を表示する閲覧ウインドウ301を開くようにする。
FIG. 10 shows an example of a browsing window 301 where the user browses the contents of document data.
For example, after the user clicks and selects a certain document in the classification window 201 of FIG. 9 (a state in which a check mark 214 is added to a certain title (document data)), the browser button By clicking 202b, the control unit 11 opens a browsing window 301 for displaying the selected document as shown in FIG.

この閲覧ウインドウ301には、文書データファイルのファイル名を表示するファイル名表示部302、そのファイル名の文書データを表示する文書表示部303、文書表示部303に表示された文書の要約文を表示する要約表示部304、キーワードの入力/表示を行うキーワード表示部305が設けられる。
また操作用のボタン表示306として、要約文の作成を指示するための要約作成ボタン306a、アンドゥ操作(操作取消)を行うためのアンドゥボタン306b、読み上げ動作を実行させるための読み上げボタン306c、ビデオデータの表示を指示するためのビデオボタン306d、後述するビデオリストウインドウを呼び出すビデオリストボタン306eなどが表示される。
The browsing window 301 displays a file name display unit 302 that displays the file name of the document data file, a document display unit 303 that displays the document data of the file name, and a summary sentence of the document displayed on the document display unit 303. And a keyword display unit 305 for inputting / displaying keywords.
As the button display 306 for operation, a summary creation button 306a for instructing creation of a summary sentence, an undo button 306b for performing an undo operation (operation cancellation), a reading button 306c for executing a reading operation, video data A video button 306d for instructing display of the video list, a video list button 306e for calling a video list window described later, and the like are displayed.

この様な閲覧ウインドウ301において、ユーザーは文書表示部303に表示される文書を閲覧することができる。なお、文書の全体を表示しきれないときは、文書の一部が表示される。もちろんスクロール操作を行うことで、全文を閲覧できる。
また、ユーザーは要約作成ボタン306aをクリックすることで、文書表示部303に表示される文書についての要約文を作成させ、要約表示部304に表示させることができる。
さらにユーザーは、読み上げボタン306cをクリックすることで、文書表示部303に表示されている文書の本文又は要約文についての読み上げを実行させることができる。
また、ユーザーはビデオボタン306dをクリックすることで、文書表示部303に表示されている文書の本文、または要約表示部304に表示されている要約文に関連するビデオデータの表示を実行させることができる。
なお、要約文作成のための制御部11の処理、読み上げ動作についての処理、及びビデオ出力動作についての処理はそれぞれ後述する。
In such a browsing window 301, the user can browse a document displayed on the document display unit 303. When the entire document cannot be displayed, a part of the document is displayed. Of course, you can view the full text by scrolling.
In addition, the user can create a summary sentence about the document displayed on the document display unit 303 by clicking on the summary creation button 306 a and display it on the summary display unit 304.
Furthermore, the user can read out the text or summary of the document displayed in the document display unit 303 by clicking the read-out button 306c.
In addition, the user can click the video button 306d to display the text of the document displayed on the document display unit 303 or the video data related to the summary text displayed on the summary display unit 304. it can.
The processing of the control unit 11 for creating a summary sentence, the processing for the reading operation, and the processing for the video output operation will be described later.

以上のような分類ウインドウ201、閲覧ウインドウ301は、図4の手動分類処理の際に限らず、ユーザーの操作に応じて随時表示部20に表示されるものであるが、図4の手動分類処理に関していえば、ユーザーは受信した文書の種類や内容を、分類ウインドウ201、閲覧ウインドウ301で確認することができるものである。
具体的には、図4のステップF11で受信された1又は複数の文書は、ステップF12でのインデックス作成処理の後、図9のような分類ウインドウ201における”他のトピックス”の文書分類エリア203に表示される。
この分類ウインドウ201において、ユーザーは、文書分類エリア203に表示された各文書を手動で分類していくことになるが、例えば文書のタイトルだけ等では内容がわからない場合は、図10の閲覧ウインドウ301により文書内容を確認する。そのようにユーザの必要に応じて行われる閲覧が図4のステップF13の処理となる。
The classification window 201 and the browsing window 301 as described above are not limited to the manual classification process of FIG. 4 and are displayed on the display unit 20 as needed according to the user's operation. The manual classification process of FIG. With regard to the above, the user can confirm the type and contents of the received document in the classification window 201 and the browsing window 301.
Specifically, one or more documents received in step F11 in FIG. 4 are stored in the document classification area 203 of “other topics” in the classification window 201 as shown in FIG. 9 after the index creation processing in step F12. Is displayed.
In this classification window 201, the user manually categorizes each document displayed in the document classification area 203. For example, when the contents are not known only by the title of the document, the browsing window 301 in FIG. Confirm the document contents with. The browsing performed according to the user's needs in this way is the processing of step F13 in FIG.

ステップF14としては、ユーザーは分類ウインドウ201上において分類項目の追加、更新、削除等を任意に行うことができ、その操作に応じて、制御部11は表示される文書分類エリア203、204・・・の表示態様(数、面積、タイトル等)を変更させていく。
なお、ユーザーによる分類項目(文書分類エリアのタイトル)の設定/変更は、それが後述する分類モデルに反映されることになる。
In step F14, the user can arbitrarily add, update, and delete classification items on the classification window 201, and the control unit 11 displays the displayed document classification areas 203, 204,. -Change the display mode (number, area, title, etc.).
The setting / change of the classification item (document classification area title) by the user is reflected in a classification model described later.

ユーザーは必要に応じて分類項目の設定を行った後、文書分類エリア203に表示されている各文書を、各文書分類エリアに振り分けていく。つまりユーザーの手動により、文書を分類する。
具体的には、”他のトピックス”の文書分類エリア203に表示されている文書のアイコンを、例えば入力部20のマウスを用い、所望の分類項目(カテゴリ)に対応する文書分類エリアにドラッグすることによりおこなう。
例えばユーザーは、「スポーツ」というタイトルの文書分類エリアを設定したうえで、”他のトピックス”の文書分類エリア203に表示されているスポーツ関連の文書のアイコンを、“スポーツ”の文書分類エリアにドラッグするような操作を行う。
このようにして手動で分類された各文書のアイコンやタイトルは、以降、そのドラッグされた先の文書分類エリア内で表示される。
After setting the classification items as necessary, the user sorts each document displayed in the document classification area 203 into each document classification area. In other words, the documents are classified manually by the user.
Specifically, the icon of the document displayed in the document classification area 203 of “other topics” is dragged to the document classification area corresponding to a desired classification item (category) using the mouse of the input unit 20, for example. By doing.
For example, after setting the document classification area titled “Sports”, the user sets the sports-related document icon displayed in the “Other Topics” document classification area 203 to the “Sports” document classification area. Do something like dragging.
The icons and titles of the documents manually classified in this way are displayed in the document classification area of the dragged destination.

3−4 分類モデル作成/登録
以上のようにユーザーによる手動分類操作が行われたら、制御部11は図4のステップF15において、ユーザの分類操作に基づいた複数のカテゴリからなる分類モデルを作成する。すなわち制御部11は、各カテゴリに分類された上記複数の文書のインデックスを集めて、分類モデルを生成する。そして、分類モデルの各カテゴリに上記複数の文書を分類する。
3-4 Creation / Registration of Classification Model When the manual classification operation by the user is performed as described above, the control unit 11 creates a classification model including a plurality of categories based on the classification operation of the user in Step F15 of FIG. . That is, the control unit 11 collects the indexes of the plurality of documents classified into each category, and generates a classification model. Then, the plurality of documents are classified into each category of the classification model.

分類モデルは、文書を分類する複数の分類項目(カテゴリ)から構成される。そして各カテゴリについて、分類された文書が示されるデータ形態となる。
各文書については、上記ステップF12などでインデックスが形成されるが、分類モデルは例えば図11(a)に示すように、各カテゴリについて分類された文書のインデックスが対応づけられたようなデータ構造となる。
この図11(a)では、カテゴリとして「スポーツ」「会社」「コンピュータ」・・・等が設定されているが、これらは上記のように分類ウインドウ201においてユーザーが設定した分類項目となる。なお、もちろんユーザーが設定しなくとも、予め設定されている(つまり分類ウインドウで文書分類エリアとして表示される)カテゴリがあってもよい。
そして各分類項目にはインデックスIDX1、IDX2・・・が対応づけられるが、即ち各分類項目には、ユーザーが上記のように分類した文書のインデックスが対応づけられるものとなる。
The classification model is composed of a plurality of classification items (categories) for classifying documents. Then, for each category, a data format is shown in which classified documents are shown.
For each document, an index is formed in step F12 and the like. The classification model has, for example, a data structure in which an index of a document classified for each category is associated as shown in FIG. Become.
In FIG. 11A, “Sports”, “Company”, “Computer”, etc. are set as categories. These are the classification items set by the user in the classification window 201 as described above. Of course, there may be a category set in advance (ie, displayed as a document classification area in the classification window) without being set by the user.
Each category item is associated with an index IDX1, IDX2,..., That is, each category item is associated with an index of a document classified by the user as described above.

各分類項目に対応づけられるインデックスは、分類ウインドウ201においてその分類項目の文書分類エリアに表示されている文書のインデックスである。
例えばインデックスIDX1がカテゴリ「スポーツ」に対応づけられているのは、ユーザーが、分類ウインドウ201において「スポーツ」をタイトルとする文書分類エリアを作成し、さらにインデックスIDX1の文書のアイコンを、その「スポーツ」をタイトルとする文書分類エリアにドラッグするという手動分類を行ったことに基づくものとなる。
The index associated with each classification item is an index of a document displayed in the document classification area of the classification item in the classification window 201.
For example, the index IDX1 is associated with the category “sports” because the user creates a document classification area whose title is “sports” in the classification window 201, and further displays the icon of the document with the index IDX1 as the “sports”. This is based on the manual classification of dragging to the document classification area having “” as the title.

ところで上述のように各文書のインデックスは、固有名詞、固有名詞以外の語義や文書アドレス等を含んでいる。
そして、例えば図11(a)のように1つの分類項目には1又は複数のインデックスが対応づけられるが、インデックスとして固有名詞、語義、文書アドレス等が含まれるため、分類モデルは図11(b)のようにも表すことができる。
As described above, each document index includes proper nouns, meanings other than proper nouns, document addresses, and the like.
For example, as shown in FIG. 11A, one classification item is associated with one or a plurality of indexes. Since the index includes proper nouns, meanings, document addresses, etc., the classification model is shown in FIG. ).

即ち図11(b)に示すように、分類モデルは、各カテゴリに対応するカテゴリインデックスとして、固有名詞、固有名詞以外の語義、文書アドレスの欄を有する構造となる。
そして分類モデルにおいては、各カテゴリ「スポーツ」「社会」「コンピュータ」「植物」「美術」「イベント」に対して、固有名詞“A氏、・・・”、“B氏、・・・”、“C社、G社、・・・”、“D種、・・・”、“E氏、・・・”および“F氏”等の固有名詞が割り当てられる。
また、“野球(4546)、グランド(2343)、・・・”、“労働(3112)、固有(9821)、・・・”、“モバイル(2102)、・・・”、“桜1(11111)、オレンジ1(9911)”、“桜2(11112)、オレンジ2(9912)”および“桜3(11113)”等の語義も各カテゴリに割り当てられる。
さらに文書アドレス“SP1、SP2、SP3、・・・”、“S01、S02、S03、・・・”、“CO1、CO2、CO3、・・・”、“PL1、PL2、PL3、・・・”、“AR1、AR2、AR3、・・・”および“EV1、EV2、EV3、・・・”も各カテゴリに割り当てられる。
That is, as shown in FIG. 11B, the classification model has a structure having columns of proper nouns, meanings other than proper nouns, and document addresses as category indexes corresponding to the respective categories.
In the classification model, for each category “sports” “society” “computer” “plant” “art” “event”, proper nouns “Mr. A, ...”, “Mr. B, ...”, Proper nouns such as “C company, G company,...”, “D type,...”, “Mr. E,.
"Baseball (4546), Ground (2343), ...", "Labor (3112), Unique (9821), ...", "Mobile (2102), ...", "Sakura 1 (11111) ), Orange 1 (9911), cherry blossom 2 (11112), orange 2 (9912), and cherry 3 (11113) are also assigned to each category.
Further, document addresses “SP1, SP2, SP3,...”, “S01, S02, S03,...”, “CO1, CO2, CO3,...”, “PL1, PL2, PL3,. , "AR1, AR2, AR3, ..." and "EV1, EV2, EV3, ..." are also assigned to each category.

なお、“桜1”“桜2”“桜3”は、“桜”の第1の語義(11111)、第2の語義(11112)、第3の語義(11113)を示している。また、“オレンジ1”“オレンジ2”は、“オレンジ”の第1の語義(9911)、第2の語義(9912)を示している。たとえば“オレンジ1”は植物のオレンジを表し、“オレンジ2”はオレンジ色を表す。
固有名詞以外の場合に語そのものではなく語義を用いるのは、この様に、同じ語でも複数の意味を有することがあるからである。
“Sakura 1”, “Sakura 2”, and “Sakura 3” indicate the first meaning (11111), the second meaning (11112), and the third meaning (11113) of “Sakura”. “Orange 1” and “Orange 2” indicate the first meaning (9911) and the second meaning (9912) of “orange”. For example, “Orange 1” represents a plant orange and “Orange 2” represents an orange color.
The reason why the word meaning is used instead of the word itself in cases other than proper nouns is that the same word may have a plurality of meanings.

図4のステップF15では、ユーザーの手動分類操作に応じて例えばこの様な分類モデルが生成される。そしてステップF16として分類モデルが登録、即ちRAM15(又はHDD34)に記録される。
このように分類モデルが生成/登録されることにより、文書の分類が行われたことになる。
In step F15 of FIG. 4, for example, such a classification model is generated according to the manual classification operation of the user. In step F16, the classification model is registered, that is, recorded in the RAM 15 (or HDD 34).
Thus, the classification of the document is performed by generating / registering the classification model.

なお、このように図4におけるステップF15、F16として分類モデルの作成/登録が行われた後は、後述する自動分類処理や、ユーザーの分類項目の編集、或いは手動分類操作などに応じて、分類モデルは逐次更新されていくことになる。
分類モデルが更新されると、分類モデルに更新日時が記録される。図11には、更新日時として“1998年12月10日19時56分10秒”が記録されている。
After the classification model is created / registered in steps F15 and F16 in FIG. 4, the classification is performed according to automatic classification processing described later, user classification item editing, or manual classification operation. The model will be updated sequentially.
When the classification model is updated, the update date and time is recorded in the classification model. In FIG. 11, “Dec. 10, 1998, 19:56:10” is recorded as the update date.

4.文書データに対する自動分類処理
4−1 処理手順
本例の文書処理装置1では、上記のように一旦分類モデルが作成された後は、例えば通信部21により外部から取り込まれた文書データを、自動的に分類していく自動分類処理が可能となる。
即ち以下説明する自動分類処理とは、文書処理装置1が外部から送られた文書データを受信した際に、その文書データを分類モデルに対して分類していく処理となる。
なお、この例では、一つの文書を受信する毎に以下説明する自動分類処理をおこなうこととするか、複数の所定数の文書を受信する度におこなってもよいし、ユーザが図9の画面を開く操作をしたときにそれまでに受信した全文書に対して自動分類処理をおこなうようにしてもよい。
4). Automatic Classification Processing for Document Data 4-1 Processing Procedure In the document processing apparatus 1 of this example, once a classification model is created as described above, for example, document data imported from the outside by the communication unit 21 is automatically processed. It is possible to perform an automatic classification process of classifying into
That is, the automatic classification process described below is a process for classifying the document data with respect to the classification model when the document processing apparatus 1 receives the document data sent from the outside.
In this example, the automatic classification processing described below is performed every time one document is received, or may be performed every time a predetermined number of documents are received, or the user can display the screen shown in FIG. The automatic classification process may be performed on all the documents received so far when the operation is opened.

自動分類処理としての全体の処理手順を図12に示す。
図12のステップF21は、文書処理装置1の受信部21による文書受信処理を示している。このステップF21では、受信部21は、たとえば通信回線を介して送信された1又は複数の文書を受信する。受信部21は、受信した文書を文書処理装置の本体10に送る。制御部11は供給された1又は複数の文書データをRAM14又はHDD34に格納する。
なお文書データとともに(又は文書データとは独立して)、1又は複数のビデオファイルが受信された場合は、制御部11はそのビデオファイルを取り込んでRAM14又はHDD34に格納することになる。
FIG. 12 shows the entire processing procedure as the automatic classification processing.
Step F21 in FIG. 12 shows document reception processing by the reception unit 21 of the document processing apparatus 1. In step F21, the receiving unit 21 receives one or a plurality of documents transmitted via, for example, a communication line. The receiving unit 21 sends the received document to the main body 10 of the document processing apparatus. The control unit 11 stores the supplied one or more document data in the RAM 14 or the HDD 34.
When one or a plurality of video files are received together with the document data (or independently of the document data), the control unit 11 takes in the video files and stores them in the RAM 14 or the HDD 34.

続いてステップF22に進み、制御部11は、ステップF21で取り込まれた文書についてインデックスを作成する。   In step F22, the control unit 11 creates an index for the document captured in step F21.

ステップF23では、制御部11は、分類モデルに基づいて、インデックスを付された各文書を、分類モデルのいずれかのカテゴリに自動分類する。そして、制御部11は、分類の結果をたとえばRAM14に記憶させる。自動分類の詳細については後述する。   In step F23, the control unit 11 automatically classifies each indexed document into any category of the classification model based on the classification model. Then, the control unit 11 stores the classification result in, for example, the RAM 14. Details of the automatic classification will be described later.

ステップF24では、制御部11は、ステップF23での新たな文書の自動分類の結果に基づいて、分類モデルを更新する。
そしてステップF25では、制御部11は、ステップF24で更新された分類モデルを登録する。例えば分類モデルをRAM14に記憶させる。
In step F24, the control unit 11 updates the classification model based on the result of the automatic classification of the new document in step F23.
In step F25, the control unit 11 registers the classification model updated in step F24. For example, the classification model is stored in the RAM 14.

以上の図12の処理により、文書処理状態1に入力された文書データが、分類モデル上で分類されるように自動分類処理が行われることになる。
すなわちこの自動分類処理においては、受信した文書に対してはインデックスが作成され、さらに自動分類が行われた後、そのインデックスを構成している固有名詞、語義、文書アドレス等が、上記図11のように分類モデル上で或るカテゴリーに対応づけられることになる(分類モデルが更新される)。
Through the processing of FIG. 12, the automatic classification processing is performed so that the document data input to the document processing state 1 is classified on the classification model.
That is, in this automatic classification process, an index is created for the received document, and after automatic classification is performed, the proper nouns, meanings, document addresses, etc. constituting the index are shown in FIG. Thus, the classification model is associated with a certain category (the classification model is updated).

ステップF21、F22の処理は、上述した手動分類処理におけるステップF11,F12と同様である。即ちステップF22のインデックス作成処理としては、図5〜図8で説明した処理が行われるものであり、ここでの繰り返しの説明は避ける。
また、ステップF24の分類モデルの更新は、ステップF23の自動分類の分類結果に応じてものとなる。
以下、上述の手動分類処理とは異なる処理として、ステップF23の自動分類について詳細に説明する。
The processes in steps F21 and F22 are the same as steps F11 and F12 in the manual classification process described above. That is, as the index creation processing in step F22, the processing described with reference to FIGS. 5 to 8 is performed, and repeated description here is avoided.
The update of the classification model in step F24 is in accordance with the classification result of the automatic classification in step F23.
Hereinafter, the automatic classification in step F23 will be described in detail as a process different from the manual classification process described above.

4−2 自動分類
図12のステップF23での自動分類の詳しい処理を図13に示す。
図13のステップF61では、制御部11は、分類モデルのカテゴリCiに含まれる固有名詞の集合と、ステップF21で受信した文書から抽出されインデックスに入れられた語のうちの固有名詞の集合とについて、これらの共通集合の数をP(Ci)とする。そして制御部11は、このようにして算出した数P(Ci)をRAM14に記憶させる。
4-2 Automatic Classification Detailed processing of the automatic classification in step F23 of FIG. 12 is shown in FIG.
In step F61 of FIG. 13, the control unit 11 performs a set of proper nouns included in the category Ci of the classification model and a set of proper nouns among the words extracted from the documents received in step F21 and put into the index. Let P (Ci) be the number of these common sets. The control unit 11 stores the number P (Ci) calculated in this way in the RAM 14.

ステップF62においては、制御部11は、その文書のインデックス中に含まれる全語義と、各カテゴリCiに含まれる全語義との語義間関連度を、後述する図15に示す語義間関連度の表を参照して、語義間関連度の総和R(Ci)を演算する。
すなわち制御部11は、分類モデルにおける固有名詞以外の語について、全語義間関連度の総和R(Ci)を演算する。そして制御部11は、演算した語義間関連度の総和R(Ci)をRAM14に記憶させる。
In step F62, the control unit 11 shows a relationship between meanings between all meanings included in the index of the document and all meanings included in each category Ci. , The sum R (Ci) of the degree of association between meanings is calculated.
That is, the control unit 11 calculates the total sum R (Ci) of all-word meanings for words other than proper nouns in the classification model. And the control part 11 memorize | stores the total R (Ci) of the calculated relevance degree between meanings in RAM14.

ここで語義間関連度について説明しておく。
語義間関連度は、図14の処理により文書処理装置1が備える電子辞書に含まれる語義について予め算出し、その結果を図15のように保持しておけばよい。つまり、制御部11が予め一度だけ図14の処理を実行しておくようにすることで、図13の自動分類処理の際に用いることができる。
Here, the degree of association between meanings will be described.
The degree of association between meanings may be calculated in advance for the meanings included in the electronic dictionary provided in the document processing apparatus 1 by the process of FIG. 14, and the result may be retained as shown in FIG. That is, when the control unit 11 executes the process of FIG. 14 once in advance, it can be used in the automatic classification process of FIG.

制御部11が予め実行しておく図15の処理は次のようになる。
まずステップF71において、制御部11は、電子辞書内の語の語義の説明を用いて、この辞書を使って語義のネットワークを作成する。
すなわち、辞書における各語義の説明とこの説明中に現れる語義との参照関係から、語義のネットワークを作成する。
ネットワークの内部構造は、上述したようなタグ付けにより記述される。文書処理装置の制御部11は、たとえばRAM14に記憶された電子辞書について、語義とその説明を順に読み出して、ネットワークを作成する。
制御部14は、このようにして作成した語義のネットワークをRAM14に記憶させる。
The processing of FIG. 15 that is executed in advance by the control unit 11 is as follows.
First, in step F71, the control unit 11 uses the dictionary to explain the meaning of words in the electronic dictionary and creates a word-meaning network using this dictionary.
That is, a meaning network is created from the reference relationship between the explanation of each meaning in the dictionary and the meaning that appears in this description.
The internal structure of the network is described by tagging as described above. The control unit 11 of the document processing apparatus creates a network by sequentially reading the meaning and explanation of the electronic dictionary stored in the RAM 14, for example.
The control unit 14 stores the semantic network created in this way in the RAM 14.

なお、上記ネットワークは、文書処理装置の制御部11が辞書を用いて作成する他に、受信部21にて外部から受信したリ、記録/再生部31にて記録媒体32から再生したりすることにより得ることもできる。
また上記電子辞書は、受信部21にて外部から受信したり、記録/再生部31にて記録媒体32から再生したりすることにより得ることができる。
The network is created by the control unit 11 of the document processing apparatus using a dictionary, and is received from the outside by the receiving unit 21 and reproduced from the recording medium 32 by the recording / reproducing unit 31. Can also be obtained.
The electronic dictionary can be obtained by receiving from the outside by the receiving unit 21 or by reproducing from the recording medium 32 by the recording / reproducing unit 31.

ステップF72においては、ステップF71で作成された語義のネットワーク上で、各語義のエレメントに対応する中心活性値の拡散処理をおこなう。この活性拡散により、各語義に対応する中心活性値は、上記辞書により与えられたタグ付けによる内部構造に応じて与えられる。中心活性値の拡散処理は、図7で説明した処理となる。   In step F72, the center activation value corresponding to each semantic element is diffused on the semantic network created in step F71. By this active diffusion, the central activity value corresponding to each meaning is given according to the internal structure by tagging given by the dictionary. The center activity value diffusion process is the process described with reference to FIG.

ステップF73においては、ステップF71で作成された語義のネットワークを構成するある一つの語義Siを選択し、続くステップF74においては、この語義Siに対応する語彙エレメントEiの中心活性値eiの初期値を変化させ、このときの中心活性値の差分△eiを計算する。   In step F73, one word meaning Si constituting the word meaning network created in step F71 is selected, and in the next step F74, the initial value of the central activation value ei of the vocabulary element Ei corresponding to this word meaning Si is selected. The difference Δei of the central activity value at this time is calculated.

さらにステップF75においては、ステップF74におけるエレメントEiの中心活性値eiの差分△eiに対応する、他の語義Sjに対応するエレメントEjの中心活性値ejの差分△ejを求める。
ステップF76においては、ステップF75で求めた差分△ejを、ステップF74で求めた△eiで除した商△ej/△eiを、語義Siの語義sjに対する語義間関連度とする。
Further, in step F75, a difference Δej of the central activation value ej of the element Ej corresponding to another meaning Sj corresponding to the difference Δei of the central activation value ei of the element Ei in step F74 is obtained.
In step F76, the quotient Δej / Δei obtained by dividing the difference Δej obtained in step F75 by Δei obtained in step F74 is used as the degree of association between meanings for the meaning sj of the meaning Si.

ステップF77においては、一の語義Siと他の語義Sjとのすべての対について語義間関連度の演算が終了したか否かについて判断する。
すべての語義の対について語義間関連度の演算が終了していないときには、ステップF73にもどり、語義間関連度の演算が終了していない対について語義間関連度の演算を継続する。
このようなステップF73からステップF77のループにおいて、制御部11は、必要な値をたとえばRAM14から順に読み出して、上述したように語義間関連度を計算する。制御部11は、計算した語義間関連度をたとえばRAM14に順に記憶させる。
そして、すべての語義の対について語義間関連度の演算が終了したときには、ステップF77から、この一連の処理を終了する。
In step F77, it is determined whether or not the calculation of the degree of association between meanings has been completed for all pairs of one meaning Si and another meaning Sj.
When the calculation of the degree of association between word meanings is not completed for all pairs of meanings, the process returns to step F73, and the calculation of the degree of association between meanings is continued for the pair whose calculation of the degree of association between meanings is not completed.
In such a loop from step F73 to step F77, the control unit 11 sequentially reads necessary values from the RAM 14, for example, and calculates the degree of association between meanings as described above. For example, the control unit 11 sequentially stores the calculated degree of association between meanings in the RAM 14, for example.
Then, when the calculation of the degree of association between meanings is completed for all meaning pairs, the series of processes is ended from Step F77.

このような語義間関連度の算出は、或る1つの語義の中心活性値を変化させた時に、それにつられて中心活性値が変化する語義を、関連度が高いものとする処理といえる。
つまりステップF74で或る語義の中心活性値を変化させると、それに応じて関連する(リンクされた)語義の中心活性値が変化するものとなるため、その変化の度合いを調べれば、或る語義に対する他の各語義の関連度がわかるものである。(或るエレメントEiの中心活性値は、上述した活性拡散の説明において述べたように、リンク先のエレメントの中心活性値と端点活性値が反映されて、そのエレメントEi端点活性値が更新されたうえで、そのエレメントEiの端点活性値と現在の中心活性値の和から求められるため、リンク先との関連度が大きいほど中心活性値の変化量は大きくなる)
このような処理を各語義から他の全ての語義に対して行っていくことで、すべての語義の対(組み合わせ)について、関連度を算出することができる。
Such calculation of the degree of association between meanings can be said to be a process in which the meaning of the change in the central activity value according to the change in the central activity value of a certain meaning has a high degree of association.
In other words, if the central activity value of a certain meaning is changed in step F74, the central activity value of the related (linked) meaning is changed accordingly. You can see the degree of relevance of each other meaning. (As described in the explanation of active diffusion, the central activity value of a certain element Ei reflects the central activity value and end point activity value of the linked element, and the element Ei end point activity value is updated. In addition, since it is obtained from the sum of the end point activation value of the element Ei and the current center activation value, the amount of change in the center activity value increases as the degree of association with the link destination increases)
By performing such processing from each meaning to all other meanings, the degree of association can be calculated for all meaning pairs (combinations).

このように計算された語義間関連度は、図15に示すように、それぞれの語義と語義の間に定義される。この図15の表においては、語義間関連度は0から1までの値をとるように正規化されている。そしてこの表においては一例として“コンピュータ”、“テレビ”、“VTR”の間の相互の語義間関連度が示されている。“コンピュータ”と“テレビ”の語義間関連度は0.55、“コンピュータ” と“VTR”の語義間関連度は0.25、“テレビ”と“VTR”の語義間関連度は0.60である。   The degree of association between meanings calculated in this way is defined between each meaning and meaning as shown in FIG. In the table of FIG. 15, the degree of association between meanings is normalized to take a value from 0 to 1. In this table, the degree of relevance between the meanings of “computer”, “television”, and “VTR” is shown as an example. The degree of association between the meanings of “computer” and “TV” is 0.55, the degree of association between the meanings of “computer” and “VTR” is 0.25, and the degree of association between the meanings of “TV” and “VTR” is 0.60. It is.

以上のように予め算出されていた語義間関連度を用いて図13のステップF62の処理が行われたら、続いて制御部11は、ステップF63として、カテゴリCiに対する文書の文書分類間関連度Rel(Ci)を
Rel(Ci)=m1P(Ci)+n1R(Ci)
として算出する。
ここで、係数m1、n1は定数で、それぞれの値の文書分類間関連度への寄与の度合いを表すものである。
制御部11は、ステップF61で算出した共通集合の数P(Ci)およびステップF62で算出した語義間関連度の総和R(Ci)を用いて、上記式の演算を行い、文書分類間関連度Rel(Ci)を算出する。
制御部11は、このように算出した文書分類間関連度Rel(Ci)をRAM14に記憶させる。
When the processing in step F62 in FIG. 13 is performed using the pre-calculated relevance between the meanings as described above, the control unit 11 subsequently performs the relationship Rel between document classifications of the document with respect to the category Ci as step F63. (Ci) Rel (Ci) = m1P (Ci) + n1R (Ci)
Calculate as
Here, the coefficients m1 and n1 are constants and represent the degree of contribution of each value to the degree of association between document classifications.
The control unit 11 performs the calculation of the above formula using the number P (Ci) of the common set calculated in step F61 and the sum R (Ci) of the relationship between meanings calculated in step F62, and the relationship between the document classifications Rel (Ci) is calculated.
The control unit 11 causes the RAM 14 to store the inter-document classification degree of association Rel (Ci) calculated in this way.

なお、これらの係数m1、n1の値としては、たとえばm1=10、n1=1とすることができる。
また係数m1、n1の値は、統計的手法を使って推定することもできる。すなわち、制御部11は、複数の係数mおよびnの対について文書分類間関連度Rel(Ci)が与えられることで、上記係数を最適化により求めることができる。
The values of these coefficients m1 and n1 can be set to m1 = 10 and n1 = 1, for example.
The values of the coefficients m1 and n1 can also be estimated using a statistical method. That is, the control unit 11 can obtain the above-mentioned coefficient by optimization by being given the inter-document-class relevance Rel (Ci) for a plurality of pairs of coefficients m and n.

ステップF64においては、制御部11は、カテゴリCiに対する文書分類間関連度Rel(Ci)が最大で、その文書分類間関連度Rel(Ci)の値がある閾値を越えているとき、そのカテゴリCiに文書を分類する。
すなわち制御部11は、複数のカテゴリに対してそれぞれ文書分類間関連度を作成し、最大の文書分類間関連度が閣値を越えているときには、文書を最大の文書分類間関連度を有する上記カテゴリCiに分類する。これにより文書が自動的に所要のカテゴリに分類されることになる。
なお最大の文書分類間関連度が閾値を越えていないときには、文書の分類はおこなわない。
In step F64, when the inter-document classification relation Rel (Ci) for the category Ci is the maximum and the value of the inter-document classification relation Rel (Ci) exceeds a certain threshold, the category Ci Sort documents into
That is, the control unit 11 creates a document category relevance level for each of the plurality of categories, and when the maximum document category relevance level exceeds the price, the document has the maximum document category relevance level. Classify into category Ci. As a result, the document is automatically classified into a required category.
When the maximum degree of relevance between document classifications does not exceed the threshold value, document classification is not performed.

以上のような図13の処理として、図12のステップF23の自動分類が行われたら、ステップF24、F25で、それに応じて分類モデルを更新し、登録することで、一連の自動分類が完了する。
即ち文書処理装置1に受信された文書データは、自動的に分類されたことになり、ユーザーは例えば図9の分類ウインドウ201において、所要の文書分類エリアにおいて、受信された文書データを確認できることになる。
When the automatic classification in step F23 of FIG. 12 is performed as the processing of FIG. 13 as described above, a series of automatic classification is completed by updating and registering the classification model accordingly in steps F24 and F25. .
That is, the document data received by the document processing apparatus 1 is automatically classified, and the user can confirm the received document data in the required document classification area in the classification window 201 of FIG. Become.

5.読み上げ処理
続いて、文書データについての読み上げを行う処理について述べる。
上述したようにユーザーは、文書を選択して図10のような閲覧ウインドウ301を開くことにより、文書の本文を閲覧することができる。例えば上述した手動分類処理におけるステップF13の時点や、その他任意の時点において、図9で説明した分類ウインドウ201から、閲覧ウインドウ301を開くことができる。
5). Reading process Next, a process for reading the document data will be described.
As described above, the user can browse the text of the document by selecting the document and opening the viewing window 301 as shown in FIG. For example, the browsing window 301 can be opened from the classification window 201 described with reference to FIG.

例えば分類ウインドウ201において或る文書を選択した状態でブラウザボタン202bをクリックすることで、後述する図26のように、文書表示部303に選択された文書の本文が表示された閲覧ウインドウ301が開かれる。
なお文書表示部303に文書全文が表示できないときには、その文書の一部が表示される。
また要約文が作成されていない時点では、図26のように要約表示部304は空白とされる。要約文の作成及び表示動作については後述する。
For example, when the browser button 202b is clicked in a state where a certain document is selected in the classification window 201, a browsing window 301 in which the text of the selected document is displayed in the document display unit 303 is opened as shown in FIG. It is.
When the entire document cannot be displayed on the document display unit 303, a part of the document is displayed.
At the time when the summary sentence is not created, the summary display unit 304 is blank as shown in FIG. A summary sentence creation and display operation will be described later.

このように文書処理装置1は、タグ付けされた文書を受信すると、その本文や詳しくは後述する要約文を表示してユーザーに提示できるが、さらに受信した文書を音声でユーザーに提示することもできる。
即ちCPU13により、ROM15やHDD34に記録されている電子文書処理プログラムのうちの音声読み上げプログラムを起動することで、図16に示すような一連の工程を経ることによって、文書の読み上げを行うことができる。
まずここでは、簡略化した各工程の説明を行い、その後、具体的な文書例を用いて、各工程の説明を詳細に行う。
As described above, when the document processing apparatus 1 receives the tagged document, the document processing apparatus 1 can display the text and a summary sentence, which will be described later in detail, and present it to the user. it can.
That is, the CPU 13 activates a speech reading program among the electronic document processing programs recorded in the ROM 15 and the HDD 34, and can read the document through a series of steps as shown in FIG. .
First, each simplified process will be described here, and then each process will be described in detail using a specific document example.

制御部11の処理として、図16のステップF101は、図4のステップF11(又は図12のステップF21)と同様の文書受信/記憶処理である。上述ののように、受信した文書(タグ付文書)については手動又は自動での分類処理が行われるが、それと同様に、受信した文書について読み上げ処理も実行可能という意味で図16にステップF101を記したものである。ここでは特に処理手順として、分類処理と読み上げ処理の順序その他を規定するものではない。   As processing of the control unit 11, step F101 in FIG. 16 is a document reception / storage process similar to step F11 in FIG. 4 (or step F21 in FIG. 12). As described above, the received document (tagged document) is classified manually or automatically. Similarly, step F101 in FIG. 16 is executed in the sense that the received document can be read out. It is written. Here, the order of the classification process and the reading process and the like are not particularly defined as a processing procedure.

なお、文書読み上げ処理の対象となる文書(受信文書)には、後述するように、音声合成を行うために必要なタグが付与されていることが必要である。但し、文書処理装置1は、タグ付けされた文章を受信したうえで、その文書に音声合成を行うために必要なタグを新たに付与して文書を作成することもできる。以下では、このようにして受信又は作成されて用意されたタグ付き文書を、タグファイルと記す。   It should be noted that, as will be described later, a tag that is necessary for performing speech synthesis needs to be assigned to a document (received document) that is a target of document reading processing. However, the document processing apparatus 1 can also create a document by receiving a tagged sentence and adding a new tag necessary for speech synthesis to the document. Hereinafter, a tagged document prepared by receiving or creating in this way is referred to as a tag file.

文書処理装置1の文書読み上げ処理としては続いてステップF102において、CPU13の制御のもとに、タグファイルに基づいて読み上げ用ファイルを生成する。この読み上げ用ファイルは、後述するように、タグファイル中のタグから、読み上げのための属性情報を導出し、この属性情報を埋め込むことにより生成される。   As the document reading process of the document processing apparatus 1, in step F102, a reading file is generated based on the tag file under the control of the CPU 13. As will be described later, the reading file is generated by deriving attribute information for reading from a tag in the tag file and embedding the attribute information.

続いてステップF103において文書処理装置1は、CPU13の制御のもとに、読み上げ用ファイルを用いて、音声合成エンジンに適した処理を行う。
なお、この音声合成エンジンは、ハードウェアで構成してもよいし、ソフトウェアで実現するようにしてもよい。音声合成エンジンをソフトウェアで実現する場合には、そのアプリケーションプログラムは、ROM15やHDD34等に予め記憶されている。
本例の文書処理装置1において、読み上げ処理や、後述する要約作成/表示処理、ビデオ出力処理などを実行するために形成される機能ブロック構成については、図47を用いて最後にまとめて説明するが、上記音声合成エンジンは、その図47における音声合成エンジン601に相当する。
Subsequently, in step F103, the document processing apparatus 1 performs processing suitable for the speech synthesis engine using the reading file under the control of the CPU 13.
This speech synthesis engine may be configured by hardware or may be realized by software. When the speech synthesis engine is realized by software, the application program is stored in advance in the ROM 15, the HDD 34, or the like.
In the document processing apparatus 1 of this example, a functional block configuration formed to execute a reading process, a summary creation / display process, a video output process, and the like, which will be described later, will be collectively described with reference to FIG. However, the speech synthesis engine corresponds to the speech synthesis engine 601 in FIG.

続いて文書処理装置1はステップF104において、ユーザが後述するユーザインターフェースを用いて行う操作に応じて処理を行う。
文書処理装置1は、このような処理を行うことによって、与えられた文書を読み上げることができる。これらの各工程について、以下詳細に説明する。
Subsequently, in step F104, the document processing apparatus 1 performs processing in accordance with an operation performed by the user using a user interface described later.
The document processing apparatus 1 can read a given document by performing such processing. Each of these steps will be described in detail below.

まず、ステップF101におけるタグ付けされた文書の受信又は作成について説明する。
文書処理装置1は、例えば通信部21から文書(音声合成を行うために必要なタグが既に付与されている文書)を受信する。
または、文書処理装置1は、タグ付けされた文書を受信し、その文書に音声合成を行うために必要なタグを新たに付与して文書を作成する。
First, reception or creation of a tagged document in step F101 will be described.
For example, the document processing apparatus 1 receives a document (a document to which a tag necessary for performing speech synthesis has already been assigned) from the communication unit 21.
Alternatively, the document processing apparatus 1 receives a tagged document and creates a document by newly assigning a tag necessary for speech synthesis to the document.

説明上の例として、以下のような、日本語、及び英語の文書にタグ付けがなされたタグファイルが、受信又は作成されものとする。   As an illustrative example, it is assumed that a tag file in which Japanese and English documents are tagged as described below is received or created.

まずタグファイルの元となる日本語文書は、次のような文書とする。
「[素敵にエイジング]/8ガン転移、抑えられる!?
がんはこの十数年、わが国の死因第一位を占めている。その死亡率は年齢が進むとともに増加傾向にある。高齢者の健康を考えるとき、がんの問題を避けて通れない。
がんを特徴づけるのは、細胞増殖と転移である。人間の細胞には、自動車でいえばアクセルに当たり、がんをどんどん増殖する「がん遺伝子」と、ブレーキ役の「がん抑制遺伝子」がある。
双方のバランスが取れていれば問題はない。正常な調節機能が失われ、細胞内でブレーキが利かない変異が起こると、がんの増殖が始まる。高齢者の場合、長い年月の間にこの変異が蓄積し、がん化の条件を備えた細胞の割合が増え、がん多発につながるわけだ。
ところで、もう一つの特徴、転移という性質がなければ、がんはそれほど恐れる必要はない。切除するだけで、完治が可能になるからである。転移を抑制することの重要性がここにある。
この転移、がん細胞が増えるだけでは発生しない。がん細胞が細胞と細胞の間にある蛋白(たんぱく)質などを溶かし、自分の進む道をつくって、血管やリンパ管に入り込む。循環しながら新たな“住み家”を探して潜り込む、といった複雑な動きをすることが、近年解明されつつある。」
First, the Japanese document that is the source of the tag file is as follows.
"[Nicely aging] / 8 cancer transfer can be suppressed !?
Cancer has been the leading cause of death in Japan for over a decade. The mortality rate is increasing with age. When you consider the health of the elderly, you cannot avoid the problem of cancer.
What characterizes cancer is cell proliferation and metastasis. In human cells, there is an “oncogene” that hits the accelerator in a car and grows more and more, and a “cancer suppressor gene” that acts as a brake.
There is no problem if both are balanced. When normal regulatory functions are lost and mutations that do not work in the cell occur, cancer begins to grow. In older people, this mutation accumulates over a long period of time, increasing the proportion of cells with conditions for canceration, leading to more cancer.
By the way, without another feature, the nature of metastasis, cancer doesn't have to be so afraid. It is because complete cure is possible only by excision. Here is the importance of suppressing metastasis.
This metastasis does not occur just by increasing the number of cancer cells. Cancer cells dissolve proteins (proteins) between cells and create a path for them to enter blood vessels and lymph vessels. In recent years, it has been elucidated that complicated movements such as searching for new “residents” and diving while circulating. "

タグファイルの元となる英語の文書の例は次のようなものとする
「During its centennial year, The ABCD Journal will report events of the past century that stand as milestones of American business history. THREE COMPUTERS THAT CHANGED the face of personal computing were Iaunched in 1977. That year the PC A II, PC B and PC C came to market. The computers were crude by today's standerds. PC A ll owners, for example,had to use their television sets as screens and stored data on audiocassettes.」
An example of the English document that the tag file is based on is as follows: `` During its centennial year, The ABCD Journal will report events of the past century that stand as milestones of American business history.THREE COMPUTERS THAT CHANGED the face of personal computing were Iaunched in 1977. That year the PC A II, PC B and PC C came to market.The computers were crude by today's standerds.PC A ll owners, for example, had to use their television sets as screens and stored. data on audiocassettes. ''

文書処理装置1は、このような日本語又は英語の文書についてタグが付された文書を受信すると、分類処理や、後述する図26、図27のようにその本文を表示したり、要約文を作成して表示することができる。   When the document processing apparatus 1 receives a document tagged with such a Japanese or English document, the document processing apparatus 1 displays the text as shown in FIGS. 26 and 27 described later, or displays a summary sentence. Can be created and displayed.

ここで上記の日本語又は英語の文書は、それそれ、図18又は図19に示すようなタグファイルとして構成されている。
日本語文書のタグファイルとしては、図18(a)に見出しの部分である「〔素敵にエイジング〕/8ガン転移、抑えられる!?」を抜粋したものを示し、図18(b)に、文書中の最後の段落である「この転移、がん細胞が・・・・近年解明されつつある。」を抜粋したものを示している。残りの段落については省略してある。
なお、実際のタグファイルは、見出し部分から最後の段落までが1つのファイルとして構成されている。
Here, the above Japanese or English documents are each configured as a tag file as shown in FIG.
As a tag file of a Japanese document, FIG. 18 (a) shows an excerpt of the headline part “[Nicely aging] / 8 cancer transfer, can be suppressed !?”, FIG. 18 (b), This is an excerpt of the last paragraph in the document, "This metastasis, cancer cells ... are being elucidated in recent years." The remaining paragraphs are omitted.
Note that the actual tag file is configured as one file from the heading to the last paragraph.

図18(a)に示す見出し部分において、<見出し>というタグは、この部分が見出しであることを示している。
この図18(a)(b)に示すタグファイルは基本的には、図2を用いて文書データ構造を説明した際に用いたタグファイル例と同様にタグが付されているものであり、上述した各タグについての細かい説明は省略するが、所要各所に、音声合成を行うために必要なタグが付与されているものである。
In the heading part shown in FIG. 18A, the tag <heading> indicates that this part is a heading.
The tag files shown in FIGS. 18A and 18B are basically tagged in the same manner as the tag file example used when the document data structure is described with reference to FIG. Although the detailed description about each tag mentioned above is abbreviate | omitted, the tag required in order to synthesize | combine speech is provided to required places.

音声合成を行うために必要なタグとしては、例えばまず、図中「例1」の部分に示すように、「蛋白(たんぱく)」のように元の文書に読み仮名を示す情報が与えられているときに付与されるものがある。すなわち、この場合では、「たんぱくたんぱく」と重複して読み上げてしまうことを防ぐために、発音=“null”という読み属性情報が記述されており、「(たんぱく)」の部分読み上げを禁止するタグが付与されている。
また、音声合成を行うために必要なタグとしては、図中「例2」「例3」に示すように、「リンパ管」のような専門用語や「住み家」のように、誤った読み上げを行う可能性のある難訓部分に付与されるものがある。すなわち、この場合では、「りんぱくだ」や「すみいえ」と読み上げてしまうことを防ぐために、それぞれ、発音=“りんぱかん”、発音=“すみか”という読み仮名を示す読み属性情報が記述されている。
As a tag required for speech synthesis, for example, as shown in the part of “Example 1” in the figure, information indicating a reading pseudonym is given to the original document such as “protein”. There are things that are granted when you are. That is, in this case, in order to prevent the reading from overlapping with “protein protein”, reading attribute information of pronunciation = “null” is described, and a tag prohibiting partial reading of “(protein)” is included. Has been granted.
In addition, as shown in “Example 2” and “Example 3” in the figure, tags necessary for speech synthesis are erroneously read out as technical terms such as “lymphatic vessels” and “residents”. There are things that are given to difficult parts that can be performed. That is, in this case, in order to prevent reading “Rinpakuda” or “Sumie”, the reading attribute information indicating the reading pseudonym of pronunciation = “Rinpakan” and pronunciation = “Sumika” is described. ing.

一方、図19に示すタグファイルにおける音声合成を行うために必要なタグとしては、図中「例4」として示す部分のように、「II」というローマ数字に対して、発音=“two”という読み属性情報が記述されている。これは、「II」を「トゥ(two)」と読み上げさせたい場合に、「セカンド(second)」と読み上げてしまうことを防ぐために記述されているものである。   On the other hand, as a tag necessary for speech synthesis in the tag file shown in FIG. 19, the pronunciation = “two” for a Roman numeral “II” as shown in “Example 4” in the figure. Reading attribute information is described. This is described in order to prevent “second” from being read out as “second” when it is desired to read out “II” as “two”.

また、例えば文書内に引用文が含まれている場合、このようなタグファイルには、図示しないが、その文が引用文であることを示すタグが付与される。さらに、タグファイルには、例えば文書内に疑問文がある場合、図示しないが、その文が疑問文であることを示すタグが付与される。   For example, when a quotation is included in a document, a tag indicating that the sentence is a quotation is attached to such a tag file, although not shown. Further, for example, when there is a question sentence in the document, a tag indicating that the sentence is a question sentence is attached to the tag file, although not shown.

文書処理装置1は、先に図16に示したステップF101において、例えば以上の例のように、音声合成を行うために必要なタグが付与された文書を受信又は作成するものとなる。   In step F101 shown in FIG. 16, the document processing apparatus 1 receives or creates a document to which a tag necessary for speech synthesis is added, for example, as in the above example.

つぎに、図16のステップF102における読み上げ用ファイルの生成について説明する。
文書処理装置1は、タグファイル中のタグから、読み上げめための属性情報を導出し、この属性情報を埋め込むことによって読み上げ用ファイルを生成する。
具体的には、文書処理装置1は、文書の段落、文、句の先頭を示すタグを見つけ出し、これらのタグに対応して読み上げのための属性情報を埋め込む。また文書処理装置は、文書の要約文を作成した場合には、その要約文に含まれる部分の先頭を文書から見つけ出し、読み上げの際に音量を増大させる属性情報を埋め込み、要約文に含まれる部分であることを強調することなどもできる。
Next, generation of the reading file in step F102 in FIG. 16 will be described.
The document processing apparatus 1 derives attribute information for reading from the tag in the tag file, and generates a reading file by embedding the attribute information.
Specifically, the document processing apparatus 1 finds tags indicating the heads of paragraphs, sentences, and phrases of the document, and embeds attribute information for reading in correspondence with these tags. In addition, when the document processing apparatus creates a summary sentence of the document, it finds the beginning of the part included in the summary sentence from the document, embeds attribute information that increases the volume at the time of reading, and includes the part included in the summary sentence It can be emphasized.

文書処理装置1は、図18又は図19に示したタグファイルから図20又は図21に示すような読み上げ用ファイルを生成する。なお、図20(a)(b)は図18(a)(b)に示した部分に対応するものである。実際の読み上げ用ファイルは、上述した見出し部分から最後の段落までが1つのファイルとして構成されていることは勿論である。   The document processing apparatus 1 generates a reading file as shown in FIG. 20 or FIG. 21 from the tag file shown in FIG. 18 or FIG. 20A and 20B correspond to the portions shown in FIGS. 18A and 18B. Of course, the actual reading-out file consists of the above-mentioned heading part to the last paragraph as one file.

図20に示す読み上げ用ファイルには、文書の先頭に対応してCom=Lang***という属性情報が埋め込まれている。この属性情報は、文書を記述している言語を示す。ここでは、Com=Lang=JPNという属性情報であり、文書を記述している言語が日本語であることを示している。文書処理装置においては、この属性情報を参照することで、文書毎に言語に応じた適切な音声合成エンジンを選択することができる。   In the read-out file shown in FIG. 20, attribute information Com = Lang *** is embedded corresponding to the head of the document. This attribute information indicates the language in which the document is described. Here, the attribute information is Com = Lang = JPN, which indicates that the language describing the document is Japanese. In the document processing apparatus, by referring to this attribute information, an appropriate speech synthesis engine corresponding to the language can be selected for each document.

また、この読み上げ用ファイルには各所に、Com=begin_p、Com=begin_s、Com=begin_phという属性情報が埋め込まれている。これらの属性情報は、それぞれ、文書の段落、文及び句の先頭を示す。文書処理装置1は、上述したタグファイル中のタグに基づいて、これらの段落、文及び句の先頭を識別する。
なお、読み上げ用ファイルにおいて、例えば上述したタグファイル中の<形容動詞句><名詞句>のように、同じレベルの統語構造を表すタグが連続して表れる部分に対しては、それぞれに対応する数のCom=begin_phが埋め込まれずに、まとめられて1つのCom=begin_phが埋め込まれる。
In addition, attribute information such as Com = begin_p, Com = begin_s, and Com = begin_ph is embedded in this reading file. These pieces of attribute information indicate the heads of paragraphs, sentences, and phrases of the document, respectively. The document processing apparatus 1 identifies the heads of these paragraphs, sentences, and phrases based on the tags in the tag file described above.
It should be noted that in the reading file, for example, portions where tags representing the same level of syntactic structure appear continuously, such as <adjective verb phrase><nounphrase> in the tag file described above, respectively. A number of Com = begin_ph is not embedded, and one Com = begin_ph is embedded.

さらに、読み上げ用ファイルには、Com=begin_p、Com=begin_s、及びCom=begin_phに対応して、それぞれ、Pau=500、Pau=100及びPau=50という属性情報が埋め込まれている。これらの属性情報は、それぞれ、読み上げの際に500ミリ秒、100ミリ秒及び50ミリ秒の休止期間を設けることを示す。
すなわち文書処理装置1が、文章の段落、文及び句の先頭こおいて、それぞれ、500ミリ秒、100ミリ秒及び50ミリ秒の休止期間を設けて文書を音声合成エンジンにより読み上げるようにするための情報である。
なお、これらの属性情報は、Com=begin_p、Com=begin_s及びCom=begin_phに対応して埋め込まれる。そのため、例えばタグファイル中の<副詞句><名詞句>のように、同じレベルの統語構造を表すタグが連続して表れる部分は、1つの句として捉えられ、それぞれに対応する数のPau=50が埋め込まれずに、まとめられて1つのPau=50が埋め込まれる。
また、例えばタグファイル中の<段落><文><名詞句>のように、異なるレベルの統語構造を表すタグが連続して表れる部分については、それぞれに対応するPau=***が埋め込まれる。そのため文書処理装置1は、このような部分を読み上げる際には、例えば文書の段落、文及び句のそれぞれの休止期間を加算して得られる650ミリ秒の休止期間を設けて読み上げるようにする。
このように、文書処理装置1は、段落、文及び句に対応した休止期間を設けることで、段落、文及び句の切れ目を考慮した違和感のない読み上げを行うことができる。なお、この休止期間は、文書の段落、文及び句の先頭において、それぞれ、600ミリ秒、100ミリ秒及び50ミリ秒である必要はなく、適宜変更することができる。
Further, attribute information of Pau = 500, Pau = 100, and Pau = 50 is embedded in the reading file in correspondence with Com = begin_p, Com = begin_s, and Com = begin_ph, respectively. These pieces of attribute information indicate that pause periods of 500 milliseconds, 100 milliseconds, and 50 milliseconds are provided when reading out.
That is, the document processing apparatus 1 sets a pause period of 500 milliseconds, 100 milliseconds, and 50 milliseconds at the beginning of a paragraph, sentence, and phrase of a sentence so that the document is read out by the speech synthesis engine. Information.
Note that these pieces of attribute information are embedded corresponding to Com = begin_p, Com = begin_s, and Com = begin_ph. Therefore, for example, <adverb phrase><nounphrase> in a tag file, a portion in which tags representing syntactic structures of the same level appear consecutively is regarded as one phrase, and the corresponding number of Pau = A single Pau = 50 is embedded without being embedded.
Also, for parts where tags representing different levels of syntactic structure appear consecutively, such as <paragraph><sentence><nounphrase> in the tag file, the corresponding Pau = *** is embedded. . For this reason, when reading out such a portion, the document processing apparatus 1 reads out such a portion by providing a pause period of 650 milliseconds obtained by adding the pause periods of paragraphs, sentences, and phrases of the document, for example.
As described above, the document processing apparatus 1 can perform reading without a sense of incongruity in consideration of breaks between paragraphs, sentences, and phrases by providing pause periods corresponding to paragraphs, sentences, and phrases. The pause period does not need to be 600 milliseconds, 100 milliseconds, and 50 milliseconds, respectively, at the beginning of paragraphs, sentences, and phrases of the document, and can be changed as appropriate.

さらにまた、読み上げ用ファイルにおいては、タグファイル中で記述されている発音=“null”という読み属性情報に対応して、「(たんぱく)」が除かれているとともに、発音=“りんぱかん”、発音=“すみか”という読み属性情報に対応して、「リンパ管」、「住み家」が、それぞれ、「りんぱかん」、「すみか」に置換されている。文書処理装置1は、このような読み属性情報を埋め込むことで、音声合成エンジンが参照する辞書の不備による読み誤りをすることがないようにしている。   Furthermore, in the file for reading out, “(protein)” is removed corresponding to the reading attribute information described in the tag file as “phonetic” = “null”, and the phonetic = “Rinpakan”, Corresponding to the reading attribute information of pronunciation = “Sumika”, “lymph vessel” and “resident” are respectively replaced by “Rinpakan” and “Sumika”. The document processing apparatus 1 embeds such reading attribute information so as not to make a reading error due to a deficiency of a dictionary referred to by the speech synthesis engine.

また、読み上げ用ファイルには、文書内に含まれた引用文であることを示すタグに基づいて、この引用文のみを別の音声合成エンジンを用いるように指定するための属性情報が埋め込まれてもよい。
さらに、読み上げ用ファイルには、疑問文であることを示すタグに基づいて、その文の語尾のイントネーションを上げるための属性情報が埋め込まれるようにしてもよい。
さらにまた、読み上げ用ファイルには、必要に応じて、いわゆる「である調」の文体を「ですます調」の文体に変換するための属性情報を埋め込むこともできる。なお、この場合、文書処理装置1は、このような属性情報を読み上げ用ファイルに埋め込むのではなく、「である調」の文体を「ですます調」の文体に変換して音声読み上げ用ファイルを生成するようにしてもよい。
Also, attribute information for designating only this quoted sentence to use another speech synthesis engine based on a tag indicating that it is a quoted sentence included in the document is embedded in the reading file. Also good.
Furthermore, attribute information for increasing the intonation of the ending of the sentence may be embedded in the reading file based on a tag indicating a question sentence.
Furthermore, attribute information for converting a so-called “Narutone” style to a “Masutone” style can be embedded in the reading file as needed. In this case, the document processing apparatus 1 does not embed such attribute information in the reading-out file, but converts the text of “Naruto” into the style of “Nadamasu” and converts the reading-out file into a voice-reading file. You may make it produce | generate.

一方、図21に示す読み上げ用ファイルには、文書の先頭に対応してCom=Lang=ENGという属性情報が埋め込まれており、文書を記述している言語が英語であることを示している。
また、読み上げ用ファイルには、Com=Vol=***という属性情報が埋め込まれている。この属性情報は、読み上げの時の音量を示す。例えば、Com=Vol=0は、文書処理装置のデフォルトの音量で読み上げることを示している。また、Com=Vol=80は、デフォルトの音量を80%増量した音量で読み上げることを示している。任意の、Com=Vol=***は、次のCom=Vol=***まで有効である。
さらに、読み上げ用ファイルにおいては、タグファイル中で記述されている発音=“two”という読み属性情報に対応して、「II」が「two」に置換されている。
On the other hand, in the reading file shown in FIG. 21, attribute information of Com = Lang = ENG is embedded corresponding to the head of the document, indicating that the language describing the document is English.
Also, attribute information such as Com = Vol = *** is embedded in the reading file. This attribute information indicates the volume at the time of reading. For example, Com = Vol = 0 indicates that reading is performed at the default volume of the document processing apparatus. Also, Com = Vol = 80 indicates that the default volume is read out with a volume increased by 80%. Arbitrary Com = Vol = *** is valid until the next Com = Vol = ***.
Further, in the reading file, “II” is replaced with “two” in correspondence with the reading attribute information “phonetic” = “two” described in the tag file.

文書処理装置1は、図17に示す一連の工程を経ることによって、このような読み上げ用ファイルを生成する。
まず文書処理装置1は、ステップF201において、CPU13によって、受信又は作成したタグファイルを解析する。ここで文書処理装置1は、文書を記述している言語を判別するとともに、文書の段落、文及び句の先頭や、読み属性情報をタグに基づいて探し出す。
続いて文書処理装置1は、ステップF202において、CPU13によって、文書を記述している言語に応じて文書の先頭にCom=Lang=***という属性情報を埋め込む。
The document processing apparatus 1 generates such a reading file through a series of steps shown in FIG.
First, the document processing apparatus 1 analyzes the received or created tag file by the CPU 13 in step F201. Here, the document processing apparatus 1 determines the language in which the document is described, and searches for the beginning of paragraphs, sentences, and phrases of the document and reading attribute information based on the tags.
Subsequently, in step F202, the document processing apparatus 1 causes the CPU 13 to embed attribute information such as Com = Lang = *** at the beginning of the document according to the language in which the document is described.

次に文書処理装置1は、ステップF203において、CPU13によって、文書の段落、文及び句の先頭を読み上げ用ファイルにおける属性情報に置換する。すなわち文書処理装置1は、タグファイル中の<段落>、<文>及び<***句>を、それぞれ、Com=begin_p、Com=begin_s及びCom=begin_phに置換する。   Next, in step F203, the document processing apparatus 1 causes the CPU 13 to replace the beginning of the paragraph, sentence, and phrase of the document with attribute information in the reading file. That is, the document processing apparatus 1 replaces <paragraph>, <sentence>, and <*** phrase> in the tag file with Com = begin_p, Com = begin_s, and Com = begin_ph, respectively.

さらに文書処理装置1は、ステップF204において、CPU13によって、同じレベルの統語構造が表れて同じCom=begin_***が重複しているものを、1つのCom=begin_***にまとめる。
続いて文書処理装置1は、ステップF205において、CPU13によって、Com=begin_***に対応してPau=***を埋め込む。すなわち文書処理装置1は、Com=begin_pの前にPau=500を埋め込み、Com=begin_sの前にPau=100を埋め込み、Com=begin_phの前にPau=50を埋め込む。
そして文書処理装置1は、ステップF206において、CPU13によって、読み属性情報に基づいて、正しい読みに置換する。すなわち文書処理装置1は、発音=“null”という読み属性情報に基づいて、「(たんぱく)」を除去するとともに、発音=“りんぱかん”、発音=“すみか”という読み属性情報に基づいて、「リンパ管」、「住み家」を、それぞれ、「りんぱかん」、「すみか」に置換する。
Further, in step F204, the document processing apparatus 1 causes the CPU 13 to combine the same level of syntactic structure and the same Com = begin _ *** into one Com = begin _ ***.
Subsequently, in step F205, the document processing apparatus 1 causes the CPU 13 to embed Pau = *** corresponding to Com = begin _ ***. That is, the document processing apparatus 1 embeds Pau = 500 before Com = begin_p, embeds Pau = 100 before Com = begin_s, and embeds Pau = 50 before Com = begin_ph.
In step F206, the document processing apparatus 1 uses the CPU 13 to replace the reading with correct reading based on the reading attribute information. That is, the document processing apparatus 1 removes “(Tanpaku)” based on the reading attribute information of pronunciation = “null”, and based on the reading attribute information of pronunciation = “Rinpakan” and pronunciation = “Sumika”. “Lymph vessel” and “resident” are replaced with “Rinpakan” and “Sumitaka”, respectively.

文書処理装置1は、先に図16に示したステップF102において、この図17に示す処理を行うことによって、読み上げ用ファイルを自動的に生成する。文書処理装置1は、生成した読み上げ用ファイルをRAM14に記憶させる。   The document processing apparatus 1 automatically generates a reading file by performing the processing shown in FIG. 17 in step F102 shown in FIG. The document processing apparatus 1 stores the generated reading file in the RAM 14.

つぎに、図16のステップF103における読み上げ用ファイルを用いた処理について説明する。
文書処理装置1は、読み上げ用ファイルを用いて、ROM15やHDD34等に予め記憶されている音声合成エンジンに適した処理をCPU13の制御のもとに行う。
具体的には、文書処理装置1は、読み上げ用ファイルに埋め込まれているCom=Lang=***という属性情報に基づいて、使用する音声合成エンジンを選択する。
音声合成エンジンは、言語や男声/女声等の種類に応じて識別子が付されており、その情報が例えば初期設定ファイルとしてHDD34に記録されている。文書処理装置1は、初期設定ファイルを参照し、言語に対応した識別子の音声合成エンジンを選択する。
Next, processing using the reading file in step F103 in FIG. 16 will be described.
The document processing apparatus 1 performs processing suitable for the speech synthesis engine stored in advance in the ROM 15, the HDD 34, or the like using the read-out file under the control of the CPU 13.
Specifically, the document processing apparatus 1 selects a speech synthesis engine to be used based on attribute information “Com = Lang = ***” embedded in the reading file.
The speech synthesis engine is assigned an identifier according to the type of language or male / female voice, and the information is recorded in the HDD 34 as an initial setting file, for example. The document processing apparatus 1 refers to the initial setting file and selects a speech synthesis engine having an identifier corresponding to the language.

また文書処理装置1は、読み上げ用ファイルに埋め込まれているCom=begin_***を音声合成エンジンに適した形式に変換する。
例えば文書処理装置1は、Com=begin_phをMark=10000のように10000番台の番号でマーク付けする。またCom=begin_sをMark=1000のように1000番台の番号でマーク付けし、Com=begin_pをMark=100のように100番台の番号でマーク付けする。
これは、<句>、<文>、<段落>の先頭が、それぞれ10000番台、1000番台、100番台の番号で示されることを意味し、このマークによって<句>、<文>、<段落>の先頭が識別できるようになる。
さらに、読み上げ用ファイルにおいては、音量の属性情報がVoll=***のようにデフォルトの音量の百分率で表されていることから、文書処理装置1は、この属性情報に基づいて、百分率の情報を絶対値の情報に変換して求める。
The document processing apparatus 1 converts Com = begin _ *** embedded in the reading file into a format suitable for the speech synthesis engine.
For example, the document processing apparatus 1 marks Com = begin_ph with a number in the 10,000 range, such as Mark = 10000. Also, Com = begin_s is marked with a number in the 1000 range such as Mark = 1000, and Com = begin_p is marked with a number in the 100 range such as Mark = 100.
This means that the heads of <phrase>, <sentence>, and <paragraph> are indicated by numbers in the 10,000s, 1000s, and 100s, respectively, and this mark indicates <phrase>, <sentence>, and <paragraph>. The head of> can be identified.
Furthermore, since the volume attribute information is expressed as a percentage of the default volume such as Voll = *** in the reading-out file, the document processing apparatus 1 uses the attribute information as a percentage information. Is converted into absolute value information.

文書処理装置1は、先に図16に示したステップF103において、このような読み上げ用ファイルを用いた処理を行うことによって、読み上げ用ファイルを音声合成エンジンが文書を読み上げることが可能な形式に変換するものとなる。   In step F103 shown in FIG. 16, the document processing apparatus 1 converts the read-out file into a format that allows the speech synthesis engine to read the document by performing processing using such a read-out file. To be.

つぎに、図16のステップF104におけるユーザインターフェースを用いた操作について説明する。
文書処理装置1は、ユーザが例えば入力部20のマウス等を操作して、先に図10に示した読み上げボタン306cをクリックすることによって、音声合成エンジンを起動する。
そして文書処理装置1は、図22に示すようなユーザインターフェース用の読み上げウインドウ401を表示部30に表示する。
Next, the operation using the user interface in step F104 in FIG. 16 will be described.
The document processing apparatus 1 activates the speech synthesis engine when the user operates, for example, the mouse of the input unit 20 and clicks the reading button 306c shown in FIG.
Then, the document processing apparatus 1 displays a user interface reading window 401 as shown in FIG.

この読み上げウインドウ401は、図示するように、文書を読み上げさせるための再生ボタン420と、読み上げを停止させるための停止ボタン421と、読み上げを一時停止させるための一時停止ボタン422とを有する。
また、この読み上げウインドウ401は、文単位で頭出し、早戻し及び早送りさせるための頭出しボタン411、早戻しボタン412及び早送りボタン413と、段落単位で頭出し、早戻し及び早送りさせるための頭出しボタン414、早戻しボタン415及び早送りボタン416と、句単位で頭出し、早戻し及び早送りさせるための頭出しボタン417、早戻しボタン418及び早送りボタン419とを有する。
As shown in the figure, the reading window 401 includes a reproduction button 420 for reading a document, a stop button 421 for stopping reading, and a pause button 422 for temporarily stopping reading.
The reading window 401 includes a cue button 411, a fast reverse button 412 and a fast forward button 413 for cuing, fast rewinding and fast forwarding in sentence units, and a head for cuing, fast rewinding and fast forwarding in paragraph units. A search button 414, a fast-reverse button 415, and a fast-forward button 416, and a cue button 417, a fast-rewind button 418, and a fast-forward button 419 are provided for cuing, fast-rewinding, and fast-forwarding in phrase units.

さらに、読み上げウインドウ401は、読み上げる対象を全文とするか、上述したようにして作成された要約文とするかを選択するための選択スイッチ423,424を有する。
また、読み上げ時に画像を表示する画像表示エリア403が設定され、読み上げている人のイメージを表示したり、テロップ表示エリア402が設けられ、読み上げ音声に対応して文字がテロップ表示できるようにされている。
Furthermore, the reading window 401 includes selection switches 423 and 424 for selecting whether a reading target is a full sentence or a summary sentence created as described above.
In addition, an image display area 403 for displaying an image at the time of reading is set, and an image of a person who is reading is displayed, or a telop display area 402 is provided so that characters can be displayed in telop according to the reading voice. Yes.

なお、ここでは図示しないが、例えば、音声を増減させるためのボタンや読み上げの速さを増減させるためのボタン、男声/女声等の声を変化させるためのボタン等を有していてもよい。   Although not shown here, for example, a button for increasing / decreasing the voice, a button for increasing / decreasing the speed of reading, a button for changing the voice of male / female voice, and the like may be provided.

文書処理装置1は、ユーザがこれらの各種ボタン/スイッチを例えば入力部20のマウス等を操作してクリック/選択することに応じて、音声合成エンジンによる読み上げ動作を行う。
例えば、文書処理装置1は、ユーザが再生ボタン420をクリックすることによって、文書の読み上げを開始する。具体的には制御部11は音声合成処理により生成した音声信号を音声出力部33に供給し、音声として出力する。
また文書処理装置1は、停止ボタン421、一時停止ボタン422のクリックにおいて、読み上げ処理の停止や一時停止を行う。
The document processing apparatus 1 performs a reading operation by the speech synthesis engine in response to the user clicking / selecting these various buttons / switches by operating, for example, the mouse of the input unit 20 or the like.
For example, the document processing apparatus 1 starts reading a document when the user clicks the play button 420. Specifically, the control unit 11 supplies the voice signal generated by the voice synthesis process to the voice output unit 33 and outputs it as voice.
The document processing apparatus 1 stops or pauses the reading process when the stop button 421 and the pause button 422 are clicked.

また、読み上げの途中でユーザが頭出しボタン411を押すことによって、現在読み上げている文の先頭にジャンプして再び読み上げる。頭出しボタン414、417についても同様に、それぞれ現在読み上げている段落や句の先頭にジャンプして再び読み上げを行う。
制御部11は、この頭出しボタン411、414、417の操作に関しては、上記したマーク付により、ジャンプ先を認識するものとなる。即ち、文に関する頭出しボタン411が操作された際には、制御部11は、現在読み上げている文の途中位置から文を遡っていき、1000番台のマークをサーチする。そして1000番台のマークが検出されたら、そこから読み上げを再開するものとなる。段落や句の場合は、それぞれ100番台、10000番台のマークを探して読み上げを再開するものとなる。
この様な処理によって、例えば文書中でユーザが所望の部分を繰り返し再生させたいといった要求に応えることができる。
In addition, when the user presses the cue button 411 during reading, the user jumps to the head of the currently read sentence and reads it again. Similarly, for the cue buttons 414 and 417, jump to the head of the paragraph or phrase currently being read out and read out again.
The control unit 11 recognizes the jump destination with the above-mentioned mark regarding the operation of the cue buttons 411, 414, and 417. That is, when the cue button 411 relating to a sentence is operated, the control unit 11 searches the mark in the 1000s by going back from the middle position of the sentence currently being read out. When a mark in the 1000s is detected, reading is resumed from there. In the case of paragraphs and phrases, the 100th and 10,000th marks are searched for and the reading is resumed.
By such processing, for example, it is possible to respond to a request that a user wants to repeatedly reproduce a desired portion in a document.

文書処理装置1は、図16のステップF104において、ユーザがこのような読み上げウインドウ401でのユーザインターフェースを用いた操作を行うことに応じて、音声合成エンジンにより文書を読み上げる。
このようにして文書処理装置1は、所望の文書を音声合成エンジンにより違和感なく読み上げることができる。
In step F104 in FIG. 16, the document processing apparatus 1 reads a document by the speech synthesis engine in response to the user performing an operation using the user interface in the reading window 401 as described above.
In this way, the document processing apparatus 1 can read out a desired document without a sense of incongruity by the speech synthesis engine.

ところで読み上げる対象の文書としては文書データの本文でもよいし、後述するように生成される要約文であってもよい。本文か要約文かは、選択スイッチ423,424のクリックにより選択されるが、いずれにしても、本文又は要約文としてのタグファイルについて、図16のステップF102,F103の処理が行われることで、音声合成エンジンによる文書読み上げが可能となる。   By the way, the document to be read out may be the text of the document data or a summary sentence generated as described later. Whether the body text or the summary sentence is selected by clicking the selection switches 423 and 424. In any case, the processing of steps F102 and F103 in FIG. 16 is performed on the tag file as the body text or the summary sentence. The text-to-speech can be read by the speech synthesis engine.

なお本例では、受信又は作成したタグファイルから読み上げ用ファイルを生成するものとしたが、このような読み上げ用ファイルを生成せずに、タグファイルに基づいて直接読み上げを行うようにしてもよい。
この場合、文書処理装置1は、タグファイルを受信又は作成した後、音声合成エンジンを用い、タグファイルに付与されている段落、文及び句を示すタグに基づいて、段落、文及び句の先頭に所定の休止期間を設けて読み上げる。このようにすることによって、文書処理装置1は、音声読み上げ用ファイルを生成することなく、タグファイルに基づいて直接読み上げることができる。
In this example, the reading file is generated from the received or created tag file. However, the reading file may be directly read based on the tag file without generating such a reading file.
In this case, the document processing apparatus 1 uses the speech synthesis engine after receiving or creating the tag file, and based on the tag indicating the paragraph, sentence, and phrase attached to the tag file, Read aloud with a predetermined rest period. In this way, the document processing apparatus 1 can directly read out based on the tag file without generating a voice reading file.

6.要約作成/表示処理
続いて、文書データについての要約文を作成する処理について述べる。
上述したようにユーザーは、文書を選択して図10のような閲覧ウインドウ301を開くことにより、文書の本文を閲覧することができる。
そして閲覧ウインドウ301においては、選択された文書の本文及び要約文が表示される。
但し、また要約文が作成されていない時点では、図26のように要約表示部304は空白とされる。
6). Summary Creation / Display Process Next, a process for creating a summary sentence for document data will be described.
As described above, the user can browse the text of the document by selecting the document and opening the viewing window 301 as shown in FIG.
In the browsing window 301, the text and summary of the selected document are displayed.
However, when no summary sentence is created, the summary display section 304 is blank as shown in FIG.

この閲覧ウインドウ301において要約作成ボタン306aがクリックされると、文書表示部303に表示されている文書についての要約文が作成され、図27に示すように要約表示部304に表示される。
つまり制御部11は、ソフトウエアもしくはハードウエアで構成される要約作成エンジン(図47で後述)を起動させることにより、ユーザーの要約作成操作に応じて、以下説明するような要約文作成処理を行い、作成後、それを表示する制御を行うものとなる。
文書から要約を作成する処理は、文書のタグ付けによる内部構造に基づいて実行される。
When the summary creation button 306a is clicked in the browsing window 301, a summary sentence about the document displayed on the document display unit 303 is created and displayed on the summary display unit 304 as shown in FIG.
That is, the control unit 11 activates a summary creation engine (described later with reference to FIG. 47) configured by software or hardware, and performs summary sentence creation processing as described below according to the user's summary creation operation. After creation, control to display it is performed.
The process of creating a summary from a document is performed based on the internal structure by tagging the document.

なお要約文は、通常は、要約表示部304のサイズに応じて生成される。そして本文表示部303と要約表示部304の面積は、ユーザーが仕切枠312を移動させることで変化させることができる。
つまり要約文は、要約作成が指示された時点での要約表示部304のサイズに応じたサイズ(文書長)で作成されることになる。
例えば図26では要約表示部304は非常に狭いものとなっているが、ユーザーが仕切枠312を移動させて要約表示部304を広くした上で、要約作成を指示することで、例えば図27のように広げられた要約表示部304に、そのエリアサイズに合った文書長の要約文が作成され、表示されるものとなる。
The summary sentence is usually generated according to the size of the summary display unit 304. The area of the text display unit 303 and the summary display unit 304 can be changed by the user moving the partition frame 312.
That is, the summary sentence is created in a size (document length) corresponding to the size of the summary display unit 304 at the time when the summary creation is instructed.
For example, in FIG. 26, the summary display unit 304 is very narrow, but when the user widens the summary display unit 304 by moving the partition frame 312 and instructs the creation of the summary, for example, FIG. A summary sentence having a document length corresponding to the area size is created and displayed in the expanded summary display section 304.

但し、例えば図26のように要約表示部304が非常に狭い場合に、そのサイズに応じた要約文を作成するとすると、その要約文は不十分な内容となってしまうことが多い。つまり十分な文書長で要約文を作成できないため、実質的に要約としての機能を果たさない文章となってしまう。
そこで本例では、要約表示部304としてのウインドウサイズ(ウインドウ内に表示可能な文書長)が所定値以下、例えば図26のような画面上での行数でいうと1〜2行程度未満の場合などには、要約表示部304のサイズを越える文書長の要約文を作成するようにし、ソフトウエアもしくはハードウエアで構成されるテロップ作成エンジン(図47で後述)により、それをテロップ化して表示するようにしている。
However, for example, when the summary display unit 304 is very narrow as shown in FIG. 26 and a summary sentence corresponding to the size is created, the summary sentence often has insufficient contents. That is, since a summary sentence cannot be created with a sufficient document length, the sentence does not substantially function as a summary.
Therefore, in this example, the window size (document length that can be displayed in the window) as the summary display unit 304 is less than a predetermined value, for example, less than about 1 to 2 lines in terms of the number of lines on the screen as shown in FIG. In some cases, a summary sentence having a document length exceeding the size of the summary display unit 304 is created, and is displayed as a telop by a telop creation engine (described later in FIG. 47) configured by software or hardware. Like to do.

以下、このようなテロップ表示を含む、本例の要約文の作成及び表示動作について説明していく。   Hereinafter, a summary sentence creation and display operation of this example including such a telop display will be described.

閲覧ウインドウ301上で要約作成ボタン306aがクリックされることにより、制御部11(要約作成エンジン)によって図23の要約作成処理が開始される。なお図23の要約作成処理が終了すると、続いて図24の要約文表示処理が実行され、また場合によっては、その要約文表示処理中で図25のテロップ表示処理が行われるものとなる。   When the summary creation button 306a is clicked on the browsing window 301, the summary creation processing of FIG. 23 is started by the control unit 11 (summary creation engine). When the summary creation process of FIG. 23 is completed, the summary sentence display process of FIG. 24 is subsequently executed. In some cases, the telop display process of FIG. 25 is performed during the summary sentence display process.

図23の要約作成処理としては、まずステップF81として制御部11は活性拡散を行う。本例においては、活性拡散により得られた中心活性値を重要度として採用することにより、文書の要約を行うものである。すなわち、タグ付けによる内部構造を与えられた文書においては、活性拡散を行うことにより、各エレメントにタグ付けによる内部構造に応じた中心活性値を付与することができる。
ステップF81で行う活性拡散処理は、図6〜図8で説明したものと同様の処理となるが、上述したように活性拡散は、中心活性値の高いエレメントと関わりのあるエレメントにも高い中心活性値を与えるような処理である。すなわち、活性拡散は、照応(共参照)表現とその先行詞の間で中心活性値が等しくなり、それ以外では中心活性値が減衰するような中心活性値についての演算である。この中心活性値は、タグ付けによる内部構造に応じて決定されるので、タグ付けによる内部構造を考慮した文書の分析に利用することができる。
In the summary creation process of FIG. 23, first, the control unit 11 performs active diffusion as step F81. In this example, documents are summarized by adopting the central activity value obtained by active diffusion as the importance. That is, in a document given an internal structure by tagging, a central activity value corresponding to the internal structure by tagging can be given to each element by performing active diffusion.
The active diffusion process performed in step F81 is the same as that described with reference to FIGS. 6 to 8. However, as described above, the active diffusion is also applied to elements having a high central activity value and high central activity. It is processing that gives a value. That is, active diffusion is an operation on a central activity value in which the central activity value is equal between the anaphoric (coreference) expression and its antecedent, and otherwise the central activity value is attenuated. Since this central activity value is determined according to the internal structure by tagging, it can be used for the analysis of documents in consideration of the internal structure by tagging.

次にステップF82で、その時点の要約表示部304のサイズwsyを確認し、要約表示部サイズwsyが予め設定されている所定サイズwsth以上であるか否かを確認する。
この所定サイズwsthとは、通常、要約文としては十分な文書長(文字数)を表示できるウインドウサイズとして設定されているものである。所定サイズwsthとしての具体的な値は、システム設計上、適切な値が決められるものとなる。
Next, in step F82, the size wsy of the summary display unit 304 at that time is confirmed, and it is confirmed whether the summary display unit size wsy is equal to or larger than a predetermined size wsth set in advance.
The predetermined size wsth is normally set as a window size capable of displaying a sufficient document length (number of characters) as a summary sentence. As the specific value as the predetermined size wsth, an appropriate value is determined in system design.

まず、要約表示部サイズwsyが予め設定されている所定サイズwsth以上であった場合について説明していく。これは要約表示部サイズwsyに応じた要約文が作成される場合の処理となる。
この場合、制御部11の処理は、ステップF83に進み、制御部11は、その時点で表示部30に表示されている閲覧ウィンドウ301の要約表示部304のサイズwsy(具体的にはこの要約表示部304に表示可能な最大文字数)を変数(最大文字数)wsと設定する。
また制御部11は、要約の文字列(要約文を保持する内部レジスタ)sを初期化して初期値s(0)=””と設定する。制御部11は、このように設定した、最大文字数wsおよび文字列sの初期値s(0)を、RAM14に記録する。
First, a case where the summary display unit size wsy is equal to or larger than a predetermined size wsth set in advance will be described. This is processing when a summary sentence corresponding to the summary display unit size wsy is created.
In this case, the process of the control unit 11 proceeds to step F83, and the control unit 11 determines the size wsy of the summary display unit 304 of the browsing window 301 currently displayed on the display unit 30 (specifically, this summary display). The maximum number of characters that can be displayed in the section 304 is set as a variable (maximum number of characters) ws.
Further, the control unit 11 initializes the character string of the summary (internal register holding the summary sentence) s and sets the initial value s (0) = “”. The control unit 11 records the maximum number of characters ws and the initial value s (0) of the character string s thus set in the RAM 14.

次にステップF85に進み、制御部11は、文の骨格の抽出処理をカウントするカウンタのカウント値iを「1」に設定する。
そしてステップF86で制御部11は、カウンタのカウント値iに基づいて、文章からi番目に平均中心活性値の高い文の骨格を抽出する。
平均中心活性値とは、一つの文を構成する各エレメントの中心活性値を平均したものである。
制御部11は、たとえばRAM14に記録した文字列s(i−1)を読み出し、この文字列s(i−1)に対して、抽出した文の骨格の文字列を加えて、S(i)とする。そして制御部11は、このようにして得た文字列s(i)をRAM14に記録する。
初回は、文字列s(i−1)は初期値s(0)であるので、今回抽出した文の骨格が文字列S(i)としてRAM14に記憶されることになる。
また以降においてステップF84の処理が行われる場合は、抽出された文の骨格が文字列S(i)に、それまでの文字列S(i)(つまりその時点では文字列S(i−1))に追加されていくものとなる。
また同時に、制御部11はこのステップF84において、上記文の骨格に含まれないエレメントの中心活性値順のリストL(i)を作成し、このリストL(i)をRAM14に記録する。
In step F85, the control unit 11 sets the count value i of the counter that counts the sentence skeleton extraction processing to “1”.
In step F86, based on the count value i of the counter, the control unit 11 extracts the skeleton of the sentence having the i-th highest average central activity value from the sentence.
The average central activity value is an average of the central activity values of the elements constituting one sentence.
For example, the control unit 11 reads the character string s (i-1) recorded in the RAM 14, adds the character string of the extracted sentence skeleton to the character string s (i-1), and performs S (i) And Then, the control unit 11 records the character string s (i) thus obtained in the RAM 14.
Since the character string s (i−1) is the initial value s (0) at the first time, the skeleton of the sentence extracted this time is stored in the RAM 14 as the character string S (i).
Further, when the process of step F84 is performed thereafter, the skeleton of the extracted sentence becomes the character string S (i), and the character string S (i) up to that point (that is, the character string S (i-1) at that time). ) Will be added.
At the same time, in step F84, the control unit 11 creates a list L (i) in the order of the central activation values of elements not included in the skeleton of the sentence, and records this list L (i) in the RAM 14.

すなわち、このステップF86においては、要約のアルゴリズムは、活性拡散の結果を用いて、平均中心活性値の大きい順に文を選択し、選択された文の骨格の抽出する。文の骨格は、文から抽出した必須要素により構成される。必須要素になりうるのは、エレメントの主辞(head)と、主語(subject)、目的語(object)、間接目的語(indirect object)、所有者(possessor)、原因(cause)、条件(condition)または比較(comparison)の関係属性を有する要素と、等位構造が必須要素のときにはそれに直接含まれるエレメントとが必須要素を構成するものである。そして、文の必須要素をつなげて文の骨格を生成し、要約に加える。   That is, in this step F86, the summary algorithm selects sentences in descending order of the average central activity value using the result of activity diffusion, and extracts the skeleton of the selected sentence. The skeleton of the sentence is composed of essential elements extracted from the sentence. The required elements can be the element head, subject, object, indirect object, possessor, cause, condition Alternatively, an element having a relation attribute of comparison and an element directly included when the coordinate structure is an essential element constitute an essential element. Then, the skeleton of the sentence is generated by connecting the essential elements of the sentence and added to the summary.

ステップF87では制御部11は、文字列s(i)の長さが、閲覧ウィンドウ301の要約表示部104の最大文字数wsより大きいか否かを判断する。
このステップF87は、要約表示部304のサイズに応じた要約文を作成するための判断処理となる。
In step F87, the control unit 11 determines whether the length of the character string s (i) is larger than the maximum number of characters ws of the summary display unit 104 of the viewing window 301.
This step F87 is a determination process for creating a summary sentence according to the size of the summary display unit 304.

制御部11は、文字列s(i)の長さが最大文字数wsに達していないときは、処理をステップF88に進める。
ステップF88では制御部11は、文書中で、(i+1)番目に平均中心活性値が高い文のエレメントの中心活性値と、上記ステップF86で作成したリストL(i)の最も中心活性値が高いエレメントの中心活性値を比較する。
つまり、上記ステップF86において要約として採用された文の次に平均中心活性値が高い文(即ち次に要約文に付加する候補となる文)と、ステップF86において要約として採用された文の中で骨格ではないとして要約からは排除されたエレメントの中心活性値を比較する。
When the length of the character string s (i) does not reach the maximum number of characters ws, the control unit 11 advances the process to Step F88.
In step F88, the control unit 11 has the highest central activity value of the element of the sentence having the highest average central activity value in the document (i + 1) and the list L (i) created in step F86. Compare the central activity values of the elements.
That is, the sentence having the next highest average central activity value after the sentence adopted as the summary in step F86 (that is, the sentence to be added to the summary sentence next) and the sentence adopted as the summary in step F86. Compare the central activity values of elements that were excluded from the summary as not skeleton.

このステップF88の処理は、要約文としての文字列に次に加える部位を、その直前のステップF86で採用した文において骨格として採用されなかったものから選ぶか、或いは他の文から選ぶかを判断する処理となる。   In the process of step F88, it is determined whether the part to be added next to the character string as the summary sentence is selected from those not adopted as the skeleton in the sentence adopted in the immediately preceding step F86 or from other sentences. It becomes processing to do.

(i+1)番目に平均中心活性値が高い文におけるエレメントの中心活性値よりも、リストL(i)における最も高い中心活性値の方が、中心活性値が高い値であった場合は、要約文としての文字列に次に加える部位を、その直前のステップF86で採用した文において骨格として採用されなかったものから選ぶようにする。
このため制御部11の処理はステップF90に進み、リストL(i)における最も中心活性値が高いエレメントを、その時点で記憶されている文字列S(i)に加え、文字列SS(i)とする。
またこのとき、文字列SS(i)に加えたエレメントをリストL(i)から削除する。
そして、ステップF91において、文字列SS(i)が、最大文字数wsより大きいか否かを判断し、大きくなければステップF88に戻る。
If the central activity value in the list L (i) has a higher central activity value than the central activity value of the element in the sentence with the (i + 1) th average central activity value, the summary sentence Next, the part to be added to the character string is selected from those not adopted as the skeleton in the sentence adopted in the immediately preceding step F86.
Therefore, the process of the control unit 11 proceeds to step F90, and the element having the highest central activation value in the list L (i) is added to the character string S (i) stored at that time, and the character string SS (i) And
At this time, the element added to the character string SS (i) is deleted from the list L (i).
In step F91, it is determined whether or not the character string SS (i) is larger than the maximum number of characters ws. If not, the process returns to step F88.

ステップF88において、(i+1)番目に平均中心活性値が高い文のエレメントとして、リストL(i)における最も高い中心活性値よりも中心活性値が高いエレメントがあった場合は、要約文としての文字列に次に加える部位を、その直前のステップF86で採用した文とは別の文から選ぶこととしてステップF89でカウント値iをインクリメントしてステップF86に戻ることになる。
つまりステップF88で、(i+1)番目に平均中心活性値が高い文とされた文について、ステップF86で骨格を抽出し、それを文字列S(i)に加えるようにする。
In step F88, if there is an element whose central activity value is higher than the highest central activity value in the list L (i) as the element of the sentence having the highest average central activity value in (i + 1) th, the character as the summary sentence The next part to be added to the column is selected from a sentence different from the sentence adopted in the immediately preceding step F86, and the count value i is incremented in step F89, and the process returns to step F86.
That is, in step F88, the skeleton is extracted in step F86 for the sentence that is the (i + 1) th highest average central activity value, and is added to the character string S (i).

以上のように、ステップF86又はステップF90で文の骨格となるエレメントやその他のエレメントとして、中心活性値の高いものを基準として文字列に加えていきながら、ステップF87又はステップF91で、文字列S(i)又はSS(i)を最大文字数wsと比較していくことで、最大文字数wsに近いが最大文字数wsを越えない文字列を作成していくことになる。   As described above, the character string S is added in step F87 or step F91 while adding to the character string based on the element having the high central activity value as the element that becomes the skeleton of the sentence in step F86 or step F90 or other elements. By comparing (i) or SS (i) with the maximum number of characters ws, a character string that is close to the maximum number of characters ws but does not exceed the maximum number of characters ws is created.

例えばステップF87で文字列S(i)が最大文字数wsを越えた場合は、制御部11の処理はステップF92に進み、直前のステップF86で骨格を加える前の文字列S(i−1)を、要約文とする。
つまり、これはステップF86で文の骨格を加えたことにより、最大文字数wsを越えてしまったことになるため、その骨格を加える前の文字列S(i−1)が、最大文字数wsに近いが最大文字数wsを越えない文字列であると判断して、それを要約文とするものである。
For example, when the character string S (i) exceeds the maximum number of characters ws in step F87, the process of the control unit 11 proceeds to step F92, and the character string S (i-1) before adding the skeleton in the immediately preceding step F86 is used. A summary sentence.
That is, since this has exceeded the maximum number of characters ws by adding the sentence skeleton in step F86, the character string S (i-1) before adding the skeleton is close to the maximum number of characters ws. Is a character string that does not exceed the maximum number of characters ws, and is used as a summary sentence.

なお、このため初めてステップF86で文字列S(i)を生成した時点(i=1の時点)で、ステップF87で、文字列S(i)が最大文字数wsを越えた場合は、文字列S(i−1)は、ステップF83で設定した初期値としての文字列S(0)となるため、実質的に要約文は作成できなかったことになる。
これは、要約表示部304のサイズが小さすぎたことに起因するため、ユーザーは画面上で要約表示部304の面積を広げた上で、再度、要約作成ボタン306aをクリックして、図23の処理が開始されるようにすればよい。
但し、本例の場合、ステップF82において要約表示部304のサイズが小さすぎる場合が判別され、そのような場合は後述するように、要約表示部304のサイズで表示可能な文書長より長い文書長の要約文が作成される処理となるため、実質的に要約文が作成できなくなる事態は、ほとんど発生しない。
For this reason, when the character string S (i) is generated for the first time in step F86 (i = 1 time point) and the character string S (i) exceeds the maximum number of characters ws in step F87, the character string S Since (i-1) is the character string S (0) as the initial value set in step F83, a summary sentence could not be substantially created.
This is because the size of the summary display unit 304 is too small. Therefore, the user expands the area of the summary display unit 304 on the screen and clicks the summary creation button 306a again to display the summary display unit 304 in FIG. The process may be started.
However, in this example, it is determined in step F82 that the size of the summary display unit 304 is too small. In such a case, as will be described later, the document length is longer than the document length that can be displayed with the size of the summary display unit 304. Therefore, there is almost no situation where the summary sentence cannot be created.

ステップF87で文字列S(i)が最大文字数wsを越えていない場合は、上述のように制御部11の処理はステップF88に進み、次に文字列に加える部分を判断することになる。
そして上記のようにステップF91に進んだ場合は、文字列SS(i)が最大文字数wsを越えたか否かを判別する。
ここで文字列SS(i)が最大文字数wsを越えた場合は、制御部11の処理はステップF93に進み、直前のステップF90で或るエレメントを加える前の文字列S(i)を、要約文とすることになる。
つまり、これはステップF90でエレメントを加えたことにより、最大文字数wsを越えてしまったことになるため、そのエレメントを加える前の文字列S(i)が、最大文字数wsに近いが最大文字数wsを越えない文字列であると判断して、それを要約文とするものである。
If the character string S (i) does not exceed the maximum number of characters ws in step F87, the process of the control unit 11 proceeds to step F88 as described above, and the next portion to be added to the character string is determined.
If the process proceeds to step F91 as described above, it is determined whether or not the character string SS (i) exceeds the maximum number of characters ws.
If the character string SS (i) exceeds the maximum number of characters ws, the process of the control unit 11 proceeds to step F93, and the character string S (i) before adding a certain element in the immediately preceding step F90 is summarized. It will be a sentence.
That is, since the maximum number of characters ws has been exceeded by adding an element in step F90, the character string S (i) before adding the element is close to the maximum number of characters ws but the maximum number of characters ws. It is determined that the character string does not exceed, and is used as a summary sentence.

以上の処理説明は、ステップF82→F83→F85と進んだ場合として説明した。従って、図23の処理を終えた時点で、要約表示部304のサイズに適合した文書長の要約文が作成されたことになる。そしてその要約文の内容は、平均中心活性値の高い1又は複数の文の骨格、及び骨格以外の中心活性値の高いエレメントが用いられたものとなる。
この様に作成された要約文は、RAM14に記憶されるとともに、図27のように要約表示部304に、その要約文全体が固定的に表示される。
The above description of the processing has been made assuming that the process proceeds from step F82 → F83 → F85. Therefore, when the processing of FIG. 23 is finished, a summary sentence having a document length that matches the size of the summary display unit 304 is created. The contents of the summary sentence are those using one or more sentence skeletons having a high average central activity value and elements having a high central activity value other than the skeleton.
The summary sentence created in this way is stored in the RAM 14, and the summary sentence as a whole is fixedly displayed on the summary display unit 304 as shown in FIG.

つまり、図23の要約作成処理が終了されると続いて制御部11の処理は図24の要約文表示処理に進む。要約文表示処理としては、まずステップF94で、要約表示部304のサイズwsyがその時点での最大文字数wsと一致しているか否かを確認する。つまり直前の要約作成処理で用いられていた最大文字数wsは、ステップF83で要約表示部304のサイズwsyが代入されたものであるか否かを判別する。
wsy=wsの場合とは、上記の処理により、その時点の要約表示部304のサイズに適合した要約文が作成された場合である。そこでその場合は、ステップF96に進み、作成された要約文を要約表示部304に表示させる。
これにより、図27のように要約文全体が固定表示される。つまり、ユーザーが予め要約表示部304のサイズを任意に設定した上で要約作成を指示することで、要約表示部304のサイズに応じた文書長の要約が固定的に(つまりテロップ化として切り換えや移動なしに)表示されることになる。
That is, when the summary creation process of FIG. 23 is completed, the process of the control unit 11 proceeds to the summary sentence display process of FIG. As the summary sentence display process, first, in step F94, it is confirmed whether or not the size wsy of the summary display unit 304 matches the maximum number of characters ws at that time. That is, the maximum number of characters ws used in the immediately preceding summary creation process determines whether or not the size wsy of the summary display unit 304 is substituted in step F83.
The case of wsy = ws is a case where a summary sentence suitable for the size of the summary display unit 304 at that time is created by the above processing. In this case, the process advances to step F96 to display the created summary sentence on the summary display unit 304.
As a result, the entire summary sentence is fixedly displayed as shown in FIG. That is, the user sets the size of the summary display unit 304 in advance and then instructs the creation of the summary, so that the summary of the document length corresponding to the size of the summary display unit 304 is fixed (that is, switched as telop). (Without moving).

なお、表示された要約文を見てユーザーがより詳しい要約文を見たいと思った場合、或いはより短い要約文を見たいと思った場合は、閲覧ウインドウ301の要約表示部304のサイズ(面積)を増減した上で、再度要約作成ボタン306aをクリックすればよい。
すると、要約表示部304のサイズwsyが、所定サイズwsth以上である限りは、図23の上述した処理により、その時点の要約表示部304のサイズに応じた文書長の要約書が作成され、表示されることになる。
If the user wants to see a more detailed summary sentence by looking at the displayed summary sentence, or wants to see a shorter summary sentence, the size (area) of the summary display portion 304 of the viewing window 301 is displayed. ) And the summary creation button 306a may be clicked again.
Then, as long as the size wsy of the summary display unit 304 is equal to or larger than the predetermined size wsth, a summary of a document length corresponding to the size of the summary display unit 304 at that time is created and displayed by the above-described processing of FIG. Will be.

ところで、例えば図26のように要約表示部304が非常に小さいサイズとされている状態でユーザーが要約作成ボタン306aをクリックし、図23の要約作成処理が開始された場合などで、ステップF82において要約表示部304のサイズwsyが、所定サイズwsth未満であると判断された場合は、以下のような処理が行われることとなる。   Incidentally, for example, when the user clicks the summary creation button 306a and the summary creation processing of FIG. 23 is started in a state where the summary display unit 304 is very small as shown in FIG. When it is determined that the size wsy of the summary display unit 304 is less than the predetermined size wsth, the following processing is performed.

この場合は制御部11の処理はステップF84に進み、最大文字数wsとして、予め設定された固定値wsfixを代入する。この固定値wsfixとは、要約文として最低限必要であるとして設定された文字数に相当する値であり、システム設計上、適切な値が設定される。例えばwsfix=wsthとしてもよい。
さらに、固定値wsfix=(wsfix−i)×Vとし、固定値初期値wsfix−iを保持するとともに、係数Vの値をユーザーが任意に入力できるようにすることで、固定値wsfixをユーザーが任意に設定できるようにしてもよい。
In this case, the process of the control unit 11 proceeds to step F84 and substitutes a preset fixed value wsfix as the maximum number of characters ws. The fixed value wsfix is a value corresponding to the number of characters set as a minimum necessary for the summary sentence, and is set to an appropriate value in system design. For example, it is good also as wsfix = wsth.
Furthermore, the fixed value wsfix = (wsfix−i) × V, the fixed value initial value wsfix−i is held, and the user can arbitrarily input the value of the coefficient V, so that the user can input the fixed value wsfix. It may be set arbitrarily.

また、制御部11は、要約の文字列(要約文を保持する内部レジスタ)sを初期化して初期値s(0)=””と設定する。制御部11は、このように設定した、最大文字数wsおよび文字列sの初期値s(0)を、RAM14に記録する。   In addition, the control unit 11 initializes a summary character string (an internal register holding a summary sentence) s and sets an initial value s (0) = “”. The control unit 11 records the maximum number of characters ws and the initial value s (0) of the character string s set in this way in the RAM 14.

続いて制御部11はステップF85で変数i=1とした後、ステップF86以降の処理に進むが、これは上述したとおりとなるため重複説明は避ける。
即ちこの場合も、最大文字数wsを越えない範囲で、最大文字数wsに最も近い文字数としての要約文を作成していくことになる。但しこの場合は、最大文字数ws=wsfixとされているため、その時点の要約表示部304のサイズに応じた文字数とはならず、実際には要約表示部304での表示可能な文字数を越える文字数(文書長)の要約文が生成されることになる。
Subsequently, the control unit 11 sets the variable i = 1 in step F85, and then proceeds to the processing after step F86. However, since this is as described above, redundant description is avoided.
That is, also in this case, a summary sentence is created as the number of characters closest to the maximum number of characters ws within a range not exceeding the maximum number of characters ws. However, in this case, since the maximum number of characters is ws = wsfix, the number of characters does not correspond to the size of the summary display unit 304 at that time, and actually the number of characters exceeding the number of characters that can be displayed on the summary display unit 304 A summary sentence of (document length) is generated.

ステップF86〜F93の処理により要約文が作成されたら、制御部11は図24の要約文表示処理を実行する。
そしてこの場合は最大文字数wsは要約表示部サイズwsyではないため、ステップF94からF95に進み、テロップ作成エンジンを用いて、生成した要約文をテロップ化して表示していく処理を行うことになる。
When the summary sentence is created by the processes of steps F86 to F93, the control unit 11 executes the summary sentence display process of FIG.
In this case, since the maximum number of characters ws is not the summary display portion size wsy, the process proceeds from step F94 to F95, and the generated summary sentence is displayed as a telop using the telop creation engine.

このステップF95のテロップ表示処理の例を図25に詳しく示す。
まず制御部11(テロップ作成エンジン)はステップF501で変数n=1とセットする。そしてステップF502で、生成した要約文から第nの文を抽出する。従ってまず要約文を構成している第1の文が抽出される。
An example of the telop display process in step F95 is shown in detail in FIG.
First, the control unit 11 (telop creation engine) sets variable n = 1 in step F501. In step F502, the nth sentence is extracted from the generated summary sentence. Therefore, the first sentence constituting the summary sentence is first extracted.

次にステップF503で、抽出した文の文長Ls(語数)が、要約表示部サイズwsyを越えているか否かを判別する。
例えば要約文を構成している1又は複数の文のうちの第1の文が、その時点の要約表示部サイズwsyにおいて表示可能な語数以下であったとすると、制御部11の処理はステップF504に進む。そして、文長Lsに所定の係数kを乗算して、テロップ表示時間T1を算出する。
Next, in step F503, it is determined whether or not the sentence length Ls (number of words) of the extracted sentence exceeds the summary display unit size wsy.
For example, if the first sentence of one or more sentences constituting the summary sentence is less than or equal to the number of words that can be displayed in the summary display part size wsy at that time, the process of the control unit 11 proceeds to step F504. move on. Then, the telop display time T1 is calculated by multiplying the sentence length Ls by a predetermined coefficient k.

続いてステップF505で制御部11は内部タイマのカウントをスタートさせるとともに、ステップF506で、その第1の文を要約表示部304に表示させる。このとき、文長Lsは要約表示部サイズwsy以下であるため、その第1の文の全体が、テロップとして要約表示部304に表示される。
この表示動作中には、制御部11はステップF507でタイムカウント値を監視しており、タイマによりT1時間が計数された時点で、ステップF515に進む。そして、ステップF515で要約文の最後の文の表示までが完了したか否かを判断し、完了していなければステップF516で変数nをインクリメントしたうえでステップF502に戻る。従って、次に要約文を構成している文のうちの第2の文を抽出することになる。
Subsequently, in step F505, the control unit 11 starts counting of the internal timer, and displays the first sentence on the summary display unit 304 in step F506. At this time, since the sentence length Ls is equal to or smaller than the summary display unit size wsy, the entire first sentence is displayed on the summary display unit 304 as a telop.
During this display operation, the control unit 11 monitors the time count value in Step F507, and proceeds to Step F515 when the T1 time is counted by the timer. In step F515, it is determined whether or not the display of the last sentence of the summary sentence has been completed. If not, the variable n is incremented in step F516, and the process returns to step F502. Therefore, the second sentence among the sentences constituting the summary sentence is extracted next.

続いて制御部11は、第2の文についてステップF503の判別を行うが、ここで、第2の文の文長が要約表示部サイズwsyを越えていたとすると(つまり一度に文全体を表示できない場合)、制御部11の処理はステップF508に進み、要約表示部に表示可能な文長Lwsyに所定の係数kを乗算して、テロップ表示時間T1を算出する。
続いてステップF509で制御部11は内部タイマのカウントをスタートさせるとともに、ステップF510で、その第2の文をテロップとして要約表示部304に表示させる。但し、このとき、文長Lsは要約表示部サイズwsyを越えているため、表示可能な先頭部分のみを表示することになる。つまり第2の文のうちの、先頭から文長Lwsyに相当する部分を表示する。
この表示動作中には、制御部11はステップF511でタイムカウント値を監視しており、タイマによりT1時間が計数された時点で、ステップF512に進む。
Subsequently, the control unit 11 performs the determination of Step F503 for the second sentence. Here, if the sentence length of the second sentence exceeds the summary display unit size wsy (that is, the entire sentence cannot be displayed at once). ), The process of the control unit 11 proceeds to step F508, and the telop display time T1 is calculated by multiplying the sentence length Lwsy that can be displayed on the summary display unit by a predetermined coefficient k.
Subsequently, in step F509, the control unit 11 starts counting the internal timer, and in step F510, displays the second sentence on the summary display unit 304 as a telop. However, at this time, since the sentence length Ls exceeds the summary display part size wsy, only the displayable top part is displayed. That is, the part of the second sentence corresponding to the sentence length Lwsy from the top is displayed.
During this display operation, the control unit 11 monitors the time count value in step F511, and proceeds to step F512 when the T1 time is counted by the timer.

ステップF512では、表示されている文を、1文字分スクロールさせる。そしてステップF313でT2時間待機する。そして、ステップF514で第2の分の最後の文字までが表示されたか否かを判断し、まだ最後の文字まで達していなければ、ステップF512に戻って1文字分スクロールさせる。
待機時間としてのT2時間は、スクロールタイミングを規定する時間となり、これもシステム設計上設定される値となるが、例えば0.5〜1秒程度とすると、適切な速度で、文がスクロールされていくことになる。
In step F512, the displayed sentence is scrolled by one character. In step F313, the process waits for T2. Then, in step F514, it is determined whether or not the last character up to the second minute has been displayed. If the last character has not been reached yet, the process returns to step F512 to scroll by one character.
The T2 time as the standby time is a time that defines the scroll timing, and this is also a value set in the system design. For example, when about 0.5 to 1 second, the sentence is scrolled at an appropriate speed. Will go.

このようなステップF508〜F514の処理により、要約表示部304に表示しきれない文については、まず先頭部分がT1時間表示された後、T2時間毎に1文字づつ表示がスクロールされていき、その文の最後の文字に至るまで表示されることになる。   As for the sentence that cannot be displayed on the summary display unit 304 by the processes of steps F508 to F514, the head part is first displayed for T1 hours, and then the display is scrolled by one character every T2 hours. It will be displayed up to the last character of the sentence.

スクロールにより文の最後の文字までが表示されたら、制御部11の処理はステップF514からF515に進み、要約文の最後の文の表示までが完了したか否かを判断し、完了していなければステップF516で変数nをインクリメントしたうえでステップF502に戻る。従って、次に要約文を構成している文のうちの第3の文を抽出することになる。
そして第3の文について、ステップF504〜F507、もしくはステップF508〜F514の処理によりテロップ表示を実行する。
When the scroll has displayed up to the last character of the sentence, the control unit 11 proceeds from step F514 to F515 to determine whether or not the display of the last sentence of the summary sentence has been completed. In step F516, the variable n is incremented, and the process returns to step F502. Accordingly, the third sentence of the sentences constituting the summary sentence is extracted next.
And about the 3rd sentence, a telop display is performed by the process of step F504-F507 or step F508-F514.

ステップF515で、要約文を構成する全ての文について表示を終了したと判断すると、処理はステップF517に進み、要約文の先頭部分を表示する。即ち要約表示部サイズwsyにおいて表示可能な先頭部分を表示する状態とする。またステップF518で、後述するスクロールバー307を表示して、テロップ表示処理を終了する。   If it is determined in step F515 that display has been completed for all sentences constituting the summary sentence, the process proceeds to step F517 to display the head part of the summary sentence. In other words, a displayable head portion is displayed in the summary display portion size wsy. In step F518, a scroll bar 307, which will be described later, is displayed, and the telop display process is terminated.

以上のようなテロップ表示処理で実現される表示動作は、次のようになる。
例えば図26のように要約表示部304が非常に狭くされた状態の閲覧ウインドウ301において要約作成ボタン306aがクリックされ、要約文が作成されるとする。
このとき、上述の図23の処理で要約表示部304での表示可能な文書長よりも長い要約文が作成される。
The display operation realized by the telop display processing as described above is as follows.
For example, assume that the summary creation button 306a is clicked in the browsing window 301 in which the summary display unit 304 is very narrow as shown in FIG.
At this time, a summary sentence longer than the document length that can be displayed on the summary display unit 304 is created by the above-described processing of FIG.

例えば図26において本文表示部303に表示されている本文に対して、次のような要約文が生成されたとする。
「[素敵にエイジング]/8ガン転移、抑えられる!?がんを特徴づけるのは、細胞増殖と転移である。人間の細胞には、「がん遺伝子」と、「がん抑制遺伝子」がある。高齢者の場合、長い年月の間に正常な調節機能が失われ、細胞内でブレーキが利かない変異が蓄積し、細胞の割合が増え、がん多発につながるわけだ。転移、がん細胞が増えるだけでは発生しない。がん細胞が蛋白質などを溶かし、道をつくって、血管やリンパ管に入り込む。がんの診断、治療の面から(nm23)の期待が集まっている。」
For example, assume that the following summary sentence is generated for the text displayed in the text display unit 303 in FIG.
“[Nicely Aging] / 8 Cancer metastasis can be suppressed! What characterizes cancer is cell proliferation and metastasis. In human cells, there are“ oncogenes ”and“ cancer suppressor genes ”. is there. In the elderly, normal regulatory functions are lost over a long period of time, mutations that do not work within the cell accumulate, the proportion of cells increases, and cancer occurs frequently. Metastasis does not occur just by increasing the number of cancer cells. Cancer cells dissolve proteins, create a way, and enter blood vessels and lymphatic vessels. Expectations (nm23) are gathered from the viewpoint of cancer diagnosis and treatment. "

このような要約文は、次のように[1]〜[7]の7つの文から構成されているが、上述した本例のテロップ表示処理では、文単位でテロップ化する。
[1][素敵にエイジング]/8ガン転移、抑えられる!?
[2]がんを特徴づけるのは、細胞増殖と転移である。
[3]人間の細胞には、「がん遺伝子」と、「がん抑制遺伝子」がある。
[4]高齢者の場合、長い年月の間に正常な調節機能が失われ、細胞内でブレーキ が利かない変異が蓄積し、細胞の割合が増え、がん多発につながるわけだ。
[5]転移、がん細胞が増えるだけでは発生しない。
[6]がん細胞が蛋白質などを溶かし、道をつくって、血管やリンパ管に入り込む。
[7]がんの診断、治療の面から(nm23)の期待が集まっている。
Such a summary sentence is composed of seven sentences [1] to [7] as follows. In the above-described telop display process of the present example, the telop is converted into sentences.
[1] [Nicely Aging] / 8 Cancer metastasis can be suppressed! ?
[2] It is cell proliferation and metastasis that characterize cancer.
[3] Human cells include “oncogenes” and “cancer suppressor genes”.
[4] In the elderly, normal regulatory functions are lost over a long period of time, mutations that do not work within the cell accumulate, and the proportion of cells increases, leading to more cancer.
[5] Metastasis does not occur just by increasing the number of cancer cells.
[6] Cancer cells dissolve proteins, create a way, and enter blood vessels and lymphatic vessels.
[7] Expectations (nm23) are gathered from the viewpoint of cancer diagnosis and treatment.

図25の処理により、まず最初に第1の文[1]が抽出され、図28のように要約表示部304に表示される。
この図25の状態以降の要約表示部304のテロップ表示状態を図29(a)〜(j)で説明していく。
25, first sentence [1] is first extracted and displayed on summary display unit 304 as shown in FIG.
The telop display state of the summary display unit 304 after the state of FIG. 25 will be described with reference to FIGS.

図28の文[1]は、文長Ls≦wsyである(文全体を表示可能である)ため、図25のステップF504〜F507の処理で、図29(a)の表示状態が、文長に応じて算出されたT1時間継続される。
続いて文[2]、[3]も文長Ls≦wsyとなるため、それぞれステップF504〜F507の処理で、文長に応じて算出されたT1時間づつ、図29(b)(c)の表示が実行される。
Since the sentence [1] in FIG. 28 has the sentence length Ls ≦ wsy (the entire sentence can be displayed), the display state in FIG. 29A is the sentence length in the processing of steps F504 to F507 in FIG. It continues for T1 time calculated according to.
Subsequently, since the sentences [2] and [3] also satisfy the sentence length Ls ≦ wsy, in the processes of steps F504 to F507, respectively, for each T1 time calculated according to the sentence length, as shown in FIGS. 29 (b) and 29 (c). Display is executed.

次の文[4]は、文長Ls>wsyである(文全体を表示不能である)ため、図25のステップF508〜F514の処理が行われる。
即ちまず図29(d)のように文の先頭部分が、算出されたT1時間表示された後、T2時間毎に、図29(e)→(f)のように、表示が1文字づつスクロールされる。
その後同様にスクロールが進み、図29(g)の状態となることで、文[4]の表示が完了することになる。
Since the next sentence [4] has the sentence length Ls> wsy (the entire sentence cannot be displayed), the processes of steps F508 to F514 in FIG. 25 are performed.
That is, first, as shown in FIG. 29 (d), after the head portion of the sentence is displayed for the calculated T1 time, the display is scrolled by one character as shown in FIG. 29 (e) → (f) every T2 time. Is done.
Thereafter, scrolling proceeds in the same manner, and the display of sentence [4] is completed when the state shown in FIG.

続いて文[5]、[6]、[7]がそれぞれ順次抽出され、これらは文長Ls≦wsyであるため、それぞれステップF504〜F507の処理で、文長に応じて算出されたT1時間づつ、図29(h)(i)(j)の表示が実行される。   Subsequently, sentences [5], [6], and [7] are sequentially extracted, and since these are sentence length Ls ≦ wsy, T1 time calculated according to the sentence length in the processes of steps F504 to F507, respectively. The display of FIG. 29 (h) (i) (j) is performed one by one.

以上のように各文毎にテロップとして順次表示され、また文長が長くて表示しきれない場合は、その表示しきれなかった部分がスクロールにより表示される。
そして、要約文を構成する全文のテロップ表示を完了したら、図25のステップF517、F518として、図30に示すように要約文の先頭部分が表示されるとともに、スクロールバー307が表示される。
即ち、上記テロップ表示により、要約文全体をユーザーに提示した後は、スクロールバー307を用意することで、その後ユーザーが、要約表示部304上の文字を任意にスクロールさせて、要約文内容を確認できるようにするものである。
As described above, each sentence is sequentially displayed as a telop, and when the sentence length is too long to be displayed, the part that could not be displayed is displayed by scrolling.
When the telop display of all the sentences constituting the summary sentence is completed, as shown in FIG. 30, the head part of the summary sentence is displayed and the scroll bar 307 is displayed as steps F517 and F518 in FIG.
That is, after the entire summary sentence is presented to the user by the telop display, the scroll bar 307 is prepared, and then the user arbitrarily scrolls the characters on the summary display unit 304 and confirms the contents of the summary sentence. It is something that can be done.

本例の要約文の作成及び表示は以上のように実行されるが、これによりユーザーにとって好適な要約提示が可能となる。
まず、ユーザーは、要約表示部304のサイズを任意に設定することで、生成される要約文の文書長を設定できる。
つまり詳しい要約文を見たいときには要約表示部304を広くしてから要約作成ボタン306aをクリックし、一方、簡単な内容の要約文を見たいときには要約表示部304を狭くしてから要約作成ボタン306aをクリックすればよい。それにより、ユーザーの望むサイズの要約文が生成され、テロップではなく固定表示される。
Creation and display of the summary sentence of this example are executed as described above, and this makes it possible to present a summary suitable for the user.
First, the user can set the document length of the generated summary sentence by arbitrarily setting the size of the summary display unit 304.
That is, when a user wants to see a detailed summary sentence, the summary display section 304 is widened and the summary creation button 306a is clicked. On the other hand, when a summary sentence with simple contents is desired, the summary display section 304 is narrowed and then the summary creation button 306a Just click. As a result, a summary sentence having a size desired by the user is generated and displayed in a fixed manner instead of a telop.

また、もしユーザーが要約表示部304を狭くしすぎてしまった場合は、そのウインドウサイズに関わらず最低限必要な文書長の要約文が作成され、上述のようにテロップ化されて表示されることになる。
従って、例えばユーザーが本文表示部303を広くとりたいためにやむおえず要約表示部304をかなり狭くしたような場合でも、ユーザーは適切な内容の要約文を見ることができるようになる。これにより内容を正確に認識できる。
Also, if the user makes the summary display section 304 too narrow, a summary sentence of the minimum required document length is created regardless of the window size and displayed as a telop as described above. become.
Therefore, for example, even if the summary display unit 304 is inevitably narrowed because the user wants to make the text display unit 303 wide, the user can view a summary sentence with appropriate contents. As a result, the contents can be accurately recognized.

また本例のテロップ表示処理では、要約文を文単位でテロップ化しているが、1つの文の表示時間(T1)は、その文長に応じて算出しているため、各文(テロップ)は、ユーザーが読むのに適切な表示時間となる。
さらに、文が長い場合は、スクロール表示を実行するため、ユーザーが1つの文を認識することに好適である(後続部分は切換表示でなく移動表示されるために、1つの文が続いていることをユーザーが認識しやすい)。
In the telop display processing of this example, the summary sentence is converted into telops in units of sentences. Since the display time (T1) of one sentence is calculated according to the sentence length, each sentence (telop) is , The display time is appropriate for the user to read.
Furthermore, when the sentence is long, it is suitable for the user to recognize one sentence because the scroll display is executed (since the subsequent part is not displayed as a switching display but is moved and displayed, one sentence continues. It ’s easy for users to recognize).

なお、テロップ表示処理の例としては図25の例に限らず各種の処理例が考えられる。
例えば文単位でなく、文節、句などの単位でテロップ化するようにしてもよいし、文や文節の長さに応じて、表示の区切を変更するようにしてもよい。
また、要約文全体を最初から最後までスクロール表示していくことも考えられる。
いずれにしても、切換表示又は移動表示、もしくはその組み合わせにより、要約文の全体がユーザーに提示されるようにすればよい。
Note that examples of the telop display process are not limited to the example of FIG.
For example, the display may be teloped not in sentence units but in units of phrases, phrases, etc., or the display delimiter may be changed according to the length of sentences or phrases.
It is also possible to scroll the entire summary sentence from the beginning to the end.
In any case, the entire summary sentence may be presented to the user by switching display, moving display, or a combination thereof.

また各テロップとしての表示期間や切換タイミング、スクロールタイミングの設定は多様に考えられる。
上述のように本例では本文や要約文についての読み上げも可能であるが、テロップ作成エンジンにより行われるテロップ表示のタイミングを、読み上げ音声の出力タイミングに合わせて設定することも可能である。
例えば上述したように読み上げ処理においては、タグファイルから読み上げ用ファイルを生成し、その読み上げ用ファイルを音声合成エンジンに適した形態に変換した上で、音声合成エンジンによって、人が話すような自然な感じでの速度や、段落、文、句の区切によって読み上げが実行されるようにしている。
従って、そのような段落、文、句の区切や、読み上げ速度と同様のテロップ区切や、表示期間の設定を行うことで、ユーザーにとって読みやすいテロップ表示を実現できる。
具体的な手法例としては、上述したように音声合成エンジンによる読み上げ処理を実行させ(但し読み上げ音声の出力は実行させない)、CPU13はその読み上げタイミングを参照して、テロップ表示の区切及び切換タイミングを設定すればよい。例えば音声合成エンジンによって或る句の読み上げが実行されている期間(実際には音声は出力しない)に、その句としての文字列をテロップ表示するとともに、読み上げ音声が次の句に進んだ時点で、次の句のテロップ表示に切り換えるような処理となる。
このような音声合成エンジンとテロップ作成エンジンの連動を実現する構成も図47で後述する。
Various setting of the display period, switching timing, and scroll timing as each telop is conceivable.
As described above, in this example, the text and the summary text can be read out, but the timing of the telop display performed by the telop creation engine can be set in accordance with the output timing of the read-out voice.
For example, as described above, in the reading process, a file for reading is generated from the tag file, the reading file is converted into a form suitable for the voice synthesis engine, and then a natural voice that is spoken by the voice synthesis engine. Reading is performed according to the speed of feeling and the separation of paragraphs, sentences, and phrases.
Therefore, by setting such paragraph, sentence, and phrase divisions, telop divisions similar to the reading speed, and setting the display period, it is possible to realize telop display that is easy to read for the user.
As a specific example of the technique, as described above, the speech synthesis engine performs the reading process (but does not execute the output of the reading voice), and the CPU 13 refers to the reading timing and determines the telop display division and the switching timing. You only have to set it. For example, during a period when a speech is being read out by the speech synthesis engine (actually no speech is output), the character string as the phrase is displayed as a telop, and when the read-out speech advances to the next phrase Then, the process switches to the telop display of the next phrase.
A configuration for realizing the linkage between the speech synthesis engine and the telop creation engine will be described later with reference to FIG.

7.ビデオファイルの出力処理
7−1 ビデオファイル及びタグ
以上の説明は本例の文書処理装置1において主に文書データのみを対象とした処理についてであるが、本例の文書処理装置1では、文書データに関連するビデオデータを出力することができる。具体的には、上記閲覧ウインドウ301において表示されている文書データ、もしくはその文書データ内でユーザーが指定した部分(文、文節、語など)に関連するビデオデータを出力したり、或いは上述した分類ウインドウ201において指定した文書データに関連するビデオデータを出力したり、さらには後述するビデオリストウインドウにおいて指定したビデオデータを出力することができる。
以下、ビデオデータに関する各種処理を説明していく。
7). 7-1 Video File Output Processing 7-1 Video File and Tag The above description is about processing mainly for document data in the document processing apparatus 1 of this example. In the document processing apparatus 1 of this example, the document data The video data related to can be output. Specifically, the document data displayed in the browsing window 301 or the video data related to the portion (sentence, phrase, word, etc.) designated by the user in the document data is output, or the above-described classification is performed. Video data related to the document data specified in the window 201 can be output, and further, video data specified in the video list window described later can be output.
Hereinafter, various processes relating to video data will be described.

まず、ビデオデータとしてのデータファイル(以下、ビデオファイルという)及び、ビデオファイルを文書データと関連づけるために文書データに付与されているタグ構造について説明する。
上述したように、例えば通信部21や記録媒体32から文書処理装置1に文書データが取り込まれる際には、同時にビデオファイルが取り込まれることがある。また文書データとは別にビデオファイルが入力されることもある。
図4、図12などで説明したように、文書処理装置1に取り込まれた文書データやビデオファイルは、RAM14やHDD34などに格納される。そして制御部11は必要に応じて格納された文書データを取り出すことで、上述のように文書の本文の表示や、要約作成及び表示、読み上げなどを実行できるが、格納されているビデオファイルに関しても、指定された文書データ、或いは指定された文書データの一部に対応するビデオファイルを取り出して表示出力することができる。
First, a data file as video data (hereinafter referred to as a video file) and a tag structure attached to document data for associating the video file with document data will be described.
As described above, for example, when document data is captured from the communication unit 21 or the recording medium 32 into the document processing apparatus 1, a video file may be captured at the same time. A video file may be input separately from document data.
As described with reference to FIGS. 4 and 12, the document data and the video file taken into the document processing apparatus 1 are stored in the RAM 14 or the HDD 34. The control unit 11 retrieves the stored document data as necessary, and can display the text of the document, create and display the summary, and read out as described above. The video file corresponding to the designated document data or a part of the designated document data can be taken out and displayed.

図31に、文書処理装置1内に格納されている文書データ及びビデオファイルのイメージを示す。
文書データ、即ちタグファイルとしては、図示するようにタグファイルTG1、TG2、TG3・・・・というように、各種文書データが格納されている。
一方、ビデオファイルとしても、例えばビデオファイルV1、V2・・・・というように、各種のファイルが格納されている。
ビデオファイルの内容は多様であり、それぞれ文書データやビデオデータを供給するサーバ側が任意に作成するものであるが、例えばビデオファイルV1では複数のシーンとしての動画データVM1〜VM4が含まれている。ビデオファイルV3は2つの動画データVM5、VM6が、ビデオファイルV5は1つの動画データVM9が含まれている。
またビデオファイルV2は、複数の静止画データVS1〜VS7が含まれている。
ビデオファイルV4では、複数の静止画データVS8,VS9と、複数の動画データVM7,VM8が含まれている。
ビデオファイルV6では複数のシーンとしての動画データVM10〜VM17が含まれている。
もちろんこれ以外にも、多様なビデオファイルが存在する。
ビデオデータは、例えばMPEGデータなどとされる。
FIG. 31 shows an image of document data and a video file stored in the document processing apparatus 1.
As document data, that is, tag files, various document data such as tag files TG1, TG2, TG3,.
On the other hand, various files such as video files V1, V2,... Are stored as video files.
The contents of the video file are various, and are created arbitrarily by the server supplying document data and video data, respectively. For example, the video file V1 includes moving image data VM1 to VM4 as a plurality of scenes. The video file V3 includes two moving image data VM5 and VM6, and the video file V5 includes one moving image data VM9.
The video file V2 includes a plurality of still image data VS1 to VS7.
The video file V4 includes a plurality of still image data VS8 and VS9 and a plurality of moving image data VM7 and VM8.
The video file V6 includes moving image data VM10 to VM17 as a plurality of scenes.
Of course, there are various other video files.
The video data is, for example, MPEG data.

また動画データには、オーディオデータが含まれているものとしている。但し静止画データには、基本的にはオーディオデータは含まれないが、静止画映像に関連するオーディオデータが付加されていてもよい。
なお、ここでいうオーディオデータとは、動画もしくは静止画としての画像に対応して記録されたオーディオデータであり、関連関係にある文書データの本文や要約文の内容が読み上げられたようなオーディオデータではない(上述のように音声合成処理により発生される読み上げ音声信号のことではなく、また読み上げ音声と同内容の音声信号ではない)。
つまりオーディオデータは、ビデオデータに付随する音声のデータのことをいっており、直接的に文書データと一致するものではない。例えば記録された映像の収録時の周囲音声、効果音、アナウンス/説明等の音声など、通常のビデオデータに含まれる音声データのことである。(但し、情報提供者側の意向により、或る文書データに対応するビデオデータに、その文書データをそのまま読み上げたような内容のオーディオデータを付加することはあり得る。)
The moving image data is assumed to include audio data. However, the audio data is basically not included in the still image data, but audio data related to the still image video may be added.
Note that the audio data here is audio data recorded corresponding to an image as a moving image or a still image, and audio data in which the text of the related document data or the content of the summary sentence is read out. (It is not a read-out voice signal generated by the voice synthesis process as described above, and is not a voice signal having the same content as the read-out voice).
That is, the audio data refers to audio data accompanying the video data, and does not directly match the document data. For example, it is audio data included in normal video data, such as ambient sounds, sound effects, announcements / descriptions, and the like when recording recorded video. (However, depending on the intention of the information provider, it is possible to add audio data having the content of reading the document data as it is to the video data corresponding to the document data.)

また、各ビデオファイルは、例えば、時/分/秒/フレームとしてのタイムコードTCがビデオデータを構成するフレーム単位で付されている。例えばビデオファイルV1では図示するように、先頭のフレームから終端のフレームまでにおいて「00:00:00:00」〜「00:03:39:05」のタイムコードTCが付されている。
このタイムコードTCはビデオファイルにおける各部のアドレス的に機能し、例えばタイムコードを指定することで、任意の箇所(任意の区間)を再生させることができる。例えばビデオファイルV1における動画データVM2を再生させる場合などは、その動画データVM2としての区間の開始フレームと終了フレームのタイムコードが指定されればよい。
Each video file has a time code TC, for example, hour / minute / second / frame attached to each video file. For example, in the video file V1, as shown in the figure, a time code TC from “00: 00: 00: 00” to “00: 03: 39: 05” is attached from the first frame to the last frame.
This time code TC functions as an address of each part in the video file. For example, by specifying a time code, an arbitrary portion (arbitrary section) can be reproduced. For example, when reproducing the moving image data VM2 in the video file V1, the time code of the start frame and the end frame of the section as the moving image data VM2 may be specified.

このようにビデオファイルは、それぞれ1又は複数の動画や静止画のデータで構成されるが、文書データ(タグファイル)は、その文書内容に関連するビデオデータとして、ビデオファイル名や各動画データ、静止画データを指定するタグが付されている。
つまりタグファイルとしては、文書全体、段落、文、句などの任意の単位で、タグにより関連するビデオデータを指定することができ、文書処理装置1は、そのようなタグ(以下、ビデオデータを指定するタグを、ビデオタグという)に基づいて、文書データに関連するビデオデータを判別し、出力することができる。
As described above, each video file is composed of one or a plurality of moving image and still image data. Document data (tag file) is a video file name, each moving image data, A tag for designating still image data is attached.
That is, as a tag file, related video data can be specified by a tag in an arbitrary unit such as an entire document, a paragraph, a sentence, or a phrase. Video data related to document data can be determined and output based on a designated tag (referred to as a video tag).

ビデオタグが付されたタグファイルの例を図32、図33、図34に示す。
図32は、前述した図18と同一の内容としてのタグファイルに、ビデオタグが付加された例である。
図18の場合は、文書範囲を規定するタグとして<文書>〜</文書>が付されていたが、この場合、(例11)としての部分に示すように、文書範囲を示すタグにおいてビデオタグが付加され、
<文書 ビデオファイル=“V3”><シーン=“VM5” in=“00:00:00:00” out=“00:00:03:12”>・・・・・</シーン></文書>
とされている。
このようなタグによって、この文書データの全体に関連するビデオデータが、図31に示したビデオファイルV3に含まれる動画データVM5であることが表されている。また、in=“00:00:00:00”とout=“00:00:03:12”により、ビデオファイルV3内における動画データVM5としてのシーンの開始時間(開始フレーム)と終了時間(終了フレーム)、即ちタイムコードが指定されている。
このようなタグ構造により、制御部11は、当該タグファイルに関連するビデオデータを判別でき、必要に応じて再生出力させることができる。
Examples of tag files with video tags are shown in FIGS. 32, 33, and 34. FIG.
FIG. 32 is an example in which a video tag is added to the tag file having the same contents as those in FIG.
In the case of FIG. 18, <document> to </ document> are attached as tags that define the document range. In this case, as shown in (Example 11), a video indicating a document range tag is used. A tag is added,
<Document video file = “V3”><scene = “VM5” in = “00: 00: 00: 00” out = “00: 00: 03: 12”>... / </ Scene></ document >
It is said that.
By such a tag, it is expressed that the video data related to the entire document data is the moving image data VM5 included in the video file V3 shown in FIG. In addition, in = “00: 00: 00: 00” and out = “00: 00: 03: 12”, the start time (start frame) and end time (end time) of the scene as the moving image data VM5 in the video file V3. Frame), that is, a time code is designated.
With such a tag structure, the control unit 11 can discriminate video data related to the tag file, and can reproduce and output it as necessary.

また図33は、前述した図19と同一の内容としてのタグファイルに、ビデオタグが付加された例である。
この例は、文書データ内の1つの文ごとに、それぞれ対応する1つの動画データが指定されている例である。
まず、<文書 ビデオファイル=“V6”>・・・・</文書>というタグにより、この文書に関連するビデオデータがビデオファイルV6に含まれていることが示される。
そして各文は、<文>〜</文>というタグで、その範囲が示されるが、(例12)〜(例16)において示すように、それぞれ各文についてのタグが、
<文 シーン=“VM10” in=“00:00:00:00” out=“00:00:00:15”>・・・・</文>
<文 シーン=“VM11” in=“00:00:00:16” out=“00:00:00:28”>・・・・</文>
<文 シーン=“VM12” in=“00:00:00:29” out=“00:00:00:48”>・・・・</文>
<文 シーン=“VM13” in=“00:00:00:49” out=“00:00:01:00”>・・・・</文>
<文 シーン=“VM14” in=“00:00:01:01” out=“00:00:01:16”>・・・・</文>
とされており、つまり、各文のそれぞれに、動画データVM10、VM11、VM12、VM13、VM14が対応していることが示されている。
FIG. 33 shows an example in which a video tag is added to the tag file having the same contents as those in FIG.
In this example, one moving image data corresponding to each sentence in the document data is designated.
First, the tag <document video file = “V6”>... </ Document> indicates that video data related to this document is included in the video file V6.
Each sentence has a tag <sentence> to </ sentence>, and the range thereof is shown. As shown in (Example 12) to (Example 16), each sentence has a tag,
<Sentence = “VM10” in = “00: 00: 00: 00” out = “00: 00: 00: 15”>... </ Sentence>
<Sentence = “VM11” in = “00: 00: 00: 16” out = “00: 00: 0: 28”>... </ Sentence>
<Sentence = “VM12” in = “00: 00: 00: 29” out = “00: 00: 00: 48”>...
<Sentence = “VM13” in = “00: 00: 00: 49” out = “00: 00: 01: 00”>...
<Sentence = “VM14” in = “00: 00: 01: 01” out = “00: 00: 01: 16”>...
That is, it is shown that the moving image data VM10, VM11, VM12, VM13, and VM14 correspond to each sentence.

このようなタグによって、この文書データの各文に関連するビデオデータが、図31に示したビデオファイルV6に含まれる動画データVM10〜VM14であることが表されている。また、動画データVM10におけるin=“00:00:00:00”とout=“00:00:00:15”などにより、ビデオファイルV6内の各動画データVM10〜VM14としてのシーンの開始時間(開始フレーム)と終了時間(終了フレーム)、即ちタイムコードが指定されている。
このようなタグ構造により、制御部11は、当該タグファイルの各文についてそれぞれ関連するビデオデータを判別でき、必要に応じて再生出力させることができる。
By such a tag, it is represented that the video data related to each sentence of the document data is the moving image data VM10 to VM14 included in the video file V6 shown in FIG. Further, the start time of the scene as each of the moving image data VM10 to VM14 in the video file V6 by in = “00: 00: 00: 00” and out = “00: 00: 00: 15” in the moving image data VM10 ( A start frame) and an end time (end frame), that is, a time code is specified.
With such a tag structure, the control unit 11 can discriminate video data related to each sentence of the tag file and can reproduce and output it as necessary.

また図34は、同じく前述した図19と同一の内容としてのタグファイルに、静止画データについてのビデオタグが、文書データ内の1つの文ごとに、付加された例である。
この場合、まず、<文書 ビデオファイル=“V2”>・・・・</文書>というタグにより、この文書に関連するビデオデータがビデオファイルV2に含まれていることが示される。
そして各文は、<文>〜</文>というタグで、その範囲が示されるが、(例17)〜(例21)において示すように、それぞれ各文についてのタグが、
<文 シーン=“VS1”>・・・・</文>
<文 シーン=“VS2”>・・・・</文>
<文 シーン=“VS3”>・・・・</文>
<文 シーン=“VS4”>・・・・</文>
<文 シーン=“VS5”>・・・・</文>
とされており、つまり、各文のそれぞれに、静止画データVS1、VS2、VS3、VS4、VS5が対応していることが示されている。
FIG. 34 is an example in which a video tag for still image data is added to each tag in the document data in the tag file having the same content as FIG. 19 described above.
In this case, first, the tag <document video file = “V2”>... </ Document> indicates that video data related to this document is included in the video file V2.
Each sentence has a tag <sentence> to </ sentence>, and its range is shown. As shown in (Example 17) to (Example 21), each sentence has a tag,
<Sentence = “VS1”>... </ Sentence>
<Sentence = “VS2”>... </ Sentence>
<Sentence = “VS3”> ・ ・ ・ ・ ・ ・ </ Sentence>
<Sentence scene = "VS4"> ... </ sentence>
<Sentence = “VS5”> ・ ・ ・ ・ ・ ・ </ Sentence>
That is, it is shown that the still image data VS1, VS2, VS3, VS4, and VS5 correspond to each sentence.

なお、ビデオファイルV2において各静止画データVS1〜VS7がそのデータ名称「VS1」・・・「VS7」として再生指定できる管理構造がとられていることを前提とすれば、このようなシーンをデータ名称のみで指定するビデオタグでよいが、静止画データについても上記の動画データと同様にビデオタグ内でタイムコードにより指定されるようにしてもよい。
また逆に、動画データの再生区間をデータ名称のみで指定できる場合は、必ずしも上記のようにタイムコードを指定する必要はない。
If it is assumed that each video data VS1 to VS7 in the video file V2 has a management structure in which reproduction names can be designated as the data names “VS1”. A video tag specified only by name may be used, but still image data may also be specified by a time code in the video tag as in the case of the moving image data.
Conversely, when the playback section of the moving image data can be specified only by the data name, it is not always necessary to specify the time code as described above.

この図32、図33のようなタグ構造により、制御部11は、当該タグファイルの各文に関連するビデオデータを判別でき、必要に応じて再生出力させることができる。   32 and 33, the control unit 11 can discriminate video data related to each sentence of the tag file and can reproduce and output it as necessary.

上記図32の例は、文書全体に1つの動画データが対応づけられた例で、図33、図34は文書の各文に、それぞれ動画データ又は静止画データが対応づけられた例であるが、タグファイルによるビデオデータの対応付は、多様なバリエーションで可能となる。
即ち、<段落>〜</段落>、<**句>〜</**句>などのタグにビデオタグを付加すれば、段落単位や句単位など、任意の単位で或るビデオデータを対応づけることが可能である。
また、1つのタグファイル内で、複数の動画データを対応付けしたり、静止画データと動画データを複合的に対応付けすることも当然可能である。
The example of FIG. 32 is an example in which one moving image data is associated with the entire document, and FIGS. 33 and 34 are examples in which moving image data or still image data is associated with each sentence of the document. Video data can be associated with tag files in various variations.
That is, if a video tag is added to tags such as <paragraph> to </ paragraph>, <** phrase> to </ ** phrase>, a certain video data can be stored in an arbitrary unit such as a paragraph unit or a phrase unit. It is possible to associate.
In addition, it is naturally possible to associate a plurality of moving image data within a single tag file, or to associate still image data and moving image data in a complex manner.

ところで、実際にビデオデータを出力する場合は、上記文書データのタグファイルからビデオ出力用ファイルを生成し、後述するビデオエンジンがそのビデオ出力用ファイルを用いてビデオ再生動作を実行することになる。   By the way, when actually outputting video data, a video output file is generated from the tag file of the document data, and a video engine described later executes a video reproduction operation using the video output file.

ビデオ出力用ファイルとは、例えば図35(a)(b)(c)(d)に示すように、タグファイルからビデオタグを抽出して生成するファイルである。
図35(a)は図32のタグファイルから生成したビデオ出力用ファイルであり、この場合、上述したビデオタグが抽出され、図示するようにビデオファイルV3における動画データVM5を指定するファイル内容となる。
図35(b)は図33のタグファイルから生成したビデオ出力用ファイルであり、この場合もビデオタグが抽出され、図示するようにビデオファイルV6における動画データVM10〜VM14を指定するファイル内容となる。
また図35(c)は図34のタグファイルから生成したビデオ出力用ファイルであり、この場合、図示するようにビデオファイルV2における静止画データVS1〜VS5を指定するファイル内容となる。
A video output file is a file generated by extracting a video tag from a tag file, as shown in FIGS. 35 (a), (b), (c), and (d), for example.
FIG. 35A shows a video output file generated from the tag file of FIG. 32. In this case, the above-described video tag is extracted and becomes the file content specifying the moving image data VM5 in the video file V3 as shown. .
FIG. 35B shows a video output file generated from the tag file of FIG. 33. In this case as well, the video tag is extracted and becomes the file contents for designating the moving image data VM10 to VM14 in the video file V6 as shown. .
FIG. 35C shows a video output file generated from the tag file shown in FIG. 34. In this case, the file contents specify still image data VS1 to VS5 in the video file V2, as shown in the figure.

これらの図35(a)(b)(c)は、タグファイルにおける全てのビデオタグを抽出してビデオ出力用ファイルを生成した例であるが、一部のビデオタグを抽出してビデオ出力用ファイルを生成する場合もある。
例えば図35(d)は、図33のタグファイルから一部のビデオタグを抽出して、図示するようにビデオファイルV6における動画データVM11を指定するファイル内容としたビデオ出力用ファイルである。後述するようにユーザーが文の一部を指定してビデオ出力を求めた場合は、このように、その指定された一部に関するビデオタグが抽出されてビデオ出力用ファイルが形成される。
FIGS. 35A, 35B, and 35C are examples in which all video tags in the tag file are extracted to generate a video output file. However, some video tags are extracted and used for video output. Sometimes a file is generated.
For example, FIG. 35D shows a video output file in which a part of video tags is extracted from the tag file of FIG. 33, and the moving image data VM11 in the video file V6 is designated as shown in FIG. As will be described later, when a user specifies a part of a sentence and requests a video output, a video tag relating to the specified part is extracted in this way to form a video output file.

そしてビデオエンジンは、これらの例のように形成されたビデオ出力用ファイルによって指定されたビデオデータを表示出力するべく処理を行うこととなる。
The video engine performs processing to display and output the video data designated by the video output file formed as in these examples.


7−2 ビデオ出力形態

本例では、閲覧ウインドウ301において表示されている文書データ、もしくはその文書データ内でユーザーが指定した部分(文、文節、語など)に関連するビデオデータを出力することができる。
また分類ウインドウ201において指定した文書データに関連するビデオデータを出力することもできる。
さらには後述するビデオリストウインドウにおいて指定した文書データ(又はビデオデータ)についてのビデオデータを出力することができる。
これらのビデオ出力形態を、まず図36でまとめて概略的に説明する。各出力形態における具体的な処理例や表示例は、それぞれ後述する。

7-2 Video output form

In this example, it is possible to output video data related to the document data displayed in the browsing window 301 or a portion (sentence, phrase, word, etc.) designated by the user in the document data.
Also, video data related to the document data specified in the classification window 201 can be output.
Furthermore, it is possible to output video data for document data (or video data) designated in a video list window described later.
These video output forms will be schematically described first with reference to FIG. Specific processing examples and display examples in each output form will be described later.

上述してきたように文書データ/ビデオデータの取込やユーザー操作に応じて、表示部30には閲覧ウインドウ301が開かれた状態や、分類ウインドウ201が開かれた状態となる。
また、閲覧ウインドウ301や分類ウインドウ201からのユーザー操作(上述したビデオリストボタン306e、202eのクリック等)により、後に図46で説明するビデオリストウインドウが開かれた状態ともなる。
図36においては、これら各ウインドウが開かれた状態をS1、S2、S3として模式的に示している。
As described above, the reading window 301 is opened on the display unit 30 or the classification window 201 is opened on the display unit 30 in response to taking in document data / video data or a user operation.
Also, the video list window described later with reference to FIG. 46 is opened by a user operation from the browsing window 301 or the classification window 201 (such as clicking on the video list buttons 306e and 202e described above).
In FIG. 36, the states in which these windows are opened are schematically shown as S1, S2, and S3.

閲覧ウインドウ301が開かれている状態では、ビデオボタン306dをクリックすることで、表示されている文書データに関するビデオデータが出力される(S1→S4→S5)。
これは閲覧ウインドウ301で文書データの本文(又は本文と要約文)が表示されている時点で、特にユーザーが文中の一部を指定せずに、ビデオボタン306dをクリックした場合であり、このときは、表示されている文書データの全体に対応したビデオデータが出力される。
When the viewing window 301 is open, clicking the video button 306d outputs video data relating to the displayed document data (S1 → S4 → S5).
This is a case where the user clicks the video button 306d without specifying a part of the text when the text (or text and summary text) of the document data is displayed in the browsing window 301. At this time, Outputs video data corresponding to the entire document data being displayed.

また、閲覧ウインドウ301が開かれている状態において、ユーザーが文書の一部分を指定したうえで、ビデオボタン306dをクリックすると、その指定された部分に関するビデオデータが出力される(S1→S6→S7→S8)。   When the user designates a part of the document and clicks the video button 306d while the viewing window 301 is open, video data relating to the designated part is output (S1 → S6 → S7 →). S8).

さらに閲覧ウインドウ301が開かれている状態において、ユーザーがキーワードを入力したうえで、ビデオボタン306dをクリックすると、そのキーワードに該当する部分に関するビデオデータが出力される(S1→S9→S10→S11)。   Further, when the user inputs a keyword and clicks the video button 306d while the viewing window 301 is open, video data relating to the portion corresponding to the keyword is output (S1 → S9 → S10 → S11). .

このように閲覧ウインドウ301からは、表示されている文書データに関して、その文書全体に関連するビデオデータや、或いは文書データのうちで、指定操作で指定された部分(又は入力キーワードに該当する部分)に関連するビデオデータが出力される。
なお、S5、S8、S11の各状態においては、閲覧ウインドウ301上でビデオデータが表示出力されるようにすればよいが、例えば図44で後述するビデオウインドウ501を開いて表示出力するようにしてもよい。
In this way, from the viewing window 301, with respect to the displayed document data, the part specified by the specifying operation (or the part corresponding to the input keyword) in the video data or the document data related to the entire document. The video data related to is output.
In each of the states S5, S8, and S11, the video data may be displayed and output on the browsing window 301. For example, the video window 501 described later with reference to FIG. Also good.

次に、図9のような分類ウインドウ201が開かれている状態では、そこに分類されて一覧表示されている文書データのタイトルの中からユーザーが1又は複数の所望のタイトルを指定したうえで、ビデオボタン306dをクリックすることで、その指定された文書データに関するビデオデータが出力される(S2→S12→S13→S14)。
このように分類ウインドウ201からは、表示されている文書データのタイトルを指定することで、指定された文書データに関するビデオデータを見ることができる。なお、S14の状態においては、例えば図44で後述するビデオウインドウ501を開いてビデオデータを表示出力するようにする。
Next, in a state in which the classification window 201 as shown in FIG. 9 is opened, the user designates one or more desired titles from the titles of document data classified and displayed in the list. When the video button 306d is clicked, video data relating to the designated document data is output (S2->S12->S13-> S14).
As described above, by specifying the title of the displayed document data from the classification window 201, the video data relating to the specified document data can be viewed. In the state of S14, for example, a video window 501 described later with reference to FIG. 44 is opened to display and output video data.

次に、後述する図46のビデオリストウインドウ600が開かれている状態では、そこに一覧表示されているタイトル(関連するビデオデータがある文書データのタイトル、もしくはビデオデータそのもののタイトル)の中からユーザーが1又は複数の所望のタイトルを指定したうえで、再生操作を行うことで、その指定されたタイトルの文書データに関するビデオデータ(もしくはそのタイトルのビデオデータ)が出力される(S3→S15→S16→S17)。
このようにビデオリストウインドウからは、表示されているタイトルを指定することで、その指定した文書データに関するビデオデータ(又は指定したビデオデータ)を見ることができる。なお、S17の状態においては、ビデオリストウインドウ600上でビデオデータを表示出力するようにする。
Next, in a state where a video list window 600 shown in FIG. 46, which will be described later, is opened, the titles displayed in the list (document data titles with associated video data or titles of the video data itself) are displayed. When the user designates one or a plurality of desired titles and performs a reproduction operation, video data (or video data of the titles) related to the document data of the designated title is output (S3 → S15 → S16 → S17).
As described above, by designating the displayed title from the video list window, the video data (or the designated video data) related to the designated document data can be viewed. In the state of S17, video data is displayed and output on the video list window 600.

このビデオリストウインドウ600においては、一覧表示され指定できるリストとは、例えば文書出力装置に取り込まれている全てのビデオファイル(又は動画データ、静止画データ単位)を対象としてもよいし、或いは、或る文書データに多数の動画データ等が対応づけられている場合に、その文書データに関連する範囲で、各動画データ等を指定できるようにしてもよい。   In the video list window 600, the list that can be displayed and specified can be, for example, all video files (or moving image data and still image data units) captured in the document output device, or When a large number of moving image data or the like is associated with the document data, each moving image data or the like may be designated within a range related to the document data.

また、ビデオリストウインドウ600及び分類ウインドウ201において一覧表示されるタイトルとは、実際に文書データ(又はビデオデータ)に付されているタイトルでもよいし、文書データを要約して作成したタイトル文でもよい。さらには、文書データの先頭部分などを抽出して、それをタイトルとして用いてもよい。
さらに、ビデオリストウインドウ600及び分類ウインドウ201においてキーワード入力を可能とし、そのキーワードに関連する部分のビデオデータが出力されるようにすることもできる。
The titles displayed in the list in the video list window 600 and the classification window 201 may be titles actually attached to the document data (or video data) or title sentences created by summarizing the document data. . Furthermore, the top part of the document data may be extracted and used as the title.
Furthermore, keywords can be input in the video list window 600 and the classification window 201, and the video data of the part related to the keywords can be output.

7−3 閲覧ウインドウからのビデオ出力処理
上述した閲覧ウインドウ301からのビデオ出力のための制御部11の処理及び表示例を図37〜図42で説明していく。
まず図37で閲覧ウインドウ301からのビデオ出力に関する制御部11の処理の流れを説明し、その後、上記図36のS5、S11、S8に相当する各ビデオ表示例を述べる。
7-3 Video Output Processing from Browsing Window Processing and display examples of the control unit 11 for video output from the browsing window 301 described above will be described with reference to FIGS.
First, the flow of processing of the control unit 11 relating to video output from the viewing window 301 will be described with reference to FIG. 37, and then each video display example corresponding to S5, S11, and S8 of FIG.

例えば図27などに示したような閲覧ウインドウ301が開いている状態においては、制御部11は、ビデオ出力に関する処理としては、図37のステップF601,F602,F603において、ビデオボタン306dがクリックされるか、表示されている文書に対して一部の指定入力が行われるか、或いはキーワードが入力されるか、を監視している。
ステップF602で表示されている文書に対する一部の指定の入力が行われたことが検出されたら、制御部11はステップF604で指定部分を記憶するとともに、その指定部分がユーザーに提示されるように表示制御を行う。
また制御部11は、ステップF603でキーワードが入力されたことが検出されたら、ステップF605でそのキーワードを記憶するとともに、表示されている文中でキーワードに該当する部分が提示されるように表示制御を行う。
For example, in a state where the browsing window 301 as shown in FIG. 27 or the like is open, the control unit 11 clicks the video button 306d in steps F601, F602, and F603 of FIG. Or whether a part of the designation input is performed on the displayed document or a keyword is input.
When it is detected that a part of designation input has been performed on the document displayed in step F602, the control unit 11 stores the designation part in step F604 and presents the designated part to the user. Perform display control.
In addition, when it is detected that a keyword is input in step F603, the control unit 11 stores the keyword in step F605 and performs display control so that a portion corresponding to the keyword is presented in the displayed sentence. Do.

制御部11はステップF601でビデオボタン306dのクリックが検出された場合は、ビデオ出力のための処理に移る。
まずステップF606において、現在表示されている文書データにビデオタグが付加されているか否かを判別し、付加されていなければ、出力すべきビデオデータ、つまり文書に関連するビデオデータは存在しないことになるため、そのまま処理を終える。この場合、ユーザーによるビデオボタン306dのクリック操作は無効な操作となる。
なお、実際には、ビデオタグが存在しない文書データが表示されている場合は、ビデオボタン306dを非アクティブの状態で表示させることで、ユーザーにビデオボタン306dが操作不能であることを提示しておくようにしてもよい。
If it is detected in step F601 that the video button 306d has been clicked, the control unit 11 proceeds to processing for video output.
First, in step F606, it is determined whether or not a video tag is added to the currently displayed document data. If not, video data to be output, that is, video data related to the document does not exist. Therefore, the process is finished as it is. In this case, the click operation of the video button 306d by the user is an invalid operation.
Actually, when document data having no video tag is displayed, the video button 306d is displayed in an inactive state to indicate to the user that the video button 306d cannot be operated. You may make it leave.

表示されている文書データにビデオタグが含まれている場合は、制御部11はステップF607,F608で、文中の一部の指定状況、或いはキーワード入力状況を確認して処理を分岐し、その状況に応じてステップF609,F610,F611でビデオ出力用ファイルを作成する。上述したようにビデオ出力用ファイルは、文書処理装置1内のビデオエンジンによるビデオ再生動作の実行のためのファイルとなる。   If the displayed document data includes a video tag, the control unit 11 branches the process after confirming a part of the sentence in the sentence or a keyword input situation in steps F607 and F608. Accordingly, a video output file is created in steps F609, F610, and F611. As described above, the video output file is a file for executing a video reproduction operation by the video engine in the document processing apparatus 1.

そして制御部11はステップF612でビデオエンジンを起動し、ステップF613から、作成したビデオ出力用ファイルに基づいたビデオ表示処理を実行させる。
例えば図38に示すように、閲覧ウインドウ301上でビデオ表示部330を設定して、ビデオエンジンにより出力される画像を表示させる。
なおこのとき閲覧ウインドウ301上には、ビデオ表示部330で表示されている映像の位置を示すビデオバー331、表示されている映像の開始位置としてのタイムコードを表示する開始位置表示部332、表示されている映像の現在の再生位置(カレントポジション)としてのタイムコードを表示する現在位置表示部333、表示されている映像の終了位置としてのタイムコードを表示する終了位置表示部334なども表示させる。
Then, the control unit 11 activates the video engine in step F612, and executes a video display process based on the created video output file from step F613.
For example, as shown in FIG. 38, the video display unit 330 is set on the browsing window 301 to display an image output from the video engine.
At this time, on the viewing window 301, a video bar 331 indicating the position of the video displayed on the video display unit 330, a start position display unit 332 for displaying a time code as a start position of the displayed video, and display A current position display unit 333 that displays a time code as the current playback position (current position) of the displayed video, an end position display unit 334 that displays a time code as the end position of the displayed video, and the like are also displayed. .

ビデオエンジンは、ハードウェアで構成してもよいし、ソフトウェアで実現するようにしてもよい。ビデオエンジンをソフトウェアで実現する場合には、そのアプリケーションプログラムは、ROM15やHDD34等に予め記憶されている。ビデオエンジンを含む機能構成については図47で後述する。   The video engine may be configured by hardware or may be realized by software. When the video engine is realized by software, the application program is stored in advance in the ROM 15, the HDD 34, or the like. A functional configuration including the video engine will be described later with reference to FIG.

ステップF613で実行されているビデオ出力が終了したときは制御部11はステップF615で通常の閲覧ウインドウ301に戻す。つまり図38に示すビデオ表示部330、ビデオバー331、開始位置表示部332、現在位置表示部333、終了位置表示部334などの表示を終了させて、例えば図27のような画面状態に戻す。そしてビデオ表示処理を終了する。   When the video output being executed in step F613 is completed, the control unit 11 returns to the normal viewing window 301 in step F615. That is, the display of the video display unit 330, the video bar 331, the start position display unit 332, the current position display unit 333, the end position display unit 334, and the like shown in FIG. 38 is ended, and the screen state is returned to, for example, FIG. Then, the video display process ends.

このような処理で実現されるビデオ表示出力例は次のようになる。
まず、図36でS1→S4→S5の流れで行われる表示例を述べる。
例えば図27のように閲覧ウインドウが開かれている状態であるときに、ユーザーが或る文書部分の一部を指定したり、或いはキーワードを入力することなく、ビデオボタン306dをクリックしたとする。
この場合、処理は図37のステップF601→F606→F607→F608→F609と進んで、表示されている文書全体にかかるビデオ出力用ファイルを作成することになる。
An example of video display output realized by such processing is as follows.
First, a display example performed in the flow of S1 → S4 → S5 will be described with reference to FIG.
For example, assume that the user clicks the video button 306d without specifying a part of a certain document part or inputting a keyword when the browsing window is open as shown in FIG.
In this case, the process proceeds in steps F601, F606, F607, F608, and F609 in FIG. 37 to create a video output file for the entire displayed document.

この表示されている文書データのタグファイルが図32であったとすると、このタグファイル全体に含まれるビデオタグが抽出されて、図35(a)のようなビデオ出力用ファイルが形成されることになる。
そしてステップF613では、このビデオ出力用ファイルに基づいてビデオエンジンがビデオ出力処理を行うことにより、図38に示すように、閲覧ウインドウ301上においてビデオ表示部330に、ビデオ表示が実行される。
図35(a)のビデオ出力用ファイルに基づく動作であるため、このとき表示されるビデオデータは、ビデオファイルV3の動画データVM5となる。
もちろんタグファイルにおいて複数の動画データが指定されていれば、各動画データが順次出力され、またタグファイルにおいて1又は複数の静止画データが指定されていれば、1又は複数の静止画データが順次表示出力される。
またビデオ出力の進行に伴って、ビデオバー331、開始位置表示部332、現在位置表示部333、終了位置表示部334などの表示を更新していく。
なおこのときビデオデータに含まれるオーディオデータは音声出力部33から音声として出力される。
If the tag file of the displayed document data is FIG. 32, the video tag included in the entire tag file is extracted, and a video output file as shown in FIG. 35A is formed. Become.
In step F613, the video engine performs video output processing based on the video output file, whereby video display is executed on the video display unit 330 on the viewing window 301 as shown in FIG.
Since the operation is based on the video output file of FIG. 35A, the video data displayed at this time is the moving image data VM5 of the video file V3.
Of course, if a plurality of moving image data are specified in the tag file, each moving image data is sequentially output. If one or more still image data is specified in the tag file, one or more still image data is sequentially output. Display output.
As the video output progresses, the display of the video bar 331, the start position display unit 332, the current position display unit 333, the end position display unit 334, etc. is updated.
At this time, audio data included in the video data is output from the audio output unit 33 as audio.

このように、ユーザーが特に文書中の或る部分の指定或いはキーワード入力を行わなかった場合は、表示されている文書データに含まれる全てのビデオタグに基づいたビデオ出力動作が実行される。   As described above, when the user does not specify a particular part in the document or input a keyword, a video output operation based on all the video tags included in the displayed document data is executed.

次に、図36においてS1→S6→S7→S8の流れで行われる表示例を述べる。
例えば図39のように閲覧ウインドウが開かれている状態であるときに、ユーザーが入力部20のマウス等を使用した操作により、文書の一部を指定した後に、ビデオボタン306dをクリックしたような場合である。
Next, a display example performed in the flow of S1, S6, S7, and S8 in FIG. 36 will be described.
For example, when the viewing window is open as shown in FIG. 39, the user clicks the video button 306d after specifying a part of the document by an operation using the mouse of the input unit 20 or the like. Is the case.

ユーザーが、図39のように表示されている文書の中で、「THREE COMPUTERS THAT CHANGED」の部分を指定する操作を行ったとすると、制御部11は図37のステップF602,F604の処理で、その指定部分を記憶するとともに、例えば図40のように、指定部分をユーザーに提示する。例えば反転表示、ハイライト表示、点滅表示などの表示手法で提示する。
その後、ユーザーがビデオボタン306dをクリックすると、制御部11の処理は図37のステップF601→F606→F607→F611と進んで、指定部分にかかるビデオ出力用ファイルを作成することになる。
In the document displayed as shown in Fig. 39, the user selects "THREE COMPUTERS If the operation of designating the “THAT CHANGED” part is performed, the control unit 11 stores the designated part in steps F602 and F604 of FIG. 37 and presents the designated part to the user as shown in FIG. To do. For example, it is presented by a display method such as reverse display, highlight display, or flashing display.
Thereafter, when the user clicks the video button 306d, the processing of the control unit 11 proceeds in steps F601 → F606 → F607 → F611 in FIG. 37 to create a video output file for the designated portion.

この表示されている文書データのタグファイルが図33であったとすると、このタグファイルにおいて、上記指定された部分に対応するビデオタグが抽出されて、ビデオ出力用ファイルが形成される。
この場合「THREE COMPUTERS THAT CHANGED」に対応するビデオタグとは、図33の例13の部位として見られるように、「THREE COMPUTERS THAT CHANGED the face of ・・・・・・launched in 1977」の文にかかるビデオタグ、つまり、
<文 シーン=“VM11” in=“00:00:00:16” out=“00:00:00:28”>・・・・</文>というビデオタグである。
このため、このビデオタグが抽出されて、図35(d)のようなビデオ出力用ファイルが生成される。
If the tag file of the displayed document data is shown in FIG. 33, the video tag corresponding to the designated portion is extracted from the tag file, and a video output file is formed.
In this case, the video tag corresponding to “THREE COMPUTERS THAT CHANGED” is the sentence “THREE COMPUTERS THAT CHANGED the face of ..launched in 1977”, as seen in Example 13 of FIG. Such a video tag, that is,
<Sentence = “VM11” in = “00: 00: 00: 16” out = “00: 00: 0: 28”>...
Therefore, this video tag is extracted, and a video output file as shown in FIG. 35D is generated.

そしてステップF613では、このビデオ出力用ファイルに基づいてビデオエンジンがビデオ出力処理を行うことにより、図41に示すように、閲覧ウインドウ301上においてビデオ表示部330に、ビデオ表示が実行される。
図35(d)のビデオ出力用ファイルに基づく動作であるため、このとき表示されるビデオデータは、ビデオファイルV6の動画データVM11となる。
またビデオ出力の進行に伴って、ビデオバー331、開始位置表示部332、現在位置表示部333、終了位置表示部334などの表示を更新していく。
ビデオデータに含まれるオーディオデータは音声出力部33から音声として出力される。
なお、図41の表示例では、ウインドウ下部に本文表示部303を設定して、指定部分が提示されるようにしている。
もし、図39の状態から、ユーザーが要約文中で或る部分を指定した場合は、図41の状態で、要約表示部304を設定して、指定部分が提示されるようにすればよい。
In step F613, the video engine performs video output processing based on the video output file, whereby video display is executed on the video display unit 330 on the viewing window 301 as shown in FIG.
Since the operation is based on the video output file of FIG. 35D, the video data displayed at this time is the moving image data VM11 of the video file V6.
As the video output progresses, the display of the video bar 331, the start position display unit 332, the current position display unit 333, the end position display unit 334, etc. is updated.
Audio data included in the video data is output from the audio output unit 33 as audio.
In the display example of FIG. 41, a text display unit 303 is set at the bottom of the window so that a designated portion is presented.
If the user designates a certain part in the summary sentence from the state of FIG. 39, the summary display unit 304 may be set in the state of FIG. 41 so that the designated part is presented.

このように、ユーザーが特に文書中の或る部分の指定を行った場合は、その指定部分にかかるビデオタグに基づいたビデオ出力動作が実行される。   In this way, when the user designates a certain part in the document, a video output operation based on the video tag related to the designated part is executed.

なお、この例では、文単位でビデオタグが付されていたが、もちろん語単位、句単位などでビデオタグが付され、例えば「THREE COMPUTERS THAT CHANGED」のみに対応するビデオタグが存在すれば、そのビデオタグに基づいてビデオデータ(動画又は静止画)が出力される。
また指定部分について複数の動画データ又は静止画データが指定されていれば、各動画データ又は静止画データが順次出力される。
In this example, video tags were attached in sentence units, but of course, video tags were attached in word units, phrase units, etc., for example, if there is a video tag corresponding only to `` THREE COMPUTERS THAT CHANGED '', Video data (moving image or still image) is output based on the video tag.
If a plurality of moving image data or still image data is specified for the designated portion, each moving image data or still image data is sequentially output.

次に、図36においてS1→S9→S10→S11の流れで行われる表示例を述べる。
例えば図39のように閲覧ウインドウが開かれている状態であるときに、ユーザーが入力部20のキーボード等を使用した操作により、或るキーワードを入力し、その後にビデオボタン306dをクリックしたような場合である。
Next, a display example performed in the flow of S1 → S9 → S10 → S11 in FIG. 36 will be described.
For example, when the browsing window is open as shown in FIG. 39, the user inputs a certain keyword by an operation using the keyboard of the input unit 20 and then clicks the video button 306d. Is the case.

ユーザーが、図39のように表示されている文書に対して、「computers」というキーワードを入力する操作を行ったとすると、制御部11は図37のステップF603,F605の処理で、そのキーワードを記憶するとともに、例えば図42のように、キーワード及びキーワード該当部分をユーザーに提示する。
即ち入力に応じてキーワード表示部305に入力されたキーワードを表示するとともに、表示されている文書中で、キーワード該当部分を例えば反転表示、ハイライト表示、点滅表示などの表示手法で提示する。
その後、ユーザーがビデオボタン306dをクリックすると、制御部11の処理は図37のステップF601→F606→F607→F608→F610と進んで、キーワード該当部分にかかるビデオ出力用ファイルを作成することになる。
If the user performs an operation of inputting the keyword “computers” on the document displayed as shown in FIG. 39, the control unit 11 stores the keyword in the processing of steps F603 and F605 in FIG. At the same time, for example, as shown in FIG. 42, the keyword and the corresponding portion of the keyword are presented to the user.
That is, the keyword input unit 305 displays the keyword input in response to the input, and presents the corresponding portion of the keyword in the displayed document by a display method such as reverse display, highlight display, or blinking display.
Thereafter, when the user clicks on the video button 306d, the processing of the control unit 11 proceeds in steps F601 → F606 → F607 → F608 → F610 in FIG. 37 to create a video output file related to the keyword corresponding portion.

つまり、上記した一部指定の場合と同様に、図33のようなタグファイルから、キーワードを含む文、文節、語などの単位で付加されているビデオタグを抽出してビデオ出力用ファイルを形成する。
そしてステップF613では、このようにして生成したビデオ出力用ファイルに基づいてビデオエンジンがビデオ出力処理を行うことにより、例えば上述した図41と同様に、閲覧ウインドウ301上においてビデオ表示部330に、ビデオ表示(1又は複数の動画又は静止画)が実行される。
なお、この場合は、図41の表示例のようにウインドウ下部に本文表示部303(又は要約表示部304)を設定して、キーワード該当部分が提示されるようにする。
That is, as in the case of the partial designation described above, a video output file is formed by extracting video tags added in units of sentences, phrases, words, etc. including keywords from the tag file as shown in FIG. To do.
In step F613, the video engine performs a video output process based on the video output file generated in this manner, so that the video display unit 330 displays the video on the viewing window 301, for example, as in FIG. Display (one or more moving images or still images) is performed.
In this case, as shown in the display example of FIG. 41, the text display section 303 (or summary display section 304) is set at the bottom of the window so that the corresponding part of the keyword is presented.

このように、ユーザーがキーワード入力を行ってビデオ出力を求めた場合は、そのキーワード該当部分にかかるビデオタグに基づいたビデオ出力動作が実行される。   As described above, when the user inputs a keyword to obtain a video output, a video output operation based on the video tag related to the keyword corresponding portion is executed.

7−4 分類ウインドウからのビデオ出力処理
続いて、図9のような分類ウインドウ201からのビデオ出力のための制御部11の処理及び表示例を図43、図44で説明する。これは上記図36のS2→S12→S13→S14の流れに相当するビデオ表示例となる。
7-4 Video Output Processing from Classification Window Next, processing and display examples of the control unit 11 for video output from the classification window 201 as shown in FIG. 9 will be described with reference to FIGS. This is a video display example corresponding to the flow of S2->S12->S13-> S14 in FIG.

分類ウインドウ201が開かれている状態では、ユーザーは、一覧表示されている文書を選択的に指定することで、その指定した1又は複数の文書に関連するビデオデータを出力させることができる。   In a state where the classification window 201 is opened, the user can output video data related to the specified document or documents by selectively specifying the document displayed in a list.

この動作のために制御部11は、ビデオ出力に関する処理としては、図43のステップF701,F702において、ビデオボタン306dがクリックされるか、或いは文書指定の入力が行われるかを監視している。
なお、本例では、文書が1つも指定されていない時点では、ビデオボタン306dを非アクティブの状態で表示させ、ユーザーにビデオボタン306dが操作不能であることを提示しておく。
For this operation, the control unit 11 monitors whether the video button 306d is clicked or a document designation input is performed in steps F701 and F702 of FIG.
In this example, when no document is designated, the video button 306d is displayed in an inactive state to indicate to the user that the video button 306d cannot be operated.

分類ウインドウ201上で、それぞれタイトルにより一覧表示されている文書の中で、ユーザーが一部の文書(1又は複数の文書)を指定する入力が行われたことがステップF702で検出されたら、制御部11はステップF703で指定された文書を記憶するとともに、その指定文書がユーザーに提示されるように表示制御を行う。例えば図9に示すように、指定された文書タイトルに対してチェックマーク214を表示することで指定された文書を提示する。また、この時点でビデオボタン306dをアクティブの状態とする。   If it is detected in step F702 that the user has made an input for designating a part of the document (one or a plurality of documents) among the documents listed by title on the classification window 201, control is performed. The unit 11 stores the document specified in step F703 and performs display control so that the specified document is presented to the user. For example, as shown in FIG. 9, the designated document is presented by displaying a check mark 214 for the designated document title. At this time, the video button 306d is activated.

上記指定が行われた後においてステップF601でビデオボタン306dのクリックが検出された場合は、制御部11はビデオ出力のための処理に移る。
まずステップF704において、現在指定されている文書データにビデオタグが付加されているか否かを判別し、付加されていなければ、出力すべきビデオデータ、つまりその文書に関連するビデオデータは存在しないことになるため、そのまま処理を終える。この場合、ユーザーによるビデオボタン306dのクリック操作は無効な操作となる。
なお、上記ステップF703の処理において、ビデオタグが存在しない文書データが指定された場合は、ビデオボタン306dを非アクティブの状態のままとしておいてもよい。
If the click of the video button 306d is detected in step F601 after the above designation is made, the control unit 11 proceeds to processing for video output.
First, in step F704, it is determined whether or not a video tag is added to the currently designated document data. If not, video data to be output, that is, video data related to the document does not exist. Therefore, the process is finished as it is. In this case, the click operation of the video button 306d by the user is an invalid operation.
In the process of step F703, when document data that does not have a video tag is designated, the video button 306d may remain in an inactive state.

指定されている文書データにビデオタグが含まれている場合は、制御部11はステップF705でビデオ出力用ファイルを作成する。即ち指定されている文書データのタグファイル全体に含まれるビデオタグが抽出されて、例えば図35(a)(b)(c)のようなビデオ出力用ファイルが形成される。
そして制御部11はステップF706でビデオエンジンを起動し、ステップF707で、表示部30に例えば図44に示すようなビデオウインドウ501を開く。
If the designated document data includes a video tag, the control unit 11 creates a video output file in step F705. That is, video tags included in the entire tag file of the designated document data are extracted, and a video output file as shown in FIGS. 35A, 35B, and 35C, for example, is formed.
Then, the control unit 11 starts the video engine in step F706, and opens a video window 501 as shown in FIG. 44 on the display unit 30 in step F707.

このビデオウインドウ501には、文書データファイルのファイル名を表示するファイル名表示部502、そのファイル名の文書データに関連するビデオデータを表示するビデオ表示部503、ビデオ表示部503で表示されている映像の位置(動画データの再生進行位置)を示すビデオバー504、表示されている映像の開始位置としてのタイムコードを表示する開始位置表示部521、表示されている映像の現在の再生位置(カレントポジション)としてのタイムコードを表示する現在位置表示部522、表示されている映像の終了位置としてのタイムコードを表示する終了位置表示部523などが表示される。
さらに、画像再生動作をユーザーが指示するために、再生ボタン505、一時停止ボタン506、停止ボタン507、早戻しボタン508、早送りボタン509、戻し方向の頭出しボタン510、送り方向の頭出しボタン511などが表示される。
The video window 501 displays a file name display unit 502 that displays the file name of the document data file, a video display unit 503 that displays video data related to the document data with the file name, and a video display unit 503. A video bar 504 indicating the position of the video (playback progress position of the moving image data), a start position display unit 521 for displaying a time code as the start position of the displayed video, and the current playback position of the displayed video (current A current position display unit 522 that displays a time code as a position), an end position display unit 523 that displays a time code as an end position of a displayed video, and the like are displayed.
Further, in order for the user to instruct an image reproduction operation, a play button 505, a pause button 506, a stop button 507, a fast-rewind button 508, a fast-forward button 509, a backward search cue button 510, and a feed direction cue button 511 Etc. are displayed.

このようなビデオウインドウ501を開いたら、制御部11はステップF708としてユーザーインターフェースの操作に応じた処理を行うことになる。
例えば図35(a)のようなビデオ出力用ファイルによれば、図31に示したビデオファイルV3の動画データVM5の再生が指定されたことになるが、ビデオウインドウ501で再生ボタン505がクリックされた場合は、制御部11はビデオエンジンにより、動画データVM5の再生を開始させる。これによりビデオ表示部503に動画データVM5の動作映像が表示される。なおこのとき動画データVM5に含まれるオーディオデータは音声出力部33から音声として出力されることになる。
When such a video window 501 is opened, the control unit 11 performs processing according to the operation of the user interface as step F708.
For example, according to the video output file as shown in FIG. 35A, playback of the moving image data VM5 of the video file V3 shown in FIG. 31 is designated, but the playback button 505 is clicked in the video window 501. In the case where the video data is received, the control unit 11 causes the video engine to start reproducing the moving image data VM5. As a result, an operation image of the moving image data VM5 is displayed on the video display unit 503. At this time, the audio data included in the moving image data VM5 is output from the audio output unit 33 as audio.

また、一時停止ボタン506がクリックされると、制御部11はビデオエンジンによる動画データVM5の再生を一時停止させる。
停止ボタン507がクリックされると、制御部11はビデオエンジンによる動画データVM5の再生を停止させる。
早戻しボタン508、又は早送りボタン509がクリックされると、制御部11はビデオエンジンによる動画データVM5の再生動作の早戻し又は早送りを実行させる。
戻し方向の頭出しボタン510、又は送り方向の頭出しボタン511がクリックされると、制御部11はビデオエンジンによる動画データVM5の再生箇所として、例えば前後のシーン(又はポイントとなる特定箇所)の先頭箇所に戻し(又は送り)、その箇所からの再生を実行させる。
さらに、ユーザーがビデオバー504における現在位置の表示部分をドラッグした場合は、それに応じて、ビデオエンジンによる動画データVM5の再生箇所の戻し方向又は進み方向に移動させる。
When the pause button 506 is clicked, the control unit 11 pauses the reproduction of the moving image data VM5 by the video engine.
When the stop button 507 is clicked, the control unit 11 stops the reproduction of the moving image data VM5 by the video engine.
When the fast reverse button 508 or the fast forward button 509 is clicked, the control unit 11 causes the video engine to perform the fast reverse or fast forward of the reproduction operation of the moving image data VM5.
When the return direction cue button 510 or the feed direction cue button 511 is clicked, the control unit 11 uses, for example, the preceding and following scenes (or a specific point to be a point) as a playback location of the video data VM5 by the video engine. Return (or send) to the beginning position, and playback from that position is executed.
Further, when the user drags the display portion of the current position on the video bar 504, the video engine 504 is moved in the return direction or the advance direction of the playback portion of the moving image data VM5 by the video engine.

ところで、例えば図35(c)のようなビデオ出力用ファイルに基づく場合など、表示されるビデオデータが静止画データである場合は、一時停止ボタン506、早戻しボタン508、早送りボタン509操作は実質的に意味がないため表示されないようにしてもよい。
そしてその場合は、再生ボタン505のクリックにより、静止画データの表示が開始され、またタグファイルにより複数の静止画データが指定されていた場合は、戻し方向の頭出しボタン510、又は送り方向の頭出しボタン511のクリックに応じて、静止画データが切り換えられていくようにすればよい。
By the way, when the displayed video data is still image data, for example, based on a video output file as shown in FIG. 35C, the operations of the pause button 506, fast reverse button 508, and fast forward button 509 are substantially the same. It may not be displayed because it is meaningless.
In that case, when the playback button 505 is clicked, the display of still image data is started, and when a plurality of still image data is specified by the tag file, the return direction cue button 510 or the feed direction The still image data may be switched in response to the click of the cue button 511.

このようなユーザーインターフェース操作に応じた処理により、ユーザーは、ビデオデータを任意の状態で視聴できることになる。
以上のように、分類ウインドウ201の中で一覧表示される文書データについて、ユーザーは1又は複数の文書データを指定して、その文書データに関連したビデオデータを見ることができる。
The user can view the video data in an arbitrary state by such processing according to the user interface operation.
As described above, the user can designate one or a plurality of document data with respect to the document data displayed as a list in the classification window 201 and view the video data related to the document data.

7−5 ビデオリストウインドウからのビデオ出力形態
続いて、ビデオリストウインドウからのビデオ出力のための制御部11の処理及び表示例を図45、図46で説明する。これは上記図36のS3→S15→S16→S17の流れに相当するビデオ表示例となる。
7-5 Video Output Form from Video List Window Next, processing and display examples of the control unit 11 for video output from the video list window will be described with reference to FIGS. 45 and 46. FIG. This is a video display example corresponding to the flow of S3 → S15 → S16 → S17 in FIG.

まずビデオリストウインドウについて説明する。
ユーザーが、図9の分類ウインドウ201が開かれている状態でビデオリストボタン202eをクリックすること、もしくは図10などに示した閲覧ウインドウが開かれている状態でビデオリストボタン306eをクリックすることで、制御部11は表示部30に、図46に示すようなビデオリストウインドウ600を表示させる。
First, the video list window will be described.
When the user clicks the video list button 202e while the classification window 201 in FIG. 9 is open, or clicks the video list button 306e while the browsing window shown in FIG. 10 is open. The control unit 11 causes the display unit 30 to display a video list window 600 as shown in FIG.

このビデオリストウインドウ600には、ビデオデータ(又はビデオタグの存在する文書データ)を一覧表示するリスト表示部601、ビデオデータを表示するビデオ表示部602、ビデオ表示部602で表示されている映像の位置(動画データの再生進行位置)を示すビデオバー603、リスト表示部601での指定のための各種操作に供されるリスト操作表示部604、表示されている映像の開始位置、現在位置(カレントポジション)、終了位置などをタイムコードで表示する位置表示部605などが設けられる。
さらに、ビデオ出力のための操作子として、再生ボタン606、一時停止ボタン607、停止ボタン608、戻し方向の頭出しボタン609、早戻しボタン610、早送りボタン611、送り方向の頭出しボタン612などが表示される。
In the video list window 600, a list display unit 601 for displaying a list of video data (or document data having a video tag), a video display unit 602 for displaying video data, and a video display unit 602 display videos. A video bar 603 indicating a position (playback progress position of moving image data), a list operation display unit 604 used for various operations for designation in the list display unit 601, a start position of a displayed video, a current position (current A position display unit 605 for displaying a position), an end position, and the like with a time code.
Further, as buttons for video output, a play button 606, a pause button 607, a stop button 608, a return direction cue button 609, a fast rewind button 610, a fast forward button 611, a feed direction cue button 612, and the like. Is displayed.

リスト表示部601には、ユーザーが選択可能なビデオデータ又は文書データの一覧が、そのタイトル等により表示されるが、どのようなデータをどのような範囲で一覧表示するかは各種の例が考えられる。   The list display unit 601 displays a list of video data or document data that can be selected by the user according to the titles, etc. Various examples of what kind of data are displayed in what range are considered. It is done.

例えば、上記分類ウインドウでの表示のように文書データ単位で一覧表示を行うようにしてもよい。即ちこの場合、ビデオタグを含む文書データを、タイトル等により一覧表示する。
又は、或る文書データ内に含まれる1又は複数のビデオタグによって指定されているビデオデータ単位で、一覧表示するようにしてもよい。例えば閲覧ウインドウ301からこのビデオリストウインドウ600に進んだ場合は、閲覧ウインドウ301で表示されている文書データに含まれる各ビデオタグで指定されるビデオデータを一覧表示するようにする。
また、上記分類ウインドウ201において、1又は複数の文書データが指定された状態で、このビデオリストウインドウ600に進んだ場合は、指定された1又は複数の文書データに含まれる各ビデオタグによるビデオデータを一覧表示するようにしてもよい。
さらには、分類ウインドウ201の或る分類項目内の範囲で、そこに含まれる文書データに関連するビデオデータを一覧表示してもよい。
また、文書データの指定や分類に関係なく、表示可能な全てのビデオデータ(ビデオファイル単位、もしくは1つの動画/静止画データの単位など)を一覧表示することも可能である。
For example, a list display may be performed in units of document data as in the above classification window. That is, in this case, the document data including the video tag is displayed as a list by title or the like.
Alternatively, a list may be displayed in units of video data designated by one or a plurality of video tags included in certain document data. For example, when proceeding from the viewing window 301 to the video list window 600, a list of video data specified by each video tag included in the document data displayed in the viewing window 301 is displayed.
When the classification window 201 is advanced to the video list window 600 in a state where one or more document data is designated, the video data by each video tag included in the designated one or more document data is displayed. May be displayed in a list.
Furthermore, a list of video data related to document data included in a certain classification item in the classification window 201 may be displayed.
It is also possible to display a list of all displayable video data (video file units or units of one moving image / still image data) regardless of the designation or classification of document data.

リスト上のタイトルとしては、文書データを提示する場合は、そのタイトル又は要約文又は先頭文により表示する。
また、ビデオデータ自体のタイトルを提示する場合は、ビデオデータにタイトルが付されていれば、それを用い、付されていなければ、対応する文書データのタイトルや要約文等をタイトルとして用いるようにすればよい。
As a title on the list, when document data is presented, the title, summary sentence, or head sentence is displayed.
In addition, when presenting the title of the video data itself, if the video data has a title, use the title. If not, use the title of the corresponding document data or a summary sentence as the title. do it.

このようなリスト表示部601の一覧表示から、ユーザーは所望の文書データ又はビデオデータを選択的に指定することで、その指定した1又は複数の文書に関連するビデオデータ、もしくは指定した1又は複数のビデオデータを出力させることができる。   From such a list display of the list display unit 601, the user selectively designates desired document data or video data, whereby video data related to the designated document or documents, or designated one or more documents. Video data can be output.

この動作のために制御部11は、図45のステップF801において、ユーザーの指定操作に対応した処理を行う。
即ちリスト表示部601の一覧表示に関して、リスト操作表示部604の操作に応じたリスト状況の設定、変更(例えば選択肢のクリア、全選択子の表示、リストの再読込、選択状態のクリアなど)などを行うとともに、選択肢に対するクリック操作によって行われるユーザーの指定に応じた処理を行う。
即ちユーザーが1又は複数の選択肢(タイトル)の指定を行ったことに応じて、指定された選択肢にかかるビデオデータを記憶するとともに、図46に示すように選択肢に対してチェックマーク620を表示し、指定状態とされたことを提示する。
また、指定された選択肢にかかるビデオデータに相当するを、ビデオバー603において表示する。
For this operation, the control unit 11 performs processing corresponding to the user's designated operation in step F801 in FIG.
That is, regarding the list display of the list display unit 601, setting or changing the list status according to the operation of the list operation display unit 604 (for example, clearing options, displaying all selectors, reloading the list, clearing the selection state, etc.) And a process according to the user's designation performed by clicking on the option.
That is, in response to the user specifying one or more options (titles), the video data relating to the specified options is stored, and a check mark 620 is displayed for the options as shown in FIG. , To indicate that it has been designated.
The video bar 603 displays the video data corresponding to the designated option.

そしてステップF802において制御部11は、現在指定されている選択肢にかかるビデオタグを抽出して、ビデオ出力用ファイルを作成する。
即ち指定されたビデオデータそのものに相当するビデオタグ、もしくは指定された文書データのタグファイル全体に含まれるビデオタグが抽出されて、例えば図35で説明したようなビデオ出力用ファイルが形成される。
そして制御部11はステップF803でビデオエンジンを起動し、続いてステップF804としてユーザーインターフェースの操作に応じた処理を行うことになる。
In step F802, the control unit 11 extracts a video tag related to the currently specified option, and creates a video output file.
That is, a video tag corresponding to the designated video data itself or a video tag included in the whole tag file of the designated document data is extracted, and a video output file as described with reference to FIG. 35, for example, is formed.
In step F803, the control unit 11 starts the video engine, and in step F804, performs processing corresponding to the operation of the user interface.

例えば再生ボタン606がクリックされた場合は、制御部11はビデオエンジンによりビデオ表示部602に、ビデオ出力用ファイルに基づいたビデオデータ(動画又は静止画)の再生を開始させる。もちろん再生の進行に応じて、ビデオバー603、位置表示部605の表示状態も更新していく。
なお表示される動画データ又は静止画データに含まれるオーディオデータは音声出力部33から音声として出力される。
For example, when the playback button 606 is clicked, the control unit 11 causes the video display unit 602 to start playback of video data (moving image or still image) based on the video output file by the video engine. Of course, the display state of the video bar 603 and the position display unit 605 is also updated as the playback progresses.
The audio data included in the displayed moving image data or still image data is output from the audio output unit 33 as audio.

また、一時停止ボタン607がクリックされると、制御部11はビデオエンジンによるビデオデータの再生を一時停止させる。
停止ボタン608がクリックされると、制御部11はビデオエンジンによるビデオデータの再生を停止させる。
早戻しボタン610、又は早送りボタン611がクリックされると、制御部11はビデオエンジンによるビデオデータの再生動作の早戻し又は早送りを実行させる。
戻し方向の頭出しボタン609、又は送り方向の頭出しボタン612がクリックされると、制御部11はビデオエンジンによるビデオデータの再生箇所として、例えば前後のシーン(又はポイントとなる特定箇所)の先頭箇所に戻し(又は送り)、その箇所からの再生を実行させる。
さらに、ユーザーがビデオバー603における現在位置の表示部分をドラッグした場合は、それに応じて、ビデオエンジンによるビデオデータの再生箇所の戻し方向又は進み方向に移動させる。
When the pause button 607 is clicked, the control unit 11 pauses the reproduction of video data by the video engine.
When the stop button 608 is clicked, the control unit 11 stops the reproduction of video data by the video engine.
When the fast reverse button 610 or the fast forward button 611 is clicked, the control unit 11 causes the video engine to perform a fast reverse or fast forward operation for reproducing video data.
When the return direction cue button 609 or the feed direction cue button 612 is clicked, the control unit 11 uses, for example, the beginning of the preceding or succeeding scene (or a specific point to be a point) as a playback position of the video data by the video engine. Return (or send) to a location and play from that location.
Further, when the user drags the display portion of the current position on the video bar 603, the video engine is moved in the return direction or the advance direction of the playback position of the video data by the video engine accordingly.

このようなユーザーインターフェース操作に応じた処理により、ユーザーは、ビデオデータを任意の状態で視聴できることになる。
以上のように、ビデオリストウインドウ600の中で一覧表示される選択肢について、ユーザーは1又は複数を指定することで、指定された選択肢にかかるビデオデータを見ることができる。
The user can view the video data in an arbitrary state by such processing according to the user interface operation.
As described above, the user can view the video data related to the designated option by designating one or a plurality of options displayed in the video list window 600.

8.文書処理装置の機能ブロック構成
以上、文書処理装置1において実現される各種の動作を説明してきた。
本例の文書処理装置1では、これらの処理を実行するために、例えば制御部11内のソフトウエア構成(もしくはハードウエア構成でもよい)及びファイル群構成として、図47のような機能ブロックが形成されている。
8). Functional Block Configuration of Document Processing Device Various operations realized in the document processing device 1 have been described above.
In the document processing apparatus 1 of this example, in order to execute these processes, for example, a functional block as shown in FIG. 47 is formed as a software configuration (or a hardware configuration) in the control unit 11 and a file group configuration. Has been.

即ち上述した音声合成エンジン701、テロップ作成エンジン702、要約作成エンジン703、ビデオエンジン704が設けられる。また音声出力部33に対する音声信号の出力処理部として音声制御部705や、表示部30に対する画像信号の出力処理部として表示制御部706が設けられる。
さらに、ユーザーインターフェース707として、表示される各種ウインドウ上でのボタンについてのユーザー操作(入力部20としてのマウスのクリック等による操作やキーボード操作)についての処理を行う部位が設けられる。
そして、これらの機能ブロックの制御を行うコントローラ700が形成される。
That is, the above-described speech synthesis engine 701, telop creation engine 702, summary creation engine 703, and video engine 704 are provided. An audio control unit 705 is provided as an audio signal output processing unit for the audio output unit 33, and a display control unit 706 is provided as an image signal output processing unit for the display unit 30.
Further, the user interface 707 is provided with a portion that performs processing for user operations (operations by clicking a mouse as the input unit 20 or keyboard operations) for buttons on various displayed windows.
And the controller 700 which controls these functional blocks is formed.

またファイルとしては、上述してきた読み上げ用ファイル708、本文タグファイル709、要約文タグファイル710、ビデオファイル711、ビデオ出力用ファイル712がある。
上述したように、本文タグファイル709及びビデオファイル711は、通信部21もしくは記録/再生部31(記録媒体32)から取り込まれるものとなる。また、要約文タグファイル710は、要約作成エンジン703によって本文タグファイル709から生成される。
読み上げ用ファイル708は、本文タグファイル709もしくは要約文タグファイル710が変換されて生成される。
ビデオ出力用ファイル712は、本文タグファイル709もしくは要約文タグファイル710から変換されて(具体的にはビデオタグが抽出されて)生成される。
The files include the reading file 708, the body tag file 709, the summary sentence tag file 710, the video file 711, and the video output file 712 described above.
As described above, the text tag file 709 and the video file 711 are taken from the communication unit 21 or the recording / playback unit 31 (recording medium 32). The summary sentence tag file 710 is generated from the body tag file 709 by the summary creation engine 703.
The reading file 708 is generated by converting the body tag file 709 or the summary sentence tag file 710.
The video output file 712 is generated by being converted from the body tag file 709 or the summary sentence tag file 710 (specifically, a video tag is extracted).

上述してきた各動作を実現するための図47の機能ブロックの処理を、以下説明していく。   The processing of the functional block in FIG. 47 for realizing each operation described above will be described below.

・読み上げ処理
図16〜図22で説明した読み上げ処理の際には、まず本文タグファイル709もしくは要約文タグファイル710から読み上げ用ファイル708が生成される。
そして音声合成エンジン701はコントローラ700の指示に基づいて読み上げ用ファイル708を参照し、読み上げ用ファイル708に基づいた音声合成処理を行う。
生成された合成音声信号(読み上げ音声信号)Youtは音声制御部705において出力レベル調整等が行われ、音声出力部33に供給されて出力される。
またコントローラは表示制御部706から読み上げウインドウ401としての画像信号を出力させ、表示部30に表示させる。
また読み上げウインドウ401に対するユーザー操作の情報はユーザーインターフェース707で取り込まれてコントローラ700に伝えられ、コントローラ700は、ユーザー操作に応じて音声合成エンジン701の動作を制御する。
Reading process In the reading process described with reference to FIGS. 16 to 22, a reading file 708 is first generated from the text tag file 709 or the summary sentence tag file 710.
The speech synthesis engine 701 refers to the reading file 708 based on an instruction from the controller 700 and performs a speech synthesis process based on the reading file 708.
The generated synthesized speech signal (read-out speech signal) Yout is subjected to output level adjustment in the speech control unit 705, supplied to the speech output unit 33, and output.
Further, the controller outputs an image signal as a reading window 401 from the display control unit 706 and displays it on the display unit 30.
Information about user operations on the reading window 401 is captured by the user interface 707 and transmitted to the controller 700. The controller 700 controls the operation of the speech synthesis engine 701 in accordance with the user operations.

・要約作成処理
図23で説明した要約作成処理の際には、コントローラ700は要約作成エンジン703に指示を出し、本文タグファイル709について要約作成を実行させる。これにより要約文タグファイルが形成される。
なおコントローラ700は、要約作成エンジン703に対して、要約表示部304のサイズ情報を伝えることで、上述のように要約表示部304のサイズに応じた要約生成処理が行われる。
23. Summary Creation Processing In the summary creation processing described with reference to FIG. 23, the controller 700 instructs the summary creation engine 703 to execute summary creation for the body tag file 709. As a result, a summary tag file is formed.
The controller 700 transmits the size information of the summary display unit 304 to the summary creation engine 703, so that the summary generation processing according to the size of the summary display unit 304 is performed as described above.

・要約固定表示処理
図23、図24、図27で説明したように、要約表示部304のサイズが所定値wsth以上であった場合は、そのサイズに応じた文書長の要約文タグファイル710が生成され、それが固定表示されることになる。
この場合、生成された要約文タグファイル710は、要約作成エンジン703によって表示文書出力Soutとして処理され、表示制御部706に供給される。そして表示制御部706で、閲覧ウインドウ300の画像に合成され、表示部30で図27のように表示される。
Summary fixed display processing As described with reference to FIGS. 23, 24, and 27, when the size of the summary display unit 304 is equal to or larger than the predetermined value wsth, the summary sentence tag file 710 having a document length corresponding to the size is displayed. Will be generated and displayed in a fixed manner.
In this case, the generated summary sentence tag file 710 is processed as the display document output Sout by the summary creation engine 703 and supplied to the display control unit 706. Then, the image is combined with the image of the viewing window 300 by the display control unit 706 and displayed on the display unit 30 as shown in FIG.

・要約文/本文のテロップ表示処理
図23〜図30で説明したように、要約表示部304のサイズが所定値wsth未満であった場合は、そのサイズを越える文書長の要約文タグファイル710が生成され、それがテロップ表示されることになる。
この場合、生成された要約文タグファイル710は、テロップ作成エンジン702によってテロップ化処理が行われる。そしてテロップ表示文書出力Toutとして逐次出力されていく。表示制御部706では、テロップ表示文書出力Toutを閲覧ウインドウ301の画像に合成し、表示部30で図28〜図30のような表示が実行されていくようにする。
Summary text / text telop display processing As described with reference to FIGS. 23 to 30, when the size of the summary display unit 304 is less than the predetermined value wsth, a summary tag file 710 having a document length exceeding the size is displayed. Will be generated and displayed as a telop.
In this case, the generated summary sentence tag file 710 is subjected to telop processing by the telop creation engine 702. And it outputs sequentially as telop display document output Tout. The display control unit 706 synthesizes the telop display document output Tout with the image of the viewing window 301 so that the display unit 30 executes the display as shown in FIGS.

・読み上げタイミングでのテロップ表示処理
テロップ表示の変形例として、テロップの進行タイミングを読み上げ音声タイミングに合わせることができることを述べた。
その場合、要約文タグファイル710から変換された読み上げ用ファイル708が、音声合成エンジン701とテロップ作成エンジン702の共有ファイルとして用いられる。(図中破線で示す信号系が形成される。)
コントローラ700の制御に基づいて、音声合成エンジン701は読み上げ用ファイル708を用いた音声合成/読み上げ出力を行う。但しこの場合、音声制御部705は生成された合成音声信号Youtについて出力レベルをゼロとすることで、ユーザーに対して読み上げ音声が出力されないようにする。
テロップ作成エンジン702は、読み上げ用ファイル708を用いてテロップ作成を行うが、この際、テロップ作成エンジン702と音声合成エンジン701は相互にタイミング信号の授受を行う。つまり、テロップ作成エンジン702は、読み上げ用ファイル708からのタイミング信号に基づいてテロップ作成/テロップ表示文書出力Toutを実行していく。これにより読み上げ速度によるテロップ表示が実行される。
なお、読み上げ速度(つまりこの場合はテロップ速度)については、ユーザーインターフェース707からの情報に基づいてコントローラ700が音声合成エンジン701での設定を変更することで、変更可能となる。
-Telop display processing at the reading timing As a modification of the telop display, it has been described that the progress timing of the telop can be matched with the reading voice timing.
In that case, the reading file 708 converted from the summary sentence tag file 710 is used as a shared file of the speech synthesis engine 701 and the telop creation engine 702. (A signal system indicated by a broken line in the figure is formed.)
Based on the control of the controller 700, the speech synthesis engine 701 performs speech synthesis / readout output using the read-out file 708. However, in this case, the voice control unit 705 sets the output level of the generated synthesized voice signal Yout to zero so that no reading voice is output to the user.
The telop creation engine 702 creates a telop using the reading file 708. At this time, the telop creation engine 702 and the speech synthesis engine 701 exchange timing signals with each other. That is, the telop creation engine 702 executes the telop creation / telop display document output Tout based on the timing signal from the reading file 708. As a result, the telop display at the reading speed is executed.
Note that the reading speed (that is, the telop speed in this case) can be changed by the controller 700 changing the setting in the speech synthesis engine 701 based on information from the user interface 707.

・ビデオ出力処理
図31〜図46で説明した各種のビデオ出力処理は、ユーザーインターフェース707からの情報に基づくコンピュータ700の指示によって、ビデオエンジン704の処理で行われる。
ビデオエンジン704は、本文タグファイル709もしくは要約文タグファイル710から生成されたビデオ出力用ファイル712を参照し、再生すべきビデオデータを判別して、ビデオファイル711を読み出す。
読み出されたビデオデータは、ビデオエンジン704によって出力用の映像信号Voutとして処理され、表示制御部706に供給される。そして表示制御部706で、閲覧ウインドウ301又はビデオウインドウ501又はビデオリストウインドウ600の画像に合成され、表示部30で、上述のように表示される(図38,図41,図44,図46等)。
またビデオデータに含まれるオーディオデータについても、ビデオエンジン704によって出力用の音声信号Aoutとして処理され、音声制御部705に供給されてレベル調整等の処理が行われる。そして音声出力部33から再生音声として出力される。
ビデオ出力中には、ビデオウインドウ501、ビデオリストウインドウ600等に対するユーザー操作の情報はユーザーインターフェース707で取り込まれてコントローラ700に伝えられ、コントローラ700は、ユーザー操作に応じてビデオエンジン701の動作を制御する。
Video Output Processing Various video output processing described with reference to FIGS. 31 to 46 is performed by processing of the video engine 704 according to instructions from the computer 700 based on information from the user interface 707.
The video engine 704 refers to the video output file 712 generated from the body tag file 709 or the summary sentence tag file 710, determines video data to be reproduced, and reads the video file 711.
The read video data is processed as a video signal Vout for output by the video engine 704 and supplied to the display control unit 706. Then, the image is combined with the image of the viewing window 301, the video window 501, or the video list window 600 by the display control unit 706 and displayed as described above on the display unit 30 (FIGS. 38, 41, 44, 46, etc.). ).
Also, audio data included in the video data is processed as an audio signal Aout for output by the video engine 704 and supplied to the audio control unit 705 to perform processing such as level adjustment. And it is output from the audio output unit 33 as reproduced audio.
During video output, user operation information for the video window 501, the video list window 600, and the like is captured by the user interface 707 and transmitted to the controller 700. The controller 700 controls the operation of the video engine 701 in accordance with the user operation. To do.

以上、図47の機能ブロックについて説明したが、機能ブロック構成や動作形態はこれに限られるものではない。
また図47は、ここで説明した表示部30又は音声出力部33からの出力動作に関連する部位のみを示したものであり、例えば文書受信処理、分類処理などを実現する機能ブロックについては省略した。
The functional block of FIG. 47 has been described above, but the functional block configuration and operation mode are not limited to this.
FIG. 47 shows only the parts related to the output operation from the display unit 30 or the audio output unit 33 described here. For example, functional blocks for realizing document reception processing, classification processing, etc. are omitted. .

以上本発明の実施の形態について説明してきたが、これはあくまで一例であり、文書処理装置1のハードウエアもしくはソフトウエア構成、及び処理例は多様に考えられる。   Although the embodiment of the present invention has been described above, this is merely an example, and various hardware or software configurations and processing examples of the document processing apparatus 1 can be considered.

例えば上記例では、本例のビデオ出力処理は図36にまとめて示したように、閲覧ウインドウ301、分類ウインドウ201、又はビデオリストウインドウ600からの操作に応じて、それぞれ閲覧ウインドウ301、ビデオウインドウ501、又はビデオリストウインドウ600で行われるようにしたが、このような出力形態に限られるものではない。
例えば閲覧ウインドウ301からの操作に応じて、ビデオウインドウ501が開かれてビデオ出力が行われるようにしてもよい。
もちろん他のウインドウを設けてもよい。
For example, in the above example, the video output processing of this example is performed in accordance with the operation from the browsing window 301, the classification window 201, or the video list window 600 as shown in FIG. Alternatively, the video list window 600 is used, but the present invention is not limited to such an output form.
For example, the video window 501 may be opened and video output may be performed in response to an operation from the viewing window 301.
Of course, other windows may be provided.

また、分類ウインドウ201からの操作により、或る文書データのうちの或る一部に関連するビデオデータが出力されるようにするなど、出力されるビデオデータの指定形態は各種考えられる。   Various types of designation of output video data are conceivable, such as outputting video data related to a certain part of certain document data by an operation from the classification window 201.

また文書処理装置1を構成する具体的なデバイス例は多様であり、例えば文書処理装置1における入力部20を例に挙げれば、キーボードやマウスだけでなく、タブレット、ライトペン、赤外線等を利用した無線コマンダ装置等の他のデバイスが考えられる。   Further, there are various specific device examples constituting the document processing apparatus 1. For example, when the input unit 20 in the document processing apparatus 1 is taken as an example, not only a keyboard and a mouse but also a tablet, a light pen, an infrared ray, or the like is used. Other devices such as a wireless commander device are conceivable.

また実施の形態においては、通信部22に外部から電話回線等を介して文書やビデオファイルが送信されてくるものとして説明したが、本発明は、これに限定されるものではない。例えば、衛星等を介して文書やビデオファイルが送信される場合にも適用できる他、記録/再生部31において記録媒体32から読み出されたり、ROM15に予め文書やビデオファイルが書き込まれていてもよい。   Further, in the embodiment, it has been described that a document or a video file is transmitted to the communication unit 22 from the outside via a telephone line or the like, but the present invention is not limited to this. For example, the present invention can be applied to a case where a document or video file is transmitted via a satellite or the like, and can be read from the recording medium 32 in the recording / playback unit 31 or a document or video file written in the ROM 15 in advance. Good.

また実施の形態において、文書へのタグ付けの方法の一例を示したが、本発明がこのタグ付けの方法に限定されないことはもちろんである。
さらに、上述の実施の形態においては、日本語および英語の文章を例示したが、本発明がこれらの言語に限られないことはいうまでもない。
このように、本発明は、その趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
In the embodiment, an example of a tagging method for a document has been described. However, the present invention is not limited to this tagging method.
Furthermore, in the above-described embodiment, Japanese and English sentences are exemplified, but it goes without saying that the present invention is not limited to these languages.
Thus, it goes without saying that the present invention can be modified as appropriate without departing from the spirit of the present invention.

さらにまた、本発明においては、記録媒体32として、上述した電子文書処理プログラムが書き込まれたディスク状記録媒体やテープ状記録媒体等を提供することが容易に実現できる。
即ち本発明の記録媒体が実現できる。なお、図1に示したHDD34としても同様に本発明の記録媒体とすることができる。
そしてそのような記録媒体32によれば、上記してきた文書処理方法を実現するプログラムを提供できることになり、例えば汎用のパーソナルコンピュータ等を用いて、本発明の文書処理装置を容易に実現できる。
もちろん記録媒体32としては、フロッピーディスクの他に、光ディスク、光磁気ディスク、磁気テープ、フラッシュメモリ等によるメモリカード、メモリチップ等としてもよい。
さらに本発明の文書処理方法を実現するプログラムは、例えばインターネット等のネットワーク通信を介しても提供することができるものであり、従って、プログラムサーバ側もしくは通信過程における記録媒体としても本発明は適用できるものである。
Furthermore, in the present invention, it is possible to easily provide the recording medium 32 such as a disk-shaped recording medium or a tape-shaped recording medium in which the electronic document processing program described above is written.
That is, the recording medium of the present invention can be realized. The HDD 34 shown in FIG. 1 can be similarly used as the recording medium of the present invention.
Such a recording medium 32 can provide a program for realizing the document processing method described above. For example, the document processing apparatus of the present invention can be easily realized by using a general-purpose personal computer or the like.
Of course, the recording medium 32 may be an optical disk, a magneto-optical disk, a magnetic tape, a memory card such as a flash memory, a memory chip, or the like in addition to the floppy disk.
Furthermore, the program for realizing the document processing method of the present invention can be provided via network communication such as the Internet, and therefore the present invention can be applied to the program server side or as a recording medium in the communication process. Is.

また記録媒体としては、上記処理を実現する動作制御プログラムとともに、そのプログラムの処理対象となる文書データやビデオデータをも記録しているものも有用となる。
つまり、文書処理装置1に対して、記録媒体から電子文書データを提供するときに、同時に動作制御プログラムやビデオファイルをも提供することで、その文書処理装置において、上記のような文書データに対応したビデオ出力処理を実行できるものとなる。
In addition to an operation control program that realizes the above processing, a recording medium that also records document data and video data to be processed by the program is useful.
That is, when electronic document data is provided from the recording medium to the document processing device 1, the operation processing program and the video file are also provided at the same time, so that the document processing device can handle the document data as described above. The video output process can be executed.

1 文書処理装置、10 本体、11 制御部、12 インターフェース、13 CPU、14 RAM、15 ROM、20 入力部、21 通信部、22 携帯端末リーダ、30 表示部、31 記録再生部、32 記録媒体、33 音声出力部、34 HDD、101 ウインドウ、201 分類ウインドウ、301 閲覧ウインドウ、303 文書表示部、304 要約表示部、401 読み上げウインドウ、501 ビデオウインドウ、600 ビデオリストウインドウ、700 コントローラ、701 音声合成エンジン、702 テロップ作成エンジン、703 要約作成エンジン、704 ビデオエンジン、705 音声制御部、706 表示制御部、707 ユーザーインターフェース   DESCRIPTION OF SYMBOLS 1 Document processing apparatus 10 Main body, 11 Control part, 12 Interface, 13 CPU, 14 RAM, 15 ROM, 20 Input part, 21 Communication part, 22 Portable terminal reader, 30 Display part, 31 Recording / reproducing part, 32 Recording medium, 33 voice output unit, 34 HDD, 101 window, 201 classification window, 301 browsing window, 303 document display unit, 304 summary display unit, 401 reading window, 501 video window, 600 video list window, 700 controller, 701 speech synthesis engine, 702 Telop creation engine, 703 Summary creation engine, 704 Video engine, 705 Audio control unit, 706 Display control unit, 707 User interface

Claims (6)

第1の電子文書データを入力する入力手段と、
前記第1の電子文書データの内容を提示する提示情報を出力制御する提示出力制御手段と、
前記提示出力制御手段により提示出力制御された前記第2の電子文書データの中から、前記第2の電子文書データのうちの一部を指定する指定手段と、
前記入力手段に基づいて入力された前記第1の電子文書データ及び前記指定手段で指定された前記第2の電子文書データのうちの一部に対応する1又は複数のビデオデータ又は静止画データを選択するビデオ又は静止画選択手段と、
前記ビデオ又は静止画選択手段で選択された複数のビデオデータ又は静止画データ順次出力制御するビデオ又は静止画出力制御手段と
を備えた文書処理装置。
Input means for inputting first electronic document data;
Presentation output control means for controlling the output of presentation information for presenting the contents of the first electronic document data;
Designation means for designating a part of the second electronic document data from the second electronic document data subjected to presentation output control by the presentation output control means;
One or a plurality of video data or still image data corresponding to a part of the first electronic document data input based on the input means and the second electronic document data specified by the specifying means A video or still image selection means to select;
A document processing apparatus comprising: a video or still image output control unit that sequentially outputs and controls a plurality of video data or still image data selected by the video or still image selection unit.
前記ビデオ又は静止画選択手段において、前記入力手段に基づいて入力された前記第1の電子文書データに対応する1又は複数のビデオデータ又は静止画データを選択する場合には、前記第1の電子文書データの内容に該当する部分に関するビデオデータ又は静止画データを選択する請求項1記載の文書処理装置。When the video or still image selection means selects one or more video data or still image data corresponding to the first electronic document data input based on the input means, the first electronic 2. The document processing apparatus according to claim 1, wherein video data or still image data relating to a portion corresponding to the content of the document data is selected. 前記ビデオ又は静止画出力制御手段において、前記第2の電子文書データを提示出力するエリア上に出力するか、第2のビデオ又は静止画のみを表示するエリアに提示出力するかを制御する請求項1記載の文書処理装置。  The video or still image output control means controls whether to output the second electronic document data on an area where the second electronic document data is presented and output, or whether to present and output it on an area where only the second video or still image is displayed. 1. The document processing apparatus according to 1. 前記提示出力制御手段において、複数の電子文書データのリストを提示する請求項1記載の文書処理装置。  The document processing apparatus according to claim 1, wherein the presentation output control means presents a list of a plurality of electronic document data. 第1の電子文書データを入力する入力手順と、
前記第1の電子文書データの内容を提示する提示情報を出力制御する提示出力制御手順と、
前記提示出力制御手順により提示出力された前記第2の電子文書データの中から、前記第2の電子文書データのうちの一部を指定する指定手順と、
前記入力手段に基づいて入力された前記第1の電子文書データ及び前記指定手順で指定された前記第2の電子文書データのうちの一部に対応する1又は複数のビデオデータ又は静止画データを選択するビデオ又は静止画選択手順と、
前記ビデオ又は静止画選択手順で選択された複数のビデオデータ又は静止画データ順次出力制御するビデオ又は静止画出力制御手順と、
が行われる文書処理方法。
An input procedure for inputting the first electronic document data;
A presentation output control procedure for outputting and controlling presentation information for presenting the contents of the first electronic document data;
A designation procedure for designating a part of the second electronic document data from the second electronic document data presented and output by the presentation output control procedure;
One or a plurality of video data or still image data corresponding to a part of the first electronic document data input based on the input means and the second electronic document data specified in the specifying procedure. A video or still image selection procedure to select;
A video or still image output control procedure for sequentially outputting a plurality of video data or still image data selected in the video or still image selection procedure;
Document processing method in which is performed.
第1の電子文書データを入力する入力手順と、
前記第1の電子文書データの内容を提示する提示情報を出力制御する提示出力制御手順と、
前記提示出力制御手順により提示出力された前記第2の電子文書データの中から、前記第2の電子文書データのうちの一部を指定する指定手順と、
前記入力手段に基づいて入力された前記第1の電子文書データ及び前記指定手順で指定された前記第2の電子文書データのうちの一部に対応する1又は複数のビデオデータ又は静止画データを選択するビデオ又は静止画選択手順と、
前記ビデオ又は静止画選択手順で選択された複数のビデオデータ又は静止画データ順次出力制御するビデオ又は静止画出力制御手順と、
を有する動作制御プログラムが記録されている記録媒体。
An input procedure for inputting the first electronic document data;
A presentation output control procedure for outputting and controlling presentation information for presenting the contents of the first electronic document data;
A designation procedure for designating a part of the second electronic document data from the second electronic document data presented and output by the presentation output control procedure;
One or a plurality of video data or still image data corresponding to a part of the first electronic document data input based on the input means and the second electronic document data specified in the specifying procedure. A video or still image selection procedure to select;
A video or still image output control procedure for sequentially outputting a plurality of video data or still image data selected in the video or still image selection procedure;
A recording medium on which is recorded an operation control program.
JP2009195546A 2009-08-26 2009-08-26 Document processor, document processing method, and recording medium Pending JP2010044767A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009195546A JP2010044767A (en) 2009-08-26 2009-08-26 Document processor, document processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009195546A JP2010044767A (en) 2009-08-26 2009-08-26 Document processor, document processing method, and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP27712899A Division JP4449118B2 (en) 1999-09-29 1999-09-29 Document processing apparatus, document processing method, and recording medium

Publications (1)

Publication Number Publication Date
JP2010044767A true JP2010044767A (en) 2010-02-25

Family

ID=42016059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009195546A Pending JP2010044767A (en) 2009-08-26 2009-08-26 Document processor, document processing method, and recording medium

Country Status (1)

Country Link
JP (1) JP2010044767A (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6472279A (en) * 1987-09-11 1989-03-17 Katsuhiko Oba Electronic book
JPH02161543A (en) * 1988-12-14 1990-06-21 Fujitsu Ltd System for displaying common link source in display processing system
JPH06274552A (en) * 1993-03-23 1994-09-30 Nec Software Kansai Ltd Multi-media data link system
JPH08221243A (en) * 1995-02-16 1996-08-30 Sony Corp Method for displaying information
JPH09160927A (en) * 1995-12-08 1997-06-20 Oki Electric Ind Co Ltd Display device and system for commodity image data and the like
JPH09185634A (en) * 1996-01-05 1997-07-15 Toshiba Corp Information retrieval supporting method for hypermedia system
JPH09212349A (en) * 1996-01-31 1997-08-15 Mitsubishi Electric Corp Contents generation support system
WO1999005615A1 (en) * 1997-07-24 1999-02-04 Access Co., Ltd. Data broadcast receiving and displaying device
JPH11250087A (en) * 1998-03-03 1999-09-17 Hitachi Information Systems Ltd Hyperlink defining method and recording medium for image file data

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6472279A (en) * 1987-09-11 1989-03-17 Katsuhiko Oba Electronic book
JPH02161543A (en) * 1988-12-14 1990-06-21 Fujitsu Ltd System for displaying common link source in display processing system
JPH06274552A (en) * 1993-03-23 1994-09-30 Nec Software Kansai Ltd Multi-media data link system
JPH08221243A (en) * 1995-02-16 1996-08-30 Sony Corp Method for displaying information
JPH09160927A (en) * 1995-12-08 1997-06-20 Oki Electric Ind Co Ltd Display device and system for commodity image data and the like
JPH09185634A (en) * 1996-01-05 1997-07-15 Toshiba Corp Information retrieval supporting method for hypermedia system
JPH09212349A (en) * 1996-01-31 1997-08-15 Mitsubishi Electric Corp Contents generation support system
WO1999005615A1 (en) * 1997-07-24 1999-02-04 Access Co., Ltd. Data broadcast receiving and displaying device
JPH11250087A (en) * 1998-03-03 1999-09-17 Hitachi Information Systems Ltd Hyperlink defining method and recording medium for image file data

Similar Documents

Publication Publication Date Title
JP4320491B2 (en) Document processing system, terminal device, document providing device, document processing method, recording medium
JP2001043215A (en) Device and method for processing document and recording medium
JP2001051997A (en) Device and method for document data generation and recording medium
US20080300872A1 (en) Scalable summaries of audio or visual content
WO2001001390A1 (en) Electronic document processor
US20210304799A1 (en) Transcript-based insertion of secondary video content into primary video content
JPH0785243A (en) Data processing method
US20220292830A1 (en) Hierarchical segmentation based on voice-activity
JP2001075989A (en) Device and method for presenting information and computer readable recording medium recording information presenting program
JP4433532B2 (en) Document processing apparatus, document processing method, and recording medium
US20220076024A1 (en) Interacting with hierarchical clusters of video segments using a metadata panel
JP2000231475A (en) Vocal reading-aloud method of multimedia information browsing system
JP4449118B2 (en) Document processing apparatus, document processing method, and recording medium
JP2010073205A (en) Document processor, document processing method and recording medium
JP4798150B2 (en) Document processing apparatus, document processing method, and recording medium
US20090064027A1 (en) Execution and visualization method for a computer program of a virtual book
US11899917B2 (en) Zoom and scroll bar for a video timeline
JP2010044767A (en) Document processor, document processing method, and recording medium
JP2001014313A (en) Device and method for document processing, and recording medium
JP2001014307A (en) Device and method for processing document and recording medium
JP2001034384A (en) Document processor, document processing method, and recording medium
JP2001159938A (en) Method for processing document, recording medium and document processor
JP2001014346A (en) Portable terminal device and document processing system
JP2001147926A (en) Document processing system, terminal equipment, service providing device, document processing method and recording medium
JP2001022774A (en) Device and method for document processing, and recording medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110516

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120703