JP2008269216A - Document image acquisition device - Google Patents

Document image acquisition device Download PDF

Info

Publication number
JP2008269216A
JP2008269216A JP2007110350A JP2007110350A JP2008269216A JP 2008269216 A JP2008269216 A JP 2008269216A JP 2007110350 A JP2007110350 A JP 2007110350A JP 2007110350 A JP2007110350 A JP 2007110350A JP 2008269216 A JP2008269216 A JP 2008269216A
Authority
JP
Japan
Prior art keywords
document image
unit
presenter
document
presentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007110350A
Other languages
Japanese (ja)
Other versions
JP2008269216A5 (en
Inventor
Kengo Omura
賢悟 大村
Takeshi Nagamine
猛志 永峯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2007110350A priority Critical patent/JP2008269216A/en
Publication of JP2008269216A publication Critical patent/JP2008269216A/en
Publication of JP2008269216A5 publication Critical patent/JP2008269216A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a document image acquisition device capable of accurately classifying document images used for a presentation acquired as image data by using the document image acquisition device for every announcement for the documents regardless of their document formats. <P>SOLUTION: The document image acquisition device comprises an image sampling section 403 for acquiring the document image on the basis of a display output signal of the document in which the display contents are changed in response to progress of an explanation of a presenter, a VGA signal ON/OFF detection section 401 for detecting existence of the display output signal, and an announcement alternation determination section 410 for determining an end of the document images per each presenter for the document images acquired by the image sampling section 403 on the basis of detected results of the VGA signal ON/OFF detection section 401. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、広くは文書画像管理システムに係る。より詳しくは、プレゼンテーション文書画像取得装置等を使用して画像データとして取得されたプレゼンテーション文書画像を個々のプレゼンテーションごとに分類するとともに、分類された文書画像に対してプレゼンテーションのタイトルと発表者氏名を索引情報として付与することで、これらの索引情報にもとづく文書画像の識別や選択的表示ができるプレゼンテーション文書画像取得装置に関する。   The present invention generally relates to a document image management system. More specifically, presentation document images acquired as image data using a presentation document image acquisition device or the like are classified for each presentation, and the title of the presentation and the name of the presenter are indexed for the classified document images. The present invention relates to a presentation document image acquisition apparatus capable of identifying and selectively displaying a document image based on the index information by giving it as information.

会議などで行なわれるプレゼンテーションでは、しばしば、複数の発表者によってそれぞれ複数のプレゼンテーション文書(スライド)が表示される。通常、これらの会議資料は、プロジェクターなどを介してその場で表示されるだけであり、再度その内容を参照したい場合には、発表者に頼んでオリジナルのプレゼンテーション文書を提供してもらう必要がある。   In a presentation performed at a meeting or the like, a plurality of presentation documents (slides) are often displayed by a plurality of presenters. Normally, these meeting materials are only displayed on the spot via a projector, etc. If you want to refer to the contents again, you need to ask the presenter to provide the original presentation document. .

プレゼンテーション文書画像取得装置(以下、単に文書画像取得装置という。)は、発表者のPCからプロジェクターなどに送出される映像信号を分配器を用いて横取りすることによって、発表者のPCモニター上の映像と同じ映像を画像データとして形成取得するものである。この装置を利用すれば、画像データという制約はあるが、プレゼンテーション資料を自動的に取得・蓄積できるので便利である。   A presentation document image acquisition device (hereinafter simply referred to as a document image acquisition device) captures a video signal sent from a presenter's PC to a projector or the like by using a distributor to obtain a video on the presenter's PC monitor. The same video is formed and acquired as image data. If this apparatus is used, although there is a restriction of image data, it is convenient because presentation materials can be automatically acquired and stored.

しかし、プレゼンテーションが、複数の発表者によってなされる場合には多数の文書画像が蓄積されるため、それらのサムネイル画像が表示されても個々の文書画像が誰によって表示されたのか、またどのようなタイトルに関連するものかを把握するのが容易ではないという問題があった。このため、従来、人手により文書画像をプレゼンテーション単位ごとに分類したうえで、それらにタイトルと発表者氏名を索引情報として付与することが多かった。しかし、対象となる文書画像が大量にある場合には、ユーザにとってたいへんな労力を要するという問題があった。   However, when a presentation is made by a plurality of presenters, a large number of document images are accumulated. Therefore, even if those thumbnail images are displayed, who displayed each document image and what kind of image was displayed. There is a problem that it is not easy to grasp whether the title is related to the title. For this reason, conventionally, after manually classifying document images for each presentation unit, the title and the name of the presenter are often given as index information. However, when there are a large number of target document images, there is a problem that it takes a lot of labor for the user.

ここでは2つの作業の自動化が望まれる。第1は、蓄積された文書画像を発表ごとに区分けする作業である。第2は、発表者あるいは話題ごとに区分けされた文書画像群に対して、発表者氏名やタイトルを索引付ける作業である。文書画像取得装置に対して直接適用された技術ではないが、これら2つの作業の自動化に対して以下のような従来技術が適用可能である。   Here, automation of two operations is desired. The first is an operation of dividing the accumulated document image for each presentation. The second is an operation of indexing the presenter's name and title to a group of document images classified by presenter or topic. Although not directly applied to the document image acquisition apparatus, the following conventional techniques can be applied to automating these two operations.

プレゼンテーション単位でのセグメント化技術としては下記のようなものがある。
(a)ひとまとまりのプレゼンテーションは連続的な文書表示からなり、次のプレゼンテーションが開始されるまでに一定の時間間隔があることに着目し、表示文書間の時間間隔が一定以上ある場合に、そこをプレゼンテーションの区切りと見なして分類する。
(b)プレゼンテーションソフトの起動操作とその操作が行なわれた時間を記録して、操作を表示文書と関連付ける(特許文献1参照)。
(c)プレゼンテーション文書の先頭ページは通常表紙であることに着目し、タイトル抽出処理やレイアウト情報を利用して表紙か否かの識別処理を行なう。識別関数を獲得するために、遺伝的アルゴリズム、ニューラルネット、判別分析を利用する(特許文献2参照)。そして、識別された表紙に基づいて文書をプレゼンテーション単位で分割する。
(d)スケジュール管理ツール等に記載されたタイムスケジュールによってプレゼンテーションをセグメント化する。
(e)プレゼンテーション文書は、発表者ごとに異なる書式(デザインテンプレート)を使用する場合が多いことに着目して、共通の書式をもった文書画像群をひとまとまりのプレゼンテーション文書として判定する。
The following segmentation technologies are available for presentation units.
(A) A group of presentations consists of continuous document display, and pays attention to the fact that there is a certain time interval until the next presentation starts. Are classified as presentation breaks.
(B) Recording the activation operation of the presentation software and the time when the operation was performed, and associating the operation with the display document (see Patent Document 1).
(C) Focusing on the fact that the first page of the presentation document is a normal cover page, the title extraction process and the layout process are used to identify whether the page is a cover page. In order to obtain the discriminant function, a genetic algorithm, a neural network, and discriminant analysis are used (see Patent Document 2). Then, the document is divided into presentation units based on the identified cover.
(D) The presentation is segmented according to the time schedule described in the schedule management tool or the like.
(E) Focusing on the fact that presentation documents often use different formats (design templates) for each presenter, a group of document images having a common format is determined as a group of presentation documents.

タイトルや発表者氏名などの抽出技術としては下記のものがある。
(a)タイトルなどの領域が固定されている文書を対象とし、固定領域の文字列をタイトルとして抽出する(特許文献3参照)。
(b)色マーカや縁取りなどで抽出すべき文字列をマーキングして、マーキングされた領域をOCRで抽出する(特許文献4参照)。
(c)認識対処のレイアウト構造と「タイトル」、「著者」、「本文」などの論理構造の対応関係を表現する構造モデルを規定しておき、文書画像の領域分割結果と構造モデルをマッチングさせて、「タイトル」、「著者」、「本文」領域を識別抽出する(特許文献5参照)。
(d)文字及び文字列を囲む矩形枠の諸特徴から「タイトルらしさ」を算定し、閾値を超えたものをタイトルとして抽出する(特許文献6参照)。
特開2002−109099号 特開2001−28041号 特開昭64−46873号 特開平1-150964号 特開平5-342326号 特開平9-134406号
Extraction techniques such as title and presenter name include the following.
(A) For a document in which a region such as a title is fixed, a character string in the fixed region is extracted as a title (see Patent Document 3).
(B) A character string to be extracted is marked by a color marker or a border, and the marked area is extracted by OCR (see Patent Document 4).
(C) A structural model that expresses the correspondence between the layout structure for coping recognition and the logical structure such as “title”, “author”, and “text” is defined, and the region segmentation result of the document image is matched with the structural model. Thus, the “title”, “author”, and “text” areas are identified and extracted (see Patent Document 5).
(D) “Likeness of title” is calculated from various features of a rectangular frame surrounding a character and a character string, and those exceeding a threshold are extracted as titles (see Patent Document 6).
JP 2002-109099 A JP 2001-28041 A JP-A-64-46873 JP-A-1-150964 JP-A-5-342326 JP-A-9-134406

本発明の第1の目的は、文書画像取得装置等を用いて画像データとして取得されたプレゼンテーション等の文書画像を、どのような文書書式をもった文書でも発表ごとに精度良く分類することができる文書画像取得装置を提供することにある。   A first object of the present invention is to classify a document image such as a presentation acquired as image data using a document image acquisition device or the like with high accuracy for each presentation in any document format. The object is to provide a document image acquisition apparatus.

本発明の第2の目的は、分類された文書画像に対して発表者単位に索引情報を精度良く付与することができる文書画像取得装置を提供することにある。   A second object of the present invention is to provide a document image acquisition apparatus capable of accurately assigning index information for each presenter to a classified document image.

課題を解決するために、本発明の第1の態様の文書画像取得装置は、発表者の説明の進行に応じて表示内容が変化する文書の表示出力信号に基づいて文書画像を取得する取得手段と、表示出力信号の有無を検出する検出手段と、検出手段の検出結果に基づいて、取得手段で取得した文書画像に対し発表者単位の文書画像の区切りを判断する判断手段とを具備する。   In order to solve the problem, the document image acquisition apparatus according to the first aspect of the present invention acquires an image unit based on a display output signal of a document whose display contents change according to the progress of the presenter's explanation. And detecting means for detecting the presence / absence of a display output signal, and determining means for determining a delimiter of the document image for each presenter with respect to the document image acquired by the acquiring means based on the detection result of the detecting means.

本発明の第2の態様の文書画像取得装置は、第1の態様の判断手段の判断結果に基づいて取得手段で取得した文書画像を分類する分類手段を具備するものである。   The document image acquisition apparatus according to the second aspect of the present invention includes a classification unit that classifies the document image acquired by the acquisition unit based on the determination result of the determination unit according to the first aspect.

本発明の第3の態様の文書画像取得装置は、第2の態様の分類手段は、文書画像に対する、発表者単位での区切りを示す画像を文書画像間に挿入することを特徴とするものである。   The document image acquisition apparatus according to the third aspect of the present invention is characterized in that the classification means according to the second aspect inserts an image indicating a delimiter for each presenter between document images. is there.

本発明の第4の態様の文書画像取得装置は、第2の態様の分類手段は、発表者単位の文書画像群と他の発表者単位の文書画像群との区切りを識別することを特徴とするものである。   The document image acquisition apparatus according to a fourth aspect of the present invention is characterized in that the classification means according to the second aspect identifies a break between a document image group of a presenter unit and a document image group of another presenter unit. To do.

本発明の第5の態様の文書画像取得装置は、第1の態様の取得手段で取得した文書画像から発表者単位の属性情報を抽出する抽出手段と、抽出手段で抽出した属性情報を分類手段の分類結果の文書画像群に索引情報として付与する付与手段とを具備するものである。   According to a fifth aspect of the present invention, there is provided a document image acquisition apparatus, an extraction unit that extracts attribute information for each presenter from a document image acquired by the acquisition unit of the first aspect, and a classification unit that classifies the attribute information extracted by the extraction unit. Providing means for assigning to the document image group of the classification result as index information.

本発明の第6の態様の文書画像取得装置は、発表者の説明の進行に応じて表示内容が変化する文書の表示出力信号に基づいて文書画像を取得する取得手段と、会議開催情報及び議事録の少なくとも1つを入力する入力手段と、入力手段の入力内容から発表者名及びタイトル名の少なくとも一方を含む発表者単位の属性情報を抽出する第1の抽出手段と、第1の抽出手段の抽出結果に基づいて、取得手段で取得した文書画像に対し発表者単位の文書画像の区切りを判断する判断手段とを具備するものである。   According to a sixth aspect of the present invention, there is provided a document image acquisition apparatus, an acquisition unit that acquires a document image based on a display output signal of a document whose display content changes according to the progress of an explanation by a presenter, meeting holding information, and an agenda Input means for inputting at least one of the records, first extraction means for extracting attribute information for each presenter including at least one of the presenter name and title name from the input content of the input means, and first extraction means And determining means for determining the delimiter of the document image for each presenter with respect to the document image acquired by the acquiring means.

本発明の第7の態様の文書画像取得装置は、第6の態様の判断手段の判断結果に基づいて取得手段で取得した文書画像を分類する分類手段を具備するものである。   A document image acquisition apparatus according to a seventh aspect of the present invention includes a classification unit that classifies the document image acquired by the acquisition unit based on the determination result of the determination unit according to the sixth aspect.

本発明の第8の態様の文書画像取得装置は、取得手段で取得した文書画像から発表者名及びタイトル名の少なくとも一方を含む発表者単位の属性情報を抽出する第2の抽出手段と、抽出手段で抽出した属性情報を分類手段の分類結果の文書画像群に索引情報として付与する付与手段とを具備するものである。   A document image acquisition apparatus according to an eighth aspect of the present invention includes: a second extraction unit that extracts attribute information for each presenter including at least one of a presenter name and a title name from a document image acquired by the acquisition unit; Means for assigning the attribute information extracted by the means to the document image group of the classification result of the classification means as index information.

本発明の第9の態様の文書画像取得装置は、第1の態様乃至第8の態様における文書画像がスライド画像であるものである。   A document image acquisition apparatus according to a ninth aspect of the present invention is such that the document image in the first to eighth aspects is a slide image.

本発明の第1及び第6の態様の構成によれば、文書書式よらず、発表者ごとに区切ることができるので、精度良く発表者単位に分類することが可能となる。第5及び第8の態様の構成によれば、分類された文書画像に対して発表者単位に索引情報を精度良く付与することができる。   According to the configurations of the first and sixth aspects of the present invention, it is possible to divide by presenter regardless of the document format, and thus it is possible to classify the presenter unit with high accuracy. According to the configurations of the fifth and eighth aspects, index information can be given to the classified document images with high accuracy in units of presenters.

(第1実施形態)
以下、本発明の最良の実施形態について図面を参照して説明する。
本発明の第1実施形態に係る文書画像取得装置は、文書画像取得装置によって取得された文書画像群を、発表単位で(発表の開始から発表終了まで)区分するための装置である。まず、本発明の第1実施形態に係る文書画像取得装置について概説する。
(First embodiment)
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, exemplary embodiments of the invention will be described with reference to the drawings.
The document image acquisition apparatus according to the first embodiment of the present invention is an apparatus for classifying the document image group acquired by the document image acquisition apparatus in units of presentation (from the start of the presentation to the end of the presentation). First, the document image acquisition apparatus according to the first embodiment of the present invention will be outlined.

第1実施形態に係る文書画像取得装置(表示画面記録装置)4は、発表者のパーナルコンピュータ(PC)のディスプレイに表示された画面イメージ、即ち表示出力信号(映像信号、例えばRGB信号)を取り込んで記録する装置である。図1では、表示画面記録装置4と記載されている。図1に示すように、プレゼン用PC1からプロジェクターなどの表示装置3に送出するRGB信号を、信号分配器2で分配して表示画面記録装置4に取り込む。後で詳しく説明するが、表示画面記録装置内でRGB信号から画面イメージを形成し、それを保存することができる(詳細は、特開2006-127518号を参照)。   The document image acquisition device (display screen recording device) 4 according to the first embodiment receives a screen image displayed on the display of the presenter's personal computer (PC), that is, a display output signal (video signal, for example, RGB signal). It is a device that captures and records. In FIG. 1, the display screen recording device 4 is described. As shown in FIG. 1, RGB signals sent from the presentation PC 1 to the display device 3 such as a projector are distributed by the signal distributor 2 and taken into the display screen recording device 4. As will be described in detail later, it is possible to form a screen image from RGB signals in a display screen recording apparatus and store it (refer to JP-A-2006-127518 for details).

発表交替を識別する手法、即ち発表者単位の文書画像の区切りを識別するための手法について説明する。
図2は、発表交替の識別(発表者単位の文書画像の区切りの識別)を説明するための図である。
一般に、会議などでプレゼンテーション(説明)を行なう場合、発表者は作成済みの発表資料を自分のノートPCのディスプレイ上に表示し、これを会議に参加した人たちに表示するために自分のノートPCとプロジェクターとをVGAケーブルで接続してから外部の表示装置3への表示命令を実行して、RGB信号を表示装置3に送出して表示装置3で表示させる。
A method for identifying a change in presentation, that is, a method for identifying a break of a document image in units of presenters will be described.
FIG. 2 is a diagram for explaining identification of a change of presentation (identification of a document image break for each presenter).
In general, when a presentation (explanation) is given at a conference, the presenter displays the created presentation material on the display of his notebook PC and displays it on the notebook PC to display it to those who participated in the conference. And a projector are connected with a VGA cable, a display command to an external display device 3 is executed, and RGB signals are sent to the display device 3 to be displayed on the display device 3.

自分の持ち込みノートPC1でプレゼンテーションを行なう場合は、このように表示装置3とPC1とのケーブル接続、もしくはワイヤレス接続の作業を伴う。図2では3名の発表者(甲、乙、丙)が自分の持ち込みノートPCを使って順次発表を行なっている様子を示しているが、このときのVGA信号(RGB信号)の状態は、発表者甲の発表が終了した時点(t1)と発表者乙の発表が開始される時点(t2)までの期間は、停止状態になる。   In the case of giving a presentation with his / her notebook PC 1, the cable connection or wireless connection between the display device 3 and the PC 1 is involved. In FIG. 2, three presenters (Exhibit A, Otsu, and Rin) are making presentations sequentially using their own notebook PCs. At this time, the state of the VGA signal (RGB signal) is as follows: The period from the time when the presenter's presentation ends (t1) to the time when the presenter's presentation starts (t2) is stopped.

同様に、発表者甲の発表が終了した時点(t3)と発表者丙の発表が開始される時点(t4)までの期間は、停止状態になる。このようにVGA信号の停止状態を検出して記録すれば、発表交替に対応づけて、表示画面記録装置によって記録蓄積された文書画像を区切ることが可能となる。   Similarly, the period from the time point when the presenter's presentation ends (t3) to the time point when the presenter's presentation starts (t4) is stopped. Thus, if the stop state of the VGA signal is detected and recorded, the document image recorded and accumulated by the display screen recording device can be divided in association with the presentation change.

即ち、これらの停止状態中に発表交替が行なわれたとすれば、t0からt1までの期間に取得された文書画像は発表者甲に、t2からt3までの期間に取得された文書画像は発表者乙に、t4からt5までの期間に取得された文書画像は発表者丙に対応付けることができる。   In other words, if the presentation change is performed during these stopped states, the document image acquired during the period from t0 to t1 is displayed on the presenter and the document image acquired during the period from t2 to t3 is displayed on the presenter. The document image acquired during the period from t4 to t5 can be associated with the presenter.

図2に示すように、RGB信号の停止状態(一定時間内)が検出された場合に、そこで発表交替が行なわれたことを明示するために、区切り画像などを生成して、文書画像とともに記録蓄積することも可能である。   As shown in FIG. 2, when an RGB signal stop state (within a certain period of time) is detected, a delimiter image or the like is generated and recorded together with a document image in order to clearly indicate that a presentation change has occurred. It is also possible to accumulate.

本実施形態係る文書画像取得装置(表示画面記録装置)の詳細構成を説明する。
図3に本発明の実施形態に係る表示画面記録装置4の基本構成を示す。ここで、図3において説明する各機能ブロックは、CPU等の処理装置あるいはそこで実行されるプログラム、およびDRAM等の半導体記憶装置やハードディスク等の記憶装置等により実現される。以下の説明においても同様とする。
A detailed configuration of the document image acquisition apparatus (display screen recording apparatus) according to the present embodiment will be described.
FIG. 3 shows a basic configuration of the display screen recording apparatus 4 according to the embodiment of the present invention. Here, each functional block described in FIG. 3 is realized by a processing device such as a CPU or a program executed therein, a semiconductor storage device such as a DRAM, or a storage device such as a hard disk. The same applies to the following description.

VGA信号ON/OFF検出部401は、本発明の検出手段の一例であって、図示しないVGA信号分配器から分配されて送信されるVGA信号のON/OFF状態を検出する。
時間記録部402は、VGA信号ON/OFF検出部401によって検出されたVGA信号のON/OFF(オン/オフ)状態の開始時刻を記録する。さらに後述する変化画像抽出部404で抽出された変化画像の取得時間、発表交替判定部410で発表交替が生じたと判定された場合の発表交替時間を計時し、記録する。
The VGA signal ON / OFF detection unit 401 is an example of a detection unit according to the present invention, and detects an ON / OFF state of a VGA signal distributed and transmitted from a VGA signal distributor (not shown).
The time recording unit 402 records the start time of the ON / OFF state of the VGA signal detected by the VGA signal ON / OFF detection unit 401. Furthermore, the acquisition time of the change image extracted by the change image extraction unit 404 (to be described later), and the announcement change time when the announcement change determination unit 410 determines that the announcement change has occurred are counted and recorded.

画像サンプリング部403は、本発明の取得手段の一例であって、VGA信号が検出された場合に、規定の時間周期でVGA信号を取得し、信号をデジタル化したうえで画像を形成し、図示しない記憶領域に一時的に保存する。
変化画像抽出部404は、画像サンプリング部403で新しく形成された画像とその直前に抽出された画像とを比較し、両者に違いがある場合には、新しく形成された画像を格納対象画像として選択する。
The image sampling unit 403 is an example of an acquisition unit of the present invention. When a VGA signal is detected, the image sampling unit 403 acquires the VGA signal at a predetermined time period, digitizes the signal, forms an image, Temporarily save to a storage area that does not.
The change image extraction unit 404 compares the image newly formed by the image sampling unit 403 with the image extracted immediately before it, and if there is a difference between them, the newly formed image is selected as the storage target image. To do.

テキスト情報抽出部405は、本発明の抽出手段の一例であって、格納対象画像として選択された文書画像に対して文字認識処理(OCR)を適用することによってテキスト情報を抽出する。なお、この処理は、テキスト情報にもとづいて記録蓄積した文書画像の検索や、文書画像に記載された発表者の氏名や発表の題目(タイトル)を分類された文書画像群に索引として付与するために行なうものである。   The text information extraction unit 405 is an example of the extraction unit of the present invention, and extracts text information by applying a character recognition process (OCR) to a document image selected as a storage target image. This processing is performed to search document images recorded and accumulated based on text information, and to assign the presenter's name and title of presentation described in the document image as an index to the classified document image group. To do.

サムネイル生成部406は、格納対象画像として選択された文書画像のサムネイル画像を生成する。
インデックスファイル作成部407は、格納対象画像とその取得時間、発表交替とそれが生じた時間、格納対象画像から抽出したテキスト情報、さらにサムネイル画像などを関連付けたインデックスファイルを作成する(ファイル構成については後述する)。
The thumbnail generation unit 406 generates a thumbnail image of the document image selected as the storage target image.
The index file creation unit 407 creates an index file that associates the storage target image and its acquisition time, the presentation change and the time when it occurred, text information extracted from the storage target image, and a thumbnail image (for the file structure). Will be described later).

発表交替判定部410は、本発明の判断手段の一例であって、VGA信号ON/OFF検出部401で検出されたVGA信号ON/OFF状態とそれらの時間情報にもとづいて発表交替の有無を判定する。すなわち、VGA信号がON状態からOFF状態への変化(信号停止変化)と、その後のOFF状態からON状態への変化(信号再開変化)の2つの変化が観察された場合に発表交替が生じたと判定される。なお、信号停止変化から次に起こる信号再開変化の間隔時間を計時して、それがある時間的な閾値の範囲内(たとえば10分間)で信号停止変化と信号再開変化の2つの変化が観察された場合に発表交替が生じたと判定するが、閾値を超えた範囲で信号停止変化と信号再開変化の2つの変化が観察された場合には新たな会議が開始されそこで発表資料が表示されたと判定するように定義することも可能である。発表交替判定部410は、発表交替が生じたと判定した場合にはその発表交替イベントとその時間(信号停止時刻と信号再開時刻)を記録し、その情報を、発表交代識別画像生成部411に送る。   The presentation change determination unit 410 is an example of a determination unit of the present invention, and determines whether or not there is a change of presentation based on the VGA signal ON / OFF state detected by the VGA signal ON / OFF detection unit 401 and their time information. To do. In other words, when the VGA signal was observed to change two times, the change from the ON state to the OFF state (signal stop change) and the subsequent change from the OFF state to the ON state (signal resumption change), an announcement change occurred. Determined. It should be noted that an interval time between the signal stop change and the next signal restart change is counted, and two changes of the signal stop change and the signal restart change are observed within a certain temporal threshold range (for example, 10 minutes). It is determined that a presentation change has occurred, but if two changes of signal stop change and signal restart change are observed within the range exceeding the threshold, it is determined that a new meeting is started and the presentation material is displayed there It is also possible to define When it is determined that an announcement change has occurred, the announcement change determination unit 410 records the announcement change event and its time (signal stop time and signal restart time), and sends the information to the announcement change identification image generation unit 411. .

発表交代識別画像生成部411は、本発明の分類手段の一例であって、発表の交代を明示する画像を作成する。この画像は、例えば、「ここで発表者が替わりました」といったメッセージを含んだ画像でよく、これらを逐次的に取得された文書画像のサムネイル画像に挟み込んで表示することによって、発表の区切りをユーザが一目で把握できるようにする。   The presentation change identification image generation unit 411 is an example of a classification unit according to the present invention, and creates an image that clearly indicates a change of presentation. This image may be, for example, an image including a message such as "Here the presenter has changed", and by displaying these images sandwiched between the thumbnail images of the document images that have been sequentially acquired, Enable users to see at a glance.

データ格納部408は、変化画像抽出部404において抽出した文書画像、サムネイル生成部406において生成されたサムネイル画像、発表交替識別画像生成部411で生成された発表交替識別画像、インデックスファイル作成部407で作成されたインデックスファイルなどの情報を格納する。   The data storage unit 408 includes a document image extracted by the change image extraction unit 404, a thumbnail image generated by the thumbnail generation unit 406, a presentation replacement identification image generated by the presentation replacement identification image generation unit 411, and an index file generation unit 407. Stores information such as created index files.

ネットワークIF部409は、表示画面記録装置4をインターネットなどのネットワークへ接続するインタフェースである。ユーザは、各自のコンピュータからここで述べた表示画面記録装置4のURLを指定し、装置内のデータ格納部408に格納された情報にアクセスし、それらを表示することができる。   The network IF unit 409 is an interface for connecting the display screen recording device 4 to a network such as the Internet. The user can specify the URL of the display screen recording device 4 described here from his / her computer, access the information stored in the data storage unit 408 in the device, and display them.

本実施形態におけるインデックスファイルの例を次に説明する。
図4に、インデックスファイル作成部407で作成されるインデックスファイルの構成例を示す。表中Rstart(イベントID0001)は、本発明の表示画面記録装置の本体スイッチがONにされ、最初にVGA信号が検出された場合に記録される。イベントが発生するたびに、インデックスファイルはイベントデータがデータ領域に加えられ更新される。
An example of an index file in the present embodiment will be described next.
FIG. 4 shows a configuration example of the index file created by the index file creation unit 407. Rstart (event ID 0001) in the table is recorded when the main body switch of the display screen recording apparatus of the present invention is turned on and a VGA signal is first detected. Each time an event occurs, the index file is updated by adding event data to the data area.

本実施形態におけるプレゼンテーションの交替(発明者単位の文書画像の区切り)を明示したサムネイル画像の表示例について説明する。
図5は、インターネットを介してユーザに提供される文書画像の表示例である。記録順にしたがってサムネイル画像を左上から右下にかけて横並びで配列するともに、発表者が交代した場所に「発表者が替わりました」という発表交替識別画像が挿入されている。このような表示を行なえば、どの文書からどの文書までが同じプレゼンテーションに含まれるのかを容易に識別することができる。もちろん、サムネイル画像をクリックすれば、画像を拡大表示してみることができる点は、既存の技術と同様である。
A display example of thumbnail images in which the change of presentation (delimiter of document image in units of inventor) is clearly described in the present embodiment will be described.
FIG. 5 is a display example of a document image provided to the user via the Internet. In accordance with the recording order, the thumbnail images are arranged side by side from the upper left to the lower right, and the announcement replacement identification image “presenter has changed” is inserted at the place where the presenter has changed. By performing such display, it is possible to easily identify from which document to which document is included in the same presentation. Of course, if the thumbnail image is clicked, the image can be enlarged and displayed as in the existing technology.

なお、この表示例は一例にすぎず、例えば、発表交替識別画像を挿入することなく、サムネイル画像の縁の色やサムネイル画像の背景色をプレゼンテーションごとに変えたり、発表ごとにサムネイル画像を配列しなおしたりしてもよい。   Note that this display example is merely an example.For example, the edge color of the thumbnail image and the background color of the thumbnail image are changed for each presentation without inserting the presentation change identification image, or the thumbnail images are arranged for each presentation. It may be corrected.

これまで述べてきた実施形態では、取得した文書画像を発表単位(発表者単位)で区分して表示するものであった。ここで、発表単位に分離された各文書画像群に、発表者の氏名と発表の題目(プレゼンテーションのタイトル)を属性情報として付与することができれば、これらの属性情報にもとづく検索や分類が可能となり、さらにサムネイル画像にマウスポインターをあわせるだけでこれらの属性情報を表示することができたりして便利である。以下では、文書画像から発表者の氏名と発表の題目を抽出して発表単位に分離された各文書画像群に付与するように改良した表示画面記録装置について簡単に説明する。   In the embodiments described so far, the acquired document images are displayed by being classified by presentation unit (presenter unit). If the name of the presenter and the title of the presentation (presentation title) can be assigned as attribute information to each document image group separated into presentation units, search and classification based on these attribute information becomes possible. In addition, it is convenient to display these attribute information by simply hovering the mouse pointer over the thumbnail image. Hereinafter, a display screen recording apparatus improved so as to extract the name of the presenter and the title of the presentation from the document image and assign it to each document image group separated into presentation units will be briefly described.

図6は、改良した文書画像取得装置(表示画面記録装置4B)の機能ブロック図である。なお、図3に示される文書画像取得装置の各部と同様の構成には同一符号を付し、その説明を省略する。
VGA信号のON/OFF状態の変化からプレゼンテーションの際に表示された文書を発表単位ごとに分類する方法は、上述した表示画面記録装置4で説明した方法と同じである。
FIG. 6 is a functional block diagram of the improved document image acquisition device (display screen recording device 4B). The same components as those in the document image acquisition apparatus shown in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted.
The method of classifying documents displayed at the time of presentation based on the change of the ON / OFF state of the VGA signal for each presentation unit is the same as the method described in the display screen recording apparatus 4 described above.

次にタイトル・発表者氏名抽出処理の流れについて説明する。
タイトル・発表者氏名抽出部412は、本発明の第1又は第2の抽出手段の一例であって、データ格納部408に蓄積された発表単位で分離された文書画像群ごとに、発表の題目と発表者氏名を抽出する処理を行なう。プレゼンテーション文書は、他の文書と異なり表紙とそれ以外のページの書式が異なり、典型的には、タイトルは表紙の文書画像上の中央やや上部領域に最も大きな文字列で記載されるが、表紙以外の文書ページでは、セクションタイトルが文書画像の上部に最も大きな文字列で記載される。
Next, the flow of title / presenter name extraction processing will be described.
The title / presenter name extraction unit 412 is an example of the first or second extraction unit of the present invention, and the title of the presentation is separated for each group of document images separated in the presentation unit accumulated in the data storage unit 408. And the process of extracting the name of the presenter. The presentation document differs from other documents in the format of the cover and other pages. Typically, the title is written in the largest character string in the middle and upper area of the cover document image. In the document page, the section title is described by the largest character string at the top of the document image.

したがって、この書式上の違いを利用して表紙を検出した後、そこからタイトルを抽出することができる。発表者の氏名の抽出は、タイトルが抽出された文書画像に対してインデキシング(索引情報付与)されたテキスト情報を名前(姓・名)の辞書と照合することで検出できる。以下にその処理の流れを説明する。   Therefore, after detecting the cover using the difference in format, the title can be extracted therefrom. The name of the presenter can be extracted by comparing text information indexed (index information added) to the document image from which the title is extracted with a dictionary of first names (first name and last name). The processing flow will be described below.

Step1.
CPUは、同じ発表として分類された文書群から最初に表示された文書画像を選択する。
Step2.
CPUは、文書画像から一行ごとに分離された文字列矩形をすべて抽出して、それらの高さを計測し、高さが最大の文字列矩形を選択する。
Step3.
CPUは、文書画像内の最大の文字列矩形の位置情報(左上点の座標と右下点の座標)を獲得する。
Step4.
CPUは、Step3で獲得した2つの座標が、表紙のタイトル領域として規定された領域内にあるか、それ以外の領域にあるかを判定する。
Step5.
CPUは、2つの座標が、表紙のタイトル領域として規定された領域内にあると判定された場合、その文書画像を表紙と判断し、Step6に進む。表紙と判断されなかった場合には、次に表示された文書を選択して、Step2からStep5を繰り返す。すべての文書画像に対して処理を行なっても、表紙と判断される文書画像がなければ、タイトルがないことを示す識別情報を生成し、これを一時記憶に記録する。
Step1.
The CPU selects the document image displayed first from the document group classified as the same presentation.
Step 2.
The CPU extracts all the character string rectangles separated for each line from the document image, measures their height, and selects the character string rectangle having the maximum height.
Step 3.
The CPU obtains position information (the coordinates of the upper left point and the lower right point) of the maximum character string rectangle in the document image.
Step 4.
The CPU determines whether the two coordinates acquired in Step 3 are in the area defined as the title area of the cover or in any other area.
Step 5.
If it is determined that the two coordinates are within the area defined as the title area of the cover, the CPU determines that the document image is the cover and proceeds to Step 6. If it is not determined to be a cover, the next displayed document is selected, and Step 2 to Step 5 are repeated. Even if all the document images are processed, if there is no document image determined to be a cover, identification information indicating that there is no title is generated and recorded in the temporary storage.

Step6.
CPUは、最大文字列矩形内の文字を抽出し、タイトルとして一時的に記憶する。
Step7.
CPUは、タイトルが抽出された文書画像に対して付与されたすべてのテキスト情報(テキスト情報抽出部405で抽出済み)を名前辞書と照合し、照合した文字列を抽出する。名前辞書と照合するテキスト情報がなければ、発表者氏名が抽出されなかったことを示す識別情報を生成して、それを一時記憶に記録する。
Step8.
CPUは、抽出した姓あるいは姓名の文字列に続いて、「コンマ(,)、点(、)、アンド(&)」以外の文字が後続するか否かを調べ、後続する場合には、発表者氏名ではないと判定し、発表者氏名が抽出されなかったことを示す情報を生成して、それを一時的に記録する。一方、後続しなければ、発表者氏名であると判定し、抽出した文字列を発表者氏名として一時記憶に記録する。
Step 6.
The CPU extracts characters within the maximum character string rectangle and temporarily stores them as titles.
Step 7.
The CPU collates all text information (extracted by the text information extraction unit 405) assigned to the document image from which the title has been extracted with the name dictionary, and extracts the collated character string. If there is no text information to collate with the name dictionary, identification information indicating that the presenter's name has not been extracted is generated and recorded in the temporary storage.
Step8.
The CPU checks whether or not characters other than “comma (,), dot (,), and (&)” follow the extracted surname or surname name string, and if so, announces It is determined that the name is not the presenter name, and information indicating that the presenter name has not been extracted is generated and temporarily recorded. On the other hand, if it does not follow, the name of the presenter is determined and the extracted character string is recorded in the temporary storage as the name of the presenter.

次にインデックスファイル更新処理について説明する。
インデックスファイル更新処理部413は、本発明の付与手段の一例であって、以上述べたタイトル・発表者氏名抽出処理で一時記憶に記録された情報(タイトル情報、タイトルなし、発表者氏名、発表者氏名なし)を、同じ発表として分類された文書すべてに対して属性情報として付与する。これはインデックスファイルに、タイトルと発表者氏名に関する属性情報のデータエントリー欄を付加し、そこに上記の情報を書き込めばよい。
Next, the index file update process will be described.
The index file update processing unit 413 is an example of the assigning unit of the present invention, and is information (title information, no title, presenter name, presenter) recorded in the temporary storage in the title / presenter name extraction process described above. (No name) is assigned as attribute information to all documents classified as the same announcement. This can be done by adding a data entry field for attribute information about the title and the name of the presenter to the index file and writing the above information there.

次に表示メッセージ作成部414について説明する。
表示メッセージ作成部414は、発表単位ごとに配列表示したサムネイル画像群が、それぞれ誰による、どのような演題についての発表資料かがわかるように、インデックスファイルに記録されたタイトルまたは発表者氏名を利用してユーザに明示するためのメッセージを作成して、データ格納部408に格納する。図示しない表示制御部は、これらのメッセージをサムネイル画像群に対応付けて表示する。図7はその表示例である。タイトルや発表者氏名の抽出についての従来技術については、冒頭で指摘した、これらの方法を利用してもよい。
Next, the display message creation unit 414 will be described.
The display message creation unit 414 uses the title or the name of the presenter recorded in the index file so that the thumbnail image group arranged and displayed for each presentation unit can know the presentation material about what subject by which person. Then, a message for clearly showing to the user is created and stored in the data storage unit 408. A display control unit (not shown) displays these messages in association with the thumbnail image group. FIG. 7 shows a display example. For the conventional technology for extracting the title and the name of the presenter, these methods pointed out at the beginning may be used.

(第2実施形態)
続いて、本発明の第2実施形態について説明する。
第2実施形態については、第1実施形態とは完全に別方式の発表交替の検出手法であり、そのポイントは、アジェンダや議事録に記載された会議書誌情報(会議名称、会議開催日時、会議場所、発表者と演題(プレゼンテーションのタイトル))を抽出した上で、プレゼンテーション中に取得した文書画像の文字情報と照合することで、発表交替直後の「先頭スライド」を同定するともに、発表者と演題を同じプレゼンテーションと見なされたスライド群に属性情報として付与するというものである。従来の方法が、文書画像という単一の情報源のみ利用して発表者と演題の抽出を試みてきたのに対して、ここではアジェンダや議事録を参照することで、抽出精度を高めた点に特徴がある。
(Second Embodiment)
Subsequently, a second embodiment of the present invention will be described.
The second embodiment is a method of detecting a change of announcement that is completely different from the first embodiment, and the point is meeting bibliographic information (conference name, meeting date and time, meeting date described in the agenda and minutes) By extracting the location, presenter, and presentation (presentation title)), the text information in the document image obtained during the presentation is collated to identify the “first slide” immediately after the presentation change, The title is given as attribute information to a group of slides regarded as the same presentation. Whereas conventional methods have attempted to extract presenters and abstracts using only a single information source called document images, here the accuracy of extraction has been improved by referring to the agenda and minutes. There is a feature.

図8に、第2実施形態における表示画面記録装置の基本構成図を示した。
1はPCである。3は表示装置である。5は第2実施形態の表示画面記録装置である。発表者用のPC1の映像信号(RGB信号)は信号分配器2を使って、表示装置3と表示画面記録装置5とに送られる。
FIG. 8 shows a basic configuration diagram of a display screen recording apparatus in the second embodiment.
1 is a PC. Reference numeral 3 denotes a display device. Reference numeral 5 denotes a display screen recording apparatus according to the second embodiment. The video signal (RGB signal) of the PC 1 for the presenter is sent to the display device 3 and the display screen recording device 5 using the signal distributor 2.

表示装置3はPC1から送られたRGB信号を画像化してスクリーンなどにその映像を投影する。一方、PC1から送られたRGB信号は、表示画面記録装置5の画像形成部501に送られ、RGB画像が形成される。   The display device 3 images the RGB signal sent from the PC 1 and projects the image on a screen or the like. On the other hand, the RGB signal sent from the PC 1 is sent to the image forming unit 501 of the display screen recording device 5 to form an RGB image.

画像形成部501は、一定周期(たとえば1秒ごと)に画像を形成していく。
変化画面検出部502は、新たに画像を形成するたびに直前に獲得した画像と比較し、2枚の画像に変化があるかどうかを検出する。変化があるかどうかの判定は、変化量があらかじめ設定した画素数(たとえば5000画素)に及ぶか否かで判定すればよい。変化画面検出部502で変化が検出された画像は、データベース509に格納されるものとして、以下の一連の処理を受ける。
The image forming unit 501 forms images at a constant cycle (for example, every 1 second).
The change screen detection unit 502 detects whether there is a change in the two images by comparing with the image acquired immediately before each new image formation. Whether or not there is a change may be determined based on whether or not the amount of change reaches a preset number of pixels (for example, 5000 pixels). The image whose change is detected by the change screen detection unit 502 is subjected to the following series of processing as being stored in the database 509.

まず、タイムスタンプ部503で時間情報(年月日時分秒)が与えられる。つぎに、サムネイル生成部504で、画像形成部501で形成されたRGB画像にもとづいて、ブラウザーで表示する際のサムネイル(縮小画像)が生成される。メモリサイズを低減する目的で、フォーマット変換部505で、RGB画像をJPEG画像にフォーマット変換する。文字認識部506では、JPEG画像からテキスト情報を抽出し、例えば単語や形態素ごとに分節化する。レイアウト情報抽出部507では、文字認識部506で抽出された各単語や形態素がスライドのどこにあるのか、それらの位置座標(左上座標と右下座標)および文字サイズ情報を獲得する。   First, time information (year / month / day / hour / minute / second) is given by the time stamp unit 503. Next, the thumbnail generation unit 504 generates a thumbnail (reduced image) to be displayed by the browser based on the RGB image formed by the image forming unit 501. In order to reduce the memory size, the format conversion unit 505 converts the format of the RGB image into a JPEG image. In the character recognition unit 506, text information is extracted from the JPEG image and segmented into, for example, words or morphemes. The layout information extraction unit 507 acquires the position coordinates (upper left coordinates and lower right coordinates) and character size information of each word and morpheme extracted by the character recognition unit 506 on the slide.

索引ファイル作成部508は、以上の一連の処理で獲得した情報を画像(ID)と対応付けたかたちの索引情報を作成し、データベース509に画像やサムネイルとともに格納する。Webサーバー510はデータベース内の情報をクライアントの要求に応じて通信網を介して配信する。   The index file creation unit 508 creates index information in the form of associating the information acquired by the above-described series of processing with an image (ID), and stores it in the database 509 together with images and thumbnails. The Web server 510 distributes information in the database via a communication network in response to a client request.

アジェンダ/議事録登録部511は、アジェンダや議事録をデータベース509に登録するためのユーザインターフェースである。議事録の登録は会議(発表)後であるが、アジェンダの場合、発表前の場合もありえる。この登録操作は、スライド画像の収録とは別の時期に行われる。図9に示すように、本実施形態の場合、メニュー画面を利用して、アジェンダ/議事録かの識別子をつけてデータ格納部に対して文書登録を行う。表示構成については説明しないが、登録されたアジェンダまたは議事録は、プレゼンテーション文書画像と同じ画面に表示され、参照することができる。   The agenda / minutes registration unit 511 is a user interface for registering the agenda and minutes in the database 509. The minutes are registered after the meeting (announcement), but in the case of an agenda, it may be before the announcement. This registration operation is performed at a different time from the slide image recording. As shown in FIG. 9, in the case of the present embodiment, a document is registered in the data storage unit with an agenda / meeting identifier using a menu screen. Although the display configuration is not described, the registered agenda or minutes are displayed on the same screen as the presentation document image and can be referred to.

スライド分類情報自動付与部512は、アジェンダ/議事録登録部511によって登録されたアジェンダや議事録を利用して、すでにキャプチャされた画像(スライド)に対して分類情報(プレゼンテーションID、会議名称、会議室、プレゼンテーションのタイトル、発表者名などの会議書誌情報)を自動付与するための処理の実行指示をユーザが行うためのユーザインターフェースである。   The slide classification information automatic assigning unit 512 uses the agenda and minutes registered by the agenda / minute registering unit 511 to classify information (presentation ID, meeting name, meeting, etc.) on an already captured image (slide). This is a user interface for a user to give an instruction to execute a process for automatically assigning a room, presentation title, conference bibliographic information such as the name of the presenter).

本実施形態の場合、図9に示すように、メニュー内の項目内に「会議書誌情報を与える」という項目が用意され、利用者は、「マニュアル入力」「アジェンダを利用」「議事録を利用」の3つのオプションの一つを選択することができる。「アジェンダを利用」もしくは「議事録を利用」が選択された場合、データベース509に登録されたアジェンダや議事録のファイルリストが表示されて、それらのどれを利用して分類処理を行うかを指定するように要求する。   In the case of the present embodiment, as shown in FIG. 9, an item “giving conference bibliographic information” is prepared in the menu item, and the user uses “manual input” “use agenda” “use minutes” One of three options can be selected. When “Use agenda” or “Use minutes” is selected, the agenda and minutes file list registered in the database 509 is displayed, and which of them is used to specify the classification process Request to do.

アジェンダ/議事録選定部513はそのためのユーザインターフェースを提供するとともに、ユーザによって選定されたアジェンダまたは議事録をデータベース509から検索し、テキスト情報抽出部514に送る。   The agenda / minutes selection unit 513 provides a user interface for that purpose, searches the database 509 for the agenda or minutes selected by the user, and sends it to the text information extraction unit 514.

テキスト情報抽出部514は、アジェンダや議事録からテキスト情報を抽出したうえで、テキスト情報を単語または形態素に分割する。
氏名/タイトル抽出部515は、テキスト情報抽出部514によって抽出されたテキスト情報から氏名/タイトルのペアを抽出する。
レイアウト情報抽出部516は、抽出した氏名/タイトルの文字サイズと位置情報を抽出する。これらの処理の流れについては後で述べる。
The text information extraction unit 514 extracts text information from the agenda and minutes, and then divides the text information into words or morphemes.
The name / title extraction unit 515 extracts a name / title pair from the text information extracted by the text information extraction unit 514.
The layout information extraction unit 516 extracts the extracted name / title character size and position information. The flow of these processes will be described later.

プレゼンテーションセグメンテーション処理部517は、キャプチャされたスライドからタイトルスライド(表紙スライド)を検出することで、スライドを発表者の交代に対応付けて区切るための処理を実行する部分で、氏名・タイトルを含むスライド抽出部5171、先頭スライド同定部5172、最後のスライド同定部5173の3つの部分からなる。   The presentation segmentation processing unit 517 detects the title slide (cover slide) from the captured slide, and executes a process for separating the slide in association with the change of the presenter. The slide including the name and title It consists of three parts: an extraction unit 5171, a head slide identification unit 5172, and a last slide identification unit 5173.

氏名・タイトルを含むスライド抽出部5171は、氏名/タイトル抽出部515によって抽出されたアジェンダもしくは議事録に記載された氏名とタイトルのペアを含むスライドをデータベース509から抽出する。
先頭スライド同定部5172は、氏名・タイトルを含むスライド検出部5171によって検出されたスライドが発表者が最初に表示した先頭スライドか否かを判定し、先頭スライドを同定する。
最後のスライド同定部5173は、先頭スライド同定部5172によって同定された先頭スライドが表示された時間情報にもとづいて最後のスライドを同定する。これらの処理の流れについては、後で詳しく説明する。
A slide extraction unit 5171 including a name / title extracts a slide including a name / title pair described in the agenda or minutes from the name / title extraction unit 515 from the database 509.
The first slide identification unit 5172 determines whether or not the slide detected by the slide detection unit 5171 including the name and title is the first slide displayed first by the presenter, and identifies the first slide.
The last slide identification unit 5173 identifies the last slide based on the time information on which the first slide identified by the first slide identification unit 5172 is displayed. The flow of these processes will be described in detail later.

索引ファイル更新部518は、以上の処理で得た情報にもとづいて、各スライドの索引情報を更新する。詳しく述べれば、索引ファイル更新処理部518は、以下の索引ファイルの追加処理を行う。(1)アジェンダと対応付けられたすべてのスライドに対して、会議名称、会議開催場所などの情報を追加する。(2)先頭スライド抽出処理によって抽出された各「先頭スライド」の時間情報(提示開始時刻)にもとづいて、記録されたスライド画像をプレゼンテーションごとに分離し(各発表の最後のスライドは、次の先頭スライドの直前のスライドと見なす)、各プレゼンテーションに属するスライド画像に特定のプレゼンテーション識別子を与える。(3)同じプレゼンテーション識別子が与えられたスライドに発表者氏名、プレゼンテーションのタイトル(議題)をインデックスファイルに付加する。(4)各「先頭スライド」に対して先頭スライド識別子を与える。   The index file update unit 518 updates the index information of each slide based on the information obtained by the above processing. More specifically, the index file update processing unit 518 performs the following index file addition processing. (1) Information such as a meeting name and a meeting place is added to all slides associated with the agenda. (2) Based on the time information (presentation start time) of each “first slide” extracted by the first slide extraction process, the recorded slide images are separated for each presentation (the last slide of each presentation is A specific presentation identifier is given to a slide image belonging to each presentation. (3) The name of the presenter and the title of the presentation (agenda) are added to the index file on the slide given the same presentation identifier. (4) A head slide identifier is given to each “head slide”.

ここで、上述した氏名/タイトルのペアを含むスライド分類情報(会議書誌情報)の抽出処理の流れについて図10を参照して説明する。
図10は、アジェンダを利用して会議書誌情報を抽出するための処理の流れを概略的に示したものである。
概略を述べれば、アジェンダに対してなされたレイアウト解析結果(文字矩形枠の相対位置)にしたがって、それに近似した書誌情報抽出用テンプレートを選択して文字情報を抽出し、抽出された文字に対して識別/判定ルールを使って、抽出すべき書誌情報か否か、書誌情報のタイプを決定する。
Here, the flow of the extraction processing of the slide classification information (conference bibliographic information) including the name / title pair described above will be described with reference to FIG.
FIG. 10 schematically shows the flow of processing for extracting conference bibliographic information using an agenda.
Briefly, according to the layout analysis result (relative position of the character rectangle frame) made for the agenda, select a bibliographic information extraction template that approximates it and extract character information, and for the extracted characters Using the identification / judgment rule, the type of bibliographic information is determined whether or not it is bibliographic information to be extracted.

プレゼンテーションセグメンテーション処理部517は、以上述べたアジェンダに対する会議書誌情報抽出処理によって抽出されたタイトルと発表者名称のペアを含むスライド(文書画像)を検出することによって、各プレゼンテーションの先頭スライド(表紙スライド)を同定する。すなわち、図11に示すように、各スライドのテキスト情報はOCRによってすでに抽出されてインデックスファイルとして格納されているので、これらのインデックスファイルの情報と、アジェンダに対する会議書誌情報抽出処理によって抽出されたタイトルと発表者名称のペアとをマッチングすることで、先頭スライドを抽出することができる。   The presentation segmentation processing unit 517 detects the slide (document image) including the title and presenter name pair extracted by the conference bibliographic information extraction process for the above-described agenda, and thereby the first slide (cover slide) of each presentation. Is identified. That is, as shown in FIG. 11, since the text information of each slide has already been extracted by OCR and stored as an index file, the information of these index files and the title extracted by the conference bibliographic information extraction process for the agenda And the presenter name pair can be matched to extract the first slide.

先頭スライドを同定する処理の流れを説明すると、以下のようになる。
Step1.
CPUは、アジェンダから抽出した会議書誌情報から、議題(Tn)と名前(Nn)のペアをすべて検出するとともに(図11の例では、「{電子ペーパー、磯村隆}、{光インターコネクション、原田義男}・・・・{次世代環境技術、大山昭}」、ペアの総数をカウントする。
Step2.
CPUは、議題(Tn)と名前(Nn)の各ペアと、各スライド画像の索引(インデックス)情報と順次照合していき、マッチした議題と名前の個数をカウントする(スライド1=議題0、名前0、スライド2=議題1、名前1・・・・・)
The flow of processing for identifying the first slide will be described as follows.
Step1.
The CPU detects all pairs of the agenda (Tn) and name (Nn) from the conference bibliographic information extracted from the agenda (in the example of FIG. 11, “{electronic paper, Takashi Sasamura}, {Hikari Interconnection, Harada Yoshio} ... {Next-generation environmental technology, Akira Oyama} "counts the total number of pairs.
Step2.
The CPU sequentially checks each pair of agenda (Tn) and name (Nn) and index information of each slide image, and counts the number of matched agendas and names (slide 1 = agenda 0, Name 0, Slide 2 = Agenda 1, Name 1 ...)

Step3.
(A)CPUは、Step2で、議題と名前のペアの数がStep1でカウントされたペアの総数と一致したスライド画像があれば(あるいは、完全に一致しなくても所定の閾値を超えた場合)、それを「アジェンダ」のスライドと見なし、「アジェンダスライド」の識別子を与えた上で、後の分析から除去する。
(B)CPUは、Step2で、議題と名前のペアが1組のみ含まれていると判定されたスライド(議題=1、名前=1のスライド)、または議題と名前のペアのいずれかが含まれていると判断されたスライド(議題=0、名前=1のスライド、または議題=1、名前=0のスライド)を「先頭スライド」候補として抽出し、Step4に進む。
Step3.
(A) In Step 2, if there is a slide image in which the number of agenda / name pairs matches the total number of pairs counted in Step 1 (or if a predetermined threshold is exceeded even if they do not completely match) ), Consider it as an “Agenda” slide, give it an “Agenda Slide” identifier, and remove it from later analysis.
(B) At Step 2, the CPU includes either a slide determined to contain only one agenda / name pair (slide of agenda = 1, name = 1) or an agenda / name pair. The slide determined to have been selected (slide with agenda = 0, name = 1, or slide with agenda = 1, name = 0) is extracted as a “first slide” candidate, and the process proceeds to step 4.

Step4.
CPUは、(B)の処理で抽出されたスライド画像が1枚だけならば、それを「先頭スライド」と判定する。STEP3(B)の処理で2つ以上のスライドが抽出された場合、時間情報を比較し、提示時間の最も早いスライドを「先頭スライド」と判定する。
Step4.
If there is only one slide image extracted in the process (B), the CPU determines that it is a “first slide”. When two or more slides are extracted in the process of STEP 3 (B), the time information is compared, and the slide with the earliest presentation time is determined as the “first slide”.

以上の処理を利用すれば、図12に示すように、アジェンダや議事録の記載内容を、スライド群の記載内容と、同じテキスト情報を介して対応付けて表示することが可能になる。これはアジェンダや議事録の記述内容に対応したスライドを迅速に表示したり、対応関係をハイライト機能などで明示したりできて便利である。なお、以上の説明では、スライド表示中に行なわれた発表者の説明音声の取得や再生については記述していないが、音声記録再生機能をもつ表示画面記録再生装置にもここで述べた方法は当然適用できる。   If the above processing is used, as shown in FIG. 12, the description content of the agenda and minutes can be displayed in association with the description content of the slide group via the same text information. This is convenient because you can quickly display slides that correspond to the description contents of the agenda and minutes, and you can clearly indicate the correspondence with the highlight function. The above description does not describe the acquisition and playback of the presenter's explanation audio performed during slide display, but the method described here also applies to a display screen recording / playback device having a voice recording / playback function. Naturally applicable.

以上、本発明の好ましい実施の形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the specific embodiments according to the present invention, and various modifications can be made within the scope of the gist of the present invention described in the claims. Deformation / change is possible.

以上説明したように、本発明によれば、文書書式よらず、文書を精度良く発表者単位に分類することができ、産業上の利用可能性が高い。   As described above, according to the present invention, it is possible to classify a document into units of presenters with high accuracy regardless of the document format, and the industrial applicability is high.

本発明の第1実施形態に係る文書画像取得装置のシステム構成図である。1 is a system configuration diagram of a document image acquisition apparatus according to a first embodiment of the present invention. 発表者単位での文書画像の区切りを説明する図である。It is a figure explaining the division | segmentation of the document image in a presenter unit. 本発明の第1実施形態に係る文書画像取得装置の内部構成図である。It is an internal block diagram of the document image acquisition apparatus which concerns on 1st Embodiment of this invention. インデックスファイルの構成例を示す図である。It is a figure which shows the structural example of an index file. 文書画像の表示例である。It is a display example of a document image. 第1実施形態の変形例の内部構成図である。It is an internal block diagram of the modification of 1st Embodiment. 発表単位毎に識別された配列表示したサムネイル群を示す図である。It is a figure which shows the thumbnail group by which arrangement | sequence display identified for every presentation unit was carried out. 本発明の第2実施形態に係る文書画像取得装置の内部構成図である。It is an internal block diagram of the document image acquisition apparatus which concerns on 2nd Embodiment of this invention. アジェンダ等の登録メニュー等を示す図である。It is a figure which shows registration menus, such as an agenda. アジェンダを利用して会議書誌情報を抽出するための処理の流れを概略的に示す図である。It is a figure which shows roughly the flow of the process for extracting conference bibliographic information using an agenda. キーワードマッチング処理を説明する図である。It is a figure explaining a keyword matching process. アジェンダや議事録の記載内容をスライド群の記載内容と同じテキスト情報を介して対応付けて表示する例を示す図である。It is a figure which shows the example which matches and displays the description content of an agenda or the minutes via the text information same as the description content of a slide group.

符号の説明Explanation of symbols

1:PC
2:信号分配器
3:表示装置
4、5:表示画面記録装置
401:VGA信号ON/OFF検出部
402:時間記録部
403:画像サンプリング部
404:変化画像抽出部
405:テキスト情報抽出部
406:サムネイル生成部
407:インデックスファイル作成部
408:データ格納部
409:ネットワークI/F部
410:発表交代判定部
411:発表交代識別画像生成部
412:タイトル・発表者氏名抽出部
413:インデックスファイル更新処理部
414:表示メッセージ作成部
501:画像形成部
502:変化画像検出部
503:タイムスタンプ部
504:サムネイル生成部
505:フォーマット変換部
506:文字認識部
507:レイアウト情報抽出部
508:索引ファイル作成部
509:データベース
510:Webサーバー
511:アジェンダ/議事録登録部
512:スライド分類情報自動付与指示部
513:アジェンダ/議事録選定部
514:テキスト情報抽出部
515:氏名/タイトルペア抽出部
516:レイアウト情報抽出部
517:プレゼンテーションセグメンテーション処理部
5171:氏名・タイトルを含むスライド抽出部
5172:先頭スライド同定部
5173:最後のスライド同定部
518:索引ファイル更新部
1: PC
2: Signal distributor 3: Display device 4, 5: Display screen recording device 401: VGA signal ON / OFF detection unit 402: Time recording unit 403: Image sampling unit 404: Changed image extraction unit 405: Text information extraction unit 406: Thumbnail generation unit 407: Index file creation unit 408: Data storage unit 409: Network I / F unit 410: Presentation change determination unit 411: Presentation change identification image generation unit 412: Title / presenter name extraction unit 413: Index file update processing Unit 414: Display message creation unit 501: Image formation unit 502: Changed image detection unit 503: Time stamp unit 504: Thumbnail generation unit 505: Format conversion unit 506: Character recognition unit 507: Layout information extraction unit 508: Index file creation unit 509: Database 510: Web server 5 1: Agenda / minutes registration unit 512: Slide classification information automatic assignment instruction unit 513: Agenda / minutes selection unit 514: Text information extraction unit 515: Name / title pair extraction unit 516: Layout information extraction unit 517: Presentation segmentation processing Unit 5171: Slide extraction unit including name / title 5172: First slide identification unit 5173: Last slide identification unit 518: Index file update unit

Claims (9)

発表者の説明の進行に応じて表示内容が変化する文書の表示出力信号に基づいて文書画像を取得する取得手段と、
前記表示出力信号の有無を検出する検出手段と、
前記検出手段の検出結果に基づいて、前記取得手段で取得した文書画像に対し発表者単位の文書画像の区切りを判断する判断手段と、
を具備する文書画像取得装置。
Acquisition means for acquiring a document image based on a display output signal of a document whose display contents change according to the progress of the presenter's explanation;
Detecting means for detecting the presence or absence of the display output signal;
A determination unit that determines a delimiter of a document image for each presenter with respect to the document image acquired by the acquisition unit based on a detection result of the detection unit;
A document image acquisition apparatus comprising:
前記判断手段の判断結果に基づいて前記取得手段で取得した文書画像を分類する分類手段を具備する請求項1記載の文書画像取得装置。   The document image acquisition apparatus according to claim 1, further comprising a classification unit that classifies the document image acquired by the acquisition unit based on a determination result of the determination unit. 前記分類手段は、前記文書画像に対する、発表者単位での区切りを示す画像を文書画像間に挿入することを特徴とする請求項2記載の文書画像取得装置。   3. The document image acquisition apparatus according to claim 2, wherein the classification unit inserts an image indicating a delimiter for each presenter between the document images between the document images. 前記分類手段は、発表者単位の文書画像群と他の発表者単位の文書画像群との区切りを識別することを特徴とする請求項2記載の文書画像取得装置。   3. The document image acquisition apparatus according to claim 2, wherein the classifying unit identifies a partition between a document image group in a presenter unit and a document image group in another presenter unit. 前記取得手段で取得した文書画像から発表者単位の属性情報を抽出する抽出手段と、
前記抽出手段で抽出した属性情報を前記分類手段の分類結果の文書画像群に索引情報として付与する付与手段と、
を具備する請求項2記載の文書画像取得装置。
Extracting means for extracting attribute information in units of presenters from the document image acquired by the acquiring means;
An assigning means for assigning the attribute information extracted by the extracting means as index information to the document image group of the classification result of the classifying means;
The document image acquisition apparatus according to claim 2, further comprising:
発表者の説明の進行に応じて表示内容が変化する文書の表示出力信号に基づいて文書画像を取得する取得手段と、
会議開催情報及び議事録の少なくとも1つを入力する入力手段と、
前記入力手段の入力内容から発表者名及びタイトル名の少なくとも一方を含む発表者単位の属性情報を抽出する第1の抽出手段と、
前記第1の抽出手段の抽出結果に基づいて、前記取得手段で取得した文書画像に対し発表者単位の文書画像の区切りを判断する判断手段と、
を具備する文書画像取得装置。
Acquisition means for acquiring a document image based on a display output signal of a document whose display contents change according to the progress of the presenter's explanation;
An input means for inputting at least one of meeting holding information and minutes;
First extraction means for extracting attribute information for each presenter including at least one of the presenter name and the title name from the input content of the input means;
A determination unit that determines a delimiter of a document image for each presenter with respect to the document image acquired by the acquisition unit based on the extraction result of the first extraction unit;
A document image acquisition apparatus comprising:
前記判断手段の判断結果に基づいて前記取得手段で取得した文書画像を分類する分類手段を具備する請求項6記載の文書画像取得装置。   The document image acquisition apparatus according to claim 6, further comprising a classification unit that classifies the document image acquired by the acquisition unit based on a determination result of the determination unit. 前記取得手段で取得した文書画像から発表者名及びタイトル名の少なくとも一方を含む発表者単位の属性情報を抽出する第2の抽出手段と、
前記抽出手段で抽出した属性情報を前記分類手段の分類結果の文書画像群に索引情報として付与する付与手段と、
を具備する請求項7記載の文書画像取得装置。
Second extracting means for extracting attribute information for each presenter including at least one of the presenter name and the title name from the document image obtained by the obtaining means;
An assigning means for assigning the attribute information extracted by the extracting means as index information to the document image group of the classification result of the classifying means;
The document image acquisition apparatus according to claim 7, further comprising:
前記文書画像はスライド画像である請求項1乃至請求項8のいずれかに記載の文書画像取得装置。


The document image acquisition apparatus according to claim 1, wherein the document image is a slide image.


JP2007110350A 2007-04-19 2007-04-19 Document image acquisition device Pending JP2008269216A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007110350A JP2008269216A (en) 2007-04-19 2007-04-19 Document image acquisition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007110350A JP2008269216A (en) 2007-04-19 2007-04-19 Document image acquisition device

Publications (2)

Publication Number Publication Date
JP2008269216A true JP2008269216A (en) 2008-11-06
JP2008269216A5 JP2008269216A5 (en) 2010-04-22

Family

ID=40048645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007110350A Pending JP2008269216A (en) 2007-04-19 2007-04-19 Document image acquisition device

Country Status (1)

Country Link
JP (1) JP2008269216A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010045667A (en) * 2008-08-14 2010-02-25 Ricoh Co Ltd Presentation recording system
JP2020112678A (en) * 2019-01-11 2020-07-27 シャープ株式会社 Video output device, display system, and video output method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330979A (en) * 1999-05-18 2000-11-30 Ntt Data Corp Method for analyzing electronic document to be retrieved and electronic document registration system
JP2002109099A (en) * 2000-09-28 2002-04-12 Nippon Telegraph & Telephone West Corp System and device for recording data and video image/ voice, and computer readable recording medium
JP2006134036A (en) * 2004-11-05 2006-05-25 Matsushita Electric Ind Co Ltd Slide structuring device
JP2006246526A (en) * 2006-05-08 2006-09-14 Ricoh Co Ltd Image reading apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330979A (en) * 1999-05-18 2000-11-30 Ntt Data Corp Method for analyzing electronic document to be retrieved and electronic document registration system
JP2002109099A (en) * 2000-09-28 2002-04-12 Nippon Telegraph & Telephone West Corp System and device for recording data and video image/ voice, and computer readable recording medium
JP2006134036A (en) * 2004-11-05 2006-05-25 Matsushita Electric Ind Co Ltd Slide structuring device
JP2006246526A (en) * 2006-05-08 2006-09-14 Ricoh Co Ltd Image reading apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010045667A (en) * 2008-08-14 2010-02-25 Ricoh Co Ltd Presentation recording system
JP2020112678A (en) * 2019-01-11 2020-07-27 シャープ株式会社 Video output device, display system, and video output method

Similar Documents

Publication Publication Date Title
JP5353148B2 (en) Image information retrieving apparatus, image information retrieving method and computer program therefor
JP3842994B2 (en) Agent for integrated annotation and retrieval of images
JP5791364B2 (en) Face recognition device, face recognition method, face recognition program, and recording medium recording the program
JP2010073114A6 (en) Image information retrieving apparatus, image information retrieving method and computer program therefor
US7099894B2 (en) Multimedia information collection control apparatus and method
JP2000067065A (en) Method for identifying document image and record medium
CN112099709B (en) Method and device for arranging multimedia objects, electronic equipment and storage medium
WO2018102020A1 (en) Systems and methods for applying layout to documents
US9851873B2 (en) Electronic album creating apparatus and method of producing electronic album
WO2019129075A1 (en) Video searching method and device and computer readable storage medium
JP2015069431A (en) Synthesis image creation assist device, method and program, and record medium therefor
US20150278248A1 (en) Personal Information Management Service System
US8694498B2 (en) Data management apparatus and data processing method
US20190258629A1 (en) Data mining method based on mixed-type data
JP2020140557A (en) Image processing device, control method, and program
JP2006260570A (en) Image forming device
JP2020140555A (en) Image processing device, control method, and program
JP2008269216A (en) Document image acquisition device
KR20180087772A (en) Method for clustering and sharing images, and system and application implementing the same method
US20220138259A1 (en) Automated document intake system
US20180189602A1 (en) Method of and system for determining and selecting media representing event diversity
JP2008176764A (en) Image processing system, image processing method and image processing program
KR102572130B1 (en) Method and system for extracting document form from document image
US11630872B2 (en) Internet data collection method
US20240211518A1 (en) Automated document intake system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100305

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120110