JP4680283B2 - Image association apparatus, image association method, and image association program - Google Patents

Image association apparatus, image association method, and image association program Download PDF

Info

Publication number
JP4680283B2
JP4680283B2 JP2008178320A JP2008178320A JP4680283B2 JP 4680283 B2 JP4680283 B2 JP 4680283B2 JP 2008178320 A JP2008178320 A JP 2008178320A JP 2008178320 A JP2008178320 A JP 2008178320A JP 4680283 B2 JP4680283 B2 JP 4680283B2
Authority
JP
Japan
Prior art keywords
image
frame
images
ohp
association
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008178320A
Other languages
Japanese (ja)
Other versions
JP2008262594A (en
Inventor
裕 勝山
浩明 武部
憲秋 小澤
聡 直井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008178320A priority Critical patent/JP4680283B2/en
Publication of JP2008262594A publication Critical patent/JP2008262594A/en
Application granted granted Critical
Publication of JP4680283B2 publication Critical patent/JP4680283B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、複数の第1の画像(例えば講義などで使用されたOHP(Overhead Projector)ファイル)と、複数の第2の画像(例えば複数のフレーム画像からなる講義などを撮影した動画像)とを自動的に対応付ける画像対応付け装置及び画像対応付け方法並びに画像対応付けプログラムに関するものである。   The present invention includes a plurality of first images (for example, an OHP (Overhead Projector) file used in a lecture) and a plurality of second images (for example, moving images taken of a lecture composed of a plurality of frame images). The present invention relates to an image association apparatus, an image association method, and an image association program.

社内教育や、一般の教育分野では、E-learningの導入が行われつつある。E-learningは、インターネット等を使ったコンピュータによる遠隔地教育で、WEB画面を使って行われることが多い。E-learningの形態は多種あるが、その中で通常行われている教育現場での講義をコンピュータ上で最もよく再現するものとして、講義の動画像による再生と、講義で用いられたOHP画像(以下、OHPにより表示される画像をOHPファイル或いはOHP画像と呼称する。)の拡大表示とを時間的に同期させて表示するコンテンツがある。このコンテンツを使用することで、受講者は、OHP画像のいずれの部分を講師が指し示しているかをコンピュータの画面上で容易に判別でき、更にそのOHP画像の拡大表示を見ることによって、その内容を明瞭に把握できる。つまりこのようなコンテンツによって、OHPの画像上で講師が示した場所とその内容の詳細が同時に表示可能になり、実際に講義を受講しているのとほぼ同じ環境が提供できることになる。   E-learning is being introduced in in-house education and general education. E-learning is a remote education by a computer using the Internet or the like, and is often performed using a WEB screen. There are various types of E-learning, but the lecture that is usually performed at the educational site is best reproduced on a computer as a reproduction of the moving image of the lecture and the OHP image used in the lecture ( Hereinafter, there is content that displays an image displayed by OHP in time synchronization with an enlarged display of an OHP file or an OHP image. By using this content, the student can easily determine on the computer screen which part of the OHP image the instructor is pointing to, and by viewing the enlarged display of the OHP image, Clearly understandable. In other words, such content enables the location indicated by the instructor on the OHP image and details of the content to be displayed at the same time, and provides almost the same environment as actually taking the lecture.

このようなシステムを実現するためには、OHPを用いて説明する動画像の表示と、そこに映し出されているOHPの画像の拡大表示とが時間的に同期がとれている必要がある。現在、こうしたコンテンツを作成するための、様々なE-learningのコンテンツ作成用のオーサリングシステム(オーサリングソフト)が製品化されている。   In order to realize such a system, it is necessary to synchronize temporally the display of the moving image described using the OHP and the enlarged display of the OHP image displayed there. Currently, various E-learning content authoring systems (authoring software) for creating such content have been commercialized.

しかしながら、こうしたオーサリングソフトでは、動画と教材文書の表示が時間的に同期が取れるよう対応付けるための処理をオペレータが手動で行うのが現状である。従って、コンテンツ作成に膨大な時間を要するという問題点がある。   However, in such authoring software, an operator manually performs processing for associating the display of the moving image and the teaching material document so that they are synchronized in time. Therefore, there is a problem that it takes a lot of time to create content.

本発明は、上述した事情に鑑みて成されたものであり、画像の同期的対応付けを自動化することができる画像対応付け装置及び画像対応付け方法並びに画像対応付けプログラムを提供することを目的としている。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an image association apparatus, an image association method, and an image association program capable of automating synchronous association of images. Yes.

上述した課題を解決するため、本発明は、画像対応付け装置であって、複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断手段と、前記関連性判断手段により所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付け手段と、第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引き手段と、前記フレーム画像間引き手段により抽出され、所定のフレーム間隔を有する二つのフレーム画像に対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引き手段により間引かれるフレーム間隔を小さくする間引き間隔変更手段と、第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出手段と、を備え、前記関連性判断手段は、前記フレーム画像間引き手段により間引かれたフレーム画像について第1の画像との関連性を判断し、前記対応付け手段は、前記ポイント検出手段により検出されたポイント間の各フレーム画像に同一の第1の画像を対応付けることを特徴とするものである。   In order to solve the above-described problem, the present invention is an image association device, which is a plurality of first images and a plurality of second images, at least one of the plurality of second images. Is based on any one of the first images and a second image having a predetermined relevance, and each of the second images has the predetermined relevance with any image of the first image. Relevance determining means for determining whether to have, association means for associating each of the first image and the second image determined to have a predetermined relevance by the relevance determining means, and a second image A frame image thinning means for extracting a frame image at a predetermined frame interval from a plurality of consecutive frame images when the frame image corresponds to each of a plurality of frames constituting a series of moving images; and the frame image Thinning Thinning interval changing means for reducing the frame interval thinned out by the frame image thinning means when two first images extracted by the means and associated with two frame images having a predetermined frame interval are not the same; Points when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images, and the first image corresponding to successive frame images is different between the preceding and succeeding frames. Detecting a point, and the relevance determining means determines the relevance of the frame image thinned out by the frame image thinning means to the first image, and the associating means includes: The same first image is associated with each frame image between points detected by the point detecting means. A.

また、本発明は、画像対応付けプログラムであって、複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断ステップと、前記関連性判断ステップにより所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付けステップと、第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引きステップと、前記フレーム画像間引きステップにより抽出され、所定のフレーム間隔を有する二つのフレーム画像に対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引きステップにより間引かれるフレーム間隔を小さくする間引き間隔変更ステップと、第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出ステップと、をコンピュータに実行させ、前記関連性判断ステップは、前記フレーム画像間引きステップにより間引かれたフレーム画像について第1の画像との関連性を判断し、前記対応付けステップは、前記ポイント検出ステップにより検出されたポイント間の各フレーム画像に同一の第1の画像を対応付けることを特徴とするものである。   In addition, the present invention is an image association program, which is a plurality of first images and a plurality of second images, and at least one of the plurality of second images is the first image. A relationship for determining which of the first images has the predetermined relationship with each of the first images based on any one of the images and the second image having the predetermined relationship A determination step, an association step of associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination step, and the second image constitute a series of moving images A frame image thinning step for extracting a frame image at a predetermined frame interval from a plurality of consecutive frame images when the frame image corresponds to each of the plurality of frames to be framed; A thinning interval changing step for reducing the frame interval thinned out by the frame image thinning step when two first images extracted by the step and associated with two frame images having a predetermined frame interval are not the same; Points when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images, and the first image corresponding to successive frame images is different between the preceding and succeeding frames. A point detection step of detecting the frame image, and the relevancy determination step determines the relevance of the frame image thinned out by the frame image thinning step to the first image, and the association step Each frame image between the points detected by the point detection step It is characterized in that associating the same first image.

さらに、本発明は、画像対応付け方法であって、複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断ステップと、前記関連性判断ステップにより所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付けステップと、第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引きステップと、前記フレーム画像間引きステップにより抽出され、所定のフレーム間隔を有する二つのフレーム画像に対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引きステップにより間引かれるフレーム間隔を小さくする間引き間隔変更ステップと、第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出ステップと、を実行し、前記関連性判断ステップは、前記フレーム画像間引きステップにより間引かれたフレーム画像について第1の画像との関連性を判断し、前記対応付けステップは、前記ポイント検出ステップにより検出されたポイント間の各フレーム画像に同一の第1の画像を対応付けることを特徴とするものである。   Furthermore, the present invention is an image association method, wherein a plurality of first images and a plurality of second images, wherein at least one of the plurality of second images is the first image. A relationship for determining which of the first images has the predetermined relationship with each of the first images based on any one of the images and the second image having the predetermined relationship A determination step, an association step of associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination step, and the second image constitute a series of moving images A frame image thinning step for extracting a frame image at a predetermined frame interval from a plurality of consecutive frame images when the frame image corresponds to each of the plurality of frames to be performed; A thinning interval changing step for reducing the frame interval thinned out by the frame image thinning step when the two first images extracted by the step and associated with the two frame images having a predetermined frame interval are not the same; When the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images, the first image corresponding to successive frame images is different between the preceding and following frames. A point detecting step for detecting points; and the relevancy determining step determines relevance of the frame image thinned out by the frame image thinning step to the first image, and the associating step includes The same first image is added to each frame image between the points detected by the point detection step. It is characterized in that the attached response.

なお、本発明において、上記コンピュータにより読取り可能な媒体は、CD−ROMやフレキシブルディスク、DVDディスク、光磁気ディスク、ICカード等の可搬型記憶媒体や、コンピュータプログラムを保持するデータベース、或いは、他のコンピュータ並びにそのデータベースや、更に回線上の伝送媒体をも含むものである。   In the present invention, the computer-readable medium is a portable storage medium such as a CD-ROM, a flexible disk, a DVD disk, a magneto-optical disk, an IC card, a database holding a computer program, or other It includes computers and their databases, as well as transmission media on the line.

従来、E-learning用のコンテンツを作成するため、OHPを用いた講義などの動画像と、そこに映し出されているOHP画像を同期的に表示させることができるよう、コンテンツ作成用オーサリングシステムでこれら画像の対応付けをオペレータが手動で行っていたが、本発明によれば、この対応付けを自動化できるため、手間がかからず、対応付けに要する時間を大幅に短縮することができるという効果を奏する。   Conventionally, in order to create content for E-learning, the content creation authoring system can synchronize and display moving images such as lectures using OHP and the OHP images displayed there. The image is manually associated by the operator. However, according to the present invention, since this association can be automated, there is an effect that the time required for the association can be greatly shortened without taking time and effort. Play.

以下、図を用いて本発明の実施の形態を詳細に説明する。
図1は、本発明の実施の形態の概念図である。まず、OHPを使った講演2をE-learningの教材として使用する場合、その講演の映像を動画としてカメラ撮影3し、画像対応付け・コンテンツ作成装置1に保存する。また、講演に使用したOHPのファイル4を同じ装置(画像対応付け・コンテンツ作成装置1)へ保存する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a conceptual diagram of an embodiment of the present invention. First, when the lecture 2 using OHP is used as an E-learning teaching material, the video of the lecture is photographed 3 as a moving image and stored in the image association / content creation apparatus 1. Further, the OHP file 4 used for the lecture is stored in the same device (image association / content creation device 1).

画像対応付け・コンテンツ作成装置1では、様々な画像処理技術を使用して、動画中のOHPの切り代わりタイミングを求め、元のOHPの画像が動画像のどのフレームに対応しているかを示す対応表を作成する。更に、画像対応付け・コンテンツ作成装置1は、この対応表に基づいて、動画像とOHPの画像を同期をとって再生するE-learning用のコンテンツ5を作成する。これにより、従来手動で行っていた動画像とOHPの各ページとの対応付けが自動化でき、容易にコンテンツが作成できる。なお、画像対応付け・コンテンツ作成装置1において、上記「対応表」を作成する部分が本発明を説明した部分であるが、ここでは、作成した対応表からコンテンツを作成する機能までも有した装置を例にとり詳細に説明する。   The image association / content creation apparatus 1 uses various image processing techniques to determine the replacement timing of OHP in a moving image, and indicates which frame of the moving image the original OHP image corresponds to Create a table. Further, the image association / content creation apparatus 1 creates E-learning content 5 for reproducing a moving image and an OHP image in synchronization with each other based on the correspondence table. As a result, it is possible to automate the association between a moving image and each page of OHP, which has been performed manually, and content can be easily created. In the image association / content creation apparatus 1, the part for creating the “correspondence table” is the part for explaining the present invention, but here, the apparatus also has a function for creating content from the created correspondence table. This will be described in detail by taking as an example.

実施の形態1.
図2は、上述した画像対応付け・コンテンツ作成装置1の機能構成の一例を示した図である。図において、画像対応付け・コンテンツ作成装置1は画像対応付け装置1aとコンテンツ作成装置1bとにより構成される。画像対応付け装置1aは、動画像入力部101と、動画像記憶部102と、OHPファイル入力部103と、OHPファイル記憶部104と、フレーム取得部105と、OHP領域抽出部106と、OHP取得部107と、類似度算出部108と、対応付け処理部109と、対応付けテーブル110とから構成されている。
Embodiment 1 FIG.
FIG. 2 is a diagram illustrating an example of a functional configuration of the image association / content creation apparatus 1 described above. In the figure, an image association / content creation apparatus 1 is composed of an image association apparatus 1a and a content creation apparatus 1b. The image association apparatus 1a includes a moving image input unit 101, a moving image storage unit 102, an OHP file input unit 103, an OHP file storage unit 104, a frame acquisition unit 105, an OHP region extraction unit 106, and an OHP acquisition. Unit 107, similarity calculation unit 108, association processing unit 109, and association table 110.

動画像入力部101は、カメラ撮影した講義等の動画像を画像対応付け・コンテンツ作成装置1に入力する。動画像記憶部102は、動画像入力部101により入力された動画像をAVI形式等で記憶する。OHPファイル入力部103は、他のコンピュータシステム等からOHPファイルを画像対応付け・コンテンツ作成装置1に入力する。OHPファイル記憶部104は、OHPファイル入力部103により入力されたOHPファイルの1ページ毎の画像ファイルと、それに対応する文字情報を記憶する。   The moving image input unit 101 inputs a moving image such as a lecture taken by the camera to the image association / content creation apparatus 1. The moving image storage unit 102 stores the moving image input by the moving image input unit 101 in the AVI format or the like. The OHP file input unit 103 inputs an OHP file to the image association / content creation apparatus 1 from another computer system or the like. The OHP file storage unit 104 stores an image file for each page of the OHP file input by the OHP file input unit 103 and character information corresponding to the image file.

フレーム取得部105は、動画像記憶部102から動画像を構成するフレーム画像を取得する。フレーム取得部105には、OHP領域抽出部106が備えられ、OHP領域抽出部106は、フレーム画像内でOHPの画像が映る領域を探索して抽出する。OHP取得部107は、OHPファイル記憶部104から1ページ毎にOHP画像を取得する。類似度算出部108は、フレーム取得部105により取得された動画像のフレーム画像と、OHP取得部107により取得されたOHP画像との類似度を算出する。対応付け処理部109は、類似度算出部108により算出された類似度からフレーム画像とOHP画像との対応付けを決定し、対応付けテーブル110は、対応付け処理部109により決定された対応付けを記憶する。   The frame acquisition unit 105 acquires frame images constituting the moving image from the moving image storage unit 102. The frame acquisition unit 105 includes an OHP region extraction unit 106. The OHP region extraction unit 106 searches and extracts a region in which an OHP image appears in the frame image. The OHP acquisition unit 107 acquires an OHP image for each page from the OHP file storage unit 104. The similarity calculation unit 108 calculates the similarity between the frame image of the moving image acquired by the frame acquisition unit 105 and the OHP image acquired by the OHP acquisition unit 107. The association processor 109 determines the association between the frame image and the OHP image from the similarity calculated by the similarity calculator 108, and the association table 110 displays the association determined by the association processor 109. Remember.

また、コンテンツ作成装置1bは、コンテンツ作成部111と、コンテンツ記憶部112とから構成されている。コンテンツ作成部111は、対応付けテーブル110からフレーム画像とOHP画像との対応付けを参照して、E-learning用のコンテンツを作成する。コンテンツ記憶部112はコンテンツ作成部111により作成されたコンテンツを記憶する。   In addition, the content creation device 1b includes a content creation unit 111 and a content storage unit 112. The content creation unit 111 refers to the association between the frame image and the OHP image from the association table 110 and creates content for E-learning. The content storage unit 112 stores the content created by the content creation unit 111.

また、図3は、画像対応付け・コンテンツ作成装置1のハードウェア構成の一例を示した図である。図において、画像対応付け・コンテンツ作成装置1は、ビデオ入力制御装置11と、CPU(Central Processing Unit)12と、メモリ13と、画像用HDD(Hard Disk Drive)15と、ファイル入出力装置14と、プログラムHDD16と、コンテンツHDD17と、対応付けテーブルHDD18と、OHPファイルHDD19と、LAN(Local Aria Network)インタフェース20と、CD−ROMドライブ21とから構成されている。   FIG. 3 is a diagram illustrating an example of a hardware configuration of the image association / content creation apparatus 1. In the figure, an image association / content creation device 1 includes a video input control device 11, a CPU (Central Processing Unit) 12, a memory 13, an image HDD (Hard Disk Drive) 15, and a file input / output device 14. The program HDD 16, the content HDD 17, the association table HDD 18, the OHP file HDD 19, a LAN (Local Aria Network) interface 20, and a CD-ROM drive 21.

本実施の形態において、図2の機能構成図に示した各機能ブロックは、図3のプログラムHDD16に記憶されたプログラム群が画像対応付け・コンテンツ作成装置1の起動時にメモリ13上に展開された状態を示しており、CPU12により実行される。ただし、図2の動画像入力部101或いはOHPファイル入力部103は、図3のビデオ入力制御装置11或いはファイル入出力制御装置14とが、上記メモリ13上に展開されたプログラム群と協働して機能する。また、動画像記憶部102は画像用HDD15により構成され、OHPファイル記憶部104はOHPファイルHDD19により構成され、対応付けテーブル110は対応付けテーブルHDD18により構成され、コンテンツ記憶部112はコンテンツHDD17により構成されるものとする。   In the present embodiment, each functional block shown in the functional configuration diagram of FIG. 2 is a program group stored in the program HDD 16 of FIG. 3 expanded on the memory 13 when the image association / content creation apparatus 1 is activated. The state is shown and executed by the CPU 12. However, the moving image input unit 101 or the OHP file input unit 103 in FIG. 2 cooperates with the program group developed on the memory 13 by the video input control device 11 or the file input / output control device 14 in FIG. Function. The moving image storage unit 102 includes an image HDD 15, the OHP file storage unit 104 includes an OHP file HDD 19, the association table 110 includes an association table HDD 18, and the content storage unit 112 includes a content HDD 17. Shall be.

なお、上記プログラム群はプログラムHDD16でなくとも、例えば、コンピュータにより読取り可能な媒体、例えば、CD−ROMやFD、磁気ディスク、DVDディスク、光磁気ディスク、ICカード等の可搬型記憶媒体に記憶されていてもよく、また、コンピュータプログラムを保持するデータベース、或いは、他のコンピュータ並びにそのデータベースや、更に回線上の伝送媒体等からダウンロードしてメモリ13上に展開され実行されるようにしてもよく、プログラム群のインストール形態は限定されない。上述したように本実施の形態では、CD−ROMドライブ21が備えられており、可搬型記憶媒体を読み取り可能としている。また、LANインタフェース20やファイル入出力装置14により、他のコンピュータやデータベースからLAN等を介してプログラム群を容易にダウンロードできる構成となっている。   Note that the program group is not stored in the program HDD 16 but is stored in a computer-readable medium such as a portable storage medium such as a CD-ROM, FD, magnetic disk, DVD disk, magneto-optical disk, or IC card. It may also be downloaded from a database holding a computer program, or another computer and its database, or a transmission medium on a line, etc., expanded on the memory 13, and executed. The installation form of the program group is not limited. As described above, in this embodiment, the CD-ROM drive 21 is provided, and a portable storage medium can be read. Further, the LAN interface 20 and the file input / output device 14 can easily download a program group from another computer or database via the LAN.

以下、フローチャートを用いて、画像対応付け装置1aの対応付け処理の流れを詳細に説明する。図4は、対応付け処理全体の処理フローを示したフローチャートである。まず、動画像記憶部102からフレーム取得部105が動画像の最初のフレームの画像を抽出する(S1000)。OHP領域抽出部106が、抽出されたフレーム画像内でOHPの画像が映る領域(以下、OHP領域画像と呼称する)を探索して抽出する(S1001)。OHP領域抽出処理についての詳細を以下に示す。   Hereinafter, the flow of the association process of the image association apparatus 1a will be described in detail using a flowchart. FIG. 4 is a flowchart showing a processing flow of the entire association processing. First, the frame acquisition unit 105 extracts the first frame image of the moving image from the moving image storage unit 102 (S1000). The OHP area extraction unit 106 searches and extracts an area in which the OHP image appears in the extracted frame image (hereinafter referred to as an OHP area image) (S1001). Details of the OHP area extraction process will be described below.

図5は、OHP領域画像抽出処理の流れを示したフローチャートである。まず、OHP領域抽出部106にフレーム画像のデータが入力される(S1100)。次に、フレーム画像を二値化して、フレーム画像内のエッジ抽出を行う(S1101)。続いて、抽出されたエッジに対してハフ変換を行い、直線を抽出する(S1102)。抽出された直線成分を統合して、矩形作成する(S1103)。この矩形から予め定められた所定のサイズより大きい矩形のみを抽出する(S1104)。この抽出処理で矩形が抽出されない場合には(S1105、NO)、フレームの画像全体がOHP画像の領域であると判断し、画像全体を抽出する(S1107)。矩形が抽出された場合には(S1105、YES)、抽出された中で最も大きな矩形をOHP領域画像として抽出する(S1106)。   FIG. 5 is a flowchart showing the flow of the OHP region image extraction process. First, frame image data is input to the OHP region extraction unit 106 (S1100). Next, the frame image is binarized, and edge extraction from the frame image is performed (S1101). Subsequently, a Hough transform is performed on the extracted edge to extract a straight line (S1102). The extracted linear components are integrated to create a rectangle (S1103). Only rectangles larger than a predetermined size are extracted from the rectangles (S1104). If a rectangle is not extracted by this extraction process (S1105, NO), it is determined that the entire frame image is an OHP image area, and the entire image is extracted (S1107). When a rectangle is extracted (S1105, YES), the largest extracted rectangle is extracted as an OHP area image (S1106).

なお、通常、OHPを用いた講義等を撮影した動画像においては、OHPの画像が最も大きな矩形となるのが一般的であるため、S1106の処理でその領域を抽出するようにしている。   Usually, in a moving image obtained by taking a lecture using OHP, the OHP image is generally the largest rectangle, and the region is extracted in the processing of S1106.

OHP領域画像抽出後、初期値として最大類似度に0をセットする(図4、S1002)。続いて、OHP取得部107がOHP画像の最初のページをOHPファイル記憶部104から抽出する(S1003)。ここで類似度算出部108が、S1003で抽出されたOHP画像の最初のページと、S1001で抽出されたフレームのOHP領域の画像とを照合して、類似度を計算する(S1004)。以下、類似度計算について、図を用いて詳細に説明する。   After extracting the OHP area image, 0 is set as the initial value for the maximum similarity (FIG. 4, S1002). Subsequently, the OHP acquisition unit 107 extracts the first page of the OHP image from the OHP file storage unit 104 (S1003). Here, the similarity calculation unit 108 collates the first page of the OHP image extracted in S1003 with the image of the OHP area of the frame extracted in S1001, and calculates the similarity (S1004). Hereinafter, the similarity calculation will be described in detail with reference to the drawings.

図6は、類似度算出部108の機能構成の一例を示した図である。図において、類似度算出部108は、画像正規化部120と、フレーム画素抽出部121と、OHP画素抽出部122と、画素照合部123と、照合結果加算部124とからなる。画像正規化部120は、フレーム画像から抽出されたOHP領域画像がOHP画像の方向と一致するよう回転処理を実行して傾きを補正する。また、OHP画像とサイズが異なる場合、拡大処理を実行して、OHP画像と同一のサイズとなるよう補正する。なお、このような正規化処理は、図5のS1106での抽出の際に、OHP領域抽出部106が実行するようにしてもよく、特に限定されない。   FIG. 6 is a diagram illustrating an example of a functional configuration of the similarity calculation unit 108. In the figure, the similarity calculation unit 108 includes an image normalization unit 120, a frame pixel extraction unit 121, an OHP pixel extraction unit 122, a pixel matching unit 123, and a matching result addition unit 124. The image normalization unit 120 corrects the inclination by executing a rotation process so that the OHP region image extracted from the frame image matches the direction of the OHP image. If the size is different from that of the OHP image, an enlargement process is executed to correct the size to be the same as the OHP image. Such normalization processing may be executed by the OHP region extraction unit 106 at the time of extraction in S1106 of FIG. 5, and is not particularly limited.

フレーム画素抽出部121は、図5のS1106で抽出されたOHP領域画像から画素を抽出する。OHP画素抽出部122は、OHP取得部107で取得したページの画素を抽出する。画素照合部123は、フレーム画素抽出部121とOHP画素抽出部122から抽出された画素を照合する。照合結果加算部124は画素照合部123にて照合された結果を数値化して加算する。加算した結果が類似度となる。   The frame pixel extraction unit 121 extracts pixels from the OHP region image extracted in S1106 of FIG. The OHP pixel extraction unit 122 extracts the pixels of the page acquired by the OHP acquisition unit 107. The pixel collation unit 123 collates the pixels extracted from the frame pixel extraction unit 121 and the OHP pixel extraction unit 122. The collation result adding unit 124 converts the results collated by the pixel collation unit 123 into numerical values and adds them. The result of addition is the similarity.

図7は、上記類似度算出部108により実行される類似度算出処理の流れを示したフローチャートである。まず、フレーム取得部105からOHP領域画像を取得し(S1200)、取得したOHPb領域画像を画像正規化部120が元文書サイズ、すなわちOHP画像のサイズに拡大する等して正規化する(S1201)。また、同時に、OHP取得部107からOHP画像を取得する(S1201’)。続いて、フレーム画素抽出部121により抽出されたOHP領域画像の画素と、OHP画素抽出部122により抽出されたOHP画像の画素を画素照合部123が照合して画素の差を求める。この差を照合結果加算部124が加算して類似度を算出する(S1202)。類似度算出の式の一例を以下に示す。   FIG. 7 is a flowchart showing the flow of similarity calculation processing executed by the similarity calculation unit 108. First, an OHP region image is acquired from the frame acquisition unit 105 (S1200), and the acquired OHPb region image is normalized by the image normalization unit 120 expanding it to the original document size, that is, the size of the OHP image (S1201). . At the same time, an OHP image is acquired from the OHP acquisition unit 107 (S1201 '). Subsequently, the pixel collating unit 123 collates the pixel of the OHP region image extracted by the frame pixel extracting unit 121 and the pixel of the OHP image extracted by the OHP pixel extracting unit 122 to obtain a pixel difference. This difference is added by the matching result adding unit 124 to calculate the similarity (S1202). An example of the similarity calculation formula is shown below.

類似度=1/V
(V=対応する画素の差の絶対値の和)
Vが小さいほど、すなわち画素の差が小さいほど類似度は高い値となる。但し、Vが0の場合は、無条件に類似度が最大値に達したと判断される。
Similarity = 1 / V
(V = sum of absolute values of corresponding pixel differences)
The smaller V is, that is, the smaller the pixel difference is, the higher the similarity is. However, when V is 0, it is determined that the similarity has reached the maximum value unconditionally.

類似度計算は、上記の手法に限らない。以下、他の手法を説明する。
図8は、他の手法を実現するための類似度算出部108aの機能構成図である。本手法では、文字情報を用いて類似度を算出する。また、ここでは連続する2文字が同一であるか否かを照合して類似度を算出する。図において、類似度算出部108aは、画像正規化部130と、フレーム文字抽出部131と、OHP文字抽出部132と、文字照合部133と、照合結果加算部134とからなる。画像正規化部130は、図6の画像正規化部120と同様の機能を有する。
The similarity calculation is not limited to the above method. Hereinafter, another method will be described.
FIG. 8 is a functional configuration diagram of the similarity calculation unit 108a for realizing another method. In this method, similarity is calculated using character information. Here, the similarity is calculated by collating whether or not two consecutive characters are the same. In the figure, the similarity calculation unit 108a includes an image normalization unit 130, a frame character extraction unit 131, an OHP character extraction unit 132, a character collation unit 133, and a collation result addition unit 134. The image normalization unit 130 has the same function as the image normalization unit 120 of FIG.

フレーム文字抽出部131は、図5のS1106で抽出されたOHP領域画像から文字を認識して抽出する。OHP文字抽出部132は、OHP取得部107で取得したページの文字を抽出する。なお、本実施の形態ではOHP画像の文字情報は、既にOHPファイル記憶部104において1ページ毎の画像ファイルと、それに対応する文字情報を別々に記憶しているため、文字認識処理を行う必要なく、OHPファイル記憶部104を参照するのみで文字を抽出できる。文字照合部133は、フレーム文字抽出部131とOHP文字抽出部132から抽出された文字を照合する。照合結果加算部134は文字照合部133にて照合された結果を数値化して加算する。加算した結果が類似度となる。   The frame character extraction unit 131 recognizes and extracts characters from the OHP area image extracted in S1106 of FIG. The OHP character extraction unit 132 extracts the characters of the page acquired by the OHP acquisition unit 107. In the present embodiment, the character information of the OHP image is already stored separately in the OHP file storage unit 104 for each page and the corresponding character information, so there is no need to perform character recognition processing. Characters can be extracted simply by referring to the OHP file storage unit 104. The character collating unit 133 collates the characters extracted from the frame character extracting unit 131 and the OHP character extracting unit 132. The collation result adding unit 134 digitizes and adds the results collated by the character collating unit 133. The result of addition is the similarity.

図9は、上記類似度算出部108aにより実行される類似度算出処理の流れを示したフローチャートである。まず、フレーム取得部105からOHP領域画像を取得し(S1300)、フレーム文字抽出部131が文字認識処理を行う(S1301)。この文字認識処理は公知の技術を用いて行われる。図10はこの文字認識処理の詳細を示したフローチャートである。まず、得られたOHP領域画像を二値化し(S1310)、領域識別を行う(S1311)。続いて文字認識を行い(S1312)、認識結果がテキスト出力される(S1313)。   FIG. 9 is a flowchart showing the flow of similarity calculation processing executed by the similarity calculation unit 108a. First, an OHP area image is acquired from the frame acquisition unit 105 (S1300), and the frame character extraction unit 131 performs a character recognition process (S1301). This character recognition process is performed using a known technique. FIG. 10 is a flowchart showing details of the character recognition process. First, the obtained OHP region image is binarized (S1310), and region identification is performed (S1311). Subsequently, character recognition is performed (S1312), and the recognition result is output as text (S1313).

文字認識処理後、類似度の初期値を0にセットする(図9、S1302)。次に基準文字としてフレーム文字抽出部131による認識結果の最初の文字をセットする。また、OHP画像において該セットされた基準文字に対応する位置にある文字とその隣に位置する文字を、OHP文字抽出部132により抽出する(S1303)。ここで、文字照合部133により、フレーム文字抽出部131により認識された文字列と、OHP文字抽出部132により抽出された文字列とを比較し、連続2文字が同じであるか否かを照合する。同じであれば(S1304、YES)、照合結果加算部134が類似度をインクリメントする(S1305)。同じでない場合には(S1304,NO)、類似度はインクリメントされない。続いて基準文字に隣の文字をセットし、同様に照合を行う(S1306)。S1304からS1306までの処理が文字認識処理結果の文字が終了するまで(S1307、YES)繰り返される。最終的には、照合結果加算部134により類似度が以下のように補正される(S1308)。
類似度=類似度/OHP文字数
After the character recognition process, the initial value of similarity is set to 0 (FIG. 9, S1302). Next, the first character of the recognition result by the frame character extraction unit 131 is set as a reference character. In addition, the OHP character extraction unit 132 extracts a character at a position corresponding to the set reference character and an adjacent character in the OHP image (S1303). Here, the character collation unit 133 compares the character string recognized by the frame character extraction unit 131 with the character string extracted by the OHP character extraction unit 132, and collates whether or not the two consecutive characters are the same. To do. If they are the same (S1304, YES), the collation result adding unit 134 increments the similarity (S1305). If they are not the same (S1304, NO), the similarity is not incremented. Subsequently, the adjacent character is set as the reference character and collation is performed in the same manner (S1306). The processes from S1304 to S1306 are repeated until the character as a result of the character recognition process ends (S1307, YES). Finally, the matching result adding unit 134 corrects the similarity as follows (S1308).
Similarity = similarity / number of OHP characters

なお、図6に示した画素を用いた類似度算出処理及び、図8に示した文字を用いた類似度算出処理の両手法を用いて全体の類似度を算出するようにしてもよい。図11は、このような手法を実現するための類似度算出部108bの機能構成図である。図において、類似度算出部108bは、図6の類似度算出機構を有する画素照合結果算出部140と、図8の類似度算出機構を有する文字照合結果算出部141を備え、双方で算出された類似度を加算して全体の類似度を算出する総合類似度算出部142を備えている。   Note that the overall similarity may be calculated using both the similarity calculation processing using the pixels shown in FIG. 6 and the similarity calculation processing using the characters shown in FIG. FIG. 11 is a functional configuration diagram of the similarity calculation unit 108b for realizing such a method. In the figure, the similarity calculation unit 108b includes a pixel matching result calculation unit 140 having the similarity calculation mechanism of FIG. 6 and a character matching result calculation unit 141 having the similarity calculation mechanism of FIG. An overall similarity calculation unit 142 that calculates the overall similarity by adding the similarities is provided.

更に、上述した手法以外にレイアウト情報を用いて類似度を算出する手法を説明する。図12は、このような手法を実現するための類似度算出部108cの機能構成を示した図である。図において、類似度算出部108cは、画像正規化部150と、フレームレイアウト取得部151と、OHPレイアウト取得部152と、レイアウト照合部153と、照合結果加算部154とからなる。画像正規化部150は、図6の画像正規化部120と同様の機能を有する。   In addition to the above-described method, a method for calculating similarity using layout information will be described. FIG. 12 is a diagram illustrating a functional configuration of the similarity calculation unit 108c for realizing such a method. In the figure, the similarity calculation unit 108c includes an image normalization unit 150, a frame layout acquisition unit 151, an OHP layout acquisition unit 152, a layout verification unit 153, and a verification result addition unit 154. The image normalization unit 150 has the same function as the image normalization unit 120 of FIG.

フレームレイアウト取得部151は、図5のS1106で抽出されたOHP領域画像からレイアウト情報を取得する。OHPレイアウト取得部152は、OHP取得部107で取得したページのレイアウト情報を取得する。なお、ここでは、図、表、文字列ブロック等の領域属性とその座標情報をレイアウト情報と呼称する。レイアウト照合部153は、フレームレイアウト取得部151とOHPレイアウト取得部152で取得されたレイアウト情報を照合する。照合結果加算部154はレイアウト照合部153にて照合された結果を数値化して加算する。加算した結果が類似度となる。   The frame layout acquisition unit 151 acquires layout information from the OHP area image extracted in S1106 of FIG. The OHP layout acquisition unit 152 acquires page layout information acquired by the OHP acquisition unit 107. Here, region attributes such as diagrams, tables, and character string blocks and their coordinate information are referred to as layout information. The layout collation unit 153 collates the layout information acquired by the frame layout acquisition unit 151 and the OHP layout acquisition unit 152. The collation result adding unit 154 digitizes and adds the results collated by the layout collating unit 153. The result of addition is the similarity.

図13は、レイアウト情報の一例を示した図である。図13(a)はOHP画像を示しており、該画像に示される領域属性とその座標情報がOHPレイアウト取得部152により取得される。また、図13(b)はフレーム画像からキャプチャした画像を示しており、該画像に示される領域属性とその座標情報がフレームレイアウト取得部151により取得される。   FIG. 13 is a diagram showing an example of layout information. FIG. 13A shows an OHP image, and the region attribute and its coordinate information shown in the image are acquired by the OHP layout acquisition unit 152. FIG. 13B shows an image captured from the frame image, and the region layout and coordinate information shown in the image are acquired by the frame layout acquisition unit 151.

本手法では、レイアウト照合部153が双方のレイアウト情報を照合し、その結果、照合結果加算部154が類似度を算出する。具体的にはレイアウト照合部153により、領域属性が同じであり、且つ領域座標の差の絶対値が予め定められた値より小さければ対応の付いた領域とされ、対応が付く毎に照合結果加算部154に所定の値が出力され類似度として加算される。   In this method, the layout collation unit 153 collates both pieces of layout information, and as a result, the collation result adding unit 154 calculates the similarity. Specifically, if the region attribute is the same and the absolute value of the difference between the region coordinates is smaller than a predetermined value, the layout matching unit 153 determines that the region is a corresponding region. A predetermined value is output to the unit 154 and added as a similarity.

例えば、図14(a)に示されるようにOHP画像から抽出したある文字列領域の領域座標を、(xmin, ymin)-(xmax, ymax)、図14(b)に示されるように動画像からキャプチャした画像のある文字列領域の領域座標を、(xmin', ymin')-(xmax', ymax')とし、予め定められた値をαとした場合、以下の条件を満たせば類似度がインクリメントされる。   For example, the region coordinates of a certain character string region extracted from the OHP image as shown in FIG. 14A are (xmin, ymin)-(xmax, ymax), and the moving image as shown in FIG. 14B. If the region coordinates of the character string region of the image captured from (xmin ', ymin')-(xmax ', ymax') and the predetermined value is α, the similarity is satisfied if the following conditions are satisfied: Is incremented.

|xmin- xmin'|<α 且つ
|ymin- ymin'|<α 且つ
|xmax- xmax'|<α 且つ
|ymax- ymax'|<α
| Xmin-xmin '| <α and | ymin-ymin' | <α and | xmax-xmax '| <α and | ymax-ymax' | <α

レイアウト照合部153はこのような照合を全ての領域について行い、領域属性と座標差をチェックする。例えば、条件を満たせば1が、条件を満たさない場合には0が照合結果加算部154に出力され、類似度として加算される。すなわち、本手法では、対応が付いた領域数が類似度となる。   The layout collation unit 153 performs such collation for all regions and checks the region attributes and coordinate differences. For example, 1 is output to the collation result adding unit 154 when the condition is satisfied, and 0 is output as the similarity when the condition is not satisfied. In other words, in this method, the number of regions with correspondence becomes the similarity.

上述した手法の他に、レイアウト情報に文字列特徴を加えて照合し類似度を算出する手法を説明する。文字列特徴は、文字列ブロックを更に一定の割合以上の文字列に分けた場合のその矩形の座標情報や、文字列の文字のサイズ、文字列の形状、文字列の色等を含む。例えば、図15(a)に示されるOHP画像から抽出した文字列領域のデータ、及び図15(b)に示される動画像からキャプチャした画像の文字列領域のデータのように、文字列領域内で、更に一定以上の領域を有する文字列領域を行1〜行N、行1’〜行N’として分割して抽出し、該行毎の座標情報を文字列情報として取得して照合してもよい。   In addition to the method described above, a method for calculating the similarity by adding a character string feature to the layout information and performing collation will be described. The character string characteristics include coordinate information of the rectangle when the character string block is further divided into character strings of a certain ratio or more, the character size of the character string, the shape of the character string, the color of the character string, and the like. For example, the character string area data such as the character string area data extracted from the OHP image shown in FIG. 15A and the character string area data of the image captured from the moving image shown in FIG. Then, a character string area having a certain area or more is divided and extracted as lines 1 to N and lines 1 ′ to N ′, and coordinate information for each line is acquired as character string information and collated. Also good.

ここでは、レイアウト照合部153が、座票差が所定の値(α)以下であるかを行毎にチェックする。
例えば、行1及び行1’で、
|xmin1- xmin1'|<α 且つ
|ymin1- ymin1'|<α 且つ
|xmax1- xmax1'|<α 且つ
|ymax1- ymax1'|<α
の条件を満たすかがチェックされる。更に全ての行についての照合がなされ、全ての行で同じ条件が成立した場合には1が、そうでない場合には0が照合結果加算部154に出力され、類似度として加算される。
Here, the layout matching unit 153 checks for each row whether the slip difference is equal to or less than a predetermined value (α).
For example, in row 1 and row 1 ′
| Xmin1-xmin1 '| <α and | ymin1-ymin1' | <α and | xmax1-xmax1 '| <α and | ymax1-ymax1' | <α
It is checked whether the condition is satisfied. Furthermore, collation is performed for all rows, and 1 is output to the collation result adding unit 154 when the same condition is satisfied for all the rows, and 0 is added to the collation result adding unit 154 otherwise.

また、図16にレイアウト情報に文字列の色情報を含む場合の一例を示す。図16(a)はOHP画像から抽出した文字列領域のデータ、及び図16(b)は動画からキャプチャした画像の文字列領域のデータである。図示されるように、レイアウト情報として行毎の代表色が取得されており、それらも含めて照合される。この代表色は、1行内で文字色が複数ある場合には、フレームレイアウト取得部151或いはOHPレイアウト取得部152において、行内の色を(R、G、B)の3次元ベクトル表現してクラスタリングを行い、クラスタ間の距離が所定の値以上となるよう複数個のクラスタを求め、更にその平均色を求め、該求めた平均色を代表色としている。   FIG. 16 shows an example in which the layout information includes color information of the character string. FIG. 16A shows character string region data extracted from an OHP image, and FIG. 16B shows character string region data of an image captured from a moving image. As shown in the figure, representative colors for each row are acquired as layout information, and these are also collated. When there are a plurality of character colors in one line, the representative color is represented by a three-dimensional vector representation of (R, G, B) in the line layout in the frame layout acquisition unit 151 or the OHP layout acquisition unit 152 for clustering. A plurality of clusters are obtained so that the distance between the clusters is equal to or greater than a predetermined value, an average color is obtained, and the obtained average color is used as a representative color.

ここでは、レイアウト照合部153が、座票差が所定の値(α)以下であるか及び行の色差が所定の値(β)以下であるかを行毎にチェックする。   Here, the layout collation unit 153 checks for each row whether the slip difference is a predetermined value (α) or less and whether the color difference of the row is a predetermined value (β) or less.

例えば、行1及び行1’では、
|xmin1- xmin1'|<α 且つ
|ymin1- ymin1'|<α 且つ
|xmax1- xmax1'|<α 且つ
|ymax1- ymax1'|<α
であるか、更に、
|R-R'|<β 且つ
|G-G'|<β 且つ
|B-B'|<β
であるかがチェックされる。同様に全ての行についての照合がなされる。
For example, in row 1 and row 1 ′,
| Xmin1-xmin1 '| <α and | ymin1-ymin1' | <α and | xmax1-xmax1 '| <α and | ymax1-ymax1' | <α
Or,
| R-R '| <β and
| G-G '| <β and
| B-B '| <β
Is checked. Similarly, all rows are collated.

全ての行で同じ条件が成立した場合には1が、そうでない場合には0が照合結果加算部154に出力され、類似度として加算される。   If the same condition is satisfied in all the rows, 1 is output to the collation result adding unit 154 otherwise, and is added as the similarity.

上述した手法の他、画像内のタイトル文字のみを抽出して照合し、類似度を算出する手法を用いてもよい。図17に、該手法を実施するための類似度算出部108dの機能構成図を示す。図において、類似度算出部108dは、画像正規化部160と、フレームタイトル抽出部161と、OHPタイトル抽出部162と、タイトル照合部163と、照合結果加算部164とからなる。   In addition to the method described above, a method may be used in which only the title characters in the image are extracted and collated to calculate the similarity. FIG. 17 shows a functional configuration diagram of the similarity calculation unit 108d for performing the method. In the figure, the similarity calculation unit 108d includes an image normalization unit 160, a frame title extraction unit 161, an OHP title extraction unit 162, a title verification unit 163, and a verification result addition unit 164.

フレームタイトル抽出部161は、OHP領域画像からタイトルを抽出する。OHPタイトル抽出部162は、OHP取得部107で取得したページのタイトル情報を抽出する。タイトル照合部163は、フレームタイトル抽出部161とOHPタイトル抽出部162で取得されたタイトルを照合する。照合結果計算部164はタイトル照合部163にて照合された結果を数値化して類似度を計算する。   The frame title extraction unit 161 extracts a title from the OHP area image. The OHP title extraction unit 162 extracts the title information of the page acquired by the OHP acquisition unit 107. The title collating unit 163 collates the titles acquired by the frame title extracting unit 161 and the OHP title extracting unit 162. The collation result calculation unit 164 digitizes the result collated by the title collation unit 163 and calculates the similarity.

図18は、タイトル抽出処理とタイトル照合処理について明示したフローチャートである。まず、OHPタイトル抽出部162とフレームタイトル抽出部161では、それぞれ、OHPから直接作成した画像190a或いは動画像からキャプチャした画像190bから文字列領域をまず抽出し、抽出された複数の文字列領域において、最大のサイズを有する文字列領域をタイトルとして抽出する(S1400)。本実施の形態では、抽出されたタイトル情報は、S1401に示される通りであるとする。次にタイトル照合部163により照合処理を行う(S1402)。その際、座標の差の絶対値が所定の値以内であり、且つ、色が一致し、更に、文字内容の一定割合以上が一致すれば、OKを、それ以外はNGを、照合結果計算部164に出力する。照合結果計算部164は、入力された値を数値化し、OKであれば1000を、NGであれば0を類似度とする。   FIG. 18 is a flowchart clearly showing the title extraction process and the title collation process. First, the OHP title extraction unit 162 and the frame title extraction unit 161 first extract a character string region from an image 190a directly created from an OHP or an image 190b captured from a moving image, and in a plurality of extracted character string regions, respectively. The character string area having the maximum size is extracted as a title (S1400). In the present embodiment, it is assumed that the extracted title information is as shown in S1401. Next, collation processing is performed by the title collation unit 163 (S1402). At that time, if the absolute value of the coordinate difference is within a predetermined value, the colors match, and further, a certain percentage or more of the character contents match, OK is indicated, otherwise NG is indicated, and the collation result calculation unit To 164. The collation result calculation unit 164 digitizes the input value and sets the similarity to 1000 if OK and 0 to NG.

また、レイアウト情報を取得し照合する手法と画素を照合する手法とを統合して類似度を算出する手法を実行してもよい。図19は、該手法を実施するための類似度算出部108eの機能構成図である。OHPレイアウト取得部171により、OHP画像から抽出したある領域(例えば領域Iとする)の画像を取得する。また、更にフレームレイアウト取得部170により、動画像から抽出した画像において領域(例えば領域Jとする)の画像を取得する。画像正規化部172により領域Iのサイズに領域Jを正規化した後、画素照合部175によりフレーム領域画素抽出部173及びOHP領域画素抽出部により抽出された画素が照合される。画素の差は、照合結果計算部176に出力され、照合結果計算部176は両者の差の絶対値の和dを算出、更に類似度1/dを算出する。   Alternatively, a method of calculating similarity by integrating a method of acquiring and collating layout information and a method of collating pixels may be executed. FIG. 19 is a functional configuration diagram of the similarity calculation unit 108e for performing the method. The OHP layout acquisition unit 171 acquires an image of a certain region (for example, region I) extracted from the OHP image. Further, the frame layout acquisition unit 170 acquires an image of a region (for example, region J) in the image extracted from the moving image. After normalizing the region J to the size of the region I by the image normalization unit 172, the pixel collation unit 175 collates the pixels extracted by the frame region pixel extraction unit 173 and the OHP region pixel extraction unit. The pixel difference is output to the matching result calculation unit 176, and the matching result calculation unit 176 calculates the sum d of the absolute values of the differences between them, and further calculates the similarity 1 / d.

このように様々な手法で類似度が算出されるが、本発明は特にいずれかの手法に限定はせず、いずれの手法を用いてもよいし、また上記手法を複数用いて算出してもよい。   As described above, the degree of similarity is calculated by various methods. However, the present invention is not particularly limited to any method, and any method may be used, or may be calculated using a plurality of the above methods. Good.

なお、上述した類似度算出部108から108e(以下、これらを類似度算出部108と呼称する)は、あるフレームのOHP領域画像について、全てのOHP画像との類似度を算出する。具体的には、図4において、OHP画像の最初のページの類似度が算出された後(S1004)、その類似度が最大類似度(最初の段階では0)以上であれば(S1005、YES)、最大類似度に類似度をセットし、そのOHP画像のページ番号を記録する(S1006)。この時点でOHP画像の全てのページの照合が終了していなければ(S1007、NO)、OHP画像の次ページを抽出し、S1004の類似度計算処理を繰り返す。こうしてOHP画像全てのページの照合が終了すると(S1007、YES)、類似度算出部108は、その時点の処理対象であるフレーム番号と、最大類似度を有するOHP画像のページ番号を対応付け処理部109に出力する(S1008)。ここで、動画像のうち全てのフレームについての処理が終了していなければ(S1009、NO)、フレーム取得部105により次のフレーム画像を抽出して、S1001からS1009までの処理を繰り返す。   Note that the similarity calculation units 108 to 108e described above (hereinafter referred to as the similarity calculation unit 108) calculate the similarity between all OHP images for an OHP region image of a certain frame. Specifically, in FIG. 4, after the similarity of the first page of the OHP image is calculated (S1004), if the similarity is greater than or equal to the maximum similarity (0 in the first stage) (YES in S1005). The similarity is set as the maximum similarity, and the page number of the OHP image is recorded (S1006). If collation of all the pages of the OHP image has not been completed at this time (S1007, NO), the next page of the OHP image is extracted, and the similarity calculation process of S1004 is repeated. When the collation of all pages of the OHP image is thus completed (S1007, YES), the similarity calculation unit 108 associates the frame number that is the processing target at that time with the page number of the OHP image having the maximum similarity. It outputs to 109 (S1008). Here, if the processing has not been completed for all the frames in the moving image (S1009, NO), the frame acquisition unit 105 extracts the next frame image and repeats the processing from S1001 to S1009.

全てのフレームについての照合処理が終了すると、対応付け処理部109において、図20に示されるようなフレーム番号・OHP番号対応表(以下、対応表と呼称する)が作成される。図から明らかなように、各フレーム番号と、類似度が最も高いOHP画像との対応付けが示されている。対応付け処理部109は、本対応表を用いて、図21に示されるようなOHP画像と対応するフレーム区間を示すテーブル(以下、区間対応表と呼称する)を作成する。このように、OHP画像に対応して動画像のフレーム区間を対応付けるようにすれば、E-Learning用のコンテンツを作成する上で効率が高まる。なお、図20及び図21のエントリ番号は、表の各レコードに付されたインデックスを意味する。   When the collation processing for all the frames is completed, the correspondence processing unit 109 creates a frame number / OHP number correspondence table (hereinafter referred to as a correspondence table) as shown in FIG. As is clear from the figure, the correspondence between each frame number and the OHP image having the highest similarity is shown. The association processing unit 109 uses this correspondence table to create a table (hereinafter referred to as a section correspondence table) indicating the frame section corresponding to the OHP image as shown in FIG. As described above, if the frame section of the moving image is associated with the OHP image, the efficiency in creating the content for E-Learning increases. The entry numbers in FIG. 20 and FIG. 21 mean indexes assigned to the records in the table.

図22は、区間対応表作成処理の詳細を示すフローチャートである。本フローチャートでは、図20のエントリ番号をI及びJを用いてカウントする。まず、図20の対応表を読み出す(S1500)。Iに0をセットする(S1501)。続いて対応表のエントリIに該当するレコードを抽出する。この時抽出されたフレーム番号を開始フレーム番号として記録する(S1502)。続いてJにI+1をセットする(S1503)。そしてJがエントリ数に達しているか、すなわち図20のNに達しているか否かを判断する(S1504)。JがNに達していない場合(S1504、YES)、Jに該当するレコードを抽出する(S1505)。この時抽出されたOHP番号がIのOHP番号と一致するか否かを判断する(S1506)。一致していれば(S1506、YES)、Jをインクリメントし(S1507)、S1504からS1506の処理を繰り返す。この処理により、エントリ番号順にレコードを探索していき、OHP番号が異なるレコードに達した場合(S1506、NO)、直前のレコードのフレーム番号までが同一のOHP画像に対応していると判断され、J−1のフレーム番号をIのOHP番号の終了フレーム番号として記録する(S1508)。   FIG. 22 is a flowchart showing details of the section correspondence table creation processing. In this flowchart, the entry numbers in FIG. 20 are counted using I and J. First, the correspondence table of FIG. 20 is read (S1500). 0 is set to I (S1501). Subsequently, a record corresponding to entry I of the correspondence table is extracted. The frame number extracted at this time is recorded as the start frame number (S1502). Subsequently, I + 1 is set to J (S1503). Then, it is determined whether J has reached the number of entries, that is, whether it has reached N in FIG. 20 (S1504). If J has not reached N (S1504, YES), a record corresponding to J is extracted (S1505). It is determined whether or not the OHP number extracted at this time matches the I OHP number (S1506). If they match (S1506, YES), J is incremented (S1507), and the processing from S1504 to S1506 is repeated. By this process, the records are searched in the order of the entry numbers, and when the records having different OHP numbers are reached (S1506, NO), it is determined that the frame number of the previous record corresponds to the same OHP image, The frame number of J-1 is recorded as the end frame number of the I OHP number (S1508).

図20の場合、フレーム番号0とフレーム番号1がOHP番号0に対応しているため、図21に示されるようにOHP番号0の開始フレーム番号が0、終了フレーム番号が1となる。   In the case of FIG. 20, since frame number 0 and frame number 1 correspond to OHP number 0, the start frame number of OHP number 0 is 0 and the end frame number is 1 as shown in FIG.

次に、IにJをセットし(S1509)、IがNに達していなければ(S1510、YES)、続いて次のOHP画像の番号に対応するフレーム区間を探索する。すなわち、この時点で、Jには2がセットされているため、Iに2がセットされる。続いてS1502以降の処理が同様になされる。エントリ番号2のフレーム番号は2であるため、開始フレーム番号には2が記録される。同様に、Jをインクリメントしながら順に終了フレーム番号を探索していく。こうして、図21に示されるような区間対応表が作成される。   Next, J is set to I (S1509), and if I has not reached N (S1510, YES), the frame section corresponding to the number of the next OHP image is subsequently searched. In other words, at this time, since 2 is set in J, 2 is set in I. Subsequently, the processing after S1502 is similarly performed. Since the frame number of entry number 2 is 2, 2 is recorded as the start frame number. Similarly, the end frame number is searched in order while incrementing J. In this way, the section correspondence table as shown in FIG. 21 is created.

なお、このように作成された区間対応表中で、極端に短いフレーム区間が存在する場合、また、そうしたフレーム区間の前後のフレームのOHP画像の番号が同一である場合、該フレーム区間における対応付けが適切でない可能性が大きい。例えば、動画像中において、一時的に障害が発生し、OHP領域画像が明瞭に撮像されなかった場合、類似度算出において、適切な類似度計算がなされず、その部分のみ誤った対応付けがなされることがあるためである。特に、動画像が講義の場合には、OHP画像がページ番号順に用いられることが多いため、上述したフレーム区間の対応付けは不適切と判断される。このような場合を想定し、本実施の形態では、対応付け処理部109は、図21のテーブルを作成した後、短いフレーム区間の対応付け(エントリ)を削除して、該フレーム区間をその前後のフレーム区間に統合する処理を行う。   In the section correspondence table created in this way, when an extremely short frame section exists, and when the OHP image numbers of the frames before and after such a frame section are the same, the association in the frame section is performed. Is likely not appropriate. For example, when a failure occurs temporarily in a moving image and an OHP region image is not clearly captured, appropriate similarity calculation is not performed in similarity calculation, and only that part is incorrectly associated. It is because there are things. In particular, when a moving image is a lecture, OHP images are often used in the order of page numbers, and therefore the above-described association between frame sections is determined to be inappropriate. Assuming such a case, in the present embodiment, after creating the table in FIG. 21, the association processing unit 109 deletes the association (entry) of the short frame section and moves the frame section to the front and back To be integrated into the frame interval.

図23は、このような対応付け変更処理の流れを示すフローチャートである。本フローチャートでは、図21のエントリ番号をIを用いて説明する。まず、図21のOHP番号のフレーム区間テーブルを読み出す(S1700)。続いてIに0をセットする(S1701)。続いてIが本対応付け変更処理にて既に削除されたエントリ番号であるか否かをチェックする(S1702)。削除されたものでなければ(S1702、NO)、エントリ番号がIに該当するレコードを抽出する。更に、Iのフレーム長を以下の式により算出する(S1703)。
Iのフレーム長=終了フレーム−開始フレーム+1
FIG. 23 is a flowchart showing the flow of such association change processing. In this flowchart, the entry number in FIG. First, the frame section table of the OHP number in FIG. 21 is read (S1700). Subsequently, 0 is set to I (S1701). Subsequently, it is checked whether or not I is an entry number that has already been deleted in this association changing process (S1702). If it has not been deleted (S1702, NO), a record whose entry number corresponds to I is extracted. Further, the frame length of I is calculated by the following equation (S1703).
Frame length of I = end frame−start frame + 1

算出されたフレーム長が所定の値未満の場合には(S1704、YES)、Iの前後の削除されていないエントリのOHP番号が一致しているか否かを検証する(S1705)。一致していれば(S1705、YES)、Iエントリに削除印を付し、Iの直前のエントリの終了フレーム番号をIの直後のエントリの終了フレーム番号に変更する。更にIの直後のエントリにも削除印を付す(S1706)。この削除印により最終的に、短いフレーム区間がその前後のフレーム区間に統合され、図21の区間対応表において、該当の区間及びその直後のエントリ番号のレコードが削除される。続いて、S1707の処理に移行する。   If the calculated frame length is less than the predetermined value (S1704, YES), it is verified whether the OHP numbers of the undeleted entries before and after I match (S1705). If they match (S1705, YES), the I entry is marked for deletion, and the end frame number of the entry immediately before I is changed to the end frame number of the entry immediately after I. Further, the entry immediately after I is also marked for deletion (S1706). By this deletion mark, the short frame section is finally integrated into the preceding and subsequent frame sections, and the record of the corresponding section and the entry number immediately thereafter is deleted in the section correspondence table of FIG. Subsequently, the process proceeds to S1707.

なお、S1705で、OHP番号が一致していなければ(S1705、NO)、即座にS1707以降の処理に移行する。なお、一致していない場合とは、フレーム区間が所定の値より短い場合であっても、対応付けが適切である場合を示す。   If the OHP numbers do not match in S1705 (S1705, NO), the process immediately proceeds to S1707 and subsequent steps. In addition, the case where it does not correspond shows the case where matching is appropriate even if it is a case where a frame area is shorter than a predetermined value.

S1707でIをインクリメントした後、Iが総エントリ数(M)を超えたか否かをチェックする。Iが総エントリ数以下の場合には(S1708、NO)、S1702以降の処理を繰り返し、全てのエントリのフレーム区間とその対応付けをチェックする。Iが総エントリ数を超えた場合には(S1708、YES)、全てのエントリの確認が終了したと判断され、削除印が付されたエントリを削除する(S1709)。   After incrementing I in S1707, it is checked whether I exceeds the total number of entries (M). If I is equal to or less than the total number of entries (S1708, NO), the processing from S1702 onward is repeated, and the frame sections of all entries and their associations are checked. If I exceeds the total number of entries (S1708, YES), it is determined that all entries have been confirmed, and the entry marked for deletion is deleted (S1709).

こうして作成された区間対応表は、対応付け処理部109により対応付けテーブル110に格納される。コンテンツ作成装置1bは、該対応付けテーブルを参照し、既存の技術によりE-learning用のコンテンツを作成し、コンテンツ記憶部112に格納する。   The section correspondence table created in this way is stored in the association table 110 by the association processing unit 109. The content creation device 1b refers to the association table, creates content for E-learning using existing technology, and stores the content in the content storage unit 112.

以上説明したように、本実施の形態により、OHP画像と動画像の対応付けが自動的に且つ容易に行われ、それにより従来は手動で行われていたコンテンツ作成が迅速且つ容易に行われることとなる。   As described above, according to the present embodiment, the association between the OHP image and the moving image is automatically and easily performed, and thereby content creation that has been performed manually in the past can be performed quickly and easily. It becomes.

実施の形態2.
実施の形態1に示した図2の機能構成図及び図3のハードウェア構成図を用いて、対応付け処理に更に工夫を加味した実施の形態を以下に説明する。本実施の形態においては、類似度にしきい値を設け、一定の類似度以上の場合には、実施の形態1における図4と同様の処理を行い対応付けを行うが、フレーム画像がどのOHPページに対しても類似度が低い場合には、該フレーム画像の直前或いは直後のフレーム画像に対応付けされたOHP画像に対応付けるようにする。
Embodiment 2. FIG.
With reference to the functional configuration diagram of FIG. 2 shown in the first embodiment and the hardware configuration diagram of FIG. 3, an embodiment in which a device is further added to the association processing will be described below. In the present embodiment, a threshold is set for the similarity, and when the similarity is equal to or higher than a certain similarity, the same processing as in FIG. If the similarity is low, the OHP image is associated with the frame image immediately before or after the frame image.

上記処理の詳細を図を用いて詳細に説明する。
図24は、本実施の形態の画像対応付け装置1aの対応付け処理の流れを詳細に示したフローチャートである。
Details of the above processing will be described in detail with reference to the drawings.
FIG. 24 is a flowchart showing in detail the flow of association processing of the image association apparatus 1a of the present embodiment.

S1800からS1804までは実施の形態1と同様に処理されるため、説明を省略する。S1805において、類似度が予め定められた値以上である場合には(S1805、NO)、類似度算出部108は実施の形態1と同様の処理を行う(S1806〜S1808)。類似度が予め定められた値未満である場合には(S1805、YES)、最大類似度の値は変更されず、次のOHP画像との照合が行われる。S1804からS1808までの処理を全OHP画像との間で行う。   Since S1800 to S1804 are processed in the same manner as in the first embodiment, description thereof is omitted. In S1805, when the similarity is equal to or greater than a predetermined value (S1805, NO), the similarity calculation unit 108 performs the same processing as in the first embodiment (S1806 to S1808). When the similarity is less than a predetermined value (S1805, YES), the maximum similarity value is not changed and collation with the next OHP image is performed. The processing from S1804 to S1808 is performed between all OHP images.

1つのフレーム画像について照合処理が終了すると(S1808、YES)、類似度算出部108は、その時点の処理対象であるフレーム番号と、最大類類度を有するOHP画像のページ番号を対応付け処理部109に出力するが、この時、最大類似度が0である場合には、いずれのOHP画像とも対応がつかないとして、OHP番号を−1として出力しておく(S1809)。この結果、図20でフレーム番号が−1となるエントリが出現する。   When the collation processing is completed for one frame image (S1808, YES), the similarity calculation unit 108 associates the frame number that is the processing target at that time with the page number of the OHP image that has the highest degree of similarity. At this time, if the maximum similarity is 0, it is assumed that no correspondence is found with any OHP image, and the OHP number is output as −1 (S1809). As a result, an entry with a frame number of -1 appears in FIG.

図25は、本実施の形態において、対応付け処理部109が実施の形態1での図22の区間対応表作成処理を行う前に実施する処理の流れを示したフローチャートである。まず、図20に示すような対応表を読み込み(S1900)、エントリIに0をセットする。次に、Iをインクリメントしつつ(S1903)順に確認し、OHP番号が−1でないエントリIを探索する(S1902)。OHP番号が−1でないエントリIには、変数KにIをセットし、変数OHP1にエントリKのOHP番号をセットし、対応表において、Iが0からKまでの全エントリのOHP番号をOHP1に変更する(S1904)。   FIG. 25 is a flowchart showing a flow of processing performed before the association processing unit 109 performs the section correspondence table creation processing of FIG. 22 in Embodiment 1 in the present embodiment. First, a correspondence table as shown in FIG. 20 is read (S1900), and 0 is set in entry I. Next, I is incremented (S1903) and checked in order, and an entry I whose OHP number is not -1 is searched (S1902). For an entry I whose OHP number is not -1, I is set to the variable K, the OHP number of the entry K is set to the variable OHP1, and the OHP numbers of all the entries from 0 to K in the correspondence table are set to OHP1. Change (S1904).

次に、IにK+1をセットし(S1905)、続いて、OHP番号が−1のエントリIを探索する(S1906)。IエントリのOHP番号が−1でない場合には(S1906、NO)、OHP1にエントリIのOHP番号をセットする(S1907)。更にエントリIのOHP番号にOHP1をセットし、Iをインクリメントする(S1908)。IエントリのOHP番号が−1である場合には(S1906、YES)、既にセットされているOHP1の値をエントリIのOHP番号にセットし、Iをインクリメントする(S1908)。   Next, K + 1 is set to I (S1905), and then an entry I having an OHP number of -1 is searched (S1906). If the OHP number of the I entry is not −1 (S1906, NO), the OHP number of the entry I is set in OHP1 (S1907). Further, OHP1 is set to the OHP number of entry I, and I is incremented (S1908). If the OHP number of the I entry is −1 (S1906, YES), the value of OHP1 that has already been set is set to the OHP number of entry I, and I is incremented (S1908).

すなわち、本処理により対応表で−1となったフレーム番号のOHP番号が該エントリ直前の−1以外のOHP番号に置き換えられる(S1905〜S1908)。なお、I=0のエントリで−1が出現した場合は、該エントリ直後の−1以外のOHP番号に置き換えられる(S1902〜S1904)。本処理はIが総エントリ数に達するまでループする。   That is, the OHP number of the frame number that is -1 in the correspondence table by this processing is replaced with an OHP number other than -1 immediately before the entry (S1905 to S1908). When −1 appears in an entry with I = 0, it is replaced with an OHP number other than −1 immediately after the entry (S1902 to S1904). This process loops until I reaches the total number of entries.

このように対応表からOHP番号の−1を削除した後、図22の処理を行うことで、区間対応表が完成する。   After deleting the OHP number −1 from the correspondence table in this way, the section correspondence table is completed by performing the processing of FIG.

実施の形態3.
実施の形態1に示した図2の機能構成図及び図3のハードウェア構成図を用いて、対応付け処理に更に工夫を加味した他の実施の形態を説明する。本実施の形態では、全フレーム画像とOHP画像との照合に代え、フレーム画像を所定の間隔毎に抜き出して、抜き出したフレーム画像とOHP画像とを照合し、同一のOHP画像と対応付けされた2つのフレームの間に存在する全てのフレーム画像に該同一のOHP画像と対応付けるようにする。これにより処理の効率化を図る。
Embodiment 3 FIG.
Another embodiment in which a device is further added to the association process will be described using the functional configuration diagram of FIG. 2 shown in the first embodiment and the hardware configuration diagram of FIG. 3. In the present embodiment, instead of collating all frame images and OHP images, frame images are extracted at predetermined intervals, the extracted frame images are collated with OHP images, and associated with the same OHP image. All the frame images existing between two frames are associated with the same OHP image. As a result, processing efficiency is improved.

図26は、本実施の形態の画像対応付け装置1aの対応付け処理の流れを詳細に示したフローチャートである。また、図27は、図26のフローチャートに沿って実施される具体的な照合処理の一例を示している。上段にフレーム番号が、下段にはフレーム番号との照合の結果得られる、最大類似度を有するOHP番号が示されている。ここでは便宜のため、既に対応のOHP番号が明示されているが、該番号は実際に照合処理を行うことにより得られるものであり、図26に示された処理開始以前には不明なものとする。   FIG. 26 is a flowchart showing in detail the flow of association processing of the image association apparatus 1a of the present embodiment. FIG. 27 shows an example of a specific collation process performed along the flowchart of FIG. The upper row shows the frame number, and the lower row shows the OHP number having the maximum similarity obtained as a result of matching with the frame number. Here, for convenience, the corresponding OHP number is already specified, but the number is obtained by actually performing the collation process, and is unknown before the start of the process shown in FIG. To do.

また、図26中のフレーム抽出処理はフレーム取得部105が行い、照合処理(類似度算出処理)は類似度算出部108が行うが、それ以外の処理は全て対応付け処理部109が行うものとする。   The frame extraction process in FIG. 26 is performed by the frame acquisition unit 105, and the collation process (similarity calculation process) is performed by the similarity calculation unit 108, but all other processes are performed by the association processing unit 109. To do.

まず、図26において、動画像の最初のフレーム番号(0)を抽出する。また、変数「OHP番号1」に0をセットする。(S1600)。次に、変数「OHP番号1の開始フレーム」及び変数「Startフレーム」にフレーム番号(最初の時点では0)をセットし、変数「Endフレーム」には、Startフレームに予め定められた所定の間隔(INTERVAL)を加算した値をセットする(S1601)。これにより、INTERVAL毎にフレームが抜き出されて照合処理が行われる。   First, in FIG. 26, the first frame number (0) of the moving image is extracted. Also, 0 is set in the variable “OHP number 1”. (S1600). Next, the frame number (0 at the first time point) is set to the variable “Start frame of OHP number 1” and the variable “Start frame”, and the variable “End frame” has a predetermined interval predetermined in the Start frame. A value obtained by adding (INTERVAL) is set (S1601). As a result, a frame is extracted for each interval, and collation processing is performed.

図27においては、INTERVALが5とされ、下向き矢印により抜き出すフレーム番号が示されている。また、S1601におけるStartフレームは(1)列のフレーム番号、Endフレームは(2)列のフレーム番号で示されている。   In FIG. 27, INTERVAL is set to 5, and a frame number extracted by a downward arrow is shown. The Start frame in S1601 is indicated by the frame number in (1) column, and the End frame is indicated by the frame number in (2) column.

続いて、Endフレーム(抜き出したフレーム)とOHP画像との照合処理を行う(S1602)。本照合処理は、図4のS1001からS1007までの処理と同様であるため、説明を省略する。更に、この照合処理により得られた最大類似度を有するOHP番号を変数「OHP番号2」にセットする(S1602)。   Subsequently, the end frame (extracted frame) is collated with the OHP image (S1602). Since this collation processing is the same as the processing from S1001 to S1007 in FIG. Further, the OHP number having the maximum similarity obtained by this collation processing is set in the variable “OHP number 2” (S1602).

次に、OHP番号2とOHP番号1が等しいか否かを検証する。図27の場合には、OHP番号2とOHP番号1が互いに0で等しいため(S1603、YES)、続いて「OHP番号1の終了フレーム」及び「Startフレーム」にEndフレームをセットし、「Endフレーム」に現在のEndフレームにINTERVALを加算した値をセットする(S1604)。この時点で、Startフレームは(2)で示された位置のフレーム番号となり、Endフレームは(3)で示された位置のフレーム番号となる。   Next, it is verified whether OHP number 2 and OHP number 1 are equal. In the case of FIG. 27, since OHP number 2 and OHP number 1 are equal to 0 (S1603, YES), an End frame is subsequently set in “End frame of OHP number 1” and “Start frame”. A value obtained by adding INTERVAL to the current End frame is set in “Frame” (S1604). At this time, the Start frame has the frame number at the position indicated by (2), and the End frame has the frame number at the position indicated by (3).

続いて、S1602の処理に戻り、照合処理を再度行う。OHP番号1とOHP番号2が同一である間は、S1602からS1604の処理が繰り返さされる。図27に示された例((2)と(3))では、OHP番号1が0であり、OHP番号2が1となるため、同一とはならず(S1603、NO)、S1605の処理に遷移する。S1605において、変数「Endフレーム2」には、その時点でのEndフレームがセットされ、「Endフレーム」には、Startフレーム+(Endフレーム2−Startフレーム+1)/2がセットされる。すなわち、INTERVALを2で分割した位置にあるフレームが次のEndフレームとなる。なお、(Endフレーム2−Startフレーム+1)/2は小数点以下切り捨てとする。図27の例では、Endフレームは(4)の位置に示されたフレーム番号となる。   Subsequently, the process returns to S1602, and the matching process is performed again. While the OHP number 1 and the OHP number 2 are the same, the processing from S1602 to S1604 is repeated. In the example ((2) and (3)) shown in FIG. 27, since the OHP number 1 is 0 and the OHP number 2 is 1, they are not the same (S1603, NO), and the processing of S1605 is not performed. Transition. In S1605, the End frame at that time is set in the variable “End frame 2”, and Start frame + (End frame 2−Start frame + 1) / 2 is set in “End frame”. That is, the frame at the position obtained by dividing INTERVAL by 2 becomes the next End frame. Note that (End frame 2−Start frame + 1) / 2 is rounded down. In the example of FIG. 27, the End frame has the frame number indicated at the position (4).

次に、Endフレーム2がEndフレームと同一であるか否かをチェックする(S1606)。同一でなければ、次に、現時点でのEndフレームとOHP画像との照合処理を行う(S1607)。この照合処理により得られたOHP番号を「OHP番号2」にセットする。ここで、OHP番号2とOHP番号1が等しいか否かを検証する(S1608)。図27に示された例では、OHP番号1が0であり、OHP番号2が1となるため、同一とはならず(S1608、NO)、S1610の処理に移行する。S1610では、「Endフレーム2」にEndフレームをセットし、「Endフレーム」にはStartフレーム+(Endフレーム2−Startフレーム+1)/2をセットする。この時点で、Endフレームは(5)で示された位置のフレーム番号となる。   Next, it is checked whether or not the End frame 2 is the same as the End frame (S1606). If they are not the same, next, a matching process between the current End frame and the OHP image is performed (S1607). The OHP number obtained by this collation process is set to “OHP number 2”. Here, it is verified whether or not the OHP number 2 and the OHP number 1 are equal (S1608). In the example shown in FIG. 27, since the OHP number 1 is 0 and the OHP number 2 is 1, they are not the same (S1608, NO), and the process proceeds to S1610. In S1610, an End frame is set in “End frame 2”, and Start frame + (End frame 2−Start frame + 1) / 2 is set in “End frame”. At this time, the End frame is the frame number at the position indicated by (5).

次に、S1606に戻り、再度Endフレーム2とEndフレームが同一であるかをチェックする。図27の例においては、この時点でEndフレーム2が8であり、Endフレームが7であるため(S1606、NO)、S1607の照合処理が行われる。その結果OHP番号2とOHP番号1が等しくなるため(S1608、YES)、S1609の処理に移行する。S1609では、「OHP番号1の終了フレーム」及び「Startフレーム」にEndフレームをセットし、「Endフレーム」にはStartフレーム+(Endフレーム2−Startフレーム+1)/2をセットする。   Next, returning to S1606, it is checked again whether End frame 2 and End frame are the same. In the example of FIG. 27, since the End frame 2 is 8 and the End frame is 7 at this time (S1606, NO), the collation process of S1607 is performed. As a result, since OHP number 2 and OHP number 1 are equal (S1608, YES), the process proceeds to S1609. In S1609, the End frame is set in “End frame of OHP number 1” and “Start frame”, and Start frame + (End frame 2−Start frame + 1) / 2 is set in “End frame”.

この時点で、開始フレーム番号には0、終了フレーム番号には1がセットされており、この値を区間対応表のOHP番号が0のエントリに出力する。更に、Endフレーム2及びEndフレームは7となるため(S1606、YES)、S1606でS1611の処理に移行し、フレーム番号にEndフレーム2をセットし、OHP番号1をインクリメントしてS1601の処理に戻る。
以上の処理を繰り返すことにより、全フレーム画像を照合せずとも、図21の区間対応表が得られ、OHP画像と対応付けることが可能となる。
At this time, the start frame number is set to 0 and the end frame number is set to 1, and this value is output to the entry whose OHP number is 0 in the section correspondence table. Further, since End frame 2 and End frame are 7 (YES in S1606), the process proceeds to S1611 in S1606, End frame 2 is set in the frame number, OHP number 1 is incremented, and the process returns to S1601. .
By repeating the above processing, the section correspondence table of FIG. 21 can be obtained without matching all the frame images, and can be associated with the OHP image.

以上、本発明の様々な実施の形態を説明したが、本発明は上述した実施の形態に限定されることはなく、本発明の要旨を逸脱しない範囲において応用可能であることはもちろんである。   While various embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and can of course be applied without departing from the scope of the present invention.

(付記1) 複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断手段と、
前記関連性判断手段により所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付け手段と、
を備えてなる画像対応付け装置。
(付記2) 付記1に記載の画像対応付け装置において、
前記所定の関連性が、第2の画像の一つに第1の画像に対応する画像の一つが含まれるというものである場合に、
前記関連性判断手段は、
第2の画像から所定領域を抽出する所定領域抽出手段と、
前記所定領域抽出手段により抽出された前記所定領域の画像が第1の画像のいずれの画像に対応するのかを判断する対応画像判断手段と
を備えたことを特徴とする画像対応付け装置。
(付記3) 付記2に記載の画像対応付け装置において、
前記対応画像判断手段は、前記所定領域の画像と第1の画像との類似度を算出する類似度算出手段を備え、該類似度算出手段により算出された類似度に基づいて、前記所定領域に含まれる画像が第1の画像のいずれの画像に対応するのかを判断することを特徴とする画像対応付け装置。
(付記4) 付記3に記載の画像対応付け装置において、
前記類似度算出手段は、前記所定領域の画像に対して第1の画像のすべての画像との類似度を算出し、該類似度に基づいて前記所定領域の画像に対する第1の画像の対応付け候補を求めることを特徴とする画像対応付け装置。
(付記5) 付記2乃至付記4のいずれかに記載の画像対応付け装置において、
第1の画像は矩形状をなして、第2の画像の一部に含まれ、
前記所定領域抽出手段は、第2の画像における直線成分を検出すると共に、検出された直線成分に基づいて前記矩形状を前記所定領域として検出することを特徴とする画像対応付け装置。
(付記6) 付記5に記載の画像対応付け装置において、
前記所定領域抽出手段は、前記直線成分を検出する際に、第2の画像においてエッジ抽出処理を行って、エッジ2値画像を作成し、得られたエッジ2値画像に対してハフ変換を行うことを特徴とする画像対応付け装置。
(付記7) 付記5又は付記6に記載の画像対応付け装置において、
前記所定領域抽出手段は、検出された直線成分を統合して矩形状を検出すると共に、得られた矩形状の中で最大のものを前記所定領域として抽出することを特徴とする画像対応付け装置。
(付記8) 付記3に記載の画像対応付け装置において、
前記類似度算出手段は、前記所定領域抽出手段により抽出された所定領域における画像を構成する複数の画素と、第1画像を構成する複数の画素とを照合し、照合結果に基づいて類似度を算出することを特徴とする画像対応付け装置。
(付記9) 付記8に記載の画像対応付け装置において、
前記類似度算出手段は、前記所定領域の画像と第1画像との少なくともいずれかの画像のサイズを変更する画像サイズ変更手段を備え、
変更された画像サイズにおいて前記照合を行うことを特徴とする画像対応付け装置。
(付記10) 付記3に記載の画像対応付け装置において、
前記類似度算出手段は、画像に含まれる文字を認識する文字認識手段を備え、
所定領域抽出手段により抽出された第2の画像の所定領域の画像において認識された文字と、第1の画像において認識された文字とに基づいて類似度を算出することを特徴とする画像対応付け装置。
(付記11) 付記10に記載の画像対応付け装置において、
前記類似度算出手段は、前記所定領域の画像と第1の画像との互いに対応する位置において認識されたすべての文字について照合を行い、該照合結果に基づいて類似度を算出することを特徴とする画像対応付け装置。
(付記12) 付記10に記載の画像対応付け装置において、
前記類似度算出手段は、前記所定領域の画像と第1の画像との互いに対応する位置において認識された連続する所定数の文字について照合を行い、該照合結果に基づいて類似度を算出することを特徴とする画像対応付け装置。
(付記13) 付記3に記載の画像対応付け装置において、
前記類似度算出手段は、画像に含まれるレイアウト情報を検出するレイアウト情報検出手段を備え、
前記所定領域抽出手段により抽出された第2の画像の所定領域の画像において検出されたレイアウト情報と、第1の画像において検出されたレイアウト情報とに基づいて類似度を算出することを特徴とする画像対応付け装置。
(付記14) 付記13に記載の画像対応付け装置において、
前記レイアウト情報には、前記所定領域の属性情報、前記所定の領域の配置状況についての情報、前記所定の領域の特徴量の少なくともいずれかが含まれることを特徴とする画像対応付け装置。
(付記15) 付記14に記載の画像対応付け装置において、
前記所定の領域の属性情報には、図、表、文字列ブロック、文字列ブロック中の各文字列の少なくともいずれかの属性値が含まれることを特徴とする画像対応付け装置。
(付記16) 付記13乃至付記15のいずれかに記載の画像対応付け装置において、
前記所定の領域の特徴量には、文字列を囲む矩形の位置、文字列のサイズ、文字列の形状、文字列の色の少なくともいずれかの情報が含まれることを特徴とする画像対応付け装置。
(付記17) 付記16に記載の画像対応付け装置において、
前記レイアウト情報検出手段により検出される各文字列毎に複数存在する色情報についての特徴量は、各文字列毎に複数存在する色情報をクラスタリングして得られた所定の代表色の情報であることを特徴とする画像対応付け装置。
(付記18) 付記1乃至付記17のいずれかに記載の画像対応付け装置において、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、
あるフレーム数だけ離れた二つのフレーム画像に対応する第1の画像が同一である場合に、前記対応付け手段は、前記二つのフレーム画像の間に存在するフレーム画像に、前記二つのフレーム画像に対応する第1の画像と同じ画像を対応付けることを特徴とする画像対応付け装置。
(付記19) 付記1乃至付記17のいずれかに記載の画像対応付け装置において、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、
連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引き手段を備え、
前記関連性判断手段は、前記フレーム画像間引き手段により間引かれたフレーム画像について第1の画像との関連性を判断することを特徴とする画像対応付け装置。
(付記20) 付記19に記載の画像対応付け装置において、
前記フレーム画像間引き手段により抽出され、所定のフレーム間隔を有する二つのフレーム画像に対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引き手段により間引かれるフレーム間隔を小さくする間引き間隔変更手段を備えることを特徴とする画像対応付け装置。
(付記21) 付記1乃至付記17のいずれかに記載の画像対応付け装置において、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、
連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出手段を備え、
前記対応付け手段は、前記ポイント検出手段により検出されたポイント間の各フレーム画像に同一の第1の画像を対応付けることを特徴とする画像対応付け装置。
(付記22) 付記1乃至付記17のいずれかに記載の画像対応付け装置において、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、
前記対応付け手段は、同一の第1の画像が対応付けられる複数のフレーム画像の間に、前記同一の第1の画像が対応付けられないフレーム画像が所定フレーム数以下に亘って存在する場合に、これらフレーム画像にも前記同一の第1の画像を対応付けることを特徴とする画像対応付け装置。
(付記23) 付記1乃至付記17のいずれかに記載の画像対応付け装置において、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、
前記関連性判断手段により、第1の画像との関連性が判断されないフレーム画像について、前記対応付け手段は、前記関連性が見出せる直前或いは直後のフレーム画像に対応付けられた第1の画像と同じ画像を対応付けることを特徴とする画像対応付け装置。
(付記24) 付記1乃至付記25のいずれかに記載の画像対応付け装置において、
第2の画像は、撮像手段により撮像されて得られる動画像であり、
第1の画像は、前記撮像手段により撮像され、前記動画像の中の前記所定領域に含まれる画像であることを特徴とする画像対応付け装置。
(付記25) 付記1乃至付記26のいずれかに記載の画像対応付け装置において、
第1の画像は、OHPにより投影される画像であり、第2の画像は前記OHPにより投影されている画像がその所定領域に撮像されている画像であることを特徴とする画像対応付け装置。
(付記26) 複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断ステップと、
前記関連性判断ステップにより所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付けステップと、
を備えてなる画像対応付け方法。
(付記27) コンピュータにより読取り可能な媒体に記憶され、画像対応付け処理をコンピュータに実行させる画像対応付けプログラムであって、
複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断ステップと、
前記関連性判断ステップにより所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付けステップと、
をコンピュータに実行させることを特徴とする画像対応付けプログラム。
(Supplementary Note 1) A plurality of first images and a plurality of second images, wherein at least one of the plurality of second images has a predetermined association with any one of the first images Relevance determining means for determining which of the first images each of the second images has the predetermined relevance on the basis of the second image having sex;
Association means for associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination means;
An image association apparatus comprising:
(Supplementary Note 2) In the image association apparatus according to Supplementary Note 1,
When the predetermined relationship is that one of the second images includes one of the images corresponding to the first image,
The relevance determining means includes
Predetermined area extraction means for extracting a predetermined area from the second image;
An image association apparatus comprising: a corresponding image determination unit that determines which image of the first image the image of the predetermined region extracted by the predetermined region extraction unit corresponds to.
(Supplementary Note 3) In the image association apparatus according to Supplementary Note 2,
The corresponding image determining unit includes a similarity calculating unit that calculates a similarity between the image of the predetermined region and the first image, and the corresponding image determining unit stores the predetermined region based on the similarity calculated by the similarity calculating unit. An image association apparatus for determining which image of the first image corresponds to the included image.
(Supplementary Note 4) In the image association apparatus according to Supplementary Note 3,
The similarity calculation means calculates a similarity between all the images of the first image with respect to the image of the predetermined area, and associates the first image with the image of the predetermined area based on the similarity An image association apparatus characterized by obtaining a candidate.
(Supplementary note 5) In the image association apparatus according to any one of supplementary notes 2 to 4,
The first image has a rectangular shape and is included in a part of the second image,
The predetermined area extracting unit detects a linear component in a second image and detects the rectangular shape as the predetermined area based on the detected linear component.
(Supplementary Note 6) In the image association apparatus according to Supplementary Note 5,
The predetermined area extraction unit performs edge extraction processing on the second image when detecting the straight line component, creates an edge binary image, and performs Hough transform on the obtained edge binary image An image association apparatus characterized by that.
(Supplementary Note 7) In the image association apparatus according to Supplementary Note 5 or Supplementary Note 6,
The predetermined area extracting means detects the rectangular shape by integrating the detected linear components, and extracts the largest one of the obtained rectangular shapes as the predetermined area. .
(Supplementary note 8) In the image association apparatus according to supplementary note 3,
The similarity calculating means collates a plurality of pixels constituting the image in the predetermined area extracted by the predetermined area extracting means with a plurality of pixels constituting the first image, and calculates the similarity based on the collation result. An image association apparatus characterized by calculating.
(Supplementary note 9) In the image association device according to supplementary note 8,
The similarity calculation means includes image size changing means for changing the size of at least one of the image of the predetermined area and the first image,
An image associating device that performs the collation for a changed image size.
(Supplementary Note 10) In the image association apparatus according to Supplementary Note 3,
The similarity calculation means includes character recognition means for recognizing characters included in an image,
An image association characterized in that a similarity is calculated based on a character recognized in an image of a predetermined region of the second image extracted by the predetermined region extraction means and a character recognized in the first image apparatus.
(Supplementary Note 11) In the image association apparatus according to Supplementary Note 10,
The similarity calculation means performs matching for all characters recognized at positions corresponding to each other between the image of the predetermined region and the first image, and calculates the similarity based on the matching result. An image association apparatus.
(Supplementary note 12) In the image association apparatus according to supplementary note 10,
The similarity calculation means performs collation on a predetermined number of consecutive characters recognized at positions corresponding to each other in the image of the predetermined area and the first image, and calculates the similarity based on the collation result An image association apparatus characterized by the above.
(Supplementary note 13) In the image association device according to supplementary note 3,
The similarity calculation means includes layout information detection means for detecting layout information included in the image,
The similarity is calculated based on layout information detected in an image of a predetermined area of the second image extracted by the predetermined area extraction means and layout information detected in the first image. Image association device.
(Supplementary note 14) In the image association apparatus according to supplementary note 13,
The image association apparatus, wherein the layout information includes at least one of attribute information of the predetermined area, information about an arrangement state of the predetermined area, and a feature amount of the predetermined area.
(Supplementary Note 15) In the image association apparatus according to Supplementary Note 14,
The image association apparatus characterized in that the attribute information of the predetermined area includes at least one attribute value of each character string in a figure, a table, a character string block, and a character string block.
(Supplementary Note 16) In the image association apparatus according to any one of Supplementary Notes 13 to 15,
The feature amount of the predetermined region includes at least one of information on a position of a rectangle surrounding the character string, a character string size, a character string shape, and a character string color. .
(Supplementary note 17) In the image association apparatus according to supplementary note 16,
The feature amount of the color information existing for each character string detected by the layout information detecting means is information on a predetermined representative color obtained by clustering the color information existing for each character string. An image association apparatus characterized by that.
(Supplementary note 18) In the image association device according to any one of supplementary notes 1 to 17,
When the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images,
When the first images corresponding to two frame images separated by a certain number of frames are the same, the associating means adds a frame image existing between the two frame images to the two frame images. An image association apparatus that associates the same image with a corresponding first image.
(Supplementary note 19) In the image association apparatus according to any one of supplementary note 1 to supplementary note 17,
When the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images,
Frame image thinning means for extracting frame images at predetermined frame intervals from a plurality of consecutive frame images,
The relevance determining means determines the relevance of the frame image thinned out by the frame image thinning means to the first image.
(Supplementary note 20) In the image association device according to supplementary note 19,
A thinning interval for reducing the frame interval thinned out by the frame image thinning unit when the two first images extracted by the frame image thinning unit and associated with two frame images having a predetermined frame interval are not the same. An image association apparatus comprising a changing means.
(Supplementary note 21) In the image association device according to any one of supplementary notes 1 to 17,
When the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images,
Point detecting means for detecting a point when a first image corresponding to a continuous frame image is different between preceding and following frames;
The image association apparatus, wherein the association unit associates the same first image with each frame image between the points detected by the point detection unit.
(Supplementary note 22) In the image association device according to any one of supplementary notes 1 to 17,
When the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images,
The associating means may include a case in which frame images that are not associated with the same first image exist between a plurality of frame images associated with the same first image over a predetermined number of frames. An image association apparatus that associates the same first image with these frame images.
(Supplementary note 23) In the image association device according to any one of supplementary notes 1 to 17,
When the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images,
For a frame image whose relevance to the first image is not determined by the relevance determination means, the association means is the same as the first image associated with the frame image immediately before or immediately after the relevance can be found. An image association apparatus characterized by associating images.
(Supplementary Note 24) In the image association apparatus according to any one of Supplementary Notes 1 to 25,
The second image is a moving image obtained by being imaged by the imaging means,
The image association apparatus, wherein the first image is an image captured by the imaging unit and included in the predetermined area in the moving image.
(Supplementary Note 25) In the image association apparatus according to any one of Supplementary Notes 1 to 26,
The first image is an image projected by OHP, and the second image is an image in which an image projected by the OHP is captured in a predetermined area.
(Supplementary Note 26) A plurality of first images and a plurality of second images, wherein at least one of the plurality of second images has a predetermined association with any one of the first images A relevance determination step for determining which of the first images each of the second images has the predetermined relevance based on the second image having a sex;
An association step of associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination step;
An image association method comprising:
(Supplementary note 27) An image association program stored in a computer-readable medium and causing the computer to execute an image association process,
A plurality of first images and a plurality of second images, wherein at least one of the plurality of second images has a predetermined relationship with any one of the first images. A relevance determining step for determining, based on the second image, which of the first images each of the second images has the predetermined relevance;
An association step of associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination step;
An image association program that causes a computer to execute.

本発明の実施の形態の概念図である。It is a conceptual diagram of embodiment of this invention. 画像対応付け・コンテンツ作成装置の機能構成図である。It is a function block diagram of an image matching and content creation apparatus. 画像対応付け・コンテンツ作成装置のハードウェア構成図である。It is a hardware block diagram of an image matching and content creation apparatus. 画像対応付け装置の対応付け処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the matching process of an image matching apparatus. OHP領域画像抽出処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the OHP area | region image extraction process. 画素により類似度を算出する類似度算出部の機能構成図である。It is a functional block diagram of the similarity calculation part which calculates similarity by a pixel. 図6の類似度算出部により実行される類似度算出処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the similarity calculation process performed by the similarity calculation part of FIG. 文字情報を用いて類似度を算出する類似度算出部の機能構成図である。It is a function block diagram of the similarity calculation part which calculates similarity using character information. 図8の類似度算出部により実行される類似度算出処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the similarity calculation process performed by the similarity calculation part of FIG. 文字認識処理の詳細を示したフローチャートである。It is the flowchart which showed the detail of the character recognition process. 画素を用いた類似度算出処理及び文字を用いた類似度算出処理の両手法を用いて全体の類似度を算出するための類似度算出部の機能構成図である。It is a functional block diagram of the similarity calculation part for calculating the whole similarity using both the similarity calculation process using a pixel, and the similarity calculation process using a character. レイアウト情報を用いて類似度を算出する類似度算出部の機能構成図である。It is a functional block diagram of the similarity calculation part which calculates similarity using layout information. レイアウト情報の一例を示した図である。It is the figure which showed an example of layout information. レイアウト情報を用いた照合処理の一例を示した図である。It is the figure which showed an example of the collation process using layout information. レイアウト情報を用いた照合処理の一例を示した図である。It is the figure which showed an example of the collation process using layout information. レイアウト情報を用いた照合処理の一例を示した図である。It is the figure which showed an example of the collation process using layout information. 画像内のタイトル文字を抽出して類似度を算出するための類似度算出部の機能構成図である。It is a functional block diagram of the similarity calculation part for extracting the title character in an image and calculating similarity. タイトル抽出処理とタイトル照合処理について示したフローチャートである。It is the flowchart shown about the title extraction process and the title collation process. レイアウト情報を取得し照合する手法と画素を照合する手法とを統合して類似度を算出するための類似度算出部の機能構成図である。It is a functional block diagram of the similarity calculation part for calculating the similarity by integrating the method of acquiring and collating layout information and the method of collating pixels. フレーム番号・OHP番号対応表の一例である。It is an example of a frame number / OHP number correspondence table. OHP画像と対応するフレーム区間を示すテーブルの一例である。It is an example of the table which shows the frame area corresponding to an OHP image. 区間対応表作成処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a section corresponding table creation process. 区間対応表中の短いフレーム区間の対応付けを削除して、該フレーム区間をその前後のフレーム区間に統合するための処理を示したフローチャートである。It is the flowchart which showed the process for deleting the correspondence of the short frame area in an area correlation table, and integrating this frame area in the frame area before and behind that. 実施の形態2の画像対応付け装置の対応付け処理の流れを詳細に示したフローチャートである。10 is a flowchart illustrating in detail a flow of association processing of the image association apparatus according to the second embodiment. 算出された類似度によりOHP画像との対応付けがなされなかったフレーム番号について、対応付け処理を行うための処理を示したフローチャートである。It is the flowchart which showed the process for performing a matching process about the frame number by which matching with the OHP image was not made | formed by the calculated similarity. 実施の形態3の画像対応付け装置の対応付け処理の流れを詳細に示したフローチャートである。10 is a flowchart illustrating in detail a flow of association processing of the image association apparatus according to the third embodiment. 図26のフローチャートに沿って実施される具体的な照合処理の一例を示している。An example of the specific collation process implemented along the flowchart of FIG. 26 is shown.

符号の説明Explanation of symbols

1 画像対応付け・コンテンツ作成装置、1a 画像対応付け装置、1b コンテンツ作成装置、2 OHPを使った講演、3 カメラ撮影、4 OHPファイル、5 E-learningコンテンツ、11 ビデオ入力制御装置、12 CPU、13 メモリ、14 ファイル入出力装置、15 画像用HDD、16 プログラムHDD、17 コンテンツHDD、18 対応付けテーブルHDD、19 OHPファイルHDD、20 LANインタフェース、21 CD−ROMドライブ、101 動画像入力部、102 動画像記憶部、103 OHPファイル入力部、104 OHPファイル記憶部、105 フレーム取得部、106 OHP領域抽出部、107 OHP取得部、108、108a、108b、108c、108d、108e 類似度算出部、109 対応付け処理部、110 対応付けテーブル、111 コンテンツ作成部、112 コンテンツ記憶部、120 画像正規化部、121 フレーム画素抽出部、122 OHP画素抽出部、123 画素照合部、124 照合結果加算部、130 画像正規化部、131 フレーム文字抽出部、132 OHP文字抽出部、133 文字照合部、134 照合結果加算部、140 画素照合結果算出部、141 文字照合結果算出部、142 総合類似度算出部、150 画像正規化部、151 フレームレイアウト取得部、152 OHPレイアウト取得部、153 レイアウト照合部、154 照合結果加算部、160 画像正規化部、161 フレームタイトル抽出部、162 OHPタイトル抽出部、163 タイトル照合部、164 照合結果計算部、170 フレームレイアウト取得部、171 OHPレイアウト取得部、172 画像正規化部、173 フレーム領域画素抽出部、174 OHP領域画素抽出部、175 画素照合部、176 照合結果計算部。   1 Image association / content creation device, 1a Image association device, 1b Content creation device, 2 Lecture using OHP, 3 Camera shooting, 4 OHP file, 5 E-learning content, 11 Video input control device, 12 CPU, 13 memory, 14 file input / output device, 15 image HDD, 16 program HDD, 17 content HDD, 18 association table HDD, 19 OHP file HDD, 20 LAN interface, 21 CD-ROM drive, 101 moving image input unit, 102 Moving image storage unit, 103 OHP file input unit, 104 OHP file storage unit, 105 frame acquisition unit, 106 OHP region extraction unit, 107 OHP acquisition unit, 108, 108a, 108b, 108c, 108d, 108e Similarity calculation unit, 1 9 association processing unit, 110 association table, 111 content creation unit, 112 content storage unit, 120 image normalization unit, 121 frame pixel extraction unit, 122 OHP pixel extraction unit, 123 pixel collation unit, 124 collation result addition unit, 130 image normalization unit, 131 frame character extraction unit, 132 OHP character extraction unit, 133 character verification unit, 134 verification result addition unit, 140 pixel verification result calculation unit, 141 character verification result calculation unit, 142 total similarity calculation unit, 150 image normalization unit, 151 frame layout acquisition unit, 152 OHP layout acquisition unit, 153 layout verification unit, 154 verification result addition unit, 160 image normalization unit, 161 frame title extraction unit, 162 OHP title extraction unit, 163 title verification Part, 164 verification result total Arithmetic unit, 170 frame layout acquisition unit, 171 OHP layout acquisition unit, 172 image normalization unit, 173 frame region pixel extraction unit, 174 OHP region pixel extraction unit, 175 pixel verification unit, 176 verification result calculation unit.

Claims (3)

複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断手段と、
前記関連性判断手段により所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付け手段と、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引き手段と、
前記フレーム画像間引き手段により抽出され、所定のフレーム間隔を有する二つのフレーム画像に夫々対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引き手段により間引かれるフレーム間隔を小さくする間引き間隔変更手段と、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出手段と、を備え、
前記関連性判断手段は、前記フレーム画像間引き手段により間引かれたフレーム画像について第1の画像との関連性を判断し、
前記対応付け手段は、前記ポイント検出手段により検出されたポイント間にある二つのフレーム画像であって同一の第1の画像に対応付けられる該二つのフレーム画像の間にある各フレーム画像に該同一の第1の画像を対応付けることを特徴とする画像対応付け装置。
A plurality of first images and a plurality of second images, wherein at least one of the plurality of second images has a predetermined relationship with any one of the first images. Relevance determining means for determining which of the first images each of the second images has the predetermined relevance based on the two images;
Association means for associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination means;
Frame image thinning means for extracting a frame image at a predetermined frame interval from a plurality of consecutive frame images when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images. When,
The extracted by the frame image thinning means, when two of the first image that is associated respectively to the two frame images having a predetermined frame interval is not the same, to reduce the frame interval decimated by the frame image thinning means Thinning interval changing means;
Points when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images, and the first image corresponding to successive frame images is different between the preceding and succeeding frames. And point detecting means for detecting
The relevance determining means determines the relevance of the frame image thinned out by the frame image thinning means to the first image;
Said correlating means, said same to each frame image is between the same first of the two frame image associated with the image to a two frame images in between the detected points by the point detection means An image association apparatus that associates the first image.
複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断ステップと、
前記関連性判断ステップにより所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付けステップと、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引きステップと、
前記フレーム画像間引きステップにより抽出され、所定のフレーム間隔を有する二つのフレーム画像に夫々対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引きステップにより間引かれるフレーム間隔を小さくする間引き間隔変更ステップと、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出ステップと、をコンピュータに実行させ、
前記関連性判断ステップは、前記フレーム画像間引きステップにより間引かれたフレーム画像について第1の画像との関連性を判断し、
前記対応付けステップは、前記ポイント検出ステップにより検出されたポイント間にある二つのフレーム画像であって同一の第1の画像に対応付けられる該二つのフレーム画像の間にある各フレーム画像に該同一の第1の画像を対応付けることを特徴とする画像対応付けプログラム。
A plurality of first images and a plurality of second images, wherein at least one of the plurality of second images has a predetermined relationship with any one of the first images. A relevance determining step for determining, based on the second image, which of the first images each of the second images has the predetermined relevance;
An association step of associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination step;
A frame image thinning step for extracting frame images at predetermined frame intervals from a plurality of consecutive frame images when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images. When,
The extracted by the frame image thinning step, when the two first image associated respectively to two frame images having a predetermined frame interval is not the same, to reduce the frame interval decimated by the frame image thinning step A thinning interval changing step;
Points when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images, and the first image corresponding to successive frame images is different between the preceding and succeeding frames. A point detecting step for detecting
The relevance determining step determines the relevance of the frame image thinned out by the frame image thinning step to the first image,
The association step is the same in each frame image that is between the two frame images in an identical first of said two frame image associated with the image in between said point detection step by the detected points An image association program characterized by associating the first image.
複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断ステップと、
前記関連性判断ステップにより所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付けステップと、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引きステップと、
前記フレーム画像間引きステップにより抽出され、所定のフレーム間隔を有する二つのフレーム画像に夫々対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引きステップにより間引かれるフレーム間隔を小さくする間引き間隔変更ステップと、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出ステップと、を実行し、
前記関連性判断ステップは、前記フレーム画像間引きステップにより間引かれたフレーム画像について第1の画像との関連性を判断し、
前記対応付けステップは、前記ポイント検出ステップにより検出されたポイント間にある二つのフレーム画像であって同一の第1の画像に対応付けられる該二つのフレーム画像の間にある各フレーム画像に該同一の第1の画像を対応付けることを特徴とする画像対応付け方法。
A plurality of first images and a plurality of second images, wherein at least one of the plurality of second images has a predetermined relationship with any one of the first images. A relevance determining step for determining, based on the second image, which of the first images each of the second images has the predetermined relevance;
An association step of associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination step;
A frame image thinning step for extracting frame images at predetermined frame intervals from a plurality of consecutive frame images when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images. When,
The extracted by the frame image thinning step, when the two first image associated respectively to two frame images having a predetermined frame interval is not the same, to reduce the frame interval decimated by the frame image thinning step A thinning interval changing step;
Points when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images, and the first image corresponding to successive frame images is different between the preceding and succeeding frames. And a point detecting step for detecting,
The relevance determining step determines the relevance of the frame image thinned out by the frame image thinning step to the first image,
The association step is the same in each frame image that is between the two frame images in an identical first of said two frame image associated with the image in between said point detection step by the detected points An image association method characterized by associating the first image.
JP2008178320A 2008-07-08 2008-07-08 Image association apparatus, image association method, and image association program Expired - Fee Related JP4680283B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008178320A JP4680283B2 (en) 2008-07-08 2008-07-08 Image association apparatus, image association method, and image association program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008178320A JP4680283B2 (en) 2008-07-08 2008-07-08 Image association apparatus, image association method, and image association program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002080500A Division JP4176364B2 (en) 2002-03-22 2002-03-22 Image association apparatus, image association method, and image association program

Publications (2)

Publication Number Publication Date
JP2008262594A JP2008262594A (en) 2008-10-30
JP4680283B2 true JP4680283B2 (en) 2011-05-11

Family

ID=39984974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008178320A Expired - Fee Related JP4680283B2 (en) 2008-07-08 2008-07-08 Image association apparatus, image association method, and image association program

Country Status (1)

Country Link
JP (1) JP4680283B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5257132B2 (en) * 2009-02-23 2013-08-07 株式会社リコー Information synchronization apparatus, information synchronization method, information synchronization program, and recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101205A (en) * 1999-09-29 2001-04-13 Ricoh Co Ltd Video structuring device, video structuring method and recording medium readable by computer in which program to make computer execute its method is recorded
JP2001350775A (en) * 2000-06-05 2001-12-21 Fuji Xerox Co Ltd Method and device for presenting a plurality of information

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3221028B2 (en) * 1992-01-29 2001-10-22 株式会社日立製作所 Keyword assignment method for moving image information
JPH07319886A (en) * 1994-05-30 1995-12-08 Nippon Telegr & Teleph Corp <Ntt> Retrieving device for drawing image interlinked with dynamic image and retrieving method for drawing image interlinked with dynamic image
JPH0993530A (en) * 1995-09-28 1997-04-04 Matsushita Electric Ind Co Ltd Video image change point detector and video image change point detecting method
JP3637937B2 (en) * 1996-08-12 2005-04-13 富士ゼロックス株式会社 Information reproducing apparatus and information reproducing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101205A (en) * 1999-09-29 2001-04-13 Ricoh Co Ltd Video structuring device, video structuring method and recording medium readable by computer in which program to make computer execute its method is recorded
JP2001350775A (en) * 2000-06-05 2001-12-21 Fuji Xerox Co Ltd Method and device for presenting a plurality of information

Also Published As

Publication number Publication date
JP2008262594A (en) 2008-10-30

Similar Documents

Publication Publication Date Title
US11849196B2 (en) Automatic data extraction and conversion of video/images/sound information from a slide presentation into an editable notetaking resource with optional overlay of the presenter
US8280158B2 (en) Systems and methods for indexing presentation videos
Erol et al. Linking multimedia presentations with their symbolic source documents: algorithm and applications
US8433136B2 (en) Tagging video using character recognition and propagation
US20140164927A1 (en) Talk Tags
JP4176364B2 (en) Image association apparatus, image association method, and image association program
US8077930B2 (en) Method for recognizing content in an image sequence
US20100191722A1 (en) Data similarity and importance using local and global evidence scores
Chatila et al. Integrated planning and execution control of autonomous robot actions
JP2005293589A (en) Method for creating compound electronic expressive article, computer program and data processing system
Rusiñol et al. Augmented songbook: an augmented reality educational application for raising music awareness
Mahrishi et al. Index point detection and semantic indexing of videos—a comparative review
WO2004081783A1 (en) Pointer area detecting device, method, and program, image relating device, method, and program, content distributing server, and content distributing method
US10007848B2 (en) Keyframe annotation
Ngo et al. Structuring lecture videos for distance learning applications
JP4680283B2 (en) Image association apparatus, image association method, and image association program
McGuinness et al. The AXES PRO video search system
Zhang et al. Key frame extraction method for lecture videos based on spatio-temporal subtitles
US20180189602A1 (en) Method of and system for determining and selecting media representing event diversity
JP4522323B2 (en) Image processing apparatus and control method thereof
Angrave et al. Creating tiktoks, memes, accessible content, and books from engineering videos? first solve the scene detection problem
Ali et al. Segmenting lecture video into partitions by analyzing the contents of video
Sun et al. Lecture Video Automatic Summarization System Based on DBNet and Kalman Filtering
JP3940012B2 (en) Matching program and multimedia content editing program
Sreepathy Automated analysis and indexing of lecture videos

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110202

R150 Certificate of patent or registration of utility model

Ref document number: 4680283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees