JP2008262594A - Image association apparatus, method, and program - Google Patents
Image association apparatus, method, and program Download PDFInfo
- Publication number
- JP2008262594A JP2008262594A JP2008178320A JP2008178320A JP2008262594A JP 2008262594 A JP2008262594 A JP 2008262594A JP 2008178320 A JP2008178320 A JP 2008178320A JP 2008178320 A JP2008178320 A JP 2008178320A JP 2008262594 A JP2008262594 A JP 2008262594A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- images
- ohp
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、複数の第1の画像(例えば講義などで使用されたOHP(Overhead Projector)ファイル)と、複数の第2の画像(例えば複数のフレーム画像からなる講義などを撮影した動画像)とを自動的に対応付ける画像対応付け装置及び画像対応付け方法並びに画像対応付けプログラムに関するものである。 The present invention includes a plurality of first images (for example, an OHP (Overhead Projector) file used in a lecture) and a plurality of second images (for example, moving images taken of a lecture composed of a plurality of frame images). The present invention relates to an image association apparatus, an image association method, and an image association program.
社内教育や、一般の教育分野では、E-learningの導入が行われつつある。E-learningは、インターネット等を使ったコンピュータによる遠隔地教育で、WEB画面を使って行われることが多い。E-learningの形態は多種あるが、その中で通常行われている教育現場での講義をコンピュータ上で最もよく再現するものとして、講義の動画像による再生と、講義で用いられたOHP画像(以下、OHPにより表示される画像をOHPファイル或いはOHP画像と呼称する。)の拡大表示とを時間的に同期させて表示するコンテンツがある。このコンテンツを使用することで、受講者は、OHP画像のいずれの部分を講師が指し示しているかをコンピュータの画面上で容易に判別でき、更にそのOHP画像の拡大表示を見ることによって、その内容を明瞭に把握できる。つまりこのようなコンテンツによって、OHPの画像上で講師が示した場所とその内容の詳細が同時に表示可能になり、実際に講義を受講しているのとほぼ同じ環境が提供できることになる。 E-learning is being introduced in in-house education and general education. E-learning is a remote education by a computer using the Internet or the like, and is often performed using a WEB screen. There are various types of E-learning, but the lecture that is usually performed at the educational site is best reproduced on a computer as a reproduction of the moving image of the lecture and the OHP image used in the lecture ( Hereinafter, there is content that displays an image displayed by OHP in time synchronization with an enlarged display of an OHP file or an OHP image. By using this content, the student can easily determine on the computer screen which part of the OHP image the instructor is pointing to, and by viewing the enlarged display of the OHP image, Clearly understandable. In other words, such content enables the location indicated by the instructor on the OHP image and details of the content to be displayed at the same time, and provides almost the same environment as actually taking the lecture.
このようなシステムを実現するためには、OHPを用いて説明する動画像の表示と、そこに映し出されているOHPの画像の拡大表示とが時間的に同期がとれている必要がある。現在、こうしたコンテンツを作成するための、様々なE-learningのコンテンツ作成用のオーサリングシステム(オーサリングソフト)が製品化されている。 In order to realize such a system, it is necessary to synchronize temporally the display of the moving image described using the OHP and the enlarged display of the OHP image displayed there. Currently, various E-learning content authoring systems (authoring software) for creating such content have been commercialized.
しかしながら、こうしたオーサリングソフトでは、動画と教材文書の表示が時間的に同期が取れるよう対応付けるための処理をオペレータが手動で行うのが現状である。従って、コンテンツ作成に膨大な時間を要するという問題点がある。 However, in such authoring software, an operator manually performs processing for associating the display of the moving image and the teaching material document so that they are synchronized in time. Therefore, there is a problem that it takes a lot of time to create content.
本発明は、上述した事情に鑑みて成されたものであり、画像の同期的対応付けを自動化することができる画像対応付け装置及び画像対応付け方法並びに画像対応付けプログラムを提供することを目的としている。 The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an image association apparatus, an image association method, and an image association program capable of automating synchronous association of images. Yes.
上述した課題を解決するため、本発明は、画像対応付け装置であって、複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断手段と、前記関連性判断手段により所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付け手段と、第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引き手段と、前記フレーム画像間引き手段により抽出され、所定のフレーム間隔を有する二つのフレーム画像に対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引き手段により間引かれるフレーム間隔を小さくする間引き間隔変更手段と、第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出手段と、を備え、前記関連性判断手段は、前記フレーム画像間引き手段により間引かれたフレーム画像について第1の画像との関連性を判断し、前記対応付け手段は、前記ポイント検出手段により検出されたポイント間の各フレーム画像に同一の第1の画像を対応付けることを特徴とするものである。 In order to solve the above-described problem, the present invention is an image association device, which is a plurality of first images and a plurality of second images, at least one of the plurality of second images. Is based on any one of the first images and a second image having a predetermined relevance, and each of the second images has the predetermined relevance with any image of the first image. Relevance determining means for determining whether to have, association means for associating each of the first image and the second image determined to have a predetermined relevance by the relevance determining means, and a second image A frame image thinning means for extracting a frame image at a predetermined frame interval from a plurality of consecutive frame images when the frame image corresponds to each of a plurality of frames constituting a series of moving images; and the frame image Thinning Thinning interval changing means for reducing the frame interval thinned out by the frame image thinning means when two first images extracted by the means and associated with two frame images having a predetermined frame interval are not the same; Points when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images, and the first image corresponding to successive frame images is different between the preceding and succeeding frames. Detecting a point, and the relevance determining means determines the relevance of the frame image thinned out by the frame image thinning means to the first image, and the associating means includes: The same first image is associated with each frame image between points detected by the point detecting means. A.
また、本発明は、画像対応付けプログラムであって、複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断ステップと、前記関連性判断ステップにより所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付けステップと、第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引きステップと、前記フレーム画像間引きステップにより抽出され、所定のフレーム間隔を有する二つのフレーム画像に対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引きステップにより間引かれるフレーム間隔を小さくする間引き間隔変更ステップと、第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出ステップと、をコンピュータに実行させ、前記関連性判断ステップは、前記フレーム画像間引きステップにより間引かれたフレーム画像について第1の画像との関連性を判断し、前記対応付けステップは、前記ポイント検出ステップにより検出されたポイント間の各フレーム画像に同一の第1の画像を対応付けることを特徴とするものである。 In addition, the present invention is an image association program, which is a plurality of first images and a plurality of second images, and at least one of the plurality of second images is the first image. A relationship for determining which of the first images has the predetermined relationship with each of the first images based on any one of the images and the second image having the predetermined relationship A determination step, an association step of associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination step, and the second image constitute a series of moving images A frame image thinning step for extracting a frame image at a predetermined frame interval from a plurality of consecutive frame images when the frame image corresponds to each of the plurality of frames to be framed; A thinning interval changing step for reducing the frame interval thinned out by the frame image thinning step when two first images extracted by the step and associated with two frame images having a predetermined frame interval are not the same; Points when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images, and the first image corresponding to successive frame images is different between the preceding and succeeding frames. A point detection step of detecting the frame image, and the relevancy determination step determines the relevance of the frame image thinned out by the frame image thinning step to the first image, and the association step Each frame image between the points detected by the point detection step It is characterized in that associating the same first image.
さらに、本発明は、画像対応付け方法であって、複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断ステップと、前記関連性判断ステップにより所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付けステップと、第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引きステップと、前記フレーム画像間引きステップにより抽出され、所定のフレーム間隔を有する二つのフレーム画像に対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引きステップにより間引かれるフレーム間隔を小さくする間引き間隔変更ステップと、第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出ステップと、を実行し、前記関連性判断ステップは、前記フレーム画像間引きステップにより間引かれたフレーム画像について第1の画像との関連性を判断し、前記対応付けステップは、前記ポイント検出ステップにより検出されたポイント間の各フレーム画像に同一の第1の画像を対応付けることを特徴とするものである。 Furthermore, the present invention is an image association method, wherein a plurality of first images and a plurality of second images, wherein at least one of the plurality of second images is the first image. A relationship for determining which of the first images has the predetermined relationship with each of the first images based on any one of the images and the second image having the predetermined relationship A determination step, an association step of associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination step, and the second image constitute a series of moving images A frame image thinning step for extracting a frame image at a predetermined frame interval from a plurality of consecutive frame images when the frame image corresponds to each of the plurality of frames to be performed; A thinning interval changing step for reducing the frame interval thinned out by the frame image thinning step when the two first images extracted by the step and associated with the two frame images having a predetermined frame interval are not the same; When the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images, the first image corresponding to successive frame images is different between the preceding and following frames. A point detecting step for detecting points; and the relevancy determining step determines relevance of the frame image thinned out by the frame image thinning step to the first image, and the associating step includes The same first image is added to each frame image between the points detected by the point detection step. It is characterized in that the attached response.
なお、本発明において、上記コンピュータにより読取り可能な媒体は、CD−ROMやフレキシブルディスク、DVDディスク、光磁気ディスク、ICカード等の可搬型記憶媒体や、コンピュータプログラムを保持するデータベース、或いは、他のコンピュータ並びにそのデータベースや、更に回線上の伝送媒体をも含むものである。 In the present invention, the computer-readable medium is a portable storage medium such as a CD-ROM, a flexible disk, a DVD disk, a magneto-optical disk, an IC card, a database holding a computer program, or other It includes computers and their databases, as well as transmission media on the line.
従来、E-learning用のコンテンツを作成するため、OHPを用いた講義などの動画像と、そこに映し出されているOHP画像を同期的に表示させることができるよう、コンテンツ作成用オーサリングシステムでこれら画像の対応付けをオペレータが手動で行っていたが、本発明によれば、この対応付けを自動化できるため、手間がかからず、対応付けに要する時間を大幅に短縮することができるという効果を奏する。 Conventionally, in order to create content for E-learning, the content creation authoring system can synchronize and display moving images such as lectures using OHP and the OHP images displayed there. The image is manually associated by the operator. However, according to the present invention, since this association can be automated, there is an effect that the time required for the association can be greatly shortened without taking time and effort. Play.
以下、図を用いて本発明の実施の形態を詳細に説明する。
図1は、本発明の実施の形態の概念図である。まず、OHPを使った講演2をE-learningの教材として使用する場合、その講演の映像を動画としてカメラ撮影3し、画像対応付け・コンテンツ作成装置1に保存する。また、講演に使用したOHPのファイル4を同じ装置(画像対応付け・コンテンツ作成装置1)へ保存する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a conceptual diagram of an embodiment of the present invention. First, when the
画像対応付け・コンテンツ作成装置1では、様々な画像処理技術を使用して、動画中のOHPの切り代わりタイミングを求め、元のOHPの画像が動画像のどのフレームに対応しているかを示す対応表を作成する。更に、画像対応付け・コンテンツ作成装置1は、この対応表に基づいて、動画像とOHPの画像を同期をとって再生するE-learning用のコンテンツ5を作成する。これにより、従来手動で行っていた動画像とOHPの各ページとの対応付けが自動化でき、容易にコンテンツが作成できる。なお、画像対応付け・コンテンツ作成装置1において、上記「対応表」を作成する部分が本発明を説明した部分であるが、ここでは、作成した対応表からコンテンツを作成する機能までも有した装置を例にとり詳細に説明する。
The image association /
実施の形態1.
図2は、上述した画像対応付け・コンテンツ作成装置1の機能構成の一例を示した図である。図において、画像対応付け・コンテンツ作成装置1は画像対応付け装置1aとコンテンツ作成装置1bとにより構成される。画像対応付け装置1aは、動画像入力部101と、動画像記憶部102と、OHPファイル入力部103と、OHPファイル記憶部104と、フレーム取得部105と、OHP領域抽出部106と、OHP取得部107と、類似度算出部108と、対応付け処理部109と、対応付けテーブル110とから構成されている。
FIG. 2 is a diagram illustrating an example of a functional configuration of the image association /
動画像入力部101は、カメラ撮影した講義等の動画像を画像対応付け・コンテンツ作成装置1に入力する。動画像記憶部102は、動画像入力部101により入力された動画像をAVI形式等で記憶する。OHPファイル入力部103は、他のコンピュータシステム等からOHPファイルを画像対応付け・コンテンツ作成装置1に入力する。OHPファイル記憶部104は、OHPファイル入力部103により入力されたOHPファイルの1ページ毎の画像ファイルと、それに対応する文字情報を記憶する。
The moving
フレーム取得部105は、動画像記憶部102から動画像を構成するフレーム画像を取得する。フレーム取得部105には、OHP領域抽出部106が備えられ、OHP領域抽出部106は、フレーム画像内でOHPの画像が映る領域を探索して抽出する。OHP取得部107は、OHPファイル記憶部104から1ページ毎にOHP画像を取得する。類似度算出部108は、フレーム取得部105により取得された動画像のフレーム画像と、OHP取得部107により取得されたOHP画像との類似度を算出する。対応付け処理部109は、類似度算出部108により算出された類似度からフレーム画像とOHP画像との対応付けを決定し、対応付けテーブル110は、対応付け処理部109により決定された対応付けを記憶する。
The
また、コンテンツ作成装置1bは、コンテンツ作成部111と、コンテンツ記憶部112とから構成されている。コンテンツ作成部111は、対応付けテーブル110からフレーム画像とOHP画像との対応付けを参照して、E-learning用のコンテンツを作成する。コンテンツ記憶部112はコンテンツ作成部111により作成されたコンテンツを記憶する。
In addition, the
また、図3は、画像対応付け・コンテンツ作成装置1のハードウェア構成の一例を示した図である。図において、画像対応付け・コンテンツ作成装置1は、ビデオ入力制御装置11と、CPU(Central Processing Unit)12と、メモリ13と、画像用HDD(Hard Disk Drive)15と、ファイル入出力装置14と、プログラムHDD16と、コンテンツHDD17と、対応付けテーブルHDD18と、OHPファイルHDD19と、LAN(Local Aria Network)インタフェース20と、CD−ROMドライブ21とから構成されている。
FIG. 3 is a diagram illustrating an example of a hardware configuration of the image association /
本実施の形態において、図2の機能構成図に示した各機能ブロックは、図3のプログラムHDD16に記憶されたプログラム群が画像対応付け・コンテンツ作成装置1の起動時にメモリ13上に展開された状態を示しており、CPU12により実行される。ただし、図2の動画像入力部101或いはOHPファイル入力部103は、図3のビデオ入力制御装置11或いはファイル入出力制御装置14とが、上記メモリ13上に展開されたプログラム群と協働して機能する。また、動画像記憶部102は画像用HDD15により構成され、OHPファイル記憶部104はOHPファイルHDD19により構成され、対応付けテーブル110は対応付けテーブルHDD18により構成され、コンテンツ記憶部112はコンテンツHDD17により構成されるものとする。
In the present embodiment, each functional block shown in the functional configuration diagram of FIG. 2 is a program group stored in the
なお、上記プログラム群はプログラムHDD16でなくとも、例えば、コンピュータにより読取り可能な媒体、例えば、CD−ROMやFD、磁気ディスク、DVDディスク、光磁気ディスク、ICカード等の可搬型記憶媒体に記憶されていてもよく、また、コンピュータプログラムを保持するデータベース、或いは、他のコンピュータ並びにそのデータベースや、更に回線上の伝送媒体等からダウンロードしてメモリ13上に展開され実行されるようにしてもよく、プログラム群のインストール形態は限定されない。上述したように本実施の形態では、CD−ROMドライブ21が備えられており、可搬型記憶媒体を読み取り可能としている。また、LANインタフェース20やファイル入出力装置14により、他のコンピュータやデータベースからLAN等を介してプログラム群を容易にダウンロードできる構成となっている。
Note that the program group is not stored in the
以下、フローチャートを用いて、画像対応付け装置1aの対応付け処理の流れを詳細に説明する。図4は、対応付け処理全体の処理フローを示したフローチャートである。まず、動画像記憶部102からフレーム取得部105が動画像の最初のフレームの画像を抽出する(S1000)。OHP領域抽出部106が、抽出されたフレーム画像内でOHPの画像が映る領域(以下、OHP領域画像と呼称する)を探索して抽出する(S1001)。OHP領域抽出処理についての詳細を以下に示す。
Hereinafter, the flow of the association process of the
図5は、OHP領域画像抽出処理の流れを示したフローチャートである。まず、OHP領域抽出部106にフレーム画像のデータが入力される(S1100)。次に、フレーム画像を二値化して、フレーム画像内のエッジ抽出を行う(S1101)。続いて、抽出されたエッジに対してハフ変換を行い、直線を抽出する(S1102)。抽出された直線成分を統合して、矩形作成する(S1103)。この矩形から予め定められた所定のサイズより大きい矩形のみを抽出する(S1104)。この抽出処理で矩形が抽出されない場合には(S1105、NO)、フレームの画像全体がOHP画像の領域であると判断し、画像全体を抽出する(S1107)。矩形が抽出された場合には(S1105、YES)、抽出された中で最も大きな矩形をOHP領域画像として抽出する(S1106)。 FIG. 5 is a flowchart showing the flow of the OHP region image extraction process. First, frame image data is input to the OHP region extraction unit 106 (S1100). Next, the frame image is binarized, and edge extraction from the frame image is performed (S1101). Subsequently, a Hough transform is performed on the extracted edge to extract a straight line (S1102). The extracted linear components are integrated to create a rectangle (S1103). Only rectangles larger than a predetermined size are extracted from the rectangles (S1104). If a rectangle is not extracted by this extraction process (S1105, NO), it is determined that the entire frame image is an OHP image area, and the entire image is extracted (S1107). When a rectangle is extracted (S1105, YES), the largest extracted rectangle is extracted as an OHP area image (S1106).
なお、通常、OHPを用いた講義等を撮影した動画像においては、OHPの画像が最も大きな矩形となるのが一般的であるため、S1106の処理でその領域を抽出するようにしている。 Usually, in a moving image obtained by taking a lecture using OHP, the OHP image is generally the largest rectangle, and the region is extracted in the processing of S1106.
OHP領域画像抽出後、初期値として最大類似度に0をセットする(図4、S1002)。続いて、OHP取得部107がOHP画像の最初のページをOHPファイル記憶部104から抽出する(S1003)。ここで類似度算出部108が、S1003で抽出されたOHP画像の最初のページと、S1001で抽出されたフレームのOHP領域の画像とを照合して、類似度を計算する(S1004)。以下、類似度計算について、図を用いて詳細に説明する。
After extracting the OHP area image, 0 is set as the initial value for the maximum similarity (FIG. 4, S1002). Subsequently, the
図6は、類似度算出部108の機能構成の一例を示した図である。図において、類似度算出部108は、画像正規化部120と、フレーム画素抽出部121と、OHP画素抽出部122と、画素照合部123と、照合結果加算部124とからなる。画像正規化部120は、フレーム画像から抽出されたOHP領域画像がOHP画像の方向と一致するよう回転処理を実行して傾きを補正する。また、OHP画像とサイズが異なる場合、拡大処理を実行して、OHP画像と同一のサイズとなるよう補正する。なお、このような正規化処理は、図5のS1106での抽出の際に、OHP領域抽出部106が実行するようにしてもよく、特に限定されない。
FIG. 6 is a diagram illustrating an example of a functional configuration of the
フレーム画素抽出部121は、図5のS1106で抽出されたOHP領域画像から画素を抽出する。OHP画素抽出部122は、OHP取得部107で取得したページの画素を抽出する。画素照合部123は、フレーム画素抽出部121とOHP画素抽出部122から抽出された画素を照合する。照合結果加算部124は画素照合部123にて照合された結果を数値化して加算する。加算した結果が類似度となる。
The frame
図7は、上記類似度算出部108により実行される類似度算出処理の流れを示したフローチャートである。まず、フレーム取得部105からOHP領域画像を取得し(S1200)、取得したOHPb領域画像を画像正規化部120が元文書サイズ、すなわちOHP画像のサイズに拡大する等して正規化する(S1201)。また、同時に、OHP取得部107からOHP画像を取得する(S1201’)。続いて、フレーム画素抽出部121により抽出されたOHP領域画像の画素と、OHP画素抽出部122により抽出されたOHP画像の画素を画素照合部123が照合して画素の差を求める。この差を照合結果加算部124が加算して類似度を算出する(S1202)。類似度算出の式の一例を以下に示す。
FIG. 7 is a flowchart showing the flow of similarity calculation processing executed by the
類似度=1/V
(V=対応する画素の差の絶対値の和)
Vが小さいほど、すなわち画素の差が小さいほど類似度は高い値となる。但し、Vが0の場合は、無条件に類似度が最大値に達したと判断される。
Similarity = 1 / V
(V = sum of absolute values of corresponding pixel differences)
The smaller V is, that is, the smaller the pixel difference is, the higher the similarity is. However, when V is 0, it is determined that the similarity has reached the maximum value unconditionally.
類似度計算は、上記の手法に限らない。以下、他の手法を説明する。
図8は、他の手法を実現するための類似度算出部108aの機能構成図である。本手法では、文字情報を用いて類似度を算出する。また、ここでは連続する2文字が同一であるか否かを照合して類似度を算出する。図において、類似度算出部108aは、画像正規化部130と、フレーム文字抽出部131と、OHP文字抽出部132と、文字照合部133と、照合結果加算部134とからなる。画像正規化部130は、図6の画像正規化部120と同様の機能を有する。
The similarity calculation is not limited to the above method. Hereinafter, another method will be described.
FIG. 8 is a functional configuration diagram of the
フレーム文字抽出部131は、図5のS1106で抽出されたOHP領域画像から文字を認識して抽出する。OHP文字抽出部132は、OHP取得部107で取得したページの文字を抽出する。なお、本実施の形態ではOHP画像の文字情報は、既にOHPファイル記憶部104において1ページ毎の画像ファイルと、それに対応する文字情報を別々に記憶しているため、文字認識処理を行う必要なく、OHPファイル記憶部104を参照するのみで文字を抽出できる。文字照合部133は、フレーム文字抽出部131とOHP文字抽出部132から抽出された文字を照合する。照合結果加算部134は文字照合部133にて照合された結果を数値化して加算する。加算した結果が類似度となる。
The frame
図9は、上記類似度算出部108aにより実行される類似度算出処理の流れを示したフローチャートである。まず、フレーム取得部105からOHP領域画像を取得し(S1300)、フレーム文字抽出部131が文字認識処理を行う(S1301)。この文字認識処理は公知の技術を用いて行われる。図10はこの文字認識処理の詳細を示したフローチャートである。まず、得られたOHP領域画像を二値化し(S1310)、領域識別を行う(S1311)。続いて文字認識を行い(S1312)、認識結果がテキスト出力される(S1313)。
FIG. 9 is a flowchart showing the flow of similarity calculation processing executed by the
文字認識処理後、類似度の初期値を0にセットする(図9、S1302)。次に基準文字としてフレーム文字抽出部131による認識結果の最初の文字をセットする。また、OHP画像において該セットされた基準文字に対応する位置にある文字とその隣に位置する文字を、OHP文字抽出部132により抽出する(S1303)。ここで、文字照合部133により、フレーム文字抽出部131により認識された文字列と、OHP文字抽出部132により抽出された文字列とを比較し、連続2文字が同じであるか否かを照合する。同じであれば(S1304、YES)、照合結果加算部134が類似度をインクリメントする(S1305)。同じでない場合には(S1304,NO)、類似度はインクリメントされない。続いて基準文字に隣の文字をセットし、同様に照合を行う(S1306)。S1304からS1306までの処理が文字認識処理結果の文字が終了するまで(S1307、YES)繰り返される。最終的には、照合結果加算部134により類似度が以下のように補正される(S1308)。
類似度=類似度/OHP文字数
After the character recognition process, the initial value of similarity is set to 0 (FIG. 9, S1302). Next, the first character of the recognition result by the frame
Similarity = similarity / number of OHP characters
なお、図6に示した画素を用いた類似度算出処理及び、図8に示した文字を用いた類似度算出処理の両手法を用いて全体の類似度を算出するようにしてもよい。図11は、このような手法を実現するための類似度算出部108bの機能構成図である。図において、類似度算出部108bは、図6の類似度算出機構を有する画素照合結果算出部140と、図8の類似度算出機構を有する文字照合結果算出部141を備え、双方で算出された類似度を加算して全体の類似度を算出する総合類似度算出部142を備えている。
Note that the overall similarity may be calculated using both the similarity calculation processing using the pixels shown in FIG. 6 and the similarity calculation processing using the characters shown in FIG. FIG. 11 is a functional configuration diagram of the
更に、上述した手法以外にレイアウト情報を用いて類似度を算出する手法を説明する。図12は、このような手法を実現するための類似度算出部108cの機能構成を示した図である。図において、類似度算出部108cは、画像正規化部150と、フレームレイアウト取得部151と、OHPレイアウト取得部152と、レイアウト照合部153と、照合結果加算部154とからなる。画像正規化部150は、図6の画像正規化部120と同様の機能を有する。
In addition to the above-described method, a method for calculating similarity using layout information will be described. FIG. 12 is a diagram illustrating a functional configuration of the
フレームレイアウト取得部151は、図5のS1106で抽出されたOHP領域画像からレイアウト情報を取得する。OHPレイアウト取得部152は、OHP取得部107で取得したページのレイアウト情報を取得する。なお、ここでは、図、表、文字列ブロック等の領域属性とその座標情報をレイアウト情報と呼称する。レイアウト照合部153は、フレームレイアウト取得部151とOHPレイアウト取得部152で取得されたレイアウト情報を照合する。照合結果加算部154はレイアウト照合部153にて照合された結果を数値化して加算する。加算した結果が類似度となる。
The frame
図13は、レイアウト情報の一例を示した図である。図13(a)はOHP画像を示しており、該画像に示される領域属性とその座標情報がOHPレイアウト取得部152により取得される。また、図13(b)はフレーム画像からキャプチャした画像を示しており、該画像に示される領域属性とその座標情報がフレームレイアウト取得部151により取得される。
FIG. 13 is a diagram showing an example of layout information. FIG. 13A shows an OHP image, and the region attribute and its coordinate information shown in the image are acquired by the OHP
本手法では、レイアウト照合部153が双方のレイアウト情報を照合し、その結果、照合結果加算部154が類似度を算出する。具体的にはレイアウト照合部153により、領域属性が同じであり、且つ領域座標の差の絶対値が予め定められた値より小さければ対応の付いた領域とされ、対応が付く毎に照合結果加算部154に所定の値が出力され類似度として加算される。
In this method, the
例えば、図14(a)に示されるようにOHP画像から抽出したある文字列領域の領域座標を、(xmin, ymin)-(xmax, ymax)、図14(b)に示されるように動画像からキャプチャした画像のある文字列領域の領域座標を、(xmin', ymin')-(xmax', ymax')とし、予め定められた値をαとした場合、以下の条件を満たせば類似度がインクリメントされる。 For example, the region coordinates of a certain character string region extracted from the OHP image as shown in FIG. 14A are (xmin, ymin)-(xmax, ymax), and the moving image as shown in FIG. 14B. If the region coordinates of the character string region of the image captured from (xmin ', ymin')-(xmax ', ymax') and the predetermined value is α, the similarity is satisfied if the following conditions are satisfied: Is incremented.
|xmin- xmin'|<α 且つ
|ymin- ymin'|<α 且つ
|xmax- xmax'|<α 且つ
|ymax- ymax'|<α
| Xmin-xmin '| <α and | ymin-ymin' | <α and | xmax-xmax '| <α and | ymax-ymax' | <α
レイアウト照合部153はこのような照合を全ての領域について行い、領域属性と座標差をチェックする。例えば、条件を満たせば1が、条件を満たさない場合には0が照合結果加算部154に出力され、類似度として加算される。すなわち、本手法では、対応が付いた領域数が類似度となる。
The
上述した手法の他に、レイアウト情報に文字列特徴を加えて照合し類似度を算出する手法を説明する。文字列特徴は、文字列ブロックを更に一定の割合以上の文字列に分けた場合のその矩形の座標情報や、文字列の文字のサイズ、文字列の形状、文字列の色等を含む。例えば、図15(a)に示されるOHP画像から抽出した文字列領域のデータ、及び図15(b)に示される動画像からキャプチャした画像の文字列領域のデータのように、文字列領域内で、更に一定以上の領域を有する文字列領域を行1〜行N、行1’〜行N’として分割して抽出し、該行毎の座標情報を文字列情報として取得して照合してもよい。
In addition to the method described above, a method for calculating the similarity by adding a character string feature to the layout information and performing collation will be described. The character string characteristics include coordinate information of the rectangle when the character string block is further divided into character strings of a certain ratio or more, the character size of the character string, the shape of the character string, the color of the character string, and the like. For example, the character string area data such as the character string area data extracted from the OHP image shown in FIG. 15A and the character string area data of the image captured from the moving image shown in FIG. Then, a character string area having a certain area or more is divided and extracted as
ここでは、レイアウト照合部153が、座票差が所定の値(α)以下であるかを行毎にチェックする。
例えば、行1及び行1’で、
|xmin1- xmin1'|<α 且つ
|ymin1- ymin1'|<α 且つ
|xmax1- xmax1'|<α 且つ
|ymax1- ymax1'|<α
の条件を満たすかがチェックされる。更に全ての行についての照合がなされ、全ての行で同じ条件が成立した場合には1が、そうでない場合には0が照合結果加算部154に出力され、類似度として加算される。
Here, the
For example, in
| Xmin1-xmin1 '| <α and | ymin1-ymin1' | <α and | xmax1-xmax1 '| <α and | ymax1-ymax1' | <α
It is checked whether the condition is satisfied. Furthermore, collation is performed for all rows, and 1 is output to the collation
また、図16にレイアウト情報に文字列の色情報を含む場合の一例を示す。図16(a)はOHP画像から抽出した文字列領域のデータ、及び図16(b)は動画からキャプチャした画像の文字列領域のデータである。図示されるように、レイアウト情報として行毎の代表色が取得されており、それらも含めて照合される。この代表色は、1行内で文字色が複数ある場合には、フレームレイアウト取得部151或いはOHPレイアウト取得部152において、行内の色を(R、G、B)の3次元ベクトル表現してクラスタリングを行い、クラスタ間の距離が所定の値以上となるよう複数個のクラスタを求め、更にその平均色を求め、該求めた平均色を代表色としている。
FIG. 16 shows an example in which the layout information includes color information of the character string. FIG. 16A shows character string region data extracted from an OHP image, and FIG. 16B shows character string region data of an image captured from a moving image. As shown in the figure, representative colors for each row are acquired as layout information, and these are also collated. When there are a plurality of character colors in one line, the representative color is represented by a three-dimensional vector representation of (R, G, B) in the line layout in the frame
ここでは、レイアウト照合部153が、座票差が所定の値(α)以下であるか及び行の色差が所定の値(β)以下であるかを行毎にチェックする。
Here, the
例えば、行1及び行1’では、
|xmin1- xmin1'|<α 且つ
|ymin1- ymin1'|<α 且つ
|xmax1- xmax1'|<α 且つ
|ymax1- ymax1'|<α
であるか、更に、
|R-R'|<β 且つ
|G-G'|<β 且つ
|B-B'|<β
であるかがチェックされる。同様に全ての行についての照合がなされる。
For example, in
| Xmin1-xmin1 '| <α and | ymin1-ymin1' | <α and | xmax1-xmax1 '| <α and | ymax1-ymax1' | <α
Or,
| R-R '| <β and
| G-G '| <β and
| B-B '| <β
Is checked. Similarly, all rows are collated.
全ての行で同じ条件が成立した場合には1が、そうでない場合には0が照合結果加算部154に出力され、類似度として加算される。
If the same condition is satisfied in all the rows, 1 is output to the collation
上述した手法の他、画像内のタイトル文字のみを抽出して照合し、類似度を算出する手法を用いてもよい。図17に、該手法を実施するための類似度算出部108dの機能構成図を示す。図において、類似度算出部108dは、画像正規化部160と、フレームタイトル抽出部161と、OHPタイトル抽出部162と、タイトル照合部163と、照合結果加算部164とからなる。
In addition to the method described above, a method may be used in which only the title characters in the image are extracted and collated to calculate the similarity. FIG. 17 shows a functional configuration diagram of the
フレームタイトル抽出部161は、OHP領域画像からタイトルを抽出する。OHPタイトル抽出部162は、OHP取得部107で取得したページのタイトル情報を抽出する。タイトル照合部163は、フレームタイトル抽出部161とOHPタイトル抽出部162で取得されたタイトルを照合する。照合結果計算部164はタイトル照合部163にて照合された結果を数値化して類似度を計算する。
The frame
図18は、タイトル抽出処理とタイトル照合処理について明示したフローチャートである。まず、OHPタイトル抽出部162とフレームタイトル抽出部161では、それぞれ、OHPから直接作成した画像190a或いは動画像からキャプチャした画像190bから文字列領域をまず抽出し、抽出された複数の文字列領域において、最大のサイズを有する文字列領域をタイトルとして抽出する(S1400)。本実施の形態では、抽出されたタイトル情報は、S1401に示される通りであるとする。次にタイトル照合部163により照合処理を行う(S1402)。その際、座標の差の絶対値が所定の値以内であり、且つ、色が一致し、更に、文字内容の一定割合以上が一致すれば、OKを、それ以外はNGを、照合結果計算部164に出力する。照合結果計算部164は、入力された値を数値化し、OKであれば1000を、NGであれば0を類似度とする。
FIG. 18 is a flowchart clearly showing the title extraction process and the title collation process. First, the OHP
また、レイアウト情報を取得し照合する手法と画素を照合する手法とを統合して類似度を算出する手法を実行してもよい。図19は、該手法を実施するための類似度算出部108eの機能構成図である。OHPレイアウト取得部171により、OHP画像から抽出したある領域(例えば領域Iとする)の画像を取得する。また、更にフレームレイアウト取得部170により、動画像から抽出した画像において領域(例えば領域Jとする)の画像を取得する。画像正規化部172により領域Iのサイズに領域Jを正規化した後、画素照合部175によりフレーム領域画素抽出部173及びOHP領域画素抽出部により抽出された画素が照合される。画素の差は、照合結果計算部176に出力され、照合結果計算部176は両者の差の絶対値の和dを算出、更に類似度1/dを算出する。
Alternatively, a method of calculating similarity by integrating a method of acquiring and collating layout information and a method of collating pixels may be executed. FIG. 19 is a functional configuration diagram of the
このように様々な手法で類似度が算出されるが、本発明は特にいずれかの手法に限定はせず、いずれの手法を用いてもよいし、また上記手法を複数用いて算出してもよい。 As described above, the degree of similarity is calculated by various methods. However, the present invention is not particularly limited to any method, and any method may be used, or may be calculated using a plurality of the above methods. Good.
なお、上述した類似度算出部108から108e(以下、これらを類似度算出部108と呼称する)は、あるフレームのOHP領域画像について、全てのOHP画像との類似度を算出する。具体的には、図4において、OHP画像の最初のページの類似度が算出された後(S1004)、その類似度が最大類似度(最初の段階では0)以上であれば(S1005、YES)、最大類似度に類似度をセットし、そのOHP画像のページ番号を記録する(S1006)。この時点でOHP画像の全てのページの照合が終了していなければ(S1007、NO)、OHP画像の次ページを抽出し、S1004の類似度計算処理を繰り返す。こうしてOHP画像全てのページの照合が終了すると(S1007、YES)、類似度算出部108は、その時点の処理対象であるフレーム番号と、最大類似度を有するOHP画像のページ番号を対応付け処理部109に出力する(S1008)。ここで、動画像のうち全てのフレームについての処理が終了していなければ(S1009、NO)、フレーム取得部105により次のフレーム画像を抽出して、S1001からS1009までの処理を繰り返す。
Note that the
全てのフレームについての照合処理が終了すると、対応付け処理部109において、図20に示されるようなフレーム番号・OHP番号対応表(以下、対応表と呼称する)が作成される。図から明らかなように、各フレーム番号と、類似度が最も高いOHP画像との対応付けが示されている。対応付け処理部109は、本対応表を用いて、図21に示されるようなOHP画像と対応するフレーム区間を示すテーブル(以下、区間対応表と呼称する)を作成する。このように、OHP画像に対応して動画像のフレーム区間を対応付けるようにすれば、E-Learning用のコンテンツを作成する上で効率が高まる。なお、図20及び図21のエントリ番号は、表の各レコードに付されたインデックスを意味する。
When the collation processing for all the frames is completed, the
図22は、区間対応表作成処理の詳細を示すフローチャートである。本フローチャートでは、図20のエントリ番号をI及びJを用いてカウントする。まず、図20の対応表を読み出す(S1500)。Iに0をセットする(S1501)。続いて対応表のエントリIに該当するレコードを抽出する。この時抽出されたフレーム番号を開始フレーム番号として記録する(S1502)。続いてJにI+1をセットする(S1503)。そしてJがエントリ数に達しているか、すなわち図20のNに達しているか否かを判断する(S1504)。JがNに達していない場合(S1504、YES)、Jに該当するレコードを抽出する(S1505)。この時抽出されたOHP番号がIのOHP番号と一致するか否かを判断する(S1506)。一致していれば(S1506、YES)、Jをインクリメントし(S1507)、S1504からS1506の処理を繰り返す。この処理により、エントリ番号順にレコードを探索していき、OHP番号が異なるレコードに達した場合(S1506、NO)、直前のレコードのフレーム番号までが同一のOHP画像に対応していると判断され、J−1のフレーム番号をIのOHP番号の終了フレーム番号として記録する(S1508)。 FIG. 22 is a flowchart showing details of the section correspondence table creation processing. In this flowchart, the entry numbers in FIG. 20 are counted using I and J. First, the correspondence table of FIG. 20 is read (S1500). 0 is set to I (S1501). Subsequently, a record corresponding to entry I of the correspondence table is extracted. The frame number extracted at this time is recorded as the start frame number (S1502). Subsequently, I + 1 is set to J (S1503). Then, it is determined whether J has reached the number of entries, that is, whether it has reached N in FIG. 20 (S1504). If J has not reached N (S1504, YES), a record corresponding to J is extracted (S1505). It is determined whether or not the OHP number extracted at this time matches the I OHP number (S1506). If they match (S1506, YES), J is incremented (S1507), and the processing from S1504 to S1506 is repeated. By this process, the records are searched in the order of the entry numbers, and when the records having different OHP numbers are reached (S1506, NO), it is determined that the frame number of the previous record corresponds to the same OHP image, The frame number of J-1 is recorded as the end frame number of the I OHP number (S1508).
図20の場合、フレーム番号0とフレーム番号1がOHP番号0に対応しているため、図21に示されるようにOHP番号0の開始フレーム番号が0、終了フレーム番号が1となる。
In the case of FIG. 20, since
次に、IにJをセットし(S1509)、IがNに達していなければ(S1510、YES)、続いて次のOHP画像の番号に対応するフレーム区間を探索する。すなわち、この時点で、Jには2がセットされているため、Iに2がセットされる。続いてS1502以降の処理が同様になされる。エントリ番号2のフレーム番号は2であるため、開始フレーム番号には2が記録される。同様に、Jをインクリメントしながら順に終了フレーム番号を探索していく。こうして、図21に示されるような区間対応表が作成される。
Next, J is set to I (S1509), and if I has not reached N (S1510, YES), the frame section corresponding to the number of the next OHP image is subsequently searched. In other words, at this time, since 2 is set in J, 2 is set in I. Subsequently, the processing after S1502 is similarly performed. Since the frame number of
なお、このように作成された区間対応表中で、極端に短いフレーム区間が存在する場合、また、そうしたフレーム区間の前後のフレームのOHP画像の番号が同一である場合、該フレーム区間における対応付けが適切でない可能性が大きい。例えば、動画像中において、一時的に障害が発生し、OHP領域画像が明瞭に撮像されなかった場合、類似度算出において、適切な類似度計算がなされず、その部分のみ誤った対応付けがなされることがあるためである。特に、動画像が講義の場合には、OHP画像がページ番号順に用いられることが多いため、上述したフレーム区間の対応付けは不適切と判断される。このような場合を想定し、本実施の形態では、対応付け処理部109は、図21のテーブルを作成した後、短いフレーム区間の対応付け(エントリ)を削除して、該フレーム区間をその前後のフレーム区間に統合する処理を行う。
In the section correspondence table created in this way, when an extremely short frame section exists, and when the OHP image numbers of the frames before and after such a frame section are the same, the association in the frame section is performed. Is likely not appropriate. For example, when a failure occurs temporarily in a moving image and an OHP region image is not clearly captured, appropriate similarity calculation is not performed in similarity calculation, and only that part is incorrectly associated. It is because there are things. In particular, when a moving image is a lecture, OHP images are often used in the order of page numbers, and therefore the above-described association between frame sections is determined to be inappropriate. Assuming such a case, in the present embodiment, after creating the table in FIG. 21, the
図23は、このような対応付け変更処理の流れを示すフローチャートである。本フローチャートでは、図21のエントリ番号をIを用いて説明する。まず、図21のOHP番号のフレーム区間テーブルを読み出す(S1700)。続いてIに0をセットする(S1701)。続いてIが本対応付け変更処理にて既に削除されたエントリ番号であるか否かをチェックする(S1702)。削除されたものでなければ(S1702、NO)、エントリ番号がIに該当するレコードを抽出する。更に、Iのフレーム長を以下の式により算出する(S1703)。
Iのフレーム長=終了フレーム−開始フレーム+1
FIG. 23 is a flowchart showing the flow of such association change processing. In this flowchart, the entry number in FIG. First, the frame section table of the OHP number in FIG. 21 is read (S1700). Subsequently, 0 is set to I (S1701). Subsequently, it is checked whether or not I is an entry number that has already been deleted in this association changing process (S1702). If it has not been deleted (S1702, NO), a record whose entry number corresponds to I is extracted. Further, the frame length of I is calculated by the following equation (S1703).
Frame length of I = end frame−start frame + 1
算出されたフレーム長が所定の値未満の場合には(S1704、YES)、Iの前後の削除されていないエントリのOHP番号が一致しているか否かを検証する(S1705)。一致していれば(S1705、YES)、Iエントリに削除印を付し、Iの直前のエントリの終了フレーム番号をIの直後のエントリの終了フレーム番号に変更する。更にIの直後のエントリにも削除印を付す(S1706)。この削除印により最終的に、短いフレーム区間がその前後のフレーム区間に統合され、図21の区間対応表において、該当の区間及びその直後のエントリ番号のレコードが削除される。続いて、S1707の処理に移行する。 If the calculated frame length is less than the predetermined value (S1704, YES), it is verified whether the OHP numbers of the undeleted entries before and after I match (S1705). If they match (S1705, YES), the I entry is marked for deletion, and the end frame number of the entry immediately before I is changed to the end frame number of the entry immediately after I. Further, the entry immediately after I is also marked for deletion (S1706). By this deletion mark, the short frame section is finally integrated into the preceding and subsequent frame sections, and the record of the corresponding section and the entry number immediately thereafter is deleted in the section correspondence table of FIG. Subsequently, the process proceeds to S1707.
なお、S1705で、OHP番号が一致していなければ(S1705、NO)、即座にS1707以降の処理に移行する。なお、一致していない場合とは、フレーム区間が所定の値より短い場合であっても、対応付けが適切である場合を示す。 If the OHP numbers do not match in S1705 (S1705, NO), the process immediately proceeds to S1707 and subsequent steps. In addition, the case where it does not correspond shows the case where matching is appropriate even if it is a case where a frame area is shorter than a predetermined value.
S1707でIをインクリメントした後、Iが総エントリ数(M)を超えたか否かをチェックする。Iが総エントリ数以下の場合には(S1708、NO)、S1702以降の処理を繰り返し、全てのエントリのフレーム区間とその対応付けをチェックする。Iが総エントリ数を超えた場合には(S1708、YES)、全てのエントリの確認が終了したと判断され、削除印が付されたエントリを削除する(S1709)。 After incrementing I in S1707, it is checked whether I exceeds the total number of entries (M). If I is equal to or less than the total number of entries (S1708, NO), the processing from S1702 onward is repeated to check the frame sections of all the entries and their correspondences. If I exceeds the total number of entries (S1708, YES), it is determined that all entries have been confirmed, and the entry marked for deletion is deleted (S1709).
こうして作成された区間対応表は、対応付け処理部109により対応付けテーブル110に格納される。コンテンツ作成装置1bは、該対応付けテーブルを参照し、既存の技術によりE-learning用のコンテンツを作成し、コンテンツ記憶部112に格納する。
The section correspondence table created in this way is stored in the association table 110 by the
以上説明したように、本実施の形態により、OHP画像と動画像の対応付けが自動的に且つ容易に行われ、それにより従来は手動で行われていたコンテンツ作成が迅速且つ容易に行われることとなる。 As described above, according to the present embodiment, the association between the OHP image and the moving image is automatically and easily performed, and thereby content creation that has been performed manually in the past can be performed quickly and easily. It becomes.
実施の形態2.
実施の形態1に示した図2の機能構成図及び図3のハードウェア構成図を用いて、対応付け処理に更に工夫を加味した実施の形態を以下に説明する。本実施の形態においては、類似度にしきい値を設け、一定の類似度以上の場合には、実施の形態1における図4と同様の処理を行い対応付けを行うが、フレーム画像がどのOHPページに対しても類似度が低い場合には、該フレーム画像の直前或いは直後のフレーム画像に対応付けされたOHP画像に対応付けるようにする。
With reference to the functional configuration diagram of FIG. 2 shown in the first embodiment and the hardware configuration diagram of FIG. 3, an embodiment in which a device is further added to the association processing will be described below. In the present embodiment, a threshold is set for the similarity, and when the similarity is equal to or higher than a certain similarity, the same processing as in FIG. If the similarity is low, the OHP image is associated with the frame image immediately before or after the frame image.
上記処理の詳細を図を用いて詳細に説明する。
図24は、本実施の形態の画像対応付け装置1aの対応付け処理の流れを詳細に示したフローチャートである。
Details of the above processing will be described in detail with reference to the drawings.
FIG. 24 is a flowchart showing in detail the flow of association processing of the
S1800からS1804までは実施の形態1と同様に処理されるため、説明を省略する。S1805において、類似度が予め定められた値以上である場合には(S1805、NO)、類似度算出部108は実施の形態1と同様の処理を行う(S1806〜S1808)。類似度が予め定められた値未満である場合には(S1805、YES)、最大類似度の値は変更されず、次のOHP画像との照合が行われる。S1804からS1808までの処理を全OHP画像との間で行う。
Since S1800 to S1804 are processed in the same manner as in the first embodiment, description thereof is omitted. In S1805, when the similarity is equal to or greater than a predetermined value (S1805, NO), the
1つのフレーム画像について照合処理が終了すると(S1808、YES)、類似度算出部108は、その時点の処理対象であるフレーム番号と、最大類類度を有するOHP画像のページ番号を対応付け処理部109に出力するが、この時、最大類似度が0である場合には、いずれのOHP画像とも対応がつかないとして、OHP番号を−1として出力しておく(S1809)。この結果、図20でフレーム番号が−1となるエントリが出現する。
When the collation processing is completed for one frame image (S1808, YES), the
図25は、本実施の形態において、対応付け処理部109が実施の形態1での図22の区間対応表作成処理を行う前に実施する処理の流れを示したフローチャートである。まず、図20に示すような対応表を読み込み(S1900)、エントリIに0をセットする。次に、Iをインクリメントしつつ(S1903)順に確認し、OHP番号が−1でないエントリIを探索する(S1902)。OHP番号が−1でないエントリIには、変数KにIをセットし、変数OHP1にエントリKのOHP番号をセットし、対応表において、Iが0からKまでの全エントリのOHP番号をOHP1に変更する(S1904)。
FIG. 25 is a flowchart showing a flow of processing performed before the
次に、IにK+1をセットし(S1905)、続いて、OHP番号が−1のエントリIを探索する(S1906)。IエントリのOHP番号が−1でない場合には(S1906、NO)、OHP1にエントリIのOHP番号をセットする(S1907)。更にエントリIのOHP番号にOHP1をセットし、Iをインクリメントする(S1908)。IエントリのOHP番号が−1である場合には(S1906、YES)、既にセットされているOHP1の値をエントリIのOHP番号にセットし、Iをインクリメントする(S1908)。 Next, K + 1 is set to I (S1905), and then an entry I having an OHP number of -1 is searched (S1906). If the OHP number of the I entry is not −1 (S1906, NO), the OHP number of the entry I is set in OHP1 (S1907). Further, OHP1 is set to the OHP number of entry I, and I is incremented (S1908). If the OHP number of the I entry is −1 (S1906, YES), the value of OHP1 that has already been set is set to the OHP number of entry I, and I is incremented (S1908).
すなわち、本処理により対応表で−1となったフレーム番号のOHP番号が該エントリ直前の−1以外のOHP番号に置き換えられる(S1905〜S1908)。なお、I=0のエントリで−1が出現した場合は、該エントリ直後の−1以外のOHP番号に置き換えられる(S1902〜S1904)。本処理はIが総エントリ数に達するまでループする。 That is, the OHP number of the frame number that is -1 in the correspondence table by this processing is replaced with an OHP number other than -1 immediately before the entry (S1905 to S1908). When −1 appears in an entry with I = 0, it is replaced with an OHP number other than −1 immediately after the entry (S1902 to S1904). This process loops until I reaches the total number of entries.
このように対応表からOHP番号の−1を削除した後、図22の処理を行うことで、区間対応表が完成する。 After deleting the OHP number −1 from the correspondence table in this way, the section correspondence table is completed by performing the processing of FIG.
実施の形態3.
実施の形態1に示した図2の機能構成図及び図3のハードウェア構成図を用いて、対応付け処理に更に工夫を加味した他の実施の形態を説明する。本実施の形態では、全フレーム画像とOHP画像との照合に代え、フレーム画像を所定の間隔毎に抜き出して、抜き出したフレーム画像とOHP画像とを照合し、同一のOHP画像と対応付けされた2つのフレームの間に存在する全てのフレーム画像に該同一のOHP画像と対応付けるようにする。これにより処理の効率化を図る。
Another embodiment in which a device is further added to the association process will be described using the functional configuration diagram of FIG. 2 shown in the first embodiment and the hardware configuration diagram of FIG. 3. In the present embodiment, instead of collating all frame images and OHP images, frame images are extracted at predetermined intervals, the extracted frame images are collated with OHP images, and associated with the same OHP image. All the frame images existing between two frames are associated with the same OHP image. As a result, processing efficiency is improved.
図26は、本実施の形態の画像対応付け装置1aの対応付け処理の流れを詳細に示したフローチャートである。また、図27は、図26のフローチャートに沿って実施される具体的な照合処理の一例を示している。上段にフレーム番号が、下段にはフレーム番号との照合の結果得られる、最大類似度を有するOHP番号が示されている。ここでは便宜のため、既に対応のOHP番号が明示されているが、該番号は実際に照合処理を行うことにより得られるものであり、図26に示された処理開始以前には不明なものとする。
FIG. 26 is a flowchart showing in detail the flow of association processing of the
また、図26中のフレーム抽出処理はフレーム取得部105が行い、照合処理(類似度算出処理)は類似度算出部108が行うが、それ以外の処理は全て対応付け処理部109が行うものとする。
The frame extraction process in FIG. 26 is performed by the
まず、図26において、動画像の最初のフレーム番号(0)を抽出する。また、変数「OHP番号1」に0をセットする。(S1600)。次に、変数「OHP番号1の開始フレーム」及び変数「Startフレーム」にフレーム番号(最初の時点では0)をセットし、変数「Endフレーム」には、Startフレームに予め定められた所定の間隔(INTERVAL)を加算した値をセットする(S1601)。これにより、INTERVAL毎にフレームが抜き出されて照合処理が行われる。
First, in FIG. 26, the first frame number (0) of the moving image is extracted. Also, 0 is set in the variable “
図27においては、INTERVALが5とされ、下向き矢印により抜き出すフレーム番号が示されている。また、S1601におけるStartフレームは(1)列のフレーム番号、Endフレームは(2)列のフレーム番号で示されている。 In FIG. 27, INTERVAL is set to 5, and a frame number extracted by a downward arrow is shown. The Start frame in S1601 is indicated by the frame number in (1) column, and the End frame is indicated by the frame number in (2) column.
続いて、Endフレーム(抜き出したフレーム)とOHP画像との照合処理を行う(S1602)。本照合処理は、図4のS1001からS1007までの処理と同様であるため、説明を省略する。更に、この照合処理により得られた最大類似度を有するOHP番号を変数「OHP番号2」にセットする(S1602)。
Subsequently, the end frame (extracted frame) is collated with the OHP image (S1602). Since this collation processing is the same as the processing from S1001 to S1007 in FIG. Further, the OHP number having the maximum similarity obtained by this collation processing is set in the variable “
次に、OHP番号2とOHP番号1が等しいか否かを検証する。図27の場合には、OHP番号2とOHP番号1が互いに0で等しいため(S1603、YES)、続いて「OHP番号1の終了フレーム」及び「Startフレーム」にEndフレームをセットし、「Endフレーム」に現在のEndフレームにINTERVALを加算した値をセットする(S1604)。この時点で、Startフレームは(2)で示された位置のフレーム番号となり、Endフレームは(3)で示された位置のフレーム番号となる。
Next, it is verified whether
続いて、S1602の処理に戻り、照合処理を再度行う。OHP番号1とOHP番号2が同一である間は、S1602からS1604の処理が繰り返さされる。図27に示された例((2)と(3))では、OHP番号1が0であり、OHP番号2が1となるため、同一とはならず(S1603、NO)、S1605の処理に遷移する。S1605において、変数「Endフレーム2」には、その時点でのEndフレームがセットされ、「Endフレーム」には、Startフレーム+(Endフレーム2−Startフレーム+1)/2がセットされる。すなわち、INTERVALを2で分割した位置にあるフレームが次のEndフレームとなる。なお、(Endフレーム2−Startフレーム+1)/2は小数点以下切り捨てとする。図27の例では、Endフレームは(4)の位置に示されたフレーム番号となる。
Subsequently, the process returns to S1602, and the matching process is performed again. While the
次に、Endフレーム2がEndフレームと同一であるか否かをチェックする(S1606)。同一でなければ、次に、現時点でのEndフレームとOHP画像との照合処理を行う(S1607)。この照合処理により得られたOHP番号を「OHP番号2」にセットする。ここで、OHP番号2とOHP番号1が等しいか否かを検証する(S1608)。図27に示された例では、OHP番号1が0であり、OHP番号2が1となるため、同一とはならず(S1608、NO)、S1610の処理に移行する。S1610では、「Endフレーム2」にEndフレームをセットし、「Endフレーム」にはStartフレーム+(Endフレーム2−Startフレーム+1)/2をセットする。この時点で、Endフレームは(5)で示された位置のフレーム番号となる。
Next, it is checked whether or not the
次に、S1606に戻り、再度Endフレーム2とEndフレームが同一であるかをチェックする。図27の例においては、この時点でEndフレーム2が8であり、Endフレームが7であるため(S1606、NO)、S1607の照合処理が行われる。その結果OHP番号2とOHP番号1が等しくなるため(S1608、YES)、S1609の処理に移行する。S1609では、「OHP番号1の終了フレーム」及び「Startフレーム」にEndフレームをセットし、「Endフレーム」にはStartフレーム+(Endフレーム2−Startフレーム+1)/2をセットする。
Next, returning to S1606, it is checked again whether
この時点で、開始フレーム番号には0、終了フレーム番号には1がセットされており、この値を区間対応表のOHP番号が0のエントリに出力する。更に、Endフレーム2及びEndフレームは7となるため(S1606、YES)、S1606でS1611の処理に移行し、フレーム番号にEndフレーム2をセットし、OHP番号1をインクリメントしてS1601の処理に戻る。
以上の処理を繰り返すことにより、全フレーム画像を照合せずとも、図21の区間対応表が得られ、OHP画像と対応付けることが可能となる。
At this time, the start frame number is set to 0 and the end frame number is set to 1, and this value is output to the entry whose OHP number is 0 in the section correspondence table. Further, since
By repeating the above processing, the section correspondence table of FIG. 21 can be obtained without matching all the frame images, and can be associated with the OHP image.
以上、本発明の様々な実施の形態を説明したが、本発明は上述した実施の形態に限定されることはなく、本発明の要旨を逸脱しない範囲において応用可能であることはもちろんである。 While various embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and can of course be applied without departing from the scope of the present invention.
(付記1) 複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断手段と、
前記関連性判断手段により所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付け手段と、
を備えてなる画像対応付け装置。
(付記2) 付記1に記載の画像対応付け装置において、
前記所定の関連性が、第2の画像の一つに第1の画像に対応する画像の一つが含まれるというものである場合に、
前記関連性判断手段は、
第2の画像から所定領域を抽出する所定領域抽出手段と、
前記所定領域抽出手段により抽出された前記所定領域の画像が第1の画像のいずれの画像に対応するのかを判断する対応画像判断手段と
を備えたことを特徴とする画像対応付け装置。
(付記3) 付記2に記載の画像対応付け装置において、
前記対応画像判断手段は、前記所定領域の画像と第1の画像との類似度を算出する類似度算出手段を備え、該類似度算出手段により算出された類似度に基づいて、前記所定領域に含まれる画像が第1の画像のいずれの画像に対応するのかを判断することを特徴とする画像対応付け装置。
(付記4) 付記3に記載の画像対応付け装置において、
前記類似度算出手段は、前記所定領域の画像に対して第1の画像のすべての画像との類似度を算出し、該類似度に基づいて前記所定領域の画像に対する第1の画像の対応付け候補を求めることを特徴とする画像対応付け装置。
(付記5) 付記2乃至付記4のいずれかに記載の画像対応付け装置において、
第1の画像は矩形状をなして、第2の画像の一部に含まれ、
前記所定領域抽出手段は、第2の画像における直線成分を検出すると共に、検出された直線成分に基づいて前記矩形状を前記所定領域として検出することを特徴とする画像対応付け装置。
(付記6) 付記5に記載の画像対応付け装置において、
前記所定領域抽出手段は、前記直線成分を検出する際に、第2の画像においてエッジ抽出処理を行って、エッジ2値画像を作成し、得られたエッジ2値画像に対してハフ変換を行うことを特徴とする画像対応付け装置。
(付記7) 付記5又は付記6に記載の画像対応付け装置において、
前記所定領域抽出手段は、検出された直線成分を統合して矩形状を検出すると共に、得られた矩形状の中で最大のものを前記所定領域として抽出することを特徴とする画像対応付け装置。
(付記8) 付記3に記載の画像対応付け装置において、
前記類似度算出手段は、前記所定領域抽出手段により抽出された所定領域における画像を構成する複数の画素と、第1画像を構成する複数の画素とを照合し、照合結果に基づいて類似度を算出することを特徴とする画像対応付け装置。
(付記9) 付記8に記載の画像対応付け装置において、
前記類似度算出手段は、前記所定領域の画像と第1画像との少なくともいずれかの画像のサイズを変更する画像サイズ変更手段を備え、
変更された画像サイズにおいて前記照合を行うことを特徴とする画像対応付け装置。
(付記10) 付記3に記載の画像対応付け装置において、
前記類似度算出手段は、画像に含まれる文字を認識する文字認識手段を備え、
所定領域抽出手段により抽出された第2の画像の所定領域の画像において認識された文字と、第1の画像において認識された文字とに基づいて類似度を算出することを特徴とする画像対応付け装置。
(付記11) 付記10に記載の画像対応付け装置において、
前記類似度算出手段は、前記所定領域の画像と第1の画像との互いに対応する位置において認識されたすべての文字について照合を行い、該照合結果に基づいて類似度を算出することを特徴とする画像対応付け装置。
(付記12) 付記10に記載の画像対応付け装置において、
前記類似度算出手段は、前記所定領域の画像と第1の画像との互いに対応する位置において認識された連続する所定数の文字について照合を行い、該照合結果に基づいて類似度を算出することを特徴とする画像対応付け装置。
(付記13) 付記3に記載の画像対応付け装置において、
前記類似度算出手段は、画像に含まれるレイアウト情報を検出するレイアウト情報検出手段を備え、
前記所定領域抽出手段により抽出された第2の画像の所定領域の画像において検出されたレイアウト情報と、第1の画像において検出されたレイアウト情報とに基づいて類似度を算出することを特徴とする画像対応付け装置。
(付記14) 付記13に記載の画像対応付け装置において、
前記レイアウト情報には、前記所定領域の属性情報、前記所定の領域の配置状況についての情報、前記所定の領域の特徴量の少なくともいずれかが含まれることを特徴とする画像対応付け装置。
(付記15) 付記14に記載の画像対応付け装置において、
前記所定の領域の属性情報には、図、表、文字列ブロック、文字列ブロック中の各文字列の少なくともいずれかの属性値が含まれることを特徴とする画像対応付け装置。
(付記16) 付記13乃至付記15のいずれかに記載の画像対応付け装置において、
前記所定の領域の特徴量には、文字列を囲む矩形の位置、文字列のサイズ、文字列の形状、文字列の色の少なくともいずれかの情報が含まれることを特徴とする画像対応付け装置。
(付記17) 付記16に記載の画像対応付け装置において、
前記レイアウト情報検出手段により検出される各文字列毎に複数存在する色情報についての特徴量は、各文字列毎に複数存在する色情報をクラスタリングして得られた所定の代表色の情報であることを特徴とする画像対応付け装置。
(付記18) 付記1乃至付記17のいずれかに記載の画像対応付け装置において、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、
あるフレーム数だけ離れた二つのフレーム画像に対応する第1の画像が同一である場合に、前記対応付け手段は、前記二つのフレーム画像の間に存在するフレーム画像に、前記二つのフレーム画像に対応する第1の画像と同じ画像を対応付けることを特徴とする画像対応付け装置。
(付記19) 付記1乃至付記17のいずれかに記載の画像対応付け装置において、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、
連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引き手段を備え、
前記関連性判断手段は、前記フレーム画像間引き手段により間引かれたフレーム画像について第1の画像との関連性を判断することを特徴とする画像対応付け装置。
(付記20) 付記19に記載の画像対応付け装置において、
前記フレーム画像間引き手段により抽出され、所定のフレーム間隔を有する二つのフレーム画像に対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引き手段により間引かれるフレーム間隔を小さくする間引き間隔変更手段を備えることを特徴とする画像対応付け装置。
(付記21) 付記1乃至付記17のいずれかに記載の画像対応付け装置において、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、
連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出手段を備え、
前記対応付け手段は、前記ポイント検出手段により検出されたポイント間の各フレーム画像に同一の第1の画像を対応付けることを特徴とする画像対応付け装置。
(付記22) 付記1乃至付記17のいずれかに記載の画像対応付け装置において、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、
前記対応付け手段は、同一の第1の画像が対応付けられる複数のフレーム画像の間に、前記同一の第1の画像が対応付けられないフレーム画像が所定フレーム数以下に亘って存在する場合に、これらフレーム画像にも前記同一の第1の画像を対応付けることを特徴とする画像対応付け装置。
(付記23) 付記1乃至付記17のいずれかに記載の画像対応付け装置において、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、
前記関連性判断手段により、第1の画像との関連性が判断されないフレーム画像について、前記対応付け手段は、前記関連性が見出せる直前或いは直後のフレーム画像に対応付けられた第1の画像と同じ画像を対応付けることを特徴とする画像対応付け装置。
(付記24) 付記1乃至付記25のいずれかに記載の画像対応付け装置において、
第2の画像は、撮像手段により撮像されて得られる動画像であり、
第1の画像は、前記撮像手段により撮像され、前記動画像の中の前記所定領域に含まれる画像であることを特徴とする画像対応付け装置。
(付記25) 付記1乃至付記26のいずれかに記載の画像対応付け装置において、
第1の画像は、OHPにより投影される画像であり、第2の画像は前記OHPにより投影されている画像がその所定領域に撮像されている画像であることを特徴とする画像対応付け装置。
(付記26) 複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断ステップと、
前記関連性判断ステップにより所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付けステップと、
を備えてなる画像対応付け方法。
(付記27) コンピュータにより読取り可能な媒体に記憶され、画像対応付け処理をコンピュータに実行させる画像対応付けプログラムであって、
複数の第1の画像と、複数の第2の画像であって、複数の第2の画像における少なくともいずれかの画像が第1の画像のうちのいずれかの画像と所定の関連性を有する第2の画像とに基づいて、第2の画像の夫々が第1の画像のいずれの画像と前記所定の関連性を有するかについて判断する関連性判断ステップと、
前記関連性判断ステップにより所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付けステップと、
をコンピュータに実行させることを特徴とする画像対応付けプログラム。
(Supplementary Note 1) A plurality of first images and a plurality of second images, wherein at least one of the plurality of second images has a predetermined association with any one of the first images Relevance determining means for determining which of the first images each of the second images has the predetermined relevance on the basis of the second image having sex;
Association means for associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination means;
An image association apparatus comprising:
(Supplementary Note 2) In the image association apparatus according to
When the predetermined relationship is that one of the second images includes one of the images corresponding to the first image,
The relevance determining means includes
Predetermined area extraction means for extracting a predetermined area from the second image;
An image association apparatus comprising: a corresponding image determination unit that determines which image of the first image the image of the predetermined region extracted by the predetermined region extraction unit corresponds to.
(Supplementary Note 3) In the image association apparatus according to
The corresponding image determining unit includes a similarity calculating unit that calculates a similarity between the image of the predetermined region and the first image, and the corresponding image determining unit stores the predetermined region based on the similarity calculated by the similarity calculating unit. An image association apparatus for determining which image of the first image corresponds to the included image.
(Supplementary Note 4) In the image association apparatus according to
The similarity calculation means calculates a similarity between all the images of the first image with respect to the image of the predetermined area, and associates the first image with the image of the predetermined area based on the similarity An image association apparatus characterized by obtaining a candidate.
(Supplementary note 5) In the image association apparatus according to any one of
The first image has a rectangular shape and is included in a part of the second image,
The predetermined area extracting unit detects a linear component in a second image and detects the rectangular shape as the predetermined area based on the detected linear component.
(Supplementary Note 6) In the image association apparatus according to
The predetermined area extraction unit performs edge extraction processing on the second image when detecting the straight line component, creates an edge binary image, and performs Hough transform on the obtained edge binary image An image association apparatus characterized by that.
(Supplementary Note 7) In the image association apparatus according to
The predetermined area extracting means detects the rectangular shape by integrating the detected linear components, and extracts the largest one of the obtained rectangular shapes as the predetermined area. .
(Supplementary note 8) In the image association apparatus according to
The similarity calculating means collates a plurality of pixels constituting the image in the predetermined area extracted by the predetermined area extracting means with a plurality of pixels constituting the first image, and calculates the similarity based on the collation result. An image association apparatus characterized by calculating.
(Supplementary note 9) In the image association device according to
The similarity calculation means includes image size changing means for changing the size of at least one of the image of the predetermined area and the first image,
An image associating device that performs the collation for a changed image size.
(Supplementary Note 10) In the image association apparatus according to
The similarity calculation means includes character recognition means for recognizing characters included in an image,
An image association characterized in that a similarity is calculated based on a character recognized in an image of a predetermined region of the second image extracted by the predetermined region extraction means and a character recognized in the first image apparatus.
(Supplementary Note 11) In the image association apparatus according to
The similarity calculation means performs matching for all characters recognized at positions corresponding to each other between the image of the predetermined region and the first image, and calculates the similarity based on the matching result. An image association apparatus.
(Supplementary note 12) In the image association apparatus according to
The similarity calculation means performs collation on a predetermined number of consecutive characters recognized at positions corresponding to each other in the image of the predetermined area and the first image, and calculates the similarity based on the collation result An image association apparatus characterized by the above.
(Supplementary note 13) In the image association device according to
The similarity calculation means includes layout information detection means for detecting layout information included in the image,
The similarity is calculated based on layout information detected in an image of a predetermined area of the second image extracted by the predetermined area extraction means and layout information detected in the first image. Image association device.
(Supplementary note 14) In the image association apparatus according to
The image association apparatus, wherein the layout information includes at least one of attribute information of the predetermined area, information about an arrangement state of the predetermined area, and a feature amount of the predetermined area.
(Supplementary Note 15) In the image association apparatus according to
The image association apparatus characterized in that the attribute information of the predetermined area includes at least one attribute value of each character string in a figure, a table, a character string block, and a character string block.
(Supplementary Note 16) In the image association apparatus according to any one of
The feature amount of the predetermined region includes at least one of information on a position of a rectangle surrounding the character string, a character string size, a character string shape, and a character string color. .
(Supplementary note 17) In the image association apparatus according to
The feature amount of the color information existing for each character string detected by the layout information detecting means is information on a predetermined representative color obtained by clustering the color information existing for each character string. An image association apparatus characterized by that.
(Supplementary note 18) In the image association device according to any one of
When the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images,
When the first images corresponding to two frame images separated by a certain number of frames are the same, the associating means adds a frame image existing between the two frame images to the two frame images. An image association apparatus that associates the same image with a corresponding first image.
(Supplementary note 19) In the image association apparatus according to any one of
When the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images,
Frame image thinning means for extracting frame images at predetermined frame intervals from a plurality of consecutive frame images,
The relevance determining means determines the relevance of the frame image thinned out by the frame image thinning means to the first image.
(Supplementary note 20) In the image association device according to
A thinning interval for reducing the frame interval thinned out by the frame image thinning unit when the two first images extracted by the frame image thinning unit and associated with two frame images having a predetermined frame interval are not the same. An image association apparatus comprising a changing means.
(Supplementary note 21) In the image association device according to any one of
When the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images,
Point detecting means for detecting a point when a first image corresponding to a continuous frame image is different between preceding and following frames;
The image association apparatus, wherein the association unit associates the same first image with each frame image between the points detected by the point detection unit.
(Supplementary note 22) In the image association device according to any one of
When the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images,
The associating means may include a case in which frame images that are not associated with the same first image exist between a plurality of frame images associated with the same first image over a predetermined number of frames. An image association apparatus that associates the same first image with these frame images.
(Supplementary note 23) In the image association device according to any one of
When the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images,
For a frame image whose relevance to the first image is not determined by the relevance determination means, the association means is the same as the first image associated with the frame image immediately before or immediately after the relevance can be found. An image association apparatus characterized by associating images.
(Supplementary Note 24) In the image association apparatus according to any one of
The second image is a moving image obtained by being imaged by the imaging means,
The image association apparatus, wherein the first image is an image captured by the imaging unit and included in the predetermined area in the moving image.
(Supplementary Note 25) In the image association apparatus according to any one of
The first image is an image projected by OHP, and the second image is an image in which an image projected by the OHP is captured in a predetermined area.
(Supplementary Note 26) A plurality of first images and a plurality of second images, wherein at least one of the plurality of second images has a predetermined association with any one of the first images A relevance determination step for determining which of the first images each of the second images has the predetermined relevance based on the second image having a sex;
An association step of associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination step;
An image association method comprising:
(Supplementary note 27) An image association program stored in a computer-readable medium and causing the computer to execute an image association process,
A plurality of first images and a plurality of second images, wherein at least one of the plurality of second images has a predetermined relationship with any one of the first images. A relevance determining step for determining, based on the second image, which of the first images each of the second images has the predetermined relevance;
An association step of associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination step;
An image association program that causes a computer to execute.
1 画像対応付け・コンテンツ作成装置、1a 画像対応付け装置、1b コンテンツ作成装置、2 OHPを使った講演、3 カメラ撮影、4 OHPファイル、5 E-learningコンテンツ、11 ビデオ入力制御装置、12 CPU、13 メモリ、14 ファイル入出力装置、15 画像用HDD、16 プログラムHDD、17 コンテンツHDD、18 対応付けテーブルHDD、19 OHPファイルHDD、20 LANインタフェース、21 CD−ROMドライブ、101 動画像入力部、102 動画像記憶部、103 OHPファイル入力部、104 OHPファイル記憶部、105 フレーム取得部、106 OHP領域抽出部、107 OHP取得部、108、108a、108b、108c、108d、108e 類似度算出部、109 対応付け処理部、110 対応付けテーブル、111 コンテンツ作成部、112 コンテンツ記憶部、120 画像正規化部、121 フレーム画素抽出部、122 OHP画素抽出部、123 画素照合部、124 照合結果加算部、130 画像正規化部、131 フレーム文字抽出部、132 OHP文字抽出部、133 文字照合部、134 照合結果加算部、140 画素照合結果算出部、141 文字照合結果算出部、142 総合類似度算出部、150 画像正規化部、151 フレームレイアウト取得部、152 OHPレイアウト取得部、153 レイアウト照合部、154 照合結果加算部、160 画像正規化部、161 フレームタイトル抽出部、162 OHPタイトル抽出部、163 タイトル照合部、164 照合結果計算部、170 フレームレイアウト取得部、171 OHPレイアウト取得部、172 画像正規化部、173 フレーム領域画素抽出部、174 OHP領域画素抽出部、175 画素照合部、176 照合結果計算部。 1 Image association / content creation device, 1a Image association device, 1b Content creation device, 2 Lecture using OHP, 3 Camera shooting, 4 OHP file, 5 E-learning content, 11 Video input control device, 12 CPU, 13 memory, 14 file input / output device, 15 image HDD, 16 program HDD, 17 content HDD, 18 association table HDD, 19 OHP file HDD, 20 LAN interface, 21 CD-ROM drive, 101 moving image input unit, 102 Moving image storage unit, 103 OHP file input unit, 104 OHP file storage unit, 105 frame acquisition unit, 106 OHP region extraction unit, 107 OHP acquisition unit, 108, 108a, 108b, 108c, 108d, 108e Similarity calculation unit, 1 9 association processing unit, 110 association table, 111 content creation unit, 112 content storage unit, 120 image normalization unit, 121 frame pixel extraction unit, 122 OHP pixel extraction unit, 123 pixel collation unit, 124 collation result addition unit, 130 image normalization unit, 131 frame character extraction unit, 132 OHP character extraction unit, 133 character verification unit, 134 verification result addition unit, 140 pixel verification result calculation unit, 141 character verification result calculation unit, 142 total similarity calculation unit, 150 image normalization unit, 151 frame layout acquisition unit, 152 OHP layout acquisition unit, 153 layout verification unit, 154 verification result addition unit, 160 image normalization unit, 161 frame title extraction unit, 162 OHP title extraction unit, 163 title verification Part, 164 verification result total Arithmetic unit, 170 frame layout acquisition unit, 171 OHP layout acquisition unit, 172 image normalization unit, 173 frame region pixel extraction unit, 174 OHP region pixel extraction unit, 175 pixel verification unit, 176 verification result calculation unit.
Claims (3)
前記関連性判断手段により所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付け手段と、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引き手段と、
前記フレーム画像間引き手段により抽出され、所定のフレーム間隔を有する二つのフレーム画像に対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引き手段により間引かれるフレーム間隔を小さくする間引き間隔変更手段と、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出手段と、を備え、
前記関連性判断手段は、前記フレーム画像間引き手段により間引かれたフレーム画像について第1の画像との関連性を判断し、
前記対応付け手段は、前記ポイント検出手段により検出されたポイント間の各フレーム画像に同一の第1の画像を対応付けることを特徴とする画像対応付け装置。 A plurality of first images and a plurality of second images, wherein at least one of the plurality of second images has a predetermined relationship with any one of the first images. Relevance determining means for determining which of the first images each of the second images has the predetermined relevance based on the two images;
Association means for associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination means;
Frame image thinning means for extracting a frame image at a predetermined frame interval from a plurality of consecutive frame images when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images. When,
A thinning interval for reducing the frame interval thinned out by the frame image thinning unit when the two first images extracted by the frame image thinning unit and associated with two frame images having a predetermined frame interval are not the same. Change means,
Points when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images, and the first image corresponding to successive frame images is different between the preceding and succeeding frames. And point detecting means for detecting
The relevance determining means determines the relevance of the frame image thinned out by the frame image thinning means to the first image;
The image association apparatus, wherein the association unit associates the same first image with each frame image between the points detected by the point detection unit.
前記関連性判断ステップにより所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付けステップと、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引きステップと、
前記フレーム画像間引きステップにより抽出され、所定のフレーム間隔を有する二つのフレーム画像に対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引きステップにより間引かれるフレーム間隔を小さくする間引き間隔変更ステップと、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出ステップと、をコンピュータに実行させ、
前記関連性判断ステップは、前記フレーム画像間引きステップにより間引かれたフレーム画像について第1の画像との関連性を判断し、
前記対応付けステップは、前記ポイント検出ステップにより検出されたポイント間の各フレーム画像に同一の第1の画像を対応付けることを特徴とする画像対応付けプログラム。 A plurality of first images and a plurality of second images, wherein at least one of the plurality of second images has a predetermined relationship with any one of the first images. A relevance determining step for determining, based on the second image, which of the first images each of the second images has the predetermined relevance;
An association step of associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination step;
A frame image thinning step for extracting frame images at predetermined frame intervals from a plurality of consecutive frame images when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images. When,
A thinning interval that reduces the frame interval thinned out by the frame image thinning step when two first images extracted by the frame image thinning step and associated with two frame images having a predetermined frame interval are not the same. Change steps,
Points when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images, and the first image corresponding to successive frame images is different between the preceding and succeeding frames. A point detecting step for detecting
The relevance determining step determines the relevance of the frame image thinned out by the frame image thinning step to the first image,
In the image association program, the association step associates the same first image with each frame image between the points detected by the point detection step.
前記関連性判断ステップにより所定の関連性を有すると判断された第1の画像と第2の画像の夫々を対応付ける対応付けステップと、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続する複数のフレーム画像から、所定のフレーム間隔毎にフレーム画像を抽出するフレーム画像間引きステップと、
前記フレーム画像間引きステップにより抽出され、所定のフレーム間隔を有する二つのフレーム画像に対応付けられる二つの第1画像が同一でない場合に、前記フレーム画像間引きステップにより間引かれるフレーム間隔を小さくする間引き間隔変更ステップと、
第2の画像が一連の動画像を構成する複数のフレームの夫々に対応したフレーム画像である場合に、連続するフレーム画像に対応する第1の画像が前後のフレームで異なることとなる場合のポイントを検出するポイント検出ステップと、を実行し、
前記関連性判断ステップは、前記フレーム画像間引きステップにより間引かれたフレーム画像について第1の画像との関連性を判断し、
前記対応付けステップは、前記ポイント検出ステップにより検出されたポイント間の各フレーム画像に同一の第1の画像を対応付けることを特徴とする画像対応付け方法。 A plurality of first images and a plurality of second images, wherein at least one of the plurality of second images has a predetermined relationship with any one of the first images. A relevance determining step for determining, based on the second image, which of the first images each of the second images has the predetermined relevance;
An association step of associating each of the first image and the second image determined to have a predetermined relevance by the relevance determination step;
A frame image thinning step for extracting frame images at predetermined frame intervals from a plurality of consecutive frame images when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images. When,
A thinning interval that reduces the frame interval thinned out by the frame image thinning step when two first images extracted by the frame image thinning step and associated with two frame images having a predetermined frame interval are not the same. Change steps,
Points when the second image is a frame image corresponding to each of a plurality of frames constituting a series of moving images, and the first image corresponding to successive frame images is different between the preceding and succeeding frames. And a point detecting step for detecting,
The relevance determining step determines the relevance of the frame image thinned out by the frame image thinning step to the first image,
The image associating method, wherein the associating step associates the same first image with each frame image between the points detected by the point detecting step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008178320A JP4680283B2 (en) | 2008-07-08 | 2008-07-08 | Image association apparatus, image association method, and image association program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008178320A JP4680283B2 (en) | 2008-07-08 | 2008-07-08 | Image association apparatus, image association method, and image association program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002080500A Division JP4176364B2 (en) | 2002-03-22 | 2002-03-22 | Image association apparatus, image association method, and image association program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008262594A true JP2008262594A (en) | 2008-10-30 |
JP4680283B2 JP4680283B2 (en) | 2011-05-11 |
Family
ID=39984974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008178320A Expired - Fee Related JP4680283B2 (en) | 2008-07-08 | 2008-07-08 | Image association apparatus, image association method, and image association program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4680283B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010199760A (en) * | 2009-02-23 | 2010-09-09 | Ricoh Co Ltd | Information synchronizing apparatus, information synchronizing method, information synchronizing program, and recording medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05204990A (en) * | 1992-01-29 | 1993-08-13 | Hitachi Ltd | Key word imparting method for animation image information |
JPH07319886A (en) * | 1994-05-30 | 1995-12-08 | Nippon Telegr & Teleph Corp <Ntt> | Retrieving device for drawing image interlinked with dynamic image and retrieving method for drawing image interlinked with dynamic image |
JPH0993530A (en) * | 1995-09-28 | 1997-04-04 | Matsushita Electric Ind Co Ltd | Video image change point detector and video image change point detecting method |
JPH1055391A (en) * | 1996-08-12 | 1998-02-24 | Fuji Xerox Co Ltd | Information reproducing device and material display device |
JP2001101205A (en) * | 1999-09-29 | 2001-04-13 | Ricoh Co Ltd | Video structuring device, video structuring method and recording medium readable by computer in which program to make computer execute its method is recorded |
JP2001350775A (en) * | 2000-06-05 | 2001-12-21 | Fuji Xerox Co Ltd | Method and device for presenting a plurality of information |
-
2008
- 2008-07-08 JP JP2008178320A patent/JP4680283B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05204990A (en) * | 1992-01-29 | 1993-08-13 | Hitachi Ltd | Key word imparting method for animation image information |
JPH07319886A (en) * | 1994-05-30 | 1995-12-08 | Nippon Telegr & Teleph Corp <Ntt> | Retrieving device for drawing image interlinked with dynamic image and retrieving method for drawing image interlinked with dynamic image |
JPH0993530A (en) * | 1995-09-28 | 1997-04-04 | Matsushita Electric Ind Co Ltd | Video image change point detector and video image change point detecting method |
JPH1055391A (en) * | 1996-08-12 | 1998-02-24 | Fuji Xerox Co Ltd | Information reproducing device and material display device |
JP2001101205A (en) * | 1999-09-29 | 2001-04-13 | Ricoh Co Ltd | Video structuring device, video structuring method and recording medium readable by computer in which program to make computer execute its method is recorded |
JP2001350775A (en) * | 2000-06-05 | 2001-12-21 | Fuji Xerox Co Ltd | Method and device for presenting a plurality of information |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010199760A (en) * | 2009-02-23 | 2010-09-09 | Ricoh Co Ltd | Information synchronizing apparatus, information synchronizing method, information synchronizing program, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP4680283B2 (en) | 2011-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11849196B2 (en) | Automatic data extraction and conversion of video/images/sound information from a slide presentation into an editable notetaking resource with optional overlay of the presenter | |
US8280158B2 (en) | Systems and methods for indexing presentation videos | |
CN108073555B (en) | Method and system for generating virtual reality environment from electronic document | |
JP4176364B2 (en) | Image association apparatus, image association method, and image association program | |
US8077930B2 (en) | Method for recognizing content in an image sequence | |
JP4833573B2 (en) | Method, apparatus and data processing system for creating a composite electronic representation | |
US8433136B2 (en) | Tagging video using character recognition and propagation | |
Rusiñol et al. | Augmented songbook: an augmented reality educational application for raising music awareness | |
WO2004081783A1 (en) | Pointer area detecting device, method, and program, image relating device, method, and program, content distributing server, and content distributing method | |
US10007848B2 (en) | Keyframe annotation | |
Ngo et al. | Structuring lecture videos for distance learning applications | |
JP4680283B2 (en) | Image association apparatus, image association method, and image association program | |
Yang et al. | Automated extraction of lecture outlines from lecture videos | |
US20200226208A1 (en) | Electronic presentation reference marker insertion | |
Ali et al. | Segmenting lecture video into partitions by analyzing the contents of video | |
Tsampoulatidis et al. | High-level event detection system based on discriminant visual concepts | |
Christel | Automated metadata in multimedia information systems | |
US20180189602A1 (en) | Method of and system for determining and selecting media representing event diversity | |
JP4522323B2 (en) | Image processing apparatus and control method thereof | |
Xu et al. | Skeleton-based methods for speaker action classification on lecture videos | |
US10674222B2 (en) | Techniques for generating subtitles for trailers | |
JP3940012B2 (en) | Matching program and multimedia content editing program | |
Sreepathy | Automated analysis and indexing of lecture videos | |
Lin et al. | Learning-focused structuring for blackboard lecture videos | |
Kothawade et al. | A Survey on Automatic Video Lecture Indexing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101116 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4680283 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140210 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |