JP2010176570A - Scene change detecting apparatus, scene change detecting program, and scene change detecting method - Google Patents

Scene change detecting apparatus, scene change detecting program, and scene change detecting method Download PDF

Info

Publication number
JP2010176570A
JP2010176570A JP2009020704A JP2009020704A JP2010176570A JP 2010176570 A JP2010176570 A JP 2010176570A JP 2009020704 A JP2009020704 A JP 2009020704A JP 2009020704 A JP2009020704 A JP 2009020704A JP 2010176570 A JP2010176570 A JP 2010176570A
Authority
JP
Japan
Prior art keywords
image
classification
scene change
pattern
change detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009020704A
Other languages
Japanese (ja)
Inventor
Hiroshi Matsuzaki
弘 松崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009020704A priority Critical patent/JP2010176570A/en
Priority to US12/693,759 priority patent/US8665326B2/en
Priority to CN201010107619.4A priority patent/CN101794445B/en
Publication of JP2010176570A publication Critical patent/JP2010176570A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To detect a scene change position in an image sequence with high accuracy without increasing processing time. <P>SOLUTION: A scene change detecting apparatus includes a motion vector detecting section 52 that detects motion vectors between images in a plurality of positions in the images that configure the image sequence, a motion vector classification processing section 53 that classifies patterns of the images into predetermined motion patterns based on the plurality of detected motion vectors, a classified image change detecting section 54 that detects image change between the images in each pattern classification by applying classified image change detection processing defined per pattern classification in advance to corresponding pattern classification, and a classified scene change detecting section 55 that detects scene change in each pattern classification per pattern classification. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、複数の画像で構成される画像列からシーン変化位置を検出するためのシーン変化検出装置、シーン変化検出プログラムおよびシーン変化検出方法に関するものである。   The present invention relates to a scene change detection device, a scene change detection program, and a scene change detection method for detecting a scene change position from an image sequence composed of a plurality of images.

従来から、連続して撮影された複数の静止画像列、あるいは動画像のような連続する画像列を処理し、これらの連続する画像列からシーン変化位置を検出する様々な手法が提案されている。例えば、隣接する画像間(フレーム間)の特徴変化を所定の閾値と比較し、閾値を超える場合にシーン変化位置として検出する方法が一般的によく知られている。また、特許文献1には、複数の特徴値を用いてタイプの異なる様々なシーン変化を検出する手法が開示されている。   Conventionally, various methods have been proposed for processing a plurality of continuously captured still image sequences or continuous image sequences such as moving images, and detecting scene change positions from these continuous image sequences. . For example, a method of comparing a feature change between adjacent images (between frames) with a predetermined threshold and detecting it as a scene change position when the threshold is exceeded is generally well known. Patent Document 1 discloses a technique for detecting various scene changes of different types using a plurality of feature values.

特開平11−252509号公報JP 11-252509 A

しかしながら、特許文献1の技術では、各画像それぞれについて全ての特徴値を算出しなければならず、シーン変化の検出に要する処理時間が増大するという問題があった。   However, the technique disclosed in Patent Document 1 has a problem in that all feature values must be calculated for each image, which increases the processing time required to detect a scene change.

本発明は、上記に鑑みてなされたものであって、処理時間を増大させることなく画像列内のシーン変化位置を精度よく検出することができるシーン変化検出装置、シーン変化検出プログラムおよびシーン変化検出方法を提供することを目的とする。   The present invention has been made in view of the above, and provides a scene change detection device, a scene change detection program, and a scene change detection that can accurately detect a scene change position in an image sequence without increasing processing time. It aims to provide a method.

上述した課題を解決し、目的を達成するため、本発明にかかるシーン変化検出装置は、複数の画像で構成される画像列からシーン変化位置を検出するシーン変化検出装置であって、前記画像内の複数の位置において他の画像との間の動きベクトルを検出する動きベクトル検出手段と、前記画像内で検出された複数の動きベクトルをもとに、前記画像を所定の動きパターンにパターン分類するパターン分類手段と、予め前記パターン分類毎に定義された分類別画像変化検出処理を対応するパターン分類にそれぞれ適用することによって、前記各パターン分類内における前記画像間の画像変化を検出する分類別画像変化検出手段と、前記各パターン分類内におけるシーン変化を前記パターン分類毎に検出する分類別シーン変化検出手段と、を備えるものである。   In order to solve the above-described problems and achieve the object, a scene change detection apparatus according to the present invention is a scene change detection apparatus that detects a scene change position from an image sequence composed of a plurality of images. A motion vector detecting means for detecting a motion vector between other images at a plurality of positions and pattern classification of the image into a predetermined motion pattern based on the plurality of motion vectors detected in the image A classified image for detecting image changes between the images in each pattern classification by applying pattern classification means and classification-specific image change detection processing defined in advance for each pattern classification to the corresponding pattern classification A change detection unit; and a scene change detection unit for each category that detects a scene change in each pattern classification for each pattern classification. It is intended.

また、本発明にかかるシーン変化検出プログラムは、複数の画像で構成される画像列からシーン変化位置を検出するシーン変化検出装置に、前記画像内の複数の位置において他の画像との間の動きベクトルを検出する動きベクトル検出手順と、前記画像内で検出された複数の動きベクトルをもとに、前記画像を所定の動きパターンにパターン分類するパターン分類手順と、予め前記パターン分類毎に定義された分類別画像変化検出処理を対応するパターン分類にそれぞれ適用することによって、前記各パターン分類内における前記画像間の画像変化を検出する分類別画像変化検出手順と、前記各パターン分類内におけるシーン変化を前記パターン分類毎に検出する分類別シーン変化検出手順と、を実行させるためのものである。   In addition, a scene change detection program according to the present invention provides a scene change detection device that detects a scene change position from an image sequence including a plurality of images, and moves between other images at a plurality of positions in the image. A motion vector detection procedure for detecting a vector, a pattern classification procedure for classifying the image into a predetermined motion pattern based on a plurality of motion vectors detected in the image, and a pattern classification procedure defined in advance for each pattern classification By applying the classified image change detection process to the corresponding pattern classification, a classified image change detection procedure for detecting an image change between the images in each pattern classification, and a scene change in each pattern classification A scene-specific scene change detection procedure for detecting for each pattern classification.

また、本発明にかかるシーン変化検出方法は、複数の画像で構成される画像列からシーン変化位置を検出するシーン変化検出方法であって、前記画像内の複数の位置において他の画像との間の動きベクトルを検出する動きベクトル検出ステップと、前記画像内で検出された複数の動きベクトルをもとに、前記画像を所定の動きパターンにパターン分類するパターン分類ステップと、予め前記パターン分類毎に定義された分類別画像変化検出処理を対応するパターン分類にそれぞれ適用することによって、前記各パターン分類内における前記画像間の画像変化を検出する分類別画像変化検出ステップと、前記各パターン分類内におけるシーン変化を前記パターン分類毎に検出する分類別シーン変化検出ステップと、を含むものである。   A scene change detection method according to the present invention is a scene change detection method for detecting a scene change position from an image sequence composed of a plurality of images, and between the other images at a plurality of positions in the image. A motion vector detection step for detecting a motion vector of the image, a pattern classification step for pattern classification of the image into a predetermined motion pattern based on a plurality of motion vectors detected in the image, and for each pattern classification in advance By applying the defined classification-specific image change detection process to the corresponding pattern classification, a classification-specific image change detection step for detecting an image change between the images in each pattern classification; and A classification-specific scene change detection step of detecting a scene change for each pattern classification.

本発明によれば、予めパターン分類毎に定義された分類別画像変化検出処理を対応するパターン分類に適用し、各画像の画像変化をパターン分類毎に検出することができる。したがって、パターン分類に応じて画像列内のシーン変化位置を、処理時間を増大させずに適切に検出することができ、検出精度が向上するという効果を奏する。   According to the present invention, it is possible to detect the image change of each image for each pattern classification by applying the classification-specific image change detection process defined in advance for each pattern classification to the corresponding pattern classification. Therefore, the scene change position in the image sequence can be appropriately detected according to the pattern classification without increasing the processing time, and the detection accuracy is improved.

以下、図面を参照し、本発明の好適な実施の形態について詳細に説明する。なお、この実施の形態によって本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments. Moreover, in description of drawing, the same code | symbol is attached | subjected and shown to the same part.

(実施の形態1)
図1は、実施の形態1のシーン変化検出装置1の機能構成例を示すブロック図である。実施の形態1では、シーン変化検出装置1は、入力部2と、表示部3と、記憶部4と、装置各部を制御する制御機能および各種演算処理を行う演算機能を備えた処理部5とで構成されている。
(Embodiment 1)
FIG. 1 is a block diagram illustrating a functional configuration example of the scene change detection device 1 according to the first embodiment. In the first embodiment, the scene change detection device 1 includes an input unit 2, a display unit 3, a storage unit 4, a control unit that controls each unit of the device, and a processing unit 5 that includes arithmetic functions that perform various arithmetic processes. It consists of

入力部2は、キーボードやマウスの他、タッチパネル、各種スイッチ等の各種入力装置によって実現されるものであり、操作入力に応じた入力信号を処理部5に出力する。表示部3は、LCDやELディスプレイ、CRTディスプレイ等の表示装置によって実現されるものであり、処理部5から入力される表示信号をもとに各種画面を表示する。   The input unit 2 is realized by various input devices such as a touch panel and various switches in addition to a keyboard and a mouse, and outputs an input signal corresponding to an operation input to the processing unit 5. The display unit 3 is realized by a display device such as an LCD, an EL display, or a CRT display, and displays various screens based on display signals input from the processing unit 5.

記憶部4は、更新記憶可能なフラッシュメモリ等のROMやRAMといった各種ICメモリ、内蔵或いはデータ通信端子で接続されたハードディスク、CD−ROM等の情報記憶媒体及びその読取装置等によって実現されるものである。この記憶部4には、シーン変化検出装置1を動作させ、このシーン変化検出装置1が備える種々の機能を実現するためのプログラムや、このプログラムの実行中に使用されるデータ等が格納される。例えば、連続して撮像された複数の画像で構成される画像列のデータ(画像情報)が格納される。また、画像列を構成する画像の中から、シーンの変化するシーン変化位置を検出するためのシーン変化検出プログラム41が格納される。   The storage unit 4 is realized by various IC memories such as ROM and RAM such as flash memory that can be updated and stored, a hard disk connected by a built-in or data communication terminal, an information storage medium such as a CD-ROM, and a reading device thereof. It is. The storage unit 4 stores a program for operating the scene change detection device 1 and realizing various functions of the scene change detection device 1, data used during the execution of the program, and the like. . For example, data (image information) of an image sequence composed of a plurality of images captured continuously is stored. In addition, a scene change detection program 41 for detecting a scene change position where a scene changes is stored from the images constituting the image sequence.

処理部5は、CPU等のハードウェアによって実現される。この処理部5は、入力部2から入力される操作信号や、記憶部4に格納されるデータ等に基づいてシーン変化検出装置1を構成する各部への指示やデータの転送等を行い、シーン変化検出装置1全体の動作を統括的に制御する。この処理部5は、画像読込部51と、動きベクトル検出手段としての動きベクトル検出部52と、パターン分類手段としての動きベクトル分類処理部53と、分類別画像変化検出手段としての分類別画像変化検出部54と、分類別シーン変化検出手段としての分類別シーン変化検出部55と、シーン変化位置検出手段としての全体シーン変化検出部56とを含む。   The processing unit 5 is realized by hardware such as a CPU. The processing unit 5 performs instructions and data transfer to each unit constituting the scene change detection device 1 based on an operation signal input from the input unit 2, data stored in the storage unit 4, and the like. The operation of the entire change detection device 1 is controlled in an integrated manner. This processing unit 5 includes an image reading unit 51, a motion vector detection unit 52 as a motion vector detection unit, a motion vector classification processing unit 53 as a pattern classification unit, and an image change by classification as an image change detection unit by classification. It includes a detection unit 54, a classified scene change detection unit 55 as a classified scene change detection unit, and an entire scene change detection unit 56 as a scene change position detection unit.

画像読込部51は、記憶部4に格納されている画像列のデータ(画像情報)を読み込む。動きベクトル検出部52は、画像列を構成する画像間で各画像に映る同一の領域の対応付けを行い、その位置の変化を表す複数のベクトルデータ(動きベクトル)を検出する。動きベクトル分類処理部53は、検出した複数の動きベクトルをもとに、画像列を構成する各画像の動きをパターン分類する。分類別画像変化検出部54は、画像列を構成する各画像間の画像変化を、パターン分類の結果を用いて検出する。具体的には、予め各動きパターンによるパターン分類毎に画像変化量の算出処理(分類別画像変化検出処理)を定義しておく。そして、分類別画像変化検出部54は、処理対象の画像について、その動きパターンに応じた分類別画像変化検出処理を適用することで例えば撮像順が隣接する他の画像との間で画像変化量を算出し、算出した画像変化量を各パターン分類内における画像間の画像変化として検出する。分類別シーン変化検出部55は、各パターン分類内における画像間の画像変化をもとに、各パターン分類内におけるシーン変化をパターン分類毎に検出する。具体的には、予め各動きパターンによるパターン分類毎に重み情報および検出条件を設定しておく。そして、分類別シーン変化検出部55は、各画像の画像変化量にその動きパターンに応じた重み情報を統合した上で、その動きパターンに応じた検出条件を満たすシーン変化画像を抽出する処理をパターン分類毎に行い、各パターン分類内におけるシーン変化として検出する。全体シーン変化検出部56は、抽出したシーン変化画像で構成されるシーン変化画像列を生成する。生成されたシーン変化画像列は、例えば表示部3において撮像順に表示される。   The image reading unit 51 reads image sequence data (image information) stored in the storage unit 4. The motion vector detection unit 52 associates the same area shown in each image between the images constituting the image sequence, and detects a plurality of vector data (motion vectors) representing the change in the position. The motion vector classification processing unit 53 classifies the motion of each image constituting the image sequence based on the detected plurality of motion vectors. The classification-specific image change detection unit 54 detects an image change between the images constituting the image sequence using the pattern classification result. Specifically, an image change amount calculation process (classification-specific image change detection process) is defined in advance for each pattern classification based on each motion pattern. The classified image change detection unit 54 applies the classified image change detection process corresponding to the motion pattern to the image to be processed, for example, to change the amount of image change between other images that are adjacent in the imaging order. And the calculated image change amount is detected as an image change between images in each pattern classification. The classification-specific scene change detection unit 55 detects a scene change in each pattern classification for each pattern classification based on an image change between images in each pattern classification. Specifically, weight information and detection conditions are set in advance for each pattern classification based on each motion pattern. Then, the classified scene change detection unit 55 integrates the weight information corresponding to the motion pattern into the image change amount of each image, and then extracts the scene change image that satisfies the detection condition corresponding to the motion pattern. This is performed for each pattern classification and detected as a scene change within each pattern classification. The entire scene change detection unit 56 generates a scene change image sequence composed of the extracted scene change images. The generated scene change image sequence is displayed on the display unit 3 in the order of imaging, for example.

図2は、実施の形態1のシーン変化検出装置1が行う処理手順を示すフローチャートである。なお、ここで説明する処理は、処理部5が記憶部4に格納されたシーン変化検出プログラム41を読み出して実行することによって実現される。   FIG. 2 is a flowchart illustrating a processing procedure performed by the scene change detection device 1 according to the first embodiment. Note that the processing described here is realized by the processing unit 5 reading and executing the scene change detection program 41 stored in the storage unit 4.

先ず、画像読込部51が、記憶部4に記憶された画像列の画像情報を取得する(ステップa1)。   First, the image reading unit 51 acquires image information of an image sequence stored in the storage unit 4 (step a1).

続いて、動きベクトル検出部52が、画像列を構成する各画像を順次処理対象として動きベクトルの検出を行う(ステップa3)。動きベクトルの算出は、テンプレートマッチングの手法や、オプティカルフローの算出手法等の公知の手法を適用することによって実現できるが、ここでは、例えば、テンプレートマッチングを行って動きベクトルを算出する場合について説明する。   Subsequently, the motion vector detection unit 52 detects a motion vector by sequentially processing each image constituting the image sequence (step a3). The calculation of the motion vector can be realized by applying a known method such as a template matching method or an optical flow calculation method. Here, for example, a case where a motion vector is calculated by performing template matching will be described. .

すなわち、先ず、処理対象画像と撮像順が隣接する画像内の所定の位置に所定数の探索対象領域を設定する。探索対象領域を設定する設定位置および数は、適宜設定することができる。ここで、探索対象領域の設定については、例えば、画像内を格子状に分割して均等に設定することとしてもよい。あるいは、画像内から予め定められた所定の特徴を有する特徴領域を探索し、探索された特徴領域を探索対象領域としてもよい。具体的には、画素値の分散が大きい領域やエッジ抽出して得られたエッジ強度が強い領域を探索することによって、探索対象領域を設定することとしてもよい。次いで、各探索対象領域を順次テンプレートとしたテンプレートマッチングを行い、各テンプレートと最もマッチングする(相関値が高い)領域を処理対象画像の中から探索する。このテンプレートマッチングの結果、処理対象画像の中から探索対象領域と最も類似する領域が探索され、その相関値が得られる。そして、各探索対象領域とこの探索対象領域について探索された領域との中心座標の変化をそれぞれ動きベクトルとして検出し、処理対象画像内の動きベクトル群とする。また、このとき、動きベクトル検出部52は、検出した各動きベクトルの信頼度を算出する。例えば、探索の結果マッチングする領域が見つからなかった場合や、得られた相関値が低い動きベクトルについてはその信頼度を低く設定し、得られた相関値が高ければその信頼度を高く設定する。   That is, first, a predetermined number of search target areas are set at predetermined positions in an image in which the processing target image and the imaging order are adjacent. The setting position and the number for setting the search target area can be set as appropriate. Here, the search target area may be set, for example, by dividing the image into a grid pattern and setting the search target area equally. Alternatively, a feature region having a predetermined feature predetermined in the image may be searched, and the searched feature region may be set as a search target region. Specifically, the search target region may be set by searching for a region with a large variance of pixel values or a region with a strong edge strength obtained by edge extraction. Next, template matching is performed using each search target region as a template in order, and a region that most matches each template (high correlation value) is searched from the processing target images. As a result of this template matching, a region most similar to the search target region is searched from the processing target images, and the correlation value is obtained. Then, a change in the center coordinate between each search target area and the area searched for this search target area is detected as a motion vector, and set as a motion vector group in the processing target image. At this time, the motion vector detection unit 52 calculates the reliability of each detected motion vector. For example, if no matching area is found as a result of the search, or if the obtained motion vector has a low correlation value, the reliability is set low, and if the obtained correlation value is high, the reliability is set high.

続いて、動きベクトル分類処理部53が、画像列を構成する各画像を順次処理対象とし、検出された動きベクトル群をもとに各画像の動きをパターン分類する(ステップa5)。具体的には、動きベクトル分類処理部53は、検出された動きベクトル群の配向特性から視野の動きを推定することによって画像の動きパターンを判定し、パターン分類を行う。本実施の形態では、各画像を、「平行移動」「撮像対象が遠ざかる動き」「撮像対象が近づく動き」の3つの動きパターンのいずれかに分類する。   Subsequently, the motion vector classification processing unit 53 sequentially processes each image constituting the image sequence, and pattern-classifies the motion of each image based on the detected motion vector group (step a5). Specifically, the motion vector classification processing unit 53 determines the motion pattern of the image by estimating the motion of the field of view from the orientation characteristics of the detected motion vector group, and performs pattern classification. In the present embodiment, each image is classified into one of three movement patterns: “parallel movement”, “movement of the imaging target moving away”, and “movement of the imaging target approaching”.

図3は、動きパターンが「平行移動」にパターン分類される画像内の動きベクトル群を示す図である。図3に示すように、処理対象の画像内で検出された各動きベクトルV11がほぼ同じ方向を向いており、大きさもほぼ等しい場合、この画像の視野は、撮像順が隣接する他の画像との間で横にスライド(平行移動)していると推定できる。このような場合には、画像の動きパターンを「平行移動」に分類する。具体的な処理手順としては、例えば、各動きベクトルの向きを判定する。そして、各動きベクトルの向きがほぼ同じ方向を向いている場合に、動きベクトルの向きの分散値を算出する。そして、算出した分散値を閾値処理し、予め設定される閾値より小さい場合に、その画像の動きパターンを「平行移動」に分類する。   FIG. 3 is a diagram illustrating a group of motion vectors in an image in which the motion pattern is classified as “parallel movement”. As shown in FIG. 3, when each motion vector V11 detected in the image to be processed is directed in substantially the same direction and has substantially the same size, the field of view of this image is different from that of other images in which the imaging order is adjacent. It can be estimated that it slides sideways (translation) between the two. In such a case, the motion pattern of the image is classified as “parallel movement”. As a specific processing procedure, for example, the direction of each motion vector is determined. Then, when the directions of the motion vectors are substantially in the same direction, a variance value of the motion vector directions is calculated. Then, the calculated variance value is threshold-processed, and if the calculated variance value is smaller than a preset threshold value, the motion pattern of the image is classified as “parallel movement”.

図4は、動きパターンが「撮像対象から遠ざかる動き」にパターン分類される画像内の動きベクトル群を示す図である。図4に示すように、処理対象の画像内で検出された各動きベクトルV13が、画像内のある1点(中心)に集束するように配向している場合、この画像の視野は、撮像順が隣接する他の画像との間でその視野範囲内の撮像対象が遠ざかるように移動していると推定できる。ここで、視野範囲がこのように動く場合、図4に示すように、各動きベクトルの大きさが中心に近づくにつれて小さく変化している。このような場合には、画像の動きパターンを「撮像対象から遠ざかる動き」に分類する。具体的な処理手順としては、例えば、各動きベクトルの終点が1点に集束する場合に、この画像の動きパターンを「撮像対象から遠ざかる動き」に分類する。   FIG. 4 is a diagram illustrating a group of motion vectors in an image in which the motion pattern is classified as “movement away from the imaging target”. As shown in FIG. 4, when each motion vector V13 detected in the image to be processed is oriented so as to converge at a certain point (center) in the image, the field of view of this image is in the order of imaging. It can be estimated that the imaging object within the visual field range moves away from other adjacent images. Here, when the visual field range moves in this way, as shown in FIG. 4, the size of each motion vector changes small as it approaches the center. In such a case, the movement pattern of the image is classified as “movement moving away from the imaging target”. As a specific processing procedure, for example, when the end points of the respective motion vectors converge to one point, the motion pattern of the image is classified as “movement away from the imaging target”.

図5は、動きパターンが「撮像対象が近づく動き」にパターン分類される画像内の動きベクトル群を示す図である。図5に示すように、処理対象の画像内で検出された各動きベクトルV15が、画像内のある1点(中心)から放射状に発散するように配向している場合、この画像の視野は、撮像順が隣接する他の画像との間でその視野範囲内の撮像対象が近づくように移動していると推定できる。ここで、視野範囲がこのように動く場合、図5に示すように各動きベクトルの大きさが中心に近づくにつれて大きく変化している。このような場合には、画像の動きパターンを「撮像対象が近づく動き」に分類する。具体的な処理手順としては、例えば、各動きベクトルの始点が1点に集束する場合に、この画像の動きパターンを「撮像対象が近づく動き」に分類する。   FIG. 5 is a diagram illustrating a group of motion vectors in an image in which the motion pattern is classified into “movement toward which an imaging target approaches”. As shown in FIG. 5, when each motion vector V15 detected in the image to be processed is oriented so as to diverge radially from a certain point (center) in the image, the field of view of this image is It can be estimated that the imaging target within the field-of-view range is moving closer to another image in which the imaging order is adjacent. Here, when the field-of-view range moves in this way, the magnitude of each motion vector changes greatly as it approaches the center as shown in FIG. In such a case, the movement pattern of the image is classified as “movement toward which the imaging target approaches”. As a specific processing procedure, for example, when the start points of the respective motion vectors are converged to one point, the motion pattern of the image is classified as “movement toward which the imaging target approaches”.

なお、パターン分類の手法はこれに限定されるものではなく、さらに細かく分類することとしてもよい。例えば、「平行移動」に分類された画像を、その平行移動の方向に応じてさらに分類することとしてもよい。また、「撮像対象が遠ざかる動き」または「撮像対象が近づく動き」に分類された画像を、その中心の位置に応じてさらに分類することとしてもよい。また、例示した「平行移動」「撮像対象が遠ざかる動き」「撮像対象が近づく動き」以外の動きパターンに分類することとしてもよく、各動きパターンのパターン分類条件は、任意に定義しておくことができる。   Note that the pattern classification method is not limited to this, and the pattern classification may be further finely classified. For example, an image classified as “parallel movement” may be further classified according to the direction of the parallel movement. In addition, the images classified as “movement toward which the imaging target moves away” or “movement toward which the imaging target approaches” may be further classified according to the center position. Moreover, it may be classified into motion patterns other than the illustrated “parallel movement”, “movement of the imaging target moving away”, and “movement of the imaging target approaching”, and the pattern classification condition of each movement pattern may be arbitrarily defined. Can do.

続いて、図2に示すように、各動きパターンのパターン分類を順次処理対象とし、各パターン分類に属する画像毎にループAの処理を行う(ステップa7〜ステップa15)。以下、ループA内の処理において、処理対象のパターン分類を「対象分類」と称す。   Subsequently, as shown in FIG. 2, the pattern classification of each motion pattern is sequentially processed, and the process of loop A is performed for each image belonging to each pattern classification (step a7 to step a15). Hereinafter, in the processing in the loop A, the pattern classification to be processed is referred to as “target classification”.

ループAでは、先ず、分類別画像変化検出部54が、対象分類に応じた分類別画像変化検出処理を適用して例えば撮像順が隣接する他の画像との間で画像変化量を算出し、対象分類内における画像間の画像変化として検出する(ステップa9)。   In loop A, first, the classified image change detection unit 54 applies a classified image change detection process according to the target classification, for example, calculates an image change amount between other images adjacent in the imaging order, It is detected as an image change between images in the target classification (step a9).

ここで、パターン分類毎に定義される分類別画像変化検出処理について説明する。動きベクトルが正しく検出できている場合には、この動きベクトルの大きさが画像間の画像変化を表す指標となる。一方で、動きパターンによって画像内の各動きベクトルの大きさの傾向が異なる。そこで、各動きベクトルの大きさを用い、パターン分類毎に定まる各動きベクトルそれぞれの大きさの傾向に従って、画像変化量を算出する分類別画像変化検出処理をパターン分類毎に定義しておく。より具体的には、例えば各動きベクトルの大きさに基づくパラメータ値を用いて画像変化量を算出する分類別画像変化検出処理を定義する。   Here, the classified image change detection process defined for each pattern classification will be described. When the motion vector is correctly detected, the magnitude of the motion vector becomes an index representing the image change between images. On the other hand, the tendency of the size of each motion vector in the image differs depending on the motion pattern. In view of this, image-by-category image change detection processing for calculating an image change amount is defined for each pattern classification in accordance with the magnitude tendency of each motion vector determined for each pattern classification using the magnitude of each motion vector. More specifically, for example, a classification-specific image change detection process for calculating an image change amount using a parameter value based on the magnitude of each motion vector is defined.

例えば、動きパターンが「平行移動」の画像の動きベクトル群は、上記のように、それぞれがほぼ同じ方向を向き、大きさもほぼ等しい。したがって、「平行移動」の分類別画像変化検出処理として、その画像内の動きベクトルの大きさの平均値を画像変化量として算出するような処理を定義しておく。   For example, as described above, the motion vector groups of the images whose motion pattern is “parallel movement” are directed in substantially the same direction and have substantially the same size. Therefore, a process for calculating the average value of the magnitudes of motion vectors in the image as the image change amount is defined as the “parallel translation” classified image change detection process.

また、上記のように、動きパターンが「撮像対象が遠ざかる動き」または「撮像対象が近づく動き」の画像の動きベクトル群は、その大きさが中心からの距離に応じて変化する。したがって、「撮像対象が遠ざかる動き」または「撮像対象が近づく動き」の分類別画像変化検出処理として、その画像内の動きベクトルの大きさの中間値や最大値、最小値を画像変化量として算出するような処理を定義しておく。なお、動きベクトルの大きさの平均値を画像変化量として算出するような処理を定義しておくこととしてもよい。   In addition, as described above, the size of the motion vector group of an image having a motion pattern of “movement that the imaging target moves away” or “movement that the imaging target approaches” changes according to the distance from the center. Therefore, as an image change detection process for each category of “movement that the imaging target moves away” or “movement that the imaging target approaches”, the intermediate value, maximum value, and minimum value of the motion vector in the image are calculated as the image change amount. Define a process to do this. Note that a process for calculating an average value of the magnitudes of motion vectors as an image change amount may be defined.

なお、パターン分類毎に定義しておく分類別画像変化検出処理は、上記のように動きベクトルの大きさに基づく1つのパラメータ値を用いた処理に限定されるものではなく、動きベクトルの大きさに基づく複数のパラメータ値を用い、これらの値を統合して画像変化量を算出する処理とすることもできる。さらに、動きベクトルの大きさに基づくパラメータ値だけでなく、動きベクトルの向きに基づくパラメータ値等を用いることもできる。例えば、各動きベクトルの大きさの平均値や中間値、最大値、最小値、分散値、各動きベクトルの向きの分散値、各動きベクトルの信頼度等の各値を適宜組み合わせ、これらの値を統合して画像変化量を算出するような処理を分類別画像変化検出処理として定義しておくこととしてもよい。   Note that the classification-specific image change detection process defined for each pattern classification is not limited to the process using one parameter value based on the magnitude of the motion vector as described above, but the magnitude of the motion vector. It is also possible to use a plurality of parameter values based on the above and integrate these values to calculate the image change amount. Furthermore, not only the parameter value based on the magnitude of the motion vector but also the parameter value based on the direction of the motion vector can be used. For example, the average value, intermediate value, maximum value, minimum value, variance value, variance value of each motion vector direction, each motion vector reliability, etc. It is also possible to define a process for calculating the image change amount by integrating the above as the image change detection process by classification.

あるいは、各動きベクトルの信頼度を動きパターンに基づくパラメータ値として用い、この値を加味して画像変化量を算出するようにしてもよく、より信頼性の高い画像変化の検出が実現できる。具体的には、各動きベクトルの大きさや向きに対し、その信頼度を用いた重み付けを行う。例えば、動きベクトルの大きさをもとに重み付き平均値や重み付き中間値、重み付き最大値、重み付き最小値等の値を算出し、あるいは動きベクトルの向きをもとに重み付き分散値等の値を算出して、画像変化量を算出してもよい。   Alternatively, the reliability of each motion vector may be used as a parameter value based on the motion pattern, and the image change amount may be calculated by taking this value into account, so that more reliable image change detection can be realized. Specifically, weighting using the reliability is performed on the magnitude and direction of each motion vector. For example, calculate the weighted average value, weighted intermediate value, weighted maximum value, weighted minimum value, etc. based on the size of the motion vector, or weighted variance based on the direction of the motion vector The image change amount may be calculated by calculating a value such as.

続いて、分類別シーン変化検出部55が、検出した対象分類内における画像間の画像変化をもとに、対象分類内におけるシーン変化を検出する(ステップa11)。具体的には、分類別シーン変化検出部55は、先ず、対象分類に分類された各画像の画像変化量にそれぞれ予め対象分類について設定される重み情報を統合する。   Subsequently, the classified scene change detection unit 55 detects a scene change in the target classification based on the image change between images in the detected target classification (step a11). Specifically, the classification-specific scene change detection unit 55 first integrates the weight information set in advance for each target class into the image change amount of each image classified into the target class.

ここで、重み情報は、例えば各パターン分類に対して個別に設定される重み係数であり、「撮像対象が遠ざかる動き」「撮像対象が近づく動き」について設定する重み係数と比較して、「平行移動」について設定する重み係数を大きく設定する。これは、各動きパターンを比較すると、「平行移動」では、「撮像対象が遠ざかる動き」「撮像対象が近づく動き」と比較してその視野内の撮像対象が視野から外れる速さが速く、隣接する画像間での撮像対象の見え方の変化が小さいことに基づく。   Here, the weight information is, for example, a weighting factor that is individually set for each pattern classification. Compared with the weighting factors that are set for “movement that the imaging target moves away” and “movement that the imaging target approaches”, the “parallel” is set. A large weighting factor is set for “movement”. Compared to each movement pattern, in “parallel movement”, compared to “movement that the imaging target moves away” and “movement that the imaging target approaches”, the imaging target within the field of view is faster than the field of view. This is based on the fact that the change in the appearance of the imaging target between the images to be performed is small.

図6は、動きパターンが「平行移動」にパターン分類された撮像順が隣接する4枚の画像(a)〜(d)の一例を示す模式図であり、画像中に映る撮像対象O11の画像間での見え方の変化を示している。また、各画像上に、その画像内で検出された動きベクトル群を示している。そして、図7は、動きパターンが「撮像対象が遠ざかる動き」にパターン分類された撮像順が隣接する4枚の画像(a)〜(d)の一例を示す模式図であり、画像中に映る撮像対象O13の画像間での見え方の変化を示している。また、各画像において、その画像内で検出された動きベクトル群を示している。さらに、図8は、動きパターンが「撮像対象が近づく動き」にパターン分類された撮像順が隣接する4枚の画像(a)〜(d)の一例を示す模式図であり、画像中に映る撮像対象O15の画像間での見え方の変化を示している。また、各画像上に、その画像内で検出された動きベクトル群を示している。   FIG. 6 is a schematic diagram illustrating an example of four images (a) to (d) adjacent to each other in the imaging order in which the movement pattern is classified as “parallel movement”, and an image of the imaging target O11 shown in the image. It shows the change in appearance between the two. Further, on each image, a group of motion vectors detected in the image is shown. FIG. 7 is a schematic diagram illustrating an example of four images (a) to (d) adjacent to each other in the imaging order in which the motion pattern is pattern-categorized as “movement that the imaging target moves away”. A change in appearance between images of the imaging target O13 is shown. Further, in each image, a motion vector group detected in the image is shown. Further, FIG. 8 is a schematic diagram showing an example of four images (a) to (d) adjacent to each other in the imaging order in which the motion pattern is pattern-classified as “movement toward which the imaging target approaches”, and is reflected in the image. A change in appearance between images of the imaging target O15 is shown. Further, on each image, a group of motion vectors detected in the image is shown.

図6〜図8に示すように、視野が「平行移動」の動きをしている場合と、「撮像対象が遠ざかる動き」または「撮像対象が近づく動き」をしている場合とでは、動きベクトルの大きさがほぼ等しい場合であっても、各画像に映る撮像対象の見え方の変化は異なり、撮像対象が視野から消失する速さも異なる。例えば、図6に示す視野が「平行移動」の動きをしている場合の撮像対象O11の見え方の変化は、図7に示す「撮像対象が遠ざかる動き」をしている場合の撮像対象O13の見え方の変化や、図8に示す「撮像対象が近づく動き」をしている場合の撮像対象O15の見え方の変化と比べて速く、撮像対象O11が視野から消失する速さも速い。   As shown in FIGS. 6 to 8, the motion vector is used when the field of view moves in a “parallel movement” and when the imaging target moves away or the imaging target moves closer. Even when the sizes of the images are substantially equal, the change in the appearance of the imaging target shown in each image is different, and the speed at which the imaging target disappears from the field of view is also different. For example, the change in the appearance of the imaging target O11 when the field of view shown in FIG. 6 moves in “parallel movement” is the imaging target O13 in the case where “the imaging target moves away” shown in FIG. Is faster than the change in the appearance of the image pickup object O15 and the change in the appearance of the image pickup object O15 when the image pickup object is moving as shown in FIG.

すなわち、図6に示す「平行移動」の例では、3枚目(c)で撮像対象O11の一部が視野から外れており、4枚目(d)では完全に視野から外れて消失している。これに対し、図7に示す「撮像対象が遠ざかる動き」の例では、図6の場合と動きベクトルの大きさがほぼ同じにも関わらず、4枚目(d)の画像中に撮像対象O13が映っており、視野から外れていない。したがって、「平行移動」に分類された画像の画像変化量と、「撮像対象が遠ざかる動き」または「撮像対象が近づく動き」に分類された画像の画像変化量とが同程度の場合であっても、「平行移動」の方が撮像対象の動きが大きい。図8の場合も同様であり、「撮像対象が遠ざかる動き」「撮像対象が近づく動き」と比べて「平行移動」の重要度が高いといえる。   That is, in the example of “parallel movement” shown in FIG. 6, a part of the imaging target O11 is out of the field at the third image (c), and completely disappears from the field of view at the fourth image (d). Yes. On the other hand, in the example of “movement where the imaging target moves away” shown in FIG. 7, the imaging target O13 is included in the fourth image (d) even though the magnitude of the motion vector is almost the same as in FIG. Is reflected and is not out of sight. Therefore, the image change amount of the image classified as “parallel movement” and the image change amount of the image classified as “movement toward which the imaging target moves away” or “movement toward which the imaging target approaches” are comparable. However, the movement of the imaging target is larger in the “parallel movement”. The same applies to the case of FIG. 8, and it can be said that the importance of “parallel movement” is higher than “movement of the imaging target moving away” and “movement of the imaging target approaching”.

そこで、実施の形態1では、「撮像対象が遠ざかる動き」「撮像対象が近づく動き」の重み係数に対して「平行移動」の重み係数を大きく設定する。そして、この重み係数を画像変化量に統合する。これによって、パターン分類毎の撮像対象の見え方の変化量の違いに基づく重要度を加味した画像変化の検出が実現できる。また、画像変化量にその画像のパターン分類に応じた重み情報を統合することによって、各パターン分類の順序が動きパターンのみによって決定されず、重み係数により混合的に統合されるため、パターン分類間でのより適切な順序付けが実現できる。   Therefore, in the first embodiment, the weighting factor of “parallel movement” is set to be larger than the weighting factors of “movement that the imaging target moves away” and “movement that the imaging target approaches”. Then, this weight coefficient is integrated into the image change amount. As a result, it is possible to realize image change detection taking into account the importance based on the difference in the change in the appearance of the imaging target for each pattern classification. Also, by integrating the weight information according to the pattern classification of the image into the image change amount, the order of each pattern classification is not determined only by the motion pattern, but is integrated in a mixed manner by the weighting coefficient. A more appropriate ordering can be achieved.

具体的には、分類別シーン変化検出部55は、次式(1)に従って重み情報を統合した画像変化量を算出し、画像間の画像変化として検出する。ここで、ImgMov(j)は画像列のj番目の画像について算出された画像変化量を表し、WImgMov(k)はk番目のパターン分類に重み情報として設定された重み係数を表す。

Figure 2010176570
Specifically, the classified scene change detection unit 55 calculates an image change amount in which the weight information is integrated according to the following equation (1), and detects it as an image change between images. Here, ImgMov (j) represents an image change amount calculated for the j-th image in the image sequence, and W ImgMov (k) represents a weight coefficient set as weight information for the k-th pattern classification.
Figure 2010176570

そして、分類別シーン変化検出部55は、重み情報を統合した画像変化量が予め対象分類について設定されるシーン変化の検出条件を満たす画像(シーン変化画像)を抽出し、対象分類内におけるシーン変化として検出する。ここで、検出条件は、例えばパターン分類毎に個別の閾値を定義したものであり、分類別シーン変化検出部55は、対象分類に分類された各画像の画像変化量を対象分類について定義された閾値を用いて閾値処理し、この閾値よりも画像変化量が大きい画像をシーン変化画像として抽出する。閾値は、例えば、上記したパターン分類の重要度をもとに、重要度の高いパターン分類の閾値より、重要度の低いパターン分類の閾値を大きく設定する。   Then, the classification-specific scene change detection unit 55 extracts an image (scene change image) in which the image change amount integrated with the weight information satisfies a scene change detection condition set in advance for the target class, and the scene change within the target class Detect as. Here, the detection condition is, for example, that an individual threshold value is defined for each pattern classification, and the scene-specific scene change detection unit 55 defines the image change amount of each image classified in the target classification for the target classification. Threshold processing is performed using the threshold, and an image having an image change amount larger than the threshold is extracted as a scene change image. For example, based on the importance of the pattern classification described above, the threshold for the pattern classification with a low importance is set larger than the threshold for the pattern classification with a high importance.

なお、ここでは検出条件としてパターン分類毎の閾値を定義しておき、この閾値を用いて画像変化量を閾値処理する場合について説明したが、これに限定されるものではない。例えば、検出条件としてパターン分類毎のシーン変化数を定義しておくこととしてもよい。シーン変化数は、例えば、パターン分類の重要度をもとに、重要度の高いパターン分類のシーン変化数より、重要度の低いパターン分類のシーン変化数を大きく設定する。そして、分類別シーン変化検出部55が、対象分類に分類された画像のうち、このシーン変化数の画像を画像変化量の大きいものから順にシーン変化画像として抽出し、シーン変化として検出することとしてもよい。   Note that, here, a case has been described in which a threshold value for each pattern classification is defined as a detection condition, and image change amount threshold processing is performed using this threshold value. However, the present invention is not limited to this. For example, the number of scene changes for each pattern classification may be defined as a detection condition. For example, based on the importance of pattern classification, the number of scene changes is set to be greater than the number of scene changes in the pattern classification with higher importance than the number of scene changes in the pattern classification. Then, the classification-specific scene change detection unit 55 extracts the images with the number of scene changes from the images classified into the target classification as the scene change images in descending order of the image change amount, and detects them as scene changes. Also good.

全ての動きパターンのパターン分類についてループAの処理を実行したならば、続いて、全体シーン変化検出部56が、パターン分類毎にステップa11で検出したシーン変化画像からシーン変化画像列を生成し、画像列全体としてのシーン変化位置を検出する(ステップa15)。   If the process of the loop A is executed for the pattern classification of all the motion patterns, then the entire scene change detection unit 56 generates a scene change image sequence from the scene change image detected in step a11 for each pattern classification, The scene change position of the entire image sequence is detected (step a15).

図9は、シーン変化画像が検出された画像列の一例を示す模式図である。以上のようにして処理された画像列は、図9に示すように、シーン変化画像をシーン変化として複数のショットに分割されたことになる。そして、実際に表示部3において表示を行う際には、ショットの最初のシーン変化画像を順次表示していくことになる。この表示において、画像間の画像変化が小さい画像は表示されない。すなわち、類似度の大きな画像は表示が省略される。したがって、画像列を構成する画像の効率的な表示が実現できる。   FIG. 9 is a schematic diagram illustrating an example of an image sequence in which a scene change image is detected. As shown in FIG. 9, the image sequence processed as described above is divided into a plurality of shots with the scene change image as a scene change. Then, when the display is actually performed on the display unit 3, the first scene change image of the shot is sequentially displayed. In this display, an image with a small image change between images is not displayed. That is, the display of images having a high degree of similarity is omitted. Therefore, an efficient display of the images constituting the image sequence can be realized.

また、実施の形態1によれば、予め画像列の各画像を動きパターンで分類したパターン分類毎に画像間の画像変化を検出することができる。より具体的には、予めパターン分類毎に分類別画像変化検出処理を定義しておき、そのパターン分類に応じた分類別画像変化検出処理を適用して画像間の画像変化をパターン分類毎に検出することができる。そして、このようにして各パターン分類内における画像間の画像変化をもとに、各パターン分類内におけるシーン変化をパターン分類毎に検出することができる。具体的には、各画像について算出した画像変化量に、そのパターン分類に応じた重み情報を統合した上で、そのパターン分類に応じた検出条件に従ってシーン変化検出画像を抽出することによって、各パターン分類内におけるシーン変化を検出することができる。したがって、パターン分類に応じた画像間の画像変化の検出を行い、さらに、パターン分類に応じたシーン変化の検出を行うことができるので、シーン変化の検出に要する処理時間を増大させることなく、またパターン分類毎に画像列内のシーン変化位置を適切に検出することができ、検出精度が向上するという効果を奏する。   Further, according to the first embodiment, it is possible to detect an image change between images for each pattern classification in which each image in the image sequence is classified in advance by a motion pattern. More specifically, the image change detection process for each classification is defined for each pattern classification, and the image change between the images is detected for each pattern classification by applying the image change detection process for each classification according to the pattern classification. can do. Thus, based on the image change between images in each pattern classification, a scene change in each pattern classification can be detected for each pattern classification. Specifically, the image change amount calculated for each image is integrated with the weight information according to the pattern classification, and the scene change detection image is extracted according to the detection condition according to the pattern classification, thereby obtaining each pattern. Scene changes within the classification can be detected. Therefore, it is possible to detect image changes between images according to the pattern classification, and further to detect scene changes according to the pattern classification, and without increasing the processing time required to detect the scene change, The scene change position in the image sequence can be appropriately detected for each pattern classification, and the detection accuracy is improved.

さらに、「平行移動」と「撮像対象が遠ざかる動き」や「撮像対象が近づく動き」とでは、見かけ上動きベクトルの大きさが同じであっても、実際の動き量が異なる可能性が高い。実施の形態1によれば、動きベクトルのパターン分類毎に異なる重み情報や検出条件を適用することによって、精度の高いシーン変化の検出を行うことが可能となる。   Furthermore, even if the “translation” and “movement moving away from the imaging target” or “movement moving closer to the imaging target” seem to have the same magnitude of the motion vector, there is a high possibility that the actual motion amount is different. According to the first embodiment, it is possible to detect a scene change with high accuracy by applying different weight information and detection conditions for each motion vector pattern classification.

なお、上記した説明では、撮像順が隣接する画像間で検出した動きベクトルをもとに画像間の画像変化を検出することとしたが、これに限定されない。例えば、従来から一般的に知られている画像間の相関やSSD(画素の差の二乗和)、SAD(画素の差の絶対値和)等の画像特徴を用いて画像間の画像変化を検出することとしてもよい。   In the above description, an image change between images is detected based on a motion vector detected between adjacent images in the imaging order. However, the present invention is not limited to this. For example, it is possible to detect image changes between images using image features such as correlation between images generally known from the past, SSD (sum of squares of pixel differences), and SAD (sum of absolute values of pixel differences). It is good to do.

また、動きベクトルの検出は、特に隣接する2枚の画像間の処理に限定されるものではない。例えば、2枚以上の画像間の画像特徴を算出し、これらの組み合わせによる統計的演算を用いて画像間の画像変化を検出することとしてもよい。例えば、数枚の隣接する各画像について、隣接する他の画像との間の動きベクトルや正規化相互相関、SSD、SAD等の画像特徴をそれぞれ算出する。そして、各値の平均値をもとに画像間の画像変化を検出することとしてもよい。   In addition, the detection of the motion vector is not particularly limited to processing between two adjacent images. For example, an image feature between two or more images may be calculated, and an image change between the images may be detected using a statistical calculation based on a combination thereof. For example, for several adjacent images, image features such as motion vectors, normalized cross-correlation, SSD, SAD, etc. between adjacent images are calculated. And it is good also as detecting the image change between images based on the average value of each value.

また、連続する画像列においては、類似する画像が隣接する場合がある。このような場合には、ある1枚の画像について行った処理結果を隣接する複数の画像に対して適用することも可能である。この手法を適用する画像枚数を決定するための手法としては、簡易には、予め一定の枚数を決定しておく方法とすればよい。また、画像間の類似度を所定の閾値との比較により判定して、適応的に決定するようにしてもよい。これによれば、画像列を構成する全画像を処理する必要がなく、処理時間の短縮を図ることができる。   In a continuous image sequence, similar images may be adjacent to each other. In such a case, it is also possible to apply the processing result performed on a single image to a plurality of adjacent images. As a method for determining the number of images to which this method is applied, a method of determining a certain number of images in advance may be simply used. Alternatively, the similarity between images may be determined adaptively by determining the comparison with a predetermined threshold. According to this, it is not necessary to process all the images constituting the image sequence, and the processing time can be shortened.

(実施の形態2)
次に、実施の形態2について説明する。実施の形態1では、画像列を構成する各画像「平行移動」「撮像対象が遠ざかる動き」「撮像対象が近づく動き」の各動きパターンに分類し、パターン分類毎に画像間の画像変化やシーン変化を検出することとした。しかしながら、実際の画像には、画像間でシーンが完全に変化し、「平行移動」「撮像対象が遠ざかる動き」「撮像対象が近づく動き」等の動きパターンに分類できない画像が含まれる。実施の形態2では、このような画像を新たな分類(以下、「シーンチェンジ」と称す。)に分類することとし、これらの画像について、実施の形態1で説明した動きベクトルに基づく画像間の画像変化の検出処理とは別の処理を適用する。
(Embodiment 2)
Next, a second embodiment will be described. In the first embodiment, each image “parallel movement”, “movement in which the imaging target moves away”, and “movement in which the imaging target approaches” are classified into motion patterns, and image changes and scenes between images are classified for each pattern classification. Change was detected. However, an actual image includes an image that cannot be classified into motion patterns such as “parallel movement”, “movement of an imaging target moving away”, and “movement of an imaging target approaching” because the scene changes completely between the images. In the second embodiment, such an image is classified into a new classification (hereinafter referred to as “scene change”), and these images are divided between images based on the motion vector described in the first embodiment. A process different from the image change detection process is applied.

図10は、実施の形態2のシーン変化検出装置が行う処理手順を示すフローチャートである。なお、図10において、実施の形態1と同様の処理工程には同一の符号を付している。   FIG. 10 is a flowchart illustrating a processing procedure performed by the scene change detection apparatus according to the second embodiment. In FIG. 10, the same reference numerals are assigned to the same processing steps as those in the first embodiment.

図10に示すように、ループAの処理を実行した後、動きベクトル分類処理部53が、「平行移動」「撮像対象が遠ざかる動き」または「撮像対象が近づく動き」のいずれにも分類されない画像の有無を判定する。ここで、動きパターンに分類されない画像とは、例えば、動きベクトル算出時にこの画像内から探索対象領域に対応する領域として探索された領域数が少ない場合や、得られた動きベクトルの向きに統一性がない場合等、検出結果の信頼性が低いと考えられる画像である。そして、このような画像は、画像間の画像変化が大きく、シーンが完全に変化する画像と推定できる。動きパターンに分類されない画像がなければ(ステップb14:No)、ステップa15に移行する。そして、全体シーン変化検出部56が、ステップa11でパターン分類毎に検出したシーン変化画像からシーン変化画像列を生成し、画像列全体としてのシーン変化を検出する。   As shown in FIG. 10, after executing the process of Loop A, the motion vector classification processing unit 53 does not classify any of “parallel movement”, “movement of the imaging target away”, or “movement of the imaging target approaching”. Determine the presence or absence. Here, an image that is not classified as a motion pattern is, for example, a case where the number of regions searched as a region corresponding to the search target region from this image at the time of calculating a motion vector is small, or uniformity in the direction of the obtained motion vector This is an image that is considered to have low detection result reliability, for example, when there is no image. Such an image can be estimated as an image in which the image changes greatly between the images and the scene changes completely. If there is no image that is not classified as a motion pattern (step b14: No), the process proceeds to step a15. Then, the entire scene change detection unit 56 generates a scene change image sequence from the scene change image detected for each pattern classification in step a11, and detects a scene change as the entire image sequence.

一方、動きベクトル分類処理部53は、動きパターンに分類されない画像がある場合には(ステップb14:Yes)、この動きパターンに分類されない画像をシーンチェンジに分類する。そして、分類別画像変化検出部54が、このシーンチェンジの分類内における画像間の画像変化を、動きベクトルに基づく画像変化検出の手法とは別の手法を用いて検出する(ステップb17)。具体的には、画像間の相関やSSD、SAD等の画像特徴を用いて画像間の画像変化を検出する。   On the other hand, when there is an image that is not classified into the motion pattern (step b14: Yes), the motion vector classification processing unit 53 classifies the image that is not classified into the motion pattern into a scene change. Then, the classified image change detection unit 54 detects an image change between images in the scene change classification using a method different from the image change detection method based on the motion vector (step b17). Specifically, image changes between images are detected using correlation between images and image features such as SSD and SAD.

続いて、分類別シーン変化検出部55が、ステップa11と同様にして、シーンチェンジの分類内におけるシーン変化を検出する(ステップb19)。具体的には、シーンチェンジについての重み情報および検出条件を予め設定しておく。そして、分類別シーン変化検出部55は、先ず、シーンチェンジに分類された各画像の画像変化量に、それぞれシーンチェンジの重み情報を統合した上で、シーンチェンジについて設定された検出条件を満たすシーン変化画像を抽出する処理をパターン分類毎に行い、各パターン分類内におけるシーン変化として検出する。例えば、上記のように、シーンチェンジの画像は画像間の画像変化が大きいと推定される画像であるので、重み情報として、「平行移動」「撮像対象が遠ざかる動き」「撮像対象が近づく動き」よりも大きい重み係数を設定しておく。また、検出条件として閾値を定義しておく場合であれば、「平行移動」「撮像対象が遠ざかる動き」「撮像対象が近づく動き」について設定する閾値よりも閾値の値を小さく設定しておく。検出条件としてシーン変化数を定義しておく場合であれば、「平行移動」「撮像対象が遠ざかる動き」「撮像対象が近づく動き」について設定するシーン変化数よりも大きい値を設定しておく。   Subsequently, the classification-specific scene change detection unit 55 detects a scene change in the scene change classification in the same manner as in step a11 (step b19). Specifically, weight information and detection conditions for scene changes are set in advance. The classification-specific scene change detection unit 55 first integrates the scene change weight information into the image change amounts of the images classified as scene changes, and then satisfies the detection condition set for the scene change. The process of extracting the change image is performed for each pattern classification, and detected as a scene change in each pattern classification. For example, as described above, the scene change image is an image that is estimated to have a large image change between the images, and therefore, as the weight information, “parallel movement”, “movement of the imaging target moving away”, and “movement of the imaging target approaching” A larger weight coefficient is set. If a threshold value is defined as the detection condition, the threshold value is set smaller than the threshold values set for “parallel movement”, “movement of the imaging target moving away”, and “movement of the imaging target approaching”. If the number of scene changes is defined as the detection condition, a value larger than the number of scene changes set for “parallel movement”, “movement of the imaging target moving away”, and “movement of the imaging target approaching” is set.

そして、全体シーン変化検出部56が、ステップb19でパターン分類毎に検出したシーン変化画像からシーン変化画像列を生成し、画像列全体としてのシーン変化を検出する(ステップb21)。このとき、上記のように、パターン分類された画像の画像変化は動きベクトルが正しく検出できており、パターン分類されない画像と比較して画像変化が小さいと考えられるので、パターン分類された画像の画像変化の最大値と、パターン分類できていない画像群の画像変化の最小値の境界が連続になるように調整することも可能である。   Then, the entire scene change detection unit 56 generates a scene change image sequence from the scene change image detected for each pattern classification in step b19, and detects a scene change as the entire image sequence (step b21). At this time, as described above, since the motion vector is correctly detected in the image change of the pattern classified image and it is considered that the image change is small compared to the image not classified, the image of the pattern classified image It is also possible to adjust so that the boundary between the maximum value of change and the minimum value of image change of an image group that has not been subjected to pattern classification is continuous.

この実施の形態2によれば、実施の形態1と同様の効果を奏するとともに、いずれの動きパターンにも分類されないシーンチェンジの画像について、動きベクトルを用いた画像変化検出の手法とは別の手法を用いて画像間の画像変化を検出し、検出した画像間の画像変化をもとにシーン変化を検出することができる。これにより、画像列にパターン分類できない画像が含まれる場合であっても、適切にその画像間の画像変化を求めることが可能となる。したがって、画像列内のシーン変化位置をより適切に検出することができ、検出精度をより向上させることができる。   According to the second embodiment, the same effect as that of the first embodiment is obtained, and for a scene change image that is not classified into any motion pattern, a method different from the image change detection method using a motion vector. Can be used to detect image changes between images, and scene changes can be detected based on the detected image changes between images. As a result, even when the image sequence includes an image that cannot be classified into patterns, it is possible to appropriately obtain an image change between the images. Therefore, the scene change position in the image sequence can be detected more appropriately, and the detection accuracy can be further improved.

なお、上記した実施の形態1,2のシーン変化検出装置は、予め用意されたプログラムをパソコンやワークステーション等のコンピュータシステムで実行することによって実現することができる。以下、各実施の形態1,2で説明したシーン変化検出装置と同様の機能を有し、シーン変化検出プログラムを実行するコンピュータシステムについて説明する。   The above-described scene change detection apparatuses according to the first and second embodiments can be realized by executing a prepared program on a computer system such as a personal computer or a workstation. Hereinafter, a computer system that has the same function as the scene change detection device described in each of the first and second embodiments and executes a scene change detection program will be described.

図11は、実施の形態を適用したコンピュータシステム20の構成を示すシステム構成図であり、図12は、このコンピュータシステム20における本体部210の構成を示すブロック図である。図11に示すように、コンピュータシステム20は、本体部210と、本体部210からの指示によって表示画面221に画像等の情報を表示するためのディスプレイ220と、このコンピュータシステム20に種々の情報を入力するためのキーボード230と、ディスプレイ220の表示画面221上の任意の位置を指定するためのマウス240とを備える。   FIG. 11 is a system configuration diagram showing a configuration of the computer system 20 to which the embodiment is applied, and FIG. 12 is a block diagram showing a configuration of the main body 210 in the computer system 20. As shown in FIG. 11, the computer system 20 includes a main body 210, a display 220 for displaying information such as an image on a display screen 221 according to instructions from the main body 210, and various information on the computer system 20. A keyboard 230 for inputting and a mouse 240 for designating an arbitrary position on the display screen 221 of the display 220 are provided.

また、このコンピュータシステム20における本体部210は、図12に示すように、CPU211と、RAM212と、ROM213と、ハードディスクドライブ(HDD)214と、CD−ROM260を受け入れるCD−ROMドライブ215と、USBメモリ270を着脱可能に接続するUSBポート216と、ディスプレイ220、キーボード230およびマウス240を接続するI/Oインターフェース217と、ローカルエリアネットワークまたは広域エリアネットワーク(LAN/WAN)N1に接続するためのLANインターフェース218とを備える。   As shown in FIG. 12, the main body 210 in the computer system 20 includes a CPU 211, a RAM 212, a ROM 213, a hard disk drive (HDD) 214, a CD-ROM drive 215 that accepts a CD-ROM 260, and a USB memory. USB port 216 to which 270 is detachably connected, I / O interface 217 to which display 220, keyboard 230 and mouse 240 are connected, and a LAN interface for connection to a local area network or wide area network (LAN / WAN) N1 218.

さらに、このコンピュータシステム20には、インターネット等の公衆回線N3に接続するためのモデム250が接続されるとともに、LANインターフェース218およびローカルエリアネットワークまたは広域エリアネットワークN1を介して、他のコンピュータシステムであるパソコン(PC)281、サーバ282、プリンタ283等が接続される。   Further, the computer system 20 is connected to a modem 250 for connecting to a public line N3 such as the Internet, and is another computer system via the LAN interface 218 and the local area network or the wide area network N1. A personal computer (PC) 281, a server 282, a printer 283, and the like are connected.

そして、このコンピュータシステム20は、所定の記憶媒体に記憶されたシーン変化検出プログラムを読み出して実行することでシーン変化検出装置を実現する。ここで、所定の記憶媒体とは、CD−ROM260やUSBメモリ270の他、MOディスクやDVDディスク、フレキシブルディスク(FD)、光磁気ディスク、ICカード等を含む「可搬用の物理媒体」、コンピュータシステム20の体腔内に備えられるHDD214やRAM212、ROM213等の「固定用の物理媒体」、モデム250を介して接続される公衆回線N3や、他のコンピュータシステム(PC)281またはサーバ282が接続されるローカルエリアネットワークまたは広域エリアネットワークN1等のように、プログラムの送信に際して短期にプログラムを保持する「通信媒体」等、コンピュータシステム20によって読み取り可能なシーン変化検出プログラムを記憶するあらゆる記憶媒体を含む。   And this computer system 20 implement | achieves a scene change detection apparatus by reading and executing the scene change detection program memorize | stored in the predetermined storage medium. Here, the predetermined storage medium is a “portable physical medium” including an MO disk, a DVD disk, a flexible disk (FD), a magneto-optical disk, an IC card, etc. in addition to the CD-ROM 260 and the USB memory 270, a computer The “fixed physical medium” such as HDD 214, RAM 212, ROM 213, etc. provided in the body cavity of the system 20, the public line N3 connected via the modem 250, and another computer system (PC) 281 or server 282 are connected. Any storage medium that stores a scene change detection program readable by the computer system 20, such as a “communication medium” that holds the program in a short period of time when the program is transmitted, such as a local area network or a wide area network N1.

すなわち、シーン変化検出プログラムは、「可搬用の物理媒体」「固定用の物理媒体」「通信媒体」等の記憶媒体にコンピュータ読み取り可能に記憶されるものであり、コンピュータシステム20は、このような記憶媒体からシーン変化検出プログラムを読み出して実行することでシーン変化検出装置を実現する。なお、シーン変化検出プログラムは、コンピュータシステム20によって実行されることに限定されるものではなく、他のコンピュータシステム(PC)281またはサーバ282がシーン変化検出プログラムを実行する場合や、これらが協働してシーン変化検出プログラムを実行するような場合にも、本発明を同様に適用することができる。   That is, the scene change detection program is stored in a storage medium such as “portable physical medium”, “fixed physical medium”, or “communication medium” so as to be readable by a computer. A scene change detection apparatus is realized by reading and executing a scene change detection program from a storage medium. Note that the scene change detection program is not limited to be executed by the computer system 20, but when the other computer system (PC) 281 or the server 282 executes the scene change detection program, or these cooperate. Thus, the present invention can be similarly applied to the case where the scene change detection program is executed.

そして、上記した実施の形態1,2のシーン変化検出装置は、例えばカプセル型内視鏡システムに好適に適用できる。図13は、実施の形態1または実施の形態2を適用したシーン変化検出装置39をワークステーションやパソコン等の汎用コンピュータとして備えたカプセル型内視鏡システムを模式的に示す構成図である。図13に示すように、カプセル型内視鏡システムは、シーン変化検出装置39の他、被検体31内部の画像(以下、「体腔内画像」と呼ぶ。)を撮像するカプセル型内視鏡33、カプセル型内視鏡33から無線送信される体腔内画像を受信する受信装置35等を備える。受信装置35とシーン変化検出装置39との間の画像データの受け渡しには、例えば可搬型の記録媒体(可搬型記録媒体)37が使用され、図1の記憶部4に相当する。   The above-described scene change detection apparatuses according to the first and second embodiments can be suitably applied to, for example, a capsule endoscope system. FIG. 13 is a configuration diagram schematically showing a capsule endoscope system including the scene change detection device 39 to which the first or second embodiment is applied as a general-purpose computer such as a workstation or a personal computer. As shown in FIG. 13, the capsule endoscope system captures an image inside the subject 31 (hereinafter referred to as “in-vivo image”) in addition to the scene change detection device 39. And a receiving device 35 for receiving an intra-body-cavity image wirelessly transmitted from the capsule endoscope 33. For example, a portable recording medium (portable recording medium) 37 is used for transferring image data between the receiving device 35 and the scene change detecting device 39, and corresponds to the storage unit 4 in FIG.

カプセル型内視鏡33は、撮像機能や無線機能等を具備するものであり、被検体31の口から飲み込まれて被検体31内部に導入される。そして、カプセル型内視鏡33は、体外に排出されるまでの間に、体腔内を蠕動運動等により移動しながら約0.5秒毎に約60000枚もの画像を撮像し、撮像した体腔内画像を体外に無線送信する。   The capsule endoscope 33 has an imaging function, a wireless function, and the like, and is swallowed from the mouth of the subject 31 and introduced into the subject 31. The capsule endoscope 33 captures about 60000 images every about 0.5 seconds while moving inside the body cavity by a peristaltic motion or the like until the capsule endoscope 33 is discharged to the outside of the body. Send images wirelessly outside the body.

受信装置35は、被検体31内におけるカプセル型内視鏡33の通過経路に対応する体表上の位置に分散配置される受信用アンテナA1〜Anを備える。そして、受信装置35は、各受信用アンテナA1〜Anを介してカプセル型内視鏡33から無線送信される画像データを受信する。この受信装置35は、可搬型記録媒体37の着脱が自在に構成されており、受信した画像データを可搬型記録媒体37に逐次保存する。このようにして、カプセル型内視鏡33が撮像した被検体31内部の体腔内画像は、受信装置35によって撮像順に可搬型記録媒体37に蓄積され、画像列として保存される。   The receiving device 35 includes receiving antennas A <b> 1 to An that are dispersedly arranged at positions on the body surface corresponding to the passage path of the capsule endoscope 33 in the subject 31. Then, the receiving device 35 receives image data wirelessly transmitted from the capsule endoscope 33 via the receiving antennas A1 to An. The receiving device 35 is configured so that the portable recording medium 37 can be freely attached and detached, and sequentially stores the received image data in the portable recording medium 37. In this way, the in-vivo images inside the subject 31 captured by the capsule endoscope 33 are accumulated in the portable recording medium 37 in the order of imaging by the receiving device 35 and stored as an image sequence.

そして、シーン変化検出装置39は、可搬型記録媒体37の着脱が自在に構成されており、受信装置35によって受信されて可搬型記録媒体37に保存された体腔内画像の画像列を処理し、LCDやELD等のディスプレイに撮像順に順次表示する。ここで、シーン変化検出装置39は、実施の形態1,2のシーン変化検出装置と同様にして体腔内画像の画像列からシーン変化位置を検出し、シーン変化画像列を生成する。   The scene change detection device 39 is configured to be detachable from the portable recording medium 37, processes the image sequence of the in-vivo image received by the receiving device 35 and stored in the portable recording medium 37, and The images are sequentially displayed on a display such as an LCD or ELD in the order of imaging. Here, the scene change detection device 39 detects the scene change position from the image sequence of the body cavity image in the same manner as the scene change detection devices of the first and second embodiments, and generates a scene change image sequence.

ここで、体腔内におけるカプセル型内視鏡33の移動速度は一定ではなく、撮像される画像の時系列変化は様々である。このため、処理対象の体腔内画像の画像列では、類似する画像が連続するといった事態が発生し得る。一方で、カプセル型内視鏡33が撮像した膨大な枚数の体腔内画像を全て表示すると、医師等の観察者は、約60000枚にも及ぶ膨大な枚数の画像を観察するために多くの時間を費やさなければならず、負担が大きい。以上のことから、各体腔内画像を処理することによって画像列におけるシーン変化位置を検出してシーン変化画像列を生成することは、類似する画像を表示するという冗長度を減少させ、画像列のおおまかな全体像を効率的に観察できるので、観察者の負担を軽減するという観点で有効である。   Here, the moving speed of the capsule endoscope 33 in the body cavity is not constant, and the time-series change of the captured image varies. For this reason, in the image sequence of the in-vivo images to be processed, a situation in which similar images continue may occur. On the other hand, when all of the enormous number of in-vivo images captured by the capsule endoscope 33 are displayed, an observer such as a doctor takes a long time to observe an enormous number of images of about 60000. Must be spent, and the burden is large. From the above, detecting the scene change position in the image sequence by processing each in-vivo image and generating the scene change image sequence reduces the redundancy of displaying a similar image, Since a rough overall image can be efficiently observed, it is effective from the viewpoint of reducing the burden on the observer.

このカプセル型内視鏡システムによれば、カプセル型内視鏡33が撮像した膨大な枚数の体腔内画像の画像列からシーン変化位置を適切に検出することができるので、観察者による観察効率を向上させることができ、効率的な診断支援が実現できる。特にカプセル型内視鏡33が撮像した体腔内画像には、動きパターンに分類できない画像が多く含まれる。このため、実施の形態2で説明したようにパターン分類できない画像について画像間の画像変化を検出することが重要であり、このカプセル型内視鏡システムに実施の形態2のシーン検出装置を適用することによって、シーン変化位置をより適切に検出できる。   According to this capsule endoscope system, since the scene change position can be appropriately detected from the image sequence of the enormous number of in-vivo images captured by the capsule endoscope 33, the observation efficiency by the observer can be improved. It can be improved and efficient diagnosis support can be realized. In particular, the body cavity image captured by the capsule endoscope 33 includes many images that cannot be classified into motion patterns. For this reason, as described in the second embodiment, it is important to detect an image change between images for an image that cannot be classified into patterns, and the scene detection device according to the second embodiment is applied to this capsule endoscope system. Thus, the scene change position can be detected more appropriately.

なお、カプセル型内視鏡が撮像した体腔内画像の画像列を処理する場合以外にも、シーン変化のある画像列からシーン変化位置を検出し、シーン変化の大きい画像を表示する場合に好適に適用できる。   In addition to processing an image sequence of an in-vivo image captured by a capsule endoscope, it is suitable for detecting a scene change position from an image sequence with a scene change and displaying an image with a large scene change. Applicable.

実施の形態1のシーン変化検出装置の機能構成例を示すブロック図である。3 is a block diagram illustrating a functional configuration example of the scene change detection device according to the first embodiment. FIG. 実施の形態1のシーン変化検出装置が行う処理手順を示すフローチャートである。4 is a flowchart illustrating a processing procedure performed by the scene change detection device according to the first embodiment. 動きパターンが「平行移動」にパターン分類される画像内の動きベクトル群を示す図である。It is a figure which shows the motion vector group in the image by which a motion pattern is pattern-classified by "parallel movement". 動きパターンが「撮像対象から遠ざかる動き」にパターン分類される動きベクトル群を示す図である。It is a figure which shows the motion vector group by which a motion pattern is pattern-classified into "the movement which moves away from an imaging target." 動きパターンが「撮像対象が近づく動き」にパターン分類される動きベクトル群を示す図である。It is a figure which shows the motion vector group by which a motion pattern is pattern-classified into "the movement which an imaging target approaches." 動きパターンが「平行移動」にパターン分類された撮像順が隣接する4枚の画像の一例を示す模式図である。It is a schematic diagram which shows an example of the four images with which the imaging order adjacent to which the motion pattern was pattern-classified as "parallel movement". 動きパターンが「撮像対象が遠ざかる動き」にパターン分類された撮像順が隣接する4枚の画像の一例を示す模式図である。FIG. 10 is a schematic diagram illustrating an example of four images whose movement orders are adjacent to each other in the imaging order in which the pattern classification is “movement of the imaging target moving away”. 動きパターンが「撮像対象が近づく動き」にパターン分類された撮像順が隣接する4枚の画像の一例を示す模式図である。FIG. 10 is a schematic diagram illustrating an example of four images in which the imaging order is classified in which the motion pattern is “classified as the imaging target approaches”. シーン変化画像が検出された画像列の一例を示す模式図である。It is a schematic diagram which shows an example of the image sequence from which the scene change image was detected. 実施の形態2のシーン変化検出装置が行う処理手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure performed by the scene change detection apparatus according to the second embodiment. 実施の形態を適用したコンピュータシステムの構成を示すシステム構成図である。1 is a system configuration diagram showing a configuration of a computer system to which an embodiment is applied. 図11のコンピュータシステムにおける本体部の構成を示すブロック図である。It is a block diagram which shows the structure of the main-body part in the computer system of FIG. シーン変化検出装置を備えたカプセル型内視鏡システムを模式的に示す構成図である。It is a block diagram which shows typically the capsule type endoscope system provided with the scene change detection apparatus.

1 シーン変化検出装置
2 入力部
3 表示部
4 記憶部
41 シーン変化検出プログラム
5 処理部
51 画像読込部
52 動きベクトル検出部
53 動きベクトル分類処理部
54 分類別画像変化検出部
55 分類別シーン変化検出部
56 全体シーン変化検出部
DESCRIPTION OF SYMBOLS 1 Scene change detection apparatus 2 Input part 3 Display part 4 Memory | storage part 41 Scene change detection program 5 Processing part 51 Image reading part 52 Motion vector detection part 53 Motion vector classification | category process part 54 Image change detection part classified by classification 55 Scene change detection classified according to classification Unit 56 Whole scene change detection unit

Claims (13)

複数の画像で構成される画像列からシーン変化位置を検出するシーン変化検出装置であって、
前記画像内の複数の位置において他の画像との間の動きベクトルを検出する動きベクトル検出手段と、
前記画像内で検出された複数の動きベクトルをもとに、前記画像を所定の動きパターンにパターン分類するパターン分類手段と、
予め前記パターン分類毎に定義された分類別画像変化検出処理を対応するパターン分類にそれぞれ適用することによって、前記各パターン分類内における前記画像間の画像変化を検出する分類別画像変化検出手段と、
前記各パターン分類内におけるシーン変化を前記パターン分類毎に検出する分類別シーン変化検出手段と、
を備えることを特徴とするシーン変化検出装置。
A scene change detection device that detects a scene change position from an image sequence composed of a plurality of images,
Motion vector detection means for detecting a motion vector between other images at a plurality of positions in the image;
Pattern classification means for pattern-classifying the image into a predetermined motion pattern based on a plurality of motion vectors detected in the image;
A classification-specific image change detection means for detecting an image change between the images in each pattern classification by applying the classification-specific image change detection processing defined in advance for each pattern classification to the corresponding pattern classification,
Classification-specific scene change detection means for detecting scene changes in each pattern classification for each pattern classification;
A scene change detection apparatus comprising:
前記パターン分類毎の前記分類別画像変化検出処理は、前記画像内で検出された前記複数の動きベクトルに基づく1つまたは複数のパラメータ値を用い、前記画像の画像変化量を算出する処理であることを特徴とする請求項1に記載のシーン変化検出装置。   The classification-specific image change detection process for each pattern classification is a process of calculating an image change amount of the image using one or a plurality of parameter values based on the plurality of motion vectors detected in the image. The scene change detection apparatus according to claim 1, wherein: 前記パターン分類手段は、前記画像内で検出された前記複数の動きベクトルの統計データまたはばらつきをもとに、前記画像を平行移動、撮像対象が遠ざかる動きまたは撮像対象が近づく動きを含む動きパターンにパターン分類することを特徴とする請求項1または2に記載のシーン変化検出装置。   The pattern classifying means translates the image based on statistical data or variations of the plurality of motion vectors detected in the image, and generates a motion pattern including a motion in which the imaging target moves away or a motion in which the imaging target approaches. The scene change detection apparatus according to claim 1, wherein pattern classification is performed. 動きパターンが平行移動にパターン分類された画像に適用する前記分類別画像変化検出処理は、少なくとも前記画像内で検出された前記複数の動きベクトルの大きさの平均値をもとに前記画像の画像変化量を算出する処理であることを特徴とする請求項3に記載のシーン変化検出装置。   The classification-specific image change detection process applied to an image in which a motion pattern is classified into parallel movement is an image of the image based on at least an average value of the plurality of motion vectors detected in the image. The scene change detection apparatus according to claim 3, wherein the scene change detection process is a process of calculating a change amount. 動きパターンが、撮像対象が遠ざかる動きまたは撮像対象が近づく動きにパターン分類された画像に適用する前記分類別画像変化検出処理は、少なくとも前記画像内で検出された前記複数の動きベクトルの大きさの中間値、最大値または最小値をもとに前記画像の画像変化量を算出する処理であることを特徴とする請求項3または4に記載のシーン変化検出装置。   The image change detection processing classified by classification applied to an image classified into a pattern in which a motion pattern moves away from the imaging target or moves closer to the imaging target has at least the size of the plurality of motion vectors detected in the image. 5. The scene change detection apparatus according to claim 3, wherein the scene change detection apparatus is a process of calculating an image change amount of the image based on an intermediate value, a maximum value, or a minimum value. 前記分類別画像変化検出手段は、前記動きパターンのいずれにも分類されない画像について該画像の画像特徴を算出し、前記画像間の画像変化として検出することを特徴とする請求項3〜5のいずれか1つに記載のシーン変化検出装置。   6. The classification-based image change detection means calculates an image feature of an image that is not classified into any of the motion patterns, and detects it as an image change between the images. The scene change detection device according to claim 1. 前記分類別画像変化検出手段は、前記画像内で検出された前記複数の動きベクトルの信頼度を加味して前記画像間の画像変化を検出することを特徴とする請求項1〜6のいずれか1つに記載のシーン変化検出装置。   The classification-specific image change detection means detects an image change between the images in consideration of reliability of the plurality of motion vectors detected in the image. The scene change detection device according to one. 前記分類別シーン変化検出手段は、前記パターン分類内における画像間の画像変化をもとに、前記パターン分類内におけるシーン変化を検出することを特徴とする請求項1〜7のいずれか1つに記載のシーン変化検出装置。   The classification-specific scene change detection means detects a scene change in the pattern classification based on an image change between images in the pattern classification. The described scene change detection device. 前記分類別シーン変化検出手段は、前記各パターン分類内におけるシーン変化を、予め前記パターン分類毎に定められる重要度を加味して検出することを特徴とする請求項1〜8のいずれか1つに記載のシーン変化検出装置。   The classification-specific scene change detection means detects a scene change in each of the pattern classifications in consideration of importance determined in advance for each of the pattern classifications. The scene change detection device according to 1. 前記パターン分類毎に検出されたシーン変化をもとに、前記画像列のシーン変化位置を検出するシーン変化位置検出手段を備えることを特徴とする請求項1〜9のいずれか1つに記載のシーン変化検出装置。   The scene change position detecting means for detecting a scene change position of the image sequence based on a scene change detected for each pattern classification, according to any one of claims 1 to 9, Scene change detection device. 前記画像列は、被検体の体腔内に導入されるカプセル型内視鏡によって撮像された体腔内画像の画像列であることを特徴とする請求項1〜10のいずれか1つに記載のシーン変化検出装置。   The scene according to any one of claims 1 to 10, wherein the image sequence is an image sequence of an in-vivo image captured by a capsule endoscope introduced into a body cavity of a subject. Change detection device. 複数の画像で構成される画像列からシーン変化位置を検出するシーン変化検出装置に、
前記画像内の複数の位置において他の画像との間の動きベクトルを検出する動きベクトル検出手順と、
前記画像内で検出された複数の動きベクトルをもとに、前記画像を所定の動きパターンにパターン分類するパターン分類手順と、
予め前記パターン分類毎に定義された分類別画像変化検出処理を対応するパターン分類にそれぞれ適用することによって、前記各パターン分類内における前記画像間の画像変化を検出する分類別画像変化検出手順と、
前記各パターン分類内におけるシーン変化を前記パターン分類毎に検出する分類別シーン変化検出手順と、
を実行させることを特徴とするシーン変化検出プログラム。
In a scene change detection device that detects a scene change position from an image sequence composed of a plurality of images,
A motion vector detection procedure for detecting motion vectors between other images at a plurality of positions in the image;
A pattern classification procedure for pattern-classifying the image into a predetermined motion pattern based on a plurality of motion vectors detected in the image;
A classification-specific image change detection procedure for detecting an image change between the images in each pattern classification by applying the classification-specific image change detection process defined in advance for each pattern classification to the corresponding pattern classification;
Classification-specific scene change detection procedure for detecting scene changes in each pattern classification for each pattern classification;
A scene change detection program characterized by causing
複数の画像で構成される画像列からシーン変化位置を検出するシーン変化検出方法であって、
前記画像内の複数の位置において他の画像との間の動きベクトルを検出する動きベクトル検出ステップと、
前記画像内で検出された複数の動きベクトルをもとに、前記画像を所定の動きパターンにパターン分類するパターン分類ステップと、
予め前記パターン分類毎に定義された分類別画像変化検出処理を対応するパターン分類にそれぞれ適用することによって、前記各パターン分類内における前記画像間の画像変化を検出する分類別画像変化検出ステップと、
前記各パターン分類内におけるシーン変化を前記パターン分類毎に検出する分類別シーン変化検出ステップと、
を含むことを特徴とするシーン変化検出方法。
A scene change detection method for detecting a scene change position from an image sequence composed of a plurality of images,
A motion vector detection step of detecting a motion vector between other images at a plurality of positions in the image;
A pattern classification step of pattern classifying the image into a predetermined motion pattern based on a plurality of motion vectors detected in the image;
A classification-specific image change detection step for detecting an image change between the images in each pattern classification by applying a classification-specific image change detection process defined in advance for each pattern classification to the corresponding pattern classification,
A scene-by-class scene change detection step for detecting scene changes in each pattern class for each pattern class;
A scene change detection method comprising:
JP2009020704A 2009-01-30 2009-01-30 Scene change detecting apparatus, scene change detecting program, and scene change detecting method Pending JP2010176570A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009020704A JP2010176570A (en) 2009-01-30 2009-01-30 Scene change detecting apparatus, scene change detecting program, and scene change detecting method
US12/693,759 US8665326B2 (en) 2009-01-30 2010-01-26 Scene-change detecting device, computer readable storage medium storing scene-change detection program, and scene-change detecting method
CN201010107619.4A CN101794445B (en) 2009-01-30 2010-01-29 Scene-change detecting device and scene-change detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009020704A JP2010176570A (en) 2009-01-30 2009-01-30 Scene change detecting apparatus, scene change detecting program, and scene change detecting method

Publications (1)

Publication Number Publication Date
JP2010176570A true JP2010176570A (en) 2010-08-12

Family

ID=42707449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009020704A Pending JP2010176570A (en) 2009-01-30 2009-01-30 Scene change detecting apparatus, scene change detecting program, and scene change detecting method

Country Status (1)

Country Link
JP (1) JP2010176570A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10979632B2 (en) 2018-05-31 2021-04-13 Canon Kabushiki Kaisha Imaging apparatus, method for controlling same, and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007195586A (en) * 2006-01-23 2007-08-09 Olympus Medical Systems Corp Capsule type medical device, medical controlling device, medical image processing device, and program
JP2009011563A (en) * 2007-07-04 2009-01-22 Olympus Corp Image processor and image processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007195586A (en) * 2006-01-23 2007-08-09 Olympus Medical Systems Corp Capsule type medical device, medical controlling device, medical image processing device, and program
JP2009011563A (en) * 2007-07-04 2009-01-22 Olympus Corp Image processor and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10979632B2 (en) 2018-05-31 2021-04-13 Canon Kabushiki Kaisha Imaging apparatus, method for controlling same, and storage medium

Similar Documents

Publication Publication Date Title
JP6942488B2 (en) Image processing equipment, image processing system, image processing method, and program
US10860930B2 (en) Learning method, image recognition device, and computer-readable storage medium
US8665326B2 (en) Scene-change detecting device, computer readable storage medium storing scene-change detection program, and scene-change detecting method
US11106920B2 (en) People flow estimation device, display control device, people flow estimation method, and recording medium
US10083233B2 (en) Video processing for motor task analysis
JP6525453B2 (en) Object position estimation system and program thereof
JP4959445B2 (en) Image processing apparatus and image processing program
JP6045396B2 (en) Image processing apparatus, image processing method, and image processing program
EP2320379B1 (en) Image processing device, object tracking device, and image processing method
JP2015154918A (en) Apparatus and method for lesion detection
JP2018061771A (en) Image processing apparatus and image processing method
JP5576775B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010244089A (en) Person detection device, person detection method, and person detection program
JP2012053756A (en) Image processor and image processing method
EP2590110A1 (en) Depth image compression
JP6362085B2 (en) Image recognition system, image recognition method and program
JP2009265732A (en) Image processor and method thereof
Zhang et al. Video-based motion expertise analysis in simulation-based surgical training using hierarchical dirichlet process hidden markov model
JP2011089784A (en) Device for estimating direction of object
JP5308848B2 (en) Scene change detection device, scene change detection program, and scene change detection method
JP2012181710A (en) Object tracking device, method and program
JP2010176570A (en) Scene change detecting apparatus, scene change detecting program, and scene change detecting method
Dong et al. GIAD: Generative inpainting-based anomaly detection via self-supervised learning for human monitoring
KR20130081126A (en) Method for hand-gesture recognition and apparatus thereof
KR20180059439A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130305