JP5117424B2 - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP5117424B2
JP5117424B2 JP2009037122A JP2009037122A JP5117424B2 JP 5117424 B2 JP5117424 B2 JP 5117424B2 JP 2009037122 A JP2009037122 A JP 2009037122A JP 2009037122 A JP2009037122 A JP 2009037122A JP 5117424 B2 JP5117424 B2 JP 5117424B2
Authority
JP
Japan
Prior art keywords
image
feature region
feature
unit
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009037122A
Other languages
Japanese (ja)
Other versions
JP2009268065A (en
Inventor
隆之 宇田川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009037122A priority Critical patent/JP5117424B2/en
Publication of JP2009268065A publication Critical patent/JP2009268065A/en
Application granted granted Critical
Publication of JP5117424B2 publication Critical patent/JP5117424B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理システム、画像処理方法、およびプログラムに関する。本発明は、特に、画像を処理する画像処理システムおよび画像処理方法、ならびに画像処理システム用のプログラムに関する。   The present invention relates to an image processing system, an image processing method, and a program. The present invention particularly relates to an image processing system and an image processing method for processing an image, and a program for the image processing system.

撮像領域が重複して設定された複数のカメラからの画像から車番を認識する車番認識システムが知られている(例えば、特許文献1参照。)。この、車番認識システムでは、移動体が先頭のカメラで検知されると、各カメラが同時に撮像して、対応するカメラからの画像を処理してナンバープレート領域を絞り、文字認識により、車番および一連番号などの要素毎の部分データが抽出される。そして、同一車番の部分データを合成して完成データを作成して中央管制装置等に出力する。   There is known a vehicle number recognition system that recognizes a vehicle number from images from a plurality of cameras set with overlapping imaging areas (see, for example, Patent Document 1). In this car number recognition system, when a moving body is detected by the head camera, each camera picks up the image simultaneously, processes the image from the corresponding camera, narrows down the license plate area, and recognizes the car number by character recognition. And partial data for each element such as a serial number is extracted. Then, completion data is created by combining the partial data of the same vehicle number and output to the central control device or the like.

また、一台の監視ビデオカメラの使用の下に、低解像度の全体画像および高解像度の部分画像を記録して、監視操作者の指示に応じて、高精細あるいは拡大して再生表示する追尾映像監視装置が知られている(例えば、特許文献2参照。)。   Also, using a single surveillance video camera, a low-resolution whole image and a high-resolution partial image are recorded, and the tracking video is displayed in high definition or enlarged according to the instructions of the surveillance operator. A monitoring device is known (for example, see Patent Document 2).

特開平8−5316号公報JP-A-8-5316 特開2006−33793号公報JP 2006-33793 A

上記特許文献に記載の技術では、各カメラにより得られた各映像の中から、同じ物体が写された部分のフレームを後で速やかに抽出することができない。   With the technique described in the above-mentioned patent document, it is not possible to quickly extract a frame of a portion where the same object is captured from each video obtained by each camera.

上記課題を解決するために、本発明の第1の態様によると、画像処理システムであって、複数の撮像装置のそれぞれにより撮像された複数の動画を取得する画像取得部と、複数の動画のそれぞれに含まれる複数の動画構成画像から、複数の特徴領域を検出する特徴領域検出部と、予め定められた値より高い相関を有する複数の特徴領域の中から、当該複数の特徴領域を代表する特徴領域ある代表特徴領域を決定する代表特徴領域決定部と、代表特徴領域を特定する情報である代表特徴領域情報を、予め定められた値より高い相関を有する複数の特徴領域を有する複数の動画構成画像に対応づけて出力する出力部とを備える。   In order to solve the above problems, according to a first aspect of the present invention, there is provided an image processing system, an image acquisition unit that acquires a plurality of moving images captured by each of a plurality of imaging devices, and a plurality of moving images Representing a plurality of feature regions from among a plurality of feature regions having a correlation higher than a predetermined value and a feature region detection unit that detects a plurality of feature regions from a plurality of moving image constituent images included in each A plurality of moving images having a plurality of feature regions having a correlation higher than a predetermined value between a representative feature region determination unit that determines a representative feature region that is a feature region and representative feature region information that is information for specifying the representative feature region And an output unit that outputs the image in association with the component image.

本発明の第2の態様によると、画像処理方法であって、複数の撮像装置のそれぞれにより撮像された複数の動画を取得する画像取得段階と、複数の動画のそれぞれに含まれる複数の動画構成画像から、複数の特徴領域を検出する特徴領域検出段階と、予め定められた値より高い相関を有する複数の特徴領域の中から、当該複数の特徴領域を代表する特徴領域である代表特徴領域を決定する代表特徴領域決定段階と、代表特徴領域を特定する情報である代表特徴領域情報を、予め定められた値より高い相関を有する複数の特徴領域を有する複数の動画構成画像に対応づけて出力する出力段階とを備える。   According to the second aspect of the present invention, there is provided an image processing method, an image acquisition stage for acquiring a plurality of moving images captured by each of a plurality of imaging devices, and a plurality of moving image configurations included in each of the plurality of moving images. A feature region detection stage that detects a plurality of feature regions from an image, and a representative feature region that is a feature region representing the plurality of feature regions from among a plurality of feature regions having a correlation higher than a predetermined value. The representative feature region determination stage to be determined and the representative feature region information, which is information for specifying the representative feature region, are output in association with a plurality of moving image constituent images having a plurality of feature regions having a correlation higher than a predetermined value. Output stage.

本発明の第3の態様によると、画像処理システム用のプログラムであって、コンピュータを、複数の撮像装置のそれぞれにより撮像された複数の動画を取得する画像取得部、複数の動画のそれぞれに含まれる複数の動画構成画像から、複数の特徴領域を検出する特徴領域検出部、予め定められた値より高い相関を有する複数の特徴領域の中から、当該複数の特徴領域を代表する特徴領域である代表特徴領域を決定する代表特徴領域決定部、代表特徴領域を特定する情報である代表特徴領域情報を、予め定められた値より高い相関を有する複数の特徴領域を有する複数の動画構成画像に対応づけて出力する出力部として機能させる。   According to the third aspect of the present invention, there is provided a program for an image processing system, wherein a computer is included in each of a plurality of moving images, an image acquisition unit that acquires a plurality of moving images captured by each of a plurality of imaging devices. A feature region detection unit for detecting a plurality of feature regions from a plurality of moving image constituent images, a feature region representing the plurality of feature regions from a plurality of feature regions having a correlation higher than a predetermined value A representative feature region determining unit that determines a representative feature region, and representative feature region information that is information for specifying the representative feature region corresponds to a plurality of moving image constituent images having a plurality of feature regions having a correlation higher than a predetermined value. It is made to function as an output unit that outputs.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

一実施形態に係わる画像処理システム10の一例を示す図である。1 is a diagram illustrating an example of an image processing system 10 according to an embodiment. 画像処理装置120のブロック構成の一例を示す図である。2 is a diagram illustrating an example of a block configuration of an image processing apparatus 120. FIG. 圧縮部230のブロック構成の一例を示す図である。3 is a diagram illustrating an example of a block configuration of a compression unit 230. FIG. 画像処理装置170のブロック構成の一例を示す図である。2 is a diagram illustrating an example of a block configuration of an image processing apparatus 170. FIG. 圧縮部230の他のブロック構成の一例を示す図である。It is a figure which shows an example of the other block structure of the compression part 230. FIG. 異なる撮像装置100から得られた動画の一例を示す図である。It is a figure which shows an example of the moving image obtained from the different imaging device 100. FIG. 対応付け処理部206によって撮像画像、特徴領域情報が関連づけされた状態をテーブル形式で示す図である。It is a figure which shows the state with which the captured image and the characteristic area information were linked | related by the matching process part 206 in a table format. 表示装置180が表示する検索指示受付画面800の一例を示す図である。6 is a diagram showing an example of a search instruction reception screen 800 displayed on the display device 180. FIG. 表示装置180によって表示される代表特徴領域の動画を示す図である。6 is a diagram showing a moving image of a representative feature area displayed by the display device 180. FIG. 相関を算出する算出パラメータの一例を示す図である。It is a figure which shows an example of the calculation parameter which calculates a correlation. 画像処理装置120および画像処理装置170のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an image processing device 120 and an image processing device 170. FIG.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一実施形態に係わる画像処理システム10の一例を示す。なお、画像処理システム10は、以下に説明するように、監視システムとして機能することができる。   FIG. 1 shows an example of an image processing system 10 according to an embodiment. The image processing system 10 can function as a monitoring system as described below.

画像処理システム10は、監視対象空間150を撮像する複数の撮像装置100a−d(以下、撮像装置100と総称する。)、撮像装置100により撮像された撮像画像を処理する画像処理装置120、通信ネットワーク110、画像処理装置170、画像DB175、および複数の表示装置180a−d(以下、表示装置180と総称する。)を備える。画像処理装置170および表示装置180は、監視対象空間150と異なる空間160に設けられている。   The image processing system 10 includes a plurality of imaging devices 100a to 100d (hereinafter collectively referred to as imaging devices 100) that capture the monitoring target space 150, an image processing device 120 that processes captured images captured by the imaging device 100, and communication. It includes a network 110, an image processing device 170, an image DB 175, and a plurality of display devices 180a-d (hereinafter collectively referred to as display devices 180). The image processing device 170 and the display device 180 are provided in a space 160 different from the monitoring target space 150.

撮像装置100aは、撮像部102aおよび撮像動画圧縮部104aを有している。撮像部102aは、連続して監視対象空間150を撮像することによって複数の撮像画像を撮像する。そして、撮像部102aは、複数の撮像画像を含む撮像動画を生成する。撮像動画圧縮部104aは、撮像部102aにより撮像された撮像動画をMPEG符号化等により圧縮して、撮像動画データを生成する。このように、撮像装置100aは、監視対象空間150を撮像して得られた撮像動画を符号化して撮像動画データを生成する。撮像装置100aは、当該撮像動画データを画像処理装置120に出力する。   The imaging device 100a includes an imaging unit 102a and an imaging moving image compression unit 104a. The imaging unit 102a captures a plurality of captured images by continuously capturing the monitoring target space 150. Then, the imaging unit 102a generates a captured moving image including a plurality of captured images. The captured moving image compression unit 104a compresses the captured moving image captured by the imaging unit 102a by MPEG encoding or the like, and generates captured moving image data. Thus, the imaging device 100a encodes the captured moving image obtained by capturing the monitoring target space 150 to generate captured moving image data. The imaging device 100a outputs the captured moving image data to the image processing device 120.

なお、撮像部102aは、予め定められた基準撮像レートより高い撮像レートで被写体を連続的に撮像してよい。例えば、撮像部102aは、監視対象である監視対象物の動き速度に応じて予め定められた基準撮像レートより高い撮像レートで被写体を連続的に撮像してよい。   Note that the imaging unit 102a may continuously capture the subject at an imaging rate higher than a predetermined reference imaging rate. For example, the imaging unit 102a may continuously image the subject at an imaging rate higher than a reference imaging rate that is determined in advance according to the movement speed of the monitoring target that is the monitoring target.

なお、撮像装置100b、撮像装置100c、および撮像装置100dは、それぞれ撮像装置100aと同様の構成を有するので、撮像装置100b、撮像装置100c、および撮像装置100dの各構成要素の説明を省略する。このようにして、画像処理装置120は、複数の撮像装置100のそれぞれにより生成された撮像動画データを、複数の撮像装置100のそれぞれから取得する。   Note that the imaging device 100b, the imaging device 100c, and the imaging device 100d have the same configuration as that of the imaging device 100a, and thus description of each component of the imaging device 100b, the imaging device 100c, and the imaging device 100d is omitted. In this way, the image processing device 120 acquires the captured moving image data generated by each of the plurality of imaging devices 100 from each of the plurality of imaging devices 100.

そして、画像処理装置120は、撮像装置100から取得した撮像動画データを復号して撮像動画を取得する。画像処理装置120は、取得した撮像動画に含まれる複数の撮像画像のそれぞれから、人物130が撮像された領域、車輌等の移動体140が撮像された領域等のように、特徴の種類が異なる複数の特徴領域を検出する。そして、画像処理装置120は、各撮像動画に含まれる各撮像画像の中から、検出された特徴領域の画像内容に関して相関が高い特徴領域の組を特定する。そして、画像処理装置120は、特定した特徴領域の組の中から代表的な特徴領域である代表特徴領域を決定して、当該代表特徴領域を識別する識別情報と、各撮像画像を識別する情報とが対応づけられた特徴領域情報を生成する。   Then, the image processing device 120 decodes the captured moving image data acquired from the imaging device 100 and acquires the captured moving image. The image processing apparatus 120 has different types of features such as an area where a person 130 is imaged, an area where a moving body 140 such as a vehicle is imaged, etc., from each of a plurality of captured images included in the acquired captured video. A plurality of feature regions are detected. Then, the image processing apparatus 120 identifies a set of feature areas that have a high correlation with respect to the image content of the detected feature area from among the captured images included in each captured moving image. Then, the image processing apparatus 120 determines a representative feature area, which is a representative feature area, from the identified set of feature areas, identification information for identifying the representative feature area, and information for identifying each captured image Is generated in correspondence with the feature region information.

なお、画像処理装置120は、撮像画像から検出された特徴領域を特定する情報を含む特徴領域情報を生成する。そして、画像処理装置120は、特徴領域情報を圧縮動画データに付帯して、通信ネットワーク110を通じて画像処理装置170に送信する。   Note that the image processing device 120 generates feature area information including information for specifying the feature area detected from the captured image. Then, the image processing apparatus 120 attaches the feature area information to the compressed moving image data and transmits the feature area information to the image processing apparatus 170 through the communication network 110.

画像処理装置170は、特徴領域情報が対応づけられた圧縮動画データを画像処理装置120から受信する。そして、画像処理装置170は、受信した圧縮動画データを、対応づけられている特徴領域情報を用いて伸張して表示用動画を生成して、生成した表示用動画を表示装置180に供給する。表示装置180は、画像処理装置170から供給された表示用動画を表示する。   The image processing device 170 receives the compressed moving image data associated with the feature area information from the image processing device 120. Then, the image processing device 170 expands the received compressed moving image data using the associated feature area information to generate a display moving image, and supplies the generated display moving image to the display device 180. The display device 180 displays the moving image for display supplied from the image processing device 170.

また、画像処理装置170は、圧縮動画データに対応づけられている特徴領域情報に対応づけて、当該圧縮動画データを画像DB175に記録してもよい。そして、画像処理装置170は、表示装置180からの要求に応じて、画像DB175から圧縮動画データおよび特徴領域情報を読み出して、読み出した圧縮動画データを特徴領域情報を利用して伸張して表示用動画を生成して、表示装置180に供給してもよい。   The image processing apparatus 170 may record the compressed moving image data in the image DB 175 in association with the feature area information associated with the compressed moving image data. Then, in response to a request from the display device 180, the image processing device 170 reads the compressed moving image data and the feature area information from the image DB 175, decompresses the read compressed moving image data using the feature region information, and displays it. A moving image may be generated and supplied to the display device 180.

なお、特徴領域情報は、代表特徴領域を識別する識別情報、特徴領域の位置、特徴領域の大きさ、特徴領域の数、特徴領域が検出された撮像画像を識別する識別情報等を含むテキストデータ、もしくは当該テキストデータに圧縮、暗号化等の処理が施されたデータであってよい。そして、画像処理装置170は、代表徴領域の画像を表示して、監視者に提示する。そして、画像処理装置170は、検索すべき被写体が撮像されている代表特徴領域の画像が監視者によって選択されると、選択された代表特徴領域を識別する識別情報に対応づけられた撮像画像を選択して、選択した撮像画像を連続して表示装置180に動画表示させる。   The feature region information is text data including identification information for identifying the representative feature region, the position of the feature region, the size of the feature region, the number of the feature regions, the identification information for identifying the captured image in which the feature region is detected, and the like. Alternatively, the text data may be data that has been subjected to processing such as compression and encryption. Then, the image processing apparatus 170 displays an image of the representative feature area and presents it to the supervisor. Then, when the image of the representative feature region in which the subject to be searched is captured is selected by the monitor, the image processing apparatus 170 displays the captured image associated with the identification information for identifying the selected representative feature region. The selected captured images are continuously displayed as moving images on the display device 180.

このように、画像処理システム10によると、代表特徴領域を動画に対応づけて記録しているので、動画における所定の条件に適合する撮像画像群を高速に検索、頭出しをすることができる。また、画像処理システム10によると、所定の条件に適合する撮像画像群だけ復号することができるので、再生指示に即応して速やかに所定の条件に適合する部分動画を表示することができる。   As described above, according to the image processing system 10, since the representative feature region is recorded in association with the moving image, it is possible to quickly search and find a picked-up image group that meets a predetermined condition in the moving image. Also, according to the image processing system 10, only a captured image group that meets a predetermined condition can be decoded, so that a partial moving image that meets the predetermined condition can be displayed promptly in response to a reproduction instruction.

図2は、画像処理装置120のブロック構成の一例を示す。画像処理装置120は、画像取得部250、特徴領域検出部203、圧縮制御部210、特徴領域情報格納部220、圧縮部230、相関算出部260、代表特徴領域決定部270、対応付け処理部206、および出力部207を備える。画像取得部250は、圧縮動画取得部201および圧縮動画伸張部202を有する。   FIG. 2 shows an example of a block configuration of the image processing apparatus 120. The image processing apparatus 120 includes an image acquisition unit 250, a feature region detection unit 203, a compression control unit 210, a feature region information storage unit 220, a compression unit 230, a correlation calculation unit 260, a representative feature region determination unit 270, and an association processing unit 206. , And an output unit 207. The image acquisition unit 250 includes a compressed moving image acquisition unit 201 and a compressed moving image expansion unit 202.

圧縮動画取得部201は、圧縮された動画を取得する。具体的には、圧縮動画取得部201は、撮像装置100が生成した、符号化された撮像動画データを取得する。圧縮動画伸張部202は、圧縮動画取得部201が取得した撮像動画データを伸張して、撮像動画に含まれる複数の撮像画像を生成する。具体的には、圧縮動画伸張部202は、圧縮動画取得部201が取得した、符号化された撮像動画データを復号して、撮像動画に含まれる複数の撮像画像を生成する。なお、撮像動画に含まれる撮像画像は、フレーム画像およびフィールド画像であってよい。なお、本実施形態における撮像画像は、この発明における動画構成画像の一例であってよい。このように、画像取得部250は、複数の撮像装置100のそれぞれにより撮像された複数の動画を取得する。   The compressed moving image acquisition unit 201 acquires a compressed moving image. Specifically, the compressed moving image acquisition unit 201 acquires encoded captured moving image data generated by the imaging device 100. The compressed moving image expansion unit 202 expands the captured moving image data acquired by the compressed moving image acquisition unit 201 and generates a plurality of captured images included in the captured moving image. Specifically, the compressed moving image decompression unit 202 decodes the encoded captured moving image data acquired by the compressed moving image acquisition unit 201, and generates a plurality of captured images included in the captured moving image. The captured image included in the captured moving image may be a frame image and a field image. The captured image in the present embodiment may be an example of a moving image constituent image in the present invention. In this way, the image acquisition unit 250 acquires a plurality of moving images captured by each of the plurality of imaging devices 100.

圧縮動画伸張部202によって得られた複数の撮像画像は、特徴領域検出部および圧縮部230に供給される。特徴領域検出部203は、複数の撮像画像を含む動画から特徴領域を検出する。具体的には、特徴領域検出部203は、複数の撮像画像のそれぞれから特徴領域を検出する。なお、上記における撮像動画は、以下の説明における動画の一例であってよい。   The plurality of captured images obtained by the compressed moving image decompression unit 202 are supplied to the feature region detection unit and the compression unit 230. The feature region detection unit 203 detects a feature region from a moving image including a plurality of captured images. Specifically, the feature region detection unit 203 detects a feature region from each of the plurality of captured images. Note that the captured moving image described above may be an example of a moving image in the following description.

例えば、特徴領域検出部203は、動く物体を示すオブジェクトを含む領域を特徴領域として検出してよい。なお、特徴領域検出部203は、複数の撮像画像のそれぞれから、特徴の種類が異なる複数の特徴領域を検出してよい。なお、特徴の種類とは、人物と移動体等のように、オブジェクトの種類を指標にしてよい。オブジェクトの種類は、オブジェクトの形状またはオブジェクトの色の一致度に基づいて決定されてよい。このように、特徴領域検出部203は、複数の撮像画像から、含まれるオブジェクトの種類が異なる複数の特徴領域を検出してよい。   For example, the feature region detection unit 203 may detect a region including an object indicating a moving object as a feature region. Note that the feature region detection unit 203 may detect a plurality of feature regions having different types of features from each of the plurality of captured images. Note that the type of feature may be an index of the type of object such as a person and a moving object. The type of the object may be determined based on the degree of coincidence of the shape of the object or the color of the object. As described above, the feature region detection unit 203 may detect a plurality of feature regions having different types of included objects from a plurality of captured images.

例えば、特徴領域検出部203は、予め定められた形状パターンに予め定められた一致度以上の一致度で一致するオブジェクトを複数の撮像画像のそれぞれから抽出して、抽出したオブジェクトを含む撮像画像における領域を、特徴の種類が同じ特徴領域として検出してよい。なお、形状パターンは、特徴の種類毎に複数定められてよい。また、形状パターンの一例としては、人物の顔の形状パターンを例示することができる。なお、複数の人物毎に異なる顔のパターンが定められてよい。これにより、特徴領域検出部203は、異なる人物をそれぞれ含む異なる領域を、異なる特徴領域として検出することができる。   For example, the feature region detection unit 203 extracts an object that matches a predetermined shape pattern with a matching degree equal to or higher than a predetermined matching degree from each of the plurality of picked-up images, and in the picked-up image including the extracted object. The region may be detected as a feature region having the same feature type. Note that a plurality of shape patterns may be determined for each type of feature. As an example of the shape pattern, a shape pattern of a human face can be exemplified. Different face patterns may be determined for each of a plurality of persons. Thereby, the feature region detection unit 203 can detect different regions each including a different person as different feature regions.

このように、特徴領域検出部203は、複数の動画のそれぞれに含まれる複数の撮像画像から、複数の特徴領域を検出する。そして、特徴領域検出部203は、検出した特徴領域を示す情報を、圧縮制御部210および特徴領域情報格納部220に供給する。なお、特徴領域を示す情報とは、特徴領域の位置を示す特徴領域の座標情報、特徴領域の種類を示す種類情報、および特徴領域が検出された撮像動画を識別する情報を含む。   As described above, the feature region detection unit 203 detects a plurality of feature regions from a plurality of captured images included in each of the plurality of moving images. Then, the feature region detection unit 203 supplies information indicating the detected feature region to the compression control unit 210 and the feature region information storage unit 220. Note that the information indicating the feature region includes coordinate information of the feature region indicating the position of the feature region, type information indicating the type of the feature region, and information for identifying the captured moving image in which the feature region is detected.

特徴領域情報格納部220は、複数の動画に含まれる複数の撮像画像から特徴領域検出部203によって検出された複数の特徴領域の画像および特徴領域の位置および大きさを識別する情報を格納する。なお、特徴領域情報格納部220は、当該特徴領域の画像を一時的に記憶してよい。また、特徴領域情報格納部220は、当該特徴領域の画像を一時的に記憶する揮発性メモリを含んでよい。   The feature region information storage unit 220 stores information for identifying the images of the plurality of feature regions detected by the feature region detection unit 203 from the plurality of captured images included in the plurality of moving images and the positions and sizes of the feature regions. Note that the feature area information storage unit 220 may temporarily store an image of the feature area. The feature area information storage unit 220 may include a volatile memory that temporarily stores an image of the feature area.

相関算出部260は、特徴領域情報格納部220に記憶された複数の特徴領域の間の相関を算出する。具体的には、相関算出部260は、特徴領域の画像内容に関する相関値を算出してよい。より具体的には、相関算出部260は、特徴領域の画像内容の一致度を指標とする相関値を算出してよい。例えば、相関算出部260は、画像内容の一致度がより大きい特徴領域の間の相関値をより高く算出してよい。   The correlation calculation unit 260 calculates a correlation between a plurality of feature regions stored in the feature region information storage unit 220. Specifically, the correlation calculation unit 260 may calculate a correlation value related to the image content of the feature region. More specifically, the correlation calculation unit 260 may calculate a correlation value using the degree of coincidence of the image contents of the feature region as an index. For example, the correlation calculation unit 260 may calculate a higher correlation value between feature regions having a higher degree of coincidence of image contents.

他にも、相関算出部260は、特徴領域の画像に含まれるオブジェクトの種類に関する相関値を算出してよい。例えば、相関算出部260は、同じ種類のオブジェクトを含む特徴領域の間の相関値をより高く算出してよい。他にも、相関算出部260は、特徴領域の画像に含まれるオブジェクトの形状に関する相関値を算出してよい。例えば、相関算出部260は、含まれるオブジェクトの形状の一致度がより大きい特徴領域の間の相関値をより高く算出してよい。他にも、相関算出部260は、特徴領域の画像に含まれる色に関する相関値を算出してよい。例えば、相関算出部260は、類似した色をより多く含む特徴領域の間の相関値をより高く算出してよい。   In addition, the correlation calculation unit 260 may calculate a correlation value related to the type of object included in the feature region image. For example, the correlation calculation unit 260 may calculate a higher correlation value between feature regions including the same type of object. In addition, the correlation calculation unit 260 may calculate a correlation value related to the shape of the object included in the feature region image. For example, the correlation calculation unit 260 may calculate a higher correlation value between feature regions having a greater degree of matching of the shapes of the included objects. In addition, the correlation calculation unit 260 may calculate a correlation value related to the color included in the image of the feature region. For example, the correlation calculation unit 260 may calculate a higher correlation value between feature regions including more similar colors.

他にも、相関算出部260は、特徴領域の形状に関する相関値を算出してよい。例えば、相関算出部260は、特徴領域の形状の一致度がより大きい特徴領域の間の相関値をより高く算出してよい。他にも、相関算出部260は、特徴領域の大きさに関する相関値を算出してよい。例えば、相関算出部260は、特徴領域の大きさの一致度がより大きい特徴領域の間の相関値をより高く算出してよい。他にも、相関算出部260は、特徴領域の位置に関する相関値を算出してよい。例えば、相関算出部260は、撮像画像上においてより近い位置に存在する特徴領域の間の相関値をより高く算出してよい。   In addition, the correlation calculation unit 260 may calculate a correlation value related to the shape of the feature region. For example, the correlation calculation unit 260 may calculate a higher correlation value between feature regions having a higher degree of matching of the shape of the feature regions. In addition, the correlation calculation unit 260 may calculate a correlation value related to the size of the feature region. For example, the correlation calculation unit 260 may calculate a higher correlation value between feature regions having a larger degree of coincidence of feature region sizes. In addition, the correlation calculation unit 260 may calculate a correlation value related to the position of the feature region. For example, the correlation calculation unit 260 may calculate a higher correlation value between feature regions present at closer positions on the captured image.

他にも、相関算出部260は、特徴領域の位置の変化に関する相関値を算出してよい。例えば、相関算出部260は、特徴領域の位置の変化の一致度がより大きい特徴領域の間の相関値をより高く算出してよい。具体的には、相関算出部260は、特徴領域の位置の移動方向に関する相関値を算出してよい。相関算出部260は、特徴領域の位置の移動方向の一致度がより大きい特徴領域の間の相関値をより高く算出してよい。他にも、相関算出部260は、特徴領域の位置の移動速度に関する相関値を算出してよい。例えば、相関算出部260は、特徴領域の位置の移動速度の一致度がより大きい特徴領域の間の相関値をより高く算出してよい。   In addition, the correlation calculation unit 260 may calculate a correlation value related to a change in the position of the feature region. For example, the correlation calculation unit 260 may calculate a higher correlation value between feature regions having a greater degree of coincidence of changes in the positions of the feature regions. Specifically, the correlation calculation unit 260 may calculate a correlation value related to the moving direction of the position of the feature region. The correlation calculation unit 260 may calculate a higher correlation value between feature regions having a greater degree of coincidence in the moving direction of the position of the feature region. In addition, the correlation calculation unit 260 may calculate a correlation value related to the moving speed of the position of the feature region. For example, the correlation calculation unit 260 may calculate a higher correlation value between feature regions having a higher degree of coincidence of movement speeds of the positions of the feature regions.

そして、代表特徴領域決定部270は、相関算出部260が算出した相関値に基づき、予め定められた値より高い相関値を有する複数の特徴領域を選択する。そして、代表特徴領域決定部270は、当該予め定められた値より高い相関を有する複数の特徴領域の中から、当該複数の特徴領域を代表する特徴領域である代表特徴領域を決定する。   Then, the representative feature region determination unit 270 selects a plurality of feature regions having a correlation value higher than a predetermined value based on the correlation value calculated by the correlation calculation unit 260. Then, the representative feature region determining unit 270 determines a representative feature region that is a feature region representing the plurality of feature regions from the plurality of feature regions having a correlation higher than the predetermined value.

具体的には、代表特徴領域決定部270は、特徴領域の画像内容に関して予め定められた値より高い相関を有する複数の特徴領域の中から、代表特徴領域を決定する。例えば、代表特徴領域決定部270は、特徴領域の画像内容の一致度が予め定められた値より大きい複数の特徴領域の中から、代表特徴領域を決定してよい。   Specifically, the representative feature region determining unit 270 determines a representative feature region from among a plurality of feature regions having a correlation higher than a predetermined value with respect to the image content of the feature region. For example, the representative feature region determination unit 270 may determine the representative feature region from among a plurality of feature regions in which the degree of coincidence of the image contents of the feature region is greater than a predetermined value.

他にも、代表特徴領域決定部270は、特徴領域の画像内容に関して予め定められた値より高い相関を有する複数の特徴領域の中から、予め定められた画像内容に関する条件に適合する特徴領域を、代表特徴領域として決定してもよい。例えば、代表特徴領域決定部270は、撮像された被写体を識別し易い被写体像を含む特徴領域を、代表特徴領域としてより優先して決定してよい。一例として、代表特徴領域決定部270は、より大きい顔画像を含む特徴領域を、代表特徴領域としてより優先して決定してよい。他にも、代表特徴領域決定部270は、予め定められた角度により近い角度から撮像されて得られた顔画像を含む特徴領域を、代表特徴領域としてより優先して決定してよい。   In addition, the representative feature region determination unit 270 selects a feature region that satisfies a predetermined condition regarding the image content from among a plurality of feature regions having a correlation higher than a predetermined value with respect to the image content of the feature region. The representative feature area may be determined. For example, the representative feature region determination unit 270 may determine a feature region including a subject image that easily identifies a captured subject as a representative feature region. As an example, the representative feature region determination unit 270 may determine a feature region including a larger face image with higher priority as the representative feature region. In addition, the representative feature region determination unit 270 may determine a feature region including a face image obtained by imaging from an angle closer to a predetermined angle with higher priority as the representative feature region.

他にも、代表特徴領域決定部270は、相関算出部260によって算出された他の相関値に基いて代表特徴領域を決定してよい。例えば、代表特徴領域決定部270は、特徴領域の画像に含まれるオブジェクトの種類に関して予め定められた値より高い相関を有する複数の特徴領域の中から、代表特徴領域を決定してよい。また、代表特徴領域決定部270は、特徴領域の画像に含まれるオブジェクトの形状に関して予め定められた値より高い相関を有する複数の特徴領域の中から、代表特徴領域を決定してよい。また、代表特徴領域決定部270は、特徴領域の画像に含まれる色に関して予め定められた値より高い相関を有する複数の特徴領域の中から、代表特徴領域を決定してよい。   In addition, the representative feature region determination unit 270 may determine the representative feature region based on another correlation value calculated by the correlation calculation unit 260. For example, the representative feature region determination unit 270 may determine a representative feature region from among a plurality of feature regions having a correlation higher than a predetermined value with respect to the type of object included in the feature region image. The representative feature region determination unit 270 may determine a representative feature region from among a plurality of feature regions having a correlation higher than a predetermined value with respect to the shape of the object included in the feature region image. Further, the representative feature region determination unit 270 may determine a representative feature region from among a plurality of feature regions having a correlation higher than a predetermined value with respect to colors included in the image of the feature region.

また、代表特徴領域決定部270は、特徴領域の形状に関して予め定められた値より高い相関を有する複数の特徴領域の中から、代表特徴領域を決定してもよい。また、代表特徴領域決定部270は、特徴領域の大きさに関して予め定められた値より高い相関を有する複数の特徴領域の中から、代表特徴領域を決定してもよい。   Further, the representative feature region determination unit 270 may determine the representative feature region from among a plurality of feature regions having a correlation higher than a predetermined value with respect to the shape of the feature region. Further, the representative feature region determination unit 270 may determine a representative feature region from among a plurality of feature regions having a correlation higher than a predetermined value with respect to the size of the feature region.

また、代表特徴領域決定部270は、特徴領域の位置に関して予め定められた値より高い相関を有する複数の特徴領域の中から、代表特徴領域を決定してもよい。具体的には、代表特徴領域決定部270は、特徴領域の位置の変化に関して予め定められた値より高い相関を有する複数の特徴領域の中から、代表特徴領域を決定してよい。より具体的には、代表特徴領域決定部270は、特徴領域の位置の移動方向に関して予め定められた値より高い相関を有する複数の特徴領域の中から、代表特徴領域を決定してよい。他にも、代表特徴領域決定部270は、特徴領域の位置の移動速度に関して予め定められた値より高い相関を有する複数の特徴領域の中から、代表特徴領域を決定してもよい。   Further, the representative feature region determination unit 270 may determine the representative feature region from among a plurality of feature regions having a correlation higher than a predetermined value with respect to the position of the feature region. Specifically, the representative feature region determination unit 270 may determine a representative feature region from among a plurality of feature regions having a correlation higher than a predetermined value with respect to a change in the position of the feature region. More specifically, the representative feature region determination unit 270 may determine a representative feature region from a plurality of feature regions having a correlation higher than a predetermined value with respect to the moving direction of the feature region position. In addition, the representative feature region determination unit 270 may determine the representative feature region from a plurality of feature regions having a correlation higher than a predetermined value with respect to the moving speed of the position of the feature region.

圧縮制御部210は、特徴領域検出部203から取得した特徴領域を示す情報に基づいて、特徴領域に応じて圧縮部230による動画の圧縮処理を制御する。圧縮部230は、特徴領域検出部203により検出された特徴領域以外の領域の画質を低減することによって、複数の撮像画像を圧縮する。なお、圧縮部230は、圧縮された複数の撮像画像を複数含む圧縮動画を生成する。なお、圧縮部230のより具体的な圧縮動作については、後に説明する。   The compression control unit 210 controls the compression processing of the moving image by the compression unit 230 according to the feature region based on the information indicating the feature region acquired from the feature region detection unit 203. The compression unit 230 compresses a plurality of captured images by reducing the image quality of regions other than the feature region detected by the feature region detection unit 203. Note that the compression unit 230 generates a compressed moving image including a plurality of compressed captured images. A more specific compression operation of the compression unit 230 will be described later.

対応付け処理部206は、撮像画像から検出された特徴領域を特定する情報および代表特徴領域決定部270によって決定された代表特徴領域を特定する情報を、撮像画像に対応づける。具体的には、対応付け処理部206は、撮像画像から検出された特徴領域を特定する情報および代表特徴領域決定部270によって決定された代表特徴領域を特定する情報を、撮像画像を動画構成画像として含む圧縮動画に対応づける。そして、出力部207は、対応付け処理部206によって特徴領域が対応付けされた圧縮動画を、画像処理装置170に出力する。   The association processing unit 206 associates the information specifying the feature region detected from the captured image and the information specifying the representative feature region determined by the representative feature region determining unit 270 with the captured image. Specifically, the association processing unit 206 uses information for specifying the feature region detected from the captured image and information for specifying the representative feature region determined by the representative feature region determining unit 270, and the captured image as a moving image constituent image. Corresponding to the compressed video included. Then, the output unit 207 outputs the compressed moving image in which the feature area is associated by the association processing unit 206 to the image processing apparatus 170.

このように、出力部207は、代表特徴領域を特定する情報である代表特徴領域情報を、予め定められた値より高い相関を有する複数の特徴領域を有する複数の撮像画像に対応づけて出力する。これにより、画像処理装置170において、所定の条件に適合する代表特徴領域を識別する情報が対応づけられた撮像画像を速やかに選択することができる。   As described above, the output unit 207 outputs representative feature region information, which is information for specifying a representative feature region, in association with a plurality of captured images having a plurality of feature regions having a correlation higher than a predetermined value. . Accordingly, the image processing apparatus 170 can quickly select a captured image associated with information for identifying a representative feature region that meets a predetermined condition.

図3は、圧縮部230のブロック構成の一例を示す。圧縮部230は、画像分割部232、複数の固定値化部234a−c(以下、固定値化部234と総称する場合がある。)、および複数の圧縮処理部236a−d(以下、圧縮処理部236と総称する場合がある。)を有する。   FIG. 3 shows an example of a block configuration of the compression unit 230. The compression unit 230 includes an image dividing unit 232, a plurality of fixed value conversion units 234a-c (hereinafter may be collectively referred to as a fixed value conversion unit 234), and a plurality of compression processing units 236a-d (hereinafter referred to as compression processing). Part 236 in some cases).

画像分割部232は、画像取得部250から複数の撮像画像を取得する。そして、画像分割部232は、複数の撮像画像を、特徴領域と、特徴領域以外の背景領域とに分割する。具体的には、画像分割部232は、複数の撮像画像を、複数の特徴領域のそれぞれと、特徴領域以外の背景領域とに分割する。このように、画像分割部232は、複数の撮像画像のそれぞれを、特徴領域と背景領域とに分割する。そして、圧縮処理部236は、特徴領域の画像である特徴領域画像と背景領域の画像である背景領域画像とを、それぞれ異なる強度で圧縮する。具体的には、圧縮処理部236は、特徴領域画像を複数含む特徴領域動画と背景領域画像を複数含む背景領域動画とを、それぞれ異なる強度で圧縮する。   The image dividing unit 232 acquires a plurality of captured images from the image acquisition unit 250. Then, the image dividing unit 232 divides the plurality of captured images into a feature region and a background region other than the feature region. Specifically, the image dividing unit 232 divides the plurality of captured images into each of a plurality of feature areas and a background area other than the feature areas. As described above, the image dividing unit 232 divides each of the plurality of captured images into the feature region and the background region. Then, the compression processing unit 236 compresses the feature region image, which is the feature region image, and the background region image, which is the background region image, with different strengths. Specifically, the compression processing unit 236 compresses a feature area moving image including a plurality of feature area images and a background area moving image including a plurality of background area images with different strengths.

具体的には、画像分割部232は、複数の撮像画像を分割することにより、複数の特徴の種類毎に特徴領域動画を生成する。そして、固定値化部234は、特徴の種類毎に生成された複数の特徴領域動画に含まれる特徴領域画像のそれぞれについて、それぞれの特徴の種類の特徴領域以外の領域の画素値を固定値化する。具体的には、固定値化部234は、特徴領域以外の領域の画素値を予め定められた画素値にする。そして、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画をMPEG圧縮する。   Specifically, the image dividing unit 232 generates a feature area moving image for each of a plurality of feature types by dividing a plurality of captured images. Then, the fixed value unit 234 fixes the pixel values of the regions other than the feature regions of the respective feature types for each of the feature region images included in the plurality of feature region moving images generated for each feature type. To do. Specifically, the fixed value converting unit 234 sets pixel values in regions other than the feature region to predetermined pixel values. Then, the compression processing unit 236 compresses a plurality of feature area moving images for each feature type. For example, the compression processing unit 236 performs MPEG compression on a plurality of feature area moving images for each feature type.

固定値化部234a、固定値化部234b、および固定値化部234cは、それぞれ第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、および第3の特徴の種類の特徴領域動画を固定値化する。そして、圧縮処理部236a、圧縮処理部236b、および圧縮処理部236cは、第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、および第3の特徴の種類の特徴領域動画を圧縮する。   The fixed value unit 234a, the fixed value unit 234b, and the fixed value unit 234c are a feature region moving image of the first feature type, a feature region moving image of the second feature type, and a third feature type, respectively. The feature area video of is fixed. Then, the compression processing unit 236a, the compression processing unit 236b, and the compression processing unit 236c are the feature region moving image of the first feature type, the feature region moving image of the second feature type, and the feature of the third feature type. Compress area video.

なお、圧縮処理部236a−cは、特徴の種類に応じて予め定められた強度で特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類に応じて予め定められた異なる解像度に特徴領域動画を変換して、変換した特徴領域動画を圧縮してよい。他にも、圧縮処理部236は、MPEG符号化により特徴領域動画を圧縮する場合には、特徴の種類に応じて予め定められた異なる量子化パラメータで特徴領域動画を圧縮してよい。   Note that the compression processing units 236a-c compress the feature area moving image with a predetermined strength according to the type of feature. For example, the compression processing unit 236 may convert the feature area moving image to a different resolution determined in advance according to the type of the feature, and compress the converted feature area moving image. In addition, when compressing the feature region moving image by MPEG encoding, the compression processing unit 236 may compress the feature region moving image with different quantization parameters determined in advance according to the feature type.

なお、圧縮処理部236dは、背景領域動画を圧縮する。なお、圧縮処理部236dは、圧縮処理部236a−cのいずれによる強度より高い強度で背景領域動画を圧縮してよい。圧縮処理部236によって圧縮された特徴領域動画および背景領域動画は、対応付け処理部206に供給される。   The compression processing unit 236d compresses the background area moving image. Note that the compression processing unit 236d may compress the background region moving image with a strength higher than the strength of any of the compression processing units 236a-c. The feature area moving image and the background area moving image compressed by the compression processing unit 236 are supplied to the association processing unit 206.

なお、特徴領域以外の領域が固定値化部234によって固定値化されているので、圧縮処理部236がMPEG符号化等によって予測符号化する場合に、特徴領域以外の領域において予測画像との間の画像の差分量を著しく低減することができる。したがって、特徴領域動画の圧縮率を著しく高めることができる。   Since regions other than the feature region have been fixed values by the fixed value unit 234, when the compression processing unit 236 performs predictive encoding by MPEG encoding or the like, the region other than the feature region may be connected to the predicted image. The amount of difference between the images can be significantly reduced. Therefore, the compression rate of the feature area moving image can be significantly increased.

図4は、画像処理装置170のブロック構成の一例を示す。画像処理装置170は、圧縮画像取得部301、対応付け解析部302、伸張制御部310、伸張部320、合成部330、出力部340、検索指示取得部350、動画構成画像検索部360、および動画出力部370を備える。   FIG. 4 shows an example of a block configuration of the image processing apparatus 170. The image processing apparatus 170 includes a compressed image acquisition unit 301, an association analysis unit 302, an expansion control unit 310, an expansion unit 320, a synthesis unit 330, an output unit 340, a search instruction acquisition unit 350, a moving image configuration image search unit 360, and a moving image An output unit 370 is provided.

圧縮画像取得部301は、圧縮部230により圧縮された撮像画像を含む圧縮動画を取得する。具体的には、圧縮画像取得部301は、複数の特徴領域動画および背景領域動画を含む圧縮動画を取得する。より具体的には、圧縮画像取得部301は、特徴領域情報が付帯された圧縮動画を取得する。   The compressed image acquisition unit 301 acquires a compressed moving image including the captured image compressed by the compression unit 230. Specifically, the compressed image acquisition unit 301 acquires a compressed moving image including a plurality of feature area moving images and a background area moving image. More specifically, the compressed image acquisition unit 301 acquires a compressed moving image with feature area information attached thereto.

そして、対応付け解析部302は、複数の特徴領域動画および背景領域動画と特徴領域情報とに分離して、複数の特徴領域動画および背景領域動画を伸張部320に供給する。また、対応付け解析部302は、特徴領域情報を解析して、特徴領域の位置および特徴の種類を伸張制御部310に供給する。伸張制御部310は、対応付け解析部302から取得した特徴領域の位置および特徴の種類に応じて、伸張部320による伸張処理を制御する。例えば、伸張制御部310は、特徴領域の位置および特徴の種類に応じて圧縮部230が動画の各領域を圧縮した圧縮方式に応じて、伸張部320に圧縮動画が示す動画の各領域を伸張させる。   Then, the association analysis unit 302 separates the plurality of feature area videos and background area videos and feature area information, and supplies the plurality of feature area videos and background area videos to the decompression unit 320. The association analysis unit 302 also analyzes the feature region information and supplies the feature region position and the feature type to the extension control unit 310. The decompression control unit 310 controls the decompression processing by the decompression unit 320 according to the position of the feature region and the feature type acquired from the association analysis unit 302. For example, the decompression control unit 310 decompresses each region of the moving image indicated by the compressed moving image to the decompressing unit 320 according to the compression method in which the compression unit 230 compresses each region of the moving image according to the position of the feature region and the type of feature. Let

以下に、伸張部320が有する各構成要素の動作を説明する。伸張部320は、複数の復号器322a−d(以下、復号器322と総称する。)を有する。復号器322は、符号化された複数の特徴領域動画および背景領域動画のいずれかを復号する。具体的には、復号器322a、復号器322b、復号器322c、および復号器322dは、それぞれ第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画を復号する。   Hereinafter, the operation of each component included in the extension unit 320 will be described. The decompression unit 320 includes a plurality of decoders 322a-d (hereinafter collectively referred to as decoders 322). The decoder 322 decodes one of the plurality of encoded characteristic area moving images and background area moving images. Specifically, the decoder 322a, the decoder 322b, the decoder 322c, and the decoder 322d decode the first feature region moving image, the second feature region moving image, the third feature region moving image, and the background region moving image, respectively.

合成部330は、伸張部320によって伸張された複数の特徴領域動画および背景領域動画を合成して、一の表示動画を生成する。具体的には、合成部330は、背景領域動画に含まれる撮像画像に、複数の特徴領域動画に含まれる撮像画像上の特徴領域の画像を合成することによって、一の表示動画を生成する。出力部340は、対応付け解析部302から取得した特徴領域情報および表示動画を表示装置180または画像DB175に出力する。なお、画像DB175は、特徴領域情報が示す特徴領域の位置、特徴領域の特徴の種類、特徴領域の数を、表示動画に含まれる撮像画像を識別する情報に対応づけて、ハードディスク等の不揮発性の記録媒体に記録してよい。   The synthesizing unit 330 synthesizes a plurality of feature area moving images and background area moving images expanded by the expanding unit 320 to generate one display moving image. Specifically, the combining unit 330 generates one display moving image by combining the image of the feature region on the captured image included in the plurality of feature region moving images with the captured image included in the background region moving image. The output unit 340 outputs the feature area information and the display moving image acquired from the association analysis unit 302 to the display device 180 or the image DB 175. The image DB 175 associates the position of the feature region indicated by the feature region information, the feature type of the feature region, and the number of feature regions with the information for identifying the captured image included in the display moving image, and the non-volatile memory such as a hard disk. May be recorded on the recording medium.

検索指示取得部350は、撮像画像を検索すべき旨の指示を取得する。例えば、監視者による監視者端末の操作により、表示すべき特徴領域である代表特徴領域を識別する識別情報が、監視者端末から画像処理装置170に送信される。検索指示取得部350は、監視者端末から送信された代表特徴領域を識別する識別情報を取得する。このように、検索指示取得部350は、監視者からの検索指示によって示される代表特徴領域が適合すべき条件を、動画構成画像検索部360に供給する。   The search instruction acquisition unit 350 acquires an instruction to search for a captured image. For example, identification information for identifying a representative feature area that is a feature area to be displayed is transmitted from the monitor terminal to the image processing apparatus 170 by an operation of the monitor terminal by the monitor. The search instruction acquisition unit 350 acquires identification information for identifying the representative feature area transmitted from the supervisor terminal. In this way, the search instruction acquisition unit 350 supplies the moving image constituent image search unit 360 with conditions to which the representative feature region indicated by the search instruction from the supervisor should be matched.

そして、動画構成画像検索部360は、検索指示取得部350から供給された条件に適合する代表特徴領域を示す代表特徴領域に対応づけられた複数の撮像画像を検索する。このように、動画構成画像検索部360は、出力部207から出力された複数の撮像画像のうち、所定の条件に適合する代表特徴領域を示す代表特徴領域情報に対応づけられた複数の撮像画像を検索する。   Then, the moving image constituent image search unit 360 searches for a plurality of captured images associated with the representative feature region indicating the representative feature region that matches the condition supplied from the search instruction acquisition unit 350. As described above, the moving image configuration image search unit 360 includes a plurality of captured images associated with representative feature region information indicating a representative feature region that satisfies a predetermined condition among the plurality of captured images output from the output unit 207. Search for.

動画出力部370は、動画構成画像検索部360により検索された複数の撮像画像を含む動画を出力する。具体的には、動画出力部370は、動画構成画像検索部360により検索された、複数の動画に含まれる複数の撮像画像を含む動画を出力する。なお、動画出力部370は、それら複数の撮像画像を含む動画を、表示装置180に表示させる。   The moving image output unit 370 outputs a moving image including a plurality of captured images searched by the moving image constituent image search unit 360. Specifically, the moving image output unit 370 outputs a moving image including a plurality of captured images included in the plurality of moving images searched by the moving image configuration image search unit 360. Note that the moving image output unit 370 causes the display device 180 to display a moving image including the plurality of captured images.

図5は、圧縮部230の他のブロック構成の一例を示す。本構成における圧縮部230は、特徴の種類に応じた空間スケーラブルな符号化処理によって複数の撮像画像を圧縮する。   FIG. 5 shows an example of another block configuration of the compression unit 230. The compression unit 230 in this configuration compresses a plurality of captured images by a spatial scalable encoding process corresponding to the type of feature.

本構成における圧縮部230は、画質変換部510、差分処理部520、および符号化部530を有する。差分処理部520は、複数の階層間差分処理部522a−d(以下、階層間差分処理部522と総称する。)を含む。符号化部530は、複数の符号器532a−d(以下、符号器532と総称する。)を含む。   The compression unit 230 in this configuration includes an image quality conversion unit 510, a difference processing unit 520, and an encoding unit 530. The difference processing unit 520 includes a plurality of inter-layer difference processing units 522a-d (hereinafter collectively referred to as inter-layer difference processing units 522). Encoding section 530 includes a plurality of encoders 532a-d (hereinafter collectively referred to as encoders 532).

画質変換部510は、画像取得部250から複数の撮像画像を取得する。また、画質変換部510は、特徴領域検出部203が検出した特徴領域を特定する情報および特徴領域の特徴の種類を特定する情報を取得する。そして、画質変換部510は、撮像画像を複製することにより、特徴領域の特徴の種類の数の撮像画像を生成する。そして、画質変換部510は、生成した撮像画像を、特徴の種類に応じた解像度の画像に変換する。   The image quality conversion unit 510 acquires a plurality of captured images from the image acquisition unit 250. In addition, the image quality conversion unit 510 acquires information specifying the feature region detected by the feature region detection unit 203 and information specifying the type of feature in the feature region. Then, the image quality conversion unit 510 duplicates the captured image, and generates captured images of the number of types of features in the feature area. Then, the image quality conversion unit 510 converts the generated captured image into an image having a resolution corresponding to the type of feature.

例えば、画質変換部510は、背景領域に応じた解像度に変換された撮像画像(以後、低解像度画像と呼ぶ。)、第1の特徴の種類に応じた第1解像度に変換された撮像画像(第1解像度画像と呼ぶ。)、第2の特徴の種類に応じた第2解像度に変換された撮像画像(第2解像度画像と呼ぶ。)、および第3の特徴の種類に応じた第3解像度に変換された撮像画像(第3解像度画像と呼ぶ。)を生成する。なお、ここでは、第1解像度画像は低解像度画像より解像度が高く、第2解像度画像は第1解像度画像より解像度が高く、第3解像度画像は第2解像度画像より解像度が高いとする。   For example, the image quality conversion unit 510 has a captured image converted to a resolution corresponding to the background area (hereinafter referred to as a low resolution image), and a captured image converted to the first resolution corresponding to the type of the first feature ( Called a first resolution image), a captured image converted to a second resolution corresponding to the second feature type (referred to as a second resolution image), and a third resolution corresponding to the third feature type. A captured image (referred to as a third resolution image) converted to is generated. Here, it is assumed that the first resolution image has a higher resolution than the low resolution image, the second resolution image has a higher resolution than the first resolution image, and the third resolution image has a higher resolution than the second resolution image.

そして、画質変換部510は、低解像度画像、第1解像度画像、第2解像度画像、および第3解像度画像を、それぞれ階層間差分処理部522d、階層間差分処理部522a、階層間差分処理部522b、および階層間差分処理部522cに供給する。なお、画質変換部510は、複数の撮像画像のそれぞれについて上記の画質変換処理することにより、階層間差分処理部522のそれぞれに動画を供給する。   Then, the image quality conversion unit 510 converts the low resolution image, the first resolution image, the second resolution image, and the third resolution image into the inter-layer difference processing unit 522d, the inter-layer difference processing unit 522a, and the inter-layer difference processing unit 522b, respectively. And to the inter-layer difference processing unit 522c. The image quality conversion unit 510 supplies a moving image to each of the inter-layer difference processing units 522 by performing the above-described image quality conversion processing on each of the plurality of captured images.

なお、画質変換部510は、特徴領域の特徴の種類に応じて、階層間差分処理部522のそれぞれに供給する動画のフレームレートを変換してよい。例えば、画質変換部510は、階層間差分処理部522aに供給する動画より低いフレームレートの動画を階層間差分処理部522dに供給してよい。また、画質変換部510は、階層間差分処理部522bに供給する動画より低いフレームレートの動画を階層間差分処理部522aに供給してよく、階層間差分処理部522cに供給する動画より低いフレームレートの動画を階層間差分処理部522bに供給してよい。なお、画質変換部510は、特徴領域の特徴の種類に応じて撮像画像を間引くことによって、階層間差分処理部522に供給する動画のフレームレートを変換してよい。   Note that the image quality conversion unit 510 may convert the frame rate of the moving image supplied to each of the inter-layer difference processing unit 522 in accordance with the feature type of the feature region. For example, the image quality conversion unit 510 may supply, to the inter-layer difference processing unit 522d, a moving image having a lower frame rate than the moving image supplied to the inter-layer difference processing unit 522a. In addition, the image quality conversion unit 510 may supply a moving image having a lower frame rate than the moving image supplied to the inter-layer difference processing unit 522b to the inter-layer difference processing unit 522a, and a frame lower than the moving image supplied to the inter-layer difference processing unit 522c. The rate movie may be supplied to the inter-tier difference processing unit 522b. Note that the image quality conversion unit 510 may convert the frame rate of the moving image supplied to the inter-layer difference processing unit 522 by thinning out the captured image according to the feature type of the feature region.

階層間差分処理部522dおよび符号器532dは、複数の低解像度画像を含む背景領域動画を予測符号化する。具体的には、階層間差分処理部522は、他の低解像度画像から生成された予測画像との差分画像を生成する。そして、符号器532dは、差分画像を空間周波数成分に変換して得られた変換係数を量子化して、量子化された変換係数をエントロピー符号化等により符号化する。なお、このような予測符号化処理は、低解像度画像の部分領域毎に行われてよい。   The inter-layer difference processing unit 522d and the encoder 532d predictively encode a background area moving image including a plurality of low-resolution images. Specifically, the inter-layer difference processing unit 522 generates a difference image from a predicted image generated from another low-resolution image. Then, the encoder 532d quantizes the transform coefficient obtained by converting the difference image into a spatial frequency component, and encodes the quantized transform coefficient by entropy coding or the like. Note that such predictive encoding processing may be performed for each partial region of the low-resolution image.

また、階層間差分処理部522aは、画質変換部510から供給された複数の第1解像度画像を含む第1特徴領域動画を予測符号化する。同様に、階層間差分処理部522bおよび階層間差分処理部522cは、それぞれ複数の第2解像度画像を含む第2特徴領域動画および複数の第3解像度画像を含む第3特徴領域動画を予測符号化する。以下に、階層間差分処理部522aおよび符号器532aの具体的な動作について説明する。   Further, the inter-layer difference processing unit 522a predictively encodes the first feature region moving image including the plurality of first resolution images supplied from the image quality conversion unit 510. Similarly, the inter-layer difference processing unit 522b and the inter-layer difference processing unit 522c each predictively encode a second feature area moving image including a plurality of second resolution images and a third feature area moving image including a plurality of third resolution images. To do. Hereinafter, specific operations of the inter-layer difference processing unit 522a and the encoder 532a will be described.

階層間差分処理部522aは、符号器532dによる符号化後の第1解像度画像を復号して、復号した画像を第1解像度と同じ解像度の画像に拡大する。そして、階層間差分処理部522aは、拡大した画像と低解像度画像との間の差分画像を生成する。このとき、階層間差分処理部522aは、背景領域における差分値を0にする。そして、符号器532aは、差分画像を符号器532dと同様に符号化する。なお、階層間差分処理部522aおよび符号器532aによる符号化処理は、第1解像度画像の部分領域毎にされてよい。   The inter-layer difference processing unit 522a decodes the first resolution image encoded by the encoder 532d, and expands the decoded image to an image having the same resolution as the first resolution. Then, the inter-layer difference processing unit 522a generates a difference image between the enlarged image and the low resolution image. At this time, the inter-layer difference processing unit 522a sets the difference value in the background area to zero. Then, the encoder 532a encodes the difference image in the same manner as the encoder 532d. Note that the encoding processing by the inter-layer difference processing unit 522a and the encoder 532a may be performed for each partial region of the first resolution image.

なお、階層間差分処理部522aは、第1解像度画像を符号化する場合に、低解像度画像との間の差分画像を符号化した場合に予測される符号量と、他の第1解像度画像から生成された予測画像との間の差分画像を符号化した場合に予測される符号量とを比較する。後者の符号量の方が小さい場合には、階層間差分処理部522aは、他の第1解像度画像から生成された予測画像との間の差分画像を生成する。なお、階層間差分処理部522aは、低解像度画像または予測画像との差分をとらずに符号化した方が符号量が小さくなることが予測される場合には、低解像度画像または予測画像との間で差分をとらなくてもよい。   Note that, when the first resolution image is encoded, the inter-layer difference processing unit 522a calculates the code amount predicted when the difference image with the low resolution image is encoded, and the other first resolution image. The amount of code predicted when the difference image between the generated prediction image and the prediction image is encoded is compared. In the case where the latter code amount is smaller, the inter-layer difference processing unit 522a generates a difference image from the predicted image generated from the other first resolution image. In addition, the inter-layer difference processing unit 522a, when it is predicted that the code amount is smaller when encoded without taking the difference from the low-resolution image or the predicted image, It is not necessary to take a difference between them.

なお、階層間差分処理部522aは、背景領域における差分値を0にしなくてもよい。この場合、符号器532aは、特徴領域以外の領域における差分情報に対する符号化後のデータを0にしてもよい。例えば、符号器532aは、周波数成分に変換した後の変換係数を0にしてよい。なお、階層間差分処理部522dが予測符号化した場合の動きベクトル情報は、階層間差分処理部522aに供給される。階層間差分処理部522aは、階層間差分処理部522dから供給された動きベクトル情報を用いて、予測画像用の動きベクトルを算出してよい。   Note that the inter-layer difference processing unit 522a does not have to set the difference value in the background area to zero. In this case, the encoder 532a may set the encoded data for difference information in an area other than the feature area to zero. For example, the encoder 532a may set the conversion coefficient after conversion to a frequency component to zero. Note that the motion vector information when the inter-layer difference processing unit 522d performs predictive encoding is supplied to the inter-layer difference processing unit 522a. The inter-layer difference processing unit 522a may calculate a motion vector for a predicted image using the motion vector information supplied from the inter-layer difference processing unit 522d.

なお、階層間差分処理部522bおよび符号器532bの動作は、第2解像度画像を符号化するという点、および第2解像度画像を符号化する場合に、符号器532aによる符号化後の第1解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522bおよび符号器532bの動作は階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。同様に、階層間差分処理部522cおよび符号器532cの動作は、第3解像度画像を符号化するという点、および第3解像度画像を符号化を符号化する場合に、符号器532bによる符号化後の第2解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。   Note that the operations of the inter-layer difference processing unit 522b and the encoder 532b are that the second resolution image is encoded, and the first resolution after encoding by the encoder 532a when the second resolution image is encoded. The operations of the inter-layer difference processing unit 522b and the encoder 532b are substantially the same as the operations of the inter-layer difference processing unit 522a and the encoder 532a, except that the difference from the image may be taken. To do. Similarly, the operations of the inter-layer difference processing unit 522c and the encoder 532c are that the third resolution image is encoded, and when the third resolution image is encoded, after the encoding by the encoder 532b. Except for the fact that a difference from the second resolution image may be obtained, the operation is substantially the same as the operation of the inter-layer difference processing unit 522a and the encoder 532a, and thus the description thereof is omitted.

以上説明したように、画質変換部510は、複数の撮像画像のそれぞれから、画質を低画質にした低画質画像、および少なくとも特徴領域において低画質画像より高画質な特徴領域画像を生成する。そして、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像との間の差分画像を示す特徴領域差分画像を生成する。そして、符号化部530は、特徴領域差分画像および低画質画像をそれぞれ符号化する。   As described above, the image quality conversion unit 510 generates, from each of the plurality of captured images, a low image quality image with a low image quality and a feature region image with higher image quality than the low image quality at least in the feature region. Then, the difference processing unit 520 generates a feature region difference image indicating a difference image between the feature region image in the feature region image and the feature region image in the low-quality image. Then, the encoding unit 530 encodes the feature region difference image and the low quality image.

また、画質変換部510は、複数の撮像画像から解像度が低減された低画質画像を生成して、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像を拡大した画像との間の特徴領域差分画像を生成する。また、差分処理部520は、特徴領域において特徴領域画像と拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、特徴領域以外の領域において空間周波数成分のデータ量が低減された特徴領域差分画像を生成する。   In addition, the image quality conversion unit 510 generates a low-quality image with reduced resolution from a plurality of captured images, and the difference processing unit 520 includes a feature region image in the feature region image and a feature region image in the low-quality image. A feature region difference image between the image and the image enlarged is generated. Further, the difference processing unit 520 has a spatial frequency component in which the difference between the feature region image and the enlarged image in the feature region is converted into the spatial frequency region, and the data amount of the spatial frequency component is in the region other than the feature region. A reduced feature area difference image is generated.

以上説明したように、圧縮部230は、解像度が異なる複数の階層間の画像の差分を符号化することによって階層的に符号化する。このことからも明らかなように、本構成の圧縮部230による圧縮方式の一部は、H.264/SVCによる圧縮方式を含むことが明らかである。なお、画像処理装置170がこのような階層化された圧縮動画を伸張する場合には、各階層の動画データを復号して、階層間差分により符号化されている領域については、差分がとられた階層で復号された撮像画像との加算処理により、元の解像度の撮像画像を生成することができる。   As described above, the compression unit 230 performs hierarchical encoding by encoding image differences between a plurality of layers having different resolutions. As is clear from this, a part of the compression method by the compression unit 230 of this configuration is H.264. It is clear that a compression scheme according to H.264 / SVC is included. Note that when the image processing apparatus 170 decompresses such a layered compressed moving image, the moving image data of each layer is decoded, and the difference is taken for the region encoded by the inter-layer difference. The captured image having the original resolution can be generated by the addition process with the captured image decoded in the hierarchy.

図6は、異なる撮像装置100から得られた動画の一例を示す。なお、動画Aは、撮像装置100aにより得られた動画であり、動画Bは、撮像装置100bにより得られた動画であるとする。   FIG. 6 shows an example of moving images obtained from different imaging devices 100. Note that the moving image A is a moving image obtained by the imaging device 100a, and the moving image B is a moving image obtained by the imaging device 100b.

動画Aは複数の撮像画像601a−fを動画構成画像として含む。特徴領域検出部203は、撮像画像601a−cから、それぞれ特徴領域611a−cを検出している。なお、動画Bは複数の撮像画像602a−fを動画構成画像として含む。特徴領域検出部203は、撮像画像602a−fから、それぞれ特徴領域612a−fを検出している。   The moving image A includes a plurality of captured images 601a-f as moving image constituent images. The feature region detection unit 203 detects feature regions 611a-c from the captured images 601a-c, respectively. Note that the moving image B includes a plurality of captured images 602a-f as moving image constituent images. The feature region detection unit 203 detects feature regions 612a-f from the captured images 602a-f, respectively.

特徴領域情報格納部220は、特徴領域611a−cの画像および特徴領域612a−fの画像を、予め定められた時間長さの期間だけ記憶する。そして、相関算出部260は、特徴領域情報格納部220に記憶されている特徴領域の相関値を算出する。相関算出部260は、撮像装置100aおよび撮像装置100bのそれぞれが設けられた位置、および、撮像装置100aおよび撮像装置100bのそれぞれの撮像方向、撮像画像601における特徴領域611の位置、ならびに撮像画像601における特徴領域612の位置に基づき、特徴領域の相関値を算出する。   The feature region information storage unit 220 stores the images of the feature regions 611a-c and the images of the feature regions 612a-f for a predetermined time length. Then, the correlation calculation unit 260 calculates the correlation value of the feature region stored in the feature region information storage unit 220. The correlation calculation unit 260 includes the positions where the imaging device 100a and the imaging device 100b are provided, the imaging directions of the imaging device 100a and the imaging device 100b, the position of the feature region 611 in the captured image 601, and the captured image 601. The correlation value of the feature region is calculated based on the position of the feature region 612 in FIG.

例えば、相関算出部260は、同じ被写体が撮像された被写体像が存在すべき撮像画像上の位置を含む特徴領域の間の相関値を、予め定められた値より高く算出してよい。例えば、撮像画像601aおよび撮像画像602aが略同一のタイミングで撮像されており、特徴領域611aに撮像される実空間上の領域と、特徴領域612aに撮像される実空間上の領域とが、略同一領域である場合に、特徴領域611aと特徴領域612aとの間の相関値として、予め定められた値より高い相関値を算出してよい。同様のことは、特徴領域611bと特徴領域612b、ならびに、特徴領域611cと特徴領域612cについても言える。   For example, the correlation calculation unit 260 may calculate a correlation value between feature regions including a position on a captured image where a subject image where the same subject is captured should be higher than a predetermined value. For example, the picked-up image 601a and the picked-up image 602a are picked up at substantially the same timing, and the region in the real space picked up in the feature region 611a and the region in the real space picked up in the feature region 612a are substantially the same. In the case of the same region, a correlation value higher than a predetermined value may be calculated as the correlation value between the feature region 611a and the feature region 612a. The same applies to the feature region 611b and the feature region 612b, and the feature region 611c and the feature region 612c.

また、相関算出部260は、特徴領域611a−cについては、オブジェクト形状または色の一致度が予め定められた値より大きい。このため、相関算出部260は、特徴領域611a−cの間の相関値として、予め定められた値より高い相関値を算出する。また、相関算出部260は、特徴領域612a−fについては、特徴領域612の大きさの一致度、特徴領域612の動き方向の一致度、および特徴領域612の動き速度の一致度のいずれかが予め定められた値より大きい。したがって、相関算出部260は、特徴領域612a−fの相関値として、予め定められた値より高い相関値を算出する。   In addition, the correlation calculation unit 260 has an object shape or color matching degree larger than a predetermined value for the feature regions 611a-c. For this reason, the correlation calculation unit 260 calculates a correlation value higher than a predetermined value as the correlation value between the feature regions 611a-c. In addition, for the feature regions 612a-f, the correlation calculation unit 260 selects one of the size matching degree of the feature region 612, the matching degree of the motion direction of the feature region 612, and the matching speed of the motion speed of the feature region 612. Greater than a predetermined value. Therefore, the correlation calculation unit 260 calculates a correlation value higher than a predetermined value as the correlation value of the feature region 612a-f.

以上のようにして、相関算出部260は、特徴領域611a−cおよび特徴領域612a−fの間において、予め定められた値より高い相関値を算出した。そして、代表特徴領域決定部270は、特徴領域611a−cおよび特徴領域612a−fの中から、顔全体が正面から最も大きく撮像されている特徴領域611bを、代表特徴領域として決定する。そして、対応付け処理部206は、特徴領域611bが検出された撮像画像601bを識別する情報(例えば、後述するフレームID)、撮像画像601bが含まれる動画を識別する情報(例えば、後述する動画ID)、および撮像画像601bから検出された他の特徴領域(図示せず)から特徴領域611bを識別する情報(例えば、後述する特徴領域ID)を含む代表特徴領域情報を、特徴領域611a−cおよび特徴領域612a−fに付帯する。   As described above, the correlation calculation unit 260 calculates a correlation value higher than a predetermined value between the feature regions 611a-c and the feature regions 612a-f. Then, the representative feature region determination unit 270 determines, as the representative feature region, the feature region 611b in which the entire face is imaged most greatly from the front among the feature regions 611a-c and 612a-f. Then, the association processing unit 206 identifies information (for example, a frame ID described later) that identifies the captured image 601b in which the feature region 611b is detected, and information that identifies a moving image including the captured image 601b (for example, a moving image ID described later). ), And representative feature region information including information (for example, a feature region ID described later) for identifying the feature region 611b from other feature regions (not shown) detected from the captured image 601b, and feature regions 611a-c and Attached to the feature regions 612a-f.

なお、対応付け処理部206は、予め定められた値より高い相関を有する特徴領域が検出された撮像画像の中で、略同一のタイミングで撮像された撮像画像の中から予め定められた条件に適合する一の撮像画像を、代表特徴領域情報を付帯すべき撮像画像として選択してよい。そして、対応付け処理部206は、選択した撮像画像に当該代表特徴領域情報を付帯してよい。例えば、対応付け処理部206は、より正面から撮像されている特徴領域611a−cが検出された撮像画像601a−cに特徴領域情報を付帯して、特徴領域612a−cには特徴領域情報を付帯しなくてよい。   The association processing unit 206 satisfies a predetermined condition from among captured images captured at substantially the same timing among captured images in which feature regions having a correlation higher than a predetermined value are detected. One suitable captured image may be selected as a captured image to which the representative feature region information is to be attached. Then, the association processing unit 206 may attach the representative feature region information to the selected captured image. For example, the association processing unit 206 attaches the feature region information to the captured images 601a-c in which the feature regions 611a-c captured from the front are detected, and the feature region information 612a-c includes the feature region information. There is no need to attach it.

図7は、対応付け処理部206によって撮像画像に特徴領域情報が関連づけされた状態をテーブル形式で示す。対応付け処理部206は、撮像画像を識別する情報である動画IDおよびフレームIDに、当該撮像画像から検出された特徴領域の位置を示す情報を対応づける。なお、本図に示す動画IDがAである動画は、図6に関連して説明した動画Aであり、動画IDがBである動画は、図6に関連して説明した動画Bであるとする。   FIG. 7 shows a state in which feature area information is associated with a captured image by the association processing unit 206 in a table format. The association processing unit 206 associates information indicating the position of the feature region detected from the captured image with the moving image ID and the frame ID that are information for identifying the captured image. In addition, the moving image whose moving image ID is A shown in this drawing is the moving image A described with reference to FIG. 6, and the moving image whose moving image ID is B is the moving image B described with reference to FIG. To do.

また、動画Aおよび動画Bに含まれる撮像画像のそれぞれには、それぞれの撮像画像が撮像された順にフレームIDが与えられているとする。図6に関連して説明した撮像画像601a、撮像画像601b、および撮像画像601cには、フレームIDとしてそれぞれ#701、#702、および#703が与えられているとする。また、図6に関連して説明した撮像画像601d、撮像画像601e、および撮像画像601fには、フレームIDとしてそれぞれ#704、#705、および#706が与えられているとする。   In addition, it is assumed that the captured images included in the moving image A and the moving image B are given frame IDs in the order in which the captured images are captured. Assume that # 701, # 702, and # 703 are respectively given as frame IDs to the captured image 601a, the captured image 601b, and the captured image 601c described with reference to FIG. Assume that # 704, # 705, and # 706 are given as frame IDs to the captured image 601d, the captured image 601e, and the captured image 601f described with reference to FIG.

なお、特徴領域の位置を示す情報は、特徴領域の座標情報であってよい。例えば、特徴領域の位置を示す情報は、特徴領域が矩形である場合には、矩形の対角に位置する頂点の座標(例えば、本図における(x21,y21)および(x22,y22)など。)であってよい。なお、対応付け処理部206は、一の撮像画像から複数の特徴領域が検出された場合には、当該特徴領域を他の特徴領域から識別する情報(例えば、本図における#1など。)を特徴領域の位置に対応づけてよい。   Note that the information indicating the position of the feature region may be coordinate information of the feature region. For example, when the feature area is a rectangle, the information indicating the position of the feature area includes the coordinates of the vertices located on the diagonal of the rectangle (for example, (x21, y21) and (x22, y22 in this figure)). ). In addition, when a plurality of feature areas are detected from one captured image, the association processing unit 206 identifies information (for example, # 1 in the drawing) that identifies the feature areas from other feature areas. It may be associated with the position of the feature region.

また、対応付け処理部206はさらに、動画IDおよびフレームIDに、代表特徴領域情報の一例である代表IDを対応づける。代表IDは、一例として、代表特徴領域である特徴領域611bが検出された撮像画像のフレームID(#702)、当該撮像画像が含まれる動画ID(A)、および特徴領域611bの特徴領域ID(#1)を所定のフォーマットでフォーマットされて生成された文字列であってよい。   The association processing unit 206 further associates a representative ID, which is an example of representative feature area information, with the moving image ID and the frame ID. For example, the representative ID includes, as an example, a frame ID (# 702) of a captured image in which the feature region 611b, which is a representative feature region, is detected, a moving image ID (A) including the captured image, and a feature region ID of the feature region 611b ( It may be a character string generated by formatting # 1) in a predetermined format.

代表IDおよび特徴領域が検出された位置から、代表特徴領域として決定された特徴領域が検出された撮像画像を特定することができ、さらには当該特徴領域が検出された当該撮像画像における領域を特定することができる。なお、代表特徴領域情報は、本実施形態において代表特徴領域情報の一例として説明した代表IDに限定されない。代表特徴領域情報は、代表特徴領域として決定された特徴領域が検出された撮像画像がいずれの動画に含まれており、代表特徴領域として決定された特徴領域が当該撮像画像のいずれの領域に存在するかを特定することができる情報であればよい。   The captured image in which the feature area determined as the representative feature area is detected can be identified from the position where the representative ID and the feature area are detected, and further, the area in the captured image in which the feature area is detected is identified. can do. The representative feature area information is not limited to the representative ID described as an example of the representative feature area information in the present embodiment. The representative feature area information includes a captured image in which the feature area determined as the representative feature area is detected in any moving image, and the feature area determined as the representative feature area exists in any area of the captured image. Any information can be used as long as it can be specified.

図8は、表示装置180が表示する検索指示受付画面800の一例を示す。画像処理装置170は、代表画像801a−d(以後、代表画像801と総称する。)を含む検索指示受付画面800を、表示装置180に表示させる。代表画像801a−dは、代表特徴領域として決定された特徴領域が検出された撮像画像における、当該特徴領域の画像であってよい。   FIG. 8 shows an example of a search instruction reception screen 800 displayed on the display device 180. The image processing device 170 causes the display device 180 to display a search instruction reception screen 800 including representative images 801a-d (hereinafter collectively referred to as representative images 801). The representative images 801a-d may be images of the feature areas in the captured image in which the feature areas determined as the representative feature areas are detected.

監視者端末は、監視者による検索対象を指定する操作によって、検索指示受付画面800上の代表画像801のうち、検索対象となる代表画像801を識別する情報を取得する。監視者端末は、当該情報によって識別される代表画像801を識別する代表特徴領域情報を、画像処理装置170に送信する。検索指示取得部350は、当該代表特徴領域情報を取得して、動画構成画像検索部360に供給する。   The monitor terminal acquires information for identifying the representative image 801 to be searched among the representative images 801 on the search instruction reception screen 800 by an operation of designating the search target by the monitor. The supervisor terminal transmits representative feature region information for identifying the representative image 801 identified by the information to the image processing apparatus 170. The search instruction acquisition unit 350 acquires the representative feature area information and supplies it to the moving image constituent image search unit 360.

動画構成画像検索部360は、当該代表特徴領域情報が付帯されて画像DB175に記録されている撮像画像を選択する。例えば、動画構成画像検索部360は、代表画像801aが指定された場合には、撮像画像601a−cおよび撮像画像602d−fを選択する。   The moving image constituent image search unit 360 selects a captured image recorded in the image DB 175 with the representative feature region information attached thereto. For example, when the representative image 801a is designated, the moving image constituent image search unit 360 selects the captured images 601a-c and the captured images 602d-f.

図9は、表示装置180によって表示される代表特徴領域の動画を示す。動画出力部370は、動画構成画像検索部360によって選択された撮像画像601a−cおよび撮像画像602d−fを、図示されるように1ストリームの動画に変換して表示装置180に供給する。そして、表示装置180は、動画出力部370から供給された動画を表示する。   FIG. 9 shows a moving image of the representative feature area displayed by the display device 180. The moving image output unit 370 converts the captured images 601a-c and the captured images 602d-f selected by the moving image constituent image search unit 360 into a one-stream moving image as shown in the drawing and supplies the converted image to the display device 180. The display device 180 displays the moving image supplied from the moving image output unit 370.

図6から図9にかけて説明したように、画像処理システム10によると、複数の動画の中から相関の高いオブジェクトを含む撮像画像を、表示装置180に連続して表示することができる。これにより、異なる撮像装置100によって撮像された同一人物の画像を連続して表示装置180に表示させることができる。   As described with reference to FIGS. 6 to 9, according to the image processing system 10, captured images including objects with high correlation among a plurality of moving images can be continuously displayed on the display device 180. As a result, images of the same person imaged by different imaging devices 100 can be continuously displayed on the display device 180.

また、特定の撮像装置100で撮像された1の動画に含まれる複数の撮像画像の中から、同一人物が撮像された撮像画像を選択して表示することもできる。また、1の動画において相関が予め定められた値より高い複数の撮像画像の中から、より少数の撮像画像を選択して表示装置180に提供してもよい。このように、画像処理システム10によると、冗長なシーンをひとまとめにした映像を提供することができる。   Further, it is also possible to select and display a captured image obtained by capturing the same person from among a plurality of captured images included in one moving image captured by a specific image capturing apparatus 100. In addition, a smaller number of captured images may be selected from a plurality of captured images having a correlation higher than a predetermined value in one moving image and provided to the display device 180. Thus, according to the image processing system 10, it is possible to provide a video in which redundant scenes are grouped.

なお、上記の説明では、監視者端末から代表特徴領域情報が送信される場合を例に挙げて各構成要素の動作の一例を説明したが、監視者端末は、検索すべき撮像画像から検出された特徴領域の画像が適合すべき条件を、画像処理装置170に送信してよい。そして、動画構成画像検索部360は、当該条件に適合する代表特徴領域を選択して、選択した代表特徴領域を識別する代表IDに対応づけて画像DB175が記録している撮像画像を、表示すべき撮像画像として検索してよい。   In the above description, an example of the operation of each component has been described by taking as an example the case where the representative feature area information is transmitted from the supervisor terminal. However, the supervisor terminal is detected from the captured image to be searched. The condition that the image of the feature area should be matched may be transmitted to the image processing apparatus 170. Then, the moving image constituent image search unit 360 selects a representative feature region that meets the condition, and displays the captured image recorded in the image DB 175 in association with the representative ID that identifies the selected representative feature region. You may search as a captured image.

図10は、相関を算出する算出パラメータの一例を示す。相関算出部260は、オブジェクトの形状の相関、オブジェクトの見え方の相関、オブジェクトの動きの相関を算出する。本図において、相関算出部260が相関値を求めるために算出する形状のパラメータおよび動きのパラメータの一例が、オブジェクト1000に付加されて示されている。   FIG. 10 shows an example of calculation parameters for calculating the correlation. The correlation calculation unit 260 calculates the correlation of the shape of the object, the correlation of the appearance of the object, and the correlation of the movement of the object. In the drawing, an example of a shape parameter and a motion parameter calculated by the correlation calculation unit 260 to obtain a correlation value is added to the object 1000 and shown.

形状のパラメータとしては、オブジェクトの位置、オブジェクトのサイズ、オブジェクトのアスペクト比、および、オブジェクトの傾きを例示することができる。各形状のパラメータとオブジェクト間の相関について、以下に説明する。   Examples of the shape parameter include the position of the object, the size of the object, the aspect ratio of the object, and the inclination of the object. The correlation between the parameters of each shape and the objects will be described below.

相関算出部260は、オブジェクト位置の指標として、各撮像画像上に設定した共通の座標軸上での重心座標を算出してよい。本図に例示したように、相関算出部260は、オブジェクト1000の重心1010の座標を算出する。相関算出部260は、2個の撮像画像から抽出された2個の特徴領域に含まれる2つのオブジェクト間の位置の相関値として、2つのオブジェクトの重心座標間の距離(ユークリッド距離)を算出してよい。なお、相関算出部260は、オブジェクトの重心座標間の距離ではなく、特徴領域の重心座標間の距離を、位置の相関値として算出してもよい。   The correlation calculation unit 260 may calculate barycentric coordinates on a common coordinate axis set on each captured image as an index of the object position. As illustrated in the drawing, the correlation calculation unit 260 calculates the coordinates of the center of gravity 1010 of the object 1000. The correlation calculation unit 260 calculates the distance (Euclidean distance) between the barycentric coordinates of the two objects as the correlation value of the positions between the two objects included in the two feature regions extracted from the two captured images. It's okay. Note that the correlation calculation unit 260 may calculate not the distance between the center-of-gravity coordinates of the object but the distance between the center-of-gravity coordinates of the feature region as the position correlation value.

相関算出部260は、オブジェクトのサイズの指標として、オブジェクトの面積を算出してよい。面積は画素数を用いて表されてよい。例えば、相関算出部260は、オブジェクト1000内に含まれる画素数を算出する。相関算出部260は、2つのオブジェクト間のサイズの相関値を、2つのオブジェクト内の画素数の差に応じて算出してよい。なお、相関算出部260は、オブジェクト内の画素数の差ではなく、特徴領域内の画素数の差に応じて、サイズの相関値として算出してもよい。   The correlation calculation unit 260 may calculate the area of the object as an index of the object size. The area may be expressed using the number of pixels. For example, the correlation calculation unit 260 calculates the number of pixels included in the object 1000. The correlation calculation unit 260 may calculate the correlation value of the size between the two objects according to the difference in the number of pixels in the two objects. Note that the correlation calculation unit 260 may calculate the correlation value of the size according to the difference in the number of pixels in the feature area instead of the difference in the number of pixels in the object.

相関算出部260は、オブジェクトの画像のモーメントに基づき、オブジェクトのアスペクト比を算出してよい。例えば、相関算出部260は、オブジェクトの画像の2次モーメントを算出して、算出した2次モーメントから主軸1011の傾き角を算出してよい。相関算出部260は、算出した主軸方向のオブジェクト幅1012aと、主軸に垂直方向のオブジェクト幅1012bとの比から、オブジェクトのアスペクト比を算出してよい。   The correlation calculation unit 260 may calculate the aspect ratio of the object based on the moment of the image of the object. For example, the correlation calculation unit 260 may calculate a second moment of the image of the object and calculate the tilt angle of the main axis 1011 from the calculated second moment. The correlation calculation unit 260 may calculate the object aspect ratio from the ratio between the calculated object width 1012a in the main axis direction and the object width 1012b in the direction perpendicular to the main axis.

相関算出部260は、2つのオブジェクト間のアスペクト比の相関値として、アスペクト比の比を算出してよい。なお、相関算出部260は、オブジェクトのアスペクト比の比ではなく、特徴領域のアスペクト比の比を、アスペクト比の相関値として算出してもよい。また、相関算出部260は、オブジェクトに近似する矩形のアスペクト比、オブジェクトに近似する楕円のアスペクト比などから、オブジェクトのアスペクト比を算出してもよい。   The correlation calculation unit 260 may calculate the aspect ratio as a correlation value of the aspect ratio between two objects. Note that the correlation calculation unit 260 may calculate not the aspect ratio of the object but the aspect ratio of the feature area as the correlation value of the aspect ratio. The correlation calculation unit 260 may calculate the aspect ratio of the object from the aspect ratio of a rectangle that approximates the object, the aspect ratio of an ellipse that approximates the object, and the like.

相関算出部260は、オブジェクトの傾きの指標として、オブジェクトの主軸1011の傾きを算出してよい。主軸1011の傾き角は、上述したようにオブジェクトの画像のモーメントに基づき算出することができる。そして、相関算出部260は、2つのオブジェクト間の傾きの相関値として、主軸の傾き角の差を算出してよい。例えば、相関算出部260は、傾き角の差をθとした場合に、cosθを相関値として算出してよい。   The correlation calculation unit 260 may calculate the inclination of the main axis 1011 of the object as an index of the inclination of the object. The inclination angle of the main axis 1011 can be calculated based on the moment of the image of the object as described above. Then, the correlation calculation unit 260 may calculate the difference between the inclination angles of the main axes as the correlation value of the inclination between the two objects. For example, the correlation calculation unit 260 may calculate cos θ as the correlation value when the difference in tilt angle is θ.

また、見え方のパラメータから相関値を算出する場合、見え方のパラメータとしては、オブジェクトのパターンおよびオブジェクトの色を指標とすることができる。例えば、オブジェクトが人物である場合、見え方のパラメータとしては、顔のパターンおよび服の色を指標とすることができる。   When calculating the correlation value from the appearance parameters, the object parameters and the object color can be used as indices as the appearance parameters. For example, when the object is a person, the face pattern and clothes color can be used as indices as the appearance parameters.

例えば、相関算出部260は、2つのオブジェクトの間のパターンの相関値として、パターンの重ね合わせ差分値を算出してよい。また、相関算出部260は、正規化相関値を相関値として算出してもよい。また、色を指標とする場合、相関算出部260は、オブジェクト内の色ヒストグラムの一致度を相関値として算出してよい。例えば、相関算出部260は、色ヒストグラムのバタッチャリア係数を、相関値として算出することができる。   For example, the correlation calculation unit 260 may calculate a pattern overlay difference value as a pattern correlation value between two objects. Further, the correlation calculation unit 260 may calculate a normalized correlation value as a correlation value. Further, when color is used as an index, the correlation calculation unit 260 may calculate the degree of coincidence of the color histograms in the object as a correlation value. For example, the correlation calculation unit 260 can calculate a Bacharia coefficient of the color histogram as a correlation value.

また、動きのパラメータから相関値を算出する場合、動きのパラメータとしては、オブジェクトの移動方向、オブジェクトの向きを例示することができる。例えば、相関算出部260は、動画における各オブジェクトの重心位置の移動方向を、オブジェクトの移動方向として算出することができる。そして、相関算出部260は、2つのオブジェクトの間のパターンの相関値を、2つのオブジェクトの移動方向がなす角度から算出してよい。例えば、相関算出部260は、当該角度をθとするとき、cosθを相関値として算出してよい。   Further, when the correlation value is calculated from the motion parameter, examples of the motion parameter include the moving direction of the object and the direction of the object. For example, the correlation calculation unit 260 can calculate the moving direction of the center of gravity of each object in the moving image as the moving direction of the object. Then, the correlation calculation unit 260 may calculate the correlation value of the pattern between the two objects from the angle formed by the movement directions of the two objects. For example, the correlation calculation unit 260 may calculate cos θ as the correlation value when the angle is θ.

また、オブジェクトが人物の顔である場合など、オブジェクトの向きの基準となる面を規定することができる場合には、当該面の向きを基準としてオブジェクトの向きを決定することができる。例えば、相関算出部260は、人物の顔の向き1030、または、視線の向き1032をオブジェクトの向きとして決定してよい。このとき、相関値は、移動方向と同様、2つのオブジェクトの向きがなす角度から相関値を算出することができる。   In addition, when the surface that serves as a reference for the orientation of the object can be defined, such as when the object is a human face, the orientation of the object can be determined based on the orientation of the surface. For example, the correlation calculation unit 260 may determine the human face direction 1030 or the line-of-sight direction 1032 as the object direction. At this time, the correlation value can be calculated from the angle formed by the orientations of the two objects, as in the movement direction.

以上説明したように、画像処理システム10によると、相関の高い特徴領域が検出された複数の撮像画像に、代表特徴領域の画像を特定することができる代表特徴領域情報が付与される。そして、画像処理システム10によると、当該代表特徴領域情報によって示される代表特徴領域の画像内容などから、指定された条件に適合する代表特徴領域を選択することができる。このため、画像処理システム10によると、代表特徴領域の画像が条件に適合すべきか否かを判断すればよく、各撮像画像のそれぞれから検出された特徴領域が当該条件に適合するか否かをいちいち判断しなくてよい。したがって、撮像部102が高撮像レートで撮像しており、撮像動画に沢山の撮像画像が含まれる場合であっても、指定された条件に適合する撮像画像を含む部分動画を速やかに検索することができる。   As described above, according to the image processing system 10, the representative feature region information that can specify the image of the representative feature region is added to the plurality of captured images in which the feature regions having high correlation are detected. Then, according to the image processing system 10, it is possible to select a representative feature region that meets the specified condition from the image content of the representative feature region indicated by the representative feature region information. For this reason, according to the image processing system 10, it is only necessary to determine whether or not the image of the representative feature region should meet the condition, and whether or not the feature region detected from each captured image meets the condition. You don't have to make a judgment. Therefore, even when the imaging unit 102 is capturing at a high imaging rate and the captured moving image includes a large number of captured images, it is possible to quickly search for a partial moving image including a captured image that meets the specified condition. Can do.

図11は、画像処理装置120および画像処理装置170のハードウェア構成の一例を示す。画像処理装置120および画像処理装置170は、CPU周辺部と、入出力部と、レガシー入出力部とを備える。CPU周辺部は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示デバイス1580を有する。入出力部は、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する。レガシー入出力部は、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有する。   FIG. 11 shows an example of the hardware configuration of the image processing device 120 and the image processing device 170. The image processing device 120 and the image processing device 170 include a CPU peripheral unit, an input / output unit, and a legacy input / output unit. The CPU peripheral section includes a CPU 1505, a RAM 1520, a graphic controller 1575, and a display device 1580 that are connected to each other by a host controller 1582. The input / output unit includes a communication interface 1530, a hard disk drive 1540, and a CD-ROM drive 1560 that are connected to the host controller 1582 by the input / output controller 1584. The legacy input / output unit includes a ROM 1510, a flexible disk drive 1550, and an input / output chip 1570 connected to the input / output controller 1584.

ホスト・コントローラ1582は、RAM1520と、より高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムの内容に応じて動作して、各部の制御をする。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示デバイス1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 1582 connects the RAM 1520, the CPU 1505 that accesses the RAM 1520 at a higher transfer rate, and the graphic controller 1575. The CPU 1505 operates according to the contents of the programs stored in the ROM 1510 and the RAM 1520 and controls each unit. The graphic controller 1575 acquires image data generated by the CPU 1505 or the like on a frame buffer provided in the RAM 1520 and displays the image data on the display device 1580. Alternatively, the graphic controller 1575 may include a frame buffer that stores image data generated by the CPU 1505 or the like.

入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、CPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワーク通信装置1598に接続してプログラムまたはデータを送受信する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。   The input / output controller 1584 connects the host controller 1582 to the hard disk drive 1540, the communication interface 1530, and the CD-ROM drive 1560, which are relatively high-speed input / output devices. The hard disk drive 1540 stores programs and data used by the CPU 1505. The communication interface 1530 is connected to the network communication device 1598 to transmit / receive programs or data. The CD-ROM drive 1560 reads a program or data from the CD-ROM 1595 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520.

入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像処理装置120および画像処理装置170が起動するときに実行するブート・プログラム、あるいは画像処理装置120および画像処理装置170のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、あるいはパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。   The input / output controller 1584 is connected to the ROM 1510, the flexible disk drive 1550, and the relatively low-speed input / output device of the input / output chip 1570. The ROM 1510 stores a boot program that is executed when the image processing device 120 and the image processing device 170 are started, or a program that depends on the hardware of the image processing device 120 and the image processing device 170. The flexible disk drive 1550 reads a program or data from the flexible disk 1590 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520. The input / output chip 1570 connects various input / output devices via the flexible disk drive 1550 or a parallel port, serial port, keyboard port, mouse port, and the like.

CPU1505が実行するプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは、記録媒体からハードディスクドライブ1540にインストールされ、RAM1520に読み出されてCPU1505により実行される。CPU1505により実行されるプログラムは、画像処理装置120を、図1から図10に関連して説明した画像処理装置120が有する各構成要素として機能させ、画像処理装置170を、図1から図10に関連して説明した、画像処理装置170が有する各構成要素として機能させる。   A program executed by the CPU 1505 is stored in a recording medium such as the flexible disk 1590, the CD-ROM 1595, or an IC card and provided by the user. The program stored in the recording medium may be compressed or uncompressed. The program is installed in the hard disk drive 1540 from the recording medium, read into the RAM 1520, and executed by the CPU 1505. The program executed by the CPU 1505 causes the image processing apparatus 120 to function as each component included in the image processing apparatus 120 described with reference to FIGS. 1 to 10, and causes the image processing apparatus 170 to function as illustrated in FIGS. 1 to 10. It is made to function as each component which image processing apparatus 170 which was explained related has.

以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDまたはPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用して、ネットワークを介したプログラムとして画像処理装置120および画像処理装置170に提供してもよい。このように、プログラムにより制御されるコンピュータが、画像処理装置120および画像処理装置170として機能する。   The program shown above may be stored in an external storage medium. As the storage medium, in addition to the flexible disk 1590 and the CD-ROM 1595, an optical recording medium such as a DVD or PD, a magneto-optical recording medium such as an MD, a tape medium, a semiconductor memory such as an IC card, or the like can be used. Further, a storage device such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet is used as a recording medium, and is provided to the image processing device 120 and the image processing device 170 as a program via the network. Also good. As described above, the computer controlled by the program functions as the image processing device 120 and the image processing device 170.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 画像処理システム、100 撮像装置、102 撮像部、104 撮像動画圧縮部、110 通信ネットワーク、120 画像処理装置、130 人物、140 移動体、150 監視対象空間、160 空間、170 画像処理装置、175 画像DB、180 表示装置、201 圧縮動画取得部、202 圧縮動画伸張部、203 特徴領域検出部、206 対応付け処理部、207 出力部、210 圧縮制御部、220 特徴領域情報格納部、230 圧縮部、232 画像分割部 、234 固定値化部 、236 圧縮処理部 、250 画像取得部、260 相関算出部、270 代表特徴領域決定部、301 圧縮画像取得部、302 対応付け解析部、310 伸張制御部、320 伸張部、322 復号器 、330 合成部、340 出力部、350 検索指示取得部、360 動画構成画像検索部、370 動画出力部、510 画質変換部 、520 差分処理部 、522 階層間差分処理部 、530 符号化部、601 撮像画像、602 撮像画像、611 特徴領域、612 特徴領域、800 検索指示受付画面、801 代表画像、1505 CPU、1510 ROM、1520 RAM、1530 通信インターフェイス、1540 ハードディスクドライブ、1550 フレキシブルディスク・ドライブ、1560 CD−ROMドライブ、1570 入出力チップ、1575 グラフィック・コントローラ、1580 表示デバイス、1582 ホスト・コントローラ、1584 入出力コントローラ、1590 フレキシブルディスク、1595 CD−ROM、1598 ネットワーク通信装置 DESCRIPTION OF SYMBOLS 10 Image processing system, 100 Imaging device, 102 Imaging part, 104 Imaging moving image compression part, 110 Communication network, 120 Image processing apparatus, 130 Person, 140 Moving body, 150 Monitoring object space, 160 space, 170 Image processing apparatus, 175 image DB, 180 display device, 201 compressed moving image acquisition unit, 202 compressed moving image decompression unit, 203 feature region detection unit, 206 association processing unit, 207 output unit, 210 compression control unit, 220 feature region information storage unit, 230 compression unit, 232 image division unit, 234 fixed value conversion unit, 236 compression processing unit, 250 image acquisition unit, 260 correlation calculation unit, 270 representative feature region determination unit, 301 compressed image acquisition unit, 302 association analysis unit, 310 expansion control unit, 320 Decompression Unit, 322 Decoder, 330 Combining Unit, 340 Output , 350 search instruction acquisition unit, 360 moving image constituent image search unit, 370 moving image output unit, 510 image quality conversion unit, 520 difference processing unit, 522 inter-layer difference processing unit, 530 encoding unit, 601 captured image, 602 captured image, 611 Feature area, 612 Feature area, 800 Search instruction acceptance screen, 801 Representative image, 1505 CPU, 1510 ROM, 1520 RAM, 1530 Communication interface, 1540 Hard disk drive, 1550 Flexible disk drive, 1560 CD-ROM drive, 1570 I / O Chip, 1575 graphic controller, 1580 display device, 1582 host controller, 1584 I / O controller, 1590 flexible disk, 1595 CD-ROM, 1598 Network communication equipment

Claims (25)

第1撮像装置および第2撮像装置を含む複数の撮像装置のそれぞれにより撮像された複数の動画を取得する画像取得部と、
前記第1撮像装置により得られた動画に複数含まれる第1動画構成画像および前記第2撮像装置により得られた動画に複数含まれる第2動画構成画像を含む、前記複数の動画のそれぞれに含まれる複数の動画構成画像から、複数の特徴領域を検出する特徴領域検出部と、
前記特徴領域検出部が前記第1動画構成画像から検出した第1特徴領域および前記特徴領域検出部が前記第2動画構成画像から検出した第2特徴領域を含む前記複数の特徴領域の間の相関値を算出する相関値算出部と、
前記第1特徴領域および前記第2特徴領域を含む予め定められた値より高い相関を有する前記複数の特徴領域の中から、当該複数の特徴領域を代表する特徴領域である代表特徴領域を決定する代表特徴領域決定部と、
前記代表特徴領域を特定する情報である代表特徴領域情報を、前記第1特徴領域および前記第2特徴領域を含む前記予め定められた値より高い相関を有する前記複数の特徴領域が検出された、前記第1動画構成画像および前記第2動画構成画像を含む複数の動画構成画像に対応づけて出力する出力部と
を備える画像処理システム。
An image acquisition unit that acquires a plurality of moving images captured by each of a plurality of imaging devices including a first imaging device and a second imaging device ;
Included in each of the plurality of moving images, including a plurality of first moving image constituent images included in the moving image obtained by the first imaging device and a plurality of second moving image constituent images included in the moving image obtained by the second imaging device. A feature region detection unit that detects a plurality of feature regions from a plurality of video composition images,
Correlation between the plurality of feature regions including the first feature region detected by the feature region detection unit from the first moving image constituent image and the second feature region detected by the feature region detection unit from the second moving image constituent image. A correlation value calculation unit for calculating a value;
A representative feature region that is a feature region representing the plurality of feature regions is determined from the plurality of feature regions having a correlation higher than a predetermined value including the first feature region and the second feature region. A representative feature region determination unit;
The plurality of feature regions having a correlation higher than the predetermined value including the first feature region and the second feature region are detected in the representative feature region information which is information for specifying the representative feature region , An image processing system comprising: an output unit that outputs a plurality of moving image constituent images including the first moving image constituent image and the second moving image constituent image.
前記代表特徴領域決定部は、特徴領域の画像内容に関して予め定められた値より高い相関を有する前記複数の特徴領域の中から、前記代表特徴領域を決定する
請求項1に記載の画像処理システム。
The image processing system according to claim 1, wherein the representative feature region determination unit determines the representative feature region from the plurality of feature regions having a correlation higher than a predetermined value with respect to the image content of the feature region.
前記代表特徴領域決定部は、特徴領域の画像内容の一致度が予め定められた値より大きい前記複数の特徴領域の中から、前記代表特徴領域を決定する
請求項2に記載の画像処理システム。
The image processing system according to claim 2, wherein the representative feature region determination unit determines the representative feature region from the plurality of feature regions in which the degree of coincidence of the image contents of the feature region is greater than a predetermined value.
前記代表特徴領域決定部は、特徴領域の画像内容に関して予め定められた値より高い相関を有する前記複数の特徴領域の中から、予め定められた画像内容に関する条件に適合する特徴領域を、前記代表特徴領域として決定する
請求項2に記載の画像処理システム。
The representative feature region determining unit selects a feature region that satisfies a condition relating to a predetermined image content from the plurality of feature regions having a correlation higher than a predetermined value with respect to the image content of the feature region. The image processing system according to claim 2, wherein the image processing system is determined as a feature region.
前記代表特徴領域決定部は、特徴領域の画像に含まれるオブジェクトの種類に関して予め定められた値より高い相関を有する前記複数の特徴領域の中から、前記代表特徴領域を決定する
請求項2に記載の画像処理システム。
The representative feature region determination unit determines the representative feature region from the plurality of feature regions having a correlation higher than a predetermined value with respect to the type of object included in the image of the feature region. Image processing system.
前記代表特徴領域決定部は、特徴領域の画像に含まれるオブジェクトの形状に関して予め定められた値より高い相関を有する前記複数の特徴領域の中から、前記代表特徴領域を決定する
請求項2に記載の画像処理システム。
The representative feature region determination unit determines the representative feature region from the plurality of feature regions having a correlation higher than a predetermined value with respect to a shape of an object included in an image of the feature region. Image processing system.
前記代表特徴領域決定部は、特徴領域の画像に含まれる色に関して予め定められた値より高い相関を有する前記複数の特徴領域の中から、前記代表特徴領域を決定する
請求項2に記載の画像処理システム。
The image according to claim 2, wherein the representative feature region determining unit determines the representative feature region from the plurality of feature regions having a correlation higher than a predetermined value with respect to a color included in the image of the feature region. Processing system.
前記代表特徴領域決定部は、特徴領域の形状に関して予め定められた値より高い相関を有する前記複数の特徴領域の中から、前記代表特徴領域を決定する
請求項1に記載の画像処理システム。
The image processing system according to claim 1, wherein the representative feature region determining unit determines the representative feature region from the plurality of feature regions having a correlation higher than a predetermined value with respect to a shape of the feature region.
前記代表特徴領域決定部は、特徴領域の大きさに関して予め定められた値より高い相関を有する前記複数の特徴領域の中から、前記代表特徴領域を決定する
請求項1に記載の画像処理システム。
The image processing system according to claim 1, wherein the representative feature region determination unit determines the representative feature region from the plurality of feature regions having a correlation higher than a predetermined value with respect to a size of the feature region.
前記代表特徴領域決定部は、特徴領域の位置に関して予め定められた値より高い相関を有する前記複数の特徴領域の中から、前記代表特徴領域を決定する
請求項1に記載の画像処理システム。
The image processing system according to claim 1, wherein the representative feature region determining unit determines the representative feature region from the plurality of feature regions having a correlation higher than a predetermined value with respect to a position of the feature region.
前記代表特徴領域決定部は、特徴領域の位置の変化に関して予め定められた値より高い相関を有する前記複数の特徴領域の中から、前記代表特徴領域を決定する
請求項10に記載の画像処理システム。
The image processing system according to claim 10, wherein the representative feature region determination unit determines the representative feature region from the plurality of feature regions having a correlation higher than a predetermined value with respect to a change in the position of the feature region. .
前記代表特徴領域決定部は、特徴領域の位置の移動方向に関して予め定められた値より高い相関を有する前記複数の特徴領域の中から、前記代表特徴領域を決定する
請求項11に記載の画像処理システム。
The image processing according to claim 11, wherein the representative feature region determining unit determines the representative feature region from the plurality of feature regions having a correlation higher than a predetermined value with respect to a moving direction of the position of the feature region. system.
前記代表特徴領域決定部は、特徴領域の位置の移動速度に関して予め定められた値より高い相関を有する前記複数の特徴領域の中から、前記代表特徴領域を決定する
請求項11に記載の画像処理システム。
The image processing according to claim 11, wherein the representative feature region determining unit determines the representative feature region from the plurality of feature regions having a correlation higher than a predetermined value with respect to a moving speed of the position of the feature region. system.
前記予め定められた値より高い相関を有する前記第1特徴領域および前記第2特徴領域が前記第1撮像装置および前記第2撮像装置により略同一のタイミングで撮像された前記第1動画構成画像および前記第2動画構成画像から検出された特徴領域である場合に、当該略同一のタイミングで撮像された前記第1動画構成画像および前記第2動画構成画像の中から、予め定められた条件に適合する一の動画構成画像を、前記代表特徴領域情報を対応づけるべき動画構成画像として選択する選択手段  The first moving image constituting image in which the first feature region and the second feature region having a correlation higher than the predetermined value are imaged at substantially the same timing by the first imaging device and the second imaging device; When the feature area is detected from the second moving image constituent image, it conforms to a predetermined condition from the first moving image constituent image and the second moving image constituent image captured at substantially the same timing. Selecting means for selecting one moving image constituting image as the moving image constituting image to be associated with the representative feature area information
をさらに備え、Further comprising
前記出力部は、前記選択手段により選択された前記一の動画構成画像に前記代表特徴領域情報を対応づけて出力する  The output unit outputs the representative feature region information in association with the one moving image constituent image selected by the selection unit.
請求項1から13のいずれか一項に記載の画像処理システム。The image processing system according to any one of claims 1 to 13.
複数の撮像装置のそれぞれにより撮像された複数の動画を取得する画像取得部と、  An image acquisition unit that acquires a plurality of moving images captured by each of a plurality of imaging devices;
前記複数の動画のそれぞれに含まれる複数の動画構成画像から、複数の特徴領域を検出する特徴領域検出部と、  A feature region detection unit for detecting a plurality of feature regions from a plurality of movie composition images included in each of the plurality of movies;
特徴領域の位置の移動速度に関して予め定められた値より高い相関を有する前記複数の特徴領域の中から、当該複数の特徴領域を代表する特徴領域である代表特徴領域を決定する代表特徴領域決定部と、  A representative feature region determining unit that determines a representative feature region that is a feature region representing the plurality of feature regions from among the plurality of feature regions having a correlation higher than a predetermined value with respect to a moving speed of the position of the feature region. When,
前記代表特徴領域を特定する情報である代表特徴領域情報を、前記予め定められた値より高い相関を有する前記複数の特徴領域を有する複数の動画構成画像に対応づけて出力する出力部と  An output unit that outputs representative feature region information, which is information for specifying the representative feature region, in association with a plurality of moving image constituent images having the plurality of feature regions having a correlation higher than the predetermined value;
を備える画像処理システム。An image processing system comprising:
前記出力部から出力された複数の動画構成画像のうち、所定の条件に適合する代表特徴領域を示す前記代表特徴領域情報に対応づけられた前記複数の動画構成画像を検索する動画構成画像検索部  A moving image constituent image search unit that searches the plurality of moving image constituent images associated with the representative feature region information indicating a representative feature region that meets a predetermined condition among the plurality of moving image constituent images output from the output unit.
をさらに備える請求項1から15のいずれか一項に記載の画像処理システム。The image processing system according to claim 1, further comprising:
前記動画構成画像検索部により検索された前記複数の動画構成画像を含む動画を出力する動画出力部  Movie output unit for outputting a movie including the plurality of movie component images searched by the movie component image search unit
をさらに備える請求項16に記載の画像処理システム。The image processing system according to claim 16, further comprising:
前記動画に含まれる動画構成画像を、前記特徴領域と前記特徴領域以外の背景領域とで異なる強度で圧縮する圧縮部  A compression unit that compresses a moving image constituent image included in the moving image with different strength between the feature region and a background region other than the feature region.
をさらに備え、Further comprising
前記出力部は、前記圧縮部により圧縮された動画を出力する  The output unit outputs the video compressed by the compression unit.
請求項1から17のいずれか一項に記載の画像処理システム。The image processing system according to claim 1.
前記圧縮部は、  The compression unit is
前記動画に含まれる動画構成画像を、前記特徴領域と、前記特徴領域以外の背景領域とに分割する画像分割部と、  An image dividing unit that divides a moving image constituent image included in the moving image into the feature region and a background region other than the feature region;
前記特徴領域の画像である特徴領域画像と前記背景領域の画像である背景領域画像とを、それぞれ異なる強度で圧縮する圧縮処理部と  A compression processing unit that compresses the feature region image that is the image of the feature region and the background region image that is the image of the background region with different intensities, respectively.
を有する請求項18に記載の画像処理システム。The image processing system according to claim 18.
前記画像分割部は、前記動画に含まれる複数の動画構成画像のそれぞれを、前記特徴領域と前記背景領域とに分割し、  The image dividing unit divides each of a plurality of moving image constituent images included in the moving image into the feature region and the background region,
前記圧縮処理部は、前記特徴領域画像を複数含む特徴領域動画と前記背景領域画像を複数含む背景領域動画とを、それぞれ異なる強度で圧縮する  The compression processing unit compresses a feature area moving image including a plurality of the characteristic area images and a background area moving image including a plurality of the background area images with different strengths.
請求項19に記載の画像処理システム。The image processing system according to claim 19.
前記圧縮部は、  The compression unit is
前記動画に含まれる前記動画構成画像のそれぞれから、画質を低画質にした低画質画像、および少なくとも前記特徴領域において前記低画質画像より高画質な特徴領域画像を生成する画像生成部と、  From each of the moving image constituent images included in the moving image, an image generating unit that generates a low quality image with a low image quality, and a feature region image having a higher image quality than the low quality image at least in the feature region;
前記特徴領域画像における前記特徴領域の画像と、前記低画質画像における前記特徴領域の画像との間の差分画像を示す特徴領域差分画像を生成する差分処理部と、  A difference processing unit that generates a feature area difference image indicating a difference image between the image of the feature area in the feature area image and the image of the feature area in the low-quality image;
前記特徴領域差分画像および前記低画質画像をそれぞれ符号化する符号化部と  An encoding unit for encoding each of the feature region difference image and the low-quality image;
を有する請求項18に記載の画像処理システム。The image processing system according to claim 18.
前記画像生成部は、前記動画に含まれる前記動画構成画像から解像度が低減された前記低画質画像を生成し、  The image generation unit generates the low-quality image with reduced resolution from the moving image constituent image included in the moving image,
前記差分処理部は、前記特徴領域画像における前記特徴領域の画像と、前記低画質画像における前記特徴領域の画像を拡大した画像との間の前記特徴領域差分画像を生成する  The difference processing unit generates the feature region difference image between an image of the feature region in the feature region image and an image obtained by enlarging the image of the feature region in the low-quality image.
請求項21に記載の画像処理システム。The image processing system according to claim 21.
前記差分処理部は、前記特徴領域において前記特徴領域画像と前記拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、前記特徴領域以外の領域において前記空間周波数成分のデータ量が低減された前記特徴領域差分画像を生成する  The difference processing unit has a spatial frequency component in which a difference between the feature region image and the enlarged image is converted into a spatial frequency region in the feature region, and the spatial frequency component of the region other than the feature region Generating the feature region difference image with a reduced amount of data
請求項22に記載の画像処理システム。The image processing system according to claim 22.
コンピュータを、請求項1から23のいずれか一項に記載の画像処理システムとして機能させるためのプログラム。  A program for causing a computer to function as the image processing system according to any one of claims 1 to 23. 第1撮像装置および第2撮像装置を含む複数の撮像装置のそれぞれにより撮像された複数の動画を取得する画像取得段階と、  An image acquisition stage for acquiring a plurality of moving images captured by each of a plurality of imaging devices including a first imaging device and a second imaging device;
前記第1撮像装置により得られた動画に複数含まれる第1動画構成画像および前記第2撮像装置により得られた動画に複数含まれる第2動画構成画像を含む、前記複数の動画のそれぞれに含まれる複数の動画構成画像から、複数の特徴領域を検出する特徴領域検出段階と、  Included in each of the plurality of moving images, including a plurality of first moving image constituent images included in the moving image obtained by the first imaging device and a plurality of second moving image constituent images included in the moving image obtained by the second imaging device. A feature region detection stage for detecting a plurality of feature regions from a plurality of video composition images,
前記特徴領域検出段階で前記第1動画構成画像から検出された第1特徴領域および前記特徴領域検出段階で前記第2動画構成画像から検出された第2特徴領域を含む前記複数の特徴領域の間の相関値を算出する相関値算出段階と、  Between the plurality of feature regions including the first feature region detected from the first moving image constituting image in the feature region detecting step and the second feature region detected from the second moving image constituting image in the feature region detecting step. A correlation value calculation stage for calculating a correlation value of
前記第1特徴領域および前記第2特徴領域を含む予め定められた値より高い相関を有する前記複数の特徴領域の中から、当該複数の特徴領域を代表する特徴領域である代表特徴領域を決定する代表特徴領域決定段階と、  A representative feature region that is a feature region representing the plurality of feature regions is determined from the plurality of feature regions having a correlation higher than a predetermined value including the first feature region and the second feature region. Representative feature region determination stage;
前記代表特徴領域を特定する情報である代表特徴領域情報を、前記第1特徴領域および前記第2特徴領域を含む前記予め定められた値より高い相関を有する前記複数の特徴領域が検出された、前記第1動画構成画像および前記第2動画構成画像を含む複数の動画構成画像に対応づけて出力する出力段階と  The plurality of feature regions having a correlation higher than the predetermined value including the first feature region and the second feature region are detected in the representative feature region information which is information for specifying the representative feature region, An output stage for outputting a plurality of moving image composition images including the first moving image composition image and the second moving image composition image;
を備える画像処理方法。An image processing method comprising:
JP2009037122A 2008-03-31 2009-02-19 Image processing system, image processing method, and program Expired - Fee Related JP5117424B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009037122A JP5117424B2 (en) 2008-03-31 2009-02-19 Image processing system, image processing method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008091595 2008-03-31
JP2008091595 2008-03-31
JP2009037122A JP5117424B2 (en) 2008-03-31 2009-02-19 Image processing system, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2009268065A JP2009268065A (en) 2009-11-12
JP5117424B2 true JP5117424B2 (en) 2013-01-16

Family

ID=41393276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009037122A Expired - Fee Related JP5117424B2 (en) 2008-03-31 2009-02-19 Image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5117424B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6139447B2 (en) * 2014-03-20 2017-05-31 株式会社東芝 Image processing apparatus, image processing method, and image processing program
JP7212862B2 (en) 2019-03-20 2023-01-26 京セラドキュメントソリューションズ株式会社 Image processing device, image processing method, image providing system and image processing program
JPWO2020255966A1 (en) * 2019-06-19 2020-12-24

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4168940B2 (en) * 2004-01-26 2008-10-22 三菱電機株式会社 Video display system

Also Published As

Publication number Publication date
JP2009268065A (en) 2009-11-12

Similar Documents

Publication Publication Date Title
US8462226B2 (en) Image processing system
JP4926533B2 (en) Moving image processing apparatus, moving image processing method, and program
JP4895042B2 (en) Image compression apparatus, image compression method, and program
WO2009122760A1 (en) Image processing device, image processing method, and computer-readable medium
JP5181294B2 (en) Imaging system, imaging method, and program
JP5531327B2 (en) Image processing apparatus, image processing method, and program
WO2020004013A1 (en) Image processing device and image processing method
JP2009048620A (en) Image processor, image processing method, and program
JP2009049976A (en) Image processing apparatus, image processing method and program
US20110019741A1 (en) Image processing system
JP4897600B2 (en) Image processing apparatus, image processing method, and program
JP5256496B2 (en) Image processing system, image processing method, and program
JP5337970B2 (en) Image processing system, image processing method, and program
JP5117424B2 (en) Image processing system, image processing method, and program
JP5156982B2 (en) Image processing system, image processing method, and program
JP2009273116A (en) Image processing device, image processing method, and program
WO2009125578A1 (en) Image processing system, image processing method, and computer-readable medium
JP4961582B2 (en) Image processing system, image processing method, and program
JP5136172B2 (en) Image processing system, image processing method, and program
JP5082141B2 (en) Image processing system, image processing method, and program
JP4905723B2 (en) Image processing system, image processing method, and program
JP2009253581A (en) Image processing apparatus, image processing method, and program
JP5105179B2 (en) Image processing system, image processing method, and program
JP5034116B2 (en) Image processing system, image processing method, and program
JP5142204B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121017

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees