JP5082141B2 - Image processing system, image processing method, and program - Google Patents

Image processing system, image processing method, and program Download PDF

Info

Publication number
JP5082141B2
JP5082141B2 JP2008099706A JP2008099706A JP5082141B2 JP 5082141 B2 JP5082141 B2 JP 5082141B2 JP 2008099706 A JP2008099706 A JP 2008099706A JP 2008099706 A JP2008099706 A JP 2008099706A JP 5082141 B2 JP5082141 B2 JP 5082141B2
Authority
JP
Japan
Prior art keywords
image
raw
raw image
region
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008099706A
Other languages
Japanese (ja)
Other versions
JP2009253696A (en
Inventor
祐和 亀山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008099706A priority Critical patent/JP5082141B2/en
Publication of JP2009253696A publication Critical patent/JP2009253696A/en
Application granted granted Critical
Publication of JP5082141B2 publication Critical patent/JP5082141B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E60/00Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02E60/30Hydrogen technology
    • Y02E60/50Fuel cells

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像処理システム、画像処理方法、およびプログラムに関する。本発明は、特に、画像を処理する画像処理システムおよび画像処理方法、ならびに画像処理システム用のプログラムに関する。   The present invention relates to an image processing system, an image processing method, and a program. The present invention particularly relates to an image processing system and an image processing method for processing an image, and a program for the image processing system.

通常圧縮モード/RAW圧縮モードを切り替え可能に備えた画像処理装置が知られている(例えば、特許文献1参照。)。この画像処理装置では、通常圧縮モード時にはRAWデータを補間処理して画素単位に欠落する信号成分を補い、RAW圧縮モード時には補間処理をバイパスする信号処理部と、信号処理部の出力を画像圧縮する。   There is known an image processing apparatus that can switch between a normal compression mode and a RAW compression mode (see, for example, Patent Document 1). In this image processing apparatus, in the normal compression mode, the raw data is interpolated to compensate for missing signal components in units of pixels, and in the RAW compression mode, the signal processing unit that bypasses the interpolation processing and the output of the signal processing unit are image-compressed. .

また、ビデオ画像からフィルム等の中間媒体を利用することなく、印刷用分解版を作成するためのビデオ画像処理装置が知られている(例えば、特許文献2参照。)。このビデオ画像処理装置では、ビデオ信号をデジタル信号化して記憶して、記憶された画像について複数の補間すべき部分を選択して、選択された各部分に対してそれらの画像の性質に応じた異なる補間処理を施す。
特許第3864748号明細書 特公平6−59106号公報
Also, a video image processing apparatus for creating a print separation version without using an intermediate medium such as a film from a video image is known (for example, see Patent Document 2). In this video image processing apparatus, a video signal is converted into a digital signal and stored, a plurality of portions to be interpolated are selected from the stored image, and each selected portion is in accordance with the nature of the image. Apply different interpolation processes.
Japanese Patent No. 3864748 Japanese Examined Patent Publication No. 6-59106

しかしながら、上記特許文献1の技術によるRAW圧縮モードでは、全画像領域について同様の圧縮処理を施す。また、上記特許文献2の技術によると、全画像領域において全色のカラー信号を有している。このため、上記特許文献1および特許文献2の技術によると、画像処理における演算量が大きくなってしまう。   However, in the RAW compression mode according to the technique disclosed in Patent Document 1, the same compression processing is performed on the entire image area. Further, according to the technique disclosed in Patent Document 2, all color areas have color signals in all image areas. For this reason, according to the technique of the said patent document 1 and the patent document 2, the calculation amount in image processing will become large.

上記課題を解決するために、本発明の第1の形態によると、画像処理システムであって、RAW形式で表されるRAW画像を取得する画像取得部と、RAW画像を用いて、RAW画像における特徴領域を検出する特徴領域検出部と、RAW画像を、RAW画像における特徴領域とRAW画像における特徴領域以外の領域とで異なる強度で圧縮することにより、RAW形式で表される圧縮されたRAW画像である圧縮RAW画像を生成する圧縮部とを備える。   In order to solve the above-described problem, according to a first aspect of the present invention, an image processing system includes an image acquisition unit that acquires a RAW image expressed in a RAW format, and a RAW image using a RAW image. A compressed RAW image expressed in the RAW format by compressing the RAW image with a different intensity between the feature area in the RAW image and the area other than the feature area in the RAW image, and a feature area detection unit that detects the feature area A compression unit that generates a compressed RAW image.

本発明の第2の形態によると、画像処理方法であって、RAW形式で表されるRAW画像を取得する画像取得段階と、RAW画像を用いて、RAW画像における特徴領域を検出する特徴領域検出段階と、RAW画像を、RAW画像における特徴領域とRAW画像における特徴領域以外の領域とで異なる強度で圧縮することにより、RAW形式で表される圧縮されたRAW画像を生成する圧縮段階とを備える。   According to a second aspect of the present invention, there is provided an image processing method, an image acquisition stage for acquiring a RAW image expressed in a RAW format, and a feature region detection for detecting a feature region in the RAW image using the RAW image. And a compression step of generating a compressed RAW image represented in a RAW format by compressing the RAW image with different intensities in a feature region in the RAW image and a region other than the feature region in the RAW image. .

本発明の第3の形態によると、画像処理システム用のプログラムであって、コンピュータを、RAW形式で表されるRAW画像を取得する画像取得部、RAW画像を用いて、RAW画像における特徴領域を検出する特徴領域検出部、RAW画像を、RAW画像における特徴領域とRAW画像における特徴領域以外の領域とで異なる強度で圧縮することにより、RAW形式で表される圧縮されたRAW画像を生成する圧縮部として機能させる。   According to a third aspect of the present invention, there is provided a program for an image processing system, wherein a computer uses an RAW image to acquire a feature region in a RAW image using an image acquisition unit that acquires a RAW image represented in RAW format. A feature region detection unit for detecting, a compression that generates a compressed RAW image represented in the RAW format by compressing the RAW image with different intensities in the feature region in the RAW image and the region other than the feature region in the RAW image. Function as a part.

本発明の第4の形態によると、画像処理システムであって、RAW形式で表されるRAW画像を取得する画像取得部と、RAW画像を用いて、RAW画像における特徴領域を検出する特徴領域検出部と、RAW画像における複数の画素のそれぞれにおける複数の色成分の値を、RAW画像における一以上の画素の画素値に基づいて算出する色処理部とを備え、色処理部は、RAW画像における特徴領域における画素と、RAW画像における特徴領域以外の領域における画素とを、異なる方式で複数の色成分の値を算出する。   According to the fourth aspect of the present invention, there is provided an image processing system, an image acquisition unit that acquires a RAW image expressed in a RAW format, and a feature region detection that detects a feature region in the RAW image using the RAW image. And a color processing unit that calculates values of a plurality of color components in each of a plurality of pixels in the RAW image based on pixel values of one or more pixels in the RAW image. The values of a plurality of color components are calculated using different methods for the pixels in the feature region and the pixels in the region other than the feature region in the RAW image.

本発明の第5の形態によると、画像処理方法であって、RAW形式で表されるRAW画像を取得する画像取得段階と、RAW画像を用いて、RAW画像における特徴領域を検出する特徴領域検出段階と、RAW画像における複数の画素のそれぞれにおける複数の色成分の値を、RAW画像における一以上の画素の画素値に基づいて算出する色処理段階とを備え、色処理段階は、RAW画像における特徴領域における画素と、RAW画像における特徴領域以外の領域における画素とで、異なる方式で前記複数の色成分の値を算出する。   According to a fifth aspect of the present invention, there is provided an image processing method, an image acquisition stage for acquiring a RAW image represented in a RAW format, and a feature region detection for detecting a feature region in the RAW image using the RAW image. A color processing stage that calculates values of a plurality of color components in each of a plurality of pixels in the RAW image based on pixel values of one or more pixels in the RAW image, and the color processing stage includes: The values of the plurality of color components are calculated by different methods for pixels in the feature region and pixels in a region other than the feature region in the RAW image.

本発明の第6の形態によると、画像処理システム用のプログラムであって、コンピュータを、RAW形式で表されるRAW画像を取得する画像取得部、RAW画像を用いて、RAW画像における特徴領域を検出する特徴領域検出部、RAW画像における複数の画素のそれぞれにおける複数の色成分の値を、RAW画像における一以上の画素の画素値に基づいて算出する色処理部であって、RAW画像における特徴領域における画素と、RAW画像における特徴領域以外の領域における画素とで、異なる方式で前記複数の色成分の値を算出する色処理部として機能させる。   According to a sixth aspect of the present invention, there is provided a program for an image processing system, wherein a computer uses an RAW image to acquire a feature region in a RAW image by using an RAW image. A feature region detection unit to detect, a color processing unit that calculates values of a plurality of color components in each of a plurality of pixels in a RAW image based on pixel values of one or more pixels in the RAW image, and a feature in the RAW image The pixel in the region and the pixel in the region other than the feature region in the RAW image function as a color processing unit that calculates the values of the plurality of color components by different methods.

なお、上記の発明の概要は、この発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The above summary of the invention does not enumerate all necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一実施形態に係わる画像処理システム10の一例を示す。画像処理システム10は、以下に説明するように、監視システムとして機能することができる。   FIG. 1 shows an example of an image processing system 10 according to an embodiment. The image processing system 10 can function as a monitoring system as described below.

画像処理システム10は、監視対象空間150を撮像する複数の撮像装置100a−d(以下、撮像装置100と総称する。)、画像処理装置120、通信ネットワーク110、画像処理装置170、画像DB175、および複数の表示装置180a−d(以下、表示装置180と総称する。)を備える。なお、画像処理装置170および表示装置180は、監視対象空間150と異なる空間160に設けられている。   The image processing system 10 includes a plurality of imaging devices 100a to 100d (hereinafter collectively referred to as imaging devices 100) that capture the monitoring target space 150, an image processing device 120, a communication network 110, an image processing device 170, an image DB 175, and A plurality of display devices 180a-d (hereinafter collectively referred to as display devices 180) are provided. Note that the image processing device 170 and the display device 180 are provided in a space 160 different from the monitoring target space 150.

撮像装置100aは、監視対象空間150を撮像する。撮像装置100aは、撮像部102aおよび撮像画像圧縮部104aを有する。撮像装置100aは、例えば単板式カラーカメラであってよく、撮像部102aが含む複数の受光素子のそれぞれの受光量に応じて生成されたRAW形式のRAW画像を生成する。なお、撮像装置100aは、連続して撮像することによって複数のRAW画像を生成してよい。そして、撮像装置100aは、圧縮された複数のRAW画像を動画構成画像として含むRAW動画を画像処理装置120に送信する。なお、撮像装置100aは、撮像画像圧縮部104aによりRAW動画を圧縮して画像処理装置120に送信してもよい。   The imaging device 100a images the monitoring target space 150. The imaging device 100a includes an imaging unit 102a and a captured image compression unit 104a. The imaging device 100a may be, for example, a single-plate color camera, and generates a RAW image RAW image generated according to the amount of light received by each of the plurality of light receiving elements included in the imaging unit 102a. Note that the imaging apparatus 100a may generate a plurality of RAW images by continuously capturing images. Then, the imaging device 100a transmits a RAW moving image including a plurality of compressed RAW images as moving image constituent images to the image processing device 120. Note that the imaging apparatus 100a may compress the RAW moving image by the captured image compression unit 104a and transmit the compressed RAW moving image to the image processing apparatus 120.

なお、撮像装置100b、撮像装置100c、および撮像装置100dは、それぞれ撮像装置100aと同様の機能および動作を有する。したがって、撮像装置100b、撮像装置100c、および撮像装置100dの機能および動作については説明を省略する。   Note that the imaging device 100b, the imaging device 100c, and the imaging device 100d have the same functions and operations as the imaging device 100a, respectively. Therefore, description of the functions and operations of the imaging device 100b, the imaging device 100c, and the imaging device 100d is omitted.

画像処理装置120は、撮像装置100からRAW動画を取得する。画像処理装置120は、RAW形式のまま、RAW動画に対して各種の画像処理をする。   The image processing device 120 acquires a RAW moving image from the imaging device 100. The image processing apparatus 120 performs various kinds of image processing on the RAW moving image in the RAW format.

例えば、画像処理装置120は、取得したRAW動画を用いて、人物130が撮像された領域、車輌等の移動体140が撮像された領域等のように、特徴の種類が異なる複数の特徴領域を検出する。そして、画像処理装置120は、RAW形式のまま特徴領域以外の領域の画質を低減することによって、RAW動画を圧縮する。これにより得られた圧縮されたRAW形式の動画である圧縮RAW動画を生成する。画像処理装置120は、圧縮RAW動画を画像処理装置170に送信する。   For example, the image processing apparatus 120 uses the acquired RAW moving image to select a plurality of feature regions having different types of features, such as a region where a person 130 is captured, a region where a moving body 140 such as a vehicle is captured, and the like. To detect. Then, the image processing apparatus 120 compresses the RAW moving image by reducing the image quality of the region other than the feature region in the RAW format. A compressed RAW moving image which is a compressed moving image in the RAW format is generated. The image processing device 120 transmits the compressed RAW moving image to the image processing device 170.

なお、画像処理装置120は、特徴領域を特定する情報を含む特徴領域情報を生成する。そして、画像処理装置120は、特徴領域情報を圧縮RAW動画に付帯して、通信ネットワーク110を通じて画像処理装置170に送信する。   Note that the image processing apparatus 120 generates feature area information including information for specifying the feature area. Then, the image processing device 120 attaches the feature area information to the compressed RAW moving image and transmits the feature region information to the image processing device 170 through the communication network 110.

画像処理装置170は、特徴領域情報が対応づけられたRAW動画を画像処理装置120から受信する。そして、画像処理装置170は、受信したRAW動画を画像DB175に記録する。このように、画像DB175は、圧縮RAW画像を保持する。なお、画像DB175は、ハードディスク等の不揮発性の記録媒体を有してよく、圧縮RAW画像を当該記録媒体に保持してよい。なお、画像DB175は、この発明における画像保持部として機能することができる。   The image processing apparatus 170 receives the RAW moving image associated with the feature area information from the image processing apparatus 120. Then, the image processing apparatus 170 records the received RAW moving image in the image DB 175. As described above, the image DB 175 holds the compressed RAW image. Note that the image DB 175 may include a non-volatile recording medium such as a hard disk, and may hold a compressed RAW image in the recording medium. The image DB 175 can function as an image holding unit in the present invention.

また、画像処理装置170は、指示を監視対象空間150の映像を表示装置180に表示すべき旨の指示を受け付ける。画像処理装置170は、当該指示を受け付けた場合に、画像DB175に記録されている圧縮RAW動画を読み出して、対応づけられている特徴領域情報を用いて伸張して、同時化処理を施してから、表示装置180に供給する。このとき、画像処理装置170は、特徴領域において、特徴領域以外の領域より高い精度で同時化処理を施す。   Further, the image processing apparatus 170 receives an instruction to display the video of the monitoring target space 150 on the display device 180. When the image processing apparatus 170 accepts the instruction, the image processing apparatus 170 reads the compressed RAW moving image recorded in the image DB 175, decompresses it using the associated feature area information, and performs the synchronization process. To the display device 180. At this time, the image processing apparatus 170 performs the synchronization process in the feature region with higher accuracy than the region other than the feature region.

なお、特徴領域情報は、特徴領域の位置、特徴領域の大きさ、特徴領域の数、特徴領域が検出された撮像画像を識別する識別情報等を含むテキストデータ、もしくは当該テキストデータに圧縮、暗号化等の処理が施されたデータであってよい。そして、画像処理装置170は、特徴領域情報が含む特徴領域の位置、特徴領域の大きさ、特徴領域の数等に基づいて、種々の検索条件を満たすRAW画像を特定する。そして、画像処理装置170は、特定したRAW画像に同時化処理を施して、表示装置180に提供してよい。   The feature area information is text data including the position of the feature area, the size of the feature area, the number of feature areas, identification information for identifying the captured image in which the feature area is detected, or the like, or compressed or encrypted into the text data. It may be data that has been processed. Then, the image processing apparatus 170 identifies a RAW image that satisfies various search conditions based on the position of the feature region included in the feature region information, the size of the feature region, the number of feature regions, and the like. Then, the image processing apparatus 170 may perform synchronization processing on the identified RAW image and provide it to the display apparatus 180.

このように、画像処理システム10によると、特徴領域がRAW動画に対応づけて記録されているので、RAW動画における所定の条件に適合するRAW画像を高速に検索、頭出しをすることができる。また、画像処理システム10によると、所定の条件に適合するRAW画像だけ復号することができるので、再生指示に即応して速やかに所定の条件に適合する部分動画を提供することができる。   As described above, according to the image processing system 10, since the feature region is recorded in association with the RAW moving image, it is possible to search and find a RAW image that matches a predetermined condition in the RAW moving image at high speed. Further, according to the image processing system 10, only a RAW image that meets a predetermined condition can be decoded, so that a partial moving image that meets the predetermined condition can be provided promptly in response to a reproduction instruction.

以上説明したように、画像処理装置120は、RAW形式のまま、特徴領域検出および圧縮処理を行う。RAW画像には一の画素あたり一の色成分の値が含まれる。したがって、画像処理装置120は、一の画素あたり複数の色成分の値が含まれる画像を扱う場合に比べると、より少ない色数の画像情報を圧縮すればよい。このため、画像処理装置120は、より少ない演算量で圧縮することができ、ひいては圧縮RAW動画を速やかに画像処理装置170に供給することができる。また、撮像装置100は、同時化処理を行わずにRAW動画を画像処理装置120に送信すればよいので、速やかにRAW動画を画像処理装置120に送信することができる。   As described above, the image processing apparatus 120 performs feature region detection and compression processing in the RAW format. A RAW image contains one color component value per pixel. Therefore, the image processing apparatus 120 only needs to compress image information with a smaller number of colors compared to a case where an image including a plurality of color component values per pixel is handled. For this reason, the image processing apparatus 120 can perform compression with a smaller amount of computation, and as a result, the compressed RAW moving image can be quickly supplied to the image processing apparatus 170. In addition, since the imaging apparatus 100 only needs to transmit a RAW moving image to the image processing apparatus 120 without performing a synchronization process, the RAW moving image can be quickly transmitted to the image processing apparatus 120.

なお、RAW画像は、一の画素あたり複数の色成分の値が含まれる画像と比べると、より少数の色数しか含まれないので、色深度が同じであればデータは小さくなる。したがって、画像処理システム10によると、撮像装置100と画像処理装置120との間の通信経路、および画像処理装置120と画像処理装置170との間の通信経路において、RAW形式で画像をやりとりするので、それらの通信経路中における画像のデータ量を著しく削減することができる場合がある。   Note that the RAW image includes a smaller number of colors than an image including a plurality of color component values per pixel, and therefore the data is small if the color depth is the same. Therefore, according to the image processing system 10, images are exchanged in the RAW format on the communication path between the imaging apparatus 100 and the image processing apparatus 120 and on the communication path between the image processing apparatus 120 and the image processing apparatus 170. In some cases, the amount of image data in these communication paths can be significantly reduced.

なお、画像処理装置120は、RAW画像から検出された特徴領域を特定する情報を含む特徴領域情報を生成する。そして、画像処理装置120は、特徴領域情報を圧縮RAW動画に付帯して、通信ネットワーク110を通じて画像処理装置170に送信する。   Note that the image processing apparatus 120 generates feature area information including information that identifies the feature area detected from the RAW image. Then, the image processing device 120 attaches the feature area information to the compressed RAW moving image and transmits the feature region information to the image processing device 170 through the communication network 110.

画像処理装置170は、特徴領域情報が対応づけられた圧縮RAW動画を画像処理装置120から受信する。そして、画像処理装置170は、受信した圧縮RAW動画を、対応づけられている特徴領域情報を用いて伸張・同時化して表示用動画を生成して、生成した表示用動画を表示装置180に供給する。表示装置180は、画像処理装置170から供給された表示用動画を表示する。   The image processing apparatus 170 receives the compressed RAW moving image associated with the feature area information from the image processing apparatus 120. Then, the image processing apparatus 170 generates a display moving picture by decompressing and synchronizing the received compressed RAW moving picture using the associated feature area information, and supplies the generated display moving picture to the display apparatus 180. To do. The display device 180 displays the moving image for display supplied from the image processing device 170.

また、画像処理装置170は、圧縮RAW動画データに対応づけられている特徴領域情報に対応づけて、当該圧縮動画データを画像DB175に記録してもよい。そして、画像処理装置170は、表示装置180からの要求に応じて、画像DB175から圧縮動画データおよび特徴領域情報を読み出して、読み出した圧縮動画データから特徴領域情報を利用して伸張して表示用動画を生成して、表示装置180に供給してもよい。   The image processing apparatus 170 may record the compressed moving image data in the image DB 175 in association with the feature area information associated with the compressed RAW moving image data. Then, in response to a request from the display device 180, the image processing device 170 reads the compressed moving image data and the feature region information from the image DB 175, decompresses the read compressed moving image data using the feature region information, and displays it. A moving image may be generated and supplied to the display device 180.

なお、特徴領域情報は、特徴領域の位置、特徴領域の大きさ、特徴領域の数、特徴領域が検出された撮像画像を識別する識別情報等を含むテキストデータ、もしくは当該テキストデータに圧縮、暗号化等の処理が施されたデータであってよい。そして、画像処理装置170は、特徴領域情報が含む特徴領域の位置、特徴領域の大きさ、特徴領域の数等に基づいて、種々の検索条件を満たす撮像画像を特定する。そして、画像処理装置170は、特定した撮像画像を復号して、表示装置180に提供してよい。   The feature area information is text data including the position of the feature area, the size of the feature area, the number of feature areas, identification information for identifying the captured image in which the feature area is detected, or the like, or compressed or encrypted into the text data. It may be data that has been processed. Then, the image processing apparatus 170 identifies captured images that satisfy various search conditions based on the position of the feature region, the size of the feature region, the number of feature regions, and the like included in the feature region information. Then, the image processing device 170 may decode the identified captured image and provide the decoded captured image to the display device 180.

このように、画像処理システム10によると、代表特徴領域を動画に対応づけて記録しているので、動画における所定の条件に適合する撮像画像群を高速に検索、頭出しをすることができる。また、画像処理システム10によると、所定の条件に適合する撮像画像群だけ復号することができるので、再生指示に即応して速やかに所定の条件に適合する部分動画を表示することができる。   As described above, according to the image processing system 10, since the representative feature region is recorded in association with the moving image, it is possible to quickly search and find a picked-up image group that meets a predetermined condition in the moving image. Also, according to the image processing system 10, only a captured image group that meets a predetermined condition can be decoded, so that a partial moving image that meets the predetermined condition can be displayed promptly in response to a reproduction instruction.

図2は、画像処理装置120のブロック構成の一例を示す。画像処理装置120は、画像取得部250、特徴領域検出部203、検出条件取得部204、圧縮制御部210、圧縮部230、対応付け処理部206、および出力部207を備える。画像取得部250は、圧縮動画取得部201および圧縮動画伸張部202を有する。   FIG. 2 shows an example of a block configuration of the image processing apparatus 120. The image processing apparatus 120 includes an image acquisition unit 250, a feature region detection unit 203, a detection condition acquisition unit 204, a compression control unit 210, a compression unit 230, an association processing unit 206, and an output unit 207. The image acquisition unit 250 includes a compressed moving image acquisition unit 201 and a compressed moving image expansion unit 202.

圧縮動画取得部201は、圧縮された動画を取得する。具体的には、圧縮動画取得部201は、撮像装置100が生成した、符号化された撮像動画データを取得する。なお、撮像動画データは、RAW形式で表された撮像動画が圧縮されたものであってよい。   The compressed moving image acquisition unit 201 acquires a compressed moving image. Specifically, the compressed moving image acquisition unit 201 acquires encoded captured moving image data generated by the imaging device 100. Note that the captured moving image data may be obtained by compressing the captured moving image represented in the RAW format.

圧縮動画伸張部202は、圧縮動画取得部201が取得した撮像動画データを伸張して、撮像動画に含まれる複数の撮像画像を生成する。なお、本実施形態における撮像画像は、特に断らない限り、RAW形式で表されているものとする。そして、以下の説明における撮像画像は、この発明におけるRAW画像の一例であってよい。   The compressed moving image expansion unit 202 expands the captured moving image data acquired by the compressed moving image acquisition unit 201 and generates a plurality of captured images included in the captured moving image. Note that the captured image in the present embodiment is represented in the RAW format unless otherwise specified. And the captured image in the following description may be an example of the RAW image in this invention.

具体的には、圧縮動画伸張部202は、圧縮動画取得部201が取得した、符号化された撮像動画データを復号して、撮像動画に含まれる複数の撮像画像を生成する。   Specifically, the compressed moving image decompression unit 202 decodes the encoded captured moving image data acquired by the compressed moving image acquisition unit 201, and generates a plurality of captured images included in the captured moving image.

なお、撮像動画に含まれる撮像画像は、フレーム画像およびフィールド画像であってよい。なお、本実施形態における撮像画像は、この発明における動画構成画像の一例であってよい。このように、画像取得部250は、複数の撮像装置100のそれぞれにより撮像された複数の動画を取得する。   The captured image included in the captured moving image may be a frame image and a field image. The captured image in the present embodiment may be an example of a moving image constituent image in the present invention. In this way, the image acquisition unit 250 acquires a plurality of moving images captured by each of the plurality of imaging devices 100.

圧縮動画伸張部202によって得られた複数の撮像画像は、特徴領域検出部203および圧縮部230に供給される。特徴領域検出部203は、複数の撮像画像を含む動画から特徴領域を検出する。具体的には、特徴領域検出部203は、複数の撮像画像のそれぞれから特徴領域を検出する。このように、特徴領域検出部203は、RAW形式で表された撮像画像を用いて、撮像画像における特徴領域を検出する。なお、上記における撮像動画は、以下の説明における動画の一例であってよい。   The plurality of captured images obtained by the compressed moving image decompression unit 202 are supplied to the feature region detection unit 203 and the compression unit 230. The feature region detection unit 203 detects a feature region from a moving image including a plurality of captured images. Specifically, the feature region detection unit 203 detects a feature region from each of the plurality of captured images. As described above, the feature region detection unit 203 detects the feature region in the captured image using the captured image represented in the RAW format. Note that the captured moving image described above may be an example of a moving image in the following description.

例えば、特徴領域検出部203は、動画において画像内容が変化する画像領域を、特徴領域として検出する。具体的には、特徴領域検出部203は、動くオブジェクトを含む画像領域を、特徴領域として検出してよい。なお、特徴領域検出部203は、複数の撮像画像のそれぞれから、特徴の種類が異なる複数の特徴領域を検出してよい。なお、特徴の種類とは、人物と移動体等のように、オブジェクトの種類を指標にしてよい。オブジェクトの種類は、オブジェクトの形状またはオブジェクトの色の一致度に基づいて決定されてよい。このように、特徴領域検出部203は、複数の撮像画像から、含まれるオブジェクトの種類が異なる複数の特徴領域を検出してよい。   For example, the feature region detection unit 203 detects an image region whose image content changes in a moving image as a feature region. Specifically, the feature region detection unit 203 may detect an image region including a moving object as a feature region. Note that the feature region detection unit 203 may detect a plurality of feature regions having different types of features from each of the plurality of captured images. Note that the type of feature may be an index of the type of object such as a person and a moving object. The type of the object may be determined based on the degree of coincidence of the shape of the object or the color of the object. As described above, the feature region detection unit 203 may detect a plurality of feature regions having different types of included objects from a plurality of captured images.

例えば、特徴領域検出部203は、予め定められた形状パターンに予め定められた一致度以上の一致度で一致するオブジェクトを複数の撮像画像のそれぞれから抽出して、抽出したオブジェクトを含む撮像画像における領域を、特徴の種類が同じ特徴領域として検出してよい。なお、形状パターンは、特徴の種類毎に複数定められてよい。また、形状パターンの一例としては、人物の顔の形状パターンを例示することができる。なお、複数の人物毎に異なる顔のパターンが定められてよい。これにより、特徴領域検出部203は、異なる人物をそれぞれ含む異なる領域を、異なる特徴領域として検出することができる。なお、特徴領域検出部203は、上記の人物の顔の他にも、人物の頭部または人物の手等の人体の一部の部位、あるいは人体以外の生体の少なくとも一部の部位を含む領域を、特徴領域として検出することができる。なお、生体とは、生体内部の腫瘍組織または血管等のように、生体の内部に存在する特定の組織を含む。他にも、特徴領域検出部203は、生体の他にも、貨幣、キャッシュカード等のカード、車輌、あるいは車両のナンバープレートが撮像された領域を特徴領域として検出してよい。   For example, the feature region detection unit 203 extracts an object that matches a predetermined shape pattern with a matching degree equal to or higher than a predetermined matching degree from each of the plurality of picked-up images, and in the picked-up image including the extracted object. The region may be detected as a feature region having the same feature type. Note that a plurality of shape patterns may be determined for each type of feature. As an example of the shape pattern, a shape pattern of a human face can be exemplified. Different face patterns may be determined for each of a plurality of persons. Thereby, the feature region detection unit 203 can detect different regions each including a different person as different feature regions. The feature region detection unit 203 includes, in addition to the person's face, a part of the human body such as the head of the person or the hand of the person, or at least a part of a living body other than the human body. Can be detected as a feature region. The living body includes a specific tissue existing inside the living body such as a tumor tissue or a blood vessel inside the living body. In addition to the living body, the feature region detection unit 203 may detect, as the feature region, a region in which a card such as money, a cash card, a vehicle, or a license plate of the vehicle is captured.

また、特徴領域検出部203は、テンプレートマッチング等によるパターンマッチングの他にも、例えば特開2007−188419号公報に記載された機械学習(例えば、アダブースト)等による学習結果に基づいて、特徴領域を検出することもできる。例えば、予め定められた被写体の画像から抽出された画像特徴量と、予め定められた被写体以外の被写体の画像から抽出された画像特徴量とを用いて、予め定められた被写体の画像から抽出された画像特徴量の特徴を学習する。そして、特徴領域検出部203は、当該学習された特徴に適合する特徴を有する画像特徴量が抽出された領域を、特徴領域として検出してよい。これにより特徴領域検出部203は、予め定められた被写体が撮像されている領域を特徴領域として検出することができる。   In addition to pattern matching by template matching or the like, the feature region detection unit 203 detects feature regions based on learning results by machine learning (for example, Adaboost) described in, for example, Japanese Patent Application Laid-Open No. 2007-188419. It can also be detected. For example, an image feature amount extracted from a predetermined subject image and an image feature amount extracted from a subject image other than the predetermined subject are extracted from the predetermined subject image. Learn the features of the image features. Then, the feature region detection unit 203 may detect a region from which an image feature amount having a feature that matches the learned feature is extracted as a feature region. Thereby, the feature region detection unit 203 can detect a region where a predetermined subject is imaged as a feature region.

なお、特徴領域検出部203は、撮像画像における特定の色成分の値を持つ画素の画素値に基づいて、上記手法により特徴領域を検出してよい。例えば、検出条件取得部204は、特徴領域検出部203が撮像画像から前記特徴領域を検出する場合に用いるべき画素値の色成分を取得する。なお、検出条件取得部204は、当該色成分を、画像処理装置120の外部から取得してよい。そして、特徴領域検出部203は、撮像画像に含まれる画素のうち、検出条件取得部204が取得した色成分の値を持つ画素の画素値に基づいて、特徴領域を検出してよい。   Note that the feature region detection unit 203 may detect the feature region by the above-described method based on the pixel value of a pixel having a specific color component value in the captured image. For example, the detection condition acquisition unit 204 acquires color components of pixel values to be used when the feature region detection unit 203 detects the feature region from the captured image. The detection condition acquisition unit 204 may acquire the color component from the outside of the image processing apparatus 120. The feature region detection unit 203 may detect the feature region based on the pixel value of the pixel having the value of the color component acquired by the detection condition acquisition unit 204 among the pixels included in the captured image.

このように、特徴領域検出部203は、複数の動画のそれぞれに含まれる複数の撮像画像から、複数の特徴領域を検出する。そして、特徴領域検出部203は、検出した特徴領域を示す情報を、圧縮制御部210に供給する。なお、特徴領域を示す情報とは、特徴領域の位置を示す特徴領域の座標情報、特徴領域の種類を示す種類情報、および特徴領域が検出された撮像動画を識別する情報を含む。   As described above, the feature region detection unit 203 detects a plurality of feature regions from a plurality of captured images included in each of the plurality of moving images. Then, the feature region detection unit 203 supplies information indicating the detected feature region to the compression control unit 210. Note that the information indicating the feature region includes coordinate information of the feature region indicating the position of the feature region, type information indicating the type of the feature region, and information for identifying the captured moving image in which the feature region is detected.

圧縮制御部210は、特徴領域検出部203から取得した特徴領域を示す情報に基づいて、特徴領域に応じて圧縮部230による動画の圧縮処理を制御する。圧縮部230は、動画に含まれる動画構成画像における特徴領域以外の領域の解像度を低解像度化することにより撮像画像を圧縮する。圧縮部230は、RAW形式で表された撮像画像を、撮像画像における特徴領域と撮像画像における特徴領域以外の領域とで異なる強度で圧縮することにより、RAW形式で表される圧縮された撮像画像である圧縮RAW画像を生成する。   The compression control unit 210 controls the compression processing of the moving image by the compression unit 230 according to the feature region based on the information indicating the feature region acquired from the feature region detection unit 203. The compression unit 230 compresses the captured image by reducing the resolution of the region other than the feature region in the moving image constituent image included in the moving image. The compression unit 230 compresses the captured image expressed in the RAW format with different intensities in the feature region in the captured image and the region other than the feature region in the captured image, thereby compressing the captured image expressed in the RAW format. A compressed RAW image is generated.

なお、圧縮部230は、撮像画像における複数の特徴領域の画像を、特徴領域の特徴の種類に応じて異なる強度でそれぞれ圧縮することにより、圧縮RAW画像を生成する。具体的には、圧縮部230は、複数の撮像画像のそれぞれを、複数の撮像画像のそれぞれにおける特徴領域と複数の撮像画像のそれぞれにおける特徴領域以外の領域とで異なる強度で圧縮することにより、RAW形式でそれぞれ表される複数の圧縮RAW画像を生成する。このように、圧縮部230は、RAW画像における各画像領域のそれぞれを重要度に応じた強度で圧縮する。   Note that the compression unit 230 generates a compressed RAW image by compressing the images of the plurality of feature regions in the captured image with different intensities according to the feature types of the feature regions. Specifically, the compression unit 230 compresses each of the plurality of captured images with different intensities in the feature region in each of the plurality of captured images and the region other than the feature region in each of the plurality of captured images. A plurality of compressed RAW images each represented in the RAW format are generated. In this way, the compression unit 230 compresses each image area in the RAW image with an intensity corresponding to the importance.

対応付け処理部206は、撮像画像から検出された特徴領域を特定する情報を、撮像画像に対応づける。具体的には、対応付け処理部206は、撮像画像から検出された特徴領域を特定する情報を、撮像画像を動画構成画像として含む圧縮RAW動画に対応づける。そして、出力部207は、対応付け処理部206によって特徴領域が対応付けされた圧縮RAW動画を、画像処理装置170に出力する。画像処理装置170は、圧縮RAW動画を画像DB175に記録する。   The association processing unit 206 associates information specifying the feature area detected from the captured image with the captured image. Specifically, the association processing unit 206 associates information for specifying a feature area detected from a captured image with a compressed RAW moving image including the captured image as a moving image constituent image. Then, the output unit 207 outputs the compressed RAW moving image in which the feature area is associated by the association processing unit 206 to the image processing apparatus 170. The image processing apparatus 170 records the compressed RAW moving image in the image DB 175.

図3は、圧縮部230のブロック構成の一例を示す。圧縮部230は、画像分割部232、複数の固定値化部234a−c(以下、固定値化部234と総称する場合がある。)、および複数の圧縮処理部236a−d(以下、圧縮処理部236と総称する場合がある。)を有する。   FIG. 3 shows an example of a block configuration of the compression unit 230. The compression unit 230 includes an image dividing unit 232, a plurality of fixed value conversion units 234a-c (hereinafter may be collectively referred to as a fixed value conversion unit 234), and a plurality of compression processing units 236a-d (hereinafter referred to as compression processing). Part 236 in some cases).

画像分割部232は、画像取得部250から複数の撮像画像を取得する。なお、上述したように、撮像画像はRAW形式で表されている。   The image dividing unit 232 acquires a plurality of captured images from the image acquisition unit 250. As described above, the captured image is represented in the RAW format.

そして、画像分割部232は、複数の撮像画像を、特徴領域と、特徴領域以外の背景領域とに分割する。具体的には、画像分割部232は、複数の撮像画像を、複数の特徴領域のそれぞれと、特徴領域以外の背景領域とに分割する。このように、画像分割部232は、複数の撮像画像のそれぞれを、特徴領域と背景領域とに分割する。そして、圧縮処理部236は、特徴領域の画像である特徴領域画像と背景領域の画像である背景領域画像とを、それぞれ異なる強度で圧縮する。具体的には、圧縮処理部236は、特徴領域画像を複数含む特徴領域動画と背景領域画像を複数含む背景領域動画とを、それぞれ異なる強度で圧縮する。   Then, the image dividing unit 232 divides the plurality of captured images into a feature region and a background region other than the feature region. Specifically, the image dividing unit 232 divides the plurality of captured images into each of a plurality of feature areas and a background area other than the feature areas. As described above, the image dividing unit 232 divides each of the plurality of captured images into the feature region and the background region. Then, the compression processing unit 236 compresses the feature region image, which is the feature region image, and the background region image, which is the background region image, with different strengths. Specifically, the compression processing unit 236 compresses a feature area moving image including a plurality of feature area images and a background area moving image including a plurality of background area images with different strengths.

具体的には、画像分割部232は、複数の撮像画像を分割することにより、複数の特徴の種類毎に特徴領域動画を生成する。そして、固定値化部234は、特徴の種類毎に生成された複数の特徴領域動画に含まれる特徴領域画像のそれぞれについて、それぞれの特徴の種類の特徴領域以外の領域の画素値を固定値化する。具体的には、固定値化部234は、特徴領域以外の領域の画素値を予め定められた画素値にする。   Specifically, the image dividing unit 232 generates a feature area moving image for each of a plurality of feature types by dividing a plurality of captured images. Then, the fixed value unit 234 fixes the pixel values of the regions other than the feature regions of the respective feature types for each of the feature region images included in the plurality of feature region moving images generated for each feature type. To do. Specifically, the fixed value converting unit 234 sets pixel values in regions other than the feature region to predetermined pixel values.

そして、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画をMPEG圧縮する。なお、圧縮処理部236におけるRAW形式での圧縮処理の具体例については後に説明する。   Then, the compression processing unit 236 compresses a plurality of feature area moving images for each feature type. For example, the compression processing unit 236 performs MPEG compression on a plurality of feature area moving images for each feature type. A specific example of the compression processing in the RAW format in the compression processing unit 236 will be described later.

なお、固定値化部234a、固定値化部234b、および固定値化部234cは、それぞれ第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、および第3の特徴の種類の特徴領域動画を固定値化する。そして、圧縮処理部236a、圧縮処理部236b、および圧縮処理部236cは、第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、および第3の特徴の種類の特徴領域動画を圧縮する。   Note that the fixed value unit 234a, the fixed value unit 234b, and the fixed value unit 234c are a feature region moving image of the first feature type, a feature region moving image of the second feature type, and a third feature, respectively. The type of feature area animation is fixed. Then, the compression processing unit 236a, the compression processing unit 236b, and the compression processing unit 236c are the feature region moving image of the first feature type, the feature region moving image of the second feature type, and the feature of the third feature type. Compress area video.

なお、圧縮処理部236a−cは、特徴の種類に応じて予め定められた強度で特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類に応じて予め定められた異なる解像度に特徴領域動画を変換して、変換した特徴領域動画を圧縮してよい。他にも、圧縮処理部236は、MPEG符号化により特徴領域動画を圧縮する場合には、特徴の種類に応じて予め定められた異なる量子化パラメータで特徴領域動画を圧縮してよい。   Note that the compression processing units 236a-c compress the feature area moving image with a predetermined strength according to the type of feature. For example, the compression processing unit 236 may convert the feature area moving image to a different resolution determined in advance according to the type of the feature, and compress the converted feature area moving image. In addition, when compressing the feature region moving image by MPEG encoding, the compression processing unit 236 may compress the feature region moving image with different quantization parameters determined in advance according to the feature type.

なお、圧縮処理部236dは、背景領域動画を圧縮する。なお、圧縮処理部236dは、圧縮処理部236a−cのいずれによる強度より高い強度で背景領域動画を圧縮してよい。圧縮処理部236によって圧縮された特徴領域動画および背景領域動画は、対応付け処理部206に供給される。   The compression processing unit 236d compresses the background area moving image. Note that the compression processing unit 236d may compress the background region moving image with a strength higher than the strength of any of the compression processing units 236a-c. The feature area moving image and the background area moving image compressed by the compression processing unit 236 are supplied to the association processing unit 206.

なお、特徴領域以外の領域が固定値化部234によって固定値化されているので、圧縮処理部236がMPEG符号化等によって予測符号化する場合に、特徴領域以外の領域において予測画像との間の画像の差分量を著しく低減することができる。したがって、特徴領域動画の圧縮率を著しく高めることができる。   Since regions other than the feature region have been fixed values by the fixed value unit 234, when the compression processing unit 236 performs predictive encoding by MPEG encoding or the like, the region other than the feature region may be connected to the predicted image. The amount of difference between the images can be significantly reduced. Therefore, the compression rate of the feature area moving image can be significantly increased.

なお、本図では、圧縮部230が有する複数の圧縮処理部236のそれぞれが複数の特徴領域の画像および背景領域の画像をそれぞれ圧縮したが、他の形態では、圧縮部230は一の圧縮処理部236を有してよく、一の圧縮処理部236が、複数の特徴領域の画像および背景領域の画像をそれぞれ異なる強度で圧縮してよい。例えば、複数の特徴領域の画像および背景領域の画像が一の圧縮処理部236に時分割で順次供給され、一の圧縮処理部236が、複数の特徴領域の画像および背景領域の画像をそれぞれ異なる強度で順次圧縮してよい。   In this figure, each of the plurality of compression processing units 236 included in the compression unit 230 compresses a plurality of feature region images and a background region image. However, in another embodiment, the compression unit 230 performs one compression process. A single compression processing unit 236 may compress a plurality of feature region images and background region images with different intensities. For example, a plurality of feature region images and a background region image are sequentially supplied to one compression processing unit 236 in a time-sharing manner, and the one compression processing unit 236 differs from the plurality of feature region images and the background region image. You may compress sequentially by intensity.

他にも、一の圧縮処理部236は、複数の特徴領域の画像情報および背景領域の画像情報を異なる量子化係数でそれぞれ量子化することによって、複数の特徴領域の画像および背景領域の画像をそれぞれ異なる強度で圧縮してよい。また、複数の特徴領域の画像および背景領域の画像がそれぞれ異なる画質の画像に変換された画像が一の圧縮処理部236に供給され、一の圧縮処理部236が、複数の特徴領域の画像および背景領域の画像をそれぞれ圧縮してよい。また、上記のように一の圧縮処理部236が領域毎に異なる量子化係数で量子化したり、領域毎に異なる画質に変換された画像を一の圧縮処理部236が圧縮する形態では、一の圧縮処理部236は、一の画像を圧縮してもよく、本図で説明したように画像分割部232によって分割された画像をそれぞれ圧縮してもよい。なお、一の圧縮処理部236が一の画像を圧縮する場合には、画像分割部232による分割処理および固定値化部234による固定値化処理はなされなくてよいので、圧縮部230は、画像分割部232および固定値化部234を有しなくてよい。   In addition, the one compression processing unit 236 quantizes the image information of the plurality of feature regions and the image information of the background region with different quantization coefficients, respectively, thereby converting the images of the plurality of feature regions and the images of the background region. They may be compressed with different strengths. Also, an image obtained by converting a plurality of feature region images and a background region image into images of different image quality is supplied to one compression processing unit 236, and the one compression processing unit 236 includes a plurality of feature region images and Each image in the background area may be compressed. Further, as described above, one compression processing unit 236 quantizes with a different quantization coefficient for each region, or one compression processing unit 236 compresses an image converted into a different image quality for each region. The compression processing unit 236 may compress one image, or may compress each of the images divided by the image dividing unit 232 as described with reference to FIG. When one compression processing unit 236 compresses one image, the image dividing unit 232 does not need to perform the dividing process and the fixed value converting unit 234 does not perform the fixing process. The dividing unit 232 and the fixed value unit 234 may not be provided.

図4は、画像処理装置170のブロック構成の一例を示す。画像処理装置170は、画像取得部301は、対応付け解析部302、伸張制御部310、伸張部320、色処理部360、合成部330、出力部340、指示取得部350、を備える。   FIG. 4 shows an example of a block configuration of the image processing apparatus 170. The image processing apparatus 170 includes an association analysis unit 302, an expansion control unit 310, an expansion unit 320, a color processing unit 360, a synthesis unit 330, an output unit 340, and an instruction acquisition unit 350.

画像取得部301は、圧縮部230により圧縮された圧縮動画を取得する。具体的には、画像取得部301は、複数の特徴領域動画および背景領域動画を含む圧縮動画を取得する。より具体的には、画像取得部301は、特徴領域情報が付帯された圧縮動画を取得する。なお、圧縮動画は、圧縮された撮像画像である複数の圧縮RAW画像を含む。また、複数の特徴領域動画および背景領域動画のそれぞれは、複数の圧縮RAW画像を含む。このように、画像取得部301は、圧縮部230により圧縮された圧縮RAW画像を取得する。   The image acquisition unit 301 acquires the compressed moving image compressed by the compression unit 230. Specifically, the image acquisition unit 301 acquires a compressed moving image including a plurality of feature area moving images and a background area moving image. More specifically, the image acquisition unit 301 acquires a compressed moving image with feature area information attached thereto. The compressed moving image includes a plurality of compressed RAW images that are compressed captured images. In addition, each of the plurality of feature area moving images and the background area moving image includes a plurality of compressed RAW images. As described above, the image acquisition unit 301 acquires the compressed RAW image compressed by the compression unit 230.

そして、対応付け解析部302は、圧縮動画を複数の特徴領域動画および背景領域動画と特徴領域情報とに分離して、複数の特徴領域動画および背景領域動画を伸張部320に供給する。また、対応付け解析部302は、特徴領域情報を解析して、特徴領域の位置および特徴の種類を伸張制御部310に供給する。伸張制御部310は、対応付け解析部302から取得した特徴領域の位置および特徴の種類に応じて、伸張部320による伸張処理を制御する。例えば、伸張制御部310は、特徴領域の位置および特徴の種類に応じて圧縮部230が動画の各領域を圧縮した圧縮方式に応じて、伸張部320に圧縮動画が示す動画の各領域を伸張させる。   Then, the association analysis unit 302 separates the compressed moving image into a plurality of feature region moving images, a background region moving image, and feature region information, and supplies the plurality of feature region moving images and background region moving images to the decompressing unit 320. The association analysis unit 302 also analyzes the feature region information and supplies the feature region position and the feature type to the extension control unit 310. The decompression control unit 310 controls the decompression processing by the decompression unit 320 according to the position of the feature region and the feature type acquired from the association analysis unit 302. For example, the decompression control unit 310 decompresses each region of the moving image indicated by the compressed moving image to the decompressing unit 320 according to the compression method in which the compression unit 230 compresses each region of the moving image according to the position of the feature region and the type of feature. Let

以下に、伸張部320が有する各構成要素の動作を説明する。伸張部320は、複数の復号器322a−d(以下、復号器322と総称する。)を有する。復号器322は、符号化された複数の特徴領域動画および背景領域動画のいずれかを復号する。具体的には、復号器322a、復号器322b、復号器322c、および復号器322dは、それぞれ第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画を復号する。このように、伸張部320は、特徴領域動画または背景領域動画に含まれている圧縮RAW画像を伸張することにより、伸張された撮像画像である伸張RAW画像を生成する。このように、伸張部320は、画像DB175に保持された圧縮RAW画像を伸張することにより、伸張RAW画像を生成する。   Hereinafter, the operation of each component included in the extension unit 320 will be described. The decompression unit 320 includes a plurality of decoders 322a-d (hereinafter collectively referred to as decoders 322). The decoder 322 decodes one of the plurality of encoded characteristic area moving images and background area moving images. Specifically, the decoder 322a, the decoder 322b, the decoder 322c, and the decoder 322d decode the first feature region moving image, the second feature region moving image, the third feature region moving image, and the background region moving image, respectively. In this manner, the decompression unit 320 creates a decompressed RAW image, which is a decompressed captured image, by decompressing the compressed RAW image included in the feature region moving image or the background region moving image. As described above, the expansion unit 320 generates an expanded RAW image by expanding the compressed RAW image held in the image DB 175.

色処理部360は、伸張RAW画像が示す画像領域における複数の画素のそれぞれにおける複数の色成分の値を、伸張RAW画像における一以上の画素の画素値に基づいて算出する。具体的には、色処理部360は、伸張RAW画像における特徴領域における画素と、伸張RAW画像における特徴領域以外の領域における画素とを、異なる方式で複数の色成分の値を算出する。   The color processing unit 360 calculates values of a plurality of color components in each of a plurality of pixels in the image region indicated by the expanded RAW image based on pixel values of one or more pixels in the expanded RAW image. Specifically, the color processing unit 360 calculates the values of a plurality of color components using different methods for the pixels in the feature region in the expanded RAW image and the pixels in the region other than the feature region in the expanded RAW image.

より具体的には、色処理部360は、伸張RAW画像における特徴領域以外の領域における画素より伸張RAW画像における特徴領域における画素において、複数の色成分の値をより高い精度で算出してよい。例えば、色処理部360は、伸張RAW画像における特徴領域以外の領域における画素より伸張RAW画像における特徴領域における画素において、より多い数の画素の画素値を用いて複数の色成分の値を算出してよい。他にも、色処理部360は、伸張RAW画像における特徴領域に含まれる画素における複数の色成分の値を、伸張RAW画像における複数の画素値を用いて算出して、伸張RAW画像における特徴領域以外の領域に含まれる画素における複数の色成分の値を、伸張RAW画像における他の画素における同じ色成分の値で表してもよい。   More specifically, the color processing unit 360 may calculate the values of a plurality of color components with higher accuracy in the pixels in the feature region in the expanded RAW image than in the pixels in the region other than the feature region in the expanded RAW image. For example, the color processing unit 360 calculates the values of a plurality of color components using the pixel values of a larger number of pixels in the pixels in the feature region in the expanded RAW image than in the pixels in the region other than the feature region in the expanded RAW image. It's okay. In addition, the color processing unit 360 calculates the values of a plurality of color components in the pixels included in the feature area in the expanded RAW image using the plurality of pixel values in the expanded RAW image, and the feature area in the expanded RAW image The values of a plurality of color components in the pixels included in the other area may be represented by the same color component values in other pixels in the expanded RAW image.

なお、複数の特徴領域が検出されている場合には、色処理部360は、伸張RAW画像における複数の特徴領域に含まれる画素における複数の色成分の値を、特徴領域の特徴の種類に応じて異なる方式で算出してよい。また、この場合、色処理部360は、伸張RAW画像における複数の特徴領域に含まれる画素における複数の色成分の値を、特徴領域の特徴の種類に応じた精度で算出してよい。   When a plurality of feature regions are detected, the color processing unit 360 determines the values of the plurality of color components in the pixels included in the plurality of feature regions in the expanded RAW image according to the feature types of the feature regions. May be calculated using different methods. In this case, the color processing unit 360 may calculate the values of the plurality of color components in the pixels included in the plurality of feature areas in the expanded RAW image with accuracy according to the feature type of the feature area.

合成部330は、伸張部320によって伸張されて得られた複数の特徴領域動画および背景領域動画を合成して、一の表示動画を生成する。具体的には、合成部330は、背景領域動画に含まれる撮像画像に、複数の特徴領域動画に含まれる撮像画像上の特徴領域の画像を合成することによって、一の表示動画を生成する。   The synthesizing unit 330 synthesizes a plurality of feature area moving images and background area moving images obtained by the expansion by the expansion unit 320 to generate one display moving image. Specifically, the combining unit 330 generates one display moving image by combining the image of the feature region on the captured image included in the plurality of feature region moving images with the captured image included in the background region moving image.

出力部340は、対応付け解析部302から取得した特徴領域情報および表示動画を表示装置180に出力する。なお、以上の動作は、外部からの指示を取得した場合になされてよい。   The output unit 340 outputs the feature area information and the display moving image acquired from the association analysis unit 302 to the display device 180. The above operation may be performed when an external instruction is acquired.

例えば、指示取得部350は、画像DB175に保持された圧縮RAW画像を出力すべき旨の指示を取得する。出力すべき旨の指示とは、表示すべき旨の指示および送信する旨の指示を含む。   For example, the instruction acquisition unit 350 acquires an instruction to output a compressed RAW image held in the image DB 175. The instruction to output includes an instruction to display and an instruction to transmit.

そして、伸張部320は、指示取得部350が指示を取得した場合に、画像DB175に保持された圧縮RAW画像を伸張することにより、伸張RAW画像を生成する。そして、色処理部360は、指示取得部350が指示を取得した場合に、伸張RAW画像が示す画像領域における複数の画素のそれぞれにおける複数の色成分の値を、伸張RAW画像における一以上の画素の画素値に基づいて算出する。そして、出力部は、指示取得部350が指示を取得した場合に、色処理部360により算出された複数の色成分の値を複数の画素のそれぞれにおける画素値として有する出力画像を出力する。このように、出力部340は、指示取得部350が指示を取得した場合に、伸張RAW画像が示す画像領域における複数の画素のそれぞれにおいて複数の色成分の値を有する出力画像を出力する。   Then, when the instruction acquisition unit 350 acquires an instruction, the expansion unit 320 generates an expanded RAW image by expanding the compressed RAW image held in the image DB 175. Then, when the instruction acquisition unit 350 acquires the instruction, the color processing unit 360 converts the values of the plurality of color components in each of the plurality of pixels in the image region indicated by the expanded RAW image into one or more pixels in the expanded RAW image. It calculates based on the pixel value of. Then, when the instruction acquisition unit 350 acquires an instruction, the output unit outputs an output image having the values of the plurality of color components calculated by the color processing unit 360 as the pixel values in each of the plurality of pixels. As described above, when the instruction acquisition unit 350 acquires an instruction, the output unit 340 outputs an output image having a plurality of color component values in each of a plurality of pixels in the image region indicated by the expanded RAW image.

以上説明したように、画像処理装置170は、RAW形式で保持されている画像を、指示を取得した場合に同時化処理して表示装置180に供給することができる。このため、画像DB175の記憶容量を削減することができる。また、画像処理装置170は、背景領域については近傍の画素をコピーする等の低精度の同時化処理を行い、特徴領域にだけ高精度の同時化処理を行う。このため、画像処理装置170は、画像DB175がRAW形式で動画を記録している場合であっても、表示用の動画を表示装置180に速やかに提供することができる。   As described above, the image processing apparatus 170 can synchronize and supply an image held in the RAW format to the display apparatus 180 when an instruction is acquired. For this reason, the storage capacity of the image DB 175 can be reduced. Further, the image processing apparatus 170 performs low-precision synchronization processing such as copying neighboring pixels for the background region, and performs high-precision synchronization processing only on the feature region. For this reason, the image processing apparatus 170 can quickly provide a moving image for display to the display device 180 even when the image DB 175 records a moving image in the RAW format.

なお、合成部330は、色処理部360が同時化して得られた撮像画像における特徴領域の画像に超解像処理を施してから、特徴領域以外の領域と合成してもよい。このような超解像処理としては、特開2006−350498号公報に記載されたような主成分分析に基づく超解像処理、あるいは特開2004−88615号公報に記載されたような被写体の動きに基づく超解像処理を例示することができる。   Note that the combining unit 330 may perform super-resolution processing on the image of the feature region in the captured image obtained by the color processing unit 360 simultaneously, and then combine the image with the region other than the feature region. Examples of such super-resolution processing include super-resolution processing based on principal component analysis as described in JP-A-2006-350498, or subject movement as described in JP-A-2004-88615. The super-resolution processing based on can be illustrated.

なお、合成部330は、色処理部360が同時化して得られた撮像画像における特徴領域に含まれるオブジェクト毎に、超解像処理を施してよい。例えば、特徴領域が人物の顔画像を含む場合に、合成部330は、オブジェクトの一例としての顔部位(例えば、目、鼻、口など)毎に、超解像処理を施す。この場合、合成部330は、特開2006−350498号公報に記載されたようなモデル等の学習データを、顔部位(例えば、目、鼻、口など)毎に記憶しておく。そして、合成部330は、特徴領域に含まれる顔部位毎に選択した学習データを使用して、各顔部位の画像に超解像処理を施してよい。   Note that the synthesis unit 330 may perform super-resolution processing for each object included in the feature region in the captured image obtained by the color processing unit 360 being synchronized. For example, when the feature region includes a human face image, the synthesis unit 330 performs super-resolution processing for each face part (for example, eyes, nose, mouth, etc.) as an example of the object. In this case, the synthesizing unit 330 stores learning data such as a model described in JP-A-2006-350498 for each face part (for example, eyes, nose, mouth). Then, the synthesis unit 330 may perform super-resolution processing on the image of each face part using the learning data selected for each face part included in the feature region.

このように、合成部330は、主成分分析(PCA)を用いて特徴領域の画像を再構成することができる。なお、合成部330による画像再構成手法、および当該画像再構成用の学習法としては、主成分分析(PCA)による学習・画像再構成の他に、局所保存投影(locality preserving projection:LPP)、線形判別分析(Linear Discriminant Analysis:LDA)、独立成分分析(Independent component analysis:ICA)、多次元スケーリング(multidimensional scaling:MDS)、サポートベクターマシン(サポートベクター回帰)、ニューラルネットワーク、隠れマルコフモデル、Bayes推論、最大事後確率推定、反復逆投影、Wavelet変換、局所線形埋め込み(locally linear embedding:LLE)、マルコフランダム場(Markov random field:MRF)等の手法を用いることができる。   As described above, the synthesis unit 330 can reconstruct the image of the feature region using principal component analysis (PCA). As an image reconstruction method by the synthesizer 330 and a learning method for the image reconstruction, in addition to learning / image reconstruction by principal component analysis (PCA), local preserving projection (LPP), Linear Discriminant Analysis (LDA), Independent Component Analysis (ICA), Multidimensional Scaling (MDS), Support Vector Machine (Support Vector Regression), Neural Network, Hidden Markov Model Theory , Maximum posterior probability estimation, iterative backprojection, wavelet transform, locally linear embedding bedding: LLE), Markov random field (Markov random field: MRF) method can be used such as.

また、学習データとしては、特開2006−350498号公報に記載されたようなモデルの他に、オブジェクトの多数のサンプル画像からそれぞれ抽出された、オブジェクトの画像の低周波成分および高周波成分を含んでよい。ここで、オブジェクトの画像の低周波成分は、オブジェクトの種類毎に、K−means法等によってさらにクラスタリングされていて、各クラスタ毎に代表的な低周波成分(例えば、重心値)が定められていてよい。   In addition to the model as described in Japanese Patent Application Laid-Open No. 2006-350498, the learning data includes low frequency components and high frequency components of the object image respectively extracted from a large number of sample images of the object. Good. Here, the low-frequency component of the object image is further clustered by the K-means method or the like for each object type, and a representative low-frequency component (for example, a centroid value) is determined for each cluster. It's okay.

そして、合成部330は、撮像画像における特徴領域に含まれるオブジェクトの画像から低周波成分を抽出する。そして、合成部330は、抽出したオブジェクトの種類のオブジェクトのサンプル画像から抽出された低周波成分のクラスタのうち、抽出した低周波成分に適合する値が代表的な低周波成分として定められたクラスタを特定する。そして、合成部330は、特定したクラスタに含まれる低周波成分に対応づけられている高周波成分のクラスタを特定する。このようにして、合成部330は、撮像画像に含まれるオブジェクトから抽出された低周波成分に相関のある高周波成分のクラスタを特定することができる。そして、合成部330は、特定した高周波成分のクラスタを代表する高周波成分を用いて、オブジェクトの画像をより高画質な高画質画像に変換してよい。例えば、合成部330は、各オブジェクトの中心から顔上の処理対象位置までの距離に応じた重みでオブジェクト毎に選択された当該高周波成分をオブジェクトの画像に加算してよい。なお、当該代表する高周波成分は、閉ループ学習によって生成されてよい。このように、合成部330は、各オブジェクト毎に学習することによって生成された学習データの中から、望ましい学習データをオブジェクト毎に選択して利用するので、オブジェクトの画像をより高い精度で高画質化することができる場合がある。   Then, the synthesis unit 330 extracts a low frequency component from the image of the object included in the feature region in the captured image. The synthesizing unit 330 then selects a cluster in which a value suitable for the extracted low-frequency component is determined as a representative low-frequency component from among the low-frequency component clusters extracted from the sample image of the extracted object type object. Is identified. Then, the synthesis unit 330 identifies a cluster of high frequency components associated with the low frequency component included in the identified cluster. In this way, the synthesizer 330 can identify a cluster of high frequency components that are correlated with the low frequency components extracted from the objects included in the captured image. Then, the synthesis unit 330 may convert the image of the object into a higher quality image with higher frequency components that represent the specified cluster of higher frequency components. For example, the synthesis unit 330 may add the high-frequency component selected for each object with a weight according to the distance from the center of each object to the processing target position on the face to the object image. Note that the representative high-frequency component may be generated by closed-loop learning. As described above, since the synthesis unit 330 selects and uses desired learning data for each object from learning data generated by learning for each object, the image of the object is imaged with higher accuracy. May be possible.

図5は、圧縮部230の他のブロック構成の一例を示す。本構成における圧縮部230は、特徴の種類に応じた空間スケーラブルな符号化処理によって複数の撮像画像を圧縮する。   FIG. 5 shows an example of another block configuration of the compression unit 230. The compression unit 230 in this configuration compresses a plurality of captured images by a spatial scalable encoding process corresponding to the type of feature.

本構成における圧縮部230は、画質変換部510、差分処理部520、および符号化部530を有する。差分処理部520は、複数の階層間差分処理部522a−d(以下、階層間差分処理部522と総称する。)を含む。符号化部530は、複数の符号器532a−d(以下、符号器532と総称する。)を含む。   The compression unit 230 in this configuration includes an image quality conversion unit 510, a difference processing unit 520, and an encoding unit 530. The difference processing unit 520 includes a plurality of inter-layer difference processing units 522a-d (hereinafter collectively referred to as inter-layer difference processing units 522). Encoding section 530 includes a plurality of encoders 532a-d (hereinafter collectively referred to as encoders 532).

画質変換部510は、画像DB175から複数の撮像画像を取得する。また、画質変換部510は、特徴領域検出部203が検出した特徴領域を特定する情報および特徴領域の特徴の種類を特定する情報を取得する。そして、画質変換部510は、撮像画像を複製することにより、特徴領域の特徴の種類の数の撮像画像を生成する。そして、画質変換部510は、生成した撮像画像を、特徴の種類に応じた解像度の画像に変換する。   The image quality conversion unit 510 acquires a plurality of captured images from the image DB 175. In addition, the image quality conversion unit 510 acquires information specifying the feature region detected by the feature region detection unit 203 and information specifying the type of feature in the feature region. Then, the image quality conversion unit 510 duplicates the captured image, and generates captured images of the number of types of features in the feature area. Then, the image quality conversion unit 510 converts the generated captured image into an image having a resolution corresponding to the type of feature.

例えば、画質変換部510は、背景領域に応じた解像度に変換された撮像画像(以後、低解像度画像と呼ぶ。)、第1の特徴の種類に応じた第1解像度に変換された撮像画像(第1解像度画像と呼ぶ。)、第2の特徴の種類に応じた第2解像度に変換された撮像画像(第2解像度画像と呼ぶ。)、および第3の特徴の種類に応じた第3解像度に変換された撮像画像(第3解像度画像と呼ぶ。)を生成する。なお、ここでは、第1解像度画像は低解像度画像より解像度が高く、第2解像度画像は第1解像度画像より解像度が高く、第3解像度画像は第2解像度画像より解像度が高いとする。   For example, the image quality conversion unit 510 has a captured image converted to a resolution corresponding to the background area (hereinafter referred to as a low resolution image), and a captured image converted to the first resolution corresponding to the type of the first feature ( Called a first resolution image), a captured image converted to a second resolution corresponding to the second feature type (referred to as a second resolution image), and a third resolution corresponding to the third feature type. A captured image (referred to as a third resolution image) converted to is generated. Here, it is assumed that the first resolution image has a higher resolution than the low resolution image, the second resolution image has a higher resolution than the first resolution image, and the third resolution image has a higher resolution than the second resolution image.

そして、画質変換部510は、低解像度画像、第1解像度画像、第2解像度画像、および第3解像度画像を、それぞれ階層間差分処理部522d、階層間差分処理部522a、階層間差分処理部522b、および階層間差分処理部522cに供給する。なお、画質変換部510は、複数の撮像画像のそれぞれについて上記の画質変換処理することにより、階層間差分処理部522のそれぞれに動画を供給する。   Then, the image quality conversion unit 510 converts the low resolution image, the first resolution image, the second resolution image, and the third resolution image into the inter-layer difference processing unit 522d, the inter-layer difference processing unit 522a, and the inter-layer difference processing unit 522b, respectively. And to the inter-layer difference processing unit 522c. The image quality conversion unit 510 supplies a moving image to each of the inter-layer difference processing units 522 by performing the above-described image quality conversion processing on each of the plurality of captured images.

なお、画質変換部510は、特徴領域の特徴の種類に応じて、階層間差分処理部522のそれぞれに供給する動画のフレームレートを変換してよい。例えば、画質変換部510は、階層間差分処理部522aに供給する動画より低いフレームレートの動画を階層間差分処理部522dに供給してよい。また、画質変換部510は、階層間差分処理部522bに供給する動画より低いフレームレートの動画を階層間差分処理部522aに供給してよく、階層間差分処理部522cに供給する動画より低いフレームレートの動画を階層間差分処理部522bに供給してよい。なお、画質変換部510は、特徴領域の特徴の種類に応じて撮像画像を間引くことによって、階層間差分処理部522に供給する動画のフレームレートを変換してよい。   Note that the image quality conversion unit 510 may convert the frame rate of the moving image supplied to each of the inter-layer difference processing unit 522 in accordance with the feature type of the feature region. For example, the image quality conversion unit 510 may supply, to the inter-layer difference processing unit 522d, a moving image having a lower frame rate than the moving image supplied to the inter-layer difference processing unit 522a. In addition, the image quality conversion unit 510 may supply a moving image having a lower frame rate than the moving image supplied to the inter-layer difference processing unit 522b to the inter-layer difference processing unit 522a, and a frame lower than the moving image supplied to the inter-layer difference processing unit 522c. The rate movie may be supplied to the inter-tier difference processing unit 522b. Note that the image quality conversion unit 510 may convert the frame rate of the moving image supplied to the inter-layer difference processing unit 522 by thinning out the captured image according to the feature type of the feature region.

階層間差分処理部522dおよび符号器532dは、複数の低解像度画像を含む背景領域動画を予測符号化する。具体的には、階層間差分処理部522は、他の低解像度画像から生成された予測画像との差分画像を生成する。そして、符号器532dは、差分画像を空間周波数成分に変換して得られた変換係数を量子化して、量子化された変換係数をエントロピー符号化等により符号化する。なお、このような予測符号化処理は、低解像度画像の部分領域毎に行われてよい。   The inter-layer difference processing unit 522d and the encoder 532d predictively encode a background area moving image including a plurality of low-resolution images. Specifically, the inter-layer difference processing unit 522 generates a difference image from a predicted image generated from another low-resolution image. Then, the encoder 532d quantizes the transform coefficient obtained by converting the difference image into a spatial frequency component, and encodes the quantized transform coefficient by entropy coding or the like. Note that such predictive encoding processing may be performed for each partial region of the low-resolution image.

また、階層間差分処理部522aは、画質変換部510から供給された複数の第1解像度画像を含む第1特徴領域動画を予測符号化する。同様に、階層間差分処理部522bおよび階層間差分処理部522cは、それぞれ複数の第2解像度画像を含む第2特徴領域動画および複数の第3解像度画像を含む第3特徴領域動画を予測符号化する。以下に、階層間差分処理部522aおよび符号器532aの具体的な動作について説明する。   Further, the inter-layer difference processing unit 522a predictively encodes the first feature region moving image including the plurality of first resolution images supplied from the image quality conversion unit 510. Similarly, the inter-layer difference processing unit 522b and the inter-layer difference processing unit 522c each predictively encode a second feature area moving image including a plurality of second resolution images and a third feature area moving image including a plurality of third resolution images. To do. Hereinafter, specific operations of the inter-layer difference processing unit 522a and the encoder 532a will be described.

階層間差分処理部522aは、符号器532dによる符号化後の第1解像度画像を復号して、復号した画像を第1解像度と同じ解像度の画像に拡大する。そして、階層間差分処理部522aは、拡大した画像と低解像度画像との間の差分画像を生成する。このとき、階層間差分処理部522aは、背景領域における差分値を0にする。そして、符号器532aは、差分画像を符号器532dと同様に符号化する。なお、階層間差分処理部522aおよび符号器532aによる符号化処理は、第1解像度画像の部分領域毎にされてよい。   The inter-layer difference processing unit 522a decodes the first resolution image encoded by the encoder 532d, and expands the decoded image to an image having the same resolution as the first resolution. Then, the inter-layer difference processing unit 522a generates a difference image between the enlarged image and the low resolution image. At this time, the inter-layer difference processing unit 522a sets the difference value in the background area to zero. Then, the encoder 532a encodes the difference image in the same manner as the encoder 532d. Note that the encoding processing by the inter-layer difference processing unit 522a and the encoder 532a may be performed for each partial region of the first resolution image.

なお、階層間差分処理部522aは、第1解像度画像を符号化する場合に、低解像度画像との間の差分画像を符号化した場合に予測される符号量と、他の第1解像度画像から生成された予測画像との間の差分画像を符号化した場合に予測される符号量とを比較する。後者の符号量の方が小さい場合には、階層間差分処理部522aは、他の第1解像度画像から生成された予測画像との間の差分画像を生成する。なお、階層間差分処理部522aは、低解像度画像または予測画像との差分をとらずに符号化した方が符号量が小さくなることが予測される場合には、低解像度画像または予測画像との間で差分をとらなくてもよい。   Note that, when the first resolution image is encoded, the inter-layer difference processing unit 522a calculates the code amount predicted when the difference image with the low resolution image is encoded, and the other first resolution image. The amount of code predicted when the difference image between the generated prediction image and the prediction image is encoded is compared. In the case where the latter code amount is smaller, the inter-layer difference processing unit 522a generates a difference image from the predicted image generated from the other first resolution image. In addition, the inter-layer difference processing unit 522a, when it is predicted that the code amount is smaller when encoded without taking the difference from the low-resolution image or the predicted image, It is not necessary to take a difference between them.

なお、階層間差分処理部522aは、背景領域における差分値を0にしなくてもよい。この場合、符号器532aは、特徴領域以外の領域における差分情報に対する符号化後のデータを0にしてもよい。例えば、符号器532aは、周波数成分に変換した後の変換係数を0にしてよい。なお、階層間差分処理部522dが予測符号化した場合の動きベクトル情報は、階層間差分処理部522aに供給される。階層間差分処理部522aは、階層間差分処理部522dから供給された動きベクトル情報を用いて、予測画像用の動きベクトルを算出してよい。   Note that the inter-layer difference processing unit 522a does not have to set the difference value in the background area to zero. In this case, the encoder 532a may set the encoded data for difference information in an area other than the feature area to zero. For example, the encoder 532a may set the conversion coefficient after conversion to a frequency component to zero. Note that the motion vector information when the inter-layer difference processing unit 522d performs predictive encoding is supplied to the inter-layer difference processing unit 522a. The inter-layer difference processing unit 522a may calculate a motion vector for a predicted image using the motion vector information supplied from the inter-layer difference processing unit 522d.

なお、階層間差分処理部522bおよび符号器532bの動作は、第2解像度画像を符号化するという点、および第2解像度画像を符号化する場合に、符号器532aによる符号化後の第1解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522bおよび符号器532bの動作は階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。同様に、階層間差分処理部522cおよび符号器532cの動作は、第3解像度画像を符号化するという点、および第3解像度画像を符号化を符号化する場合に、符号器532bによる符号化後の第2解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。   Note that the operations of the inter-layer difference processing unit 522b and the encoder 532b are that the second resolution image is encoded, and the first resolution after encoding by the encoder 532a when the second resolution image is encoded. The operations of the inter-layer difference processing unit 522b and the encoder 532b are substantially the same as the operations of the inter-layer difference processing unit 522a and the encoder 532a, except that the difference from the image may be taken. To do. Similarly, the operations of the inter-layer difference processing unit 522c and the encoder 532c are that the third resolution image is encoded, and when the third resolution image is encoded, after the encoding by the encoder 532b. Except for the fact that a difference from the second resolution image may be obtained, the operation is substantially the same as the operation of the inter-layer difference processing unit 522a and the encoder 532a, and thus the description thereof is omitted.

以上説明したように、画質変換部510は、複数の撮像画像のそれぞれから、画質を低画質にした低画質画像、および少なくとも特徴領域において低画質画像より高画質な特徴領域画像を生成する。そして、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像との間の差分画像を示す特徴領域差分画像を生成する。そして、符号化部530は、特徴領域差分画像および低画質画像をそれぞれ符号化する。   As described above, the image quality conversion unit 510 generates, from each of the plurality of captured images, a low image quality image with a low image quality and a feature region image with higher image quality than the low image quality at least in the feature region. Then, the difference processing unit 520 generates a feature region difference image indicating a difference image between the feature region image in the feature region image and the feature region image in the low-quality image. Then, the encoding unit 530 encodes the feature region difference image and the low quality image.

また、画質変換部510は、複数の撮像画像から解像度が低減された低画質画像を生成して、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像を拡大した画像との間の特徴領域差分画像を生成する。また、差分処理部520は、特徴領域において特徴領域画像と拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、特徴領域以外の領域において空間周波数成分のデータ量が低減された特徴領域差分画像を生成する。   In addition, the image quality conversion unit 510 generates a low-quality image with reduced resolution from a plurality of captured images, and the difference processing unit 520 includes a feature region image in the feature region image and a feature region image in the low-quality image. A feature region difference image between the image and the image enlarged is generated. Further, the difference processing unit 520 has a spatial frequency component in which the difference between the feature region image and the enlarged image in the feature region is converted into the spatial frequency region, and the data amount of the spatial frequency component is in the region other than the feature region. A reduced feature area difference image is generated.

以上説明したように、圧縮部230は、解像度が異なる複数の階層間の画像の差分を符号化することによって階層的に符号化する。このことからも明らかなように、本構成の圧縮部230による圧縮方式の一部は、H.264/SVCによる圧縮方式を含むことが明らかである。なお、画像処理装置170がこのような階層化された圧縮動画を伸張する場合には、各階層の動画データを復号して、階層間差分により符号化されている領域については、差分がとられた階層で復号された撮像画像との加算処理により、元の解像度の撮像画像を生成することができる。   As described above, the compression unit 230 performs hierarchical encoding by encoding image differences between a plurality of layers having different resolutions. As is clear from this, a part of the compression method by the compression unit 230 of this configuration is H.264. It is clear that a compression scheme according to H.264 / SVC is included. Note that when the image processing apparatus 170 decompresses such a layered compressed moving image, the moving image data of each layer is decoded, and the difference is taken for the region encoded by the inter-layer difference. The captured image having the original resolution can be generated by the addition process with the captured image decoded in the hierarchy.

以上、図3および図5に関連して、圧縮部230による圧縮処理の一例を説明した。なお、図4に関連して説明した特開2006−350498号公報に記載されたような主成分分析に基づく超解像処理では、主成分ベクトルおよび重みづけ係数により物体の画像が表される。これらの重みづけ係数および主成分ベクトルのデータ量は、物体の画像そのものが有する画素データのデータ量に比べて大幅に小さい。そこで、圧縮部230は、撮像部102から取得した複数の撮像画像における特徴領域の画像を圧縮する圧縮処理において、特徴領域に含まれる物体の画像から上記重みづけ係数を算出してよい。すなわち、圧縮部230は、特徴領域に含まれる物体の画像を、主成分ベクトルおよび重みづけ係数で表すことによって圧縮することができる。そして、出力部207は、主成分ベクトルおよび重みづけ係数を画像処理装置170に送信してよい。画像処理装置170においては、画像処理装置120から取得した主成分ベクトルおよび重みづけ係数を用いて、特徴領域に含まれる物体の画像を再構成することができる。なお、画像処理装置120は、特開2006−350498号公報に記載されたような主成分分析に基づくモデルの他に、種々の特徴パラメータで物体を表現するモデルを利用して特徴領域に含まれる物体の画像を圧縮することができることはいうまでもない。   The example of the compression process by the compression unit 230 has been described above with reference to FIGS. 3 and 5. Note that in super-resolution processing based on principal component analysis as described in Japanese Patent Laid-Open No. 2006-350498 described with reference to FIG. 4, an image of an object is represented by a principal component vector and a weighting coefficient. The data amounts of these weighting coefficients and principal component vectors are significantly smaller than the data amount of pixel data included in the object image itself. Therefore, the compression unit 230 may calculate the weighting coefficient from the image of the object included in the feature region in the compression processing for compressing the feature region image in the plurality of captured images acquired from the imaging unit 102. That is, the compression unit 230 can compress an image of an object included in the feature region by representing the principal component vector and the weighting coefficient. Then, the output unit 207 may transmit the principal component vector and the weighting coefficient to the image processing apparatus 170. In the image processing device 170, an image of an object included in the feature region can be reconstructed using the principal component vector and the weighting coefficient acquired from the image processing device 120. The image processing apparatus 120 is included in the feature region using a model that represents an object with various feature parameters in addition to a model based on principal component analysis as described in JP-A-2006-350498. Needless to say, an image of an object can be compressed.

図6は、RAW形式で表される撮像画像の画素配列600の一例を示す。本図におけるGnm(n=1〜6、m=1〜6)は、緑の色成分の光強度に応じた出力値を持つ画素を示す。また、Rnm(n=1〜5、m=1〜6)は、赤の色成分の光強度に応じた出力値を持つ画素を示す。Bnm(n=1〜6、m=1〜5)は、赤の色成分の光強度に応じた出力値を持つ画素を示す。このように、各画素は、R、G、およびBのいずれか一色の色成分の強度に応じた出力値を持つ。   FIG. 6 shows an example of a pixel array 600 of a captured image expressed in the RAW format. Gnm (n = 1-6, m = 1-6) in this figure indicates a pixel having an output value corresponding to the light intensity of the green color component. Rnm (n = 1 to 5, m = 1 to 6) indicates a pixel having an output value corresponding to the light intensity of the red color component. Bnm (n = 1 to 6, m = 1 to 5) indicates a pixel having an output value corresponding to the light intensity of the red color component. In this way, each pixel has an output value corresponding to the intensity of any one of R, G, and B color components.

なお、本図においては、原色系の画素配列600について説明したが、撮像画像は補色系の画素配列を有してもよい。また、撮像画像は、4の色成分の光強度に応じた出力値を持つ画素を有してよい。   Although the primary color pixel array 600 has been described with reference to this drawing, the captured image may have a complementary color pixel array. Further, the captured image may include pixels having output values corresponding to the light intensities of the four color components.

図7は、特徴領域の一例を示す。特徴領域検出部203は、動画に含まれる撮像画像700−1、撮像画像700−1、および撮像画像700−3(以下、撮像画像700と総称する。)のそれぞれから特徴領域を検出する。   FIG. 7 shows an example of the feature region. The feature region detection unit 203 detects a feature region from each of the captured image 700-1, the captured image 700-1, and the captured image 700-3 (hereinafter collectively referred to as the captured image 700) included in the moving image.

例えば、特徴領域検出部203は、撮像画像700−1〜3から、移動体の画像を含む移動領域710−1〜3(以下、移動領域710と総称する。)、人物の体部の画像を含む体部領域720−1〜3(以下、体部領域720と総称する。)、および人物の頭部の画像を含む頭部領域730−1〜3(以下、頭部領域730と総称する。)を検出する。なお、撮像画像700のそれぞれにおいて、移動領域710、体部領域720、および頭部領域730以外の領域は、上述した背景領域となる。   For example, the feature region detection unit 203 uses the captured images 700-1 to 700-3 as moving regions 710-1 to 710-3 (hereinafter collectively referred to as a moving region 710) including moving images, and human body images. Body region 720-1 to -3 (hereinafter collectively referred to as body region 720), and head region 730-1 to 730-3 (hereinafter collectively referred to as head region 730) including an image of a person's head. ) Is detected. In each captured image 700, the region other than the moving region 710, the body region 720, and the head region 730 is the background region described above.

なお、特徴領域検出部203は、撮像画像700に含まれる予め定められた色成分の値を持つ画素の画素値に基づいて、特徴領域を検出してよい。例えば、特徴領域検出部203は、撮像画像700に含まれる予め定められた色成分の値を持つ画素の画素値に基づいて、画像認識により特徴領域を検出してよい。より具体的には、特徴領域検出部203は、G信号に基づいて、画像認識により特徴領域を検出してよい。   Note that the feature region detection unit 203 may detect the feature region based on the pixel value of a pixel having a predetermined color component value included in the captured image 700. For example, the feature region detection unit 203 may detect the feature region by image recognition based on the pixel value of a pixel having a predetermined color component value included in the captured image 700. More specifically, the feature region detection unit 203 may detect a feature region by image recognition based on the G signal.

図8は、圧縮部230において特徴領域および背景領域から選択される画素の組み合わせの一例を示す。以下の説明では、図7において説明した移動領域710、体部領域720、頭部領域730、および背景領域から選択される画素の一例を、図6において説明した画素配列600を用いて説明する。   FIG. 8 shows an example of a combination of pixels selected from the feature region and the background region in the compression unit 230. In the following description, an example of pixels selected from the movement region 710, the body region 720, the head region 730, and the background region described in FIG. 7 will be described using the pixel array 600 described in FIG.

圧縮処理部236aは、頭部領域730の画像を圧縮する場合に、Gプレーン810aおよびGプレーン810b(以下、Gプレーン810と総称する。)、Bプレーン811、およびRプレーン812で示される画素を選択して圧縮する。Gプレーン810aは、G11、G13、G15・・・を含み、Gプレーン810bは、G22、G24、G26・・・を含む。Bプレーン811は、B21、B23、B25・・・を含む。Rプレーン812は、R12、R14、R16・・・を含む。このように、圧縮処理部236aは、頭部領域730に含まれる画素配列から全画素を選択して圧縮する。   When compressing the image of the head region 730, the compression processing unit 236a detects pixels indicated by the G plane 810a and the G plane 810b (hereinafter collectively referred to as the G plane 810), the B plane 811, and the R plane 812. Select and compress. The G plane 810a includes G11, G13, G15..., And the G plane 810b includes G22, G24, G26. The B plane 811 includes B21, B23, B25. The R plane 812 includes R12, R14, R16. As described above, the compression processing unit 236a selects and compresses all pixels from the pixel array included in the head region 730.

また、圧縮処理部236bは、頭体部領域720の画像を圧縮する場合に、Gプレーン820、Bプレーン821、およびRプレーン822で示される画素を選択する。なお、Gプレーン820、Bプレーン821、およびRプレーン822は、Gプレーン810a、Bプレーン811、およびRプレーン812と同じであってよい。   The compression processing unit 236b selects pixels indicated by the G plane 820, the B plane 821, and the R plane 822 when compressing the image of the head region 720. Note that the G plane 820, the B plane 821, and the R plane 822 may be the same as the G plane 810a, the B plane 811, and the R plane 812.

また、圧縮処理部236cは、移動領域710の画像を圧縮する場合に、Gプレーン830、Bプレーン831、およびRプレーン832で示される画素を選択する。Gプレーン830は、G11、G15・・・を含み、Bプレーン831は、B21、B25・・・を含み、Rプレーン832は、R12、R16・・・を含む。   In addition, the compression processing unit 236c selects pixels indicated by the G plane 830, the B plane 831, and the R plane 832 when compressing the image of the moving area 710. The G plane 830 includes G11, G15,..., The B plane 831 includes B21, B25..., And the R plane 832 includes R12, R16.

また、圧縮処理部236dは、背景領域の画像を圧縮する場合に、Gプレーン840、Bプレーン841、およびRプレーン842で示される画素を選択する。Gプレーン840は、G11・・・を含み、Bプレーン841は、B21・・・を含み、Rプレーン842は、R12を含む。   The compression processing unit 236d selects pixels indicated by the G plane 840, the B plane 841, and the R plane 842 when compressing the image of the background area. The G plane 840 includes G11..., The B plane 841 includes B21..., And the R plane 842 includes R12.

なお、圧縮処理部236は、Gプレーン810、Gプレーン820、Gプレーン830、およびGプレーン840により生成される画像信号をY信号として圧縮処理してよい。また、圧縮処理部236は、Bプレーン811、Bプレーン821、Bプレーン831、およびBプレーン841により生成される画像信号をCb信号として処理して、Rプレーン812、Rプレーン822、Rプレーン832、およびRプレーン842により生成される画像信号をCr信号として処理してよい。   Note that the compression processing unit 236 may compress the image signals generated by the G plane 810, the G plane 820, the G plane 830, and the G plane 840 as Y signals. In addition, the compression processing unit 236 processes the image signals generated by the B plane 811, the B plane 821, the B plane 831, and the B plane 841 as Cb signals, so that the R plane 812, the R plane 822, the R plane 832, The image signal generated by the R plane 842 may be processed as a Cr signal.

なお、圧縮処理部236は、撮像画像700のそれぞれから各プレーンで示される画素を選択して得られた複数の画像を、プレーン毎にフレーム間圧縮してよい。したがって、圧縮処理部236は、MPEG符号化を行う符号器を用いて構成することができる。   Note that the compression processing unit 236 may perform inter-frame compression of a plurality of images obtained by selecting pixels indicated by each plane from each of the captured images 700 for each plane. Therefore, the compression processing unit 236 can be configured using an encoder that performs MPEG encoding.

図9は、色処理部360による同時化処理後に得られる画像信号の一例を示す。本図に示されるように、色処理部360は、同時化処理により、Gプレーン900、Bプレーン901、およびRプレーン902で示される画像信号を生成する。例えば、色処理部360は、本図において影付きで示す画素を、当該画素の近傍に位置する画素の画素値を用いて算出する。これにより、色処理部360は、全画素において各色の画素値を有する画像信号を生成する。   FIG. 9 shows an example of an image signal obtained after the synchronization processing by the color processing unit 360. As shown in the figure, the color processing unit 360 generates image signals indicated by the G plane 900, the B plane 901, and the R plane 902 by the synchronization process. For example, the color processing unit 360 calculates a pixel indicated by a shade in the drawing using a pixel value of a pixel located in the vicinity of the pixel. As a result, the color processing unit 360 generates an image signal having pixel values of each color in all pixels.

なお、本図において影付きの画素は、頭部領域730内を同時化する場合に色処理部360が画素値を算出すべき画素を示している。体部領域720、移動領域710、および背景領域については、色処理部360は、より多くの画素において画素値を算出すべき場合があることは言うまでもない。   In the drawing, shaded pixels indicate pixels for which the color processing unit 360 should calculate pixel values when the inside of the head region 730 is synchronized. Needless to say, for the body region 720, the moving region 710, and the background region, the color processing unit 360 may calculate pixel values for more pixels.

例えば、色処理部360は、移動領域710においては、G12およびG13の画素についても画素値を算出する。なお、色処理部360による上記の同時化処理は、体部領域720、移動領域710、および背景領域における実質的な画像拡大処理を含む。このように、色処理部360において同時化処理と画像拡大処理が一度になされるので、画像DB175の記憶容量が削減でき、画像処理装置170における処理速度も向上する場合がある。   For example, the color processing unit 360 calculates pixel values for the G12 and G13 pixels in the moving region 710. Note that the above-described synchronization processing by the color processing unit 360 includes substantial image enlargement processing in the body region 720, the moving region 710, and the background region. As described above, since the color processing unit 360 performs the synchronization process and the image enlargement process at the same time, the storage capacity of the image DB 175 can be reduced, and the processing speed of the image processing apparatus 170 may be improved.

図10は、色処理部360が背景領域を同時化処理する場合に用いる重み付け係数の一例を示す。色処理部360は、G信号については本図(a)に示す重み付けで画素値を重み付けすることにより画素値を算出する。また、色処理部360は、B信号およびR信号については本図(b)に示す重み付けで画素値を重み付けすることにより画素値を算出する。   FIG. 10 shows an example of a weighting coefficient used when the color processing unit 360 performs the background region synchronization processing. For the G signal, the color processing unit 360 calculates the pixel value by weighting the pixel value with the weighting shown in FIG. Also, the color processing unit 360 calculates pixel values by weighting the pixel values with the weights shown in FIG.

なお、上記の方法は、低精度な同時化処理の一例であり、色処理部360は、上記の他にも、最近傍法、線形補間(あるいは3次スプライン)により、背景領域における画素値を算出してよい。なお、色処理部360は、移動領域710、体部領域720、頭部領域730の画素値を、より多くの画素値を用いることにより、背景領域より高精度で算出してよい。   Note that the above method is an example of a low-accuracy synchronization process, and the color processing unit 360, in addition to the above, uses the nearest neighbor method or linear interpolation (or cubic spline) to calculate pixel values in the background region. It may be calculated. Note that the color processing unit 360 may calculate the pixel values of the moving region 710, the body region 720, and the head region 730 with higher accuracy than the background region by using more pixel values.

他にも、色処理部360は、特徴領域において、より多くの色数またはより多くの階調数の画像信号を用いて同時化処理してもよい。また、色処理部360は、特徴領域において、異なる感度を持つ撮像素子によって得られた画像信号を用いて同時化処理してよい。この場合、色処理部360は、特開2004−336469号公報に記載された方法を用いて同時化処理することができる。他にも、色処理部360は、特徴領域において、色信号、色差信号、および色和信号のTotal-variationエネルギー項の差異に応じてデモザイキング処理してもよい。   In addition, the color processing unit 360 may perform synchronization processing using image signals having a larger number of colors or a larger number of gradations in the feature region. In addition, the color processing unit 360 may perform synchronization processing using image signals obtained by image sensors having different sensitivities in the feature region. In this case, the color processing unit 360 can perform synchronization processing using a method described in Japanese Patent Application Laid-Open No. 2004-336469. In addition, the color processing unit 360 may perform demosaicing processing in the feature region according to the difference in the total-variation energy terms of the color signal, the color difference signal, and the color sum signal.

図11は、他の実施形態に係る画像処理システム20の一例を示す。本実施形態における画像処理システム20の構成は、撮像装置100a−dがそれぞれ画像処理部804a−d(以下、画像処理部804と総称する。)を有する点を除いて、図1で説明した画像処理システム10の構成と同じとなっている。   FIG. 11 shows an example of an image processing system 20 according to another embodiment. The configuration of the image processing system 20 in the present embodiment is the image described with reference to FIG. 1 except that the imaging devices 100a-d have image processing units 804a-d (hereinafter collectively referred to as image processing units 804). The configuration of the processing system 10 is the same.

画像処理部804は、画像処理装置120に含まれる構成要素のうち、画像取得部250を除く構成要素を有している。そして、画像処理部804に含まれる各構成要素の機能および動作は、画像処理装置120に含まれる各構成要素が圧縮動画伸張部202による伸張処理によって得られた撮像動画を処理することに替えて、撮像部102によって撮像された撮像動画を処理するという点を除いて、画像処理装置120に含まれる各構成要素の機能および動作と略同一であってよい。なお、当該撮像動画は、RAW形式の撮像画像を動画構成画像として含んでよい。このような構成の画像処理システム20においても、図1から図10にかけて画像処理システム10に関連して説明した効果と略同一の効果が得ることができる。   The image processing unit 804 has components other than the image acquisition unit 250 among the components included in the image processing apparatus 120. The functions and operations of the constituent elements included in the image processing unit 804 are replaced with that the constituent elements included in the image processing device 120 process the captured moving image obtained by the decompression processing by the compressed moving image decompression unit 202. The functions and operations of the components included in the image processing apparatus 120 may be substantially the same except that the captured moving image captured by the imaging unit 102 is processed. Note that the captured moving image may include a RAW-format captured image as a moving image constituent image. Also in the image processing system 20 having such a configuration, substantially the same effect as that described in relation to the image processing system 10 in FIGS. 1 to 10 can be obtained.

図12は、画像処理装置120および画像処理装置170のハードウェア構成の一例を示す。画像処理装置120および画像処理装置170は、CPU周辺部と、入出力部と、レガシー入出力部とを備える。CPU周辺部は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示デバイス1580を有する。入出力部は、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する。レガシー入出力部は、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有する。   FIG. 12 shows an example of the hardware configuration of the image processing device 120 and the image processing device 170. The image processing device 120 and the image processing device 170 include a CPU peripheral unit, an input / output unit, and a legacy input / output unit. The CPU peripheral section includes a CPU 1505, a RAM 1520, a graphic controller 1575, and a display device 1580 that are connected to each other by a host controller 1582. The input / output unit includes a communication interface 1530, a hard disk drive 1540, and a CD-ROM drive 1560 that are connected to the host controller 1582 by the input / output controller 1584. The legacy input / output unit includes a ROM 1510, a flexible disk drive 1550, and an input / output chip 1570 connected to the input / output controller 1584.

ホスト・コントローラ1582は、RAM1520と、より高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムの内容に応じて動作して、各部の制御をする。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示デバイス1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。   The host controller 1582 connects the RAM 1520, the CPU 1505 that accesses the RAM 1520 at a higher transfer rate, and the graphic controller 1575. The CPU 1505 operates according to the contents of the programs stored in the ROM 1510 and the RAM 1520 and controls each unit. The graphic controller 1575 acquires image data generated by the CPU 1505 or the like on a frame buffer provided in the RAM 1520 and displays the image data on the display device 1580. Alternatively, the graphic controller 1575 may include a frame buffer that stores image data generated by the CPU 1505 or the like.

入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、CPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワーク通信装置1598に接続してプログラムまたはデータを送受信する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。   The input / output controller 1584 connects the host controller 1582 to the hard disk drive 1540, the communication interface 1530, and the CD-ROM drive 1560, which are relatively high-speed input / output devices. The hard disk drive 1540 stores programs and data used by the CPU 1505. The communication interface 1530 is connected to the network communication device 1598 to transmit / receive programs or data. The CD-ROM drive 1560 reads a program or data from the CD-ROM 1595 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520.

入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像処理装置120および画像処理装置170が起動するときに実行するブート・プログラム、あるいは画像処理装置120および画像処理装置170のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、あるいはパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。   The input / output controller 1584 is connected to the ROM 1510, the flexible disk drive 1550, and the relatively low-speed input / output device of the input / output chip 1570. The ROM 1510 stores a boot program that is executed when the image processing device 120 and the image processing device 170 are started, or a program that depends on the hardware of the image processing device 120 and the image processing device 170. The flexible disk drive 1550 reads a program or data from the flexible disk 1590 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520. The input / output chip 1570 connects various input / output devices via the flexible disk drive 1550 or a parallel port, serial port, keyboard port, mouse port, and the like.

CPU1505が実行するプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは、記録媒体からハードディスクドライブ1540にインストールされ、RAM1520に読み出されてCPU1505により実行される。CPU1505により実行されるプログラムは、画像処理装置120を、図1から図11に関連して説明した画像処理装置120が有する各構成要素として機能させ、画像処理装置170を、図1から図11に関連して説明した、画像処理装置170が有する各構成要素として機能させる。   A program executed by the CPU 1505 is stored in a recording medium such as the flexible disk 1590, the CD-ROM 1595, or an IC card and provided by the user. The program stored in the recording medium may be compressed or uncompressed. The program is installed in the hard disk drive 1540 from the recording medium, read into the RAM 1520, and executed by the CPU 1505. The program executed by the CPU 1505 causes the image processing apparatus 120 to function as each component included in the image processing apparatus 120 described with reference to FIGS. 1 to 11, and the image processing apparatus 170 is changed to FIGS. It is made to function as each component which image processing apparatus 170 which was explained related has.

以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDまたはPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用して、ネットワークを介したプログラムとして画像処理装置120および画像処理装置170に提供してもよい。このように、プログラムにより制御されるコンピュータが、画像処理装置120および画像処理装置170として機能する。   The program shown above may be stored in an external storage medium. As the storage medium, in addition to the flexible disk 1590 and the CD-ROM 1595, an optical recording medium such as a DVD or PD, a magneto-optical recording medium such as an MD, a tape medium, a semiconductor memory such as an IC card, or the like can be used. Further, a storage device such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet is used as a recording medium, and is provided to the image processing device 120 and the image processing device 170 as a program via the network. Also good. As described above, the computer controlled by the program functions as the image processing device 120 and the image processing device 170.

以上、本発明を実施の形態を用いて説明したが、この発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

一実施形態に係わる画像処理システム10の一例を示す図である。1 is a diagram illustrating an example of an image processing system 10 according to an embodiment. 画像処理装置120のブロック構成の一例を示す図である。2 is a diagram illustrating an example of a block configuration of an image processing apparatus 120. FIG. 圧縮部230のブロック構成の一例を示す図である。3 is a diagram illustrating an example of a block configuration of a compression unit 230. FIG. 画像処理装置170のブロック構成の一例を示す図である。2 is a diagram illustrating an example of a block configuration of an image processing apparatus 170. FIG. 圧縮部230の他のブロック構成の一例を示す図である。It is a figure which shows an example of the other block structure of the compression part 230. FIG. RAW形式で表される撮像画像の画素配列600の一例を示す図である。It is a figure which shows an example of the pixel arrangement | sequence 600 of the captured image represented with a RAW format. 特徴領域の一例を示す図である。It is a figure which shows an example of a characteristic area. 圧縮部230において特徴領域および背景領域から選択される画素の組み合わせの一例を示す図である。It is a figure which shows an example of the combination of the pixel selected from the characteristic area and the background area in the compression part 230. FIG. 色処理部360による同時化処理後に得られる画像信号の一例を示す図である。It is a figure which shows an example of the image signal obtained after the synchronous process by the color process part 360. FIG. 色処理部360が背景領域を同時化処理する場合に用いる重み付け係数の一例を示す図である。It is a figure which shows an example of the weighting coefficient used when the color process part 360 carries out the synchronous process of a background area | region. 他の実施形態に係る画像処理システム20の一例を示す図である。It is a figure which shows an example of the image processing system 20 which concerns on other embodiment. 画像処理装置120および画像処理装置170のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an image processing device 120 and an image processing device 170. FIG.

符号の説明Explanation of symbols

10 画像処理システム
20 画像処理システム
100 撮像装置
102 撮像部
104 撮像画像圧縮部
110 通信ネットワーク
120 画像処理装置
130 人物
140 移動体
150 監視対象空間
160 空間
170 画像処理装置
175 画像DB
180 表示装置
201 圧縮動画取得部
202 圧縮動画伸張部
203 特徴領域検出部
204 検出条件取得部
206 対応付け処理部
207 出力部
210 圧縮制御部
230 圧縮部
232 画像分割部
234 固定値化部
236 圧縮処理部
250 画像取得部
301 画像取得部
302 対応付け解析部
310 伸張制御部
320 伸張部
322 復号器
330 合成部
340 出力部
350 指示取得部
360 色処理部
510 画質変換部
520 差分処理部
522 階層間差分処理部
530 符号化部
532 符号器
600 画素配列
700 撮像画像
710 移動領域
720 体部領域
730 頭部領域
810 Gプレーン
811 Bプレーン
812 Rプレーン
820 Gプレーン
821 Bプレーン
822 Rプレーン
830 Gプレーン
831 Bプレーン
832 Rプレーン
840 Gプレーン
841 Bプレーン
842 Rプレーン
900 Gプレーン
901 Bプレーン
902 Rプレーン
804 画像処理部
1505 CPU
1510 ROM
1520 RAM
1530 通信インターフェイス
1540 ハードディスクドライブ
1550 フレキシブルディスク・ドライブ
1560 CD−ROMドライブ
1570 入出力チップ
1575 グラフィック・コントローラ
1580 表示デバイス
1582 ホスト・コントローラ
1584 入出力コントローラ
1590 フレキシブルディスク
1595 CD−ROM
1598 ネットワーク通信装置
DESCRIPTION OF SYMBOLS 10 Image processing system 20 Image processing system 100 Image pick-up apparatus 102 Image pick-up part 104 Image pick-up image compression part 110 Communication network 120 Image processing apparatus 130 Person 140 Mobile body 150 Monitoring object space 160 Space 170 Image processing apparatus 175 Image DB
180 Display device 201 Compressed video acquisition unit 202 Compressed video expansion unit 203 Feature area detection unit 204 Detection condition acquisition unit 206 Association processing unit 207 Output unit 210 Compression control unit 230 Compression unit 232 Image division unit 234 Fixed value conversion unit 236 Compression processing Unit 250 image acquisition unit 301 image acquisition unit 302 association analysis unit 310 expansion control unit 320 expansion unit 322 decoder 330 synthesis unit 340 output unit 350 instruction acquisition unit 360 color processing unit 510 image quality conversion unit 520 difference processing unit 522 inter-layer difference Processing unit 530 Encoding unit 532 Encoder 600 Pixel array 700 Captured image 710 Moving region 720 Body region 730 Head region 810 G plane 811 B plane 812 R plane 820 G plane 821 B plane 822 R plane 830 G plane 831 B plane 832 R Pre Down 840 G plane 841 B plane 842 R plane 900 G plane 901 B plane 902 R plane 804 the image processing section 1505 CPU
1510 ROM
1520 RAM
1530 Communication interface 1540 Hard disk drive 1550 Flexible disk drive 1560 CD-ROM drive 1570 Input / output chip 1575 Graphic controller 1580 Display device 1582 Host controller 1584 Input / output controller 1590 Flexible disk 1595 CD-ROM
1598 Network communication device

Claims (19)

RAW形式で表されるRAW画像を取得する画像取得部と、
前記RAW画像を用いて、前記RAW画像における特徴領域を検出する特徴領域検出部と、
前記RAW画像を、前記RAW画像における前記特徴領域と前記RAW画像における前記特徴領域以外の領域とで異なる強度で圧縮することにより、RAW形式で表される圧縮された前記RAW画像である圧縮RAW画像を生成する圧縮部と
前記圧縮RAW画像を伸張することにより、伸張された前記RAW画像である伸張RAW画像を生成する伸張部と、
前記伸張RAW画像が示す画像領域における複数の画素のそれぞれにおける複数の色成分の値を、前記伸張RAW画像における1以上の画素の画素値に基づいて算出する色処理部と
を備え
前記色処理部は、前記伸張RAW画像における前記特徴領域における画素と、前記伸張RAW画像における前記特徴領域以外の領域における画素とで、異なる方式で前記複数の色成分の値を算出する
画像処理システム。
An image acquisition unit for acquiring a RAW image represented in a RAW format;
A feature region detection unit that detects a feature region in the RAW image using the RAW image;
A compressed RAW image that is a compressed RAW image expressed in the RAW format by compressing the RAW image with different intensities in the feature region in the RAW image and a region other than the feature region in the RAW image. a compression unit which generates,
An expansion unit that generates an expanded RAW image that is the expanded RAW image by expanding the compressed RAW image;
A color processing unit that calculates values of a plurality of color components in each of a plurality of pixels in an image region indicated by the expanded RAW image based on pixel values of one or more pixels in the expanded RAW image. ,
The color processing unit calculates values of the plurality of color components in different manners for pixels in the feature region in the expanded RAW image and pixels in regions other than the feature region in the expanded RAW image. > Image processing system.
前記画像取得部は、前記RAW形式で撮像画像が表された前記RAW画像を取得する
請求項1に記載の画像処理システム。
The image processing system according to claim 1, wherein the image acquisition unit acquires the RAW image in which a captured image is represented in the RAW format.
前記色処理部は、前記伸張RAW画像における前記特徴領域以外の領域における画素より前記伸張RAW画像における前記特徴領域における画素において、前記複数の色成分の値をより高い精度で算出する
請求項1または2に記載の画像処理システム。
Wherein the color processing unit, in the pixel in the characteristic region from the pixels in the region other than the feature region in the decompressed RAW image in the decompressed RAW image, claim 1 to calculate the value of the plurality of color components with higher accuracy or the image processing system according to 2.
前記特徴領域検出部は、前記RAW画像を用いて、前記RAW画像における複数の特徴領域を検出し、
前記圧縮部は、前記RAW画像における複数の前記特徴領域の画像を、特徴領域の特徴の種類に応じて異なる強度でそれぞれ圧縮することにより、前記圧縮RAW画像を生成する
請求項1または2に記載の画像処理システム。
The feature region detection unit detects a plurality of feature regions in the RAW image using the RAW image,
Said compression portion, an image of a plurality of the characteristic region in the RAW image, by compressing each with different intensities depending on the type of characteristics of the characteristic region, according to claim 1 or 2 to generate the compressed RAW image Image processing system.
前記色処理部は、前記伸張RAW画像における複数の前記特徴領域に含まれる画素における前記複数の色成分の値を、特徴領域の特徴の種類に応じて異なる方式で算出する
請求項に記載の画像処理システム。
5. The color processing unit according to claim 4 , wherein the color processing unit calculates values of the plurality of color components in pixels included in the plurality of feature regions in the expanded RAW image in different manners according to the feature types of the feature regions. Image processing system.
前記色処理部は、前記伸張RAW画像における複数の前記特徴領域に含まれる画素における前記複数の色成分の値を、特徴領域の特徴の種類に応じた精度で算出する
請求項に記載の画像処理システム。
The image according to claim 5 , wherein the color processing unit calculates values of the plurality of color components in pixels included in the plurality of feature regions in the expanded RAW image with accuracy according to the type of feature of the feature region. Processing system.
前記色処理部は、前記伸張RAW画像における前記特徴領域以外の領域における画素より前記伸張RAW画像における前記特徴領域における画素において、より多い数の画素の画素値を用いて前記複数の色成分の値を算出する
請求項に記載の画像処理システム。
The color processing unit uses the pixel values of the plurality of color components using pixel values of a larger number of pixels in pixels in the feature region in the expanded RAW image than in pixels in the region other than the feature region in the expanded RAW image. The image processing system according to claim 3 , wherein:
前記色処理部は、前記伸張RAW画像における前記特徴領域に含まれる画素における前記複数の色成分の値を、前記伸張RAW画像における複数の画素値を用いて算出し、前記伸張RAW画像における前記特徴領域以外の領域に含まれる画素における前記複数の色成分の値を、前記伸張RAW画像における他の画素における同じ色成分の値で表す
請求項に記載の画像処理システム。
The color processing unit calculates values of the plurality of color components in pixels included in the feature region in the expanded RAW image using a plurality of pixel values in the expanded RAW image, and the features in the expanded RAW image The image processing system according to claim 3 , wherein values of the plurality of color components in pixels included in a region other than the region are represented by values of the same color component in other pixels in the expanded RAW image.
前記特徴領域検出部は、前記RAW画像に含まれる予め定められた色成分の値を持つ画素の画素値に基づいて、前記特徴領域を検出する
請求項に記載の画像処理システム。
The image processing system according to claim 3 , wherein the feature region detection unit detects the feature region based on a pixel value of a pixel having a predetermined color component value included in the RAW image.
前記特徴領域検出部が前記RAW画像から前記特徴領域を検出する場合に用いるべき画素値の色成分を取得する検出条件取得部
をさらに備え、
前記特徴領域検出部は、前記RAW画像に含まれる画素のうち、前記検出条件取得部が取得した色成分の値を持つ画素の画素値に基づいて、前記特徴領域を検出する
請求項に記載の画像処理システム。
A detection condition acquisition unit that acquires a color component of a pixel value to be used when the feature region detection unit detects the feature region from the RAW image;
The feature region detecting unit, among the pixels included in the RAW image, according to claim 9, based on the pixel values of the pixels having a value of a color component which the detection condition acquisition unit has acquired, it detects the feature area Image processing system.
前記画像取得部は、複数の前記RAW画像を動画構成画像として含む動画を取得し、
前記特徴領域検出部は、複数の前記RAW画像のそれぞれから、複数の前記RAW画像における特徴領域を検出し、
前記圧縮部は、複数の前記RAW画像のそれぞれを、複数の前記RAW画像のそれぞれにおける前記特徴領域と複数の前記RAW画像のそれぞれにおける前記特徴領域以外の領域とで異なる強度で圧縮することにより、RAW形式でそれぞれ表される複数の前記圧縮RAW画像を生成する
請求項1から10のいずれか一項に記載の画像処理システム。
The image acquisition unit acquires a moving image including a plurality of the RAW images as moving image constituent images,
The feature region detection unit detects feature regions in the plurality of RAW images from each of the plurality of RAW images,
The compression unit compresses each of the plurality of RAW images with different intensities in the feature region in each of the plurality of RAW images and in a region other than the feature region in each of the plurality of RAW images, The image processing system according to any one of claims 1 to 10, wherein a plurality of the compressed RAW images each represented in a RAW format are generated.
前記圧縮RAW画像を保持する画像保持部
をさらに備え、
前記伸張部は、前記画像保持部に保持された前記圧縮RAW画像を伸張することにより、前記伸張RAW画像を生成する
請求項1から11のいずれか一項に記載の画像処理システム。
An image holding unit for holding the compressed RAW image;
The image processing system according to any one of claims 1 to 11 , wherein the expansion unit generates the expanded RAW image by expanding the compressed RAW image held in the image holding unit. .
前記画像保持部に保持された前記圧縮RAW画像を出力すべき旨の指示を取得する指示取得部と、
前記指示取得部が前記指示を取得した場合に、前記伸張RAW画像が示す画像領域における複数の画素のそれぞれにおいて複数の色成分の値を有する出力画像を出力する出力部と
をさらに備え、
前記伸張部は、前記指示取得部が前記指示を取得した場合に、前記画像保持部に保持された前記圧縮RAW画像を伸張することにより、前記伸張RAW画像を生成し、
前記色処理部は、前記指示取得部が前記指示を取得した場合に、前記伸張RAW画像が示す画像領域における複数の画素のそれぞれにおける前記複数の色成分の値を算出し、
前記出力部は、前記指示取得部が前記指示を取得した場合に、前記色処理部により算出された前記複数の色成分の値を前記複数の画素のそれぞれにおける画素値として有する前記出力画像を出力する
請求項12に記載の画像処理システム。
An instruction acquisition unit for acquiring an instruction to output the compressed RAW image held in the image holding unit;
An output unit that outputs an output image having a plurality of color component values in each of a plurality of pixels in an image region indicated by the decompressed RAW image when the instruction acquisition unit acquires the instruction;
The expansion unit generates the expanded RAW image by expanding the compressed RAW image held in the image holding unit when the instruction acquisition unit acquires the instruction,
The color processing unit calculates values of the plurality of color components in each of a plurality of pixels in an image region indicated by the decompressed RAW image when the instruction acquisition unit acquires the instruction,
When the instruction acquisition unit acquires the instruction, the output unit outputs the output image having the values of the plurality of color components calculated by the color processing unit as pixel values in the plurality of pixels, respectively. The image processing system according to claim 12 .
画像処理システム用のプログラムであって、コンピュータを、  A program for an image processing system, comprising:
請求項1から13のいずれか一項に記載の画像処理システムとして機能させるためのプログラム。  The program for functioning as an image processing system as described in any one of Claims 1-13.
RAW形式で表されるRAW画像を取得する画像取得段階と、
前記RAW画像を用いて、前記RAW画像における特徴領域を検出する特徴領域検出段階と、
前記RAW画像を、前記RAW画像における前記特徴領域と前記RAW画像における前記特徴領域以外の領域とで異なる強度で圧縮することにより、RAW形式で表される圧縮された前記RAW画像である圧縮RAW画像を生成する圧縮段階と
前記圧縮RAW画像を伸張することにより、伸張された前記RAW画像である伸張RAW画像を生成する伸張段階と、
前記伸張RAW画像が示す画像領域における複数の画素のそれぞれにおける複数の色成分の値を、前記伸張RAW画像における1以上の画素の画素値に基づいて算出する色処理段階と
を備え
前記色処理段階は、前記伸張RAW画像における前記特徴領域における画素と、前記伸張RAW画像における前記特徴領域以外の領域における画素とで、異なる方式で前記複数の色成分の値を算出する
画像処理方法。
An image acquisition stage for acquiring a RAW image represented in RAW format;
A feature region detection step of detecting a feature region in the RAW image using the RAW image;
A compressed RAW image that is a compressed RAW image expressed in the RAW format by compressing the RAW image with different intensities in the feature region in the RAW image and a region other than the feature region in the RAW image. and the compression stage to generate,
Generating a decompressed RAW image that is the decompressed RAW image by decompressing the compressed RAW image;
A color processing step of calculating values of a plurality of color components in each of a plurality of pixels in an image region indicated by the expanded RAW image based on pixel values of one or more pixels in the expanded RAW image. ,
In the color processing step, values of the plurality of color components are calculated in different manners for pixels in the feature region in the expanded RAW image and pixels in regions other than the feature region in the expanded RAW image. > Image processing method.
RAW形式で表されるRAW画像を取得する画像取得部と、
前記RAW画像を用いて、前記RAW画像における特徴領域を検出する特徴領域検出部と、
前記RAW画像における複数の画素のそれぞれにおける複数の色成分の値を、前記RAW画像における1以上の画素の画素値に基づいて算出する色処理部と
を備え、
前記色処理部は、前記RAW画像における前記特徴領域における画素と、前記RAW画像における前記特徴領域以外の領域における画素とで、異なる方式で前記複数の色成分の値を算出する
画像処理システム。
An image acquisition unit for acquiring a RAW image represented in a RAW format;
A feature region detection unit that detects a feature region in the RAW image using the RAW image;
A color processing unit that calculates values of a plurality of color components in each of a plurality of pixels in the RAW image based on pixel values of one or more pixels in the RAW image;
The image processing system, wherein the color processing unit calculates values of the plurality of color components in different manners for a pixel in the feature region in the RAW image and a pixel in a region other than the feature region in the RAW image.
前記色処理部は、前記RAW画像における前記特徴領域以外の領域における画素より前記RAW画像における前記特徴領域における画素において、前記複数の色成分の値をより高い精度で算出する
請求項16に記載の画像処理システム。
Wherein the color processing unit, in the pixel in the characteristic region from the pixels in the region other than the feature region in the RAW image in the RAW image, according to claim 16 for calculating a value of said plurality of color components with higher accuracy Image processing system.
画像処理システム用のプログラムであって、コンピュータを、  A program for an image processing system, comprising:
請求項16または17に記載の画像処理システムとして機能させるためのプログラム。  The program for functioning as an image processing system of Claim 16 or 17.
RAW形式で表されるRAW画像を取得する画像取得段階と、
前記RAW画像を用いて、前記RAW画像における特徴領域を検出する特徴領域検出段階と、
前記RAW画像における複数の画素のそれぞれにおける複数の色成分の値を、前記RAW画像における1以上の画素の画素値に基づいて算出する色処理段階と
を備え、
前記色処理段階は、前記RAW画像における前記特徴領域における画素と、前記RAW画像における前記特徴領域以外の領域における画素とで、異なる方式で前記複数の色成分の値を算出する
画像処理方法。
An image acquisition stage for acquiring a RAW image represented in RAW format;
A feature region detection step of detecting a feature region in the RAW image using the RAW image;
A color processing stage that calculates values of a plurality of color components in each of a plurality of pixels in the RAW image based on pixel values of one or more pixels in the RAW image,
The image processing method in which the color processing step calculates the values of the plurality of color components in different manners for pixels in the feature region in the RAW image and pixels in regions other than the feature region in the RAW image.
JP2008099706A 2008-04-07 2008-04-07 Image processing system, image processing method, and program Expired - Fee Related JP5082141B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008099706A JP5082141B2 (en) 2008-04-07 2008-04-07 Image processing system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008099706A JP5082141B2 (en) 2008-04-07 2008-04-07 Image processing system, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2009253696A JP2009253696A (en) 2009-10-29
JP5082141B2 true JP5082141B2 (en) 2012-11-28

Family

ID=41313926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008099706A Expired - Fee Related JP5082141B2 (en) 2008-04-07 2008-04-07 Image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5082141B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10121337B2 (en) * 2016-12-30 2018-11-06 Axis Ab Gaze controlled bit rate

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3864748B2 (en) * 2001-10-10 2007-01-10 株式会社ニコン Image processing apparatus, electronic camera, and image processing program
JP4470485B2 (en) * 2003-12-25 2010-06-02 株式会社ニコン Image compression apparatus, image compression program, image expansion apparatus, image expansion program, and electronic camera for generating prediction differential compression data of fixed bit length
JP4892869B2 (en) * 2005-05-25 2012-03-07 株式会社ニコン Image compression apparatus, image compression program, electronic camera, image expansion apparatus, and image expansion program
JP2008022240A (en) * 2006-07-12 2008-01-31 Fujifilm Corp Photographing device, image processor, image file generating method, image processing method, and image processing program
JP2009118188A (en) * 2007-11-06 2009-05-28 Canon Inc Image processing apparatus, control method of the image processing apparatus, and program

Also Published As

Publication number Publication date
JP2009253696A (en) 2009-10-29

Similar Documents

Publication Publication Date Title
JP5429445B2 (en) Image processing system, image processing method, and program
WO2009122760A1 (en) Image processing device, image processing method, and computer-readable medium
JP5181294B2 (en) Imaging system, imaging method, and program
JP5531327B2 (en) Image processing apparatus, image processing method, and program
JP5239095B2 (en) Image processing system, image processing method, and program
JP5337970B2 (en) Image processing system, image processing method, and program
JP2013051737A (en) Image processing device, image processing method and program
JP5156982B2 (en) Image processing system, image processing method, and program
JP5256496B2 (en) Image processing system, image processing method, and program
JP2009273116A (en) Image processing device, image processing method, and program
JP5082141B2 (en) Image processing system, image processing method, and program
JP5136172B2 (en) Image processing system, image processing method, and program
JP5117424B2 (en) Image processing system, image processing method, and program
JP4961582B2 (en) Image processing system, image processing method, and program
WO2009125578A1 (en) Image processing system, image processing method, and computer-readable medium
JP5082142B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP2009268088A (en) Image processing system, image processing method, and program
JP5041316B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP5105179B2 (en) Image processing system, image processing method, and program
JP5142204B2 (en) Image processing apparatus, image processing method, and program
JP5337969B2 (en) Image processing system, image processing method, and program
JP2009253581A (en) Image processing apparatus, image processing method, and program
JP2009273117A (en) Image processing system, image processing method, and program
JP4905723B2 (en) Image processing system, image processing method, and program
JP5034116B2 (en) Image processing system, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120815

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees