JP2011139126A - Imaging apparatus and program - Google Patents

Imaging apparatus and program Download PDF

Info

Publication number
JP2011139126A
JP2011139126A JP2009295937A JP2009295937A JP2011139126A JP 2011139126 A JP2011139126 A JP 2011139126A JP 2009295937 A JP2009295937 A JP 2009295937A JP 2009295937 A JP2009295937 A JP 2009295937A JP 2011139126 A JP2011139126 A JP 2011139126A
Authority
JP
Japan
Prior art keywords
image
processing
feature
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009295937A
Other languages
Japanese (ja)
Other versions
JP5412267B2 (en
Inventor
Tsumugi Maeda
紬 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2009295937A priority Critical patent/JP5412267B2/en
Priority to KR1020100127874A priority patent/KR101692400B1/en
Priority to US12/977,360 priority patent/US8605166B2/en
Publication of JP2011139126A publication Critical patent/JP2011139126A/en
Application granted granted Critical
Publication of JP5412267B2 publication Critical patent/JP5412267B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus for generating image data according to a plurality of scene modes while reducing a data size and a processing time, and also to provide a program therefor. <P>SOLUTION: The imaging apparatus includes: an imaging unit for imaging a subject to generate an RAW image; a feature extraction unit for extracting a feature image including at least one feature portion from the RAW image; an image processing unit for processing the RAW image based on first scene information prescribing processing to the RAW image and processing the feature image based on second scene information prescribing processing to the feature image; a quantization unit for performing discrete cosine conversion processing and quantization processing to a RAW processing image and a feature processing image; a differential data generation unit for generating differential data indicating a difference between image data subjected to RAW processing image processing and feature image data subjected to feature processing image processing for each of feature image data; and an image compression unit for irreversibly compressing the image data. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像装置、およびプログラムに関する。   The present invention relates to an imaging apparatus and a program.

デジタルスチルカメラなどの撮像装置の中には、撮像により得たRAW画像に対する処理がそれぞれ規定される複数のシーンモードを記憶し、撮像が行われた場合には、ユーザにより設定された(または予め設定された)シーンモードに応じた画像処理を行うことによって、設定されたシーンモードに応じた画像データを生成することが可能なものがある。   In an imaging apparatus such as a digital still camera, a plurality of scene modes each defining processing for a RAW image obtained by imaging are stored, and when imaging is performed, a user has set (or previously set) Some image data can be generated according to the set scene mode by performing image processing according to the set scene mode.

このような中、複数のシーンモードに応じた画像データを生成する技術が開発されている。一のシーンモードに応じた画像データと、当該画像データおよび他のシーンモードに応じた画像データの差分に対応する差分データとを記録し、画像データと差分データとを用いることによって、差分データに対応するシーンモードに応じた画像データを生成する技術としては、例えば、特許文献1、特許文献2が挙げられる。また、RAW画像データを記録し、RAW画像データに対してシーンモードに応じたパラメータによる画像処理を行うことによって、シーンモードに応じた画像データを生成する技術としては、例えば、特許文献3、特許文献4が挙げられる。   Under such circumstances, a technique for generating image data corresponding to a plurality of scene modes has been developed. By recording the image data corresponding to one scene mode and the difference data corresponding to the difference between the image data and the image data corresponding to another scene mode, and using the image data and the difference data, As a technique for generating image data corresponding to a corresponding scene mode, for example, Patent Document 1 and Patent Document 2 can be cited. Further, as a technique for generating image data corresponding to a scene mode by recording RAW image data and performing image processing on the RAW image data using a parameter corresponding to the scene mode, for example, Patent Document 3 and Patent Reference 4 is cited.

特開2007−60153号公報JP 2007-60153 A 特開2008−85882号公報JP 2008-85882 A 特開2007−33038号公報JP 2007-33038 A 特開2004−264945号公報JP 2004-264945 A

画像データと差分データとを用いることによって差分データに対応するシーンモードに応じた画像データを生成する従来の技術(以下、「従来の技術1」とよぶ場合がある。)では、中間データにおける差分を差分データとして記録する。よって、従来の技術1を用いる場合には、画像データと上記差分データとを用いることによって、当該画像データとは異なる画像データを生成することは可能である。しかしながら、従来の技術1では、画像全体における差分を差分データとして記録するので、差分データのデータサイズ(データ容量)は大きくなってしまう。また、従来の技術1では、中間データにおける差分を差分データとして記録するので、画像データと差分データとにより得られる新たな画像データが例えばJPEG(Joint Photographic Experts Group)などの非可逆圧縮された画像データである場合、当該新たな画像データが示す画像は、差分をとらずに画像処理を行って非可逆圧縮された画像データが示す画像(同一のシーンモードに対応する画像)とは異なる画像となってしまう。   In the conventional technique for generating image data corresponding to the scene mode corresponding to the difference data by using the image data and the difference data (hereinafter sometimes referred to as “conventional technique 1”), the difference in the intermediate data. Is recorded as difference data. Therefore, when the conventional technique 1 is used, it is possible to generate image data different from the image data by using the image data and the difference data. However, in the conventional technique 1, since the difference in the entire image is recorded as difference data, the data size (data capacity) of the difference data is increased. Further, in the conventional technique 1, since the difference in the intermediate data is recorded as the difference data, new image data obtained from the image data and the difference data is an irreversibly compressed image such as JPEG (Joint Photographic Experts Group). In the case of data, the image indicated by the new image data is different from an image (image corresponding to the same scene mode) indicated by the image data that has been subjected to image processing without taking a difference and is irreversibly compressed. turn into.

また、RAW画像データに対してシーンモードに応じたパラメータによる画像処理を行うことによってシーンモードに応じた画像データを生成する従来の技術(以下、「従来の技術2」とよぶ場合がある。)は、RAW画像データに対してシーンモードに応じたパラメータによる処理を行うので、シーンモードに応じた画像データを生成することが可能である。しかしながら、RAW画像データは非常にデータサイズが大きいので、従来の技術2を用いる場合には、当該RAW画像データを記憶する記録媒体における記憶可能な容量を圧迫してしまう。また、RAW画像データに対する画像処理にはある程度の時間を要するところ、従来の技術2はRAW画像データそのものを用いなければシーンモードに応じた画像データを生成することはできない。よって、従来の技術2を用いる場合には、画像処理に時間がかかってしまう。   In addition, a conventional technique for generating image data corresponding to a scene mode by performing image processing on the RAW image data using a parameter corresponding to the scene mode (hereinafter sometimes referred to as “conventional technique 2”). Since the RAW image data is processed with parameters according to the scene mode, it is possible to generate image data according to the scene mode. However, since the RAW image data has a very large data size, when the conventional technique 2 is used, the storage capacity of the recording medium that stores the RAW image data is reduced. In addition, since image processing for RAW image data requires a certain amount of time, the conventional technique 2 cannot generate image data according to the scene mode unless the RAW image data itself is used. Therefore, when the conventional technique 2 is used, image processing takes time.

したがって、従来の技術1、従来の技術2を用いたとしても、データサイズの縮小と処理時間の短縮を図りながら、複数のシーンモードに応じた画像データを生成することは、望むべくもない。   Therefore, even if the conventional technique 1 and the conventional technique 2 are used, it is not desired to generate image data corresponding to a plurality of scene modes while reducing the data size and the processing time.

本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、データサイズの縮小と処理時間の短縮を図りながら、複数のシーンモードに応じた画像データを生成することを可能とする、新規かつ改良された撮像装置、およびプログラムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to generate image data corresponding to a plurality of scene modes while reducing the data size and the processing time. It is an object of the present invention to provide a new and improved imaging apparatus and program capable of enabling

上記目的を達成するために、本発明の第1の観点によれば、被写体を撮像してRAW画像を生成する撮像部と、上記RAW画像から少なくとも1以上の特徴部分を含む特徴画像を抽出する特徴抽出部と、上記RAW画像に対する処理を規定する第1シーン情報に基づいて、上記RAW画像に対する上記第1シーン情報に応じた画像処理を行い、上記特徴画像に対する処理を規定する、上記特徴抽出部が抽出した上記特徴画像ごとの第2シーン情報に基づいて、上記特徴画像に対する上記第2シーン情報に応じた画像処理を行う画像処理部と、上記RAW画像が画像処理されたRAW処理画像と、上記特徴画像が画像処理された特徴処理画像とに対して、離散コサイン変換処理と量子化処理とを行う量子化部と、上記量子化部においてRAW処理画像が処理された画像データと上記量子化部において特徴処理画像が処理された特徴画像データとの差分を示す差分データを、上記特徴画像データごとに生成する差分データ生成部と、上記画像データを非可逆圧縮する画像圧縮部とを備える撮像装置が提供される。   In order to achieve the above object, according to a first aspect of the present invention, an imaging unit that images a subject and generates a RAW image, and a feature image including at least one feature part is extracted from the RAW image. The feature extraction unit performs image processing according to the first scene information for the RAW image based on first scene information that defines processing for the RAW image, and defines the processing for the feature image. An image processing unit that performs image processing on the feature image according to the second scene information based on the second scene information for each of the feature images extracted by the unit, and a RAW processing image obtained by subjecting the RAW image to image processing, A quantization unit that performs a discrete cosine transform process and a quantization process on the feature-processed image obtained by performing image processing on the feature image, and a RAW process in the quantization unit. A difference data generation unit that generates difference data for each feature image data, indicating difference between the image data obtained by processing the image and the feature image data obtained by processing the feature processed image in the quantization unit; An imaging apparatus including an image compression unit that performs irreversible compression is provided.

かかる構成では、RAW画像に対して一のシーンモード(第1のシーンモード)に対応する画像処理を行った画像データを非可逆圧縮すると共に、RAW画像と当該RAW画像から他のシーンモード(第2のシーンモード)に対応して抽出された特徴画像との差分データを生成する。つまり、かかる構成では、記録媒体に記録される画像データを、非可逆圧縮されたRAW画像よりもデータサイズが小さな画像データとすることが可能となり、かつ、記録媒体に記録される差分データを、第1のシーンモードに対応する画像処理が行われた画像データと第2のシーンモードに対応する画像処理が行われた画像データとが相違する部分のみを示すデータとする(すなわち、差分データのデータサイズを、画像全体の差分をとる場合よりも小さくする)ことが可能となる。さらに、かかる構成により生成された差分データは、RAW画像と特徴画像との差分に基づくデータであるので、非可逆圧縮された上記画像データに差分データを加算して得られる画像データが示す画像は、RAW画像に対して差分データの生成に用いられた特徴画像に対応するシーンモードに応じた画像処理を直接的に行った画像データが示す画像と同一の画像となる。つまり、かかる構成により生成された非可逆圧縮された画像データおよび差分データ(データサイズを縮小された画像データおよび差分データ)を用いることによって、各シーンモードごとに直接的に画像処理された画像データが示す画像と同様の画像を得ることが可能となる。   In such a configuration, image data obtained by performing image processing corresponding to one scene mode (first scene mode) on a RAW image is irreversibly compressed, and the RAW image and the RAW image are converted into another scene mode (first image mode). Difference data with the feature image extracted corresponding to the second scene mode) is generated. That is, in such a configuration, the image data recorded on the recording medium can be image data having a data size smaller than that of the irreversibly compressed RAW image, and the difference data recorded on the recording medium is The image data that has been subjected to the image processing corresponding to the first scene mode and the image data that has been subjected to the image processing corresponding to the second scene mode are used as data indicating only the difference (that is, the difference data It is possible to make the data size smaller than the case of taking the difference of the whole image). Furthermore, since the difference data generated by such a configuration is data based on the difference between the RAW image and the feature image, the image indicated by the image data obtained by adding the difference data to the irreversibly compressed image data is The RAW image is the same image as the image indicated by the image data obtained by directly performing the image processing corresponding to the scene mode corresponding to the feature image used for generating the difference data. In other words, image data directly processed for each scene mode by using lossy-compressed image data and difference data (image data with reduced data size and difference data) generated by such a configuration. It is possible to obtain an image similar to the image indicated by.

また、上記特徴抽出部は、上記画像圧縮部における非可逆圧縮の最小処理単位で上記特徴画像を抽出してもよい。   Further, the feature extraction unit may extract the feature image in a minimum processing unit of irreversible compression in the image compression unit.

また、上記画像データが非可逆圧縮された圧縮画像データと上記差分データとを加算し、上記RAW画像に対して上記差分データの生成に用いられた上記特徴画像データに対応する上記第2シーン情報に応じた画像処理が行われた画像データを生成する画像復元部をさらに備えてもよい。   The second scene information corresponding to the feature image data used to generate the difference data for the RAW image by adding the compressed image data obtained by irreversibly compressing the image data and the difference data. An image restoration unit that generates image data that has been subjected to image processing according to the above may be further provided.

また、上記画像処理部は、入力される画像に対して、相異なる処理を順次にかつ選択的に行う複数の処理部と、入力される上記画像が上記RAW画像の場合には、上記第1シーン情報に基づいて、複数の上記処理部のうちの特定の処理部に上記第1シーン情報に応じた処理を行わせ、入力される上記画像が上記特徴画像の場合には、上記第2シーン情報に基づいて、複数の上記処理部のうちの特定の処理部に上記特徴画像に対応する上記第2シーン情報に応じた処理を行わせる処理管理部とを備えてもよい。   The image processing unit includes a plurality of processing units that sequentially and selectively perform different processes on the input image, and the first image when the input image is the RAW image. Based on the scene information, a specific processing unit among the plurality of processing units performs processing according to the first scene information, and when the input image is the feature image, the second scene A process management unit that causes a specific processing unit of the plurality of processing units to perform processing according to the second scene information corresponding to the feature image based on the information may be provided.

また、ユーザ操作に基づいて、上記第1シーン情報、または、上記第1シーン情報および少なくとも1以上の上記第2シーン情報を設定する設定部をさらに備えてもよい。   Further, the image processing apparatus may further include a setting unit that sets the first scene information, or the first scene information and at least one or more second scene information based on a user operation.

また、上記目的を達成するために、本発明の第2の観点によれば、被写体を撮像してRAW画像を生成する撮像部と、上記RAW画像から少なくとも1以上の特徴部分を含む特徴画像を抽出する特徴抽出部と、上記RAW画像に対する処理を規定する第1シーン情報に基づいて、上記RAW画像に対する上記第1シーン情報に応じた画像処理を行い、上記特徴画像に対する処理を規定する、上記特徴抽出部が抽出した上記特徴画像ごとの第2シーン情報に基づいて、上記特徴画像に対する上記第2シーン情報に応じた画像処理を行う画像処理部と、上記RAW画像が画像処理されたRAW処理画像と、上記特徴画像が画像処理された特徴処理画像とに対して、離散コサイン変換処理と量子化処理とを行う量子化部と、上記量子化部においてRAW処理画像が処理された画像データと上記量子化部において特徴処理画像が処理された特徴画像データとの差分を示す差分データを、上記特徴画像データごとに生成する差分データ生成部と、上記画像データを非可逆圧縮する画像圧縮部とを備える撮像装置が非可逆圧縮した画像データと、上記撮像装置が生成した差分データとに基づいて、画像データを生成するプログラムであって、コンピュータを、上記画像データが非可逆圧縮された圧縮画像データと上記差分データとを加算し、上記RAW画像に対して上記差分データの生成に用いられた上記特徴画像データに対応する上記第2シーン情報に応じた画像処理が行われた画像データを生成する手段として機能させるためのプログラムが提供される。   In order to achieve the above object, according to a second aspect of the present invention, an imaging unit that images a subject and generates a RAW image, and a feature image including at least one feature part from the RAW image are provided. Based on the feature extraction unit to extract and the first scene information that defines the processing for the RAW image, the image processing according to the first scene information for the RAW image is performed, and the processing for the feature image is defined. An image processing unit that performs image processing according to the second scene information for the feature image based on the second scene information for each feature image extracted by the feature extraction unit, and a RAW process in which the RAW image is subjected to image processing A quantization unit that performs discrete cosine transform processing and quantization processing on the image and the feature-processed image obtained by performing image processing on the feature image, and R in the quantization unit A difference data generation unit that generates, for each feature image data, difference data indicating a difference between image data obtained by processing a W-processed image and feature image data obtained by processing a feature-processed image in the quantization unit; A program for generating image data based on image data irreversibly compressed by an imaging device including an image compression unit for irreversibly compressing data and difference data generated by the imaging device, the computer comprising: The compressed image data obtained by irreversibly compressing the image data and the difference data are added, and the second scene information corresponding to the feature image data used to generate the difference data is generated for the RAW image. A program is provided for functioning as means for generating image data subjected to image processing.

かかるプログラムでは、上記構成の撮像装置により非可逆圧縮された上記画像データに、上記構成の撮像装置において生成されたRAW画像と特徴画像との差分に基づく差分データを加算するので、当該加算により得られる画像データが示す画像は、RAW画像に対して差分データの生成に用いられた特徴画像に対応するシーンモードに応じた画像処理を直接的に行った画像データが示す画像と同一の画像となる。よって、かかるプログラムを用いることによって、上記構成の撮像装置により生成された非可逆圧縮された画像データおよび差分データ(データサイズを縮小された画像データおよび差分データ)を用いて、各シーンモードごとに直接的に画像処理された画像データが示す画像と同様の画像を得ることが可能となる。   In such a program, difference data based on the difference between the RAW image generated in the image pickup apparatus having the above configuration and the feature image is added to the image data irreversibly compressed by the image pickup apparatus having the above configuration. The image indicated by the image data is the same as the image indicated by the image data obtained by directly performing image processing according to the scene mode corresponding to the feature image used for generating the difference data for the RAW image. . Therefore, by using such a program, it is possible to use irreversibly compressed image data and difference data (image data and difference data with a reduced data size) generated by the imaging apparatus having the above configuration for each scene mode. It is possible to obtain an image similar to the image indicated by the image data subjected to direct image processing.

本発明によれば、データサイズの縮小と処理時間の短縮を図りながら、複数のシーンモードに応じた画像データを生成することを可能とすることができる。   According to the present invention, it is possible to generate image data corresponding to a plurality of scene modes while reducing the data size and the processing time.

本発明の実施形態に係る撮像装置におけるシーン情報設定処理の一例を示す流れ図である。It is a flowchart which shows an example of the scene information setting process in the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置におけるデータ生成処理の一例を示す流れ図である。It is a flowchart which shows an example of the data generation process in the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置が備える画像処理部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image process part with which the imaging device which concerns on embodiment of this invention is provided.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

(本発明の実施形態に係る撮像装置における処理)
[本発明の実施形態に係る撮像装置における処理の概要]
上述したように、従来の技術1、従来の技術2を用いたとしても、データサイズの縮小と処理時間の短縮を図りながら、複数のシーンモードに応じた画像データを生成することはできない。そこで、本発明の実施形態に係る撮像装置(以下、「撮像装置100」という。)は、RAW画像(画像処理前の画像)からシーンモードに対応する特徴部分を含む特徴画像を抽出し、RAW画像と特徴画像との差分に基づく差分データを生成する。例えば、特徴画像の抽出に係るシーンモードが被写体が人物である場合に適した画像処理を示す“ポートレート”である場合には、撮像装置100は、RAW画像の中の被写体の顔部分の画像を特徴画像として抽出する。よって、撮像装置100は、従来の技術1のように画像全体における差分を差分データとしないので、差分データのデータサイズを、従来の技術1に係る差分データよりもより小さくすることができる。
(Processing in Imaging Device According to Embodiment of Present Invention)
[Outline of Processing in Imaging Device According to Embodiment of Present Invention]
As described above, even when the conventional technique 1 and the conventional technique 2 are used, image data corresponding to a plurality of scene modes cannot be generated while reducing the data size and the processing time. Therefore, the imaging apparatus according to the embodiment of the present invention (hereinafter, referred to as “imaging apparatus 100”) extracts a feature image including a feature portion corresponding to a scene mode from a RAW image (an image before image processing), and RAW. Difference data based on the difference between the image and the feature image is generated. For example, when the scene mode related to feature image extraction is “portrait” indicating image processing suitable for a case where the subject is a person, the imaging apparatus 100 captures the image of the face portion of the subject in the RAW image. Are extracted as feature images. Therefore, since the imaging apparatus 100 does not use the difference in the entire image as difference data unlike the conventional technique 1, the data size of the difference data can be made smaller than the difference data according to the conventional technique 1.

ここで、本発明の実施形態に係るシーンモードとは、撮像処理装置100が行う画像処理を抽象化して示すものである。撮像装置100を用いるユーザは、画像処理の内容が示されたとしても、当該画像処理の内容を必ずしも理解できるとは限らない。そこで、撮像装置100は、画像処理を抽象化して示すシーンモードをユーザに対して示すことによって、例えばユーザによるシーンモードの選択を補助する。また、本発明の実施形態に係るシーンモードとしては、例えば、上記“ポートレート”や、被写体が風景である場合に適した画像処理を示す“風景”、被写体が子供である場合に適した画像処理を示す“子供”、被写体によらない汎用的な画像処理を示す“オート”などが挙げられる。なお、撮像装置100は、例えば、“スノー”、“ビーチ”、“マクロ”、“夕日”、“夜明け”、“バックライト”、“花火”など、被写体や撮像する環境などに応じた様々なシーンモードを設定することが可能である。   Here, the scene mode according to the embodiment of the present invention abstractly represents image processing performed by the imaging processing apparatus 100. Even if the content of the image processing is shown, the user who uses the imaging apparatus 100 cannot always understand the content of the image processing. Therefore, the imaging apparatus 100 assists the user in selecting a scene mode, for example, by showing the user a scene mode that abstracts image processing. In addition, as the scene mode according to the embodiment of the present invention, for example, the above “portrait”, “landscape” indicating image processing suitable when the subject is a landscape, or an image suitable when the subject is a child “Child” indicating processing, “Auto” indicating general-purpose image processing independent of the subject, and the like. Note that the imaging apparatus 100 can be used in various ways depending on the subject and the imaging environment, such as “snow”, “beach”, “macro”, “sunset”, “dawn”, “backlight”, and “fireworks”. It is possible to set the scene mode.

撮像装置100は、撮像用に設定されたシーンモード(以下、「第1のシーンモード」という。)に対応する、RAW画像に対する処理を規定する第1シーン情報を用いて、撮像により得られたRAW画像を処理する。また、撮像装置100は、第1のシーンモード以外に設定された他のシーンモード(以下、「第2のシーンモード」という。)に対応する、特徴画像に対する処理を規定する第2シーン情報を用いて、特徴画像を処理する。なお、例えばユーザにより第2のシーンモードが複数設定された場合には、撮像装置100は、設定された複数の第2のシーンモードそれぞれに対応する複数の第2シーン情報を用いて、設定された複数の第2のシーンモードそれぞれに対応する複数の特徴画像をそれぞれ処理する。以下では、画像に対する処理を規定する情報を、総称して「シーン情報」とよぶ場合がある。   The imaging apparatus 100 is obtained by imaging using first scene information that defines processing for a RAW image corresponding to a scene mode set for imaging (hereinafter referred to as “first scene mode”). Process the RAW image. In addition, the imaging apparatus 100 includes second scene information that defines processing for a feature image corresponding to another scene mode (hereinafter, referred to as “second scene mode”) set in addition to the first scene mode. To process feature images. For example, when a plurality of second scene modes are set by the user, the imaging apparatus 100 is set using a plurality of second scene information corresponding to each of the set second scene modes. A plurality of feature images corresponding to each of the plurality of second scene modes are processed. Hereinafter, information that defines processing for an image may be collectively referred to as “scene information”.

また、本発明の実施形態に係るシーン情報には、例えば、実行する画像処理の種別と、画像処理ごとのパラメータと、特徴画像の抽出のための特徴部分を示す情報とが含まれる。表1は、本発明の実施形態に係る特徴画像の抽出のための特徴部分を示す情報の一例を示している。   The scene information according to the embodiment of the present invention includes, for example, the type of image processing to be executed, parameters for each image processing, and information indicating a feature portion for extracting a feature image. Table 1 shows an example of information indicating feature portions for extracting feature images according to the embodiment of the present invention.

Figure 2011139126
Figure 2011139126

また、撮像装置100は、RAW画像に対して撮像用に設定されたシーンモードに応じた画像処理を行った後、画像データを非可逆圧縮する。よって、撮像装置100は、従来の技術2のようにRAW画像データそのものを記録媒体(例えば、後述する記憶部)に記憶させないので、記憶媒体に記憶させる画像データのデータサイズを、従来の技術2を用いる場合よりもより小さくすることができる。つまり、撮像装置100を用いる場合には、従来の技術2にように、画像データを記憶する記録媒体における記憶可能な容量を過度に圧迫することはない。   The imaging apparatus 100 performs irreversible compression on the image data after performing image processing according to the scene mode set for imaging on the RAW image. Therefore, the image capturing apparatus 100 does not store the RAW image data itself in a recording medium (for example, a storage unit described later) as in the conventional technique 2, so that the data size of the image data stored in the storage medium is the conventional technique 2. It can be made smaller than when using. That is, when the imaging apparatus 100 is used, unlike the conventional technique 2, the storable capacity of the recording medium that stores the image data is not excessively compressed.

また、撮像装置100は、非可逆圧縮した画像データ(以下、「圧縮画像データ」とよぶ場合がある。)と、RAW画像と特徴画像との差分に基づく差分データとを加算することによって、差分データの生成に用いられた特徴画像に対応するシーンモードに応じた画像処理が行われた画像データ(以下、「復元画像データ」とよぶ場合がある。)を生成する。ここで、差分データは、RAW画像と特徴画像との差分に基づくデータであるので、圧縮画像データに差分データを加算して得られる復元画像データが示す画像は、RAW画像に対して差分データの生成に用いられた特徴画像に対応するシーンモードに応じた画像処理を直接的に行った画像データが示す画像と同一の画像となる。よって、撮像装置100を用いる場合には、従来の技術2を用いる場合のように、差分データを用いた結果得られる画像が差分データを用いずに画像処理した結果得られる画像と異なることはない   In addition, the imaging apparatus 100 adds difference between image data that has been irreversibly compressed (hereinafter sometimes referred to as “compressed image data”) and difference data that is based on the difference between the RAW image and the feature image. Image data (hereinafter, also referred to as “restored image data”) that has been subjected to image processing corresponding to the scene mode corresponding to the feature image used for data generation is generated. Here, since the difference data is data based on the difference between the RAW image and the feature image, the image indicated by the restored image data obtained by adding the difference data to the compressed image data is the difference data of the RAW image. The same image as the image indicated by the image data directly subjected to the image processing corresponding to the scene mode corresponding to the feature image used for generation is obtained. Therefore, when using the imaging apparatus 100, the image obtained as a result of using the difference data is not different from the image obtained as a result of image processing without using the difference data, as in the case of using the conventional technique 2.

さらに、撮像装置100は、圧縮画像データと差分データに基づいて復元画像データを生成するので、RAW画像データに対して画像処理を行う従来の技術1よりも、より短時間に復元画像データを生成することが可能である。   Furthermore, since the imaging apparatus 100 generates restored image data based on the compressed image data and the difference data, the restored image data is generated in a shorter time than the conventional technique 1 that performs image processing on RAW image data. Is possible.

本発明の実施形態に係る撮像装置100は、上記のような処理を行うことによって、データサイズの縮小と処理時間の短縮を図りながら、複数のシーンモードに応じた画像データを生成することを可能とすることができる。   The imaging apparatus 100 according to the embodiment of the present invention can generate image data corresponding to a plurality of scene modes while performing the above-described processing while reducing the data size and the processing time. It can be.

[本発明の実施形態に係る撮像装置における処理の具体例]
次に、撮像装置100における処理について、より具体的に説明する。撮像装置100は、例えば以下の(1)の処理〜(3)の処理を行うことによって、データサイズの縮小と処理時間の短縮を図りながら、複数のシーンモードに応じた画像データを生成することを可能とする
[Specific Example of Processing in Imaging Device According to Embodiment of Present Invention]
Next, the process in the imaging device 100 will be described more specifically. The imaging apparatus 100 generates image data corresponding to a plurality of scene modes while reducing the data size and the processing time by performing the following processes (1) to (3), for example. Enable

(1)シーン情報設定処理
撮像装置100は、撮像用のシーンモードである第1のシーンモードに対応する第1シーン情報の設定と、その他のシーンモードである第2のシーンモードに対応する第2シーン情報の設定とを行う。ここで、撮像装置100は、例えば撮像装置100が備える操作部(後述する)から伝達されるユーザ操作に応じた操作信号基づいて、(1)の処理を行う。図1は、本発明の実施形態に係る撮像装置100におけるシーン情報設定処理の一例を示す流れ図である。
(1) Scene information setting process The imaging apparatus 100 sets the first scene information corresponding to the first scene mode that is a scene mode for imaging and the second scene mode corresponding to the second scene mode that is another scene mode. 2 Set the scene information. Here, for example, the imaging apparatus 100 performs the process (1) based on an operation signal corresponding to a user operation transmitted from an operation unit (described later) included in the imaging apparatus 100. FIG. 1 is a flowchart showing an example of scene information setting processing in the imaging apparatus 100 according to the embodiment of the present invention.

撮像装置100は、撮像用のシーンモード(第1のシーンモード)を設定する(S100。第1シーン情報設定処理)。撮像装置100は、ステップS100において、例えば、予め記憶された複数のシーン情報の中からユーザにより設定されたシーンモードに対応するシーン情報を選択し、選択されたシーン情報を第1シーン情報として設定する。また、撮像装置100は、第1シーン情報が未設定の場合には、設定されたシーンモードに対応するシーン情報を第1シーン情報として新規設定し、第1シーン情報が既設定されている場合には、設定されたシーンモードに対応するシーン情報を更新設定する。   The imaging apparatus 100 sets a scene mode for imaging (first scene mode) (S100: first scene information setting process). In step S100, for example, the imaging apparatus 100 selects scene information corresponding to a scene mode set by the user from a plurality of scene information stored in advance, and sets the selected scene information as first scene information. To do. Further, when the first scene information is not set, the imaging apparatus 100 newly sets the scene information corresponding to the set scene mode as the first scene information, and the first scene information is already set. In this case, the scene information corresponding to the set scene mode is updated and set.

ステップS100において第1のシーンモードが設定されると、撮像装置100は、他のシーンモードを設定するか否かを判定する(S102)。撮像装置100は、例えばユーザ操作に基づく操作信号が、他のシーンモードの設定を行うことを示す場合に、他のシーンモードを設定すると判定する。   When the first scene mode is set in step S100, the imaging apparatus 100 determines whether to set another scene mode (S102). The imaging apparatus 100 determines to set another scene mode, for example, when an operation signal based on a user operation indicates setting of another scene mode.

ステップS102において他のシーンモードを設定すると判定されない場合には、撮像装置100は、(1)の処理(シーン情報設定処理)を終了する。   If it is not determined in step S102 that another scene mode is set, the imaging apparatus 100 ends the process (1) (scene information setting process).

また、ステップS102において他のシーンモードを設定すると判定された場合には、撮像装置100は、ユーザにより選択されたシーンモード(第2のシーンモード)を設定する(S104。第2シーン情報設定処理)。撮像装置100は、ステップS104において、例えば、予め記憶された複数のシーン情報の中からユーザにより設定されたシーンモードに対応するシーン情報を選択し、選択されたシーン情報を第2シーン情報として設定する。また、撮像装置100は、第2シーン情報が未設定であるか既設定であるかによらず、設定されたシーンモードに対応するシーン情報を第2シーン情報として新規設定する。なお、撮像装置100は、ステップS104において、ユーザ操作に基づいて、既設定の第2シーン情報を削除する(第2のシーンモードの解除に相当)ことも可能である。   If it is determined in step S102 that another scene mode is set, the imaging apparatus 100 sets the scene mode (second scene mode) selected by the user (S104. Second scene information setting process). ). In step S104, for example, the imaging apparatus 100 selects scene information corresponding to a scene mode set by the user from a plurality of scene information stored in advance, and sets the selected scene information as second scene information. To do. Further, the imaging apparatus 100 newly sets the scene information corresponding to the set scene mode as the second scene information regardless of whether the second scene information is not set or is already set. Note that the imaging apparatus 100 can also delete the preset second scene information (corresponding to the cancellation of the second scene mode) based on the user operation in step S104.

ステップS104において第2のシーンモードが設定されると、撮像装置100は、ステップS102からの処理を繰り返す。   When the second scene mode is set in step S104, the imaging apparatus 100 repeats the processing from step S102.

撮像装置100は、例えば図1に示す処理を行うことによって、第1シーン情報、または、第1シーン情報および第2シーン情報を設定する。   The imaging apparatus 100 sets the first scene information, or the first scene information and the second scene information, for example, by performing the process shown in FIG.

(2)データ生成処理
撮像装置100は、撮像が場合に、画像データ、または画像データおよび差分データを生成する。図2は、本発明の実施形態に係る撮像装置100におけるデータ生成処理の一例を示す流れ図である。
(2) Data Generation Processing The imaging device 100 generates image data or image data and difference data when imaging is performed. FIG. 2 is a flowchart showing an example of data generation processing in the imaging apparatus 100 according to the embodiment of the present invention.

撮像装置100は、撮像を行うか否かを判定する(S200)。撮像装置100は、例えば、シャッターボタンの押下(ユーザ操作の一例)に基づく操作信号を検出した場合に、撮像を行うと判定する。ステップS200において撮像を行うと判定されない場合には、撮像装置100は、撮像を行うと判定されるまで処理を進めない。   The imaging apparatus 100 determines whether to perform imaging (S200). For example, the imaging apparatus 100 determines to perform imaging when an operation signal based on pressing of a shutter button (an example of a user operation) is detected. If it is not determined in step S200 that imaging is to be performed, the imaging apparatus 100 does not proceed with processing until it is determined that imaging is to be performed.

また、ステップS200において撮像を行うと判定された場合には、撮像装置100は、撮像部(後述する)において撮像を行ってRAW画像を生成し、設定されている第1シーン情報に基づいてRAW画像を処理する(S202)。   If it is determined in step S200 that imaging is to be performed, the imaging apparatus 100 performs imaging in an imaging unit (described later) to generate a RAW image, and RAW based on the set first scene information. The image is processed (S202).

撮像装置100は、第2シーン情報が設定されているか否かを判定する(S204)。なお、図2では、撮像装置100がステップS202の処理の後にステップS204の処理を行うことを示しているが、撮像装置100は、ステップS202の処理とステップS204の処理とを独立に行ってもよい。つまり、撮像装置100は、ステップS202の処理とステップS204の処理とを同期して行うこともできる。   The imaging apparatus 100 determines whether the second scene information is set (S204). 2 illustrates that the imaging apparatus 100 performs the process of step S204 after the process of step S202, the imaging apparatus 100 may perform the process of step S202 and the process of step S204 independently. Good. That is, the imaging apparatus 100 can also perform the process of step S202 and the process of step S204 in synchronization.

ステップS204において第2シーン情報が設定されていると判定されない場合には、撮像装置100は、ステップS202において第1シーン情報に基づいて処理されたRAW画像(以下、「RAW処理画像」という。)に対して、DCT(Discrete Cosine Transformation。離散コサイン変換)処理と量子化処理を行う(S216)。そして、撮像装置100は、後述するステップS218の処理を行う。   If it is not determined in step S204 that the second scene information has been set, the imaging apparatus 100 uses the RAW image processed based on the first scene information in step S202 (hereinafter referred to as “RAW processed image”). On the other hand, DCT (Discrete Cosine Transformation) processing and quantization processing are performed (S216). Then, the imaging apparatus 100 performs a process in step S218 described later.

また、ステップS204において第2シーン情報が設定されていると判定された場合には、撮像装置100は、設定されている第2シーン情報に基づいて、RAW画像から第2シーン情報に対応する特徴部分を含む特徴画像を抽出する(S206)。また、撮像装置100は、例えば、RAW画像における位置を示すメタ情報を、抽出した特徴画像に付加する。   When it is determined in step S204 that the second scene information has been set, the imaging apparatus 100 has a feature corresponding to the second scene information from the RAW image based on the set second scene information. A feature image including a portion is extracted (S206). In addition, the imaging apparatus 100 adds, for example, meta information indicating a position in the RAW image to the extracted feature image.

ここで、撮像装置100は、後述するステップS216における非可逆圧縮の最小処理単位(MCU。Minimum Coded Unit)で特徴画像を抽出する。上記により、撮像装置100は、後述するステップS216において非可逆圧縮された画像データ(圧縮画像データ)と、後述するステップS212において生成する差分データとを用いた復元画像データの生成を簡易化することができる。なお、非可逆圧縮の最小処理単位で特徴画像を抽出する場合、撮像装置100は、例えば所定の範囲内にある複数の特徴画像を1つの特徴画像群として後述する処理を行ってもよい。   Here, the imaging apparatus 100 extracts a feature image in a minimum processing unit (MCU: Minimum Coded Unit) for irreversible compression in step S216 described later. As described above, the imaging apparatus 100 simplifies the generation of restored image data using the image data (compressed image data) that has been irreversibly compressed in step S216 described later and the difference data generated in step S212 described later. Can do. Note that in the case where feature images are extracted in units of the irreversible compression minimum processing, the imaging apparatus 100 may perform processing to be described later using, for example, a plurality of feature images within a predetermined range as one feature image group.

また、撮像装置100は、ステップS206の処理を、設定されている第2シーン情報ごとに行う。つまり、例えば図1に示すシーン情報設定処理において複数の第2シーン情報が設定された場合には、設定された複数の第2シーン情報に応じた特徴画像がそれぞれ抽出されることとなる。   In addition, the imaging apparatus 100 performs the process of step S206 for each set second scene information. That is, for example, when a plurality of pieces of second scene information are set in the scene information setting process shown in FIG. 1, feature images corresponding to the set pieces of second scene information are respectively extracted.

ステップS206において特徴画像が抽出されると、撮像装置100は、抽出された特徴画像それぞれに対応する第2シーン情報に基づいて特徴画像を処理する(S208)。   When the feature image is extracted in step S206, the imaging apparatus 100 processes the feature image based on the second scene information corresponding to each of the extracted feature images (S208).

撮像装置100は、ステップS202において処理されたRAW処理画像と、ステップS208において第2シーン情報に基づいて処理された特徴画像(以下、「特徴処理画像」という。)に対して、DCT処理と量子化処理を行う(S210)。   The imaging apparatus 100 performs DCT processing and quantum processing on the RAW processed image processed in step S202 and the feature image processed based on the second scene information in step S208 (hereinafter referred to as “feature processed image”). (S210).

ステップS210においてDCT処理および量子化処理が行われると、撮像装置100は、ステップS210においてRAW処理画像が処理された画像データとステップS210において特徴処理画像が処理された特徴画像データとの差分を示す差分データを、特徴画像データごとに生成する(S212)。ここで、撮像装置100は、例えば画像データから特徴画像データを減算することによって、差分データを生成する。   When the DCT process and the quantization process are performed in step S210, the imaging apparatus 100 indicates a difference between the image data obtained by processing the RAW processed image in step S210 and the feature image data obtained by processing the feature processed image in step S210. Difference data is generated for each feature image data (S212). Here, the imaging apparatus 100 generates difference data by subtracting feature image data from image data, for example.

ステップS212において差分データが生成されると、撮像装置100は、生成した差分データを記録する(S214)。ここで、撮像装置100は、撮像装置100が備える記憶部(後述する)や外部記録媒体などの記録媒体に記録する。なお、撮像装置100は、例えば、第1のシーンモードに対応する画像データ(後述するステップS218において記録される圧縮画像データ)が記録される、撮像装置100のメーカー固有の記録領域に差分データを記録してもよいし、当該画像データとは別ファイルとして差分データを記録してもよい。   When difference data is generated in step S212, the imaging apparatus 100 records the generated difference data (S214). Here, the imaging apparatus 100 records in a storage medium (described later) provided in the imaging apparatus 100 or a recording medium such as an external recording medium. Note that the imaging apparatus 100 stores the difference data in a recording area unique to the manufacturer of the imaging apparatus 100 in which, for example, image data corresponding to the first scene mode (compressed image data recorded in step S218 described later) is recorded. Alternatively, the difference data may be recorded as a separate file from the image data.

また、撮像装置100は、差分データに対して可逆圧縮処理を行って、圧縮された差分データを記録してもよい。上記により、撮像装置100は、差分データのデータサイズの更なる縮小を図ることができる。撮像装置100は、例えばハフマンエンコード処理を行い、差分データの圧縮を行う。   In addition, the imaging apparatus 100 may record the compressed difference data by performing a reversible compression process on the difference data. As described above, the imaging apparatus 100 can further reduce the data size of the difference data. The imaging apparatus 100 performs, for example, Huffman encoding processing and compresses difference data.

ステップS212の処理、または、ステップS216の処理が行われると、撮像装置100は、画像データを非可逆圧縮して記録する(S218)。ここで、撮像装置100は、画像データを、例えば、JPEG形式やJPEG2000形式で非可逆圧縮して、撮像装置100が備える記憶部(後述する)や外部記録媒体などの記録媒体に記録する。   When the process of step S212 or the process of step S216 is performed, the imaging apparatus 100 records the image data with lossy compression (S218). Here, the imaging apparatus 100 irreversibly compresses image data, for example, in the JPEG format or the JPEG2000 format, and records the data in a recording medium such as a storage unit (described later) or an external recording medium provided in the imaging apparatus 100.

撮像装置100は、例えば図2に示す処理を行うことによって、図1に示すシーン情報設定処理において設定された第1シーン情報、または、当該第1シーン情報および図1に示すシーン情報設定処理において設定された第2シーン情報に基づいて、圧縮画像データと差分データとをそれぞれ生成し、記録媒体に記録する。   The imaging apparatus 100 performs, for example, the process shown in FIG. 2 to set the first scene information set in the scene information setting process shown in FIG. 1 or the first scene information and the scene information setting process shown in FIG. Based on the set second scene information, compressed image data and difference data are generated and recorded on a recording medium.

(3)復元処理
撮像装置100は、ユーザ操作に基づく第2のシーンモードに対応する画像の復元命令を検出すると、(2)の処理(データ生成処理)において生成された圧縮画像データと、当該第2のシーンモードに対応する差分データとを加算することによって、当該差分データに対応する第2のシーンモードに応じた復元画像データを生成する。
(3) Restoration processing When the image capturing apparatus 100 detects an image restoration command corresponding to the second scene mode based on a user operation, the compressed image data generated in the processing (data generation processing) of (2) By adding the difference data corresponding to the second scene mode, restored image data corresponding to the second scene mode corresponding to the difference data is generated.

より具体的には、撮像装置100は、上記復元命令を検出すると、上記復元命令に対応する圧縮画像データと差分データとを記録媒体から読み出す。ここで、差分データがハフマンエンコード処理にて圧縮されている場合には、撮像装置100は、ハフマンデコード処理を行い差分データを復元する。そして、撮像装置100は、差分データが対応する圧縮画像データの最小処理単位部分に差分データを加算して復元画像データを生成する。また、撮像装置100は、復元画像データに対してハフマンコーディングを行うことによって、JPEG画像(復元画像データが示す画像の一例)を生成する。   More specifically, when detecting the restoration command, the imaging apparatus 100 reads compressed image data and difference data corresponding to the restoration command from the recording medium. Here, when the difference data is compressed by the Huffman encoding process, the imaging apparatus 100 performs the Huffman decoding process to restore the difference data. Then, the imaging apparatus 100 generates restored image data by adding the difference data to the minimum processing unit portion of the compressed image data corresponding to the difference data. The imaging apparatus 100 generates a JPEG image (an example of an image indicated by the restored image data) by performing Huffman coding on the restored image data.

撮像装置100は、例えば上記(1)の処理(シーン情報設定処理)〜(3)の処理(復元処理)を行う。ここで、撮像装置100は、上記(1)の処理(シーン情報設定処理)によって、第1シーン情報と第2シーン情報とをそれぞれ設定する。また、撮像装置100は、(2)の処理(データ生成処理)において、RAW画像から第2のシーンモードに対応する特徴画像を抽出し、RAW画像と特徴画像との差分に基づく差分データを生成する。また、撮像装置100は、(2)の処理(データ生成処理)において、RAW画像に対して第1のシーンモードに応じた画像処理を行った後、画像データを非可逆圧縮する。また、撮像装置100は、(3)の処理(復元処理)において、圧縮画像データと差分データとを加算することによって、復元画像データを生成する。   The imaging apparatus 100 performs, for example, the above processing (1) (scene information setting processing) to (3) (restoration processing). Here, the imaging apparatus 100 sets the first scene information and the second scene information by the process (1) (scene information setting process), respectively. Further, in the process (2) (data generation process), the imaging apparatus 100 extracts a feature image corresponding to the second scene mode from the RAW image, and generates difference data based on the difference between the RAW image and the feature image. To do. Further, in the process (2) (data generation process), the imaging apparatus 100 performs image processing on the RAW image according to the first scene mode, and then irreversibly compresses the image data. In addition, the imaging apparatus 100 generates restored image data by adding the compressed image data and the difference data in the process (3) (restoration process).

したがって、撮像装置100は、例えば上記(1)の処理(シーン情報設定処理)〜(3)の処理(復元処理)を行うことによって、上述した撮像装置100における処理の概要に示す効果を奏することができる。   Therefore, for example, the imaging device 100 performs the processing (1) (scene information setting processing) to (3) (restoration processing), thereby achieving the effects described in the outline of the processing in the imaging device 100 described above. Can do.

(本発明の実施形態に係る撮像装置)
次に、上述した(1)の処理(シーン情報設定処理)〜(3)の処理(復元処理)を行うことが可能な、撮像装置100の構成の一例について説明する。図3は、本発明の実施形態に係る撮像装置100の構成の一例を示すブロック図である。
(Image pickup device according to an embodiment of the present invention)
Next, an example of the configuration of the imaging apparatus 100 capable of performing the above-described processing (1) (scene information setting processing) to (3) (restoration processing) will be described. FIG. 3 is a block diagram illustrating an example of the configuration of the imaging apparatus 100 according to the embodiment of the present invention.

撮像装置100は、設定部102と、記憶部104と、撮像部106と、特徴抽出部108と、画像処理部110と、量子化処理部112と、圧縮処理部114と、画像復元部116とを備える。   The imaging apparatus 100 includes a setting unit 102, a storage unit 104, an imaging unit 106, a feature extraction unit 108, an image processing unit 110, a quantization processing unit 112, a compression processing unit 114, and an image restoration unit 116. Is provided.

また、撮像装置100は、例えば、CPU(Central Processing Unit)や各種処理回路で構成されて撮像装置100全体を制御する制御部(図示せず)や、制御部(図示せず)が使用するプログラムや演算パラメータなどの制御用データが記録されたROM(Read Only Memory。図示せず)、制御部(図示せず)により実行されるプログラムなどを一次記憶するRAM(Random Access Memory。図示せず)、ユーザが操作可能な操作部(図示せず)、表示部(図示せず)、外部装置と通信を行うための通信部(図示せず)などを備えてもよい。   In addition, the imaging apparatus 100 includes, for example, a CPU (Central Processing Unit) and various processing circuits, and a control unit (not shown) that controls the entire imaging apparatus 100, and a program used by the control unit (not shown). ROM (Read Only Memory, not shown) in which control data such as calculation parameters are recorded, and RAM (Random Access Memory, not shown) for temporarily storing a program executed by a control unit (not shown). An operation unit (not shown) operable by the user, a display unit (not shown), a communication unit (not shown) for communicating with an external device, and the like may be provided.

操作部(図示せず)としては、例えば、キーボード(keyboard)やマウス(mouse)などの操作入力デバイスや、ボタン、方向キー、あるいは、これらの組み合わせなどが挙げられる。なお、操作部(図示せず)は、例えば、リモート・コントローラ(remote controller)などの外部装置からの入力を受信する機能を有していてもよい。また、表示部(図示せず)は、撮像装置100が備える表示手段であり、様々な表示画面を表示する。表示部(図示せず)の表示される画面としては、例えば、記憶部104に記憶された画像データが示す画像(動画像または静止画像。以下同様とする。)や上記(3)の処理により復元された復元データが示す画像などが表示された画面などが挙げられる。表示部(図示せず)としては、例えば、液晶ディスプレイや有機ELディスプレイなどが挙げられる。通信部(図示せず)は、撮像装置100が備える通信手段であり、ネットワークを介して(あるいは直接的に)外部装置と有線/無線で通信を行う役目を果たす。通信部(図示せず)としては、例えば、LAN(Local Area Network)端子および送受信回路や、IEEE802.15.1ポートおよび送受信回路などが挙げられる。   Examples of the operation unit (not shown) include operation input devices such as a keyboard and a mouse, buttons, direction keys, and combinations thereof. Note that the operation unit (not shown) may have a function of receiving an input from an external device such as a remote controller. The display unit (not shown) is a display unit included in the imaging apparatus 100 and displays various display screens. As a screen displayed on the display unit (not shown), for example, an image (moving image or still image; the same shall apply hereinafter) indicated by the image data stored in the storage unit 104 or the processing of (3) above. Examples include a screen on which an image indicated by the restored data is displayed. Examples of the display unit (not shown) include a liquid crystal display and an organic EL display. A communication unit (not shown) is a communication unit included in the imaging apparatus 100 and serves to perform wired / wireless communication with an external apparatus via a network (or directly). Examples of the communication unit (not shown) include a LAN (Local Area Network) terminal and a transmission / reception circuit, an IEEE 802.15.1 port and a transmission / reception circuit, and the like.

設定部102は、上記(1)の処理(シーン情報設定処理)を主導的に行う役目を果たす。より具体的には、設定部102は、例えば操作部(図示せず)から伝達されるユーザ操作に応じた操作信号に基づいて、図1に示す処理を行い、第1シーン情報、または、第1シーン情報および第2シーン情報を記憶部104に設定する。なお、撮像装置100では、例えば制御部(図示せず)が設定部102の役目を果たしてもよい。   The setting unit 102 plays a role of leading the process (1) (scene information setting process). More specifically, the setting unit 102 performs the process shown in FIG. 1 based on an operation signal according to a user operation transmitted from an operation unit (not shown), for example, and performs the first scene information or the first One scene information and second scene information are set in the storage unit 104. In the imaging apparatus 100, for example, a control unit (not shown) may serve as the setting unit 102.

記憶部104は、撮像装置100が備える記憶手段である。記憶部104としては、例えば、ハードディスク(Hard Disk)などの磁気記録媒体や、フラッシュメモリ(flash memoryなどの不揮発性メモリ(nonvolatile memory)が挙げられる。   The storage unit 104 is a storage unit included in the imaging device 100. Examples of the storage unit 104 include a magnetic recording medium such as a hard disk and a non-volatile memory such as a flash memory.

また、記憶部104は、例えば、シーン情報や、圧縮画像データ、圧縮画像データに対応する差分データ、アプリケーションなど、様々なデータを記憶する。ここで、図3では、第1シーン情報150と、第2シーン情報A152と、第2シーン情報B154と、第1シーン情報150に対応する圧縮画像データ156と、第2シーン情報152Aに対応する差分データA158と、第2シーン情報B154に対応する差分データB160とが記憶部104に記憶されている例を示している。   The storage unit 104 stores various data such as scene information, compressed image data, difference data corresponding to the compressed image data, and applications. Here, in FIG. 3, it corresponds to the first scene information 150, the second scene information A152, the second scene information B154, the compressed image data 156 corresponding to the first scene information 150, and the second scene information 152A. In the example, difference data A158 and difference data B160 corresponding to the second scene information B154 are stored in the storage unit 104.

撮像部106は、例えばシャッターやCCD(Charge Coupled Device)などの撮像素子などで構成され、操作部(図示せず)から伝達されるユーザ操作に応じた操作信号に基づいて撮像を行う。そして、撮像部106は、撮像の結果得られたRAW画像を特徴抽出部108へ出力する。   The imaging unit 106 is configured by an imaging element such as a shutter or a CCD (Charge Coupled Device), for example, and performs imaging based on an operation signal corresponding to a user operation transmitted from an operation unit (not shown). Then, the imaging unit 106 outputs a RAW image obtained as a result of imaging to the feature extraction unit 108.

特徴抽出部108、画像処理部110、量子化処理部112、および圧縮処理部114は、上記(2)の処理(データ生成処理)を主導的に行う役目を果たす。ここで、撮像装置100は、例えば、特徴抽出部108、画像処理部110、量子化処理部112、および圧縮処理部114それぞれを、各処理を行う処理回路として備えるが、これらの処理回路を集積回路(すなわち1つの処理回路)として備えてもよい。   The feature extraction unit 108, the image processing unit 110, the quantization processing unit 112, and the compression processing unit 114 serve to lead the processing (data generation processing) of (2). Here, the imaging apparatus 100 includes, for example, each of the feature extraction unit 108, the image processing unit 110, the quantization processing unit 112, and the compression processing unit 114 as a processing circuit that performs each process, and these processing circuits are integrated. You may provide as a circuit (namely, one processing circuit).

特徴抽出部108は、記憶部104に記憶されてる第2シーン情報に基づいて、RAW画像から特徴画像を抽出する。そして、特徴抽出部108は、RAW画像と特徴画像とを画像処理部110へ出力する。なお、記憶部104に第2シーン情報が記憶されていない場合(すなわち、第2のシーンモードが設定されていない場合)には、特徴抽出部108は、特徴画像の抽出に係る処理を行わない。また、撮像装置100が、撮像部106から出力されるRAW画像が画像処理部110へと直接的に入力される構成である場合には、特徴抽出部108は、特徴画像を画像処理部110へ出力する。   The feature extraction unit 108 extracts a feature image from the RAW image based on the second scene information stored in the storage unit 104. Then, the feature extraction unit 108 outputs the RAW image and the feature image to the image processing unit 110. Note that when the second scene information is not stored in the storage unit 104 (that is, when the second scene mode is not set), the feature extraction unit 108 does not perform processing related to the feature image extraction. . When the imaging apparatus 100 is configured to directly input the RAW image output from the imaging unit 106 to the image processing unit 110, the feature extraction unit 108 transmits the feature image to the image processing unit 110. Output.

画像処理部110は、入力される画像(RAW画像、1または2以上の特徴画像)に対して、相異なる処理を順次にかつ選択的に行い、処理画像(RAW処理画像、特徴処理画像)を出力する。より具体的には、画像処理部110は、第1シーン情報に基づいてRAW画像に対する第1シーン情報に応じた画像処理を行う。また、画像処理部110は、特徴画像が入力された場合には、記憶部104に記憶された特徴画像に対応する第2シーン情報に基づいて、特徴画像に対する第2シーン情報に応じた画像処理を行う。   The image processing unit 110 sequentially and selectively performs different processing on the input image (RAW image, one or more feature images), and processes the processed image (RAW processed image, feature processed image). Output. More specifically, the image processing unit 110 performs image processing corresponding to the first scene information for the RAW image based on the first scene information. Further, when a feature image is input, the image processing unit 110 performs image processing corresponding to the second scene information for the feature image based on the second scene information corresponding to the feature image stored in the storage unit 104. I do.

図4は、本発明の実施形態に係る撮像装置100が備える画像処理部110の構成の一例を示すブロック図である画像処理部110は、ノイズ低減処理部130と、ホワイトバランス処理部132と、色補間処理部134と、ガンマ処理部136と、色処理部138と、輪郭強調処理部140とを処理部として備える。また、画像処理部110は、各処理部を制御し、各処理部に選択的に処理を行わせる処理管理部142を備える。   FIG. 4 is a block diagram illustrating an example of the configuration of the image processing unit 110 included in the imaging apparatus 100 according to the embodiment of the present invention. The image processing unit 110 includes a noise reduction processing unit 130, a white balance processing unit 132, The color interpolation processing unit 134, the gamma processing unit 136, the color processing unit 138, and the contour enhancement processing unit 140 are provided as processing units. In addition, the image processing unit 110 includes a processing management unit 142 that controls each processing unit and causes each processing unit to perform processing selectively.

ノイズ低減処理部130は、例えば、ローパス・フィルタ(Low-Pass Filter)やバンドパス・フィルタ(Band-Pass Filter)などのフィルタを用いたフィルタ処理によって、画像に含まれるノイズを低減する。ホワイトバランス処理部132は、例えば、画像に対してRGB(Red Green Blue)の各色ごとに予め設定されたゲインをかけ、各画素(pixel)の画素値を増幅する。色補間処理部134は、例えばベイヤー配列からすべての画素のRGBを作り出す。ガンマ処理部136は、例えば、画像を非線形変換し、視覚的なリニアリティ(linearity)を確保する。色処理部138は、例えば画像の色調を補正する。輪郭強調処理部140は、例えば、画像からエッジ部分を検出し、検出されたエッジ部分の輝度を高めることにより画像の濃淡を強調する。   The noise reduction processing unit 130 reduces noise included in an image by filter processing using a filter such as a low-pass filter or a band-pass filter. For example, the white balance processing unit 132 applies a gain set in advance for each color of RGB (Red Green Blue) to the image, and amplifies the pixel value of each pixel (pixel). For example, the color interpolation processing unit 134 generates RGB of all pixels from the Bayer array. For example, the gamma processing unit 136 performs non-linear transformation on the image to ensure visual linearity. The color processing unit 138 corrects the color tone of the image, for example. The contour enhancement processing unit 140, for example, detects an edge portion from the image and enhances the lightness and darkness of the image by increasing the luminance of the detected edge portion.

処理管理部110は、入力される画像がRAW画像の場合には、第1シーン情報に基づいて、各処理部に処理を選択的に行わせる。処理管理部110が、入力されたRAW画像に対して第1シーン情報に基づく処理を各処理部に選択的に行わせることによって、画像処理部110から出力されるRAW処理画像は、RAW画像に対して設定された第1のシーンモードに応じた画像処理が行われた画像となる。   When the input image is a RAW image, the processing management unit 110 causes each processing unit to selectively perform processing based on the first scene information. When the processing management unit 110 selectively causes each processing unit to perform processing based on the first scene information on the input RAW image, the RAW processing image output from the image processing unit 110 becomes a RAW image. On the other hand, the image is processed according to the first scene mode set.

また、処理管理部110は、入力される画像が特徴画像の場合には、当該特徴画像と対応する第2シーン情報に基づいて、各処理部に処理を選択的に行わせる。処理管理部110が、入力された特徴画像に対して、対応する第2シーン情報に基づく処理を各処理部に選択的に行わせることによって、画像処理部110から出力される特徴処理画像は、特徴画像に対して設定された第2のシーンモードに応じた画像処理が行われた画像となる。表2は、特徴画像に対して各処理部が行われた場合の特徴画像の抽出内容の一例を示している。なお、表2では、ノイズ低減を「NR」と示し、ホワイトバランスを「WB」と示している。   In addition, when the input image is a feature image, the process management unit 110 selectively causes each processing unit to perform a process based on the second scene information corresponding to the feature image. When the process management unit 110 selectively causes each processing unit to perform processing based on the corresponding second scene information on the input feature image, the feature processing image output from the image processing unit 110 is: The image is subjected to image processing according to the second scene mode set for the feature image. Table 2 shows an example of the extracted content of the feature image when each processing unit is performed on the feature image. In Table 2, noise reduction is indicated as “NR” and white balance is indicated as “WB”.

Figure 2011139126
Figure 2011139126

画像処理部110は、例えば図4の構成によって、入力される画像に対して、相異なる処理を順次にかつ選択的に行い、処理画像を出力する。なお、撮像装置100は、例えば図4に示す複数の処理部を、入力されうる画像(RAW画像および特徴画像)の数に対応する数備える構成であってもよい。   For example, with the configuration of FIG. 4, the image processing unit 110 sequentially and selectively performs different processing on an input image and outputs a processed image. Note that the imaging apparatus 100 may be configured to include, for example, a plurality of processing units illustrated in FIG. 4 corresponding to the number of images (RAW images and feature images) that can be input.

再度図3を参照して本発明の実施形態に係る撮像装置100の構成の一例について説明する。量子化処理部112は、入力される処理画像それぞれに対してDCT処理と量子化処理とを行う。   With reference to FIG. 3 again, an example of the configuration of the imaging apparatus 100 according to the embodiment of the present invention will be described. The quantization processing unit 112 performs DCT processing and quantization processing on each input processed image.

圧縮処理部114は、差分データの生成と画像データの圧縮とを行って、記憶部104に圧縮画像データと差分データとを記録する。また、圧縮処理部114は、さらに、生成した差分データを圧縮してもよい。   The compression processing unit 114 generates difference data and compresses image data, and records the compressed image data and difference data in the storage unit 104. Further, the compression processing unit 114 may further compress the generated difference data.

より具体的には、圧縮部114は、差分データ生成部118と、第1圧縮処理部120(画像圧縮部)と、第2圧縮処理部122とで構成される。ここで、図4では、圧縮処理部114が、差分データを圧縮する第2圧縮処理部122を備える構成を示しているが、第2圧縮処理部122を備えていない構成であってもよい。   More specifically, the compression unit 114 includes a difference data generation unit 118, a first compression processing unit 120 (image compression unit), and a second compression processing unit 122. Here, FIG. 4 illustrates a configuration in which the compression processing unit 114 includes the second compression processing unit 122 that compresses the difference data, but a configuration in which the second compression processing unit 122 is not included may be employed.

差分データ生成部118は、量子化部112から出力されるRAW処理画像が処理された画像データと特徴処理画像が処理された特徴画像データとに基づいて、特徴画像データごとの差分データを生成する。そして、差分データ生成部118は、画像データを第1圧縮処理部120へ出力し、生成した1または2以上の差分データを第2圧縮処理部122へ出力する。なお、図4では示していないが、差分データ118は、SDRAM(Synchronous Dynamic Random Access Memory)などの揮発性メモリ(Volatile Memory)を備え、量子化部112から出力される画像データと1または2以上の特徴画像データとを記憶した後に差分データを生成してもよい。   The difference data generation unit 118 generates difference data for each feature image data based on the image data processed from the RAW processing image output from the quantization unit 112 and the feature image data processed from the feature processing image. . Then, the difference data generation unit 118 outputs the image data to the first compression processing unit 120, and outputs the generated one or more difference data to the second compression processing unit 122. Although not shown in FIG. 4, the difference data 118 includes a volatile memory such as SDRAM (Synchronous Dynamic Random Access Memory), and one or more image data output from the quantization unit 112. The difference data may be generated after storing the feature image data.

第1圧縮処理部120は、入力された画像データを非可逆圧縮して、非可逆圧縮された圧縮画像データを記憶部104に記録する。また、第2圧縮処理部122は、入力された差分データそれぞれをハフマン圧縮(可逆圧縮の一例)して、圧縮された差分データを記憶部104に記録する。   The first compression processing unit 120 performs irreversible compression on the input image data, and records the compressed image data that has been irreversibly compressed in the storage unit 104. Further, the second compression processing unit 122 performs Huffman compression (an example of lossless compression) on each input difference data, and records the compressed difference data in the storage unit 104.

撮像装置100は、特徴抽出部108、画像処理部110、量子化処理部112、および圧縮処理部114を備えることによって、上記(2)の処理(データ生成処理)を行う。   The imaging apparatus 100 includes the feature extraction unit 108, the image processing unit 110, the quantization processing unit 112, and the compression processing unit 114, thereby performing the process (2) (data generation process).

画像復元部116は、上記(3)の処理(復元処理)を主導的に行う役目を果たす。より具体的には、画像復元部116は、例えば、操作部(図示せず)から伝達されるユーザ操作に応じた操作信号に基づいて復元命令を検出すると、当該復元命令に対応する圧縮画像データと差分データとを記憶部104から読み出す。また、画像復元部116は、ハフマンデコード処理を行い差分データを復元し、当該差分データが対応する画像データの最小処理単位部分に差分データを加算して復元画像データを生成する。そして、画像復元部116は、復元画像データに対してハフマンコーディングを行うことによって、JPEG画像(復元画像データが示す画像の一例)を生成する。なお、画像復元部116は、生成した復元画像データが示す画像を表示部(図示せず)に表示させてもよいし、生成した復元画像データを記憶部104に記録してもよい。   The image restoration unit 116 plays a role of performing the processing (restoration processing) of (3) above. More specifically, when the image restoration unit 116 detects a restoration command based on an operation signal corresponding to a user operation transmitted from an operation unit (not shown), for example, the compressed image data corresponding to the restoration command And the difference data are read from the storage unit 104. Further, the image restoration unit 116 performs Huffman decoding processing to restore the difference data, and adds the difference data to the minimum processing unit portion of the image data corresponding to the difference data to generate restored image data. The image restoration unit 116 generates a JPEG image (an example of an image indicated by the restored image data) by performing Huffman coding on the restored image data. Note that the image restoration unit 116 may display an image indicated by the generated restored image data on a display unit (not shown), or may record the generated restored image data in the storage unit 104.

また、画像復元部116は、操作部(図示せず)から伝達されるユーザ操作に応じた操作信号に基づいて、記憶部104に記憶された圧縮画像データが示す画像を、表示部(図示せず)に表示させる。   Further, the image restoration unit 116 displays an image indicated by the compressed image data stored in the storage unit 104 based on an operation signal according to a user operation transmitted from an operation unit (not shown). Display).

撮像装置100は、画像復元部116を備えることによって、設定された第1のシーンモードに対応する圧縮画像データが示す画像だけでなく、設定された第2のシーンモードに対応する画像を、例えばユーザ操作に基づいてユーザに提供する。なお、撮像装置100は、圧縮画像データが示す画像や画像復元部116が生成した復元画像データが示す画像を表示部(図示せず)に表示させる、表示制御部(図示せず)をさらに備えてもよい。また、撮像装置100では、制御部(図示せず)が画像復元部116としての役目を果たすこともできる。   The imaging apparatus 100 includes the image restoration unit 116, so that not only the image indicated by the compressed image data corresponding to the set first scene mode but also the image corresponding to the set second scene mode, for example, Provide to users based on user operations. The imaging apparatus 100 further includes a display control unit (not shown) that causes the display unit (not shown) to display the image indicated by the compressed image data or the image indicated by the restored image data generated by the image restoration unit 116. May be. In the imaging apparatus 100, a control unit (not shown) can also serve as the image restoration unit 116.

また、撮像装置100は、例えば制御部(図示せず)が、コンピュータを画像復元部116と対応する画像復元手段として機能させるためのプログラムを実行することによって、(3)の処理(復元処理)を行うこともできる。   Further, in the imaging apparatus 100, for example, a control unit (not shown) executes a program for causing a computer to function as an image restoration unit corresponding to the image restoration unit 116, thereby performing the process (restoration process) of (3). Can also be done.

撮像装置100は、例えば図3に示す構成によって、上述した(1)の処理(シーン情報設定処理)〜(3)の処理(復元処理)を行う。したがって、撮像装置100は、データサイズの縮小と処理時間の短縮を図りながら、複数のシーンモードに応じた画像データを生成することを可能とすることができる。   The imaging apparatus 100 performs the above-described processing (1) (scene information setting processing) to (3) (restoration processing) with the configuration illustrated in FIG. 3, for example. Therefore, the imaging apparatus 100 can generate image data corresponding to a plurality of scene modes while reducing the data size and the processing time.

以上のように、本発明の実施形態に係る撮像装置100は、RAW画像から第2のシーンモードに対応する特徴画像を抽出し、RAW画像と特徴画像との差分に基づく差分データを生成する((2)の処理(データ生成処理))。よって、撮像装置100は、従来の技術1のように画像全体における差分を差分データとしないので、差分データに対する画像処理を従来の技術1を用いる場合より短縮することができ、また、差分データのデータサイズを、従来の技術1に係る差分データよりもより小さくすることができる。また、撮像装置100は、従来の技術1を用いる場合のように特徴部抽出のための現像処理が必要ないので、従来の技術1を用いる場合よりもさらに処理時間を短縮可能である。   As described above, the imaging apparatus 100 according to the embodiment of the present invention extracts the feature image corresponding to the second scene mode from the RAW image, and generates difference data based on the difference between the RAW image and the feature image ( Process (2) (data generation process)). Therefore, since the imaging apparatus 100 does not use the difference in the entire image as difference data unlike the conventional technique 1, the image processing for the difference data can be shortened compared to the case of using the conventional technique 1, and the difference data The data size can be made smaller than the difference data according to the conventional technique 1. Further, since the imaging apparatus 100 does not require development processing for feature extraction as in the case of using the conventional technique 1, the processing time can be further reduced as compared with the case of using the conventional technique 1.

また、撮像装置100は、RAW画像に対して第1のシーンモードに応じた画像処理を行った後、画像データを非可逆圧縮する((2)の処理(データ生成処理))。ここで、差分データは、RAW画像と特徴画像との差分に基づくデータである。よって、撮像装置100が生成した圧縮画像データに差分データを加算して得られる復元画像データが示す画像は、RAW画像に対して差分データの生成に用いられた特徴画像に対応するシーンモードに応じた画像処理を直接的に行った画像データが示す画像と同一の画像となる。つまり、撮像装置100を用いる場合には、従来の技術2を用いる場合のように差分データを用いた結果得られる画像が差分データを用いずに画像処理した結果得られる画像と異なることはない。   In addition, the image capturing apparatus 100 performs image processing according to the first scene mode on the RAW image, and then irreversibly compresses the image data (processing (2) (data generation processing)). Here, the difference data is data based on the difference between the RAW image and the feature image. Therefore, the image indicated by the restored image data obtained by adding the difference data to the compressed image data generated by the imaging apparatus 100 corresponds to the scene mode corresponding to the feature image used for generating the difference data with respect to the RAW image. The image is the same as the image indicated by the image data directly subjected to the image processing. That is, when the imaging apparatus 100 is used, an image obtained as a result of using difference data as in the case of using the conventional technique 2 is not different from an image obtained as a result of image processing without using difference data.

また、撮像装置100は、RAW画像に対して撮像用に設定された第1のシーンモードに応じた画像処理を行った後、画像データを非可逆圧縮する。よって、撮像装置100は、従来の技術2のようにRAW画像データそのものを記憶部104に記憶させないので、記憶部104に記憶させる画像データのデータサイズを、従来の技術2を用いる場合よりもより小さくすることができる。つまり、撮像装置100を用いる場合には、従来の技術2にように、記憶部104における記憶可能な容量を過度に圧迫することはない。   In addition, the imaging apparatus 100 performs irreversible compression on the image data after performing image processing on the RAW image according to the first scene mode set for imaging. Therefore, the imaging apparatus 100 does not store the RAW image data itself in the storage unit 104 as in the conventional technique 2, and therefore, the data size of the image data stored in the storage unit 104 is larger than that in the case of using the conventional technique 2. Can be small. That is, when the imaging apparatus 100 is used, the storable capacity in the storage unit 104 is not excessively compressed as in the conventional technique 2.

さらに、撮像装置100は、圧縮画像データと差分データとを加算することによって、復元画像データを生成する((3)の処理(復元処理))。よって、撮像装置100は、従来の技術1を用いる場合のように差分データを復元する差異にIDCT(Inverse Discrete Cosine Transform。逆離散コサイン変換)処理を行う必要はないため、従来の技術1を用いる場合よりもより短時間で復元画像データを生成することができる。また、撮像装置100は、従来の技術2を用いる場合のようにRAW画像データに対して画像処理を行って復元画像データを生成しないので、従来の技術2を用いる場合よりもより短時間で復元画像データを生成することができる。   Furthermore, the imaging apparatus 100 generates restored image data by adding the compressed image data and the difference data (process (3) (restoration process)). Therefore, the imaging apparatus 100 uses the conventional technique 1 because it is not necessary to perform an IDCT (Inverse Discrete Cosine Transform) process on the difference for restoring the difference data as in the case of using the conventional technique 1. The restored image data can be generated in a shorter time than the case. Further, since the imaging apparatus 100 does not generate restored image data by performing image processing on the RAW image data as in the case of using the conventional technique 2, the image capturing apparatus 100 restores in a shorter time than in the case of using the conventional technique 2. Image data can be generated.

したがって、撮像装置100は、データサイズの縮小と処理時間の短縮を図りながら、複数のシーンモードに応じた画像データを生成することを可能とすることができる。   Therefore, the imaging apparatus 100 can generate image data corresponding to a plurality of scene modes while reducing the data size and the processing time.

[撮像装置100の変形例]
撮像装置100は、撮像部106を備えず、外部装置としての撮像部から送信されるRAW画像を処理する構成をとってもよい。上記の場合、本発明の実施形態の変形例に係る撮像装置は、画像処理装置としての役目を果たすこととなる。上記の場合であっても、本発明の実施形態の変形例に係る撮像装置(画像処理装置)は、上述した(1)の処理(シーン情報設定処理)〜(3)の処理(復元処理)を行うことが可能であるので、本発明の実施形態に係る撮像装置100と同様の効果を奏することができる。
[Modification of Imaging Device 100]
The imaging apparatus 100 may not include the imaging unit 106 and may be configured to process a RAW image transmitted from an imaging unit as an external device. In the above case, the imaging apparatus according to the modification of the embodiment of the present invention serves as an image processing apparatus. Even in the above case, the imaging apparatus (image processing apparatus) according to the modified example of the embodiment of the present invention has the above-described processes (1) (scene information setting process) to (3) (restoration process). Therefore, the same effect as that of the imaging device 100 according to the embodiment of the present invention can be obtained.

以上、本発明の実施形態として撮像装置を挙げて説明したが、上述した本発明の実施形態は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像装置、携帯電話などの携帯型通信装置、PC(Personal Computer)やサーバ(Server)などのコンピュータ、携帯型ゲーム機など、様々な機器に適用することができる。   As described above, the imaging apparatus has been described as an embodiment of the present invention. However, the above-described embodiment of the present invention is, for example, an imaging apparatus such as a digital still camera and a digital video camera, a portable communication apparatus such as a mobile phone, and a PC. It can be applied to various devices such as computers such as (Personal Computer) and servers (Server), and portable game machines.

(本発明の実施形態に係るプログラム)
コンピュータに、上記(2)の処理(データ生成処理)を実行させるためのプログラムによって、データサイズの縮小と処理時間の短縮を図りながら、複数のシーンモードに応じた画像データを生成することを可能とすることができる。
(Program according to an embodiment of the present invention)
A program for causing a computer to execute the process (2) (data generation process) can generate image data corresponding to a plurality of scene modes while reducing the data size and the processing time. It can be.

また、コンピュータを、本発明の実施形態に係る撮像装置の画像復元部と対応する画像復元手段として機能させるためのプログラム(コンピュータに上記(3)の処理(復元処理)を実行させるためのプログラム)によって、本発明の実施形態に係る圧縮画像データと差分データとに基づいて、差分データに対応するシーンモードに応じた復元画像データを生成することができる。   Further, a program for causing a computer to function as an image restoration unit corresponding to the image restoration unit of the imaging apparatus according to the embodiment of the present invention (a program for causing a computer to execute the process (3) (restoration process)). Thus, based on the compressed image data and the difference data according to the embodiment of the present invention, it is possible to generate restored image data corresponding to the scene mode corresponding to the difference data.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば、上記では、コンピュータに上記(2)の処理(データ生成処理)を実行させるためのプログラム(コンピュータプログラム)と、コンピュータを本発明の実施形態に係る撮像装置の画像復元部と対応する画像復元手段として機能させるためのプログラム(コンピュータプログラム)とがそれぞれ提供されることを示したが、本発明の実施形態は、さらに、上記プログラムをそれぞれ記憶させた記憶媒体も併せて提供することができる。   For example, in the above, a program (computer program) for causing a computer to execute the process (2) (data generation process), and an image restoration unit corresponding to the image restoration unit of the imaging apparatus according to the embodiment of the present invention Although it has been shown that a program (computer program) for functioning as a means is provided, the embodiment of the present invention can further provide a storage medium storing the program.

上述した構成は、本発明の実施形態の一例を示すものであり、当然に、本発明の技術的   The configuration described above shows an example of the embodiment of the present invention, and of course, the technical features of the present invention.

100 撮像装置
102 設定部
104 記憶部
106 撮像部
108 特徴抽出部
110 画像処理部
112 量子化処理部
114 圧縮処理部
116 復元部
118 差分データ生成部
120 第1圧縮処理部
122 第2圧縮処理部
130 ノイズ低減処理部
132 ホワイトバランス処理部
134 色補間処理部
136 ガンマ処理部
138 色処理部
140 輪郭強調処理部
DESCRIPTION OF SYMBOLS 100 Imaging device 102 Setting part 104 Storage part 106 Imaging part 108 Feature extraction part 110 Image processing part 112 Quantization processing part 114 Compression processing part 116 Restoration part 118 Difference data generation part 120 1st compression processing part 122 2nd compression processing part 130 Noise reduction processing unit 132 White balance processing unit 134 Color interpolation processing unit 136 Gamma processing unit 138 Color processing unit 140 Outline enhancement processing unit

Claims (6)

被写体を撮像してRAW画像を生成する撮像部と、
前記RAW画像から少なくとも1以上の特徴部分を含む特徴画像を抽出する特徴抽出部と、
前記RAW画像に対する処理を規定する第1シーン情報に基づいて、前記RAW画像に対する前記第1シーン情報に応じた画像処理を行い、前記特徴画像に対する処理を規定する、前記特徴抽出部が抽出した前記特徴画像ごとの第2シーン情報に基づいて、前記特徴画像に対する前記第2シーン情報に応じた画像処理を行う画像処理部と、
前記RAW画像が画像処理されたRAW処理画像と、前記特徴画像が画像処理された特徴処理画像とに対して、離散コサイン変換処理と量子化処理とを行う量子化部と、
前記量子化部においてRAW処理画像が処理された画像データと前記量子化部において特徴処理画像が処理された特徴画像データとの差分を示す差分データを、前記特徴画像データごとに生成する差分データ生成部と、
前記画像データを非可逆圧縮する画像圧縮部と、
を備えることを特徴とする、撮像装置。
An imaging unit that images a subject and generates a RAW image;
A feature extraction unit that extracts a feature image including at least one feature portion from the RAW image;
Based on the first scene information that defines the process for the RAW image, the image extraction unit that performs the image processing according to the first scene information for the RAW image and defines the process for the feature image is extracted. An image processing unit that performs image processing according to the second scene information for the feature image based on the second scene information for each feature image;
A quantization unit that performs a discrete cosine transform process and a quantization process on a RAW processed image obtained by performing image processing on the RAW image and a feature processed image obtained by performing image processing on the feature image;
Difference data generation for generating, for each feature image data, difference data indicating a difference between image data obtained by processing a RAW processed image in the quantization unit and feature image data obtained by processing a feature processed image in the quantization unit And
An image compression unit for irreversibly compressing the image data;
An imaging apparatus comprising:
前記特徴抽出部は、前記画像圧縮部における非可逆圧縮の最小処理単位で前記特徴画像を抽出することを特徴とする、請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the feature extraction unit extracts the feature image in a minimum processing unit of irreversible compression in the image compression unit. 前記画像データが非可逆圧縮された圧縮画像データと前記差分データとを加算し、前記RAW画像に対して前記差分データの生成に用いられた前記特徴画像データに対応する前記第2シーン情報に応じた画像処理が行われた画像データを生成する、画像復元部をさらに備えることを特徴とする、請求項2に記載の撮像装置。   The compressed image data obtained by irreversibly compressing the image data and the difference data are added, and the second scene information corresponding to the feature image data used for generating the difference data for the RAW image is added. The imaging apparatus according to claim 2, further comprising an image restoration unit that generates image data that has been subjected to image processing. 前記画像処理部は、
入力される画像に対して、相異なる処理を順次にかつ選択的に行う複数の処理部と、
入力される前記画像が前記RAW画像の場合には、前記第1シーン情報に基づいて、複数の前記処理部のうちの特定の処理部に前記第1シーン情報に応じた処理を行わせ、入力される前記画像が前記特徴画像の場合には、前記第2シーン情報に基づいて、複数の前記処理部のうちの特定の処理部に前記特徴画像に対応する前記第2シーン情報に応じた処理を行わせる処理管理部と、
を備えることを特徴とする、請求項1〜3のいずれか1項に記載の撮像装置。
The image processing unit
A plurality of processing units that sequentially and selectively perform different processes on an input image;
When the input image is the RAW image, based on the first scene information, a specific processing unit of the plurality of processing units performs processing according to the first scene information, and the input When the image to be processed is the feature image, a process corresponding to the second scene information corresponding to the feature image is performed on a specific processing unit among the plurality of processing units based on the second scene information. A process management unit that performs
The imaging apparatus according to any one of claims 1 to 3, further comprising:
ユーザ操作に基づいて、前記第1シーン情報、または、前記第1シーン情報および少なくとも1以上の前記第2シーン情報を設定する設定部をさらに備えることを特徴とする、請求項1〜3のいずれか1項に記載の撮像装置。   4. The apparatus according to claim 1, further comprising a setting unit configured to set the first scene information, or the first scene information and at least one or more second scene information based on a user operation. The imaging apparatus of Claim 1. 被写体を撮像してRAW画像を生成する撮像部と、
前記RAW画像から少なくとも1以上の特徴部分を含む特徴画像を抽出する特徴抽出部と、
前記RAW画像に対する処理を規定する第1シーン情報に基づいて、前記RAW画像に対する前記第1シーン情報に応じた画像処理を行い、前記特徴画像に対する処理を規定する、前記特徴抽出部が抽出した前記特徴画像ごとの第2シーン情報に基づいて、前記特徴画像に対する前記第2シーン情報に応じた画像処理を行う画像処理部と、
前記RAW画像が画像処理されたRAW処理画像と、前記特徴画像が画像処理された特徴処理画像とに対して、離散コサイン変換処理と量子化処理とを行う量子化部と、
前記量子化部においてRAW処理画像が処理された画像データと前記量子化部において特徴処理画像が処理された特徴画像データとの差分を示す差分データを、前記特徴画像データごとに生成する差分データ生成部と、
前記画像データを非可逆圧縮する画像圧縮部と、
を備える撮像装置が非可逆圧縮した画像データと、前記撮像装置が生成した差分データとに基づいて、画像データを生成するプログラムであって、
コンピュータを、
前記画像データが非可逆圧縮された圧縮画像データと前記差分データとを加算し、前記RAW画像に対して前記差分データの生成に用いられた前記特徴画像データに対応する前記第2シーン情報に応じた画像処理が行われた画像データを生成する手段、
として機能させるためのプログラム。

An imaging unit that images a subject and generates a RAW image;
A feature extraction unit that extracts a feature image including at least one feature portion from the RAW image;
Based on the first scene information that defines the process for the RAW image, the image extraction unit that performs the image processing according to the first scene information for the RAW image and defines the process for the feature image is extracted. An image processing unit that performs image processing according to the second scene information for the feature image based on the second scene information for each feature image;
A quantization unit that performs a discrete cosine transform process and a quantization process on a RAW processed image obtained by performing image processing on the RAW image and a feature processed image obtained by performing image processing on the feature image;
Difference data generation for generating, for each feature image data, difference data indicating a difference between image data obtained by processing a RAW processed image in the quantization unit and feature image data obtained by processing a feature processed image in the quantization unit And
An image compression unit for irreversibly compressing the image data;
A program that generates image data based on image data that has been irreversibly compressed by an imaging device including the difference data generated by the imaging device,
Computer
The compressed image data obtained by irreversibly compressing the image data and the difference data are added, and the second scene information corresponding to the feature image data used for generating the difference data for the RAW image is added. Means for generating image data that has undergone image processing;
Program to function as.

JP2009295937A 2009-12-25 2009-12-25 Imaging apparatus and program Expired - Fee Related JP5412267B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009295937A JP5412267B2 (en) 2009-12-25 2009-12-25 Imaging apparatus and program
KR1020100127874A KR101692400B1 (en) 2009-12-25 2010-12-14 Photographing apparatus, photographing method and recording medium
US12/977,360 US8605166B2 (en) 2009-12-25 2010-12-23 Photographing apparatus, photographing method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009295937A JP5412267B2 (en) 2009-12-25 2009-12-25 Imaging apparatus and program

Publications (2)

Publication Number Publication Date
JP2011139126A true JP2011139126A (en) 2011-07-14
JP5412267B2 JP5412267B2 (en) 2014-02-12

Family

ID=44350157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009295937A Expired - Fee Related JP5412267B2 (en) 2009-12-25 2009-12-25 Imaging apparatus and program

Country Status (2)

Country Link
JP (1) JP5412267B2 (en)
KR (1) KR101692400B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006295316A (en) * 2005-04-06 2006-10-26 Canon Inc Imaging apparatus, imaging method, program, and storage medium
JP2007189426A (en) * 2006-01-12 2007-07-26 Fujifilm Corp Image output apparatus and image output method
JP2009135698A (en) * 2007-11-29 2009-06-18 Casio Comput Co Ltd Imaging apparatus and image recording program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007060153A (en) * 2005-08-23 2007-03-08 Nikon Corp History addition device, electronic camera and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006295316A (en) * 2005-04-06 2006-10-26 Canon Inc Imaging apparatus, imaging method, program, and storage medium
JP2007189426A (en) * 2006-01-12 2007-07-26 Fujifilm Corp Image output apparatus and image output method
JP2009135698A (en) * 2007-11-29 2009-06-18 Casio Comput Co Ltd Imaging apparatus and image recording program

Also Published As

Publication number Publication date
KR101692400B1 (en) 2017-01-03
KR20110074669A (en) 2011-07-01
JP5412267B2 (en) 2014-02-12

Similar Documents

Publication Publication Date Title
US8675984B2 (en) Merging multiple exposed images in transform domain
JP6242171B2 (en) Image processing apparatus, image processing method, and program
WO2005125216A1 (en) Image compression device, image compression method, and image compression program
WO2005029863A1 (en) Image processing display device and image processing display method
JPH1118089A (en) Image data compressor
US8482633B2 (en) Apparatus and method for image processing using security function
US20110116725A1 (en) Data compression method and data compression system
JP4561649B2 (en) Image compression apparatus, image compression program and image compression method, HDR image generation apparatus, HDR image generation program and HDR image generation method, image processing system, image processing program and image processing method
US10497093B2 (en) Image processing apparatus for minimizing deterioration of image quality of a raw image
JP2017224939A (en) Imaging apparatus
JP2018088652A (en) Imaging apparatus, image processing method, and program
JP6741532B2 (en) Imaging device and recording method
JP5412267B2 (en) Imaging apparatus and program
US8605166B2 (en) Photographing apparatus, photographing method and recording medium
KR101871946B1 (en) Apparatus, method and program of image processing
JP2018110300A (en) Imaging device, control method therefor, program, and recording medium
US9967408B2 (en) Information setting apparatus, information management apparatus, information generation apparatus, and method and program for controlling the same
JP2021118403A (en) Image processing device, control method thereof, program, and image processing system
TWI436649B (en) Image processing device, image processing chip and method for processing raw high resolution image data
JP6282136B2 (en) Imaging apparatus and control method thereof
KR101992757B1 (en) Reversible method for transcribing a file encoded with a first coding into a file encoded with a second coding
JP4701065B2 (en) Image processing apparatus and image processing method
JP6242172B2 (en) Image processing apparatus, image processing method, and program
JP4262144B2 (en) Image coding apparatus and method
JP6110115B2 (en) Surveillance camera device, control program, and compression control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131111

R150 Certificate of patent or registration of utility model

Ref document number: 5412267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees