JP6315069B2 - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP6315069B2
JP6315069B2 JP2016226487A JP2016226487A JP6315069B2 JP 6315069 B2 JP6315069 B2 JP 6315069B2 JP 2016226487 A JP2016226487 A JP 2016226487A JP 2016226487 A JP2016226487 A JP 2016226487A JP 6315069 B2 JP6315069 B2 JP 6315069B2
Authority
JP
Japan
Prior art keywords
image data
unit
image
difference
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016226487A
Other languages
Japanese (ja)
Other versions
JP2017069973A (en
Inventor
祐司 和田
祐司 和田
大資 田原
大資 田原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016226487A priority Critical patent/JP6315069B2/en
Publication of JP2017069973A publication Critical patent/JP2017069973A/en
Application granted granted Critical
Publication of JP6315069B2 publication Critical patent/JP6315069B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、画像処理装置及びプログラムに関する。   The present disclosure relates to an image processing apparatus and a program.

画像のデータサイズを圧縮することのできる画像符号化方式として、JPEG(Joint Photographic Experts Group)方式が広く利用されている。JPEG方式によれば、各色8ビットのビット深度を有する画像のデータサイズが、直交変換、量子化及びエントロピー符号化などの要素技術を用いて圧縮される。JPEG方式は、現在普及しているブラウザ、イメージビューワ、フォトエディタ及びオーサリングツールなどの様々なアプリケーションによりサポートされている。   A JPEG (Joint Photographic Experts Group) method is widely used as an image encoding method capable of compressing the data size of an image. According to the JPEG method, the data size of an image having a bit depth of 8 bits for each color is compressed using elemental techniques such as orthogonal transform, quantization, and entropy coding. The JPEG method is supported by various applications such as currently popular browsers, image viewers, photo editors, and authoring tools.

これに対し、デジタルカメラ又はイメージスキャナなどの撮像デバイスにより原始的に取得されるRAW画像は、一般的に、12ビットなどより多くのビット深度を有する。従って、RAW画像を最終的にJPEG方式で符号化するために、RAW画像を現像した後、現像した画像の各画素のビット深度を削減する処理が行われる。結果として、一度JPEG方式で符号化された画像の画質は、当初撮像された画像の画質よりも劣化する。   In contrast, a RAW image that is originally acquired by an imaging device such as a digital camera or an image scanner generally has a greater bit depth, such as 12 bits. Therefore, in order to finally encode the RAW image by the JPEG method, after the RAW image is developed, a process of reducing the bit depth of each pixel of the developed image is performed. As a result, the image quality of the image once encoded by the JPEG method is deteriorated as compared with the image quality of the initially captured image.

ビット深度の削減に起因する画質の劣化は、例えば、階調の低下として現れる。階調の低下の典型的な例は、高輝度領域で階調が失われる白とび、及び低輝度領域で階調が失われる黒つぶれである。下記特許文献1は、撮像装置の撮像感度及び明るさ補正量を動的に制御して画像の白つぶれを低減する技術を提案している。   The deterioration of the image quality due to the reduction of the bit depth appears, for example, as a decrease in gradation. Typical examples of gradation reduction are overexposure in which gradation is lost in a high luminance area, and blackout in which gradation is lost in a low luminance area. Patent Document 1 below proposes a technique for dynamically controlling the imaging sensitivity and brightness correction amount of an imaging apparatus to reduce whiteout of an image.

特開2011−055171号公報JP 2011-055171 A

しかしながら、一度階調が低下し又は失われた後で、画像が当初有していた高い階調を取り戻すことは困難であった。また、既存の拡張JPEG方式、JPEG2000方式及びJPEG XR方式などの多ビット符号化方式を使用すれば、ビット深度を削減する必要性は回避されるものの、これら多ビット符号化方式はJPEG方式との間で互換性を有しない。そのため、多ビット符号化方式で高階調画像を扱うという解決策は、実用上採用されにくかった。   However, once the gradation has been reduced or lost, it has been difficult to regain the high gradation that the image originally had. In addition, if multi-bit encoding methods such as the existing extended JPEG method, JPEG 2000 method, and JPEG XR method are used, the need to reduce the bit depth is avoided, but these multi-bit encoding methods are different from the JPEG method. Not compatible between. For this reason, the solution of handling a high gradation image by a multi-bit encoding method has been difficult to be practically used.

従って、JPEG方式のような静止画向けの標準符号化方式との互換性を確保しつつ、画像の符号化によって低下する画質を取り戻すことを可能とする仕組みが実現されることが望ましい。 Therefore, it is desirable to realize a mechanism that can restore image quality that is degraded by image encoding while ensuring compatibility with a standard encoding method for still images such as the JPEG method.

本開示によれば、静止画の入力フルカラー画像データに対しEV(Exposure Value)補正、WB(White Balance)補正及びガンマ補正のうちの1つ以上を含む補正処理を行うことにより生成された補正後画像データを所定の標準符号化方式で符号化することにより生成された主画像符号化ストリームを復号する主画像復号部と、前記入力フルカラー画像データと少なくとも前記補正後画像データに対し前記補正処理の逆処理を行うことにより生成された逆処理後画像データとの間の差分画像データを符号化することにより生成された差分画像符号化ストリームを前記標準符号化方式で復号する差分画像復号部と、前記主画像復号部の出力と、前記差分画像復号部の出力とを合成する合成部と、を備える画像処理装置が提供される。対応する符号化側の処理を実行する画像処理装置もまた提供される。 According to the present disclosure, a post-correction generated by performing correction processing including one or more of EV (Exposure Value) correction, WB (White Balance) correction, and gamma correction on the input full-color image data of a still image. A main image decoding unit that decodes a main image encoded stream generated by encoding image data using a predetermined standard encoding method; and the correction processing for the input full-color image data and at least the corrected image data. A differential image decoding unit that decodes the differential image encoded stream generated by encoding the differential image data between the reverse-processed image data generated by performing the reverse processing using the standard encoding method; An image processing apparatus is provided that includes a combining unit that combines the output of the main image decoding unit and the output of the difference image decoding unit . An image processing apparatus that performs corresponding encoding-side processing is also provided.

また、本開示によれば、静止画の入力フルカラー画像データに対しEV(Exposure Value)補正、WB(White Balance)補正及びガンマ補正のうちの1つ以上を含む補正処理を行うことにより生成された補正後画像データを所定の標準符号化方式で符号化することにより生成された主画像符号化ストリームを復号して、前記補正後画像データを出力することと、前記入力フルカラー画像データと少なくとも前記補正後画像データに対し前記補正処理の逆処理を行うことにより生成された逆処理後画像データとの間の差分画像データを符号化することにより生成された差分画像符号化ストリームを前記標準符号化方式で復号して、前記差分画像データを出力することと、前記補正後画像データと、前記差分画像データとを合成することと、を含む画像処理方法が提供される。対応する符号化側の画像処理方法もまた提供される。 Further, according to the present disclosure, it is generated by performing correction processing including one or more of EV (Exposure Value) correction, WB (White Balance) correction, and gamma correction on the input full-color image data of a still image. Decoding the main image encoded stream generated by encoding the corrected image data using a predetermined standard encoding method, and outputting the corrected image data; and at least the input full-color image data and the correction The standard encoding method is used to convert the differential image encoded stream generated by encoding the differential image data between the post-processed image data generated by performing the reverse process of the correction process to the post-image data. And outputting the difference image data, and synthesizing the corrected image data and the difference image data. A method is provided. A corresponding encoding image processing method is also provided.

また、本開示によれば、コンピュータを、静止画の入力フルカラー画像データに対しEV(Exposure Value)補正、WB(White Balance)補正及びガンマ補正のうちの1つ以上を含む補正処理を行うことにより生成された補正後画像データを所定の標準符号化方式で符号化することにより生成された主画像符号化ストリームを復号する主画像復号部と、前記入力フルカラー画像データと少なくとも前記補正後画像データに対し前記補正処理の逆処理を行うことにより生成された逆処理後画像データとの間の差分画像データを符号化することにより生成された差分画像符号化ストリームを前記標準符号化方式で復号する差分画像復号部と、前記主画像復号部の出力と、前記差分画像復号部の出力とを合成する合成部と、として機能させるためのプログラムが提供される。対応する符号化側の処理を実行するためのプログラムもまた提供される。 Further, according to the present disclosure, the computer performs a correction process including one or more of EV (Exposure Value) correction, WB (White Balance) correction, and gamma correction on the input full-color image data of the still image. A main image decoding unit that decodes a main image encoded stream generated by encoding the generated corrected image data using a predetermined standard encoding method; the input full-color image data; and at least the corrected image data The difference which decodes the difference image coding stream produced | generated by encoding the difference image data between the image data after reverse processing produced | generated by performing the reverse process of the said correction | amendment process with the said standard encoding system A program for functioning as an image decoding unit, and a combining unit that combines the output of the main image decoding unit and the output of the difference image decoding unit There is provided. A program for executing the corresponding encoding process is also provided.

本開示に係る技術よれば、静止画向けの標準符号化方式との互換性を確保しつつ、画像の符号化によって低下する画質を取り戻すことが可能となる。
According to the technology according to the present disclosure, it is possible to recover the image quality that is deteriorated by encoding an image while ensuring compatibility with a standard encoding method for still images .

一実施形態に係る画像符号化装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image coding apparatus which concerns on one Embodiment. 図1に例示した画像符号化装置の第2符号化ブランチの詳細な構成の第1の例を示すブロック図である。It is a block diagram which shows the 1st example of a detailed structure of the 2nd encoding branch of the image coding apparatus illustrated in FIG. 図1に例示した画像符号化装置の第2符号化ブランチの詳細な構成の第2の例を示すブロック図である。It is a block diagram which shows the 2nd example of a detailed structure of the 2nd coding branch of the image coding apparatus illustrated in FIG. 図1に例示した画像符号化装置の第2符号化ブランチの詳細な構成の第3の例を示すブロック図である。FIG. 12 is a block diagram illustrating a third example of a detailed configuration of a second encoding branch of the image encoding device illustrated in FIG. 1. 図1に例示した画像符号化装置の第2符号化ブランチの詳細な構成の第4の例を示すブロック図である。FIG. 10 is a block diagram illustrating a fourth example of a detailed configuration of a second encoding branch of the image encoding device illustrated in FIG. 1. 図1に例示した画像符号化装置の第2符号化ブランチの詳細な構成の第5の例を示すブロック図である。FIG. 10 is a block diagram illustrating a fifth example of a detailed configuration of the second encoding branch of the image encoding device illustrated in FIG. 1. 第2符号化ブランチの詳細な構成の第5の例における差分画像の分離について説明するための説明図である。It is explanatory drawing for demonstrating isolation | separation of the difference image in the 5th example of a detailed structure of a 2nd encoding branch. 図1に例示した画像符号化装置により出力される符号化ストリームの構成の一例について説明するための説明図である。It is explanatory drawing for demonstrating an example of a structure of the encoding stream output by the image coding apparatus illustrated in FIG. 図1に例示した画像符号化装置により出力される符号化ストリームの構成の他の例について説明するための説明図である。It is explanatory drawing for demonstrating the other example of a structure of the encoding stream output by the image coding apparatus illustrated in FIG. 一実施形態に係る画像符号化処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the image coding process which concerns on one Embodiment. 図5に示した差分符号化処理の詳細な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the detailed flow of the difference encoding process shown in FIG. 図6に示した差分加工処理の詳細な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the detailed flow of the differential process shown in FIG. 一実施形態に係る画像符号化処理の流れの他の例を示すフローチャートである。It is a flowchart which shows the other example of the flow of the image coding process which concerns on one Embodiment. 図8に示した差分画像分離処理の詳細な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the detailed flow of the difference image separation process shown in FIG. 一実施形態に係る画像復号装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image decoding apparatus which concerns on one Embodiment. 図10に例示した画像復号装置の第2復号ブランチの詳細な構成の第1の例を示すブロック図である。It is a block diagram which shows the 1st example of a detailed structure of the 2nd decoding branch of the image decoding apparatus illustrated in FIG. 図10に例示した画像復号装置の第2復号ブランチの詳細な構成の第2の例を示すブロック図である。It is a block diagram which shows the 2nd example of a detailed structure of the 2nd decoding branch of the image decoding apparatus illustrated in FIG. 図10に例示した画像復号装置の第2復号ブランチの詳細な構成の第3の例を示すブロック図である。It is a block diagram which shows the 3rd example of a detailed structure of the 2nd decoding branch of the image decoding apparatus illustrated in FIG. 図10に例示した画像復号装置の第2復号ブランチの詳細な構成の第4の例を示すブロック図である。It is a block diagram which shows the 4th example of a detailed structure of the 2nd decoding branch of the image decoding apparatus illustrated in FIG. 図10に例示した画像復号装置の第2復号ブランチの詳細な構成の第5の例を示すブロック図である。It is a block diagram which shows the 5th example of a detailed structure of the 2nd decoding branch of the image decoding apparatus illustrated in FIG. 一実施形態に係る画像復号処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the image decoding process which concerns on one Embodiment. 図11に示した差分復号処理の詳細な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the detailed flow of the differential decoding process shown in FIG. 一実施形態に係る画像復号処理の流れの他の例を示すフローチャートである。It is a flowchart which shows the other example of the flow of the image decoding process which concerns on one Embodiment. 図14に示した差分合成処理の詳細な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the detailed flow of the difference synthetic | combination process shown in FIG. 第1の応用例に係る画像処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image processing apparatus which concerns on a 1st application example. 第2の応用例に係る画像処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image processing apparatus which concerns on a 2nd application example.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、以下の順序で説明を行う。
1.一実施形態に係る画像符号化装置の構成例
1−1.全体的な構成
1−2.第2ブランチの詳細
1−3.ストリーム構成
1−4.処理の流れ
2.一実施形態に係る画像復号装置の構成例
2−1.全体的な構成
2−2.第2ブランチの詳細
2−3.処理の流れ
3.応用例
4.まとめ
The description will be given in the following order.
1. 1. Configuration example of image encoding device according to embodiment 1-1. Overall configuration 1-2. Details of the second branch 1-3. Stream configuration 1-4. Flow of processing 2. Configuration example of image decoding device according to one embodiment 2-1. Overall configuration 2-2. Details of the second branch 2-3. Flow of processing Application example 4. Summary

<1.一実施形態に係る画像符号化装置の構成例>
本開示に係る技術は、RAW画像をデモザイク処理することにより生成されるフルカラー画像から符号化ストリームを生成する画像符号化装置と、当該符号化ストリームを復号してフルカラー画像を再構成する画像復号装置とを含む。本開示に係る画像復号装置によって再構成される画像は、フルカラー画像を必ずしも完全には再現しないが、JPEGデコーダにより再構成される画像と比較してより高階調の画像を表現し得る。
<1. Configuration Example of Image Encoding Device According to One Embodiment>
The technology according to the present disclosure includes an image encoding device that generates an encoded stream from a full-color image generated by demosaicing a RAW image, and an image decoding device that reconstructs a full-color image by decoding the encoded stream Including. An image reconstructed by the image decoding apparatus according to the present disclosure does not necessarily completely reproduce a full-color image, but can express a higher gradation image than an image reconstructed by a JPEG decoder.

本明細書において、「JPEG方式」との用語は、8ビットのビット深度をサポートするベースラインJPEG方式を意味し、拡張JPEG方式、JPEG2000方式又はJPEG XR方式などの多ビット符号化方式を含まない。   In this specification, the term “JPEG system” means a baseline JPEG system that supports a bit depth of 8 bits, and does not include a multi-bit encoding system such as the extended JPEG system, JPEG2000 system, or JPEG XR system. .

本節では、一実施形態に係る画像符号化装置について説明する。その後、次節において、一実施形態に係る画像復号装置について説明する。   In this section, an image encoding apparatus according to an embodiment will be described. Thereafter, in the next section, an image decoding apparatus according to an embodiment will be described.

[1−1.全体的な構成]
図1は、一実施形態に係る画像符号化装置100の構成の一例を示すブロック図である。図1を参照すると、画像符号化装置100は、RAW画像取得部110、現像部120、補正処理部130、逆処理部140、差分演算部150、第1符号化ブランチ160、第2符号化ブランチ170及びストリーム出力部190を備える。
[1-1. Overall configuration]
FIG. 1 is a block diagram illustrating an example of a configuration of an image encoding device 100 according to an embodiment. Referring to FIG. 1, the image encoding apparatus 100 includes a RAW image acquisition unit 110, a development unit 120, a correction processing unit 130, an inverse processing unit 140, a difference calculation unit 150, a first encoding branch 160, and a second encoding branch. 170 and a stream output unit 190.

(1)RAW画像取得部
RAW画像取得部110は、画像符号化装置100による符号化処理の入力となるRAW画像データを取得する。RAW画像取得部110は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)又はCIS(Contact Image Sensor)などの撮像素子を含むイメージセンサからRAW画像データを取得してもよい。その代わりに、RAW画像取得部110は、例えば、RAW画像データを有する他の装置又は記憶媒体から当該RAW画像データを取得してもよい。RAW画像は、一般的には、画素ごとに単一の色成分のみを有する画像である。本実施形態において、RAW画像取得部110により取得されるRAW画像データは、各色Nビット(Nは8より大きい)のビット深度を有するものとする。RAW画像取得部110は、取得したRAW画像データを現像部120へ出力する。
(1) RAW Image Acquisition Unit The RAW image acquisition unit 110 acquires RAW image data that is an input of encoding processing by the image encoding device 100. The RAW image acquisition unit 110 may acquire RAW image data from an image sensor including an image sensor such as a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), or a contact image sensor (CIS). Instead, the RAW image acquisition unit 110 may acquire the RAW image data from another device or storage medium having the RAW image data, for example. A RAW image is generally an image having only a single color component for each pixel. In the present embodiment, it is assumed that the RAW image data acquired by the RAW image acquisition unit 110 has a bit depth of N bits for each color (N is greater than 8). The RAW image acquisition unit 110 outputs the acquired RAW image data to the development unit 120.

(2)現像部
現像部120は、RAW画像取得部110から入力されるRAW画像データをデモザイク処理することにより、画素ごと(又は画像符号化方式に依存する所定の単位ごと)に3つの色成分を有する第1のフルカラー画像データIM0を生成する。デモザイク処理とは、典型的には、画素ごとに不足している色成分を補完する処理をいう。本明細書において、フルカラー画像とは、RAW画像において不足していた色成分が補完され、画素ごとに全ての色成分が揃っている画像を意味する。現像部120は、さらに、例えば、欠陥補正、デジタルクランプ及びデジタルゲインなどの追加的な処理を行ってもよい。一般的に、デジタル画像の「現像」との用語は、デモザイク処理後のフルカラー画像データについて行われる様々な補正処理をも含み得る。しかしながら、本明細書では、それら補正処理は次に説明する補正処理部130が行うものとする。現像部120は、生成した第1のフルカラー画像データIM0を補正処理部130及び差分演算部150へ出力する。
(2) Developing unit The developing unit 120 performs three-color components for each pixel (or for each predetermined unit depending on the image encoding method) by performing demosaic processing on the RAW image data input from the RAW image acquisition unit 110. The first full-color image data IM0 having is generated. The demosaic process typically refers to a process for complementing a color component that is insufficient for each pixel. In this specification, a full-color image means an image in which color components that are lacking in a RAW image are complemented and all color components are arranged for each pixel. The developing unit 120 may further perform additional processing such as defect correction, digital clamping, and digital gain. In general, the term “development” of a digital image may also include various correction processes performed on the full color image data after demosaicing. However, in this specification, the correction processing is performed by the correction processing unit 130 described below. The developing unit 120 outputs the generated first full-color image data IM0 to the correction processing unit 130 and the difference calculation unit 150.

(3)補正処理部
補正処理部130は、現像部120から入力される第1のフルカラー画像データIM0を補正して、高階調画像データIM1を生成する。高階調画像データIM1のビット深度は、第1のフルカラー画像データIM0(及びRAW画像データ)に等しい。補正処理部130による補正処理は、例えば、EV(Exposure Value)補正、WB(White Balance)補正又はガンマ補正などを含み得る。そして、補正処理部130は、生成した高階調画像データIM1を逆処理部140及び第1符号化ブランチ160へ出力する。
(3) Correction Processing Unit The correction processing unit 130 corrects the first full-color image data IM0 input from the developing unit 120, and generates high gradation image data IM1. The bit depth of the high gradation image data IM1 is equal to the first full-color image data IM0 (and RAW image data). The correction processing by the correction processing unit 130 may include, for example, EV (Exposure Value) correction, WB (White Balance) correction, or gamma correction. Then, the correction processing unit 130 outputs the generated high gradation image data IM1 to the inverse processing unit 140 and the first encoding branch 160.

(4)逆処理部
逆処理部140は、補正処理部130から入力される高階調画像データIM1に上述した補正処理の逆処理を適用して、第2のフルカラー画像データIM0´を生成する。逆処理部140による補正処理の逆処理は、例えば、EV逆補正、WB逆補正又はガンマ逆補正などを含み得る。そして、逆処理部140は、生成した第2のフルカラー画像データIM0´を差分演算部150へ出力する。なお、本明細書では、逆処理部140が高階調画像データIM1に補正処理の逆処理を適用する例を主に説明する。しかしながら、かかる例に限定されず、逆処理部140は、例えば、後に説明する第1の画像データIMd1に、当該データが生成されるまでに実行された処理の逆処理を適用してもよい。また、逆処理部140は、後に説明する第1の符号化ストリームST1に、当該ストリームが生成されるまでに実行された処理の逆処理を適用してもよい。
(4) Inverse Processing Unit The inverse processing unit 140 applies the inverse processing of the correction processing described above to the high gradation image data IM1 input from the correction processing unit 130, and generates the second full-color image data IM0 ′. The reverse processing of the correction processing by the reverse processing unit 140 can include, for example, EV reverse correction, WB reverse correction, or gamma reverse correction. Then, the inverse processing unit 140 outputs the generated second full-color image data IM0 ′ to the difference calculation unit 150. In this specification, an example in which the inverse processing unit 140 applies the inverse process of the correction process to the high gradation image data IM1 will be mainly described. However, the present invention is not limited to this example, and the inverse processing unit 140 may apply, for example, inverse processing of processing executed until the data is generated to first image data IMd1 described later. Further, the inverse processing unit 140 may apply, to a first encoded stream ST1 described later, an inverse process of the process executed until the stream is generated.

(5)差分演算部
差分演算部150は、現像部120から入力される第1のフルカラー画像データIM0と逆処理部140から入力される第2のフルカラー画像データIM0´との差分画像を計算する。そして、差分演算部150は、計算される差分画像に基づく第2の画像データIM2を第2符号化ブランチ170へ出力する。差分演算部150から直接的に出力される第2の画像データIM2は、上記差分画像を表現する、フルカラー画像データIM0と同等のビット深度を有する(但し正負の符号を有し得る)差分画像データである。第2の画像データIM2には、第2符号化ブランチ170における符号化の前に、後に説明する様々な処理が加えられ得る。
(5) Difference Calculation Unit The difference calculation unit 150 calculates a difference image between the first full-color image data IM0 input from the development unit 120 and the second full-color image data IM0 ′ input from the inverse processing unit 140. . Then, the difference calculation unit 150 outputs the second image data IM2 based on the calculated difference image to the second encoding branch 170. The second image data IM2 output directly from the difference calculation unit 150 has the same bit depth as the full-color image data IM0 (however, may have a positive or negative sign) representing the difference image. It is. Various processes, which will be described later, may be added to the second image data IM2 before encoding in the second encoding branch 170.

(6)第1符号化ブランチ
第1符号化ブランチ160は、高階調画像データIM1を符号化するための処理分岐である。図1の例において、第1符号化ブランチ160は、深度削減・YC変換部162及び第1符号化部168を含む。
(6) First Encoding Branch The first encoding branch 160 is a processing branch for encoding the high gradation image data IM1. In the example of FIG. 1, the first encoding branch 160 includes a depth reduction / YC conversion unit 162 and a first encoding unit 168.

深度削減・YC変換部162は、高階調画像データIM1のビット深度を各色8ビットに削減すると共に、高階調画像データIM1の色空間をRGB空間からYC(輝度‐色差)空間に変換して、第1の画像データIMd1を生成する。そして、深度削減・YC変換部162は、生成した第1の画像データIMd1を第1符号化部168へ出力する。   The depth reduction / YC conversion unit 162 reduces the bit depth of the high gradation image data IM1 to 8 bits for each color, and converts the color space of the high gradation image data IM1 from RGB space to YC (luminance-color difference) space, First image data IMd1 is generated. Then, the depth reduction / YC conversion unit 162 outputs the generated first image data IMd1 to the first encoding unit 168.

第1符号化部168は、深度削減・YC変換部162から入力される第1の画像データIMd1をJPEG方式で符号化して、第1の符号化ストリームST1を生成する。即ち、第1符号化部168は、一般的なJPEGエンコーダであってよい。第1符号化部168による符号化処理は、典型的には、画像内に配置されるブロックごとに実行される直交変換、量子化及びエントロピー符号化を含む。ここでの符号化処理により、第1の画像データIMd1のデータサイズが圧縮される。第1符号化部168は、このように符号化された第1の画像データIMd1を含む第1の符号化ストリームST1を、ストリーム出力部190へ出力する。   The first encoding unit 168 encodes the first image data IMd1 input from the depth reduction / YC conversion unit 162 by the JPEG method, and generates a first encoded stream ST1. That is, the first encoding unit 168 may be a general JPEG encoder. The encoding process by the first encoding unit 168 typically includes orthogonal transform, quantization, and entropy encoding that is executed for each block arranged in the image. By the encoding process here, the data size of the first image data IMd1 is compressed. The first encoding unit 168 outputs the first encoded stream ST1 including the first image data IMd1 encoded in this way to the stream output unit 190.

(7)第2符号化ブランチ
第2符号化ブランチ170は、第2の画像データIM2を符号化するための処理分岐である。図1の例において、第2符号化ブランチ170は、第2符号化部179を含む。第2符号化部179は、上述した差分画像に基づく第2の画像データIM2を任意の画像符号化方式で符号化して、第2の符号化ストリームST2を生成する。第2符号化部179により使用される画像符号化方式は、例えば、JPEG方式であってもよく、又は拡張JPEG方式、JPEG2000方式若しくはJPEG XR方式などであってもよい。第2符号化部179は、このように符号化された第2の画像データIM2を含む第2の符号化ストリームST2を、ストリーム出力部190へ出力する。
(7) Second Encoding Branch The second encoding branch 170 is a processing branch for encoding the second image data IM2. In the example of FIG. 1, the second encoding branch 170 includes a second encoding unit 179. The second encoding unit 179 encodes the second image data IM2 based on the above-described difference image by an arbitrary image encoding method, and generates a second encoded stream ST2. The image encoding method used by the second encoding unit 179 may be, for example, the JPEG method, or the extended JPEG method, JPEG2000 method, JPEG XR method, or the like. The second encoding unit 179 outputs the second encoded stream ST2 including the second image data IM2 encoded in this way to the stream output unit 190.

第2符号化ブランチ170は、第2符号化部179の前段に、第2の画像データIM2に対して前処理を適用するさらなる処理部を含んでもよい。第2の画像データIM2に適用される前処理は、例えば、色空間の変換、画素値の正規化、画像サイズの縮小、高周波成分の除去、並びに白とび及び黒つぶれが生じていない部分の平滑化、のうちの1つ以上を含み得る。このような第2符号化ブランチ170のいくつかの具体的な実施例について、後にさらに説明する。   The second encoding branch 170 may include a further processing unit that applies preprocessing to the second image data IM2 before the second encoding unit 179. The preprocessing applied to the second image data IM2 includes, for example, color space conversion, pixel value normalization, image size reduction, high-frequency component removal, and smoothing of a portion where whiteout and blackout are not generated. May include one or more of: Some specific embodiments of such a second encoding branch 170 will be further described later.

(8)ストリーム出力部
ストリーム出力部190は、第2符号化ブランチ170から入力される第2の符号化ストリームST2を第1符号化ブランチ160から入力される第1の符号化ストリームST1に関連付けて、これら2つの符号化ストリームを出力する。ストリーム出力部190は、例えば、第2の符号化ストリームST2にアクセスするための参照用パラメータを生成し、生成した参照用パラメータを第1の符号化ストリームのヘッダ領域に挿入し得る。
(8) Stream Output Unit The stream output unit 190 associates the second encoded stream ST2 input from the second encoding branch 170 with the first encoded stream ST1 input from the first encoding branch 160. These two encoded streams are output. For example, the stream output unit 190 may generate a reference parameter for accessing the second encoded stream ST2, and insert the generated reference parameter into the header area of the first encoded stream.

例えば、第1及び第2の符号化ストリームST1、ST2が1つのファイル内に多重化される場合には、参照用パラメータは、第2の符号化ストリームST2のストリーム識別子、開始アドレス、又は第1の符号化ストリームST1に続くストリームが第2の符号化ストリームST2であることを示すフラグなどであってよい。また、例えば、第1及び第2の符号化ストリームST1、ST2が別のファイル内に格納される場合には、参照用パラメータは、第2の符号化ストリームST2が格納されるファイルのファイル名などであってよい。このような参照用パラメータが挿入されるヘッダ領域は、第1の符号化ストリームが格納されるファイル内に存在してもよく、又は第1の符号化ストリームが格納されるファイルとは別のファイル(例えば、ヘッダファイル)内に存在してもよい。   For example, when the first and second encoded streams ST1 and ST2 are multiplexed in one file, the reference parameter includes the stream identifier, the start address, or the first address of the second encoded stream ST2. It may be a flag indicating that the stream following the encoded stream ST1 is the second encoded stream ST2. In addition, for example, when the first and second encoded streams ST1 and ST2 are stored in different files, the reference parameter is the file name of the file in which the second encoded stream ST2 is stored. It may be. The header area into which such a reference parameter is inserted may exist in the file in which the first encoded stream is stored, or a file different from the file in which the first encoded stream is stored. (For example, a header file).

ストリーム出力部190により出力される第1及び第2の符号化ストリームST1、ST2は、画像符号化装置100に接続される記憶媒体により記憶されてもよい。その代わりに、第1及び第2の符号化ストリームST1、ST2は、画像符号化装置100から他の装置へ送信され、他の装置において記憶又は復号されてもよい。   The first and second encoded streams ST1 and ST2 output from the stream output unit 190 may be stored in a storage medium connected to the image encoding device 100. Instead, the first and second encoded streams ST1 and ST2 may be transmitted from the image encoding device 100 to another device and stored or decoded in the other device.

[1−2.第2ブランチの詳細]
本項では、図1に例示した画像符号化装置100の第2符号化ブランチ170の5つの詳細な実施例を説明する。
[1-2. Details of the second branch]
In this section, five detailed embodiments of the second encoding branch 170 of the image encoding apparatus 100 illustrated in FIG. 1 will be described.

(1)第1の実施例
図2Aは、第2符号化ブランチ170の詳細な構成の第1の例を示すブロック図である。図2Aを参照すると、第2符号化ブランチ170は、正規化部175、YC変換部177及び第2符号化部179aを含む。
(1) First Example FIG. 2A is a block diagram showing a first example of a detailed configuration of the second encoding branch 170. Referring to FIG. 2A, the second encoding branch 170 includes a normalization unit 175, a YC conversion unit 177, and a second encoding unit 179a.

正規化部175は、第2の画像データIM2の画素値を第2符号化ブランチ170によりサポートされる画素値レンジに合わせて正規化する。第1の実施例においては、第2符号化部179aは、JPEG方式を使用する。この場合、第2符号化部179aによりサポートされる画素値レンジは、0〜255である。一方、差分演算部150から入力される第2の画像データIM2の画素値(差分画素値)の最小値及び最大値をそれぞれDmin及びDmaxとする。最小値Dmin及び最大値Dmaxは、理論的にはフルカラー画像データIM0と同等のビット深度を有し、さらに正負の符号を有し得る。そこで、正規化部175は、例えば、差分画素値の最小値Dminがゼロに、最大値Dmaxが255にそれぞれ等しくなるように、第2の画像データIM2の画素値を正規化する。そして、正規化部175は、正規化された画素値を有する第2の画像データIM2をYC変換部177へ出力する。 The normalizing unit 175 normalizes the pixel value of the second image data IM2 according to the pixel value range supported by the second encoding branch 170. In the first embodiment, the second encoding unit 179a uses the JPEG method. In this case, the pixel value range supported by the second encoding unit 179a is 0 to 255. On the other hand, the minimum value and the maximum value of the pixel value (difference pixel value) of the second image data IM2 input from the difference calculation unit 150 are defined as Dmin and Dmax , respectively. The minimum value D min and the maximum value D max theoretically have a bit depth equivalent to that of the full-color image data IM0, and may have a positive or negative sign. Therefore, for example, the normalization unit 175 normalizes the pixel value of the second image data IM2 so that the minimum value D min of the difference pixel value is equal to zero and the maximum value D max is equal to 255, respectively. Then, the normalization unit 175 outputs the second image data IM2 having the normalized pixel value to the YC conversion unit 177.

また、正規化部175は、正規化された画素値をデコーダが元の差分画素値に逆正規化できるようにするために、正規化パラメータをストリーム出力部190へ出力する。正規化パラメータは、上述した最小値Dmin及び最大値Dmaxであってもよい。その代わりに、正規化パラメータは、レンジ比率Rrange及びシフト量Srangeであってもよい。レンジ比率Rrangeは、正規化前後のレンジ幅の比率を示す。シフト量Srangeは、正規化前後のレンジの中央位置のズレの量を示す。レンジ比率Rrange及びシフト量Srangeは、上述した最小値Dmin及び最大値Dmaxから計算され得る。 Further, the normalization unit 175 outputs the normalization parameter to the stream output unit 190 so that the decoder can denormalize the normalized pixel value to the original difference pixel value. The normalization parameter may be the aforementioned minimum value Dmin and maximum value Dmax . Instead, the normalization parameter may be a range ratio R range and a shift amount S range . The range ratio R range indicates the ratio of the range width before and after normalization. The shift amount S range indicates the amount of deviation of the center position of the range before and after normalization. The range ratio R range and the shift amount S range can be calculated from the minimum value D min and the maximum value D max described above.

YC変換部177は、正規化部175から入力される第2の画像データIM2の色空間をRGB空間からYC空間に変換する。そして、YC変換部177は、YC空間で表現される画素値を有する第2の画像データIM2を第2符号化部179aへ出力する。   The YC conversion unit 177 converts the color space of the second image data IM2 input from the normalization unit 175 from the RGB space to the YC space. Then, the YC conversion unit 177 outputs the second image data IM2 having pixel values expressed in the YC space to the second encoding unit 179a.

第2符号化部179aは、YC変換部177から入力される第2の画像データIM2をJPEG方式で符号化して、第2の符号化ストリームST2を生成する。即ち、本実施例において、第2符号化部179aは、第1符号化部168と同様、一般的なJPEGエンコーダであってよい。   The second encoding unit 179a encodes the second image data IM2 input from the YC conversion unit 177 using the JPEG method, and generates a second encoded stream ST2. In other words, in the present embodiment, the second encoding unit 179a may be a general JPEG encoder, like the first encoding unit 168.

第1の実施例によれば、第1及び第2の符号化ストリームST1、ST2の双方がJPEGエンコーダを用いて符号化されるため、広く普及しているJPEGエンコーダを活用して、より低いコストで本開示に係る技術を実現することができる。   According to the first embodiment, since both the first and second encoded streams ST1 and ST2 are encoded by using the JPEG encoder, the widely used JPEG encoder can be used to reduce the cost. Thus, the technology according to the present disclosure can be realized.

(2)第2の実施例
図2Bは、第2符号化ブランチ170の詳細な構成の第2の例を示すブロック図である。図2Bを参照すると、第2符号化ブランチ170は、縮小部173、正規化部175及び第2符号化部179bを含む。
(2) Second Example FIG. 2B is a block diagram showing a second example of a detailed configuration of the second encoding branch 170. Referring to FIG. 2B, the second encoding branch 170 includes a reduction unit 173, a normalization unit 175, and a second encoding unit 179b.

縮小部173は、第2の画像データIM2のサイズを縮小する。縮小部173により用いられるサイズの縮小比は、いかなる値であってもよい。例えば、縮小部173は、縦方向及び横方向の各々のサイズを1/2に縮小することにより、第2の画像データIM2のサイズを全体で1/4に縮小してもよい。そして、縮小部173は、サイズの縮小された第2の画像データIM2を正規化部175へ出力する。   The reduction unit 173 reduces the size of the second image data IM2. The size reduction ratio used by the reduction unit 173 may be any value. For example, the reduction unit 173 may reduce the size of the second image data IM2 to 1/4 as a whole by reducing the size in the vertical direction and the horizontal direction to 1/2. Then, the reduction unit 173 outputs the second image data IM <b> 2 whose size has been reduced to the normalization unit 175.

正規化部175は、縮小部173から入力される第2の画像データIM2の画素値を第2符号化ブランチ170によりサポートされる画素値レンジに合わせて正規化する。例えば、第2符号化部179bが10ビットの画像符号化方式を使用する場合、第2符号化部179aによりサポートされる画素値レンジは、0〜1023である。そこで、正規化部175は、差分画素値の最小値Dminがゼロに、最大値Dmaxが1023にそれぞれ等しくなるように、第2の画像データIM2の画素値を正規化する。そして、正規化部175は、正規化された画素値を有する第2の画像データIM2を第2符号化部179bへ出力する。また、正規化部175は、正規化パラメータをストリーム出力部190へ出力する。 The normalization unit 175 normalizes the pixel value of the second image data IM2 input from the reduction unit 173 according to the pixel value range supported by the second encoding branch 170. For example, when the second encoding unit 179b uses a 10-bit image encoding method, the pixel value range supported by the second encoding unit 179a is 0 to 1023. Therefore, the normalization unit 175 normalizes the pixel value of the second image data IM2 so that the minimum value D min of the difference pixel value is zero and the maximum value D max is equal to 1023. Then, the normalizing unit 175 outputs the second image data IM2 having the normalized pixel value to the second encoding unit 179b. Further, the normalization unit 175 outputs the normalization parameter to the stream output unit 190.

第2符号化部179bは、正規化部175から入力される第2の画像データIM2を任意の画像符号化方式で符号化して、第2の符号化ストリームST2を生成する。第2の画像データIM2が符号化される前に、第2の画像データIM2の色空間がRGB空間からYC空間に変換されてもよい。第2符号化部179bによりJPEG方式が使用される場合には、第1の実施例と同様、差分画像の符号化においてもJPEGエンコーダを活用して、より低いコストで本開示に係る技術を実現することができる。   The second encoding unit 179b encodes the second image data IM2 input from the normalization unit 175 using an arbitrary image encoding method, and generates a second encoded stream ST2. Before the second image data IM2 is encoded, the color space of the second image data IM2 may be converted from the RGB space to the YC space. When the JPEG method is used by the second encoding unit 179b, the technique according to the present disclosure can be realized at a lower cost by using the JPEG encoder also in the differential image encoding as in the first embodiment. can do.

第2の実施例によれば、符号化される第2の画像データIM2のサイズが縮小されるため、第2の符号化ストリームST2のデータ量を低減することができる。後に説明するように、第2の画像データIM2は、フルカラー画像データを符号化することにより低下する画質を補うために補完的に使用される画像データである。よって、完全に近いフルカラー画像の再現が求められない場合には、このように第2の画像データIM2のサイズを縮小して符号化ストリームのデータ量を低減することが有益である。   According to the second embodiment, since the size of the second image data IM2 to be encoded is reduced, the data amount of the second encoded stream ST2 can be reduced. As will be described later, the second image data IM2 is image data that is used in a complementary manner in order to compensate for the image quality that is deteriorated by encoding the full-color image data. Therefore, when reproduction of a nearly full color image is not required, it is beneficial to reduce the data amount of the encoded stream by reducing the size of the second image data IM2 in this way.

(3)第3の実施例
図2Cは、第2符号化ブランチ170の詳細な構成の第3の例を示すブロック図である。図2Cを参照すると、第2符号化ブランチ170は、差分加工部171、正規化部175及び第2符号化部179bを含む。
(3) Third Example FIG. 2C is a block diagram illustrating a third example of a detailed configuration of the second encoding branch 170. Referring to FIG. 2C, the second encoding branch 170 includes a difference processing unit 171, a normalizing unit 175, and a second encoding unit 179b.

差分加工部171は、例えば、YC空間に色変換された第1の画像データIMd1において高周波成分が強い値を示す画素位置の第2の画像データIM2の画素値を一定の値に置換し得る。一例として、ノイズの発生している画素、又は隣接する画素との間で画素値が急激に変化している画素において、高周波成分は強い値を示し得る。一般的に、強い高周波成分を含む画像データは、周波数領域での変換係数の量子化を通じてデータサイズを圧縮する画像符号化方式の符号化効率の低下を招き易い。一方で、画像の高周波成分は、人間の視覚を通じて感知されにくい。従って、高周波成分が強い値を示す画素位置の画素値を一定の(即ち、フラットな)値に置換えることで、人間に画質の低下をあまり感知させることなく、高周波成分を除去して、第2符号化ブランチ170の符号化効率を高めることができる。なお、ここでの一定の値を第2の画像データIM2の画素値レンジの中央の値とすることにより、直交変換(例えば、離散コサイン変換)後のエネルギーを低域に集中させ、符号化効率を一層高めることができる。第2の画像データIM2について正規化が行われる前であれば、画素値レンジの中央の値はゼロである。   For example, the difference processing unit 171 can replace the pixel value of the second image data IM2 at the pixel position where the high-frequency component shows a strong value in the first image data IMd1 color-converted into the YC space with a constant value. As an example, a high-frequency component can show a strong value in a pixel in which noise occurs or a pixel whose pixel value changes abruptly between adjacent pixels. In general, image data including a strong high-frequency component tends to cause a decrease in encoding efficiency of an image encoding method that compresses the data size through quantization of transform coefficients in the frequency domain. On the other hand, the high frequency component of the image is difficult to be detected through human vision. Therefore, by replacing the pixel value at the pixel position where the high-frequency component shows a strong value with a constant (that is, flat) value, the high-frequency component can be removed without causing a human to perceive a reduction in image quality. The encoding efficiency of the 2-encoding branch 170 can be increased. Note that, by setting the constant value here as the center value of the pixel value range of the second image data IM2, the energy after orthogonal transformation (for example, discrete cosine transformation) is concentrated in a low frequency range, and coding efficiency is increased. Can be further enhanced. If normalization is not performed on the second image data IM2, the center value of the pixel value range is zero.

また、差分加工部171は、YC空間に色変換された第1の画像データIMd1においてその輝度が画素値レンジの中央部分に属する画素位置の第2の画像データIM2の画素値を一定の値に置換し得る。ここでの画素値レンジの中央部分とは、符号化処理の結果として白とび又は黒つぶれが生じ易い画素値レンジの上端部分及び下端部分、を除いた部分をいう。一例として、ビット深度が8ビットである第1の画像データIMd1の画素値レンジは、0〜255である。この場合、中央部分のレンジをR1〜R2とすると、例えばR1=30、R2=230などであってよい。このような画素値の置換によって、白とび又は黒つぶれが生じる可能性の高い画素位置の差分画像の階調を維持しつつ、そうした可能性の低い画素位置の差分画像の階調が平滑化される。従って、第2符号化ブランチ170の符号化効率を高めつつ、第1符号化ブランチ160において画像の一部分に白とび又は黒つぶれが生じたとしても、当該部分の階調を差分画像で補うことができる。なお、ここでの一定の値もまた、第2の画像データIM2の画素値レンジの中央の値であってよい。   Further, the difference processing unit 171 sets the pixel value of the second image data IM2 at a pixel position whose luminance belongs to the central portion of the pixel value range in the first image data IMd1 color-converted to the YC space to a constant value. Can be replaced. The central portion of the pixel value range here refers to a portion excluding the upper end portion and the lower end portion of the pixel value range in which overexposure or blackout is likely to occur as a result of the encoding process. As an example, the pixel value range of the first image data IMd1 having a bit depth of 8 bits is 0 to 255. In this case, assuming that the range of the central portion is R1 to R2, for example, R1 = 30, R2 = 230, and the like. By such pixel value replacement, while maintaining the gradation of the difference image at the pixel position that is likely to cause overexposure or blackout, the gradation of the difference image at the pixel position that is unlikely to be smoothed is smoothed. The Accordingly, while enhancing the encoding efficiency of the second encoding branch 170, even if a whiteout or blackout occurs in a part of the image in the first encoding branch 160, the gradation of the part can be supplemented with the difference image. it can. Note that the constant value here may also be the center value of the pixel value range of the second image data IM2.

正規化部175は、差分加工部171により加工された第2の画像データIM2の画素値を第2符号化ブランチ170によりサポートされる画素値レンジに合わせて正規化する。そして、正規化部175は、正規化された画素値を有する第2の画像データIM2を第2符号化部179bへ出力する。正規化部175は、正規化パラメータをストリーム出力部190へ出力する。   The normalization unit 175 normalizes the pixel value of the second image data IM2 processed by the difference processing unit 171 according to the pixel value range supported by the second encoding branch 170. Then, the normalizing unit 175 outputs the second image data IM2 having the normalized pixel value to the second encoding unit 179b. The normalization unit 175 outputs the normalization parameter to the stream output unit 190.

第2符号化部179bは、正規化部175から入力される第2の画像データIM2を任意の画像符号化方式で符号化して、第2の符号化ストリームST2を生成する。第2の画像データIM2が符号化される前に、第2の画像データIM2の色空間がRGB空間からYC空間に変換されてもよい。第2符号化部179bによりJPEG方式が使用される場合には、第1の実施例と同様、差分画像の符号化においてもJPEGエンコーダを活用して、より低いコストで本開示に係る技術を実現することができる。   The second encoding unit 179b encodes the second image data IM2 input from the normalization unit 175 using an arbitrary image encoding method, and generates a second encoded stream ST2. Before the second image data IM2 is encoded, the color space of the second image data IM2 may be converted from the RGB space to the YC space. When the JPEG method is used by the second encoding unit 179b, the technique according to the present disclosure can be realized at a lower cost by using the JPEG encoder also in the differential image encoding as in the first embodiment. can do.

(4)第4の実施例
図2Dは、第2符号化ブランチ170の詳細な構成の第4の例を示すブロック図である。第4の実施例は、上述した第1、第2及び第3の実施例の組合せである。図2Dを参照すると、第2符号化ブランチ170は、差分加工部171、縮小部173、正規化部175、YC変換部177及び第2符号化部179aを含む。
(4) Fourth Example FIG. 2D is a block diagram showing a fourth example of a detailed configuration of the second encoding branch 170. The fourth embodiment is a combination of the first, second, and third embodiments described above. Referring to FIG. 2D, the second encoding branch 170 includes a difference processing unit 171, a reduction unit 173, a normalization unit 175, a YC conversion unit 177, and a second encoding unit 179a.

差分加工部171は、例えば、YC空間に色変換された第1の画像データIMd1において高周波成分が強い値を示す画素位置又は輝度が画素値レンジの中央部分に属する画素位置の第2の画像データIM2の画素値を、一定の値に置換する。縮小部173は、第2の画像データIM2のサイズを縮小する。正規化部175は、第2の画像データIM2の画素値を第2符号化部179aによりサポートされる画素値レンジに合わせて正規化する。YC変換部177は、第2の画像データIM2の色空間をRGB空間からYC空間に変換する。そして、第2符号化部179aは、第2の画像データIM2をJPEG方式で符号化して、第2の符号化ストリームST2を生成する。   For example, in the first image data IMd1 color-converted to the YC space, the difference processing unit 171 includes the second image data at the pixel position where the high frequency component has a strong value or the pixel position at which the luminance belongs to the central portion of the pixel value range. The pixel value of IM2 is replaced with a constant value. The reduction unit 173 reduces the size of the second image data IM2. The normalizing unit 175 normalizes the pixel value of the second image data IM2 in accordance with the pixel value range supported by the second encoding unit 179a. The YC conversion unit 177 converts the color space of the second image data IM2 from the RGB space to the YC space. Then, the second encoding unit 179a encodes the second image data IM2 by the JPEG method to generate a second encoded stream ST2.

(5)第5の実施例
図2Eは、第2符号化ブランチ170の詳細な構成の第5の例を示すブロック図である。図2Eを参照すると、第2符号化ブランチ170は、分類部180、差分加工部171、縮小部173、正規化部175、YC変換部177、第2符号化部179a、差分加工部181、縮小部183、正規化部185、YC変換部187及び第2符号化部189aを含む。
(5) Fifth Embodiment FIG. 2E is a block diagram illustrating a fifth example of a detailed configuration of the second encoding branch 170. Referring to FIG. 2E, the second encoding branch 170 includes a classification unit 180, a difference processing unit 171, a reduction unit 173, a normalization unit 175, a YC conversion unit 177, a second encoding unit 179a, a difference processing unit 181 and a reduction. 183, a normalization unit 185, a YC conversion unit 187, and a second encoding unit 189a.

分類部180は、所定の輝度閾値を用いて、第2の画像データIM2の各画素を、白とびが生じる可能性のある画素のための第1グループ及び黒つぶれが生じる可能性のある画素のための第2グループを含む複数のグループのいずれかに分類する。   The classification unit 180 uses a predetermined luminance threshold value to set each pixel of the second image data IM2 to a first group for pixels that may cause overexposure and pixels that may cause overexposure. Therefore, it is classified into one of a plurality of groups including the second group.

より具体的には、分類部180は、第1の画像データIMd1の輝度値を第1符号化ブランチ160から取得する。そして、分類部180は、取得した輝度値を所定の輝度閾値と比較する。典型的には、輝度閾値は、輝度値のレンジの中央の値であってよい。第1の画像データIMd1において上記輝度閾値を上回る輝度値を示す画素位置においては、JPEG方式での符号化の結果として白とびが生じる可能性がある。また、第1の画像データIMd1において上記輝度閾値を下回る輝度値を示す画素位置においては、同様に黒つぶれが生じる可能性がある。従って、分類部180は、輝度値が輝度閾値を上回る画素を第1グループに、輝度値が輝度閾値を下回る画素を第2グループに分類し得る。なお、分類部180は、2つの異なる輝度閾値を用いて、白とびが生じる可能性のある画素のための第1グループ、黒つぶれが生じる可能性のある画素のための第2グループ及びその他の画素のための第3グループのいずれかに、各画素を分類してもよい。   More specifically, the classification unit 180 acquires the luminance value of the first image data IMd1 from the first encoding branch 160. Then, the classification unit 180 compares the acquired luminance value with a predetermined luminance threshold. Typically, the luminance threshold value may be a central value in the luminance value range. In the first image data IMd1, there is a possibility that overexposure occurs as a result of encoding by the JPEG method at a pixel position showing a luminance value exceeding the luminance threshold. Further, in the first image data IMd1, there is a possibility that blackout may occur similarly at a pixel position that shows a luminance value lower than the luminance threshold value. Therefore, the classification unit 180 can classify pixels whose luminance values are above the luminance threshold value into the first group and classify pixels whose luminance values are below the luminance threshold value into the second group. The classification unit 180 uses two different luminance thresholds, the first group for pixels that may cause overexposure, the second group for pixels that may cause overexposure, and other Each pixel may be classified into any of the third group for pixels.

分類部180は、上述した分類の結果に応じて、第2の画像データIM2を白とび用の差分画像データIM2a及び黒つぶれ用の差分画像データIM2bに分離する。白とび用の差分画像データIM2aは、第1グループの画素において第2の画像データIM2の差分画素値を有し、他の画素において画素値ゼロを有するデータである。黒つぶれ用の差分画像データIM2bは、第2グループの画素において第2の画像データIM2の差分画素値を有し、他の画素において画素値ゼロを有するデータである。そして、分類部180は、白とび用の差分画像データIM2aを差分加工部171へ、黒つぶれ用の差分画像データIM2bを差分加工部181へ出力する。   The classification unit 180 separates the second image data IM2 into the overexposure difference image data IM2a and the underexposure difference image data IM2b according to the above-described classification result. The overexposed difference image data IM2a is data having a difference pixel value of the second image data IM2 in the first group of pixels and a pixel value of zero in the other pixels. The blackout difference image data IM2b is data having a difference pixel value of the second image data IM2 in the second group of pixels and a pixel value of zero in the other pixels. Then, the classification unit 180 outputs the difference image data IM2a for overexposure to the difference processing unit 171 and the difference image data IM2b for blackout to the difference processing unit 181.

図3は、分類部180による差分画像の分離について説明するための説明図である。図3の左上には、第1の画像データIMd1により表現される一例としての画像が示されている。当該画像には、山と木々とが映っている。当該画像中で、山肌の一部及び木々の一部の輝度は高く、それ以外の部分の輝度は低い。図中の等輝度線ELは、上述したグループの分類に用いられる輝度閾値と等しい輝度値を有する画素位置を示している。分類部180は、このような輝度の解析に基づいて、等輝度線ELの内側の差分画素値を有する白とび用の差分画像データIM2aと、等輝度線ELの外側の差分画素値を有する黒つぶれ用の差分画像データIM2bとに、第2の画像データIM2を分離し得る。   FIG. 3 is an explanatory diagram for explaining separation of difference images by the classification unit 180. In the upper left of FIG. 3, an example image represented by the first image data IMd1 is shown. The image shows mountains and trees. In the image, the brightness of part of the mountain surface and part of the trees is high, and the brightness of the other parts is low. An isoluminance line EL in the figure indicates a pixel position having a luminance value equal to the luminance threshold value used for the group classification described above. Based on such luminance analysis, the classification unit 180 performs whiteout difference image data IM2a having a difference pixel value inside the isoluminance line EL and black having a difference pixel value outside the isoluminance line EL. The second image data IM2 can be separated from the crushing difference image data IM2b.

差分加工部171は、例えば、YC空間に色変換された第1の画像データIMd1において高周波成分が強い値を示す画素位置又は輝度が画素値レンジの中央部分に属する画素位置の白とび用の差分画像データIM2aの画素値を、一定の値に置換する。縮小部173は、白とび用の差分画像データIM2aのサイズを縮小する。正規化部175は、白とび用の差分画像データIM2aの画素値を第2符号化部179aによりサポートされる画素値レンジに合わせて正規化する。YC変換部177は、白とび用の差分画像データIM2aの色空間をRGB空間からYC空間に変換する。そして、第2符号化部179aは、白とび用の差分画像データIM2aをJPEG方式で符号化して、白とび用の符号化ストリームST2aを生成する。   The difference processing unit 171 is, for example, a difference for overexposure of a pixel position where the high frequency component has a strong value in the first image data IMd1 color-converted to the YC space, or a pixel position whose luminance belongs to the central portion of the pixel value range. The pixel value of the image data IM2a is replaced with a constant value. The reduction unit 173 reduces the size of the difference image data IM2a for whiteout. The normalizing unit 175 normalizes the pixel value of the overexposed difference image data IM2a according to the pixel value range supported by the second encoding unit 179a. The YC conversion unit 177 converts the color space of the overexposed difference image data IM2a from the RGB space to the YC space. Then, the second encoding unit 179a encodes the difference image data IM2a for overexposure by the JPEG method, and generates an encoded stream ST2a for overexposure.

差分加工部181は、例えば、YC空間に色変換された第1の画像データIMd1において高周波成分が強い値を示す画素位置又は輝度が画素値レンジの中央部分に属する画素位置の黒つぶれ用の差分画像データIM2bの画素値を、一定の値に置換する。縮小部183は、黒つぶれ用の差分画像データIM2bのサイズを縮小する。正規化部185は、黒つぶれ用の差分画像データIM2bの画素値を第2符号化部189aによりサポートされる画素値レンジに合わせて正規化する。YC変換部187は、黒つぶれ用の差分画像データIM2bの色空間をRGB空間からYC空間に変換する。そして、第2符号化部189aは、黒つぶれ用の差分画像データIM2bをJPEG方式で符号化して、黒つぶれ用の符号化ストリームST2bを生成する。   The difference processing unit 181 is, for example, a blackout difference between a pixel position where the high frequency component has a strong value or a pixel position where the luminance belongs to the center part of the pixel value range in the first image data IMd1 color-converted to the YC space. The pixel value of the image data IM2b is replaced with a constant value. The reduction unit 183 reduces the size of the blackout difference image data IM2b. The normalizing unit 185 normalizes the pixel value of the blackout difference image data IM2b according to the pixel value range supported by the second encoding unit 189a. The YC converter 187 converts the color space of the blackout difference image data IM2b from the RGB space to the YC space. Then, the second encoding unit 189a encodes the blackout difference image data IM2b by the JPEG method to generate a blackout encoded stream ST2b.

第5の実施例が採用される場合、図1に示したストリーム出力部190は、第2符号化ブランチ170から入力される2つの符号化ストリームST2a及びST2bを第1の符号化ストリームST1に関連付けて、これら3つの符号化ストリームを出力する。ストリーム出力部190は、例えば、符号化ストリームST2a及びST2bにアクセスするための参照用パラメータを生成し、生成した参照用パラメータを第1の符号化ストリームのヘッダ領域に挿入し得る。   When the fifth embodiment is employed, the stream output unit 190 illustrated in FIG. 1 associates the two encoded streams ST2a and ST2b input from the second encoding branch 170 with the first encoded stream ST1. Thus, these three encoded streams are output. For example, the stream output unit 190 may generate reference parameters for accessing the encoded streams ST2a and ST2b, and insert the generated reference parameters into the header area of the first encoded stream.

第5の実施例によれば、白とびにより失われる階調を補完するための差分画像データと、黒つぶれにより失われる階調を補完するための差分画像データとが別々に符号化される。一般的に、白とびが生じる領域と黒つぶれが生じる領域との間の画像の相関は低い。従って、上述した2つの差分画像データを別々に符号化することで、これら領域において第2の画像データで補償される画質を高めることができる。   According to the fifth embodiment, differential image data for complementing gradations lost due to overexposure and differential image data for complementing gradations lost due to blackout are encoded separately. In general, the correlation between images between a region where whiteout occurs and a region where blackout occurs is low. Therefore, by separately encoding the above-described two difference image data, the image quality compensated with the second image data in these regions can be improved.

[1−3.ストリーム構成]
図4Aは、画像符号化装置100により出力される符号化ストリームの構成の一例について説明するための説明図である。図4Aを参照すると、第1の符号化ストリームST1、及び第1の符号化ストリームST1に関連付けられた第2の符号化ストリームST2が示されている。
[1-3. Stream configuration]
FIG. 4A is an explanatory diagram for describing an example of a configuration of an encoded stream output by the image encoding device 100. Referring to FIG. 4A, a first encoded stream ST1 and a second encoded stream ST2 associated with the first encoded stream ST1 are shown.

第1の符号化ストリームST1は、JPEGフォーマットに従って生成されており、スタートマーカ(SOI:Start Of Image)、JPEGヘッダ領域、JPEGデータ領域、及びエンドマーカ(EOI:End Of Image)を含む。JPEGヘッダ領域は、ユーザ定義領域USER_SECをさらに含む。ユーザ定義領域USER_SECは、例えば、APPセグメント又はCOMセグメントであってよい。ユーザ定義領域USER_SECには、第2の符号化ストリームST2にアクセスするために使用される、上述した参照用パラメータが挿入される。さらに、ユーザ定義領域USER_SECには、第2の符号化ストリームST2の符号化の際に使用された符号化方式を識別するための識別子(符号化方式ID)などの追加的なパラメータが挿入されてもよい。   The first encoded stream ST1 is generated according to the JPEG format, and includes a start marker (SOI: Start Of Image), a JPEG header area, a JPEG data area, and an end marker (EOI: End Of Image). The JPEG header area further includes a user-defined area USER_SEC. The user-defined area USER_SEC may be an APP segment or a COM segment, for example. In the user-defined area USER_SEC, the above-described reference parameter used for accessing the second encoded stream ST2 is inserted. Furthermore, additional parameters such as an identifier (encoding scheme ID) for identifying the encoding scheme used when encoding the second encoded stream ST2 are inserted in the user-defined area USER_SEC. Also good.

よって、デコーダは、第1の符号化ストリームST1のヘッダ領域に挿入される参照用パラメータを用いて、第2の符号化ストリームST2にアクセスすることができる。第2の符号化ストリームST2は、少なくともヘッダ領域及びデータ領域を含む。第2の符号化ストリームST2のヘッダ領域には、第2の符号化ストリームST2の復号のために必要とされるパラメータ(例えば、上述した正規化パラメータ、量子化テーブル及び符号化テーブルなど)が挿入され得る。なお、正規化パラメータは、第1の符号化ストリームST1のヘッダ領域に挿入されてもよい。   Therefore, the decoder can access the second encoded stream ST2 using the reference parameter inserted in the header area of the first encoded stream ST1. The second encoded stream ST2 includes at least a header area and a data area. Parameters (for example, the normalization parameter, the quantization table, and the encoding table described above) necessary for decoding the second encoded stream ST2 are inserted into the header area of the second encoded stream ST2. Can be done. Note that the normalization parameter may be inserted into the header area of the first encoded stream ST1.

図4Bは、画像符号化装置100により出力される符号化ストリームの構成の他の例について説明するための説明図である。図4Bの例は、図2Eを用いて説明した第2符号化ブランチ170の第5の実施例に対応する。図4Bを参照すると、第1の符号化ストリームST1、並びに第1の符号化ストリームST1に関連付けられた2つの差分画像の符号化ストリームST2a及びST2bが示されている。   FIG. 4B is an explanatory diagram for describing another example of the configuration of the encoded stream output by the image encoding device 100. The example of FIG. 4B corresponds to the fifth example of the second encoding branch 170 described with reference to FIG. 2E. Referring to FIG. 4B, a first encoded stream ST1 and encoded streams ST2a and ST2b of two difference images associated with the first encoded stream ST1 are shown.

第1の符号化ストリームST1の構成は、図4Aを用いて説明した構成と同様である。但し、ユーザ定義領域USER_SECには、2つの差分画像の符号化ストリームST2a及びST2bにアクセスするために使用される参照用パラメータが挿入される。   The configuration of the first encoded stream ST1 is the same as the configuration described with reference to FIG. 4A. However, a reference parameter used for accessing the encoded streams ST2a and ST2b of two difference images is inserted into the user-defined area USER_SEC.

よって、デコーダは、第1の符号化ストリームST1のヘッダ領域に挿入される参照用パラメータを用いて、2つの差分画像の符号化ストリームST2a及びST2bにアクセスすることができる。符号化ストリームST2a及びST2bの各々は、少なくともヘッダ領域及びデータ領域を含む。符号化ストリームST2a及びST2bの各々のヘッダ領域には、各符号化ストリームの復号のために必要とされるパラメータが挿入され得る。   Therefore, the decoder can access the encoded streams ST2a and ST2b of the two difference images using the reference parameter inserted in the header area of the first encoded stream ST1. Each of the encoded streams ST2a and ST2b includes at least a header area and a data area. Parameters required for decoding each encoded stream may be inserted into each header area of the encoded streams ST2a and ST2b.

なお、例えば、差分画像の符号化ストリームST2b(又はST2a)にアクセスするための参照用パラメータが、第1の符号化ストリームST1のヘッダ領域ではなく、差分画像の符号化ストリームST2a(又はST2b)のヘッダ領域に挿入されてもよい。   For example, the reference parameter for accessing the difference image encoded stream ST2b (or ST2a) is not the header area of the first encoded stream ST1, but the difference image encoded stream ST2a (or ST2b). It may be inserted in the header area.

[1−4.処理の流れ]
本項では、図5〜図9を用いて、画像符号化装置100による画像符号化処理の流れについて説明する。
[1-4. Process flow]
In this section, the flow of image encoding processing by the image encoding device 100 will be described with reference to FIGS.

(1)全体的な流れ
図5は、本実施形態に係る画像符号化処理の流れの一例を示すフローチャートである。
(1) Overall Flow FIG. 5 is a flowchart showing an example of the flow of image encoding processing according to the present embodiment.

図5を参照すると、まず、RAW画像取得部110は、イメージセンサにより生成され又は他の装置若しくは記憶媒体から入力されるRAW画像データを取得する(ステップS100)。そして、RAW画像取得部110は、取得したRAW画像データを現像部120へ出力する。   Referring to FIG. 5, first, the RAW image acquisition unit 110 acquires RAW image data generated by an image sensor or input from another device or a storage medium (Step S100). Then, the RAW image acquisition unit 110 outputs the acquired RAW image data to the development unit 120.

次に、現像部120は、RAW画像取得部110から入力されるRAW画像データをデモザイク処理することにより、第1のフルカラー画像データを生成する(ステップS110)。そして、現像部120は、生成した第1のフルカラー画像データを補正処理部130へ出力する。   Next, the developing unit 120 generates first full-color image data by performing demosaic processing on the RAW image data input from the RAW image acquisition unit 110 (step S110). Then, the developing unit 120 outputs the generated first full color image data to the correction processing unit 130.

次に、補正処理部130は、現像部120から入力される第1のフルカラー画像データを補正して、高階調画像データを生成する(ステップS120)。そして、補正処理部130は、生成した高階調画像データを逆処理部140及び第1符号化ブランチ160へ出力する。   Next, the correction processing unit 130 corrects the first full-color image data input from the developing unit 120 to generate high gradation image data (step S120). Then, the correction processing unit 130 outputs the generated high gradation image data to the inverse processing unit 140 and the first encoding branch 160.

次に、第1符号化ブランチ160において、深度削減・YC変換部162は、補正処理部130から入力される高階調画像データのビット深度を各色8ビットに削減すると共に、その色空間をRGB空間からYC空間に変換して、第1の画像データを生成する(ステップS130)。そして、深度削減・YC変換部162は、生成した第1の画像データを第1符号化部168へ出力する。   Next, in the first encoding branch 160, the depth reduction / YC conversion unit 162 reduces the bit depth of the high gradation image data input from the correction processing unit 130 to 8 bits for each color, and the color space is converted to the RGB space. To YC space to generate first image data (step S130). Then, the depth reduction / YC conversion unit 162 outputs the generated first image data to the first encoding unit 168.

次に、第1符号化部168は、深度削減・YC変換部162から入力される第1の画像データをJPEG方式で符号化して、第1の符号化ストリームを生成する(ステップS135)。そして、第1符号化部168は、符号化された第1の画像データを含む第1の符号化ストリームをストリーム出力部190へ出力する。   Next, the first encoding unit 168 encodes the first image data input from the depth reduction / YC conversion unit 162 using the JPEG method to generate a first encoded stream (step S135). Then, the first encoding unit 168 outputs the first encoded stream including the encoded first image data to the stream output unit 190.

また、逆処理部140は、補正処理部130から入力される高階調画像データに例えばEV逆補正、WB逆補正又はガンマ逆補正などの(補正処理の)逆処理を適用して、第2のフルカラー画像データを生成する(ステップS140)。そして、逆処理部140は、生成した第2のフルカラー画像データを差分演算部150へ出力する。   In addition, the inverse processing unit 140 applies reverse processing (of correction processing) such as EV reverse correction, WB reverse correction, or gamma reverse correction to the high-gradation image data input from the correction processing unit 130 to perform the second processing. Full color image data is generated (step S140). Then, the inverse processing unit 140 outputs the generated second full-color image data to the difference calculation unit 150.

次に、差分演算部150は、現像部120から入力される第1のフルカラー画像データと逆処理部140から入力される第2のフルカラー画像データとの差分を計算する(ステップS145)。そして、差分演算部150は、差分画像に基づく第2の画像データを第2符号化ブランチ170へ出力する。   Next, the difference calculation unit 150 calculates a difference between the first full-color image data input from the developing unit 120 and the second full-color image data input from the inverse processing unit 140 (step S145). Then, the difference calculation unit 150 outputs second image data based on the difference image to the second encoding branch 170.

次に、第2符号化ブランチ170において、差分符号化処理が実行され、第2の符号化ストリームがストリーム出力部190へ出力される(ステップS160)。ここでの差分符号化処理について、図6を用いてさらに説明する。   Next, in the second encoding branch 170, differential encoding processing is executed, and the second encoded stream is output to the stream output unit 190 (step S160). The differential encoding process here will be further described with reference to FIG.

次に、ストリーム出力部190は、第2符号化ブランチ170から入力される第2の符号化ストリームを第1符号化ブランチから入力される第1の符号化ストリームに関連付ける(ステップS180)。ここでの関連付けは、上述した参照用パラメータを用いて行われ得る。そして、ストリーム出力部190は、第1及び第2の符号化ストリームを、画像符号化装置100に接続される記憶媒体又は他の装置へ出力する(ステップS190)。   Next, the stream output unit 190 associates the second encoded stream input from the second encoding branch 170 with the first encoded stream input from the first encoding branch (step S180). The association here can be performed using the reference parameters described above. Then, the stream output unit 190 outputs the first and second encoded streams to a storage medium connected to the image encoding device 100 or another device (step S190).

(2)差分符号化処理
図6は、図5に示した差分符号化処理の詳細な流れの一例を示すフローチャートである。
(2) Differential Encoding Process FIG. 6 is a flowchart illustrating an example of a detailed flow of the differential encoding process illustrated in FIG.

図6を参照すると、まず、第2の画像データの符号化の前に当該第2の画像データ(差分画像)を加工すべきか否かが判定される(ステップS161)。例えば、上述した第1及び第2の実施例においては、第2の画像データは加工されない。一方、上述した第3及び第4の実施例においては、第2の画像データは加工され得る。第2の画像データを加工すべきであると判定された場合には、第2の画像データについて、差分加工部171により差分加工処理が実行される(ステップS162)。ここでの差分加工処理について、図7を用いてさらに説明する。   Referring to FIG. 6, it is first determined whether or not the second image data (difference image) should be processed before encoding the second image data (step S161). For example, in the first and second embodiments described above, the second image data is not processed. On the other hand, in the third and fourth embodiments described above, the second image data can be processed. If it is determined that the second image data should be processed, the difference processing unit 171 executes a difference processing process on the second image data (step S162). The differential machining process here will be further described with reference to FIG.

次に、第2の画像データ(差分画像)のサイズを縮小すべきか否かが判定される(ステップS163)。例えば、上述した第1及び第3の実施例においては、第2の画像データのサイズは縮小されない。一方、上述した第2及び第4の実施例においては、第2の画像データのサイズは縮小され得る。第2の画像データのサイズを縮小すべきであると判定された場合には、第2の画像データのサイズが縮小部173により縮小される(ステップS164)。   Next, it is determined whether or not the size of the second image data (difference image) should be reduced (step S163). For example, in the first and third embodiments described above, the size of the second image data is not reduced. On the other hand, in the second and fourth embodiments described above, the size of the second image data can be reduced. If it is determined that the size of the second image data should be reduced, the size of the second image data is reduced by the reduction unit 173 (step S164).

次に、正規化部175は、第2の画像データの画素値を第2符号化ブランチ170によりサポートされる画素値レンジに合わせて正規化する(ステップS165)。それにより、正負の符号を有し得る第2の画像データの各画素値が、0〜2−1(Nはビット深度)の画素値レンジに合わせて正規化される。また、正規化部175は、正規化パラメータをストリーム出力部190へ出力する。 Next, the normalization unit 175 normalizes the pixel value of the second image data according to the pixel value range supported by the second encoding branch 170 (step S165). Thereby, each pixel value of the second image data may have a positive or negative sign, 0 to 2 N -1 (N bit depth) is normalized to the pixel value range. Further, the normalization unit 175 outputs the normalization parameter to the stream output unit 190.

次に、第2の画像データの色空間を変換すべきか否かが判定される(ステップS166)。例えば、第2の画像データを符号化するためにJPEG方式が用いられる場合には、第2の画像データの色空間をYC空間に変換すべきであると判定され得る。第2の画像データの色空間を変換すべきであると判定された場合には、YC変換部177により、第2の画像データの色空間がRGB空間から他の色空間(例えばYC空間)に変換される(ステップS167)。   Next, it is determined whether or not the color space of the second image data should be converted (step S166). For example, when the JPEG method is used to encode the second image data, it can be determined that the color space of the second image data should be converted to the YC space. When it is determined that the color space of the second image data should be converted, the YC conversion unit 177 changes the color space of the second image data from the RGB space to another color space (for example, YC space). Conversion is performed (step S167).

次に、第2符号化部179は、第2の画像データをJPEG方式又はその他の画像符号化方式で符号化して、第2の符号化ストリームを生成する(ステップS168)。そして、第2符号化部179は、生成した第2の符号化ストリームをストリーム出力部190へ出力する。   Next, the second encoding unit 179 encodes the second image data using the JPEG method or another image encoding method to generate a second encoded stream (step S168). Then, the second encoding unit 179 outputs the generated second encoded stream to the stream output unit 190.

(3)差分加工処理
図7は、図6に示した差分加工処理の詳細な流れの一例を示すフローチャートである。
(3) Differential Machining Process FIG. 7 is a flowchart showing an example of a detailed flow of the differential machining process shown in FIG.

図7に示した差分加工処理に含まれるステップS172〜ステップS175の処理は、第2の画像データの各画素について繰り返される(ステップS171)。   The processing in steps S172 to S175 included in the difference processing shown in FIG. 7 is repeated for each pixel of the second image data (step S171).

各画素を注目画素とする繰り返しにおいて、差分加工部171は、まず、注目画素の画素位置において第1の画像データの高周波成分が強い値を示しているかを判定する(ステップS172)。ここで、当該高周波成分が強い値を示していない場合には、次のステップS173の処理はスキップされる。当該高周波成分が強い値を示している場合には、差分加工部171は、注目画素の画素値を一定の値に置換する(ステップS173)。   In the repetition using each pixel as the target pixel, the difference processing unit 171 first determines whether the high-frequency component of the first image data shows a strong value at the pixel position of the target pixel (step S172). Here, when the high frequency component does not indicate a strong value, the process of the next step S173 is skipped. If the high-frequency component indicates a strong value, the difference processing unit 171 replaces the pixel value of the target pixel with a certain value (step S173).

次に、差分加工部171は、注目画素の画素位置において第1の画像データの輝度値が画素値レンジの中央部分に属するかを判定する(ステップS174)。ここで、当該輝度値が画素値レンジの中央部分に属しない場合には、次のステップS175の処理はスキップされる。当該輝度値が画素値レンジの中央部分に属する場合には、差分加工部171は、注目画素の画素値を一定の値に置換する(ステップS175)。   Next, the difference processing unit 171 determines whether or not the luminance value of the first image data belongs to the central portion of the pixel value range at the pixel position of the target pixel (step S174). Here, if the luminance value does not belong to the central portion of the pixel value range, the process of the next step S175 is skipped. When the luminance value belongs to the central portion of the pixel value range, the difference processing unit 171 replaces the pixel value of the target pixel with a certain value (step S175).

第2の画像データの全ての画素についてこれら処理が実行されると、図7に示した差分加工処理は終了する。   When these processes are executed for all the pixels of the second image data, the difference processing process shown in FIG. 7 ends.

(4)全体的な流れの他の例
図8は、本実施形態に係る画像符号化処理の流れの他の例を示すフローチャートである。図8に示したステップS100からステップS145までの処理は、図5を用いて説明した処理と同様であってよい。
(4) Another Example of Overall Flow FIG. 8 is a flowchart showing another example of the flow of image encoding processing according to this embodiment. The processing from step S100 to step S145 shown in FIG. 8 may be the same as the processing described with reference to FIG.

差分演算部150により第1のフルカラー画像データと第2のフルカラー画像データとの差分画像に基づく第2の画像データが生成されると、第2符号化ブランチ170において、分類部180により差分画像分離処理が実行される(ステップS150)。それにより、第2の画像データから、白とび用の差分画像データ及び黒つぶれ用の差分画像データが分離される。ここでの差分画像分離処理について、図9を用いてさらに説明する。   When the second image data based on the difference image between the first full-color image data and the second full-color image data is generated by the difference calculation unit 150, the difference image separation is performed by the classification unit 180 in the second encoding branch 170. Processing is executed (step S150). Thereby, the difference image data for overexposure and the difference image data for underexposure are separated from the second image data. The difference image separation process here will be further described with reference to FIG.

次に、白とび用の差分画像データについて、図6及び図7を用いて説明したような差分符号化処理が実行され、符号化された白とび用の差分画像データを含む符号化ストリームがストリーム出力部190へ出力される(ステップS160a)。   Next, the differential coding process as described with reference to FIGS. 6 and 7 is performed on the whiteout difference image data, and an encoded stream including the whiteout difference image data is streamed. The data is output to the output unit 190 (step S160a).

また、黒つぶれ用の差分画像データについて、図6及び図7を用いて説明したような差分符号化処理が実行され、符号化された黒つぶれ用の差分画像データを含む符号化ストリームがストリーム出力部190へ出力される(ステップS160b)。   Also, the differential image processing described with reference to FIGS. 6 and 7 is performed on the blackout difference image data, and an encoded stream including the blackened difference image data is output as a stream. Is output to the unit 190 (step S160b).

次に、ストリーム出力部190は、第2符号化ブランチ170から入力される差分画像の2つの符号化ストリームを第1符号化ブランチから入力される第1の符号化ストリームに関連付ける(ステップS180)。ここでの関連付けは、上述した参照用パラメータを用いて行われ得る。そして、ストリーム出力部190は、これら符号化ストリームを、画像符号化装置100に接続される記憶媒体又は他の装置へ出力する(ステップS190)。   Next, the stream output unit 190 associates the two encoded streams of the difference image input from the second encoding branch 170 with the first encoded stream input from the first encoding branch (step S180). The association here can be performed using the reference parameters described above. Then, the stream output unit 190 outputs these encoded streams to a storage medium connected to the image encoding device 100 or another device (step S190).

(5)差分画像分離処理
図9は、図8に示した差分画像分離処理の詳細な流れの一例を示すフローチャートである。
(5) Difference Image Separation Processing FIG. 9 is a flowchart showing an example of a detailed flow of the difference image separation processing shown in FIG.

図9に示した差分画像分離処理に含まれるステップS152〜ステップS155の処理は、第2の画像データの各画素について繰り返される(ステップS151)。   The processes in steps S152 to S155 included in the difference image separation process shown in FIG. 9 are repeated for each pixel of the second image data (step S151).

各画素を注目画素とする繰り返しにおいて、分類部180は、まず、第1の画像データの注目画素の輝度値を取得する(ステップS152)。次に、分類部180は、取得した輝度値を輝度閾値(典型的には、画素値レンジの中央の値)と比較する(ステップS153)。ここで、例えば輝度値が輝度閾値よりも小さくない場合には、分類部180は、注目画素を白とび用の第1グループに分類する(ステップS154)。一方、輝度値が輝度閾値よりも小さい場合には、分類部180は、注目画素を黒つぶれ用の第2グループに分類する(ステップS155)。   In the repetition using each pixel as the target pixel, the classification unit 180 first acquires the luminance value of the target pixel of the first image data (step S152). Next, the classification unit 180 compares the acquired luminance value with a luminance threshold value (typically, the central value of the pixel value range) (step S153). Here, for example, when the luminance value is not smaller than the luminance threshold, the classification unit 180 classifies the target pixel into the first group for overexposure (step S154). On the other hand, when the luminance value is smaller than the luminance threshold, the classification unit 180 classifies the target pixel into the second group for blackout (step S155).

そして、分類部180は、分類の結果に応じて、第2の画像データから白とび用の差分画像データを分離する(ステップS156)と共に、第2の画像データから黒つぶれ用の差分画像データを分離する(ステップS157)。   Then, the classification unit 180 separates the difference image data for overexposure from the second image data in accordance with the classification result (step S156), and the difference image data for underexposure from the second image data. Separate (step S157).

なお、本項で説明した処理ステップの順序は、各図に示した順序に限定されない。例えば、図5の画像符号化処理において、ステップS135での第1の画像データの符号化とステップS160での差分符号化処理とが並列的に行われてもよい。   Note that the order of the processing steps described in this section is not limited to the order shown in the drawings. For example, in the image encoding process of FIG. 5, the encoding of the first image data in step S135 and the differential encoding process in step S160 may be performed in parallel.

<2.一実施形態に係る画像復号装置の構成例>
[2−1.全体的な構成]
図10は、上述した画像符号化装置100から出力される符号化ストリームを復号する、一実施形態に係る画像復号装置200の構成の一例を示すブロック図である。図10を参照すると、画像復号装置200は、ストリーム取得部210、第1復号ブランチ220、第2復号ブランチ230、逆処理部260、合成部270及び画像出力部280を備える。
<2. Configuration Example of Image Decoding Device According to One Embodiment>
[2-1. Overall configuration]
FIG. 10 is a block diagram illustrating an example of a configuration of an image decoding device 200 according to an embodiment that decodes an encoded stream output from the image encoding device 100 described above. Referring to FIG. 10, the image decoding apparatus 200 includes a stream acquisition unit 210, a first decoding branch 220, a second decoding branch 230, an inverse processing unit 260, a synthesis unit 270, and an image output unit 280.

(1)ストリーム取得部
ストリーム取得部210は、画像復号装置200による復号処理の入力となる符号化ストリームを取得する。ストリーム取得部210により取得される符号化ストリームは、8ビットより多くのビット深度を有するフルカラー画像データのビット深度を8ビットに削減して符号化された第1の符号化ストリームST1、及び第1の符号化ストリームST1に関連付けられる第2の符号化ストリームST2を含み得る。ここでのフルカラー画像データは、画像の符号化の際に、RAW画像データをデモザイク処理することにより生成された画像データである。第2の符号化ストリームST2は、第1のフルカラー画像データと、当該第1のフルカラー画像データに適用された処理の逆処理を当該処理の結果である高階調画像データに適用することにより生成された第2のフルカラー画像データと、の差分画像に基づく第2の画像データIM2を含む。
(1) Stream Acquisition Unit The stream acquisition unit 210 acquires an encoded stream that is an input for decoding processing by the image decoding device 200. The encoded stream acquired by the stream acquisition unit 210 includes a first encoded stream ST1 encoded by reducing the bit depth of full-color image data having a bit depth larger than 8 bits to 8 bits, and the first encoded stream ST1. The second encoded stream ST2 associated with the encoded stream ST1 may be included. The full-color image data here is image data generated by demosaicing the RAW image data when the image is encoded. The second encoded stream ST2 is generated by applying the first full-color image data and the inverse process of the process applied to the first full-color image data to the high gradation image data that is the result of the process. Second image data IM2 based on the difference image between the second full-color image data and the second full-color image data.

例えば、ストリーム取得部210は、第1の符号化ストリームST1を取得し、第1の符号化ストリームST1のヘッダ領域に第2の符号化ストリームST2にアクセスするための参照用パラメータが挿入されている場合に、当該参照用パラメータを用いて第2の符号化ストリームST2をさらに取得する。そして、ストリーム取得部210は、取得した第1の符号化ストリームST1を第1復号ブランチ220へ、取得した第2の符号化ストリームST2を第2復号ブランチ230へそれぞれ出力する。   For example, the stream acquisition unit 210 acquires the first encoded stream ST1, and a reference parameter for accessing the second encoded stream ST2 is inserted in the header area of the first encoded stream ST1. In this case, the second encoded stream ST2 is further acquired using the reference parameter. Then, the stream acquisition unit 210 outputs the acquired first encoded stream ST1 to the first decoding branch 220 and the acquired second encoded stream ST2 to the second decoding branch 230, respectively.

(2)第1復号ブランチ
第1復号ブランチ220は、第1の符号化ストリームST1を復号するための処理分岐である。図10の例において、第1復号ブランチ220は、第1復号部222及びRGB変換・深度拡張部228を含む。
(2) First decoding branch The first decoding branch 220 is a processing branch for decoding the first encoded stream ST1. In the example of FIG. 10, the first decoding branch 220 includes a first decoding unit 222 and an RGB conversion / depth extension unit 228.

第1復号部222は、ストリーム取得部210から入力される第1の符号化ストリームST1をJPEG方式で復号して、8ビットのビット深度を有する第1の画像データIMd1を生成する。即ち、第1復号部222は、一般的なJPEGデコーダであってよい。第1復号部222による復号処理は、典型的には、画像内に配置されるブロックごとに実行される、エントロピー復号、逆量子化及び逆直交変換を含む。第1復号部222は、このような復号の結果として生成される第1の画像データIMd1を、RGB変換・深度拡張部228へ出力する。   The first decoding unit 222 decodes the first encoded stream ST1 input from the stream acquisition unit 210 by the JPEG method, and generates first image data IMd1 having a bit depth of 8 bits. That is, the first decoding unit 222 may be a general JPEG decoder. The decoding process by the first decoding unit 222 typically includes entropy decoding, inverse quantization, and inverse orthogonal transform, which are executed for each block arranged in the image. The first decoding unit 222 outputs the first image data IMd1 generated as a result of such decoding to the RGB conversion / depth extension unit 228.

RGB変換・深度拡張部228は、第1の画像データIMd1の色空間をYC空間からRGB空間に変換すると共に、そのビット深度を各色M(M>8,例えばM=12)ビットに拡張して、高階調画像データIM1を復元する。そして、RGB変換・深度拡張部228は、復元した高階調画像データIM1を逆処理部260へ出力する。   The RGB conversion / depth extension unit 228 converts the color space of the first image data IMd1 from the YC space to the RGB space, and extends the bit depth to each color M (M> 8, for example, M = 12) bits. The high gradation image data IM1 is restored. Then, the RGB conversion / depth extension unit 228 outputs the restored high gradation image data IM1 to the inverse processing unit 260.

(3)逆処理部
逆処理部260は、符号化の際に適用された処理(例えば、図1に示した補正処理部130により補正処理)の逆処理を高階調画像データIM1に適用して、第1のフルカラー画像データIM0´を生成する。逆処理部260による逆処理は、例えば、EV逆補正、WB逆補正又はガンマ逆補正などを含み得る。そして、逆処理部260は、生成した第1のフルカラー画像データIM0´を合成部270へ出力する。
(3) Inverse processing unit The inverse processing unit 260 applies the inverse processing of the processing applied at the time of encoding (for example, correction processing by the correction processing unit 130 shown in FIG. 1) to the high gradation image data IM1. First full color image data IM0 ′ is generated. The reverse processing by the reverse processing unit 260 can include, for example, EV reverse correction, WB reverse correction, or gamma reverse correction. Then, the inverse processing unit 260 outputs the generated first full-color image data IM0 ′ to the synthesizing unit 270.

(4)第2復号ブランチ
第2復号ブランチ230は、第2の符号化ストリームST2を復号するための処理分岐である。図10の例において、第2復号ブランチ230は、第2復号部231を含む。第2復号部231は、ストリーム取得部210から入力される第2の符号化ストリームST2を、当該第2の符号化ストリームST2の符号化の際に使用された画像符号化方式で復号して、第2の画像データIM2を生成する。第2の符号化ストリームST2の符号化の際に使用された画像符号化方式は、例えば、JPEG方式、又は拡張JPEG方式、JPEG2000方式若しくはJPEG XR方式などであり得る。そして、第2復号部231は、復号の結果として生成される第2の画像データIM2を、合成部270へ出力する。
(4) Second decoding branch The second decoding branch 230 is a processing branch for decoding the second encoded stream ST2. In the example of FIG. 10, the second decoding branch 230 includes a second decoding unit 231. The second decoding unit 231 decodes the second encoded stream ST2 input from the stream acquisition unit 210 by the image encoding method used when encoding the second encoded stream ST2, Second image data IM2 is generated. The image encoding method used when encoding the second encoded stream ST2 can be, for example, the JPEG method, the extended JPEG method, the JPEG2000 method, or the JPEG XR method. Then, the second decoding unit 231 outputs the second image data IM2 generated as a result of the decoding to the synthesis unit 270.

第2復号ブランチ230は、第2復号部231の後段に、第2の画像データIM2に対して後処理を適用するさらなる処理部を含んでもよい。第2の画像データIM2に適用される後処理は、例えば、色空間の変換、画素値の逆正規化及び画像サイズの拡大、のうちの1つ以上を含み得る。このような第2復号ブランチ230のいくつかの具体的な実施例について、後にさらに説明する。   The second decoding branch 230 may include a further processing unit that applies post-processing to the second image data IM2 after the second decoding unit 231. The post-processing applied to the second image data IM2 may include, for example, one or more of color space conversion, pixel value denormalization, and image size expansion. Some specific embodiments of the second decoding branch 230 will be further described later.

(5)合成部
合成部270は、逆処理部260から入力される第1のフルカラー画像データIM0´と、第2復号ブランチ230から入力される第2の画像データIM2とを合成して、原画像であるフルカラー画像データIMrecを再構成する。そして、合成部270は、再構成されたフルカラー画像データIMrecを画像出力部280へ出力する。
(5) Synthesizer The synthesizer 270 synthesizes the first full-color image data IM0 ′ input from the inverse processor 260 and the second image data IM2 input from the second decoding branch 230 to obtain the original. Full color image data IMrec, which is an image, is reconstructed. Then, the synthesis unit 270 outputs the reconstructed full color image data IMrec to the image output unit 280.

(6)画像出力部
画像出力部280は、合成部270から入力されるフルカラー画像データIMrecを、当該フルカラー画像データIMrecを記憶し又はフルカラー画像を表示する装置へ出力する。
(6) Image Output Unit The image output unit 280 outputs the full color image data IMrec input from the synthesizing unit 270 to a device that stores the full color image data IMrec or displays a full color image.

[2−2.第2ブランチの詳細]
本項では、図10に例示した画像復号装置200の第2復号ブランチ230の5つの詳細な実施例を説明する。
[2-2. Details of the second branch]
In this section, five detailed examples of the second decoding branch 230 of the image decoding apparatus 200 illustrated in FIG. 10 will be described.

(1)第1の実施例
図11Aは、第2復号ブランチ230の詳細な構成の第1の例を示すブロック図である。図11Aを参照すると、第2復号ブランチ230は、第2復号部231a、RGB変換部233及び逆正規化部235を含む。
(1) First Example FIG. 11A is a block diagram showing a first example of a detailed configuration of the second decoding branch 230. Referring to FIG. 11A, the second decoding branch 230 includes a second decoding unit 231a, an RGB conversion unit 233, and a denormalization unit 235.

第2復号部231aは、ストリーム取得部210から入力される第2の符号化ストリームST2をJPEG方式で復号して、第2の画像データIM2を生成する。即ち、本実施例において、第2復号部231aは、第1復号部222と同様、一般的なJPEGデコーダであってよい。そして、第2復号部231aは、生成した第2の画像データIM2を、RGB変換部233へ出力する。   The second decoding unit 231a decodes the second encoded stream ST2 input from the stream acquisition unit 210 using the JPEG method, and generates second image data IM2. That is, in the present embodiment, the second decoding unit 231a may be a general JPEG decoder, like the first decoding unit 222. Then, the second decoding unit 231a outputs the generated second image data IM2 to the RGB conversion unit 233.

RGB変換部233は、第2復号部231aから入力される第2の画像データIM2の色空間をYC空間からRGB空間に変換する。そして、RGB変換部233は、RGB空間で表現される画素値を有する第2の画像データIM2を逆正規化部235へ出力する。   The RGB conversion unit 233 converts the color space of the second image data IM2 input from the second decoding unit 231a from the YC space to the RGB space. Then, the RGB conversion unit 233 outputs the second image data IM2 having pixel values expressed in the RGB space to the denormalization unit 235.

逆正規化部235は、第2復号部231aによりサポートされる画素値レンジに合わせて符号化の際に正規化された第2の画像データの画素値を、符号化ストリームのヘッダ領域に挿入されている正規化パラメータを用いて、差分画素値に逆正規化する。第1の実施例においては、第2復号部231aは、JPEG方式を使用する。この場合、第2復号部231aによりサポートされる画素値レンジは、0〜255である。一方、差分画素値の最小値Dmin及び最大値Dmaxは、正規化パラメータにより示され得る。そこで、逆正規化部235は、第2の画像データの画素値ゼロが差分画素値Dminに、画素値255が差分画素値Dmaxになるように、各画素値を差分画素値に逆正規化する。そして、逆正規化部235は、逆正規化された画素値を有する第2の画像データIM2を合成部270へ出力する。 The denormalization unit 235 inserts the pixel value of the second image data normalized at the time of encoding in accordance with the pixel value range supported by the second decoding unit 231a into the header area of the encoded stream. Is denormalized to the difference pixel value using the normalization parameter. In the first embodiment, the second decoding unit 231a uses the JPEG method. In this case, the pixel value range supported by the second decoding unit 231a is 0 to 255. On the other hand, the minimum value D min and the maximum value D max of the difference pixel value may be indicated by a normalization parameter. Therefore, the inverse normalization unit 235 inversely normalizes each pixel value to the difference pixel value so that the pixel value zero of the second image data becomes the difference pixel value Dmin and the pixel value 255 becomes the difference pixel value Dmax. Turn into. Then, the denormalization unit 235 outputs the second image data IM2 having the denormalized pixel value to the synthesis unit 270.

第1の実施例によれば、第1及び第2の符号化ストリームST1、ST2の双方がJPEGデコーダを用いて復号されるため、広く普及しているJPEGデコーダを活用して、より低いコストで本開示に係る技術を実現することができる。   According to the first embodiment, since both the first and second encoded streams ST1 and ST2 are decoded using the JPEG decoder, the widely used JPEG decoder can be used at a lower cost. The technology according to the present disclosure can be realized.

(2)第2の実施例
図11Bは、第2復号ブランチ230の詳細な構成の第2の例を示すブロック図である。図11Bを参照すると、第2復号ブランチ230は、第2復号部231b、逆正規化部235及び拡大部237を含む。
(2) Second Example FIG. 11B is a block diagram showing a second example of a detailed configuration of the second decoding branch 230. Referring to FIG. 11B, the second decoding branch 230 includes a second decoding unit 231b, an inverse normalization unit 235, and an expansion unit 237.

第2復号部231bは、ストリーム取得部210から入力される第2の符号化ストリームST2を、当該第2の符号化ストリームST2の符号化の際に使用された画像符号化方式で復号して、第2の画像データIM2を生成する。逆正規化部235は、第2復号部231bによりサポートされる画素値レンジに合わせて符号化の際に正規化された第2の画像データの画素値を、差分画素値に逆正規化する。   The second decoding unit 231b decodes the second encoded stream ST2 input from the stream acquisition unit 210 using the image encoding method used when encoding the second encoded stream ST2, Second image data IM2 is generated. The denormalization unit 235 denormalizes the pixel value of the second image data normalized at the time of encoding in accordance with the pixel value range supported by the second decoding unit 231b into a difference pixel value.

拡大部237は、第2の画像データIM2のサイズがフルカラー画像データのサイズから縮小されている場合に、第2の画像データIM2のサイズを当該復元すべきフルカラー画像データのサイズに合わせて拡大する。なお、サイズの拡大に際して、不足する画素値は、周囲の画素値からの線型補間又は補間フィルタの適用によって補間されてよい。そして、拡大部237は、サイズの拡大された第2の画像データIM2を合成部270へ出力する。   The enlargement unit 237 enlarges the size of the second image data IM2 in accordance with the size of the full-color image data to be restored when the size of the second image data IM2 is reduced from the size of the full-color image data. . Note that when the size is increased, the pixel values that are insufficient may be interpolated by linear interpolation from surrounding pixel values or application of an interpolation filter. Then, the enlargement unit 237 outputs the second image data IM <b> 2 whose size has been enlarged to the synthesis unit 270.

第2の実施例によれば、第2の画像データIM2のサイズが符号化ストリームST2内で縮小されているため、第2の符号化ストリームST2のデータ量を低減することができる。上述したように、第2の画像データIM2は、フルカラー画像データを符号化することにより低下する画質を補うために補完的に使用される画像データである。よって、完全に近いフルカラー画像の再現が求められない場合には、このように第2の画像データIM2のサイズを縮小して符号化ストリームのデータ量を低減することが有益である。   According to the second embodiment, since the size of the second image data IM2 is reduced in the encoded stream ST2, the data amount of the second encoded stream ST2 can be reduced. As described above, the second image data IM2 is image data that is used complementarily in order to compensate for the image quality that is deteriorated by encoding the full-color image data. Therefore, when reproduction of a nearly full color image is not required, it is beneficial to reduce the data amount of the encoded stream by reducing the size of the second image data IM2 in this way.

(3)第3の実施例
図11Cは、第2復号ブランチ230の詳細な構成の第3の例を示すブロック図である。図11Cを参照すると、第2復号ブランチ230は、第2復号部231b及び逆正規化部235を含む。
(3) Third Example FIG. 11C is a block diagram illustrating a third example of a detailed configuration of the second decoding branch 230. Referring to FIG. 11C, the second decoding branch 230 includes a second decoding unit 231b and a denormalization unit 235.

第2復号部231bは、ストリーム取得部210から入力される第2の符号化ストリームST2を、当該第2の符号化ストリームST2の符号化の際に使用された画像符号化方式で復号して、第2の画像データIM2を生成する。逆正規化部235は、第2復号部231bによりサポートされる画素値レンジに合わせて符号化の際に正規化された第2の画像データの画素値を、差分画素値に逆正規化する。そして、逆正規化部235は、逆正規化された画素値を有する第2の画像データIM2を合成部270へ出力する。   The second decoding unit 231b decodes the second encoded stream ST2 input from the stream acquisition unit 210 using the image encoding method used when encoding the second encoded stream ST2, Second image data IM2 is generated. The denormalization unit 235 denormalizes the pixel value of the second image data normalized at the time of encoding in accordance with the pixel value range supported by the second decoding unit 231b into a difference pixel value. Then, the denormalization unit 235 outputs the second image data IM2 having the denormalized pixel value to the synthesis unit 270.

例えばRGB空間の画素値を色空間の変換を経ることなく符号化及び復号し得る画像符号化方式が使用される場合には、こうした第3の実施例のような簡易な構成を採用することができる。   For example, when an image encoding method that can encode and decode pixel values in the RGB space without undergoing color space conversion is used, it is possible to employ such a simple configuration as in the third embodiment. it can.

(4)第4の実施例
図11Dは、第2復号ブランチ230の詳細な構成の第4の例を示すブロック図である。第4の実施例は、上述した第1及び第2の実施例の組合せである。図11Dを参照すると、第2復号ブランチ230は、第2復号部231a、RGB変換部233、逆正規化部235及び拡大部237を含む。
(4) Fourth Example FIG. 11D is a block diagram showing a fourth example of a detailed configuration of the second decoding branch 230. The fourth embodiment is a combination of the first and second embodiments described above. Referring to FIG. 11D, the second decoding branch 230 includes a second decoding unit 231a, an RGB conversion unit 233, an inverse normalization unit 235, and an enlargement unit 237.

第2復号部231aは、ストリーム取得部210から入力される第2の符号化ストリームST2をJPEG方式で復号して、第2の画像データIM2を生成する。RGB変換部233は、第2復号部231aから入力される第2の画像データIM2の色空間をYC空間からRGB空間に変換する。逆正規化部235は、第2復号部231aによりサポートされる画素値レンジに合わせて符号化の際に正規化された第2の画像データIM2の画素値を、差分画素値に逆正規化する。拡大部237は、第2の画像データIM2のサイズがフルカラー画像データのサイズから縮小されている場合に、第2の画像データIM2のサイズを当該フルカラー画像データのサイズに合わせて拡大する。そして、拡大部237は、サイズの拡大された第2の画像データIM2を合成部270へ出力する。   The second decoding unit 231a decodes the second encoded stream ST2 input from the stream acquisition unit 210 using the JPEG method, and generates second image data IM2. The RGB conversion unit 233 converts the color space of the second image data IM2 input from the second decoding unit 231a from the YC space to the RGB space. The denormalization unit 235 denormalizes the pixel value of the second image data IM2 normalized at the time of encoding in accordance with the pixel value range supported by the second decoding unit 231a into a difference pixel value. . When the size of the second image data IM2 is reduced from the size of the full color image data, the enlargement unit 237 enlarges the size of the second image data IM2 in accordance with the size of the full color image data. Then, the enlargement unit 237 outputs the second image data IM <b> 2 whose size has been enlarged to the synthesis unit 270.

(5)第5の実施例
図11Eは、第2復号ブランチ230の詳細な構成の第5の例を示すブロック図である。図11Eを参照すると、第2復号ブランチ230は、第2復号部231a、RGB変換部233、逆正規化部235、拡大部237、第2復号部241a、RGB変換部243、逆正規化部245、拡大部247及び差分合成部240を含む。
(5) Fifth Example FIG. 11E is a block diagram illustrating a fifth example of a detailed configuration of the second decoding branch 230. Referring to FIG. 11E, the second decoding branch 230 includes a second decoding unit 231a, an RGB conversion unit 233, a denormalization unit 235, an enlargement unit 237, a second decoding unit 241a, an RGB conversion unit 243, and a denormalization unit 245. , An enlargement unit 247 and a difference synthesis unit 240.

第5の実施例が採用される場合、図10に示したストリーム取得部210は、白とびが生じる可能性のある画素のための第1グループの差分画素値を含むストリームST2aと黒つぶれが生じる可能性のある画素のための第2グループの差分画素値を含むストリームST2bとを取得する。このうち、白とび用の差分画像の符号化ストリームST2aは、第2復号部231aへ入力される。また、黒つぶれ用の差分画像の符号化ストリームST2bは、第2復号部241aへ入力される。   When the fifth embodiment is employed, the stream acquisition unit 210 illustrated in FIG. 10 causes blackout with the stream ST2a including the difference pixel value of the first group for pixels that may cause overexposure. A stream ST2b including a second group of difference pixel values for the possible pixels is obtained. Among these, the coded stream ST2a of the difference image for overexposure is input to the second decoding unit 231a. Also, the blacked-out difference image encoded stream ST2b is input to the second decoding unit 241a.

第2復号部231aは、ストリーム取得部210から入力される白とび用の差分画像の符号化ストリームST2aをJPEG方式で復号して、白とび用の差分画像データIM2aを生成する。RGB変換部233は、白とび用の差分画像データIM2aの色空間をYC空間からRGB空間に変換する。逆正規化部235は、第2復号部231aによりサポートされる画素値レンジに合わせて符号化の際に正規化された白とび用の差分画像データIM2aの画素値を、差分画素値に逆正規化する。拡大部237は、白とび用の差分画像データIM2aのサイズがフルカラー画像データのサイズから縮小されている場合に、白とび用の差分画像データIM2aのサイズを当該フルカラー画像データのサイズに合わせて拡大する。そして、拡大部237は、サイズの拡大された白とび用の差分画像データIM2aを差分合成部240へ出力する。   The second decoding unit 231a decodes the coded stream ST2a of the whiteout difference image input from the stream acquisition unit 210 using the JPEG method, and generates whiteout difference image data IM2a. The RGB conversion unit 233 converts the color space of the overexposed difference image data IM2a from the YC space to the RGB space. The inverse normalization unit 235 performs inverse normalization on the pixel value of the differential image data IM2a for overexposure normalized at the time of encoding according to the pixel value range supported by the second decoding unit 231a. Turn into. The enlargement unit 237 enlarges the size of the difference image data IM2a for overexposure to the size of the full color image data when the size of the difference image data IM2a for overexposure is reduced from the size of the full color image data. To do. Then, the enlargement unit 237 outputs the oversized difference image data IM2a for overexposure to the difference composition unit 240.

第2復号部241aは、ストリーム取得部210から入力される黒つぶれ用の差分画像の符号化ストリームST2bをJPEG方式で復号して、黒つぶれ用の差分画像データIM2bを生成する。RGB変換部243は、黒つぶれ用の差分画像データIM2bの色空間をYC空間からRGB空間に変換する。逆正規化部245は、第2復号部241aによりサポートされる画素値レンジに合わせて符号化の際に正規化された黒つぶれ用の差分画像データIM2bの画素値を、差分画素値に逆正規化する。拡大部247は、黒つぶれ用の差分画像データIM2bのサイズがフルカラー画像データのサイズから縮小されている場合に、黒つぶれ用の差分画像データIM2bのサイズを当該フルカラー画像データのサイズに合わせて拡大する。そして、拡大部247は、サイズの拡大された黒つぶれ用の差分画像データIM2bを差分合成部240へ出力する。   The second decoding unit 241a decodes the blacked-out difference image encoded stream ST2b input from the stream acquisition unit 210 using the JPEG method, and generates blacked-out difference image data IM2b. The RGB conversion unit 243 converts the color space of the blackout difference image data IM2b from the YC space to the RGB space. The inverse normalization unit 245 inversely normalizes the pixel value of the blackout difference image data IM2b normalized at the time of encoding according to the pixel value range supported by the second decoding unit 241a to the difference pixel value. Turn into. When the size of the blackout difference image data IM2b is reduced from the size of the full color image data, the enlargement unit 247 enlarges the size of the blackout difference image data IM2b according to the size of the full color image data. To do. Then, the enlarging unit 247 outputs the blacked-out difference image data IM2b whose size has been increased to the difference combining unit 240.

差分合成部240は、拡大部237から入力される白とび用の差分画像データIM2aの画素値又は拡大部247から入力される黒つぶれ用の差分画像データIM2bの画素値を、画素位置に応じて選択的に採用することにより、第2の画像データIM2を生成する。より具体的には、例えば、差分合成部240は、第1の画像データIMd1の輝度値を第1符号化ブランチ160から取得する。そして、差分合成部240は、第1の画像データIMd1の輝度値が所定の輝度閾値を上回る画素位置においては、白とび用の差分画像データIM2aの画素値を採用し、当該輝度値が所定の輝度閾値を下回る画素位置においては、黒つぶれ用の差分画像データIM2bの画素値を採用する。差分合成部240は、このように合成される第2の画像データIM2を、合成部270へ出力する。   The difference composition unit 240 converts the pixel value of the overexposed difference image data IM2a input from the enlargement unit 237 or the pixel value of the undercut difference image data IM2b input from the enlargement unit 247 according to the pixel position. By selectively adopting, the second image data IM2 is generated. More specifically, for example, the difference synthesizer 240 acquires the luminance value of the first image data IMd1 from the first encoding branch 160. Then, the difference synthesis unit 240 adopts the pixel value of the overexposed difference image data IM2a at the pixel position where the luminance value of the first image data IMd1 exceeds the predetermined luminance threshold, and the luminance value is predetermined. At the pixel position below the luminance threshold, the pixel value of the blackout difference image data IM2b is adopted. The difference combining unit 240 outputs the second image data IM2 combined in this way to the combining unit 270.

第5の実施例によれば、白とびにより失われる階調を補完するための差分画像データと、黒つぶれにより失われる階調を補完するための差分画像データとが別々に符号化されたストリームから復号される。一般的に、白とびが生じる領域と黒つぶれが生じる領域との間の画像の相関は低い。従って、上述した2つの差分画像データを別々に符号化することで、直交変換及び量子化を通じて引き起こされるこれら領域の画質の劣化を緩和することができる。   According to the fifth embodiment, a stream in which differential image data for complementing gradations lost due to overexposure and differential image data for complementing gradations lost due to blackout are separately encoded. Is decrypted from In general, the correlation between images between a region where whiteout occurs and a region where blackout occurs is low. Therefore, by encoding the above-described two difference image data separately, it is possible to mitigate the deterioration of the image quality of these areas caused by orthogonal transformation and quantization.

[2−3.処理の流れ]
本項では、図12〜図15を用いて、画像復号装置200による画像復号処理の流れについて説明する。
[2-3. Process flow]
In this section, the flow of image decoding processing by the image decoding apparatus 200 will be described with reference to FIGS.

(1)全体的な流れ
図12は、本実施形態に係る画像復号処理の流れの一例を示すフローチャートである。
(1) Overall Flow FIG. 12 is a flowchart illustrating an example of the flow of image decoding processing according to the present embodiment.

図12を参照すると、まず、ストリーム取得部210は、8ビットより多くのビット深度を有するフルカラー画像データのビット深度を8ビットに削減して符号化された第1の符号化ストリームを取得する(ステップS200)。そして、ストリーム取得部210は、取得した第1の符号化ストリームを第1復号ブランチ220へ出力する。   Referring to FIG. 12, first, the stream acquisition unit 210 acquires a first encoded stream that is encoded by reducing the bit depth of full-color image data having a bit depth of more than 8 bits to 8 bits ( Step S200). Then, the stream acquisition unit 210 outputs the acquired first encoded stream to the first decoding branch 220.

次に、第1復号ブランチ220において、第1復号部222は、ストリーム取得部210から入力される第1の符号化ストリームをJPEG方式で復号して、第1の画像データを生成する(ステップS210)。そして、第1復号部222は、生成した第1の画像データをRGB変換・深度拡張部228へ出力する。   Next, in the first decoding branch 220, the first decoding unit 222 decodes the first encoded stream input from the stream acquisition unit 210 by the JPEG method to generate first image data (step S210). ). Then, the first decoding unit 222 outputs the generated first image data to the RGB conversion / depth extension unit 228.

また、ストリーム取得部210は、第1の符号化ストリームに第2の符号化ストリームが関連付けられているかを判定する(ステップS215)。例えば、第1の符号化ストリームのヘッダ領域に第2の符号化ストリームにアクセスするための参照用パラメータが挿入されている場合には、ストリーム取得部210は、第1の符号化ストリームに第2の符号化ストリームが関連付けられていると判定し得る。ここで、第1の符号化ストリームに第2の符号化ストリームが関連付けられていると判定された場合には、処理はステップS220へ進む。一方、第1の符号化ストリームに第2の符号化ストリームが関連付けられていないと判定された場合には、処理はステップS290へ進む。   Further, the stream acquisition unit 210 determines whether the second encoded stream is associated with the first encoded stream (step S215). For example, when a reference parameter for accessing the second encoded stream is inserted in the header area of the first encoded stream, the stream acquisition unit 210 adds the second parameter to the first encoded stream. May be determined to be associated with each other. Here, when it is determined that the second encoded stream is associated with the first encoded stream, the process proceeds to step S220. On the other hand, when it is determined that the second encoded stream is not associated with the first encoded stream, the process proceeds to step S290.

ステップS220において、RGB変換・深度拡張部228は、第1の画像データの色空間をYC空間からRGB空間に変換し、そのビット深度を各色Mビットに拡張して、高階調画像データを復元する(ステップS220)。そして、RGB変換・深度拡張部228は、復元した高階調画像データを逆処理部260へ出力する。   In step S220, the RGB conversion / depth extension unit 228 converts the color space of the first image data from the YC space to the RGB space, extends the bit depth to each color M bits, and restores the high gradation image data. (Step S220). Then, the RGB conversion / depth extension unit 228 outputs the restored high gradation image data to the inverse processing unit 260.

次に、逆処理部260は、RGB変換・深度拡張部228から入力される高階調画像データに上述した逆処理を適用して、第1のフルカラー画像データを復元する(ステップS225)。そして、逆処理部260は、復元した第1のフルカラー画像データIM0´を合成部270へ出力する。   Next, the inverse processing unit 260 restores the first full-color image data by applying the above-described inverse processing to the high gradation image data input from the RGB conversion / depth extension unit 228 (step S225). Then, the inverse processing unit 260 outputs the restored first full-color image data IM0 ′ to the synthesis unit 270.

また、ストリーム取得部210は、上述した参照用パラメータを用いて、第2の符号化ストリームを取得する(ステップS230)。そして、ストリーム取得部210は、取得した第2の符号化ストリームを第2復号ブランチ230へ出力する。   Further, the stream acquisition unit 210 acquires the second encoded stream using the reference parameter described above (step S230). Then, the stream acquisition unit 210 outputs the acquired second encoded stream to the second decoding branch 230.

次に、第2復号ブランチ230において、差分復号処理が実行され、第2の画像データが合成部270へ出力される(ステップS240)。ここでの差分復号処理について、図13を用いてさらに説明する。   Next, in the second decoding branch 230, differential decoding processing is executed, and second image data is output to the synthesizing unit 270 (step S240). The differential decoding process here will be further described with reference to FIG.

次に、合成部270は、逆処理部260から入力される第1のフルカラー画像データと、第2復号ブランチ230から入力される第2の画像データとを合成する(ステップS270)。そして、合成部270は、再構成されたフルカラー画像データを画像出力部280へ出力する。   Next, the synthesizing unit 270 synthesizes the first full-color image data input from the inverse processing unit 260 and the second image data input from the second decoding branch 230 (step S270). Then, the synthesis unit 270 outputs the reconstructed full color image data to the image output unit 280.

その後、例えば、画像出力部280から表示装置へ再構成されたフルカラー画像データが出力され、フルカラー画像が表示され得る(ステップS280)。   Thereafter, for example, the reconstructed full-color image data is output from the image output unit 280 to the display device, and a full-color image can be displayed (step S280).

一方、ステップS215において、第1の符号化ストリームに第2の符号化ストリームが関連付けられていないと判定された場合には、第1復号部222により生成された第1の画像データが画像出力部280から表示装置へ出力され得る。そして、当該第1の画像データを用いて、画像が表示され得る(ステップS290)。   On the other hand, when it is determined in step S215 that the second encoded stream is not associated with the first encoded stream, the first image data generated by the first decoding unit 222 is the image output unit. 280 can be output to the display device. Then, an image can be displayed using the first image data (step S290).

(2)差分復号処理
図13は、図12に示した差分復号処理の詳細な流れの一例を示すフローチャートである。
(2) Differential Decoding Process FIG. 13 is a flowchart illustrating an example of a detailed flow of the differential decoding process illustrated in FIG.

図13を参照すると、まず、第2復号部231は、ストリーム取得部210から入力される第2の符号化ストリームを、当該第2の符号化ストリームの符号化の際に使用された画像符号化方式で復号して、第2の画像データを生成する(ステップS241)。   Referring to FIG. 13, first, the second decoding unit 231 uses the second encoded stream input from the stream acquisition unit 210 as the image encoding used when the second encoded stream is encoded. The second image data is generated by decoding using the method (step S241).

次に、第2の画像データの色空間を変換すべきか否かが判定される(ステップS242)。例えば、第2の画像データを復号するためにJPEG方式が用いられた場合には、第2の画像データの色空間をYC空間からRGB空間に変換すべきであると判定され得る。第2の画像データの色空間を変換すべきであると判定された場合には、RGB変換部233により、第2の画像データの色空間がRGB空間に変換される(ステップS243)。   Next, it is determined whether or not the color space of the second image data should be converted (step S242). For example, when the JPEG method is used to decode the second image data, it can be determined that the color space of the second image data should be converted from the YC space to the RGB space. If it is determined that the color space of the second image data should be converted, the RGB conversion unit 233 converts the color space of the second image data into the RGB space (step S243).

次に、逆正規化部235は、符号化の際に正規化された第2の画像データの画素値を、符号化ストリームのヘッダ領域に挿入されている正規化パラメータを用いて、差分画素値に逆正規化する(ステップS244)。   Next, the inverse normalization unit 235 uses the normalization parameter inserted into the header area of the encoded stream to calculate the difference pixel value of the pixel value of the second image data normalized at the time of encoding. Is denormalized (step S244).

次に、第2の画像データのサイズを拡大すべきか否かが判定される(ステップS245)。例えば、上述した第1及び第3の実施例においては、第2の画像データのサイズは拡大されない。一方、上述した第2及び第4の実施例においては、第2の画像データのサイズは拡大され得る。第2の画像データのサイズを拡大すべきであると判定された場合には、第2の画像データのサイズが拡大部237により拡大される(ステップS246)。   Next, it is determined whether or not the size of the second image data should be enlarged (step S245). For example, in the first and third embodiments described above, the size of the second image data is not enlarged. On the other hand, in the second and fourth embodiments described above, the size of the second image data can be enlarged. If it is determined that the size of the second image data should be enlarged, the size of the second image data is enlarged by the enlargement unit 237 (step S246).

(3)全体的な流れの他の例
図14は、本実施形態に係る画像符号化処理の流れの他の例を示すフローチャートである。図14に示したステップS200からステップS225までの処理及びステップS290の処理は、図12を用いて説明した処理と同様であってよい。
(3) Another Example of Overall Flow FIG. 14 is a flowchart showing another example of the flow of image encoding processing according to the present embodiment. The process from step S200 to step S225 and the process of step S290 illustrated in FIG. 14 may be the same as the process described with reference to FIG.

第1の符号化ストリームに第2の符号化ストリームが関連付けられていると判定される場合、ストリーム取得部210は、上述した参照用パラメータを用いて、2つの差分画像の符号化ストリームを取得する(ステップS230)。そして、ストリーム取得部210は、取得した符号化ストリームを第2復号ブランチ230へ出力する。   When it is determined that the second encoded stream is associated with the first encoded stream, the stream acquisition unit 210 acquires the encoded streams of the two difference images using the reference parameters described above. (Step S230). Then, the stream acquisition unit 210 outputs the acquired encoded stream to the second decoding branch 230.

次に、第2復号ブランチ230において、白とび用の差分画像の符号化ストリームについて差分復号処理が実行され、白とび用の差分画像データが生成される(ステップS240a)。ここでの処理は、図13を用いて説明した差分復号処理と同様であってよい。   Next, in the second decoding branch 230, a differential decoding process is performed on the encoded stream of the whiteout difference image, and whiteout difference image data is generated (step S240a). The process here may be the same as the differential decoding process described with reference to FIG.

また、第2復号ブランチ230において、黒つぶれ用の差分画像の符号化ストリームについて差分復号処理が実行され、黒つぶれ用の差分画像データが生成される(ステップS240b)。ここでの処理もまた、図13を用いて説明した差分復号処理と同様であってよい。   Further, in the second decoding branch 230, a differential decoding process is performed on the encoded stream of the blackout difference image, and blackout difference image data is generated (step S240b). The process here may also be the same as the differential decoding process described with reference to FIG.

次に、差分合成部240により、2つの差分画像データを合成するための差分合成処理が実行される(ステップS260)。それにより、第2の画像データが生成される。そして、差分合成部240は、生成した第2の画像データを合成部270へ出力する。ここでの差分合成処理について、図15を用いてさらに説明する。   Next, the difference synthesis unit 240 executes a difference synthesis process for synthesizing the two difference image data (step S260). Thereby, second image data is generated. Then, the difference synthesis unit 240 outputs the generated second image data to the synthesis unit 270. The difference synthesis process here will be further described with reference to FIG.

次に、合成部270は、逆処理部260から入力される第1のフルカラー画像データと、差分合成部240から入力される第2の画像データとを合成する(ステップS270)。そして、合成部270は、再構成されたフルカラー画像データを画像出力部280へ出力する。   Next, the synthesizing unit 270 synthesizes the first full-color image data input from the inverse processing unit 260 and the second image data input from the difference synthesizing unit 240 (step S270). Then, the synthesis unit 270 outputs the reconstructed full color image data to the image output unit 280.

その後、例えば、画像出力部280から表示装置へ再構成されたフルカラー画像データが出力され、フルカラー画像が表示され得る(ステップS280)。   Thereafter, for example, the reconstructed full-color image data is output from the image output unit 280 to the display device, and a full-color image can be displayed (step S280).

(4)差分合成処理
図15は、図14に示した差分合成処理の詳細な流れの一例を示すフローチャートである。
(4) Difference Synthesis Process FIG. 15 is a flowchart showing an example of a detailed flow of the difference synthesis process shown in FIG.

図15に示した差分合成処理に含まれるステップS262〜ステップS265の処理は、第2の画像データの各画素について繰り返される(ステップS261)。   The processes in steps S262 to S265 included in the difference synthesis process shown in FIG. 15 are repeated for each pixel of the second image data (step S261).

各画素を注目画素とする繰り返しにおいて、差分合成部240は、まず、第1の画像データの注目画素の輝度値を取得する(ステップS262)。次に、差分合成部240は、取得した輝度値を輝度閾値(典型的には、画素値レンジの中央の値)と比較する(ステップS263)。ここで、例えば輝度値が輝度閾値よりも小さくない場合には、差分合成部240は、第2の画像データの注目画素の画素値として、白とび用の差分画像データの画素値を採用する(ステップS264)。一方、輝度値が輝度閾値よりも小さい場合には、差分合成部240は、第2の画像データの注目画素の画素値として、黒つぶれ用の差分画像データの画素値を採用する(ステップS265)。   In the repetition using each pixel as the target pixel, the difference synthesis unit 240 first acquires the luminance value of the target pixel of the first image data (step S262). Next, the difference synthesizer 240 compares the acquired luminance value with a luminance threshold value (typically, the central value of the pixel value range) (step S263). Here, for example, when the luminance value is not smaller than the luminance threshold value, the difference synthesis unit 240 adopts the pixel value of the overexposed difference image data as the pixel value of the target pixel of the second image data ( Step S264). On the other hand, when the luminance value is smaller than the luminance threshold, the difference synthesis unit 240 adopts the pixel value of the blackout difference image data as the pixel value of the target pixel of the second image data (step S265). .

第2の画像データの全ての画素についてこれら処理が実行されると、図15に示した差分合成処理は終了する。   When these processes are executed for all the pixels of the second image data, the difference synthesis process shown in FIG. 15 ends.

なお、本項で説明した処理ステップの順序は、各図に示した順序に限定されない。例えば、図14の画像復号処理において、ステップS240a及びステップS240bの2つの差分復号処理が並列的に行われてもよい。   Note that the order of the processing steps described in this section is not limited to the order shown in the drawings. For example, in the image decoding process of FIG. 14, the two differential decoding processes of step S240a and step S240b may be performed in parallel.

<3.応用例>
本開示に係る技術は、RAW画像から現像されるフルカラー画像を扱う様々な製品に応用可能である。本節では、図16A及び図16Bを用いて、典型的な2つの応用例について説明する。第1の応用例では、デジタルカメラに相当し得る画像処理装置300が実現される。第2の応用例では、フォトエディタが動作するPC(Personal Computer)に相当し得る画像処理装置400が実現される。
<3. Application example>
The technology according to the present disclosure can be applied to various products that handle full-color images developed from RAW images. In this section, two typical applications will be described with reference to FIGS. 16A and 16B. In the first application example, an image processing apparatus 300 that can correspond to a digital camera is realized. In the second application example, an image processing apparatus 400 that can correspond to a PC (Personal Computer) on which a photo editor operates is realized.

(1)第1の応用例
図16Aは、第1の応用例に係る画像処理装置300の構成の一例を示すブロック図である。図16Aを参照すると、画像処理装置300は、操作部310、制御部320、イメージセンサ330、符号化部100、記憶媒体340、復号部200及びディスプレイ350を備える。
(1) First Application Example FIG. 16A is a block diagram illustrating an example of a configuration of an image processing apparatus 300 according to a first application example. Referring to FIG. 16A, the image processing apparatus 300 includes an operation unit 310, a control unit 320, an image sensor 330, an encoding unit 100, a storage medium 340, a decoding unit 200, and a display 350.

操作部310は、画像処理装置300の様々な機能をユーザが操作するための操作インタフェースをユーザに提供する。   The operation unit 310 provides an operation interface for the user to operate various functions of the image processing apparatus 300.

制御部320は、画像処理装置300の機能全般を制御する。例えば、制御部320は、操作部310により受け付けられるユーザの第1の操作に応じて、イメージセンサ330にRAW画像を撮像させる。そして、制御部320は、撮像されたRAW画像に基づいて符号化部100により生成される符号化ストリームを、記憶媒体340に記憶させる。また、制御部320は、ユーザの第2の操作に応じて、記憶媒体340により記憶されている符号化ストリームを復号部200へ入力し、復号部200によりフルカラー画像データを再構成させる。そして、制御部320は、再構成されたフルカラー画像データを用いて、ディスプレイ350によりフルカラー画像を表示させる。   The control unit 320 controls the overall functions of the image processing apparatus 300. For example, the control unit 320 causes the image sensor 330 to capture a RAW image in response to a first user operation received by the operation unit 310. Then, the control unit 320 causes the storage medium 340 to store the encoded stream generated by the encoding unit 100 based on the captured RAW image. Further, the control unit 320 inputs the encoded stream stored in the storage medium 340 to the decoding unit 200 in accordance with the second operation of the user, and causes the decoding unit 200 to reconstruct full-color image data. Then, the control unit 320 causes the display 350 to display a full color image using the reconstructed full color image data.

イメージセンサ330は、CCD又はCMOSなどの撮像素子を含み、実世界の光を感知してRAW画像を撮像する。   The image sensor 330 includes an image sensor such as a CCD or a CMOS, and senses real world light to capture a RAW image.

符号化部100は、上述した画像符号化装置100と同等の構成を有する。符号化部100は、イメージセンサ330により生成されるRAW画像データを取得して上述した画像符号化処理を実行し、第1及び第2の符号化ストリームを記憶媒体340へ出力する。第2の符号化ストリームは、第1の符号化ストリームに関連付けられる。   The encoding unit 100 has a configuration equivalent to that of the image encoding device 100 described above. The encoding unit 100 acquires the RAW image data generated by the image sensor 330, executes the above-described image encoding process, and outputs the first and second encoded streams to the storage medium 340. The second encoded stream is associated with the first encoded stream.

記憶媒体340は、符号化部100から出力される第1及び第2の符号化ストリームを記憶する。   The storage medium 340 stores the first and second encoded streams output from the encoding unit 100.

復号部200は、上述した画像復号装置200と同等の構成を有する。復号部200は、記憶媒体340から第1及び第2の符号化ストリームを取得して上述した画像復号処理を実行し、各色についてRAW画像データと同等のビット深度を有するフルカラー画像データを再構成する。   The decoding unit 200 has a configuration equivalent to that of the image decoding device 200 described above. The decoding unit 200 acquires the first and second encoded streams from the storage medium 340, executes the above-described image decoding process, and reconstructs full-color image data having a bit depth equivalent to RAW image data for each color. .

ディスプレイ350は、液晶又はOLED(Organic Light Emitting Diode)などの表示素子を含み、復号部200により再構成されるフルカラー画像データを用いてフルカラー画像を表示する。   The display 350 includes a display element such as liquid crystal or OLED (Organic Light Emitting Diode), and displays a full-color image using the full-color image data reconstructed by the decoding unit 200.

(2)第2の応用例
図16Bは、第2の応用例に係る画像処理装置400の構成の一例を示すブロック図である。図16Bを参照すると、画像処理装置400は、操作部410、制御部420、記憶媒体440、通信インタフェース450、及びディスプレイ460を備える。
(2) Second Application Example FIG. 16B is a block diagram illustrating an example of a configuration of an image processing apparatus 400 according to a second application example. Referring to FIG. 16B, the image processing apparatus 400 includes an operation unit 410, a control unit 420, a storage medium 440, a communication interface 450, and a display 460.

操作部410は、画像処理装置400の様々な機能をユーザが操作するための操作インタフェースをユーザに提供する。   The operation unit 410 provides an operation interface for the user to operate various functions of the image processing apparatus 400.

制御部420は、画像処理装置400の機能全般を制御する。本応用例において、制御部420は、符号化部100、復号部200及びアプリケーション部430を含む。   The control unit 420 controls overall functions of the image processing apparatus 400. In this application example, the control unit 420 includes an encoding unit 100, a decoding unit 200, and an application unit 430.

アプリケーション部430は、フォトエディタ機能を実現するアプリケーションモジュールである。アプリケーション部430は、例えば、操作部410により受け付けられるユーザの第1の操作に応じて、記憶媒体440により記憶され又は通信インタフェース450を介して受信される第1及び第2の符号化ストリームから、復号部200によりフルカラー画像データを再構成させる。そして、アプリケーション部430は、再構成されたフルカラー画像データを用いて、ディスプレイ460にフルカラー画像を表示させる。また、アプリケーション部430は、表示されたフルカラー画像がユーザにより編集された後、ユーザの第2の操作に応じて、編集後のフルカラー画像データを符号化部100により符号化させる。そして、アプリケーション部430は、符号化部100により生成される第1及び第2の符号化ストリームを記憶媒体440に記憶させる。   The application unit 430 is an application module that implements a photo editor function. The application unit 430, for example, from the first and second encoded streams stored in the storage medium 440 or received via the communication interface 450 according to the first operation of the user received by the operation unit 410. Full-color image data is reconstructed by the decoding unit 200. Then, the application unit 430 causes the display 460 to display a full color image using the reconstructed full color image data. In addition, after the displayed full-color image is edited by the user, the application unit 430 causes the encoding unit 100 to encode the edited full-color image data in accordance with the user's second operation. Then, the application unit 430 stores the first and second encoded streams generated by the encoding unit 100 in the storage medium 440.

符号化部100は、上述した画像符号化装置100と同等の構成を有する符号化モジュールである。符号化部100は、ユーザにより編集されるフルカラー画像データを取得して上述した画像符号化処理を実行し、第1及び第2の符号化ストリームを記憶媒体440へ出力する。第2の符号化ストリームは、第1の符号化ストリームに関連付けられる。   The encoding unit 100 is an encoding module having a configuration equivalent to that of the image encoding device 100 described above. The encoding unit 100 acquires full-color image data edited by the user, executes the above-described image encoding processing, and outputs the first and second encoded streams to the storage medium 440. The second encoded stream is associated with the first encoded stream.

復号部200は、上述した画像復号装置200と同等の構成を有する復号モジュールである。復号部200は、アプリケーション部430により指定される第1及び第2の符号化ストリームを取得して上述した画像復号処理を実行し、各色についてRAW画像データと同等のビット深度を有するフルカラー画像データを再構成する。   The decoding unit 200 is a decoding module having a configuration equivalent to that of the image decoding device 200 described above. The decoding unit 200 acquires the first and second encoded streams specified by the application unit 430 and executes the above-described image decoding process, and obtains full-color image data having a bit depth equivalent to the RAW image data for each color. Reconfigure.

記憶媒体440は、符号化部100から出力され又は復号部200へ入力される第1及び第2の符号化ストリームを記憶する。   The storage medium 440 stores the first and second encoded streams that are output from the encoding unit 100 or input to the decoding unit 200.

通信インタフェース450は、任意の有線通信方式又は無線通信方式に従って、画像処理装置400を他の装置と接続する。   The communication interface 450 connects the image processing apparatus 400 to another apparatus according to an arbitrary wired communication system or wireless communication system.

ディスプレイ460は、液晶又はOLEDなどの表示素子を含み、復号部200により再構成されるフルカラー画像データを用いてフルカラー画像を表示する。ディスプレイ460は、アプリケーション部430による制御の下、フルカラー画像をユーザが編集するためのグラフィカルユーザインタフェース(GUI)をも表示し得る。   The display 460 includes a display element such as a liquid crystal or an OLED, and displays a full color image using the full color image data reconstructed by the decoding unit 200. The display 460 may also display a graphical user interface (GUI) for a user to edit a full color image under the control of the application unit 430.

<4.まとめ>
ここまで、図1〜図16Bを用いて、本開示に係る技術の一実施形態及びその応用例について詳細に説明した。上述した実施形態によれば、フルカラー画像データを符号化する際には、様々な処理を通じてJPEG方式で符号化された第1の画像データが第1の符号化ストリームに格納され、それら処理により生じる誤差を表現する差分画像に基づく第2の画像データが第2の符号化ストリームに格納され、第2の符号化ストリームが第1の符号化ストリームに関連付けられる。そして、復号の際には、第1の符号化ストリームをJPEG方式で復号して第1の画像データが生成され、第2の符号化ストリームを復号して第2の画像データが生成され、復号された第1及び第2の画像データを用いてフルカラー画像データが再構成される。従って、8ビットのJPEG方式で符号化及び復号される第1の画像データでは表現されない精細な階調を第2の画像データで補償して、より階調の高い画像を再構成することができる。また、第1の画像データ自体はJPEG方式で符号化されるため、広く普及しているJPEGデコーダで少なくとも第1の画像データを復号することが可能であり、即ち、JPEGデコーダとの互換性が確保される。
<4. Summary>
Up to this point, an embodiment of the technology according to the present disclosure and an application example thereof have been described in detail with reference to FIGS. According to the above-described embodiment, when encoding full-color image data, the first image data encoded by the JPEG method through various processes is stored in the first encoded stream, and is generated by these processes. Second image data based on the difference image representing the error is stored in the second encoded stream, and the second encoded stream is associated with the first encoded stream. At the time of decoding, the first encoded stream is decoded by the JPEG method to generate first image data, the second encoded stream is decoded to generate second image data, and the decoding is performed. Full-color image data is reconstructed using the first and second image data. Therefore, it is possible to reconstruct an image with a higher gradation by compensating the fine gradation that is not expressed in the first image data encoded and decoded by the 8-bit JPEG method with the second image data. . In addition, since the first image data itself is encoded by the JPEG method, at least the first image data can be decoded by a widely used JPEG decoder, that is, compatibility with the JPEG decoder is possible. Secured.

また、上記差分画像に基づく第2の画像データもJPEG方式で符号化される場合には、第1及び第2の画像データの双方について既存のJPEGエンジン(エンコーダ/デコーダ)を活用できるため、より低いコストで本開示に係る技術を実現することができる。   In addition, when the second image data based on the difference image is also encoded by the JPEG method, the existing JPEG engine (encoder / decoder) can be used for both the first and second image data. The technology according to the present disclosure can be realized at a low cost.

また、上記差分画像の階調は、通常は小さく、デモザイク処理後の様々な処理を通じて失われ易い。しかし、差分画像の符号化の前に、画像符号化方式によりサポートされる画素値レンジに合わせて画素値が正規化されることで、小さな階調を失うことなく差分画像を符号化することができる。   Further, the gradation of the difference image is usually small and easily lost through various processes after the demosaic process. However, before encoding the difference image, the pixel value is normalized according to the pixel value range supported by the image encoding method, so that the difference image can be encoded without losing a small gradation. it can.

また、第2の画像データの符号化の前に、当該第2の画像データのサイズが縮小されてもよい。また、高周波成分が強い値を示す画素位置の第2の画像データの画素値が、一定の値に置換されてもよい。また、画素値レンジの中央部分に属する輝度値を示す画素位置の第2の画像データの画素値が、一定の値に置換されてもよい。それにより、第2の画像データで補償される画質を大きく減殺することなく、第2の符号化ストリームの符号化効率を高めることができる。   In addition, the size of the second image data may be reduced before encoding the second image data. Further, the pixel value of the second image data at the pixel position where the high frequency component shows a strong value may be replaced with a constant value. Further, the pixel value of the second image data at the pixel position indicating the luminance value belonging to the central portion of the pixel value range may be replaced with a constant value. Accordingly, it is possible to increase the encoding efficiency of the second encoded stream without greatly reducing the image quality compensated with the second image data.

また、第2の画像データの符号化は、白とびが生じる可能性のある領域と黒つぶれが生じる可能性のある領域とで別々に行われてもよい。一般的に、白とびが生じる領域と黒つぶれが生じる領域との間の画像の相関は低い。従って、これら領域について差分画像の符号化及び復号を別々に行うことで、これら領域において第2の画像データで補償される画質を高めることができる。   The encoding of the second image data may be performed separately for an area where overexposure may occur and an area where blackout may occur. In general, the correlation between images between a region where whiteout occurs and a region where blackout occurs is low. Therefore, by separately encoding and decoding the difference image for these regions, the image quality compensated with the second image data in these regions can be improved.

また、上述した実施形態によれば、第1の符号化ストリームのヘッダ領域に、第2の符号化ストリームにアクセスするためのパラメータが挿入される。かかる構成によれば、画像を復号しようとするデコーダは、第2の符号化ストリームが関連付けられているか否かによらず、一般的な画像復号処理と同様に、まず第1の符号化ストリームのヘッダを読み込む。そして、当該デコーダは、第2の符号化ストリームが関連付けられていない場合には、JPEG符号化された第1の画像データのみを復号することができる。一方で、第2の符号化ストリームが関連付けられている場合には、当該デコーダは、第2の画像データをさらに復号してフルカラー画像データを再構成することができる。この場合、JPEG符号化された画像データのみを復号する際の処理の流れは改変されないため、既存のJPEGエンジンを拡張して本開示に係る技術を実装することも容易である。   Further, according to the above-described embodiment, a parameter for accessing the second encoded stream is inserted into the header area of the first encoded stream. According to such a configuration, a decoder that intends to decode an image first determines whether the first encoded stream is the same as the general image decoding process regardless of whether or not the second encoded stream is associated. Read the header. Then, when the second encoded stream is not associated, the decoder can decode only the first image data that has been JPEG encoded. On the other hand, when the second encoded stream is associated, the decoder can further decode the second image data to reconstruct full-color image data. In this case, since the processing flow when only JPEG-encoded image data is decoded is not modified, it is easy to extend the existing JPEG engine and implement the technology according to the present disclosure.

なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPU(Central Processing Unit)などのプロセッサにより実行される。   Note that a series of control processing by each device described in this specification may be realized using any of software, hardware, and a combination of software and hardware. For example, a program constituting the software is stored in advance in a storage medium provided inside or outside each device. Each program is read into a RAM (Random Access Memory) at the time of execution and executed by a processor such as a CPU (Central Processing Unit).

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。   The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
8ビットより多くのビット深度を有するフルカラー画像データのビット深度を8ビットに削減して符号化された第1の符号化ストリーム、及び前記第1の符号化ストリームに関連付けられる第2の符号化ストリームを取得するストリーム取得部と、
前記第1の符号化ストリームをJPEG(Joint Photographic Experts Group)方式で復号して第1の画像データを生成する第1復号部と、
前記第2の符号化ストリームを復号して第2の画像データを生成する第2復号部と、
前記第1の画像データを用いて復元されるフルカラー画像データと前記第2の画像データとを合成する合成部と、
を備える画像処理装置。
(2)
前記第2の画像データは、第1のフルカラー画像データと、前記第1のフルカラー画像データに適用された処理の逆処理を当該処理の結果に適用することにより生成された第2のフルカラー画像データと、の差分画像に基づく、前記(1)に記載の画像処理装置。
(3)
前記第2復号部は、前記第2の符号化ストリームをJPEG方式で復号する、前記(2)に記載の画像処理装置。
(4)
前記画像処理装置は、前記第2復号部によりサポートされる画素値レンジに合わせて正規化された前記第2の画像データの画素値を逆正規化する逆正規化部、をさらに備える、前記(2)又は前記(3)に記載の画像処理装置。
(5)
前記画像処理装置は、前記第2復号部により生成された前記第2の画像データのサイズを復元すべきフルカラー画像データのサイズに合わせて拡大する拡大部、をさらに備え、
前記合成部は、前記第1の画像データを用いて復元されるフルカラー画像データと前記拡大部により拡大された前記第2の画像データとを合成する、
前記(2)又は前記(3)に記載の画像処理装置。
(6)
前記第2の符号化ストリームは、第1グループの差分画素値を含むストリーム及び第2グループの差分画素値を含むストリームを含み、
前記第1グループは、白とびが生じる可能性のある画素のためのグループであり、
前記第2グループは、黒つぶれが生じる可能性のある画素のためのグループであり、
前記第2復号部は、前記第1グループ及び前記第2グループの2つのストリームをそれぞれ復号し、
前記第2の画像データは、前記第1グループのストリームから復号された画素値又は前記第2グループのストリームから復号された画素値を画素位置に応じて選択的に採用することにより生成される、
前記(2)〜(5)のいずれか1項に記載の画像処理装置。
(7)
前記ストリーム取得部は、前記第1の符号化ストリームに付加されるヘッダに挿入されるパラメータを用いて、前記第2の符号化ストリームを取得する、前記(2)〜(6)のいずれか1項に記載の画像処理装置。
(8)
前記第1のフルカラー画像データは、RAW画像データをデモザイク処理することにより生成された画像データである、前記(2)〜(7)のいずれか1項に記載の画像処理装置。
(9)
前記画像処理装置は、前記合成部により再構成されるフルカラー画像データを用いてフルカラー画像を表示装置に表示させる表示制御部、をさらに備える、前記(1)〜(8)のいずれか1項に記載の画像処理装置。
(10)
8ビットより多くのビット深度を有する第1のフルカラー画像データから第1の画像データを生成する処理部と、
ビット深度を8ビットに削減された前記第1の画像データをJPEG(Joint Photographic Experts Group)方式で符号化して第1の符号化ストリームを生成する第1符号化部と、
前記処理部により前記第1のフルカラー画像データに適用された処理の逆処理を当該処理の結果に適用して、第2のフルカラー画像データを生成する逆処理部と、
前記第1のフルカラー画像データと前記第2のフルカラー画像データとの差分画像に基づく第2の画像データを符号化して第2の符号化ストリームを生成する第2符号化部と、
前記第2の符号化ストリームを前記第1の符号化ストリームに関連付けて出力するストリーム出力部と、
を備える画像処理装置。
(11)
前記第2符号化部は、前記第2の画像データをJPEG方式で符号化する、前記(10)に記載の画像処理装置。
(12)
前記画像処理装置は、前記第2の画像データの画素値を前記第2符号化部によりサポートされる画素値レンジに合わせて正規化する正規化部、をさらに備える、前記(10)又は前記(11)に記載の画像処理装置。
(13)
前記画像処理装置は、前記第2の画像データのサイズを縮小する縮小部、をさらに備え、
前記第2符号化部は、前記縮小部により縮小された前記第2の画像データを符号化する、
前記(10)〜(12)のいずれか1項に記載の画像処理装置。
(14)
前記画像処理装置は、前記第1のフルカラー画像データにおいて高周波成分が強い値を示す画素位置の前記第2の画像データの画素値を一定の値に置換する差分加工部、をさらに備える、前記(10)〜(13)のいずれか1項に記載の画像処理装置。
(15)
前記画像処理装置は、前記第1のフルカラー画像データにおいて輝度が画素値レンジの中央部分に属する画素位置の前記第2の画像データの画素値を一定の値に置換する差分加工部、をさらに備える、前記(10)〜(14)のいずれか1項に記載の画像処理装置。
(16)
前記画像処理装置は、所定の輝度閾値を用いて、白とびが生じる可能性のある画素のための第1グループ及び黒つぶれが生じる可能性のある画素のための第2グループを含む複数のグループのいずれかに各画素を分類する分類部、をさらに備え、
前記第2符号化部は、前記第1グループの画素についての前記第2の画像データと前記第2グループの画素についての前記第2の画像データとを別々に符号化する、
前記(10)〜(15)のいずれか1項に記載の画像処理装置。
(17)
前記ストリーム出力部は、前記第2の符号化ストリームにアクセスするためのパラメータを前記第1の符号化ストリームに付加されるヘッダに挿入する、前記(10)〜(16)のいずれか1項に記載の画像処理装置。
(18)
前記第1のフルカラー画像データは、RAW画像データをデモザイク処理することにより生成される画像データである、前記(10)〜(17)のいずれか1項に記載の画像処理装置。
(19)
前記画像処理装置は、RAW画像を撮像するイメージセンサ、をさらに備える、前記(18)に記載の画像処理装置。
(20)
コンピュータを、
8ビットより多くのビット深度を有するフルカラー画像データのビット深度を8ビットに削減して符号化された第1の符号化ストリーム、及び前記第1の符号化ストリームに関連付けられる第2の符号化ストリームを取得するストリーム取得部と、
前記第1の符号化ストリームをJPEG(Joint Photographic Experts Group)方式で復号して第1の画像データを生成する第1復号部と、
前記第2の符号化ストリームを復号して第2の画像データを生成する第2復号部と、
前記第1の画像データを用いて復元されるフルカラー画像データと前記第2の画像データとを合成する合成部と、
として機能させるためのプログラム。
(21)
コンピュータを、
8ビットより多くのビット深度を有する第1のフルカラー画像データから第1の画像データを生成する処理部と、
ビット深度を8ビットに削減された前記第1の画像データをJPEG(Joint Photographic Experts Group)方式で符号化して第1の符号化ストリームを生成する第1符号化部と、
前記処理部により前記第1のフルカラー画像データに適用された処理の逆処理を当該処理の結果に適用して、第2のフルカラー画像データを生成する逆処理部と、
前記第1のフルカラー画像データと前記第2のフルカラー画像データとの差分画像に基づく第2の画像データを符号化して第2の符号化ストリームを生成する第2符号化部と、
前記第2の符号化ストリームを前記第1の符号化ストリームに関連付けて出力するストリーム出力部と、
として機能させるためのプログラム。
(22)
8ビットより多くのビット深度を有するフルカラー画像データのビット深度を8ビットに削減して符号化された第1の符号化ストリーム、及び前記第1の符号化ストリームに関連付けられる第2の符号化ストリームを取得することと、
前記第1の符号化ストリームをJPEG(Joint Photographic Experts Group)方式で復号して第1の画像データを生成することと、
前記第2の符号化ストリームを復号して第2の画像データを生成することと、
前記第1の画像データを用いて復元されるフルカラー画像データと前記第2の画像データとを合成することと、
を含む画像処理方法。
(23)
8ビットより多くのビット深度を有する第1のフルカラー画像データから第1の画像データを生成することと、
ビット深度を8ビットに削減された前記第1の画像データをJPEG(Joint Photographic Experts Group)方式で符号化して第1の符号化ストリームを生成することと、
前記第1のフルカラー画像データに適用された処理の逆処理を当該処理の結果に適用して、第2のフルカラー画像データを生成することと、
前記第1のフルカラー画像データと前記第2のフルカラー画像データとの差分画像に基づく第2の画像データを符号化して第2の符号化ストリームを生成することと、
前記第2の符号化ストリームを前記第1の符号化ストリームに関連付けて出力することと、
を含む画像処理方法。
The following configurations also belong to the technical scope of the present disclosure.
(1)
A first encoded stream encoded by reducing the bit depth of full-color image data having a bit depth of more than 8 bits to 8 bits, and a second encoded stream associated with the first encoded stream A stream acquisition unit for acquiring
A first decoding unit that decodes the first encoded stream by a JPEG (Joint Photographic Experts Group) method to generate first image data;
A second decoding unit for decoding the second encoded stream to generate second image data;
A combining unit that combines the full-color image data restored using the first image data and the second image data;
An image processing apparatus comprising:
(2)
The second image data includes first full-color image data and second full-color image data generated by applying a reverse process of the process applied to the first full-color image data to the result of the process. The image processing apparatus according to (1), based on a difference image of
(3)
The image processing apparatus according to (2), wherein the second decoding unit decodes the second encoded stream by a JPEG method.
(4)
The image processing apparatus further includes a denormalization unit that denormalizes a pixel value of the second image data normalized according to a pixel value range supported by the second decoding unit. The image processing apparatus according to 2) or (3).
(5)
The image processing apparatus further includes an enlargement unit that enlarges the size of the second image data generated by the second decoding unit in accordance with the size of full-color image data to be restored,
The combining unit combines the full-color image data restored using the first image data and the second image data enlarged by the enlargement unit;
The image processing apparatus according to (2) or (3).
(6)
The second encoded stream includes a stream including a first group of difference pixel values and a stream including a second group of difference pixel values;
The first group is a group for pixels in which overexposure may occur,
The second group is a group for pixels in which blackout may occur,
The second decoding unit decodes two streams of the first group and the second group, respectively.
The second image data is generated by selectively adopting pixel values decoded from the first group of streams or pixel values decoded from the second group of streams according to pixel positions.
The image processing apparatus according to any one of (2) to (5).
(7)
The stream acquisition unit acquires the second encoded stream using a parameter inserted in a header added to the first encoded stream, and any one of (2) to (6) The image processing apparatus according to item.
(8)
The image processing apparatus according to any one of (2) to (7), wherein the first full-color image data is image data generated by demosaicing RAW image data.
(9)
The said image processing apparatus is further provided with the display control part which displays a full-color image on a display apparatus using the full-color image data reconfigure | reconstructed by the said synthetic | combination part, The said any one of (1)-(8) The image processing apparatus described.
(10)
A processing unit for generating first image data from first full-color image data having a bit depth greater than 8 bits;
A first encoder that encodes the first image data with a bit depth reduced to 8 bits according to a JPEG (Joint Photographic Experts Group) method to generate a first encoded stream;
Applying an inverse process of the process applied to the first full-color image data by the processing unit to the result of the process to generate a second full-color image data;
A second encoding unit that encodes second image data based on a difference image between the first full-color image data and the second full-color image data to generate a second encoded stream;
A stream output unit for outputting the second encoded stream in association with the first encoded stream;
An image processing apparatus comprising:
(11)
The image processing apparatus according to (10), wherein the second encoding unit encodes the second image data by a JPEG method.
(12)
The image processing apparatus further includes a normalization unit that normalizes a pixel value of the second image data according to a pixel value range supported by the second encoding unit. The image processing apparatus according to 11).
(13)
The image processing apparatus further includes a reduction unit that reduces the size of the second image data,
The second encoding unit encodes the second image data reduced by the reduction unit;
The image processing apparatus according to any one of (10) to (12).
(14)
The image processing apparatus further includes a difference processing unit that replaces a pixel value of the second image data at a pixel position where the high-frequency component shows a strong value in the first full-color image data with a constant value. The image processing apparatus according to any one of 10) to (13).
(15)
The image processing apparatus further includes a difference processing unit that replaces the pixel value of the second image data at a pixel position whose luminance belongs to the central portion of the pixel value range in the first full-color image data with a constant value. The image processing apparatus according to any one of (10) to (14).
(16)
The image processing apparatus includes a plurality of groups including a first group for pixels that may cause overexposure and a second group for pixels that may cause blackout using a predetermined luminance threshold. A classification unit that classifies each pixel into any one of
The second encoding unit separately encodes the second image data for the first group of pixels and the second image data for the second group of pixels.
The image processing apparatus according to any one of (10) to (15).
(17)
The stream output unit inserts a parameter for accessing the second encoded stream into a header added to the first encoded stream, according to any one of (10) to (16). The image processing apparatus described.
(18)
The image processing apparatus according to any one of (10) to (17), wherein the first full-color image data is image data generated by demosaicing the RAW image data.
(19)
The image processing device according to (18), further including an image sensor that captures a RAW image.
(20)
Computer
A first encoded stream encoded by reducing the bit depth of full-color image data having a bit depth of more than 8 bits to 8 bits, and a second encoded stream associated with the first encoded stream A stream acquisition unit for acquiring
A first decoding unit that decodes the first encoded stream by a JPEG (Joint Photographic Experts Group) method to generate first image data;
A second decoding unit for decoding the second encoded stream to generate second image data;
A combining unit that combines the full-color image data restored using the first image data and the second image data;
Program to function as.
(21)
Computer
A processing unit for generating first image data from first full-color image data having a bit depth greater than 8 bits;
A first encoder that encodes the first image data with a bit depth reduced to 8 bits according to a JPEG (Joint Photographic Experts Group) method to generate a first encoded stream;
Applying an inverse process of the process applied to the first full-color image data by the processing unit to the result of the process to generate a second full-color image data;
A second encoding unit that encodes second image data based on a difference image between the first full-color image data and the second full-color image data to generate a second encoded stream;
A stream output unit for outputting the second encoded stream in association with the first encoded stream;
Program to function as.
(22)
A first encoded stream encoded by reducing the bit depth of full-color image data having a bit depth of more than 8 bits to 8 bits, and a second encoded stream associated with the first encoded stream And getting
Decoding the first encoded stream using a JPEG (Joint Photographic Experts Group) method to generate first image data;
Decoding the second encoded stream to generate second image data;
Combining full-color image data restored using the first image data and the second image data;
An image processing method including:
(23)
Generating first image data from first full color image data having a bit depth greater than 8 bits;
Encoding the first image data with a bit depth reduced to 8 bits by a JPEG (Joint Photographic Experts Group) method to generate a first encoded stream;
Applying a reverse process of the process applied to the first full-color image data to the result of the process to generate second full-color image data;
Encoding second image data based on a difference image between the first full-color image data and the second full-color image data to generate a second encoded stream;
Outputting the second encoded stream in association with the first encoded stream;
An image processing method including:

100 画像符号化装置
110 RAW画像取得部
120 現像部
130 補正処理部
140 逆処理部
150 差分演算部
162 深度削減・YC変換部
168 第1符号化部
180 分類部
171,181 差分加工部
173,183 縮小部
175,185 正規化部
179,179a,179b,189a 第2符号化部
190 ストリーム出力部
200 画像復号装置
210 ストリーム取得部
222 第1復号部
228 RGB変換・深度拡張部
231,231a,231b,241a 第2復号部
235,245 逆正規化部
237,247 拡大部
240 差分合成部
260 逆処理部
270 合成部
280 画像出力部
300,400 画像処理装置
320,420 制御部
330 イメージセンサ
340,440 記憶媒体
DESCRIPTION OF SYMBOLS 100 Image coding apparatus 110 Raw image acquisition part 120 Development part 130 Correction | amendment process part 140 Inverse process part 150 Difference calculating part 162 Depth reduction and YC conversion part 168 1st encoding part 180 Classification | category part 171,181 Difference process part 173,183 Reduction unit 175, 185 Normalization unit 179, 179a, 179b, 189a Second encoding unit 190 Stream output unit 200 Image decoding device 210 Stream acquisition unit 222 First decoding unit 228 RGB conversion / depth extension unit 231, 231a, 231b, 241a Second decoding unit 235, 245 Inverse normalization unit 237, 247 Enlargement unit 240 Difference synthesis unit 260 Inverse processing unit 270 Synthesis unit 280 Image output unit 300, 400 Image processing device 320, 420 Control unit 330 Image sensor 340, 440 Storage Medium

Claims (20)

力フルカラー画像データに対し補正処理を行うことにより生成された補正後画像データを所定の標準符号化方式で符号化することにより生成された主画像符号化ストリームを復号する主画像復号部と、
前記入力フルカラー画像データと少なくとも前記補正後画像データに対し前記補正処理の逆処理を行うことにより生成された逆処理後画像データとの間の差分画像データを符号化することにより生成された差分画像符号化ストリームを前記標準符号化方式で復号する差分画像復号部と、
前記標準符号化方式によりサポートされる画素値レンジに合わせて正規化されている前記差分画像データの画素値を、前記差分画像符号化ストリームに関連付けられている正規化パラメータを用いて逆正規化する逆正規化部と、
前記主画像復号部の出力と、逆正規化後の前記差分画像データとを合成する合成部と、
を備える画像処理装置。
The main image decoder for decoding the main picture coded stream generated by encoding the corrected image data generated by performing the pair and compensation processing to the input color image data in a predetermined standard encoding scheme When,
A difference image generated by encoding difference image data between the input full-color image data and at least the image data after reverse processing generated by performing reverse processing of the correction processing on the image data after correction A differential image decoding unit for decoding an encoded stream by the standard encoding method;
The pixel value of the difference image data that has been normalized according to the pixel value range supported by the standard encoding method is denormalized using a normalization parameter associated with the difference image encoded stream. A denormalization unit;
A combining unit that combines the output of the main image decoding unit and the difference image data after denormalization ;
An image processing apparatus comprising:
前記入力フルカラー画像データは、静止画の画像データである、請求項1に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the input full-color image data is still image data. 前記標準符号化方式は、JPEG(Joint Photographic Experts Group)方式である、請求項に記載の画像処理装置。 The image processing apparatus according to claim 2 , wherein the standard encoding method is a JPEG (Joint Photographic Experts Group) method. 前記主画像符号化ストリームは、前記補正後画像データのビット深度を前記入力フルカラー画像データのビット深度よりも少ないビット深度へ削減した後に当該補正後画像データを符号化することにより生成された符号化ストリームである、請求項1〜3のいずれか1項に記載の画像処理装置。 The main image encoded stream is generated by encoding the corrected image data after reducing the bit depth of the corrected image data to a bit depth smaller than the bit depth of the input full-color image data . The image processing apparatus according to claim 1, wherein the image processing apparatus is a stream . 前記差分画像復号部により出力される前記差分画像データのサイズを復元すべきフルカラー画像データのサイズに合わせて拡大する拡大部、をさらに備え、
前記合成部は、前記補正後画像データを用いて復元されるフルカラー画像データと前記拡大部により拡大された逆正規化後の前記差分画像データとを合成する、
請求項1〜4のいずれか1項に記載の画像処理装置。
An enlargement unit for enlarging the size of the difference image data output by the difference image decoding unit according to the size of the full-color image data to be restored;
The synthesizing unit synthesizes the full-color image data restored using the corrected image data and the differential image data after denormalization enlarged by the enlarging unit;
The image processing apparatus of any one of Claims 1-4.
前記入力フルカラー画像データは、RAW画像データから生成された画像データである、請求項1〜5のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the input full-color image data is image data generated from RAW image data. 前記補正処理は、EV(Exposure Value)補正、WB(White Balance)補正及びガンマ補正のうちの1つ以上を含む、請求項1〜6のいずれか1項に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the correction process includes one or more of EV (Exposure Value) correction, WB (White Balance) correction, and gamma correction. 力フルカラー画像データに対し補正処理を行うことにより生成された補正後画像データを所定の標準符号化方式で符号化することにより生成された主画像符号化ストリームを復号して、前記補正後画像データを出力することと、
前記入力フルカラー画像データと少なくとも前記補正後画像データに対し前記補正処理の逆処理を行うことにより生成された逆処理後画像データとの間の差分画像データを符号化することにより生成された差分画像符号化ストリームを前記標準符号化方式で復号して、前記差分画像データを出力することと、
前記標準符号化方式によりサポートされる画素値レンジに合わせて正規化されている前記差分画像データの画素値を、前記差分画像符号化ストリームに関連付けられている正規化パラメータを用いて逆正規化することと、
前記補正後画像データと、逆正規化後の前記差分画像データとを合成することと、
を含む画像処理方法。
It decodes the main picture coded stream generated by encoding the corrected image data generated by performing the pair and compensation processing to the input color image data in a predetermined standard encoding scheme, the correction Output post-image data,
A difference image generated by encoding difference image data between the input full-color image data and at least the image data after reverse processing generated by performing reverse processing of the correction processing on the image data after correction Decoding an encoded stream with the standard encoding method and outputting the difference image data;
The pixel value of the difference image data that has been normalized according to the pixel value range supported by the standard encoding method is denormalized using a normalization parameter associated with the difference image encoded stream. And
Combining the corrected image data and the denormalized difference image data;
An image processing method including:
コンピュータを、
力フルカラー画像データに対し補正処理を行うことにより生成された補正後画像データを所定の標準符号化方式で符号化することにより生成された主画像符号化ストリームを復号する主画像復号部と、
前記入力フルカラー画像データと少なくとも前記補正後画像データに対し前記補正処理の逆処理を行うことにより生成された逆処理後画像データとの間の差分画像データを符号化することにより生成された差分画像符号化ストリームを前記標準符号化方式で復号する差分画像復号部と、
前記標準符号化方式によりサポートされる画素値レンジに合わせて正規化されている前記差分画像データの画素値を、前記差分画像符号化ストリームに関連付けられている正規化パラメータを用いて逆正規化する逆正規化部と、
前記主画像復号部の出力と、逆正規化後の前記差分画像データとを合成する合成部と、
として機能させるためのプログラム。
Computer
The main image decoder for decoding the main picture coded stream generated by encoding the corrected image data generated by performing the pair and compensation processing to the input color image data in a predetermined standard encoding scheme When,
A difference image generated by encoding difference image data between the input full-color image data and at least the image data after reverse processing generated by performing reverse processing of the correction processing on the image data after correction A differential image decoding unit for decoding an encoded stream by the standard encoding method;
The pixel value of the difference image data that has been normalized according to the pixel value range supported by the standard encoding method is denormalized using a normalization parameter associated with the difference image encoded stream. A denormalization unit;
A combining unit that combines the output of the main image decoding unit and the difference image data after denormalization ;
Program to function as.
力フルカラー画像データに対し補正処理を行うことにより生成された補正後画像データを所定の標準符号化方式で符号化して、主画像符号化ストリームを出力する主画像符号化部と、
前記入力フルカラー画像データと少なくとも前記補正後画像データに対し前記補正処理の逆処理を行うことにより生成された逆処理後画像データとの間の差分画像データの画素値を前記標準符号化方式によりサポートされる画素値レンジに合わせて正規化し及び前記差分画像データの画素値レンジに基づいて正規化パラメータを生成する正規化部と、
正規化後の前記差分画像データを前記標準符号化方式で符号化して、差分画像符号化ストリームを出力する差分画像符号化部と、
前記主画像符号化ストリームに前記差分画像符号化ストリーム及び前記正規化パラメータを関連付ける関連付け部と、
を備える画像処理装置。
The corrected image data generated by performing the pair and compensation processing to the input color image data is encoded at a predetermined standard encoding scheme, the main image coding unit for outputting a main image encoded stream,
Supports pixel values of difference image data between the input full-color image data and at least the post-correction image data generated by performing reverse processing of the correction processing on the post-correction image data by the standard encoding method. A normalization unit that normalizes the pixel value range and generates a normalization parameter based on the pixel value range of the difference image data;
A differential image encoding unit that encodes the normalized differential image data using the standard encoding method and outputs a differential image encoded stream;
An associating unit for associating the difference image encoded stream and the normalization parameter with the main image encoded stream;
An image processing apparatus comprising:
前記入力フルカラー画像データは、静止画の画像データである、請求項10に記載の画像処理装置。  The image processing apparatus according to claim 10, wherein the input full-color image data is still image data. 前記標準符号化方式は、JPEG(Joint Photographic Experts Group)方式である、請求項11に記載の画像処理装置。 The image processing apparatus according to claim 11 , wherein the standard encoding method is a JPEG (Joint Photographic Experts Group) method. 前記補正後画像データのビット深度を削減する深度削減部、をさらに備え、
前記主画像符号化部は、前記深度削減部により削減されたビット深度を有する前記補正後画像データを符号化する、
請求項10〜12のいずれか1項に記載の画像処理装置。
A depth reduction unit that reduces the bit depth of the corrected image data;
The main image encoding unit encodes the corrected image data having the bit depth reduced by the depth reduction unit;
The image processing apparatus according to claim 10 .
前記差分画像データのサイズを縮小する縮小部、をさらに備え、
前記差分画像符号化部は、前記縮小部により縮小された正規化後の縮小差分画像データを前記差分画像データとして符号化する、
請求項10〜13のいずれか1項に記載の画像処理装置。
A reduction unit for reducing the size of the difference image data,
The difference image encoding unit encodes the reduced difference image data after normalization reduced by the reduction unit as the difference image data.
The image processing apparatus according to claim 10 .
前記関連付け部は、前記差分画像符号化ストリームにアクセスするためのパラメータを前記主画像符号化ストリームに付加されるヘッダに挿入する、請求項10〜14のいずれか1項に記載の画像処理装置。 The image processing apparatus according to claim 10 , wherein the associating unit inserts a parameter for accessing the difference image encoded stream into a header added to the main image encoded stream. 前記入力フルカラー画像データは、RAW画像データから生成される画像データである、請求項10〜15のいずれか1項に記載の画像処理装置。 The image processing apparatus according to claim 10 , wherein the input full-color image data is image data generated from RAW image data. RAW画像を撮像するイメージセンサ、をさらに備える、請求項16に記載の画像処理装置。 The image processing apparatus according to claim 16 , further comprising an image sensor that captures a RAW image. 前記補正処理は、EV(Exposure Value)補正、WB(White Balance)補正及びガンマ補正のうちの1つ以上を含む、請求項10〜17のいずれか1項に記載の画像処理装置。  The image processing apparatus according to claim 10, wherein the correction process includes one or more of EV (Exposure Value) correction, WB (White Balance) correction, and gamma correction. 力フルカラー画像データに対し補正処理を行うことにより生成された補正後画像データを所定の標準符号化方式で符号化して、主画像符号化ストリームを出力することと、
前記入力フルカラー画像データと少なくとも前記補正後画像データに対し前記補正処理の逆処理を行うことにより生成された逆処理後画像データとの間の差分画像データの画素値レンジに基づいて正規化パラメータを生成することと、
前記差分画像データの画素値を前記標準符号化方式によりサポートされる画素値レンジに合わせて正規化することと、
正規化後の前記差分画像データを前記標準符号化方式で符号化して、差分画像符号化ストリームを出力することと、
前記主画像符号化ストリームに前記差分画像符号化ストリーム及び前記正規化パラメータを関連付けることと、
を含む画像処理方法。
And that the corrected image data generated by performing the pair and compensation processing to the input color image data is encoded at a predetermined standard encoding scheme, and outputs the main image encoded stream,
A normalization parameter is set based on a pixel value range of difference image data between the input full-color image data and at least the post-correction image data generated by performing reverse processing of the correction processing on the post-correction image data. Generating,
Normalizing the pixel values of the difference image data to a pixel value range supported by the standard encoding method;
Encoding the difference image data after normalization by the standard encoding method and outputting a difference image encoded stream;
Associating the difference image encoded stream and the normalization parameter with the main image encoded stream;
An image processing method including:
コンピュータを、
力フルカラー画像データに対し補正処理を行うことにより生成された補正後画像データを所定の標準符号化方式で符号化して、主画像符号化ストリームを出力する主画像符号化部と、
前記入力フルカラー画像データと少なくとも前記補正後画像データに対し前記補正処理の逆処理を行うことにより生成された逆処理後画像データとの間の差分画像データの画素値を前記標準符号化方式によりサポートされる画素値レンジに合わせて正規化し及び前記差分画像データの画素値レンジに基づいて正規化パラメータを生成するする正規化部と、
正規化後の前記差分画像データを前記標準符号化方式で符号化して、差分画像符号化ストリームを出力する差分画像符号化部と、
前記主画像符号化ストリームに前記差分画像符号化ストリーム及び前記正規化パラメータを関連付ける関連付け部と、
として機能させるためのプログラム。
Computer
The corrected image data generated by performing the pair and compensation processing to the input color image data is encoded at a predetermined standard encoding scheme, the main image coding unit for outputting a main image encoded stream,
Supports pixel values of difference image data between the input full-color image data and at least the post-correction image data generated by performing reverse processing of the correction processing on the post-correction image data by the standard encoding method. A normalization unit that generates a normalization parameter based on the pixel value range of the difference image data and normalization according to the pixel value range to be performed;
A differential image encoding unit that encodes the normalized differential image data using the standard encoding method and outputs a differential image encoded stream;
An associating unit for associating the difference image encoded stream and the normalization parameter with the main image encoded stream;
Program to function as.
JP2016226487A 2016-11-22 2016-11-22 Image processing apparatus and program Expired - Fee Related JP6315069B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016226487A JP6315069B2 (en) 2016-11-22 2016-11-22 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016226487A JP6315069B2 (en) 2016-11-22 2016-11-22 Image processing apparatus and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011281359A Division JP6089398B2 (en) 2011-12-22 2011-12-22 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2017069973A JP2017069973A (en) 2017-04-06
JP6315069B2 true JP6315069B2 (en) 2018-04-25

Family

ID=58495440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016226487A Expired - Fee Related JP6315069B2 (en) 2016-11-22 2016-11-22 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP6315069B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3590996B2 (en) * 1993-09-30 2004-11-17 ソニー株式会社 Hierarchical encoding and decoding apparatus for digital image signal
JP3809227B2 (en) * 1996-06-18 2006-08-16 キヤノン株式会社 Recording / playback device
JP3893474B2 (en) * 2000-11-10 2007-03-14 富士フイルム株式会社 Image data forming method and image data recording apparatus
JP2009213095A (en) * 2008-03-06 2009-09-17 Olympus Imaging Corp Image file creating apparatus, image file creating method, and program
JP2010124114A (en) * 2008-11-18 2010-06-03 Nikon Corp Digital camera and image data processing program
JP5270592B2 (en) * 2010-02-23 2013-08-21 日本電信電話株式会社 Image coding apparatus, image coding method, and image coding program

Also Published As

Publication number Publication date
JP2017069973A (en) 2017-04-06

Similar Documents

Publication Publication Date Title
TWI729377B (en) Methods for mapping images from a first dynamic range to a second dynamic range
KR101764943B1 (en) High dynamic range image generation and rendering
JP5965025B2 (en) Image processing for HDR images
AU2020201708B2 (en) Techniques for encoding, decoding and representing high dynamic range images
JP2020171022A (en) System for coding high dynamic range and wide color gamut sequences
JP6111266B2 (en) Method and apparatus for encoding HDR video together with LDR video, method and apparatus for reconstructing one of HDR video and LDR video encoded together, and non-transitory storage medium
TWI620149B (en) Method, device, and system for pre-processing a video stream for subsequent motion detection processing
WO2018231968A1 (en) Efficient end-to-end single layer inverse display management coding
CN113781320A (en) Image processing method and device, terminal equipment and storage medium
JP2018191269A (en) Method and device of reconstructing image data from decoded image data
CN110770787B (en) Efficient end-to-end single-layer reverse display management coding
JP2008259071A (en) Image compressing method, image compressing apparatus and program
CN1193618C (en) Pre-processing method for motion estimation
JP6089398B2 (en) Image processing apparatus, image processing method, and program
JP6315069B2 (en) Image processing apparatus and program
Kobayashi et al. JPEG XT image compression with hue compensation for two-layer HDR coding
JP5915131B2 (en) Image processing apparatus, image processing method, and program
Jeni et al. Reversible data hiding in videos using low distortion transform
JP6531591B2 (en) Video coding apparatus, video coding method, video coding program, video decoding apparatus, video decoding method, and video decoding program
JP3648135B2 (en) Decryption device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180312

R151 Written notification of patent or utility model registration

Ref document number: 6315069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees