JP2022028085A - Image processing device and method - Google Patents
Image processing device and method Download PDFInfo
- Publication number
- JP2022028085A JP2022028085A JP2018223023A JP2018223023A JP2022028085A JP 2022028085 A JP2022028085 A JP 2022028085A JP 2018223023 A JP2018223023 A JP 2018223023A JP 2018223023 A JP2018223023 A JP 2018223023A JP 2022028085 A JP2022028085 A JP 2022028085A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- prediction method
- pixel
- phase difference
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Studio Devices (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
本開示は、画像処理装置および方法に関し、特に、予測誤差の増大を抑制することができるようにした画像処理装置および方法に関する。 The present disclosure relates to image processing devices and methods, and more particularly to image processing devices and methods capable of suppressing an increase in prediction error.
従来、画素において互いに異なる射出瞳を出射した光束に対応した複数の信号を検出し、その検出した複数の信号から位相差を検出し、その検出した位相差に基づいて焦点距離を制御し、被写体に合焦させる方法が考えられた(例えば、特許文献1および特許文献2参照)。
Conventionally, a plurality of signals corresponding to light flux emitted from different exit pupils are detected in a pixel, a phase difference is detected from the detected multiple signals, and a focal length is controlled based on the detected phase difference to control a subject. A method of focusing on is considered (see, for example,
しかしながら、このような画素を有する撮像部を用いて被写体を撮像し、撮像画像データを得る場合、合焦(フォーカス)の度合いに応じて画素の空間的な相関が変化するおそれがあった。そのため、このような撮像部により得られた撮像画像データから単一の予測方法で画素値を予測し、その予測誤差を用いてその撮像画像データを符号化する場合、合焦の度合いによって、その予測誤差が増大するおそれがあった。 However, when an image pickup unit having such pixels is used to image a subject and obtain captured image data, there is a possibility that the spatial correlation of the pixels may change depending on the degree of focusing. Therefore, when the pixel value is predicted from the captured image data obtained by such an imaging unit by a single prediction method and the captured image data is encoded using the prediction error, the pixel value is determined depending on the degree of focusing. There was a risk that the prediction error would increase.
本開示は、このような状況に鑑みてなされたものであり、予測誤差の増大を抑制することができるようにするものである。 The present disclosure has been made in view of such a situation, and makes it possible to suppress an increase in prediction error.
本技術の一側面の画像処理装置は、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する符号化部を備える画像処理装置である。 The image processing device on one aspect of the present technology is an image processing device including a coding unit that encodes captured image data using prediction by a prediction method set based on parameters related to focusing.
本技術の一側面の画像処理方法は、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する画像処理方法である。 The image processing method of one aspect of the present technology is an image processing method for encoding captured image data by using prediction by a prediction method set based on parameters related to focusing.
本技術の他の側面の画像処理装置は、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号する復号部を備える画像処理装置である。 The image processing device of another aspect of the present technology is an image processing device including a decoding unit that decodes the encoded data of the captured image data by using the prediction by the prediction method set based on the parameters related to focusing.
本技術の他の側面の画像処理方法は、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号する画像処理方法である。 The image processing method of another aspect of the present technology is an image processing method for decoding the encoded data of the captured image data by using the prediction by the prediction method set based on the parameters related to focusing.
本技術の一側面の画像処理装置および方法においては、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データが符号化される。 In the image processing apparatus and method of one aspect of the present technology, the captured image data is encoded using the prediction by the prediction method set based on the parameters related to focusing.
本技術の他の側面の画像処理装置および方法においては、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データが復号される。 In the image processing apparatus and method of another aspect of the present technology, the encoded data of the captured image data is decoded by using the prediction by the prediction method set based on the parameters related to focusing.
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.位相差検出を行う画素を用いた予測
2.第1の実施の形態(方法#1詳細)
3.第2の実施の形態(方法#2詳細)
4.第3の実施の形態(方法#2-1詳細)
5.第4の実施の形態(方法#3詳細)
6.第5の実施の形態(積層型イメージセンサ)
7.付記
Hereinafter, embodiments for carrying out the present disclosure (hereinafter referred to as embodiments) will be described. The explanation will be given in the following order.
1. 1. Prediction using pixels that detect
3. 3. Second embodiment (details of method # 2)
4. Third Embodiment (Details of Method # 2-1)
5. Fourth Embodiment (Details of Method # 3)
6. Fifth Embodiment (stacked image sensor)
7. Addendum
<1.位相差検出を行う画素を用いた予測>
<技術内容・技術用語をサポートする文献等>
本技術で開示される範囲は、実施の形態に記載されている内容だけではなく、出願当時において公知となっている以下の文献に記載されている内容も含まれる。
<1. Prediction using pixels that detect phase difference>
<References that support technical content and terminology>
The scope disclosed in the present technology includes not only the contents described in the embodiments but also the contents described in the following documents known at the time of filing.
特許文献3:US2011/0292247
特許文献4:US2012/0219231
特許文献5:特開2014-103543号公報
Patent Document 3: US2011 / 092247
Patent Document 4: US2012 / 0219231
Patent Document 5: Japanese Unexamined Patent Publication No. 2014-103543
つまり、上述の文献に記載されている内容もサポート要件を判断する際の根拠となる。 In other words, the content described in the above-mentioned literature is also a basis for determining support requirements.
<DPCM符号化>
従来、例えば特許文献1や特許文献2に記載のように、画素において互いに異なる射出瞳を出射した光束に対応した複数の信号を検出し、その検出した複数の信号から位相差を検出し、その検出した位相差に基づいて焦点距離を制御し、被写体に合焦させる方法が考えられた。
<DPCM coding>
Conventionally, as described in
また、例えば特許文献3乃至特許文献5に記載のように、インタフェースの使用帯域やメモリ容量の増大抑制等を目的として、撮像画像のデータ(撮像画像データとも称する)の伝送時や記録時において、その撮像画像データを、DPCM(Differential Pulse Code Modulation)を用いた符号化により圧縮する方法が考えられた。DPCM符号化においては、処理対象画素の画素値をその周辺に位置する画素(周辺画素とも称する)の画素値を用いて予測し、その予測値との差分(予測誤差)を符号化することにより符号化効率を向上させる。
Further, for example, as described in
しかしながら、上述のような位相差を検出することができる画素を有する撮像部を用いて被写体を撮像し、撮像画像データを得る場合、合焦(フォーカス)の度合いに応じて画素の空間的な相関が変化するおそれがあった。 However, when a subject is imaged using an image pickup unit having pixels capable of detecting the phase difference as described above and the captured image data is obtained, the spatial correlation of the pixels is determined according to the degree of focusing. Was in danger of changing.
そのため、このような撮像部により得られた撮像画像データを、単一の予測方法でDPCM符号化する場合、合焦の度合いによって、その予測誤差が増大するおそれがあった。つまり、合焦の度合いを考慮せずに、処理対象画素に対して所定の位置関係にある周辺画素の画素値を用いて処理対象画素の画素値の予測を行い、その予測誤差を用いて符号化を行う場合、合焦の度合いによって画素の空間的な相関が変化するため、その予測誤差が増大するおそれがあった。可変長符号化の場合、予測誤差が増大すると、符号化効率が低減するおそれがあった。また、固定長符号化の場合、予測誤差が増大すると、撮像画像データを符号化・復号して得られる復号画像の画質が低減するおそれがあった。 Therefore, when the captured image data obtained by such an imaging unit is DPCM coded by a single prediction method, the prediction error may increase depending on the degree of focusing. That is, the pixel value of the pixel to be processed is predicted using the pixel values of the peripheral pixels having a predetermined positional relationship with respect to the pixel to be processed without considering the degree of focusing, and the prediction error is used to predict the code. In the case of conversion, the spatial correlation of the pixels changes depending on the degree of focusing, so that the prediction error may increase. In the case of variable-length coding, if the prediction error increases, the coding efficiency may decrease. Further, in the case of fixed-length coding, if the prediction error increases, there is a possibility that the image quality of the decoded image obtained by encoding / decoding the captured image data may decrease.
<予測方式制御>
そこで、合焦の度合いに応じて予測方式を制御するようにする。
<Prediction method control>
Therefore, the prediction method is controlled according to the degree of focusing.
例えば、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化するようにする。例えば、画像処理装置において、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する符号化部を備えるようにする。 For example, the captured image data is encoded using the prediction by the prediction method set based on the parameters related to focusing. For example, the image processing apparatus is provided with a coding unit that encodes the captured image data by using the prediction by the prediction method set based on the parameters related to focusing.
このようにすることにより、合焦の度合いに応じた画素の空間的な相関の変化を抑制するように、撮像画像データを符号化することができる。したがって、予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号画像の画質の低減を抑制することができる。 By doing so, it is possible to encode the captured image data so as to suppress the change in the spatial correlation of the pixels according to the degree of focusing. Therefore, it is possible to suppress an increase in prediction error. As a result, in the case of variable-length coding, it is possible to suppress a decrease in coding efficiency. Further, in the case of fixed-length coding, it is possible to suppress a decrease in the image quality of the decoded image.
また、例えば、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号するようにする。例えば、画像処理装置において、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号する復号部を備えるようにする。 Further, for example, the encoded data of the captured image data is decoded by using the prediction by the prediction method set based on the parameters related to focusing. For example, the image processing apparatus is provided with a decoding unit that decodes the coded data of the captured image data by using the prediction by the prediction method set based on the parameters related to focusing.
このようにすることにより、合焦の度合いに応じた画素の空間的な相関の変化を抑制するように符号化された撮像画像データを正しく復号することができる。したがって、予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号画像の画質の低減を抑制することができる。 By doing so, it is possible to correctly decode the captured image data encoded so as to suppress the change in the spatial correlation of the pixels according to the degree of focusing. Therefore, it is possible to suppress an increase in prediction error. As a result, in the case of variable-length coding, it is possible to suppress a decrease in coding efficiency. Further, in the case of fixed-length coding, it is possible to suppress a decrease in the image quality of the decoded image.
なお、このような符号化や復号に用いられる予測方式は、例えば、合焦に関するパラメータに基づいて、被写体に合焦しているか否かに応じて設定されるようにしてもよい。このようにすることにより、合焦の度合いに応じた予測方式を選択することができる。 The prediction method used for such coding or decoding may be set according to whether or not the subject is in focus, for example, based on the parameters related to focusing. By doing so, it is possible to select a prediction method according to the degree of focusing.
例えば、被写体に合焦している場合、処理対象画素と同色の画素の中で処理対象画素の最も近傍に位置する画素の画素値を、処理対象画素の画素値の予測値とする予測方式が設定されるようにしてもよい。ここで、処理対象画素と同色の画素とは、処理対象画素と同種のカラーフィルタが設けられる画素を示す。また、ここで、同種のカラーフィルタとは、同一の(または略同様の)波長光を透過するカラーフィルタを示す。このようにすることにより、被写体に合焦している状態において、予測誤差の増大を抑制することができる。 For example, when the subject is in focus, a prediction method in which the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel is used as the predicted value of the processing target pixel. It may be set. Here, the pixel having the same color as the processing target pixel means a pixel provided with a color filter of the same type as the processing target pixel. Further, here, the same type of color filter refers to a color filter that transmits light having the same (or substantially similar) wavelength. By doing so, it is possible to suppress an increase in prediction error in a state where the subject is in focus.
また例えば、被写体に合焦していない場合、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、その処理対象画素と同色の画素の中で処理対象画素の最も近傍に位置する画素の画素値を、処理対象画素の画素値の予測値とする予測方式が設定されるようにしてもよい。ここで、画素値を検出するフォトダイオードの位置とは、そのフォトダイオードの画素内における位置を示す。つまり、「画素値を検出するフォトダイオードの位置が処理対象画素と同一の」周辺画素とは、処理対象画素の周辺画素の内、画素値を検出するフォトダイオードのその画素内の位置が処理対象画素と同一である画素を示す。「処理対象画素と同色の画素」や「同種のカラーフィルタ」は、上述の通りである。このようにすることにより、被写体に合焦していない状態において、予測誤差の増大を抑制することができる。 Further, for example, when the subject is not in focus, the position of the photodiode that detects the pixel value is the same as that of the pixel to be processed, and is the closest to the pixel to be processed among the pixels of the same color as the pixel to be processed. A prediction method may be set in which the pixel value of the positioned pixel is used as the predicted value of the pixel value of the pixel to be processed. Here, the position of the photodiode for detecting the pixel value indicates the position of the photodiode in the pixel. That is, the peripheral pixel "the position of the photodiode that detects the pixel value is the same as the pixel to be processed" is the position in the pixel of the photodiode that detects the pixel value among the peripheral pixels of the pixel to be processed. Indicates a pixel that is identical to a pixel. The "pixels of the same color as the pixel to be processed" and the "color filter of the same type" are as described above. By doing so, it is possible to suppress an increase in the prediction error when the subject is not in focus.
なお、被写体に合焦している場合および被写体に合焦していない場合のそれぞれにおいて、上述のように予測方式を設定することにより、合焦の度合いに関わらず(被写体に合焦している場合も合焦していない場合も)、予測誤差の増大を抑制することができる。 By setting the prediction method as described above in each of the case where the subject is in focus and the case where the subject is not in focus, the subject is in focus regardless of the degree of focus (the subject is in focus). In some cases and out of focus), the increase in prediction error can be suppressed.
また、例えば、上述の合焦に関するパラメータは、その合焦のための位相差検出に用いられる画素値から導出されるようにしてもよい。このようにすることにより、位相差検出を利用して、より容易に予測誤差の増大を抑制することができる。例えば、撮像部(撮像素子)の位相差検出用の画素構造を利用して、より容易に予測誤差の増大を抑制することができる。 Further, for example, the above-mentioned parameters related to focusing may be derived from the pixel values used for the phase difference detection for the focusing. By doing so, it is possible to more easily suppress the increase in the prediction error by utilizing the phase difference detection. For example, by utilizing the pixel structure for detecting the phase difference of the image pickup unit (imaging element), it is possible to more easily suppress the increase in the prediction error.
例えば、図1に示される表10の「方法1」のように、位相差検出結果に応じて予測方式を制御するようにしてもよい。つまり、例えば、撮像画像データを符号化して生成した符号化データを復号して得られる撮像画像データの画素値(すなわち、復号画像の画素値)を用いて行われる位相差検出の結果を、上述の合焦に関するパラメータとして用い、符号化や復号に適用される予測方式を設定するようにしてもよい。
For example, as in "
このようにすることにより、例えば、焦点距離制御のための位相差検出の結果を利用して、符号化および復号に適用される予測方式をより容易に求めることができる。つまり、この予測方式の設定に関する処理による符号化や復号の負荷の増大を抑制することができる。また、符号化において適用された予測方式を示す予測方式情報を復号側に伝送させる必要が無いため、符号化効率の低減を抑制することができる。さらに、焦点距離制御のための位相差検出の結果を利用することにより、より正確に合焦の度合いに応じて予測方式を設定することができる。すなわち、予測誤差の増大をより抑制することができる。 By doing so, for example, the prediction method applied to the coding and decoding can be more easily obtained by utilizing the result of the phase difference detection for the focal length control. That is, it is possible to suppress an increase in the load of coding and decoding due to the processing related to the setting of this prediction method. Further, since it is not necessary to transmit the prediction method information indicating the prediction method applied in the coding to the decoding side, it is possible to suppress the reduction of the coding efficiency. Further, by using the result of the phase difference detection for the focal length control, the prediction method can be set more accurately according to the degree of focusing. That is, it is possible to further suppress an increase in prediction error.
また、例えば、図1に示される表10の「方法2」のように、撮像画像に応じて予測方式を制御するようにしてもよい。つまり、例えば、撮像画像データの、合焦のための位相差検出に用いられる画素値を用いて行われる各予測方式による予測の結果を、上述の合焦に関するパラメータとして用い、符号化に適用される予測方式を設定するようにしてもよい。
Further, for example, as in the “
このようにすることにより、例えば、撮像画像データから符号化に適用される予測方式を設定することができる。すなわち、復号画像のフィードバックを必要とせずに、より容易に符号化に適用される予測方式を設定することができる。つまり、この予測方式の設定に関する処理による符号化の負荷の増大を抑制することができる。 By doing so, for example, it is possible to set a prediction method applied to coding from captured image data. That is, it is possible to set a prediction method that is more easily applied to coding without requiring feedback of the decoded image. That is, it is possible to suppress an increase in the coding load due to the processing related to the setting of this prediction method.
また、その場合、例えば、そのように設定された予測方式を復号側に伝送するようにしてもよい。例えば、その符号化に適用された予測方式を示す予測方式情報を符号化データに付加して復号側に伝送するようにしてもよい。換言するに、その符号化データに付加された予測方式情報を、上述の合焦に関するパラメータとして用い、復号に適用される予測方式を設定するようにしてもよい。 Further, in that case, for example, the prediction method set as such may be transmitted to the decoding side. For example, the prediction method information indicating the prediction method applied to the coding may be added to the coded data and transmitted to the decoding side. In other words, the prediction method information added to the coded data may be used as the above-mentioned focusing parameter to set the prediction method applied to decoding.
このようにすることにより、復号に適用される予測方式の設定に必要な演算量の増大を抑制することができる。すなわち、より容易に復号に適用される予測方式を設定することができる。つまり、この予測方式の設定に関する処理による復号の負荷の増大を抑制することができる。 By doing so, it is possible to suppress an increase in the amount of calculation required for setting the prediction method applied to decoding. That is, it is possible to more easily set a prediction method applied to decoding. That is, it is possible to suppress an increase in the decoding load due to the processing related to the setting of this prediction method.
また、この「方法2」の場合、さらに、図1に示される表10の「方法2-1」のように、上述の予測方式情報(撮像画像データの符号化に適用された予測方式)に基づいて、(焦点距離制御のための)位相差の検出を行うようにしてもよい。例えば、その予測方式情報を補助情報として用い、復号画像の位相差検出を行うようにしてもよい。このようにすることにより、位相差検出処理をより容易に行うことができる。例えば、予測方式情報に基づいて、被写体に全く合焦していない場合、焦点距離制御の精度を粗くし、被写体に略合焦している場合、その精度を細かくすることにより、より効率よく焦点距離を制御することができる(焦点距離制御の負荷や処理時間を低減させることができる、または、より高精度に焦点距離を制御することができる)。
Further, in the case of this "
また、図1に示される表10の「方法3」のように、上述のような撮像画像データの符号化および復号による誤差を示す誤差情報に基づいて、(焦点距離制御のための)位相差の検出を行うようにしてもよい。例えば、撮像画像データを符号化し、その符号化データを復号することにより生じる誤差(その誤差を示す誤差情報)を、位相差検出結果の信頼度を示す信頼度情報として用い、復号画像の位相差検出を行うようにしてもよい。例えば、符号化・復号により生じる誤差が大きな画素値を用いて導出される位相差検出結果は、相対的に信頼度が低減する可能性が高い。したがって、この信頼度情報に基づいて、誤差が大きな部分の画素値は位相差検出に用いないように制御するようにしてもよい。このようにすることにより、より正確に焦点距離を制御することができる。
Further, as in "
なお、図1に示される表10の「方法3-1」のように、この「方法3」は、上述の「方法1」と組み合わせて用いることもできる。さらに、図1に示される表10の「方法3-2」のように、この「方法3」は、上述の「方法2」や「方法2-1」と組み合わせて用いることもできる。
As shown in "Method 3-1" of Table 10 shown in FIG. 1, this "
<2.第1の実施の形態>
<画像処理装置>
次に、図1の各方法についてより具体的に説明する。本実施の形態においては、「方法1」について説明する。図2は、本技術を適用した画像処理装置の構成の一例を示すブロック図である。図2に示される画像処理装置100は、入力された撮像画像データを符号化して符号化データを生成し、さらに、その符号化データを復号して撮像画像データを生成し、出力する装置である。この画像処理装置100は、その撮像画像データの符号化・復号における予測方式の制御方法として「方法1」を適用する。図2に示されるように、この画像処理装置100は、符号化部101、復号部102、位相差検出部103、および予測方式設定部104を有する。
<2. First Embodiment>
<Image processing device>
Next, each method of FIG. 1 will be described more specifically. In this embodiment, "
符号化部101は、画像の符号化に関する処理を行う。例えば、符号化部101は、画像処理装置100に入力された撮像画像データを取得する。また、符号化部101は、その取得した撮像画像データを、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する。つまり、符号化部101は、予測方式設定部104により指定される予測方式を適用して符号化する。したがって、符号化部101は、符号化に適用する予測方式をより容易に設定することができる。つまり、符号化処理の負荷の増大を抑制することができる。
The
詳細については後述するが、符号化部101は、所謂AVCやHEVC等の一般的な画像符号化よりも簡易な方法で、撮像画像データを符号化する。以下において、この符号化部101による符号化を簡易符号化とも称する。
Although the details will be described later, the
符号化部101は、その符号化データを、記録媒体または伝送媒体を介して、復号部102に供給する。例えば、符号化部101は、その符号化データを、半導体メモリやハードディスク等の記録媒体に記録する。また、例えば、符号化部101は、その符号化データを、バス等の伝送路を介して復号部102に送信する。
The
復号部102は、画像の復号に関する処理を行う。例えば、復号部102は、記録媒体または伝送媒体を介して符号化部101から供給される符号化データを取得する。例えば、復号部102は、半導体メモリやハードディスク等の記録媒体から、符号化部101により記録された符号化データを読み出す。また、例えば、復号部102は、符号化部101からバス等の伝送路を介して伝送されるその符号化データを受信する。また、復号部102は、その取得した符号化データを、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて復号する。つまり、復号部102は、予測方式設定部104により設定された予測方式を適用して復号を行う。したがって、復号部102は、符号化データに予測方式に関する情報が含まれていなくても、符号化の際に適用されたのと同一の予測方式を適用することができる。したがって符号化効率の低減を抑制することができる。
The
詳細については後述するが、復号部102は、所謂AVCやHEVC等の一般的な画像復号よりも簡易な方法で、撮像画像データが符号化された符号化データを復号する。以下において、この復号部102による復号を簡易復号とも称する。
Although the details will be described later, the
復号部102は、その生成した撮像画像データを、画像処理装置100の外部に出力する。また、復号部102は、その撮像画像データを、位相差検出部103に供給する。
The
位相差検出部103は、位相差の検出に関する処理を行う。例えば、位相差検出部103は、復号部102から供給される撮像画像データ(復号結果)を取得する。また、位相差検出部103は、取得した撮像画像データを用いて、(被写体への)合焦のための位相差の検出を行う。この撮像画像データは像面において位相差を検出可能な撮像素子により生成されたものであり、位相差検出部103は、この撮像画像データから位相差を検出することができる。さらに、位相差検出部103は、導出した位相差検出結果を予測方式設定部104に供給する。
The phase
予測方式設定部104は、予測方式の設定に関する処理を行う。例えば、予測方式設定部104は、位相差検出部103より供給される位相差検出結果を取得する。また、予測方式設定部104は、符号化や復号に適用される予測方式を設定する。例えば、予測方式設定部104が、合焦に関するパラメータに基づいて、その予測方式を設定するようにしてもよい。例えば、予測方式設定部104が、取得した位相差検出結果を合焦に関するパラメータとし、そのパラメータに基づいて、その予測方式を設定するようにしてもよい。
The prediction
例えば、予測方式設定部104が、そのパラメータに基づいて、被写体に合焦しているか否かに応じて、その予測方式を設定するようにしてもよい。このようにすることにより、予測方式設定部104は、合焦の度合いに応じた予測方式を設定することができる。
For example, the prediction
例えば、予測方式設定部104が、被写体に合焦している場合、その予測方式として、処理対象画素と同色の画素の中でその処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式を設定するようにしてもよい。このようにすることにより、予測方式設定部104は、被写体に合焦している状態において、予測誤差の増大を抑制することができる。
For example, when the prediction
また、例えば、予測方式設定部104が、被写体に合焦していない場合、その予測方式として、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、処理対象画素と同色の画素の中でその処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式を設定するようにしてもよい。このようにすることにより、予測方式設定部104は、被写体に合焦していない状態において、予測誤差の増大を抑制することができる。
Further, for example, when the prediction
なお、予測方式設定部104が、被写体に合焦している場合および被写体に合焦していない場合のそれぞれにおいて、上述のように予測方式を設定するようにしてもよい。このようにすることにより、予測方式設定部104は、合焦の度合いに関わらず(被写体に合焦している場合も合焦していない場合も)、予測誤差の増大を抑制することができる。
The prediction
さらに、例えば、予測方式設定部104が、合焦のための位相差検出の結果を上述の合焦に関するパラメータとして用い、予測方式を設定するようにしてもよい。つまり、予測方式設定部104が、位相差検出部103により行われた位相差の検出結果を上述の合焦に関するパラメータとして用い、符号化や復号に適用される予測方式を設定するようにしてもよい。このようにすることにより、予測方式設定部104は、例えば、焦点距離制御のための位相差検出の結果を利用して、符号化および復号に適用される予測方式をより容易に求めることができる。つまり、予測方式設定部104は、この予測方式の設定に関する処理による符号化や復号の負荷の増大を抑制することができる。また、予測方式設定部104は、符号化において適用された予測方式を示す予測方式情報を復号側に伝送させる必要が無いため、符号化効率の低減を抑制することができる。さらに、予測方式設定部104は、焦点距離制御のための位相差検出の結果を利用することにより、より正確に合焦の度合いに応じて予測方式を設定することができる。すなわち、予測方式設定部104は、予測誤差の増大をより抑制することができる。
Further, for example, the prediction
さらに、予測方式設定部104は、設定した予測方式を符号化部101および復号部102に供給する。
Further, the prediction
以上に説明した各処理部(符号化部101乃至予測方式設定部104)は、1つの装置(例えば画像処理装置100)として構成されるようにしてもよいし、複数の装置として構成されるようにしてもよい。例えば、符号化部101と復号部102とが、互いに異なる装置として構成されるようにしてもよい。その場合、位相差検出部103および予測方式設定部104は、符号化部101を有する装置に設けられるようにしてもよいし、復号部102を有する装置に設けられるようにしてもよいし、符号化部101を有する装置、および、復号部102を有する装置とは異なる装置に設けられるようにしてもよい。また、位相差検出部103と予測方式設定部104とが互いに異なる装置に設けられるようにしてもよい。その場合、例えば、位相差検出部103が復号部102を有する装置に設けられるようにし、予測方式設定部104が符号化部101を有する装置に設けられるようにしてもよい。また、位相差検出部103または予測方式設定部104のいずれか一方が、符号化部101を有する装置および復号部102を有する装置とは異なる装置に設けられるようにしてもよい。さらに、符号化部101乃至予測方式設定部104が、それぞれ、互いに異なる装置として構成されるようにしてもよい。
Each processing unit (encoding
<符号化部>
図3は、図2の符号化部101の主な構成例を示すブロック図である。図3に示されるように、この場合の符号化部101は、DPCM(Differential Pulse Code Modulation)処理部121、ゴロム符号化部122、および圧縮率調整部123を有する。
<Code-coded part>
FIG. 3 is a block diagram showing a main configuration example of the
DPCM処理部121は、DPCMに関する処理を行う。例えば、DPCM処理部121は、画像処理装置100に入力される撮像画像データを取得する。また、DPCM処理部121は、予測方式設定部104により設定された予測方式を取得する。DPCM処理部121はそれらの情報を用いて、DPCM処理を行う。DPCM処理は、周辺画素の画素値を用いて処理対象画素の画素値の予測を行い(つまり、処理対象画素の画素値の予測値を導出し)、その予測値と処理対象画素の画素値との差分(予測誤差)を求める処理である。
The
DPCM処理部121は、取得した撮像画像データに対して、このような処理を行い、予測誤差を導出する。例えば、DPCM処理部121は、撮像画像データの所定のサイズのブロック毎に、このようなDPCM処理を行う。その場合、DPCM処理部121は、そのブロックの先頭の画素の画素値は、PCM処理して出力し(つまりそのまま出力し)、それ以外の画素について上述のように予測誤差を求める。なお、PCM処理された画素値も、予測値0(初期値)との予測誤差と言えるので、以下においては、それらの処理結果を区別せずに予測誤差と称する。このように予測誤差(差分値)を導出することにより、情報量を低減させることができる。
The
また、DPCM処理部121が、各画素値の(上位の)一部のビットのみに対して上述のようにDPCM処理するようにしてもよい。このようにすることにより、画素値を量子化することができる。例えば、DPCM処理部121が、ビット長10ビットの画素値に対して、上位5ビットをDPCM処理するようにしてもよい。このようにすることにより、DPCM処理部121は、さらに情報量を低減させることができる。
Further, the
そして、このようなDPCM処理において、DPCM処理部121は、予測方式設定部104により設定された予測方式を適用する。つまり、DPCM処理部121は、予測方式設定部104により指定される周辺画素を用いて処理対象画素の予測値を導出する。このようにすることにより、DPCM処理部121は、合焦に関するパラメータに基づいて(例えば、被写体に合焦しているか否かに応じて)設定された周辺画素を用いて予測値を導出することができる。したがって、DPCM処理部121は、合焦の度合いに応じた予測方式により予測値を導出することができる。
Then, in such DPCM processing, the
DPCM処理部121は、以上のように導出した予測値やDPCM処理される前の撮像画像データをゴロム符号化部122に供給する。
The
ゴロム符号化部122は、ゴロム符号化に関する処理を行う。例えば、ゴロム符号化部122は、DPCM処理部121から供給される予測誤差や撮像画像データを取得する。ゴロム符号化部122は、その取得した予測誤差をゴロム符号(Golomb Coding)に符号化する。このような処理によりゴロム符号化部122は、一般的に情報量を低減させることができる。ゴロム符号化部122は、そのゴロム符号(符号化データ)と撮像画像データを圧縮率調整部123に供給する。
The
圧縮率調整部123は、圧縮率の調整に関する処理を行う。例えば、圧縮率調整部123は、ゴロム符号化部122から供給されるゴロム符号や撮像画像データを取得する。圧縮率調整部123は、撮像画像データを用いてゴロム符号の符号量(すなわち圧縮率)を制御する。
The compression
圧縮率調整部123は、DPCM処理部121によりDPCM処理されなかった任意の数のビットの情報を撮像画像データから抽出し、それをリファインメントとして、取得したゴロム符号に付加することにより、符号量、すなわち圧縮率を調整する。例えば、圧縮率調整部123は、このようにリファインメントを付加することにより、各ブロックの符号量を固定長とする(つまり固定長符号化を実現する)ことができる。
The compression
圧縮率調整部123は、以上のようにリファインメントを付加したゴロム符号(符号量が調整されたゴロム符号)を符号化データとして符号化部101の外部に出力する。この符号化データは、例えば、記録媒体や伝送媒体を介して、復号部102に伝送される(図2)。
The compression
以上のようにDPCM処理部121が、予測方式設定部104により設定された予測方式を適用してDPCM処理を行うので、符号化部101は、合焦の度合いに応じた画素の空間的な相関の変化を抑制するように、撮像画像データを簡易符号化することができる。したがって、符号化部101は、合焦の度合いに関わらず、予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化部101は、符号化効率の低減を抑制することができる。また、固定長符号化の場合、符号化部101は、復号画像の画質の低減を抑制することができる。
As described above, the
<復号部>
図4は、図2の復号部102の主な構成例を示すブロック図である。図4に示されるように、この場合の復号部102は、圧縮率逆調整部131、ゴロム復号部132、および逆DPCM(Differential Pulse Code Modulation)処理部133を有する。
<Decoding unit>
FIG. 4 is a block diagram showing a main configuration example of the
圧縮率逆調整部131は、符号化部101の圧縮率調整部123が行った処理の逆処理を行う。例えば、圧縮率逆調整部131は、符号化部101から復号部102に供給される符号化データを取得する。また、圧縮率逆調整部131は、その符号化データから、圧縮率調整部123により付加されたリファインメントを除去する。換言するに圧縮率逆調整部131は、取得した符号化データから、ゴロム符号化部122により生成されたゴロム符号を抽出する。圧縮率逆調整部131は、そのゴロム符号をゴロム復号部132に供給する。
The compression rate
ゴロム復号部132は、ゴロム符号の復号に関する処理を行う。例えば、ゴロム復号部132は、圧縮率逆調整部131から供給されるゴロム符号を取得する。また、ゴロム復号部132は、その取得したゴロム符号を、ゴロム符号化部122の符号化方法に対応する方法で復号(ゴロム復号とも称する)し、予測誤差を生成する。ゴロム復号部132は、生成した予測誤差を逆DPCM処理部133に供給する。
The
逆DPCM処理部133は、DPCM処理部121が行ったDPCM処理の逆処理である逆DPCM処理に関する処理を行う。例えば、逆DPCM処理部133は、ゴロム復号部132から供給された予測誤差(差分値)を取得する。また、逆DPCM処理部133は、その取得した予測誤差に対して逆DPCM処理を行い、各画素データを復元する。
The reverse
その際、逆DPCM処理部133は、予測方式設定部104により設定された予測方式を適用する。つまり、逆DPCM処理部133は、予測方式設定部104により指定される周辺画素を用いて予測誤差から各画素データを復元する。このようにすることにより、逆DPCM処理部133は、合焦に関するパラメータに基づいて(例えば、被写体に合焦しているか否かに応じて)設定された周辺画素を用いて予測値を導出し、その予測値を用いて、予測誤差から画素データを復元することができる。したがって、逆DPCM処理部133は、合焦の度合いに応じた予測方式の予測値を用いて導出された予測誤差から、画素データを正しく復元することができる。
At that time, the reverse
逆DPCM処理部133は、以上のように導出した画素データを撮像画像データとして復号部102の外部に出力する。この撮像画像データは、例えば、画像処理装置100の外部に出力されたり、位相差検出部103に供給されたりする(図2)。
The reverse
以上のように逆DPCM処理部133が、予測方式設定部104により設定された予測方式を適用して逆DPCM処理を行うので、復号部102は、合焦の度合いに応じた画素の空間的な相関の変化を抑制するように簡易符号化された撮像画像データを正しく簡易復号することができる。したがって、復号部102は、予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、復号部102は、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号部102は、復号画像の画質の低減を抑制することができる。
As described above, the reverse
<撮像画像データ>
次に撮像画像データについて説明する。画像処理装置100に入力される撮像画像データは、位相差を検出可能な画素値により構成される。この撮像画像データは、例えば、図5に示される画素アレイ140を用いて生成される。この画素アレイ140の各画素141には、ベイヤ配列のカラーフィルタが配置される。例えば、画素アレイ140の四角形は、画素141を示している。図中白色で示される画素141-1は、赤(R)のカラーフィルタが配置された画素であり、図中薄いグレーで示される画素141-2は、緑(G)のカラーフィルタが配置された画素であり、図中濃いグレーで示される画素141-3は、青(B)のカラーフィルタが配置された画素である。各画素141内の円形は、オンチップレンズ142を示す。
<Captured image data>
Next, the captured image data will be described. The captured image data input to the
各画素141には、図6のAに示されるように、左光電変換素子151および右光電変換素子152の2つの光電変換素子(例えばフォトダイオード等)が設けられている。左光電変換素子151は、画素141の図中左側に設けられ、右光電変換素子152は、画素141の図中右側に設けられている。
As shown in FIG. 6A, each
図6のBに示されるように、矢印156のように図中右側から斜め方向に入射した被写体からの光は、オンチップレンズ142およびカラーフィルタ154を介して主に左光電変換素子151により受光される(光電変換され、画素値として検出される)。これに対して、矢印157のように図中左側から斜め方向に入射した被写体からの光は、オンチップレンズ142およびカラーフィルタ154を介して主に右光電変換素子152により受光される(光電変換され、画素値として検出される)。
As shown in B of FIG. 6, the light from the subject obliquely incident from the right side in the figure as shown by the
つまり、左光電変換素子151と右光電変換素子152は、互いに異なる角度で入射された入射光を主に検出する。つまり、左光電変換素子151の画素値と右光電変換素子152の画素値との間に入射光の角度の偏りの違い(視差)が生じる。このような視差を利用して位相差(像ずれ量)を検出することができる。なお、左光電変換素子151の画素値と右光電変換素子152の画素値とを加算することにより、1画素分の画素値が得られる。画像処理装置100に入力される撮像画像データの各画素値は、このような左光電変換素子151の画素値と右光電変換素子152の画素値とにより構成される。
That is, the left
<予測方式>
<第1の予測方式>
次にDPCM処理部121によるDPCM処理において適用される予測方式について説明する。図7は、第1の予測方式について説明する図である。図7に示される画素141-1乃至画素141-8は、図5の画素アレイ140の、赤(R)のカラーフィルタが配置された画素141と緑(G)のカラーフィルタが配置された画素141の行の一部を示す。画素141-1、画素141-3、画素141-5、および画素141-7は、赤(R)のカラーフィルタが配置された画素141であり、画素141-2、画素141-4、画素141-6、および画素141-8は、緑(G)のカラーフィルタが配置された画素141である。
<Prediction method>
<First prediction method>
Next, the prediction method applied in the DPCM processing by the
上述のように各画素141には、左光電変換素子151と右光電変換素子152が設けられており、図7に示されるように撮像画像データは、それぞれの光電変換素子で検出された画素値を有する。RLは、赤(R)のカラーフィルタが配置された画素141の左光電変換素子151において検出された画素値を示し、RRは、赤(R)のカラーフィルタが配置された画素141の右光電変換素子152において検出された画素値を示す。同様に、GLは、緑(G)のカラーフィルタが配置された画素141の左光電変換素子151において検出された画素値を示し、GRは、緑(G)のカラーフィルタが配置された画素141の右光電変換素子152において検出された画素値を示す。
As described above, each
一般的に、予測値の予測精度は、その予測値とする画素値を検出する画素(予測画素)のフィルタの色(透過する波長域)が処理対象画素のフィルタの色とより近い程、高くなる。つまり、上述のようなRGBのカラーフィルタの場合、処理対象画素と同色のカラーフィルタを備える画素を予測画素とする場合の方が、処理対象画素と異なる色のカラーフィルタを備える画素を予測画素とする場合よりも、予測精度が最も高くなる。 In general, the prediction accuracy of a predicted value is higher as the filter color (transmitted wavelength range) of the pixel (predicted pixel) that detects the pixel value to be the predicted value is closer to the filter color of the pixel to be processed. Become. That is, in the case of the RGB color filter as described above, when the pixel having the same color filter as the processing target pixel is used as the predicted pixel, the pixel having the color filter having a color different from the processing target pixel is referred to as the predicted pixel. The prediction accuracy is the highest.
また、一般的に、予測値の予測精度は、その予測画素の位置が処理対象画素に近い程、高くなる。 Further, in general, the prediction accuracy of the predicted value becomes higher as the position of the predicted pixel is closer to the processing target pixel.
そこで、第1の予測方式では、これらの特徴に基づいて予測精度の向上を期待することができるように、処理対象画素と同色の画素(処理済みの画素)の中で処理対象画素の最も近傍に位置する画素(同色最近傍画素)の画素値を予測値とする。図7の例の場合、DPCM処理部121は、画素141-1の画素値RRをDPCM処理する場合、矢印161-1のように、画素141-1の画素値RLを予測値として参照する。また、DPCM処理部121は、画素141-3の画素値RLをDPCM処理する場合、矢印161-2のように、画素141-1の画素値RRを予測値として参照し、画素141-3の画素値RRをDPCM処理する場合、矢印161-3のように、画素141-3の画素値RLを予測値として参照する。同様に、DPCM処理部121は、画素141-5の画素値RLをDPCM処理する場合、矢印161-4のように、画素141-3の画素値RRを予測値として参照し、画素141-5の画素値RRをDPCM処理する場合、矢印161-5のように、画素141-5の画素値RLを予測値として参照する。同様に、DPCM処理部121は、画素141-7の画素値RLをDPCM処理する場合、矢印161-6のように、画素141-5の画素値RRを予測値として参照し、画素141-7の画素値RRをDPCM処理する場合、矢印161-7のように、画素141-7の画素値RLを予測値として参照する。
Therefore, in the first prediction method, the closest pixel to the processing target pixel among the pixels of the same color as the processing target pixel (processed pixel) can be expected to improve the prediction accuracy based on these characteristics. The pixel value of the pixel located at (the closest pixel of the same color) is used as the predicted value. In the case of the example of FIG. 7, when DPCM processing the pixel value R R of the pixel 141-1, the
また、DPCM処理部121は、画素141-2の画素値GRをDPCM処理する場合、矢印162-1のように、画素141-2の画素値GLを予測値として参照する。また、DPCM処理部121は、画素141-4の画素値GLをDPCM処理する場合、矢印162-2のように、画素141-2の画素値GRを予測値として参照し、画素141-4の画素値GRをDPCM処理する場合、矢印162-3のように、画素141-4の画素値GLを予測値として参照する。同様に、DPCM処理部121は、画素141-6の画素値GLをDPCM処理する場合、矢印162-4のように、画素141-4の画素値GRを予測値として参照し、画素141-6の画素値GRをDPCM処理する場合、矢印162-5のように、画素141-6の画素値GLを予測値として参照する。同様に、DPCM処理部121は、画素141-8の画素値GLをDPCM処理する場合、矢印162-6のように、画素141-6の画素値GRを予測値として参照し、画素141-8の画素値GRをDPCM処理する場合、矢印162-7のように、画素141-8の画素値GLを予測値として参照する。
Further, when the pixel value G R of the pixel 141-2 is DPCM processed, the
<第2の予測方式>
図8は、第2の予測方式について説明する図である。図8に示される画素141-1乃至画素141-8は、図7と同様の画素を示す。画素値RL、画素値RR、画素値GL、および画素値GRも図7と同様である。
<Second prediction method>
FIG. 8 is a diagram illustrating a second prediction method. Pixels 141-1 to 141-8 shown in FIG. 8 indicate pixels similar to those in FIG. 7. The pixel value R L , the pixel value R R , the pixel value G L , and the pixel value G R are also the same as in FIG. 7.
上述のように、一般的に、予測値の予測精度は、予測画素のフィルタの色(透過する波長域)が処理対象画素のフィルタの色とより近い程、高くなる。 As described above, in general, the prediction accuracy of the predicted value becomes higher as the color of the filter of the predicted pixel (transmissive wavelength range) is closer to the color of the filter of the pixel to be processed.
また、上述のように、左光電変換素子151と右光電変換素子152とでは、その画素内の位置により、主に検出する光の入射方向が互いに異なる。したがって、一般的に、予測値の予測精度は、その予測値を検出する光電変換素子の予測画素内における位置が、処理対象の画素値を検出する光電変換素子の処理対象画素内における位置と近い程、高くなる。つまり、図8の例の場合、左光電変換素子151の画素値を処理対象とする場合、左光電変換素子151の画素値を予測値とする方が、右光電変換素子152の画素値を予測値とする場合よりも、予測精度が高くなる。逆に、右光電変換素子152の画素値を処理対象とする場合、右光電変換素子152の画素値を予測値とする方が、左光電変換素子151の画素値を予測値とする場合よりも、予測精度が高くなる。
Further, as described above, in the left
そこで、第2の予測方式では、これらの特徴に基づいて予測精度の向上を期待することができるように、処理対象の画素値を検出するフォトダイオード(光電変換素子)の位置が処理対象画素と同一であり、かつ、処理対象画素と同色の画素の中で処理対象画素の最も近傍に位置する画素(同色同配置最近傍画素)の画素値を予測値とする。 Therefore, in the second prediction method, the position of the photodiode (photoelectric conversion element) that detects the pixel value to be processed is the pixel to be processed so that the prediction accuracy can be expected to be improved based on these characteristics. The pixel value of the pixel that is the same and is located closest to the pixel to be processed (the nearest pixel of the same color and the same arrangement) among the pixels of the same color as the pixel to be processed is used as the predicted value.
図8の例の場合、DPCM処理部121は、画素141-3の画素値RLをDPCM処理する場合、矢印163-1のように、画素141-1の画素値RLを予測値として参照し、画素141-3の画素値RRをDPCM処理する場合、矢印163-2のように、画素141-1の画素値RRを予測値として参照する。同様に、DPCM処理部121は、画素141-5の画素値RLをDPCM処理する場合、矢印163-3のように、画素141-3の画素値RLを予測値として参照し、画素141-5の画素値RRをDPCM処理する場合、矢印163-4のように、画素141-3の画素値RRを予測値として参照する。同様に、DPCM処理部121は、画素141-7の画素値RLをDPCM処理する場合、矢印163-5のように、画素141-5の画素値RLを予測値として参照し、画素141-7の画素値RRをDPCM処理する場合、矢印163-6のように、画素141-5の画素値RRを予測値として参照する。
In the case of the example of FIG. 8, when the
また、DPCM処理部121は、画素141-4の画素値GLをDPCM処理する場合、矢印164-1のように、画素141-2の画素値GLを予測値として参照し、画素141-4の画素値GRをDPCM処理する場合、矢印164-2のように、画素141-2の画素値GRを予測値として参照する。同様に、DPCM処理部121は、画素141-6の画素値GLをDPCM処理する場合、矢印164-3のように、画素141-4の画素値GLを予測値として参照し、画素141-6の画素値GRをDPCM処理する場合、矢印164-4のように、画素141-4の画素値GRを予測値として参照する。同様に、DPCM処理部121は、画素141-8の画素値GLをDPCM処理する場合、矢印164-5のように、画素141-6の画素値GLを予測値として参照し、画素141-8の画素値GRをDPCM処理する場合、矢印164-6のように、画素141-6の画素値GRを予測値として参照する。
Further, when the pixel value G L of the pixel 141-4 is DPCM processed, the
<予測精度の比較>
以上のような第1の予測方式と第2の予測方式とで予測精度を比較する。被写体に合焦している場合(被写体までの距離と合焦位置までの距離とが一致または近い場合)、左光電変換素子151の画素値と右光電変換素子152の画素値との差が小さく、視差による予測精度への影響は、被写体に合焦していない場合(被写体までの距離と合焦位置までの距離とが大きく離れている場合)よりも小さい。つまり、視差の影響よりも参照距離(処理対象画素と予測画素との距離)の影響の方が大きくなる。そのため、参照距離がより短くなる第1の予測方式の方が、第2の予測方式よりも予測精度が高くなる。
<Comparison of prediction accuracy>
The prediction accuracy is compared between the first prediction method and the second prediction method as described above. When the subject is in focus (when the distance to the subject and the distance to the in-focus position are the same or close to each other), the difference between the pixel value of the left
これに対して、被写体に合焦していない場合、左光電変換素子151の画素値と右光電変換素子152の画素値との差が大きく、視差による予測精度への影響は、被写体に合焦している場合よりも大きくなる。つまり、視差の影響の方が参照距離の影響よりも大きくなる。画素内位置が同一の光電変換素子により検出される画素値を予測値とする第2の予測方式はこの視差による影響を受けないので、第2の予測方式の方が第1の予測方式よりも予測精度が高くなる。
On the other hand, when the subject is not in focus, the difference between the pixel value of the left
<予測方式の制御>
予測方式設定部104が、第1の予測方式および第2の予測方式を候補とし、位相検出結果に基づいて、これらの内のいずれかを、符号化・復号に適用する予測方式として設定するようにしてもよい。その場合、上述したような各予測方式の特徴に基づいて、予測方式設定部104が、被写体に合焦しているか否かに応じて予測方式を設定する(第1の予測方式を適用するか第2の予測方式を適用するかを選択する)ようにする。
<Control of prediction method>
The prediction
例えば、被写体に合焦している場合、予測方式設定部104が、その予測方式として、第1の予測方式を設定するようにしてもよい。つまり、この場合、処理対象画素と同色の画素の中でその処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される。DPCM処理部121がこのように設定された予測方式でDPCM処理を行うことにより、符号化部101は、被写体に合焦している状態において、予測誤差の増大を抑制することができる。
For example, when the subject is in focus, the prediction
また、予測方式設定部104が、被写体に合焦していない場合、その予測方式として、第2の予測方式を設定するようにしてもよい。つまり、この場合、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、処理対象画素と同色の画素の中でその処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される。DPCM処理部121がこのように設定された予測方式でDPCM処理を行うことにより、符号化部101は、被写体に合焦していない状態において、予測誤差の増大を抑制することができる。
Further, when the prediction
さらに、予測方式設定部104が、被写体に合焦している場合および被写体に合焦していない場合のそれぞれにおいて、上述のように予測方式を設定するようにしてもよい。DPCM処理部121が、このように設定された予測方式でDPCM処理を行うことにより、符号化部101は、合焦の度合いに関わらず(被写体に合焦している場合も合焦していない場合も)、予測誤差の増大を抑制することができる。
Further, the prediction
なお、以上においては、符号化部101(DPCM処理部121)の予測を例に説明したが、復号部102(逆DPCM処理部133)についても同様である。つまり、逆DPCM処理部133が、このように設定された予測方式で逆DPCM処理を行うことにより、復号部102は、被写体に合焦している状態において、被写体に合焦していない状態において、または、合焦の度合いに関わらず(被写体に合焦している場合も合焦していない場合も)、予測誤差の増大を抑制することができる。
In the above, the prediction of the coding unit 101 (DPCM processing unit 121) has been described as an example, but the same applies to the decoding unit 102 (reverse DPCM processing unit 133). That is, the reverse
<画素アレイの他の構成例>
なお、撮像画像データは、位相差を検出できるものであればよく、上述の構成例に限定されない。例えば、撮像画像データが、図9に示されるような、1画素に4つの光電変換素子が配置される画素アレイにより生成されるようにしてもよい。
<Other configuration examples of pixel array>
The captured image data is not limited to the above-mentioned configuration example as long as it can detect the phase difference. For example, the captured image data may be generated by a pixel array in which four photoelectric conversion elements are arranged in one pixel as shown in FIG.
図9は、図7や図8と同様に、画素アレイ140の一部(赤(R)のカラーフィルタが配置された画素141と緑(G)のカラーフィルタが配置された画素141の行の一部)の構成例を示している。
FIG. 9 shows a row of
この場合、各画素141には、画素内の左上、右上、左下、および右下のそれぞれに光電変換素子が設けられており、図9に示されるように撮像画像データは、それぞれの光電変換素子で検出された画素値を有する。R00は、赤(R)のカラーフィルタが配置された画素141の画素内左上に配置された光電変換素子において検出された画素値を示し、R01は、赤(R)のカラーフィルタが配置された画素141の画素内右上に配置された光電変換素子において検出された画素値を示し、R10は、赤(R)のカラーフィルタが配置された画素141の画素内左下に配置された光電変換素子において検出された画素値を示し、R11は、赤(R)のカラーフィルタが配置された画素141の画素内右下に配置された光電変換素子において検出された画素値を示す。
In this case, each
同様に、G00は、緑(G)のカラーフィルタが配置された画素141の画素内左上に配置された光電変換素子において検出された画素値を示し、G01は、緑(G)のカラーフィルタが配置された画素141の画素内右上に配置された光電変換素子において検出された画素値を示し、G10は、緑(G)のカラーフィルタが配置された画素141の画素内左下に配置された光電変換素子において検出された画素値を示し、G11は、緑(G)のカラーフィルタが配置された画素141の画素内右下に配置された光電変換素子において検出された画素値を示す。
Similarly, G 00 indicates the pixel value detected by the photoelectric conversion element arranged in the upper left of the
この場合、図9の上の段の画素値(画素値R00、画素値R01、画素値G00、画素値G01)は、図7や図8を参照して説明した場合と同様に予測値が設定され、DPCM処理される。これに対して図9の下の段の画素値(画素値R10、画素値R11、画素値G10、画素値G11)は、以下のように処理される。 In this case, the pixel values (pixel value R 00 , pixel value R 01 , pixel value G 00 , pixel value G 01 ) in the upper row of FIG. 9 are the same as those described with reference to FIGS. 7 and 8. Predicted values are set and DPCM processed. On the other hand, the pixel values (pixel value R 10 , pixel value R 11 , pixel value G 10 , pixel value G 11 ) in the lower row of FIG. 9 are processed as follows.
<第1の予測方式>
まず、第1の予測方式について図10を参照して説明する。図10のAに示されるように、DPCM処理部121は、画素141-3の画素値R10をDPCM処理する場合、画素141-1の画素値R01および画素値R11、並びに、画素141-3の画素値R00を参照し、それらの画素値を用いて、以下の式(1)のように、画素141-3の画素値R10の予測値(Prediction(R10))を導出する。
<First prediction method>
First, the first prediction method will be described with reference to FIG. As shown in A of FIG. 10, when the
Prediction(R10) = P2(R11, R00, R10) ・・・(1) Prediction (R 10 ) = P2 (R 11 , R 00 , R 10 ) ・ ・ ・ (1)
なお、式(1)において、P2(a,b,c)は、例えば、図11に示されるように、処理対象の画素値Xの左(left)の画素値a、上(top)の画素値b、および右上(top-left)の画素値cを用いて、以下の式(2)のように導出される。 In the equation (1), P2 (a, b, c) is, for example, as shown in FIG. 11, the pixel value a on the left (left) and the pixel on the top (top) of the pixel value X to be processed. Using the value b and the upper right (top-left) pixel value c, it is derived as shown in the following equation (2).
P2(a,b,c) = Clip((a+b-c), min(a,b), max(a,b))
= Clip((R11+R00-R01), min(R11, R00), max(R11, R00))
・・・(2)
P2 (a, b, c) = Clip ((a + bc), min (a, b), max (a, b))
= Clip ((R 11 + R 00 -R 01 ), min (R 11 , R 00 ), max (R 11 , R 00 ))
... (2)
つまり、(R11+R00-R01)が、R11とR00の小さい方よりも小さい場合、予測値は、R11とR00の小さい方に設定される。また、(R11+R00-R01)が、R11とR00の大きい方よりも大きい場合、予測値は、R11とR00の大きい方に設定される。さらに、(R11+R00-R01)が、R11とR00の小さい方よりも大きく、かつ、R11とR00の大きい方よりも小さい場合、予測値は、(R11+R00-R01)に設定される。 That is, if (R 11 + R 00 -R 01 ) is smaller than the smaller of R 11 and R 00 , the predicted value is set to the smaller of R 11 and R 00 . If (R 11 + R 00 -R 01 ) is larger than the larger of R 11 and R 00 , the predicted value is set to the larger of R 11 and R 00 . Furthermore, if (R 11 + R 00 -R 01 ) is greater than the smaller of R 11 and R 00 and smaller than the larger of R 11 and R 00 , then the predicted value is (R 11 + R). 00 -R 01 ) is set.
同様に、DPCM処理部121は、図10のBに示されるように、画素141-3の画素値R11をDPCM処理する場合、画素141-3の画素値R00、画素値R10、および画素値R01を参照し、それらの画素値を用いて、以下の式(3)のように、画素141-3の画素値R11の予測値(Prediction(R11))を導出する。
Similarly, as shown in B of FIG. 10, when the
Prediction(R11) = P2(R10, R01, R00)
= Clip((R10+R01-R00), min(R10, R01), max(R10, R01))
・・・(3)
Prediction (R 11 ) = P2 (R 10 , R 01 , R 00 )
= Clip ((R 10 + R 01 -R 00 ), min (R 10 , R 01 ), max (R 10 , R 01 ))
... (3)
つまり、(R10+R01-R00)が、R10とR01の小さい方よりも小さい場合、予測値は、R10とR01の小さい方に設定される。また、(R10+R01-R00)が、R10とR01の大きい方よりも大きい場合、予測値は、R10とR01の大きい方に設定される。さらに、(R10+R01-R00)が、R10とR01の小さい方よりも大きく、かつ、R10とR01の大きい方よりも小さい場合、予測値は、(R10+R01-R00)に設定される。 That is, if (R 10 + R 01 -R 00 ) is smaller than the smaller of R 10 and R 01 , the predicted value is set to the smaller of R 10 and R 01 . Also, if (R 10 + R 01 -R 00 ) is larger than the larger of R 10 and R 01 , the predicted value is set to the larger of R 10 and R 01 . Furthermore, if (R 10 + R 01 -R 00 ) is greater than the smaller of R 10 and R 01 and smaller than the larger of R 10 and R 01 , then the predicted value is (R 10 + R). 01 -R 00 ) is set.
また、図10のCに示されるように、DPCM処理部121は、画素141-4の画素値G10をDPCM処理する場合、画素141-2の画素値G01および画素値G11、並びに、画素141-4の画素値G00を参照し、それらの画素値を用いて、以下の式(4)のように(つまり上述の式(1)の場合と同様に)、画素141-4の画素値G10の予測値(Prediction(G10))を導出する。
Further, as shown in C of FIG. 10, when the
Prediction(G10) = P2(G11, G00, G10)
= Clip((G11+G00-G10), min(G11, G00), max(G11, G00))
・・・(4)
Prediction (G 10 ) = P2 (G 11 , G 00 , G 10 )
= Clip ((G 11 + G 00 -G 10 ), min (G 11 , G 00 ), max (G 11 , G 00 ))
... (4)
つまり、(G11+G00-G01)が、G11とG00の小さい方よりも小さい場合、予測値は、G11とG00の小さい方に設定される。また、(G11+G00-G01)が、G11とG00の大きい方よりも大きい場合、予測値は、G11とG00の大きい方に設定される。さらに、(G11+G00-G01)が、G11とG00の小さい方よりも大きく、かつ、G11とG00の大きい方よりも小さい場合、予測値は、(G11+G00-G01)に設定される。 That is, if (G 11 + G 00 -G 01 ) is smaller than the smaller of G 11 and G 00 , the predicted value is set to the smaller of G 11 and G 00 . Also, if (G 11 + G 00 -G 01 ) is larger than the larger of G 11 and G 00 , the predicted value is set to the larger of G 11 and G 00 . Furthermore, if (G 11 + G 00 -G 01 ) is greater than the smaller of G 11 and G 00 and smaller than the larger of G 11 and G 00 , then the predicted value is (G 11 + G). 00 -G 01 ) is set.
同様に、DPCM処理部121は、図10のDに示されるように、画素141-4の画素値G11をDPCM処理する場合、画素141-4の画素値G00、画素値G10、および画素値G01を参照し、それらの画素値を用いて、以下の式(5)のように(つまり上述の式(3)の場合と同様に)、画素141-4の画素値G11の予測値(Prediction(G11))を導出する。
Similarly, as shown in D of FIG. 10, when the pixel value G 11 of the pixel 141-4 is DPCM processed, the
Prediction(G11) = P2(G10, G01, G00)
= Clip((G10+G01-G00), min(G10, G01), max(G10, G01))
・・・(5)
Prediction (G 11 ) = P2 (G 10 , G 01 , G 00 )
= Clip ((G 10 + G 01 -G 00 ), min (G 10 , G 01 ), max (G 10 , G 01 ))
... (5)
つまり、(G10+G01-G00)が、G10とG01の小さい方よりも小さい場合、予測値は、G10とG01の小さい方に設定される。また、(G10+G01-G00)が、G10とG01の大きい方よりも大きい場合、予測値は、G10とG01の大きい方に設定される。さらに、(G10+G01-G00)が、G10とG01の小さい方よりも大きく、かつ、G10とG01の大きい方よりも小さい場合、予測値は、(G10+G01-G00)に設定される。 That is, if (G 10 + G 01 -G 00 ) is smaller than the smaller of G 10 and G 01 , the predicted value is set to the smaller of G 10 and G 01 . Also, if (G 10 + G 01 -G 00 ) is larger than the larger of G 10 and G 01 , the predicted value is set to the larger of G 10 and G 01 . Furthermore, if (G 10 + G 01 -G 00 ) is greater than the smaller of G 10 and G 01 and smaller than the larger of G 10 and G 01 , then the predicted value is (G 10 + G). 01 -G 00 ) is set.
<第2の予測方式>
次に、第2の予測方式について図12を参照して説明する。図12のAに示されるように、DPCM処理部121は、画素141-3の画素値R10をDPCM処理する場合、画素141-1の画素値R00および画素値R10、並びに、画素141-3の画素値R00を参照し、それらの画素値を用いて、以下の式(6)のように、画素141-3の画素値R10の予測値(Prediction(R10))を導出する。なお、式(6)の場合も、P2(a,b,c)は、例えば、上述の式(2)のように導出される。
<Second prediction method>
Next, the second prediction method will be described with reference to FIG. As shown in A of FIG. 12, when the
Prediction(R10) = P2(R10, R00, R00)
= Clip((R10+R00-R00), min(R10, R00), max(R10, R00))
・・・(6)
Prediction (R 10 ) = P2 (R 10 , R 00 , R 00 )
= Clip ((R 10 + R 00 -R 00 ), min (R 10 , R 00 ), max (R 10 , R 00 ))
... (6)
つまり、(R10+R00-R00)が、R11とR00の小さい方よりも小さい場合、予測値は、R11とR00の小さい方に設定される。また、(R10+R00-R00)が、R11とR00の大きい方よりも大きい場合、予測値は、R11とR00の大きい方に設定される。さらに、(R10+R00-R00)が、R11とR00の小さい方よりも大きく、かつ、R11とR00の大きい方よりも小さい場合、予測値は、(R10+R00-R00)に設定される。 That is, if (R 10 + R 00 -R 00 ) is smaller than the smaller of R 11 and R 00 , the predicted value is set to the smaller of R 11 and R 00 . If (R 10 + R 00 -R 00 ) is larger than the larger of R 11 and R 00 , the predicted value is set to the larger of R 11 and R 00 . Furthermore, if (R 10 + R 00 -R 00 ) is greater than the smaller of R 11 and R 00 and smaller than the larger of R 11 and R 00 , then the predicted value is (R 10 + R). 00 -R 00 ) is set.
同様に、DPCM処理部121は、図12のBに示されるように、画素141-4の画素値R11をDPCM処理する場合、画素141-2の画素値R01、画素値R11、並びに、画素141ー4の画素値R01を参照し、それらの画素値を用いて、以下の式(7)のように、画素141-4の画素値R11の予測値(Prediction(R11))を導出する。なお、式(7)の場合も、P2(a,b,c)は、例えば、上述の式(2)のように導出される。
Similarly, as shown in B of FIG. 12, when the
Prediction(R11) = P2(R11, R01, R01)
= Clip((R11+R01-R01), min(R11, R01), max(R11, R01))
・・・(7)
Prediction (R 11 ) = P2 (R 11 , R 01 , R 01 )
= Clip ((R 11 + R 01 -R 01 ), min (R 11 , R 01 ), max (R 11 , R 01 ))
... (7)
つまり、(R11+R01-R01)が、R11とR01の小さい方よりも小さい場合、予測値は、R11とR01の小さい方に設定される。また、(R11+R01-R01)が、R11とR01の大きい方よりも大きい場合、予測値は、R11とR01の大きい方に設定される。さらに、(R11+R01-R01)が、R11とR01の小さい方よりも大きく、かつ、R11とR01の大きい方よりも小さい場合、予測値は、(R11+R01-R01)に設定される。 That is, if (R 11 + R 01 -R 01 ) is smaller than the smaller of R 11 and R 01 , the predicted value is set to the smaller of R 11 and R 01 . Also, if (R 11 + R 01 -R 01 ) is larger than the larger of R 11 and R 01 , the predicted value is set to the larger of R 11 and R 01 . Furthermore, if (R 11 + R 01 -R 01 ) is greater than the smaller of R 11 and R 01 and smaller than the larger of R 11 and R 01 , then the predicted value is (R 11 + R). 01 -R 01 ) is set.
また、図12のCに示されるように、DPCM処理部121は、画素141-4の画素値G10をDPCM処理する場合、画素141-2の画素値G00および画素値G10、並びに、画素141-4の画素値G00を参照し、それらの画素値を用いて、以下の式(8)のように(つまり上述の式(6)の場合と同様に)、画素141-4の画素値G10の予測値(Prediction(G10))を導出する。
Further, as shown in C of FIG. 12, when the
Prediction(G10) = P2(G10, G00, G00)
= Clip((G10+G00-G00), min(G10, G00), max(G10, G00))
・・・(8)
Prediction (G 10 ) = P2 (G 10 , G 00 , G 00 )
= Clip ((G 10 + G 00 -G 00 ), min (G 10 , G 00 ), max (G 10 , G 00 ))
... (8)
つまり、(G10+G00-G00)が、G10とG00の小さい方よりも小さい場合、予測値は、G10とG00の小さい方に設定される。また、(G10+G00-G00)が、G10とG00の大きい方よりも大きい場合、予測値は、G10とG00の大きい方に設定される。さらに、(G10+G00-G00)が、G10とG00の小さい方よりも大きく、かつ、G10とG00の大きい方よりも小さい場合、予測値は、(G10+G00-G00)に設定される。 That is, if (G 10 + G 00 -G 00 ) is smaller than the smaller of G 10 and G 00 , the predicted value is set to the smaller of G 10 and G 00 . Also, if (G 10 + G 00 -G 00 ) is larger than the larger of G 10 and G 00 , the predicted value is set to the larger of G 10 and G 00 . Furthermore, if (G 10 + G 00 -G 00 ) is greater than the smaller of G 10 and G 00 and smaller than the larger of G 10 and G 00 , then the predicted value is (G 10 + G). 00 -G 00 ) is set.
同様に、DPCM処理部121は、図12のDに示されるように、画素141-4の画素値G11をDPCM処理する場合、画素141-2の画素値G01および画素値G11、並びに、画素141-4の画素値G01を参照し、それらの画素値を用いて、以下の式(9)のように(つまり上述の式(7)の場合と同様に)、画素141-4の画素値G11の予測値(Prediction(G11))を導出する。
Similarly, as shown in D of FIG. 12, when the pixel value G 11 of the pixel 141-4 is DPCM processed, the
Prediction(G11) = P2(G11, G01, G01)
= Clip((G11+G01-G01), min(G11, G01), max(G11, G01))
・・・(9)
Prediction (G 11 ) = P2 (G 11 , G 01 , G 01 )
= Clip ((G 11 + G 01 -G 01 ), min (G 11 , G 01 ), max (G 11 , G 01 ))
... (9)
つまり、(G11+G01-G01)が、G11とG01の小さい方よりも小さい場合、予測値は、G11とG01の小さい方に設定される。また、(G11+G01-G01)が、G11とG01の大きい方よりも大きい場合、予測値は、G11とG01の大きい方に設定される。さらに、(G11+G01-G01)が、G11とG01の小さい方よりも大きく、かつ、G11とG01の大きい方よりも小さい場合、予測値は、(G11+G01-G01)に設定される。 That is, if (G 11 + G 01 -G 01 ) is smaller than the smaller of G 11 and G 01 , the predicted value is set to the smaller of G 11 and G 01 . Also, if (G 11 + G 01 -G 01 ) is larger than the larger of G 11 and G 01 , the predicted value is set to the larger of G 11 and G 01 . Furthermore, if (G 11 + G 01 -G 01 ) is larger than the smaller of G 11 and G 01 and smaller than the larger of G 11 and G 01 , the predicted value is (G 11 + G). 01 -G 01 ) is set.
<予測精度の比較>
この場合も、第1の予測方式および第2の予測方式のそれぞれの特徴は、上述した各画素の2つの光電変換素子が設けられる場合と同様である。
<Comparison of prediction accuracy>
In this case as well, the characteristics of the first prediction method and the second prediction method are the same as in the case where the two photoelectric conversion elements of each pixel described above are provided.
<予測方式の制御>
したがって、この場合も、予測方式設定部104は、第1の予測方式および第2の予測方式を候補とし、位相検出結果に基づいて、上述した各画素の2つの光電変換素子が設けられる場合と同様に、これらの内のいずれかを、符号化・復号に適用する予測方式として設定するようにしてもよい。このようにすることにより、上述した例と同様の効果を得ることができる。
<Control of prediction method>
Therefore, in this case as well, the prediction
なお、以上においては、予測値導出の演算例として式(2)を挙げたが、予測値の導出方法は任意であり、この例に限定されない。 In the above, the equation (2) is given as an example of the operation for deriving the predicted value, but the method for deriving the predicted value is arbitrary and is not limited to this example.
<画像処理の流れ>
次に、図2の画像処理装置100により実行される画像処理の流れの例を、図13のフローチャートを参照して説明する。
<Flow of image processing>
Next, an example of the flow of image processing executed by the
画像処理が開始されると、予測方式設定部104は、図13のステップS101において、符号化・復号に適用する予測方式の設定を初期化する。
When the image processing is started, the prediction
ステップS102において、符号化部101は、予測方式設定部104により現在設定されている予測方式を用いて撮像画像データを簡易符号化し、撮像画像データの符号化データを生成する。
In step S102, the
ステップS103において、復号部102は、予測方式設定部104により現在設定されている予測方式を用いて、ステップS102において生成された符号化データを簡易復号し、撮像画像データを生成する。
In step S103, the
ステップS104において、位相差検出部103は、ステップS103において生成あされた撮像画像データを用いて、位相差を検出する。
In step S104, the phase
ステップS105において、予測方式設定部104は、ステップS104において得られる位相差検出結果を合焦に関するパラメータとし、その位相差検出結果に基づいて、符号化・復号に適用する予測方式を設定する。
In step S105, the prediction
例えば、予測方式設定部104は、被写体に合焦しているか否かに応じて、符号化・復号に適用する予測方式を、候補(例えば第1の予測方式および第2の予測方式)の中から選択する。例えば、予測方式設定部104は、位相検出結果に基づいて、被写体に合焦していると判定された場合、第1の予測方式を選択し、被写体に合焦していないと判定された場合、第2の予測方式を選択する。
For example, the prediction
ステップS106において、符号化部101は、全フレームを処理したか否かを判定する。未処理のフレームが存在する、すなわち、撮像画像データの新たなフレームが画像処理装置100に入力されると判定された場合、処理はステップS102に戻り、それ以降の処理が繰り返される。
In step S106, the
ステップS102乃至ステップS106の処理が各フレームについて実行され、ステップS106において、入力された撮像画像データの全フレームを処理したと判定された場合、画像処理が終了する。 When the processing of steps S102 to S106 is executed for each frame and it is determined in step S106 that all the frames of the input captured image data have been processed, the image processing ends.
<簡易符号化処理の流れ>
次に、図14のフローチャートを参照して、図13のステップS102において実行される簡易符号化処理の流れの例を説明する。
<Flow of simple coding process>
Next, an example of the flow of the simple coding process executed in step S102 of FIG. 13 will be described with reference to the flowchart of FIG.
簡易符号化処理が開始されると、DPCM処理部121は、ステップS121において、撮像画像データをDPCM処理し、撮像画像データと予測値との残差データ(予測誤差)を生成する。
When the simple coding process is started, the
その際、DPCM処理部121は、予測方式設定部104により設定された予測方式(図13のステップS101またはステップS105において設定された予測方式)を用いて撮像画像データをDPCM処理する。例えば、DPCM処理部121は、被写体に合焦しているか否かに応じて設定された第1の予測方式または第2の予測方式により撮像画像データをDPCM処理する。
At that time, the
ステップS122において、ゴロム符号化部122は、ステップS121の処理により得られた残差データ(予測誤差)をゴロム符号化する。
In step S122, the
ステップS123において、圧縮率調整部123は、ステップS122の処理により得られたゴロム符号に対して、例えばデータを量子化したりデータを付加したりして、符号化データの圧縮率を調整する。
In step S123, the compression
ステップS123の処理により、所定の圧縮率の符号化データが得られると、簡易符号化処理が終了し、処理は、図13に戻る。 When the coded data having a predetermined compression rate is obtained by the process of step S123, the simple coding process is completed, and the process returns to FIG.
<簡易復号処理の流れ>
次に、図15のフローチャートを参照して、図13のステップS103において実行される簡易復号処理の流れの例を説明する。
<Flow of simple decryption process>
Next, an example of the flow of the simple decoding process executed in step S103 of FIG. 13 will be described with reference to the flowchart of FIG.
簡易復号処理が開始されると、ステップS131において、圧縮率逆調整部131は、符号化データの圧縮率の逆調整(すなわち、図14のステップS123の処理の逆処理)を行うことにより、圧縮率を調整する前のゴロム符号を復元する。
When the simple decoding process is started, in step S131, the compression rate
ステップS132において、ゴロム復号部132は、ステップS131の処理により得られた各ゴロム符号をゴロム復号し、残差データ(予測誤差)を復元する。
In step S132, the
ステップS133において、逆DPCM処理部133は、ステップS132の処理により得られた残差データを用いて逆DPCM処理(すなわち、図14のステップS121の処理の逆処理)を行う。つまり、逆DPCM処理部133は、残差データ同士を加算する等して各画素値を復元し、撮像画像データを生成する。
In step S133, the reverse
その際、逆DPCM処理部133は、予測方式設定部104により設定された予測方式(図13のステップS101またはステップS105において設定された予測方式)を用いて残差データを逆DPCM処理する。例えば、逆DPCM処理部133は、被写体に合焦しているか否かに応じて設定された第1の予測方式または第2の予測方式により残差データを逆DPCM処理する。
At that time, the reverse
ステップS133の処理により撮像画像データが得られると、簡易復号処理が終了し、処理は、図13に戻る。 When the captured image data is obtained by the process of step S133, the simple decoding process is completed, and the process returns to FIG.
以上のように各処理を実行することにより、符号化・復号における予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号画像の画質の低減を抑制することができる。 By executing each process as described above, it is possible to suppress an increase in prediction error in coding / decoding. As a result, in the case of variable-length coding, it is possible to suppress a decrease in coding efficiency. Further, in the case of fixed-length coding, it is possible to suppress a decrease in the image quality of the decoded image.
<撮像装置>
以上のような「方法1」の本技術は、任意の電子機器に適用することができる。例えば、撮像装置にも適用することができる。図16は、本技術を適用した撮像装置の主な構成例を示すブロック図である。図16に示される撮像装置170は、被写体を撮像し、撮像画像データを生成し、記録したり、出力したりする。
<Image pickup device>
The present technology of "
図16に示されるように、撮像装置170は、レンズ171、イメージセンサ172、信号処理部173、出力部174、および記憶部175を有する。
As shown in FIG. 16, the
レンズ171は、後述する信号処理部173のレンズ制御部192により制御され、焦点距離を調整するための光学系である。絞り等を含むようにしてもよい。被写体からの光は、このレンズ171を介してイメージセンサ172に入射する。
The
イメージセンサ172は、レンズ171を介して入射する被写体からの光を受光し、撮像画像データを生成する。さらに、イメージセンサ172は、その撮像画像データを簡易符号化し、符号化データとして信号処理部173に供給する。
The
信号処理部173は、イメージセンサ172から供給される符号化データを復号し、撮像画像データを生成する。信号処理部173は、その撮像画像データを出力部174や記憶部175に供給する。また、信号処理部173は、その撮像画像データから位相差を検出し、その位相差検出結果に基づいてレンズ171を制御し、焦点距離の制御を行う。さらに、信号処理部173は、その位相差検出結果に基づいて、符号化・復号において適用される予測方式の制御を行う。
The
出力部174は、信号処理部173から供給される撮像画像データを取得し、それを撮像装置170の外部に出力する。例えば、出力部174は、表示部(モニタ)を有し、撮像画像をその表示部に表示する。また、例えば、出力部174は、外部出力端子を有し、撮像画像データを、その外部出力端子を介して他の装置に供給する。
The
記憶部175は、信号処理部173から供給される撮像画像データを取得し、それを記憶する。例えば、記憶部175は、ハードディスクやフラッシュメモリ等の記憶媒体を有し、信号処理部173から供給された撮像画像データをその記憶媒体に記憶させる。
The
なお、記憶部175は、その記憶媒体に記憶された撮像画像データを適宜読み出し、出力部174等の他の処理部に供給することができる。また、その記憶媒体は、撮像装置170(記憶部175)に対して着脱可能なメディア(リムーバブルメディア)であってもよい。
The
<イメージセンサ>
イメージセンサ172は、受光部181、ADC(Analog Digital Converter)182、符号化部101、および送信部183を有する。
<Image sensor>
The
受光部181は、例えば、図5や図6を参照して説明したような画素アレイ140を有し、被写体からの光を受光して光電変換し、各画素値を検出する。受光部181は、検出した各画素値をADC182に供給する。
The
ADC182は、受光部181から供給される電気信号(画素値)をA/D変換し、デジタルデータの撮像画像データを生成する。この撮像画像データは、図7乃至図12を参照して説明したように、各画素が複数の画素値を有し、それらを用いて位相差を検出することができるデータ構造を有する。ADC182は、生成した撮像画像データを符号化部101に供給する。
The ADC 182 A / D-converts an electric signal (pixel value) supplied from the
符号化部101は、ADC182から供給される撮像画像データを取得する。また、符号化部101は、後述する信号処理部173の予測方式設定部104から供給される予測方式の設定に関する情報(予測方式設定部104が設定した予測方式を示す情報)を取得する。符号化部101は、画像処理装置100の場合と同様に、例えば図3に示されるような構成を有し、図14のフローチャートを参照して説明したような簡易符号化処理を行って撮像画像データを簡易符号化し、符号化データを生成する。その際、符号化部101は、予測方式設定部104から供給された情報に基づいて(つまり、予測方式設定部104により設定された予測方式を用いて)、その簡易符号化を行う。符号化部101は、生成した符号化データを送信部183に供給する。
The
送信部183は、符号化部101から供給された符号化データを取得し、それを信号処理部173(の受信部191)に送信する。
The
<信号処理部>
信号処理部173は、受信部191、復号部102、位相差検出部103、予測方式設定部104、レンズ制御部192、および画像処理部193を有する。
<Signal processing unit>
The
受信部191は、イメージセンサ172の送信部183から送信された符号化データを受信する。受信部191は、受信した符号化データを復号部102に供給する。
The receiving
復号部102は、受信部191から供給される符号化データを取得する。また、復号部102は、予測方式設定部104から供給される予測方式の設定に関する情報(予測方式設定部104が設定した予測方式を示す情報)を取得する。復号部102は、画像処理装置100の場合と同様に、例えば図4に示されるような構成を有し、図15のフローチャートを参照して説明したような簡易復号処理を行って符号化データを簡易復号し、撮像画像データを生成する。その際、復号部102は、予測方式設定部104から供給された情報に基づいて(予測方式設定部104により設定された予測方式、つまり、符号化部101が簡易符号化に適用した予測方式を用いて)、その簡易復号を行う。復号部102は、生成した撮像画像データを位相差検出部103および画像処理部193に供給する。
The
位相差検出部103は、復号部102から供給される撮像画像データを取得する。位相差検出部103は、画像処理装置100の場合と同様に、復号部102から供給される撮像画像データ(復号結果)を用いて、(被写体への)合焦のための位相差の検出を行う。この撮像画像データは像面において位相差を検出可能な撮像素子により生成されたものであり、位相差検出部103は、この撮像画像データから位相差を検出することができる。さらに、位相差検出部103は、導出した位相差検出結果を予測方式設定部104およびレンズ制御部192に供給する。
The phase
予測方式設定部104は、位相差検出部103から供給される位相差検出結果を取得する。予測方式設定部104は、画像処理装置100の場合と同様に、その取得した位相差検出結果に基づいて、符号化や復号に適用される予測方式を設定する。予測方式設定部104は、設定した予測方式を示す情報を符号化部101および復号部102に供給する。
The prediction
レンズ制御部192は、位相差検出部103から供給される位相差検出結果を取得する。レンズ制御部192は、その位相差検出結果に基づいて、被写体に合焦させるようにレンズ171を制御する制御信号を生成し、それをレンズ171に供給する。つまり、レンズ制御部192は、被写体に合焦させるようにレンズ171を制御する。
The
画像処理部193は、復号部102から供給される撮像画像データを取得する。画像処理部193は、その撮像画像データに対する画像処理を行う。この画像処理の内容は任意である。画像処理部193は、画像処理後の撮像画像データを、出力部174および記憶部175の少なくともいずれか一方に供給する。もちろん、画像処理部193は、その画像処理をスキップすることもできる。その場合、画像処理部193は、取得した撮像画像データを出力部174および記憶部175の少なくともいずれか一方に供給する。
The
以上のように、撮像装置170のイメージセンサ172と信号処理部173との間において、撮像画像データは、簡易符号化されて伝送される。そして、符号化部101は、予測方式設定部104により位相差検出結果に基づいて設定された予測方式(例えば被写体に合焦しているか否かに応じて選択された予測方式)を用いて、撮像画像データの簡易符号化を行う。同様に、復号部102は、予測方式設定部104により位相差検出結果に基づいて設定された予測方式(例えば被写体に合焦しているか否かに応じて選択された予測方式)を用いて、符号化データの簡易復号を行う。
As described above, the captured image data is simply encoded and transmitted between the
したがって、撮像装置170は、この簡易符号化・簡易復号における予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号画像の画質の低減を抑制することができる。
Therefore, the
また、焦点距離制御のための位相差検出の結果を利用して符号化および復号に適用される予測方式を求めるので、撮像装置170は、その予測方式の設定に関する処理による符号化や復号の負荷の増大を抑制することができる。また、符号化において適用された予測方式を示す予測方式情報を符号化部101から復号部102に伝送させる必要が無いため、撮像装置170は、符号化効率の低減を抑制することができる。さらに、撮像装置170は、焦点距離制御のための位相差検出の結果を利用することにより、より正確に合焦の度合いに応じて予測方式を設定することができる。すなわち、撮像装置170は、予測誤差の増大をより抑制することができる。
Further, since the prediction method applied to the coding and decoding is obtained by using the result of the phase difference detection for the focal length control, the
<撮像処理の流れ>
この撮像装置170が被写体を撮像するために実行する撮像処理の流れの例を、図17および図18のフローチャートを参照して説明する。
<Flow of imaging process>
An example of the flow of the image pickup process executed by the
撮像処理が開始されると、ステップS151において、レンズ171は、合焦位置を初期化する。ステップS152において、予測方式設定部104は、予測方式の設定を初期化する。
When the imaging process is started, in step S151, the
ステップS153において、受光部181は、被写体を撮像し、被写体からの光を光電変換して電気信号として各画素値を得る。ステップS154において、ADC182は、その画素値をA/D変換してデジタルデータの撮像画像データを生成する。
In step S153, the
ステップS155において、符号化部101は、図14のフローチャートを参照して説明したように簡易符号化処理を実行し、ステップS152またはステップS164(図18)において設定された予測方式で撮像画像データを簡易符号化し、符号化データを生成する。
In step S155, the
ステップS156において、送信部183は、ステップS155において生成された符号化データを送信する。図18のステップS161において、受信部191は、ステップS156において送信された符号化データを受信する。
In step S156, the
ステップS162において、復号部102は、図15のフローチャートを参照して説明したように簡易復号処理を実行し、ステップS152またはステップS164において設定された予測方式(つまりステップS155において適用されたのと同一の予測方式)で符号化データを簡易復号し、撮像画像データを生成する。
In step S162, the
ステップS163において、位相差検出部103は、ステップS162において生成された撮像画像データを用いて位相差を検出する。ステップS164において、予測方式設定部104は、ステップS163において得られた位相差検出結果に基づいて、符号化・復号に適用される予測方式を設定する。
In step S163, the phase
ステップS165において、レンズ制御部192は、位相差検出結果に基づいてレンズ171を制御し、合焦位置を更新する。ステップS166において、画像処理部193は、ステップS162において生成された撮像画像データに対する画像処理を行う。
In step S165, the
ステップS167において、出力部174は、ステップS166の画像処理後の撮像画像データを、撮像装置170の外部に出力する。また、記憶部175は、その撮像画像データを記憶媒体に記憶する。
In step S167, the
ステップS168において、撮像装置170は、撮像処理を終了するか否かを判定する。撮像を継続し、新たなフレーム画像を生成すると判定された場合、処理は、図17のステップS153に戻る。つまり、撮像装置170は、ステップS153乃至ステップS168の各処理をフレーム毎に実行する。例えばユーザ指示等に基づいて、ステップS168において、撮像処理を終了すると判定された場合、撮像処理が終了する。
In step S168, the
以上のように撮像処理を行うことにより、撮像装置170は、ステップS155の簡易符号化(図17)やステップS162の簡易復号(図18)における予測誤差の増大を抑制することができる。
By performing the image pickup process as described above, the
<3.第2の実施の形態>
<画像処理装置>
本実施の形態においては、「方法2」について説明する。図19は、本技術を適用した画像処理装置の構成の一例を示すブロック図である。図19に示される画像処理装置200は、画像処理装置100と同様、入力された撮像画像データを符号化して符号化データを生成し、さらに、その符号化データを復号して撮像画像データを生成し、出力する装置である。ただし、この画像処理装置200は、その撮像画像データの符号化・復号における予測方式の制御方法として「方法2」を適用する。図19に示されるように、この画像処理装置200は、符号化部201および復号部102を有する。
<3. Second Embodiment>
<Image processing device>
In the present embodiment, "
符号化部201は、画像の符号化に関する処理を行う。例えば、符号化部201は、画像処理装置200に入力された撮像画像データを取得する。また、符号化部201は、符号化部101と同様、取得した撮像画像データを簡易符号化する。その際、符号化部201は、撮像画像データを、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて符号化する。ただし、符号化部201は、その撮像画像データに基づいて予測方式を設定し、自身で設定した予測方式を適用して簡易符号化を行う。例えば、符号化部201は、撮像画像データを用いて各予測方式による予測を行い、各予測の結果を合焦に関するパラメータとして用い、予測方式を設定する。
The
符号化部201は、符号化部101と同様、生成した符号化データを、記録媒体または伝送媒体を介して、復号部202に供給する。ただし、符号化部201は、設定した予測方式を示す予測方式情報を、撮像画像データを符号化して生成した符号化データに付加し、その予測方式情報を付加した符号化データを復号部202に供給する。つまり、この場合、予測方式情報が、符号化部201から復号部202に供給される。
Similar to the
復号部202は、画像の復号に関する処理を行う。例えば、復号部202は、復号部102と同様、記録媒体または伝送媒体を介して符号化部201から供給される符号化データを取得する。また、復号部202は、復号部102と同様、その取得した符号化データを簡易復号する。その際、復号部202は、符号化データを、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて復号する。ただし、復号部202は、その符号化データに付加された予測方式情報により示される、符号化の際に用いられた予測方式を適用して簡易復号を行う。復号部202は、その生成した撮像画像データを、画像処理装置100の外部に出力する。
The
図20は、その符号化データの主な構成例を示す図である。図20に示される符号化データ210は、符号化部201により生成され、復号部202に供給される符号化データである。図20に示されるように、符号化データ210は、ヘッダ211、予測方式情報212、VLC(Variable Length Code)213、およびリファインメント214を含む。
FIG. 20 is a diagram showing a main configuration example of the coded data. The coded
ヘッダ211には、符号化データ210に関する各種ヘッダ情報が格納される。予測方式情報212は、符号化部201が設定した予測方式(符号化に適用された予測方式)を示す情報である。VLC213は、撮像画像データの符号化データ(例えばゴロム符号)により構成される。リファインメント214は、圧縮率調整用に付加されたビットデータである。
Various header information related to the coded
このように、予測方式情報212は、撮像画像データの符号化データに付加されて符号化部201から復号部202に供給される。したがって、復号部202は、予測方式設定部から情報を受け取らずに(符号化データを取得するだけで)、符号化に適用されたのと同一の予測方式を復号に適用することができる。
In this way, the
以上に説明した符号化部201および復号部202は、1つの装置(例えば画像処理装置200)として構成されるようにしてもよいし、互いに異なる装置として構成されるようにしてもよい。
The
<符号化部>
図21は、図19の符号化部201の主な構成例を示すブロック図である。図21に示されるように、この場合の符号化部201は、予測方式設定部221および符号化部222を有する。
<Code-coded part>
FIG. 21 is a block diagram showing a main configuration example of the
予測方式設定部221は、画像処理装置200に入力された撮像画像データを取得し、その撮像画像データに基づいて予測方式を設定する。この予測方式の設定方法は任意である。例えば、予測方式設定部221が、撮像画像データを用いて候補として用意される各予測方式による予測を行い、各予測の結果を合焦に関するパラメータとして用い、予測方式を設定するようにしてもよい。より具体的には、例えば、予測方式設定部221が、撮像画像データを、予測方式の各候補を適用して符号化し、それぞれの符号化効率を比較して、最も符号化効率の良い符号化方式を選択するようにしてもよい。予測方式設定部221は、設定した予測方式を符号化部222に通知する。
The prediction
符号化部222は、画像処理装置200に入力された撮像画像データを取得する。また、符号化部222は、その取得した撮像画像データを、予測方式設定部221から通知された予測方式を適用して簡易符号化する。また、符号化部222は、その適用した予測方式を示す予測方式情報を生成する。符号化部222は、生成した符号化データに、生成した予測方式情報を付加し、復号部202に供給する。
The
符号化部222は、符号化部101と同様の処理部であり、同様の処理を行う。つまり、符号化部222が、例えば、図3に示されるような構成を有し、図14のフローチャートを参照して説明したような簡易符号化処理を行うようにしてもよい。
The
第1の実施の形態において説明したように、被写体に合焦している場合は、第1の予測方式の方が第2の予測方式よりも予測精度が高く、被写体に合焦していない場合は、第2の予測方式の方が第1の予測方式よりも予測精度が高い。予測方式設定部221は、全ての候補の予測結果を比較して、より符号化効率の良い予測方式を選択するので、このような合焦の度合いに応じた予測精度の変化にも対応することができる(合焦の度合いに依らず、より符号化効率の良い予測方式を選択することができる)。つまり、符号化部222(符号化部201)は、予測誤差の増大を抑制することができる。
As described in the first embodiment, when the subject is in focus, the first prediction method has higher prediction accuracy than the second prediction method, and the subject is not in focus. The second prediction method has higher prediction accuracy than the first prediction method. Since the prediction
付言するに、予測方式設定部221は、第1の実施の形態の場合のように、復号された撮像画像データに基づく情報(復号された撮像画像データに基づいて設定された予測方式を示す情報)を必要とせずに、予測方式を設定することができる。
In addition, as in the case of the first embodiment, the prediction
<復号部>
図22は、図19の復号部202の主な構成例を示すブロック図である。図22に示されるように、復号部202は、予測方式設定部231および復号部232を有する。
<Decoding unit>
FIG. 22 is a block diagram showing a main configuration example of the
予測方式設定部231は、符号化部201から供給される符号化データを取得する。この符号化データには予測方式情報が付加されている。予測方式設定部231は、取得した符号化データをパースし、予測方式情報を取得する。予測方式設定部231は、その予測方式情報により指定される予測方式(つまり、符号化において適用された予測方式)を復号部232に通知する。
The prediction
復号部232は、その通知を受け取り、予測方式設定部231から通知された予測方式を用いて、予測方式設定部231から供給される符号化データを簡易復号し、撮像画像データを生成する。このようにすることにより、復号部232は、符号化において適用された予測方式を復号に適用することができる。復号部232は、生成した撮像画像データを画像処理装置200の外部に出力する。
Upon receiving the notification, the
復号部232は、復号部102と同様の処理部であり、同様の処理を行う。つまり、復号部232が、例えば、図4に示されるような構成を有し、図15のフローチャートを参照して説明したような簡易復号処理を行うようにしてもよい。
The
予測方式設定部231が、符号化部201から供給された予測方式情報に基づいて予測方式を設定するので、復号部232は、符号化に適用された予測方式で復号を行うことができる。したがって、復号部232(復号部202)は、合焦の度合いに応じた予測精度の変化にも対応することができ、予測誤差の増大を抑制することができる。
Since the prediction
<画像処理の流れ>
次に、図19の画像処理装置200により実行される画像処理の流れの例を、図23のフローチャートを参照して説明する。
<Flow of image processing>
Next, an example of the flow of image processing executed by the
画像処理が開始されると、符号化部201(の予測方式設定部221)および復号部202(の予測方式設定部231)は、図23のステップS201において、符号化・復号に適用する予測方式の設定を初期化する。 When the image processing is started, the coding unit 201 (prediction method setting unit 221) and the decoding unit 202 (prediction method setting unit 231) apply the prediction method to the coding / decoding in step S201 of FIG. Initialize the settings of.
ステップS202において、符号化部201は、符号化処理を実行し、撮像画像データに基づいて予測方式を設定し、その予測方式を用いて撮像画像データを簡易符号化し、撮像画像データの符号化データを生成する。
In step S202, the
ステップS203において、復号部202は、復号処理を実行し、予測方式情報に基づいて予測方式を設定し、その予測方式を用いて、ステップS202において生成された符号化データを簡易復号し、撮像画像データを生成する。
In step S203, the
ステップS204において、符号化部201は、全フレームを処理したか否かを判定する。未処理のフレームが存在する、すなわち、撮像画像データの新たなフレームが画像処理装置200に入力されると判定された場合、処理はステップS202に戻り、それ以降の処理が繰り返される。
In step S204, the
ステップS202乃至ステップS204の処理が各フレームについて実行され、ステップS204において、入力された撮像画像データの全フレームを処理したと判定された場合、画像処理が終了する。 When the processing of steps S202 to S204 is executed for each frame and it is determined in step S204 that all the frames of the input captured image data have been processed, the image processing ends.
<符号化処理の流れ>
次に、図24のフローチャートを参照して、図23のステップS202において実行される符号化処理の流れの例を説明する。
<Flow of coding process>
Next, an example of the flow of the coding process executed in step S202 of FIG. 23 will be described with reference to the flowchart of FIG. 24.
符号化処理が開始されると、予測方式設定部221は、ステップS211において、撮像画像データに基づいて予測方式を設定する。ステップS212において、符号化部222は、ステップS211において設定された予測方式で、撮像画像データを簡易符号化し、符号化データを生成する。この簡易符号化は、図14のフローチャートを参照して説明した簡易符号化処理と同様である。
When the coding process is started, the prediction
ステップS213において、符号化部222は、簡易符号化に適用した予測方式を示す予測方式情報を生成し、それをステップS212において生成した符号化データに付加する。ステップS213の処理が終了すると、符号化処理が終了し、処理は図23に戻る。
In step S213, the
<復号処理の流れ>
次に、図25のフローチャートを参照して、図23のステップS203において実行される復号処理の流れの例を説明する。
<Flow of decryption process>
Next, an example of the flow of the decoding process executed in step S203 of FIG. 23 will be described with reference to the flowchart of FIG.
復号処理が開始されると、予測方式設定部231は、ステップS221において、符号化データをパースし、予測方式情報を抽出する。ステップS222において、予測方式設定部231は、ステップS221において抽出した予測方式情報に基づいて予測方式を設定する。
When the decoding process is started, the prediction
ステップS223において、復号部232は、ステップS222において設定された予測方式で、符号化データを簡易復号し、撮像画像データを生成する。この簡易復号は、図15のフローチャートを参照して説明した簡易復号処理と同様である。ステップS223の処理が終了すると、復号処理が終了し、処理は図23に戻る。
In step S223, the
以上のように各処理を実行することにより、符号化・復号における予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号画像の画質の低減を抑制することができる。 By executing each process as described above, it is possible to suppress an increase in prediction error in coding / decoding. As a result, in the case of variable-length coding, it is possible to suppress a decrease in coding efficiency. Further, in the case of fixed-length coding, it is possible to suppress a decrease in the image quality of the decoded image.
<撮像装置>
以上のような「方法2」の本技術は、任意の電子機器に適用することができる。例えば、撮像装置にも適用することができる。図26は、本技術を適用した撮像装置の主な構成例を示すブロック図である。図26に示される撮像装置250は、撮像装置170と同様の装置である。
<Image pickup device>
The present technology of "
図26に示されるように、撮像装置250は、レンズ251、イメージセンサ252、信号処理部253、出力部254、および記憶部255を有する。
As shown in FIG. 26, the
レンズ251は、レンズ171と同様の構成を有し、同様に機能する。イメージセンサ252は、イメージセンサ172と同様の処理部である。信号処理部253は、信号処理部173と同様の処理部である。出力部254は、出力部174と同様の処理部である。記憶部255は、記憶部175と同様の処理部である。
The
ただし、イメージセンサ252において行われる簡易符号化に適用される予測方式は、イメージセンサ252において設定され、信号処理部253において行われる簡易復号に適用される予測方式は、イメージセンサ172から供給される予測方式情報に基づいて設定される。
However, the prediction method applied to the simple coding performed in the
<イメージセンサ>
イメージセンサ252は、受光部261、ADC262、符号化部201、および送信部263を有する。
<Image sensor>
The
受光部261は、受光部181と同様の処理部であり、同様の構成を有し、同様の処理を行う。ADC262は、ADC182と同様の処理部であり、同様の構成を有し、同様の処理を行う。送信部263は、送信部183と同様の処理部であり、同様の構成を有し、同様の処理を行う。
The
符号化部201は、ADC262から供給される撮像画像データを取得する。また、符号化部201は、画像処理装置200の場合と同様に、例えば図21に示されるような構成を有し、図24のフローチャートを参照して説明したような符号化処理を行って、撮像画像データから予測方式を設定し、その予測方式を用いて撮像画像データを簡易符号化し、符号化データを生成する。符号化部201は、生成した符号化データを送信部263に供給する。
The
<信号処理部>
信号処理部253は、受信部271、復号部202、位相差検出部272、レンズ制御部273、および画像処理部274を有する。
<Signal processing unit>
The
受信部271は、受信部191と同様の処理部であり、同様の構成を有し、同様の処理を行う。位相差検出部272は、位相差検出部103と同様の処理部であり、同様の構成を有し、同様の処理を行う。レンズ制御部273は、レンズ制御部192と同様の処理部であり、同様の構成を有し、同様の処理を行う。画像処理部274は、画像処理部193と同様の処理部であり、同様の構成を有し、同様の処理を行う。
The receiving
復号部202は、受信部271から供給される符号化データを取得する。復号部202は、画像処理装置200の場合と同様に、例えば図22に示されるような構成を有し、図25のフローチャートを参照して説明したような復号処理を行って、符号化データから予測方式情報を抽出し、その予測方式情報に基づいて予測方式を設定し、その予測方式を用いて符号化データを簡易復号し、撮像画像データを生成する。復号部202は、生成した撮像画像データを位相差検出部272および画像処理部274に供給する。
The
以上のように、撮像装置250のイメージセンサ252と信号処理部253との間において、撮像画像データは、簡易符号化されて伝送される。そして、符号化部201および復号部202は、上述のように予測方式を設定し、その予測方式を用いて簡易符号化・簡易復号を行う。
As described above, the captured image data is simply encoded and transmitted between the
したがって、撮像装置250は、この簡易符号化・簡易復号における予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号画像の画質の低減を抑制することができる。
Therefore, the
また、このようにすることにより、例えば、撮像画像データから符号化に適用される予測方式を設定することができる。すなわち、復号画像のフィードバックを必要とせずに、より容易に符号化に適用される予測方式を設定することができる。つまり、この予測方式の設定に関する処理による符号化の負荷の増大を抑制することができる。 Further, by doing so, for example, it is possible to set a prediction method applied to coding from captured image data. That is, it is possible to set a prediction method that is more easily applied to coding without requiring feedback of the decoded image. That is, it is possible to suppress an increase in the coding load due to the processing related to the setting of this prediction method.
<撮像処理の流れ>
この撮像装置250が被写体を撮像するために実行する撮像処理の流れの例を、図27および図28のフローチャートを参照して説明する。
<Flow of imaging process>
An example of the flow of the image pickup process executed by the
撮像処理が開始されると、ステップS241乃至ステップS244の各処理が、図17のステップS151乃至ステップS154の各処理と同様に実行される。 When the imaging process is started, each process of steps S241 to S244 is executed in the same manner as each process of steps S151 to S154 of FIG.
ステップS245において、符号化部201は、図24のフローチャートを参照して説明したように符号化処理を実行し、撮像画像データに基づいて予測方式を設定し、撮像画像データを簡易符号化する。
In step S245, the
ステップS246において、送信部263は、ステップS245において生成された、予測方式情報が付加された符号化データを送信する。図28のステップS251において、受信部271は、ステップS246において送信された、予測方式情報が付加された符号化データを受信する。
In step S246, the
ステップS252において、復号部202は、図25のフローチャートを参照して説明したように復号処理を実行し、符号化データより予測方式情報を抽出し、その予測方式情報に基づいて予測方式を設定し、その予測方式を用いて符号化データを簡易復号し、撮像画像データを生成する。
In step S252, the
ステップS253乃至ステップS256の各処理が、図18のステップS163、ステップS165乃至ステップS167の各処理と同様に実行される。 Each process of steps S253 to S256 is executed in the same manner as each process of step S163 and steps S165 to S167 of FIG.
ステップS257において、撮像装置250は、撮像処理を終了するか否かを判定する。撮像を継続し、新たなフレーム画像を生成すると判定された場合、処理は、図27のステップS243に戻る。つまり、撮像装置250は、ステップS243乃至ステップS257の各処理をフレーム毎に実行する。例えばユーザ指示等に基づいて、ステップS257において、撮像処理を終了すると判定された場合、撮像処理が終了する。
In step S257, the
以上のように撮像処理を行うことにより、撮像装置250は、ステップS245の簡易符号化(図27)やステップS252の簡易復号(図28)における予測誤差の増大を抑制することができる。
By performing the image pickup process as described above, the
<4.第3の実施の形態>
<画像処理装置>
本実施の形態においては、「方法2-1」について説明する。図29は、本技術を適用した画像処理装置の構成の一例を示すブロック図である。図29に示される画像処理装置300は、画像処理装置200と同様、入力された撮像画像データを符号化して符号化データを生成し、さらに、その符号化データを復号して撮像画像データを生成し、出力する装置である。そして画像処理装置300は、画像処理装置200と同様、その撮像画像データの符号化・復号における予測方式の制御方法として「方法2」を適用する。ただし、この画像処理装置300は、予測方式情報に基づいて、復号画像の位相差検出用の補助情報(位相差検出補助情報とも称する)を生成し、その位相差検出補助情報を用いて位相差検出を行う。図29に示されるように、この画像処理装置300は、画像処理装置200の構成に加えて、補助情報生成部301、位相差検出部302、およびレンズ制御部303を有する。
<4. Third Embodiment>
<Image processing device>
In this embodiment, "Method 2-1" will be described. FIG. 29 is a block diagram showing an example of the configuration of an image processing apparatus to which the present technology is applied. Similar to the
補助情報生成部301は、復号部202から予測方式情報(復号部202が符号化データから抽出した予測方式情報)を取得する。予測方式情報は、符号化・復号に適用された予測方式を示す。そして、この予測方式は上述のように合焦の度合いに応じて設定される。つまり、符号化・復号に適用された予測方式に基づいて、合焦の度合い(被写体に合焦している可能性)を容易に推定することができる。したがって、補助情報生成部301は、予測方式情報に基づいて、合焦の度合い(被写体に合焦している可能性)を示す位相差検出補助情報を生成し、それを位相差検出部302に供給する。
The auxiliary
位相差検出部302は、位相差検出部103と同様の処理部であり、復号部202が生成した撮像画像データを用いて位相差を検出し、その位相差検出結果をレンズ制御部303に供給する。ただし、位相差検出部302は、合焦の度合い(被写体に合焦しているか否か)によって検出精度が低減しないようにその合焦の度合いに応じてパラメータを切り替えたり、検出精度が十分な場合は処理を簡略化したりする。位相差検出部302は、そのような制御を、補助情報生成部301から供給される位相差検出補助情報に基づいて行う。つまり、位相差検出部302は、予測方式情報(符号化・復号に適用された予測方式)から推定される合焦の度合いに応じて、位相差検出のパラメータを切り替えたり、処理を簡略化したりする。
The phase
このようにすることにより、画像処理装置300は、合焦の度合いに依らず位相差検出の精度の低減を抑制することができる。また、検出精度が低減しないように位相差検出処理を簡略化し、その負荷の増大を抑制することができる。
By doing so, the
レンズ制御部303は、レンズ制御部192と同様の処理部であり、位相差検出部302から供給される位相差検出結果に基づいて、図示せぬレンズを制御し、合焦位置を制御する。
The
<補助情報生成部>
図30は、図29の補助情報生成部301の主な構成例を示すブロック図である。図30に示されるように、補助情報生成部301は、位相差検出領域統計処理部311および閾値処理部312を有する。
<Auxiliary information generation unit>
FIG. 30 is a block diagram showing a main configuration example of the auxiliary
予測方式情報は、符号化ブロック毎に生成される。位相差検出領域統計処理部311は、復号部202から供給される、その符号化ブロック単位の予測方式情報を取得する。また、位相差検出領域統計処理部311は、その予測方式情報を用いてフレーム全体の統計処理を行う。例えば、位相差検出領域統計処理部311は、フレーム全体での所定の予測方式の確率を導出する。例えば、位相差検出領域統計処理部311は、フレーム全体において、第2の予測方式が適用された確率(N%)を導出する。位相差検出領域統計処理部311は、その確率を示す情報(予測方式確率とも称する)を閾値処理部312に供給する。
Prediction method information is generated for each coded block. The phase difference detection area
閾値処理部312は、位相差検出領域統計処理部311から供給される予測方式確率を取得し、その予測方式確率に基づいて合焦の度合い(被写体に合焦しているか否か)を判定する。この判定の方法は任意である。例えば、閾値処理部312は、予測方式確率の値(N%)を閾値と比較し、その比較結果に基づいて合焦の度合い(被写体に合焦しているか否か)を判定する。例えば、閾値処理部312は、被写体に合焦していない場合に選択される第2の予測方式の確率Nが所定の閾値Th0より大きい場合、被写体に合焦していない(Out Focusの)可能性が大きいと判定する。また、例えば、第2の予測方式の確率Nが所定の閾値Th1(Th0 > Th1)より小さい場合、閾値処理部312は、被写体に合焦している(In Focusの)可能性が大きいと判定する。さらに、例えば、それ以外の場合、すなわち、第2の予測方式の確率Nが閾値Th0以下であり、かつ、閾値Th1以上である場合、閾値処理部312は、合焦の度合いは不明であると判定する。
The threshold
なお、確率を導出する予測方式は任意であり、第2の予測方式に限定されない。例えば、第1の予測方式であってもよい。 The prediction method for deriving the probability is arbitrary and is not limited to the second prediction method. For example, it may be the first prediction method.
閾値処理部312は、以上のような判定の結果(つまり、判定した合焦の度合い)を示す位相差検出補助情報を生成し、それを位相差検出部302に供給する。
The threshold
<画像処理の流れ>
次に、図29の画像処理装置300により実行される画像処理の流れの例を、図31のフローチャートを参照して説明する。
<Flow of image processing>
Next, an example of the flow of image processing executed by the
画像処理が開始されると、ステップS301において、レンズ制御部303は、図示せぬレンズを制御し、合焦位置を初期化する。
When the image processing is started, in step S301, the
ステップS302乃至ステップS304の各処理は、図23のステップS201乃至ステップS203の各処理と同様に実行される。 Each process of steps S302 to S304 is executed in the same manner as each process of steps S201 to S203 of FIG.
ステップS305において、補助情報生成部301は、補助情報生成処理を実行し、ステップS304において符号化データから抽出された予測方式情報に基づいて、位相差検出補助情報を生成する。
In step S305, the auxiliary
ステップS306において、位相差検出部302は、ステップS304において生成された撮像画像データと、ステップS305において生成された位相差検出補助情報とに基づいて、位相差を検出する。
In step S306, the phase
ステップS307において、レンズ制御部303は、ステップS306において生成される位相差検出結果に基づいて、図示せぬレンズを制御し、合焦位置を更新する。
In step S307, the
ステップS308において、符号化部201は、全フレームを処理したか否かを判定する。未処理のフレームが存在する、すなわち、撮像画像データの新たなフレームが画像処理装置100に入力されると判定された場合、処理はステップS303に戻り、それ以降の処理が繰り返される。
In step S308, the
ステップS303乃至ステップS308の処理が各フレームについて実行され、ステップS308において、入力された撮像画像データの全フレームを処理したと判定された場合、画像処理が終了する。 When the processing of steps S303 to S308 is executed for each frame and it is determined in step S308 that all the frames of the input captured image data have been processed, the image processing ends.
<補助情報生成処理の流れ>
次に、図32のフローチャートを参照して、図31のステップS305において実行される補助情報生成処理の流れの例を説明する。
<Flow of auxiliary information generation process>
Next, an example of the flow of the auxiliary information generation process executed in step S305 of FIG. 31 will be described with reference to the flowchart of FIG. 32.
補助情報生成処理が開始されると、位相差検出領域統計処理部311は、ステップS321において、予測方式情報に基づいて、統計処理を行い、第2の予測方式が選択された確率を導出する。
When the auxiliary information generation process is started, the phase difference detection area
ステップS322において、閾値処理部312は、ステップS321において導出された第2の予測方式の確率を閾値と比較し、合焦の度合い(被写体に合焦している可能性)を判定する。
In step S322, the threshold
ステップS323において、閾値処理部312は、ステップS322において得られた判定結果を位相差検出補助情報として出力する。
In step S323, the threshold
ステップS323の処理が終了すると、補助情報生成処理が終了し、処理は図31に戻る。 When the process of step S323 is completed, the auxiliary information generation process is completed, and the process returns to FIG. 31.
以上のように各処理を実行することにより、画像処理装置300は、合焦の度合いに依らず位相差検出の精度の低減を抑制することができる。また、検出精度が低減しないように位相差検出処理を簡略化し、その負荷の増大を抑制することができる。
By executing each process as described above, the
<撮像装置>
以上のような「方法2-1」の本技術は、任意の電子機器に適用することができる。例えば、撮像装置にも適用することができる。図33は、本技術を適用した撮像装置の主な構成例を示すブロック図である。図33に示される撮像装置350は、撮像装置250と同様の装置である。
<Image pickup device>
The present technology of "Method 2-1" as described above can be applied to any electronic device. For example, it can be applied to an image pickup device. FIG. 33 is a block diagram showing a main configuration example of an image pickup apparatus to which the present technology is applied. The
図33に示されるように、撮像装置350は、レンズ351、イメージセンサ352、信号処理部353、出力部354、および記憶部355を有する。
As shown in FIG. 33, the
レンズ351は、レンズ251と同様の構成を有し、同様に機能する。イメージセンサ352は、イメージセンサ252と同様の処理部である。信号処理部353は、信号処理部353と同様の処理部である。出力部354は、出力部254と同様の処理部である。記憶部355は、記憶部255と同様の処理部である。
The
ただし、信号処理部353において行われる位相差検出は、撮像画像データと、位相差検出補助情報とを用いて行われる。
However, the phase difference detection performed by the
<イメージセンサ>
イメージセンサ352は、受光部361、ADC362、符号化部201、および送信部363を有する。
<Image sensor>
The
受光部361は、受光部261と同様の処理部であり、同様の構成を有し、同様の処理を行う。ADC362は、ADC262と同様の処理部であり、同様の構成を有し、同様の処理を行う。符号化部201は、画像処理装置300の場合と同様の処理を行う。送信部363は、送信部263と同様の処理部であり、同様の構成を有し、同様の処理を行う。
The
<信号処理部>
信号処理部353は、受信部371、復号部202、補助情報生成部301、位相差検出部302、レンズ制御部303、および画像処理部372を有する。
<Signal processing unit>
The
受信部371は、受信部271と同様の処理部であり、同様の構成を有し、同様の処理を行う。画像処理部372は、画像処理部274と同様の処理部であり、同様の構成を有し、同様の処理を行う。
The receiving
復号部202は、受信部371から供給される符号化データを取得する。復号部202は、画像処理装置300の場合と同様に、例えば図22に示されるような構成を有し、図25のフローチャートを参照して説明したような復号処理を行う。例えば、復号部202は、符号化データから予測方式情報を抽出し、その予測方式情報に基づいて予測方式を設定し、その予測方式を用いて符号化データを簡易復号し、撮像画像データを生成する。復号部202は、生成した撮像画像データを位相差検出部302および画像処理部372に供給する。また、復号部202は、抽出した予測方式情報を補助情報生成部301に供給する。
The
補助情報生成部301は、画像処理装置300の場合と同様に、図30に示されるような構成を有し、図32のフローチャートを参照して説明したような補助情報生成処理を行う。例えば、補助情報生成部301は、復号部202から供給される予測方式情報を取得し、それに基づいて位相差検出補助情報を生成する。補助情報生成部301は、その位相差検出補助情報を位相差検出部302に供給する。
The auxiliary
位相差検出部302は、画像処理装置300の場合と同様の処理を行う。例えば、位相差検出部302は、復号部202から撮像画像データを取得し、補助情報生成部301から位相差検出補助情報を取得する。位相差検出部302は、それらの情報を用いて、位相差の検出を行う。位相差検出部302は、位相差検出結果をレンズ制御部303に供給する。
The phase
レンズ制御部303は、画像処理装置300の場合と同様の処理を行う。例えば、レンズ制御部303は、位相差検出部302から供給される位相差検出結果に基づいて、レンズ351を制御し、合焦位置を制御する。
The
このような構成とすることにより、撮像装置350は、画像処理装置300の場合と同様に、合焦の度合いに依らず位相差検出の精度の低減を抑制することができる。また、検出精度が低減しないように位相差検出処理を簡略化し、その負荷の増大を抑制することができる。
With such a configuration, the
<撮像処理の流れ>
この撮像装置350が被写体を撮像するために実行する撮像処理の流れの例を、図34および図35のフローチャートを参照して説明する。
<Flow of imaging process>
An example of the flow of the image pickup process executed by the
撮像処理が開始されると、図34のステップS341乃至ステップS346の各処理が、図27のステップS241乃至ステップS246の各処理と同様に実行され、処理は図35に進む。そして、図35のステップS351およびステップS352の各処理が、図28のステップS251およびステップS252の各処理と同様に実行される。 When the imaging process is started, each process of steps S341 to S346 of FIG. 34 is executed in the same manner as each process of steps S241 to S246 of FIG. 27, and the process proceeds to FIG. 35. Then, each process of step S351 and step S352 of FIG. 35 is executed in the same manner as each process of step S251 and step S252 of FIG. 28.
ステップS353において、補助情報生成部301は、図32のフローチャートを参照して説明したように補助情報生成処理を実行し、予測方式情報に基づいて位相差検出補助情報を生成する。
In step S353, the auxiliary
ステップS354において、位相差検出部302は、ステップS352において生成された撮像画像データと、ステップS353において生成された位相差検出補助情報とに基づいて、位相差を検出する。
In step S354, the phase
ステップS355乃至ステップS357の各処理は、図28のステップS254乃至ステップS256の各処理と同様に実行される。 Each process of steps S355 to S357 is executed in the same manner as each process of steps S254 to S256 of FIG. 28.
ステップS358において、撮像装置350は、撮像処理を終了するか否かを判定する。撮像を継続し、新たなフレーム画像を生成すると判定された場合、処理は、図34のステップS343に戻る。つまり、撮像装置350は、ステップS343乃至ステップS358の各処理をフレーム毎に実行する。例えばユーザ指示等に基づいて、ステップS358において、撮像処理を終了すると判定された場合、撮像処理が終了する。
In step S358, the
以上のように撮像処理を行うことにより、撮像装置350は、ステップS345の簡易符号化(図34)やステップS352の簡易復号(図35)における予測誤差の増大を抑制することができる。また、撮像装置350は、合焦の度合いに依らず位相差検出の精度の低減を抑制することができる。また、検出精度が低減しないように位相差検出処理を簡略化し、その負荷の増大を抑制することができる。
By performing the image pickup process as described above, the
<5.第4の実施の形態>
<画像処理装置>
本実施の形態においては、「方法3」について説明する。図36は、本技術を適用した画像処理装置の構成の一例を示すブロック図である。図36に示される画像処理装置400は、画像処理装置200と同様、入力された撮像画像データを符号化して符号化データを生成し、さらに、その符号化データを復号して撮像画像データを生成し、出力する装置である。そして画像処理装置400は、画像処理装置200と同様、その撮像画像データの符号化・復号における予測方式の制御方法として「方法2」を適用する。ただし、この画像処理装置400は、符号化・復号の誤差情報を導出し、その誤差情報に基づいて、復号画像の位相差検出結果の信頼度を表す位相差検出結果信頼度情報を生成し、その位相差検出結果信頼度情報を用いて位相差検出を行う。
<5. Fourth Embodiment>
<Image processing device>
In the present embodiment, "
図36に示されるように、この画像処理装置400は、画像処理装置200の構成に加えて、信頼度情報生成部401、位相差検出部402、およびレンズ制御部403を有する。
As shown in FIG. 36, the
復号部202は、符号化データより予測方式情報を抽出し、その予測方式情報に基づいて予測方式を設定し、その予測方式を用いて符号化データを復号する。この場合、復号部202は、さらに誤差情報を導出する。
The
誤差情報は、符号化・復号により損失(ロス)するビット量を示す情報である。例えば、図37において、各四角はビットを示し、図中縦方向の位置はビット深度(bit depth)を示し、図中横方向の位置は画素位置(horizontal position)を示す。つまり、四角の図中縦方向の並び(列)が画素値のビット列を示す。 The error information is information indicating the amount of bits lost due to coding / decoding. For example, in FIG. 37, each square indicates a bit, a vertical position in the figure indicates a bit depth, and a horizontal position in the figure indicates a pixel position (horizontal position). That is, the vertical arrangement (column) in the figure of the square indicates the bit string of the pixel value.
簡易符号化・簡易復号は左の列(画素値)から順に処理される。上述したように、簡易符号化においては例えばビット列の一部がDPCM処理される。図37の例の場合、上位5ビットがDPCM処理される。ただし、最初に処理される一番左の画素値は、PCM処理され、そのまま出力される(0との差分値が予測誤差として出力される)。DPCM処理(またはPCM処理)により導出された予測誤差は、ゴロム符号化される。そして、適宜、リファインメントとして数ビットが付加される。図37の例の場合、各画素値において、1ビットまたは2ビットがリファインメントとして付加されている。つまり、符号化データは、以上のビットについての情報が含まれる。簡易復号においては、これらの逆処理が行われ、これらのビットの値が復元される。 Simple coding / decoding is processed in order from the left column (pixel value). As described above, in the simple coding, for example, a part of the bit string is DPCM processed. In the case of the example of FIG. 37, the upper 5 bits are DPCM processed. However, the leftmost pixel value processed first is PCM processed and output as it is (the difference value from 0 is output as a prediction error). The prediction error derived by DPCM processing (or PCM processing) is Golomb-coded. Then, several bits are added as refinement as appropriate. In the case of the example of FIG. 37, 1 bit or 2 bits are added as a refinement in each pixel value. That is, the coded data includes information about the above bits. In simple decoding, these reverse processes are performed and the values of these bits are restored.
換言するに、残りのビット(図37の例の場合、白色の四角で示される未符号化bit)は伝送されず、損失(ロス)する。図37の例の場合、各画素において3ビットまたは4ビットを損失している(bitloss)。 In other words, the remaining bits (in the case of the example of FIG. 37, the uncoded bits represented by the white squares) are not transmitted and are lost. In the case of the example of FIG. 37, 3 bits or 4 bits are lost in each pixel (bit loss).
誤差情報は、このビット量を示す情報であり、例えば、符号化ブロック毎に生成される。つまり、復号部202は、損失したビット量(bitloss)を、符号化ブロック毎に集計し(例えば、合計値または平均値等を算出し)、それを誤差情報として信頼度情報生成部401に供給する。なお、誤差情報を生成するデータ単位は任意である。例えば、画素単位の情報としてもよい。
The error information is information indicating this bit amount, and is generated for each coded block, for example. That is, the
信頼度情報生成部401は、復号部202からその誤差情報を取得する。誤差情報の値が大きい程、簡易符号化・簡易復号によるビットの損失量が大きい。ビットの損失量が大きい程、撮像画像データにおける情報損失量が大きく、位相差検出の精度が低減する可能性が高い。つまり、誤差情報の値が大きい領域程、位相差検出結果の信頼度が低減する。
The reliability
そこで、信頼度情報生成部401は、取得した誤差情報に基づいて、位相差検出結果の信頼度を判定し、位相差検出結果の信頼度を示す位相差検出結果信頼度情報を生成し、それを位相差検出部402に供給する。なお、信頼度情報生成部401は、この位相差検出結果信頼度情報を、位相差検出の処理単位となる領域(位相差検出領域とも称する)毎に導出する。
Therefore, the reliability
位相差検出部402は、位相差検出部103と同様の処理部であり、復号部202が生成した撮像画像データを用いて位相差を検出し、その位相差検出結果をレンズ制御部403に供給する。ただし、位相差検出部402は、信頼度情報生成部401から供給される位相差検出結果信頼度情報を取得し、その位相差検出結果信頼度情報も考慮して位相差の検出を行う。つまり、位相差検出部402は、撮像画像データおよび位相差検出結果信頼度情報(つまり誤差情報)に基づいて位相差の検出を行う。
The phase
例えば、位相差検出部402は、位相差検出結果信頼度情報において、信頼度が十分に低いと判定された位相差検出領域を、位相差検出の対象から除外する。換言するに、位相差検出部402は、位相差検出結果信頼度情報において、信頼度が十分に高いと判定された位相差検出領域の画素値を用いて位相差の検出を行う。
For example, the phase
このようにすることにより、位相差検出部402は、位相差検出の精度の低減を抑制することができる(典型的には、より正確に位相差を検出することができる)。
By doing so, the phase
<信頼度情報生成部>
図38は、図36の信頼度情報生成部401の主な構成例を示すブロック図である。図38に示されるように、信頼度情報生成部401は、積算部411および閾値処理部412を有する。
<Reliability information generation unit>
FIG. 38 is a block diagram showing a main configuration example of the reliability
積算部411は、復号部202から供給される誤差情報を取得し、その誤差情報を積算し、位相差検出領域毎の積算値を導出する。積算部411は、導出した位相差検出領域毎の積算値を閾値処理部412に供給する。
The integrating
閾値処理部412は、積算部411から供給される積算値を取得し、その積算値と閾値とを比較することにより、その積算値に対応する位相差検出領域における位相差検出結果の信頼度を判定する。例えば、閾値処理部412は、各位相差検出領域について、位相差検出結果が十分に信頼できるか否かを判定する。閾値処理部412は、その判定結果を示す位相差検出結果信頼度情報を生成し、それを位相差検出部402に供給する。
The threshold
位相差検出部402は、このような位相差検出結果信頼度情報に基づいて、例えば、図39に示されるように、位相差検出結果の信頼度が十分に低い位相差検出領域を特定し、その領域を位相差検出の対象から除外する。図39の例の場合、数字等が付された各四角は位相差検出領域を示す。そのうち「×」が付された四角が、位相差検出結果信頼度情報(つまり誤差情報)に基づいて、位相差検出結果の信頼度が十分に低いと判定された位相差検出領域を示す。位相差検出部402は、このような領域を対象から除外して、位相差検出を行う(つまり、その他の領域において位相差検出を行う)。
Based on such phase difference detection result reliability information, the phase
なお、図39において、白い部分は、画素値がフラットな領域(フラット領域)であり、このような領域も位相差検出が困難であるので、位相差検出の対象から除外される。また、図中、濃いグレーで示される四角は、位相差検出結果が不正確であった位相差検出領域を示す。つまり、位相差検出部402は、上述のように位相差検出結果の信頼度が低い領域を対象から除外することにより、このような位相差検出結果が不正確となる領域を対象から除外することができる。したがって、位相差検出部402は、フラット領域を除外するのみの場合よりも正確な位相差検出を行うことができる。
In FIG. 39, the white portion is a region where the pixel value is flat (flat region), and such a region is also excluded from the target of phase difference detection because it is difficult to detect the phase difference. Further, in the figure, the squares shown in dark gray indicate the phase difference detection region where the phase difference detection result was inaccurate. That is, the phase
<画像処理の流れ>
次に、図36の画像処理装置400により実行される画像処理の流れの例を、図40のフローチャートを参照して説明する。
<Flow of image processing>
Next, an example of the flow of image processing executed by the
画像処理が開始されると、ステップS401乃至ステップS404の各処理が、ステップS301乃至ステップS304の各処理と同様に実行される。 When the image processing is started, the processing of steps S401 to S404 is executed in the same manner as the processing of steps S301 to S304.
ステップS405において、復号部202は、ステップS404において生成した撮像画像データに基づいて損失したビット量を算出し、誤差情報を生成する。
In step S405, the
ステップS406において、信頼度情報生成部401は、信頼度情報生成処理を実行し、ステップS405において導出された誤差情報に基づいて位相差検出結果信頼度情報を生成する。
In step S406, the reliability
ステップS407において、位相差検出部302は、ステップS404において生成された撮像画像データと、ステップS406において生成された位相差検出結果信頼度情報とに基づいて、位相差を検出する。
In step S407, the phase
ステップS408において、レンズ制御部403は、ステップS407において生成される位相差検出結果に基づいて、図示せぬレンズを制御し、合焦位置を更新する。
In step S408, the
ステップS409において、符号化部201は、全フレームを処理したか否かを判定する。未処理のフレームが存在する、すなわち、撮像画像データの新たなフレームが画像処理装置100に入力されると判定された場合、処理はステップS403に戻り、それ以降の処理が繰り返される。
In step S409, the
ステップS403乃至ステップS409の処理が各フレームについて実行され、ステップS409において、入力された撮像画像データの全フレームを処理したと判定された場合、画像処理が終了する。 When the processing of steps S403 to S409 is executed for each frame and it is determined in step S409 that all the frames of the input captured image data have been processed, the image processing ends.
<信頼度情報生成処理の流れ>
次に、図41のフローチャートを参照して、図40のステップS406において実行される信頼度情報生成処理の流れの例を説明する。
<Flow of reliability information generation process>
Next, an example of the flow of the reliability information generation process executed in step S406 of FIG. 40 will be described with reference to the flowchart of FIG. 41.
信頼度情報生成処理が開始されると、積算部411は、ステップS421において、ステップS405において導出された誤差情報を位相差検出領域毎に積算し、位相差検出領域毎の積算値を導出する。
When the reliability information generation process is started, the
ステップS422において、閾値処理部412は、ステップS421において導出された各位相差検出領域の誤差情報の積算値を閾値と比較し、その領域を位相差検出の対象から除外するか否かを判定する。
In step S422, the threshold
ステップS423において、閾値処理部412は、ステップS422において求めた判定結果を示す位相差検出結果信頼度情報を生成し、それを出力する(つまり、位相差検出部402に供給する)。ステップS423の処理が終了すると、信頼度情報生成処理が終了し、処理は図40に戻る。
In step S423, the threshold
以上のように各処理を実行することにより、画像処理装置400は、位相差検出の精度の低減を抑制することができる(典型的には、より正確に位相差を検出することができる)。
By executing each process as described above, the
<撮像装置>
以上のような「方法3」の本技術は、任意の電子機器に適用することができる。例えば、撮像装置にも適用することができる。図42は、本技術を適用した撮像装置の主な構成例を示すブロック図である。図42に示される撮像装置450は、撮像装置250と同様の装置である。
<Image pickup device>
The present technology of "
図42に示されるように、撮像装置450は、レンズ451、イメージセンサ452、信号処理部453、出力部454、および記憶部455を有する。
As shown in FIG. 42, the
レンズ351は、レンズ251と同様の構成を有し、同様に機能する。イメージセンサ352は、イメージセンサ252と同様の処理部である。信号処理部353は、信号処理部353と同様の処理部である。出力部354は、出力部254と同様の処理部である。記憶部355は、記憶部255と同様の処理部である。
The
ただし、信号処理部353において行われる位相差検出は、撮像画像データと、位相差検出補助情報とを用いて行われる。
However, the phase difference detection performed by the
<イメージセンサ>
イメージセンサ452は、受光部461、ADC462、符号化部201、および送信部463を有する。
<Image sensor>
The
受光部461は、受光部361と同様の処理部であり、同様の構成を有し、同様の処理を行う。ADC462は、ADC362と同様の処理部であり、同様の構成を有し、同様の処理を行う。符号化部201は、画像処理装置400の場合と同様の処理を行う。送信部463は、送信部363と同様の処理部であり、同様の構成を有し、同様の処理を行う。
The
<信号処理部>
信号処理部453は、受信部471、復号部202、信頼度情報生成部401、位相差検出部402、レンズ制御部403、および画像処理部472を有する。
<Signal processing unit>
The
受信部471は、受信部371と同様の処理部であり、同様の構成を有し、同様の処理を行う。画像処理部472は、画像処理部372と同様の処理部であり、同様の構成を有し、同様の処理を行う。レンズ制御部403は、レンズ制御部303と同様の処理部であり、同様の構成を有し、同様の処理を行う。
The receiving
復号部202は、受信部471から供給される符号化データを取得する。復号部202は、画像処理装置400の場合と同様に、例えば図22に示されるような構成を有し、図25のフローチャートを参照して説明したような復号処理を行う。例えば、復号部202は、符号化データから予測方式情報を抽出し、その予測方式情報に基づいて予測方式を設定し、その予測方式を用いて符号化データを簡易復号し、撮像画像データを生成する。復号部202は、生成した撮像画像データを位相差検出部402および画像処理部472に供給する。また、復号部202は、生成した撮像画像データに基づいて誤差情報を導出する。復号部202は、その誤差情報を信頼度情報生成部401に供給する。
The
信頼度情報生成部401は、画像処理装置400の場合と同様に、図38に示されるような構成を有し、図41のフローチャートを参照して説明したような信頼度情報生成処理を行う。例えば、信頼度情報生成部401は、復号部202から供給される誤差情報を取得し、その積算値を位相差検出領域毎に導出し、その積算値に基づいて位相差検出結果の信頼度を判定し、位相差検出結果信頼度情報を生成する。信頼度情報生成部401は、その位相差検出結果信頼度情報を位相差検出部402に供給する。
Similar to the case of the
位相差検出部402は、画像処理装置400の場合と同様の処理を行う。例えば、位相差検出部402は、復号部202から撮像画像データを取得し、信頼度情報生成部401から位相差検出結果信頼度情報を取得する。位相差検出部402は、それらの情報を用いて、位相差の検出を行う。位相差検出部402は、位相差検出結果をレンズ制御部403に供給する。
The phase
このような構成とすることにより、撮像装置450は、画像処理装置400の場合と同様に、位相差検出の精度の低減を抑制することができる(典型的には、より正確に位相差を検出することができる)。
With such a configuration, the
<撮像処理の流れ>
この撮像装置450が被写体を撮像するために実行する撮像処理の流れの例を、図43および図44のフローチャートを参照して説明する。
<Flow of imaging process>
An example of the flow of the image pickup process executed by the
撮像処理が開始されると、図43のステップS441乃至ステップS446の各処理が、図34のステップS341乃至ステップS346の各処理と同様に実行され、処理は図44に進む。そして、図44のステップS451およびステップS452の各処理が、図35のステップS351およびステップS352の各処理と同様に実行される。 When the imaging process is started, each process of steps S441 to S446 in FIG. 43 is executed in the same manner as each process of steps S341 to S346 of FIG. 34, and the process proceeds to FIG. 44. Then, each process of step S451 and step S452 of FIG. 44 is executed in the same manner as each process of step S351 and step S352 of FIG. 35.
ステップS453において、復号部202は、ステップS452において生成した撮像画像データに基づいて誤差情報を導出する。
In step S453, the
ステップS454において、信頼度情報生成部401は、図41のフローチャートを参照して説明したように信頼度情報生成処理を実行し、誤差情報に基づいて位相差検出結果信頼度情報を生成する。
In step S454, the reliability
ステップS455において、位相差検出部402は、ステップS452において生成された撮像画像データと、ステップS454において生成された位相差検出結果信頼度情報とに基づいて、位相差を検出する。
In step S455, the phase
ステップS456乃至ステップS458の各処理は、図35のステップS355乃至ステップS357の各処理と同様に実行される。 Each process of steps S456 to S458 is executed in the same manner as each process of steps S355 to S357 of FIG. 35.
ステップS459において、撮像装置450は、撮像処理を終了するか否かを判定する。撮像を継続し、新たなフレーム画像を生成すると判定された場合、処理は、図43のステップS443に戻る。つまり、撮像装置450は、ステップS443乃至ステップS459の各処理をフレーム毎に実行する。例えばユーザ指示等に基づいて、ステップS459において、撮像処理を終了すると判定された場合、撮像処理が終了する。
In step S459, the
以上のように撮像処理を行うことにより、撮像装置450は、ステップS445の簡易符号化(図43)やステップS452の簡易復号(図44)における予測誤差の増大を抑制することができる。また、撮像装置450は、位相差検出の精度の低減を抑制することができる(典型的には、より正確に位相差を検出することができる)。
By performing the image pickup process as described above, the
<その他>
なお、上述した「方法3」において、簡易符号化・簡易復号の方法は任意である。この「方法3」は、上述のように「方法2」に適用することもできるし、「方法1」に適用することもできる。また、それら以外の簡易符号化・簡易復号の方法に適用することもできる。
<Others>
In the above-mentioned "
さらに、この「方法3」は、上述の「方法2-1」と併用することもできる。つまり、位相差検出部が、撮像画像データ、位相差検出補助情報、および位相差検出結果信頼度情報に基づいて位相差を検出するようにしてもよい。
Furthermore, this "
<6.第5の実施の形態>
<適用例:撮像素子>
以上においては、各実施の形態において説明した本技術を撮像装置に適用する例を説明したが、本技術は任意のデバイスに適用することができる。例えば、本技術は、撮像素子にも適用することができる。図45は、本技術を適用した撮像素子である積層型イメージセンサの主な構成例を示すブロック図である。図45に示される積層型イメージセンサ500は、被写体を撮像し、撮像画像のデジタルデータ(画像データ)を得て、その画像データを出力するイメージセンサ(撮像素子)である。
<6. Fifth Embodiment>
<Application example: Image sensor>
In the above, an example of applying the present technology described in each embodiment to an image pickup apparatus has been described, but the present technology can be applied to any device. For example, this technique can also be applied to an image pickup device. FIG. 45 is a block diagram showing a main configuration example of a stacked image sensor, which is an image pickup device to which the present technology is applied. The
図45に示されるように、積層型イメージセンサ500は、半導体基板501乃至半導体基板503の3枚の半導体基板を有する。これらの半導体基板は、互いに重畳された状態で封止され、モジュール化(一体化)されている。つまり、これらの半導体基板は、多層構造(積層構造)を形成する。半導体基板501乃至半導体基板503には、それぞれ、電子回路が形成されており、各半導体基板に形成される回路は、ビア(VIA)等により互いに接続されている。各半導体基板(に形成される回路)間の経路をバスとも称する。例えば、半導体基板501の回路と半導体基板502の回路は、バス511を介してデータ等の授受を行うことができる。また、半導体基板502の回路と半導体基板503の回路は、バス512を介してデータ等の授受を行うことができる。
As shown in FIG. 45, the
また、半導体基板502に形成される回路には、積層型イメージセンサ500のインタフェース513が形成される。つまり、半導体基板502に形成される回路は、このインタフェース513を介して、積層型イメージセンサ500の外部の回路(例えば回路基板520に形成される回路)とデータ等の授受を行うことができる。このインタフェース513は、所定の通信規格に準拠した通信方式により通信が行われるインタフェースである。この通信規格は任意である。例えば、MIPI(Mobile Industry Processor Interface)であってもよいし、SLVS-EC(Scalable Low Voltage Signaling Embedded Clock)であってもよいし、その他の規格であってもよい。なお、インタフェース513の具体的な構成は任意である。例えば、入出力の制御を行う構成だけでなく、バスやケーブル等の伝送路もインタフェース513に含まれるものとしてもよい。
Further, the
このように、モジュール内部において半導体基板の多層構造を形成することにより、積層型イメージセンサ500は、半導体基板のサイズを増大させずに、より大規模な回路の実装を実現することができる。すなわち、積層型イメージセンサ500は、コストの増大を抑制しながら、より大規模な回路を実装することができる。
By forming the multilayer structure of the semiconductor substrate inside the module in this way, the
各半導体基板に形成される回路構成の例を図46に示す。図46においては説明の便宜上、半導体基板501乃至半導体基板503が平面上に並べて配置されているが、実際には、図45に示されるように互いに重畳されている。
FIG. 46 shows an example of the circuit configuration formed on each semiconductor substrate. In FIG. 46, for convenience of explanation, the
一番上の半導体基板501には、受光部531およびA/D変換部532等が形成される。受光部531は、例えばフォトダイオード等の光電変換素子を有する単位画素を複数有し、各単位画素において入射光を光電変換し、入射光に相当する電荷を電気信号(画素信号)としてA/D変換部532に出力する。
A
A/D変換部532は、受光部531から供給される各画素信号をA/D変換し、デジタルデータの画素データを生成する。A/D変換部532は、このように生成した各単位画素の画素データの集合を画像データとしてバス511を介して半導体基板502に供給する。
The A / D conversion unit 532 A / D-converts each pixel signal supplied from the
中段の半導体基板502には、画像処理等を行う論理回路である画像処理部533が形成される。画像処理部533は、半導体基板501からバス511を介して供給される画像データを取得すると、その画像データに対して、所定の画像処理を行う。この画像処理の内容は任意である。例えば、欠陥画素補正、オートフォーカス用の位相差検出、画素加算、デジタルゲイン、ノイズリダクション等がこの画像処理に含まれていてもよい。もちろん、これら以外の処理が含まれていてもよい。
An
一番下の半導体基板503には、DRAM(Dynamic Random Access Memory)534が形成される。このDRAM534は、バス512を介して半導体基板502(画像処理部533)から供給されるデータ等を記憶することができる。また、DRAM534は、半導体基板502(画像処理部533)等からの要求に応じて、記憶しているデータ等を読み出し、バス512を介して半導体基板502に供給することができる。つまり、画像処理部533は、画像処理中の画像データを一時的に保持させる等、このDRAM534を用いて画像処理を行うことができる。例えば、高速のフレームレートで撮像し、その各フレームの撮像画像をDRAM534に記憶させ、それを低速のフレームレートで読み出して出力することにより、所謂スローモーション撮像を実現することができる。
A DRAM (Dynamic Random Access Memory) 534 is formed on the
このようなDRAM534の利用において、画像処理部533は、画像データを符号化(圧縮)し、生成した符号化データをDRAM534に記憶させたり、DRAM534から符号化データを読み出して復号し、画像データ(復号画像データ)を生成したりする。例えば、画像処理部533は、符号化部533Aおよび復号部533Bを有する。符号化部533Aは、画像データを符号化し、生成した符号化データをDRAM534に供給し、記憶させる。復号部533Bは、DRAM534から読み出された符号化データを復号し、画像データ(復号画像データ)を生成する。このように画像データを符号化データ(圧縮したデータ)としてDRAM534に記憶させるようにすることにより、DRAM534に記憶させるデータ量を低減させることができる。したがって、DRAM534の記憶領域や、バス512の帯域の利用効率を向上させることができる。したがって、DRAM534の容量やバス512の帯域幅の増大を抑制することができ、製造コストの増大を抑制することができる。
In such use of the
この符号化部533Aとして、上述した符号化部101や符号化部201を適用するようにしてもよい。また、復号部533Bとして、上述した復号部102や復号部202を適用するようにしてもよい。このようにすることにより、DRAM534へのデータの書き込みやDRAM534からのデータの読み出しにおいて、第1の実施の形態や第2の実施の形態等において上述した効果を得ることができる。
As the
また、画像処理部533に、補助情報生成部301乃至レンズ制御部303を設け、図29を参照して説明したような構成を形成するようにしてもよい。このようにすることにより、DRAM534とのデータの授受における符号化・復号に基づいて、第3の実施の形態等において上述した効果を得ることができる。
Further, the
さらに、画像処理部533に、信頼度情報生成部401乃至レンズ制御部403を設け、図36を参照して説明したような構成を形成するようにしてもよい。このようにすることにより、DRAM534とのデータの授受における符号化・復号に基づいて、第4の実施の形態等において上述した効果を得ることができる。
Further, the
また、回路基板520には、画像処理等を行う論理回路である画像処理部535が形成される。画像処理部535は、積層型イメージセンサ500の半導体基板502(画像処理部533)からインタフェース513を介して供給される画像データを取得すると、その画像データに対して、所定の画像処理を行う。この画像処理の内容は任意である。
Further, an
つまり、画像処理部533は、インタフェース513を介してデータ等を画像処理部535に供給する(積層型イメージセンサ500の外部に出力する)ことができる。このような出力の際に、画像処理部533は、画像データを符号化(圧縮)して、符号化データとして出力する。例えば、画像処理部533が符号化部533Cを有し、画像処理部535が復号部535Aを有する。符号化部533Cは、画像データを符号化し、その符号化データを、インタフェース513を介して出力する。復号部535Aは、そのインタフェース513を介して供給される符号化データを復号し、画像データ(復号画像データ)を生成する。画像処理部535は、生成した復号画像データに対して画像処理を行う。
That is, the
このように、符号化データ(圧縮したデータ)を、インタフェース513を介して伝送するようにすることにより、伝送するデータ量を低減させることができる。したがって、インタフェース513の帯域の利用効率を向上させることができる。つまり、インタフェース513の帯域幅の増大を抑制することができ、製造コストの増大を抑制することができる。
By transmitting the coded data (compressed data) via the
この符号化部533Cとして、上述した符号化部101や符号化部201を適用するようにしてもよい。また、復号部535Aとして、上述した復号部102や復号部202を適用するようにしてもよい。このようにすることにより、積層型イメージセンサ500の外部へのデータ出力において、第1の実施の形態や第2の実施の形態等において上述した効果を得ることができる。
As the
また、画像処理部533に、補助情報生成部301乃至レンズ制御部303を設け、図29を参照して説明したような構成を形成するようにしてもよい。このようにすることにより、積層型イメージセンサ500の外部へのデータ出力における符号化・復号に基づいて、第3の実施の形態等において上述した効果を得ることができる。
Further, the
さらに、画像処理部533に、信頼度情報生成部401乃至レンズ制御部403を設け、図36を参照して説明したような構成を形成するようにしてもよい。このようにすることにより、積層型イメージセンサ500の外部へのデータ出力における符号化・復号に基づいて、第4の実施の形態等において上述した効果を得ることができる。
Further, the
<7.付記>
<コンピュータ>
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
<7. Addendum>
<Computer>
The series of processes described above can be executed by hardware or software. When a series of processes are executed by software, the programs constituting the software are installed in the computer. Here, the computer includes a computer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.
図47は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 47 is a block diagram showing an example of hardware configuration of a computer that executes the above-mentioned series of processes programmatically.
図47に示されるコンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904を介して相互に接続されている。
In the
バス904にはまた、入出力インタフェース910も接続されている。入出力インタフェース910には、入力部911、出力部912、記憶部913、通信部914、およびドライブ915が接続されている。
An input / output interface 910 is also connected to the
入力部911は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部912は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部913は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部914は、例えば、ネットワークインタフェースよりなる。ドライブ915は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア921を駆動する。
The
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部913に記憶されているプログラムを、入出力インタフェース910およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
In the computer configured as described above, the
コンピュータ(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア921に記録して適用することができる。その場合、プログラムは、リムーバブルメディア921をドライブ915に装着することにより、入出力インタフェース910を介して、記憶部913にインストールすることができる。
The program executed by the computer (CPU901) can be recorded and applied to the
また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部914で受信し、記憶部913にインストールすることができる。
The program can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasting. In that case, the program can be received by the
その他、このプログラムは、ROM902や記憶部913に、あらかじめインストールしておくこともできる。
In addition, this program can be pre-installed in the
<本技術の適用対象>
本技術は、任意の画像符号化・復号方式に適用することができる。つまり、上述した本技術と矛盾しない限り、画像符号化・復号に関する各種処理の仕様は任意であり、上述した例に限定されない。
<Applicable target of this technology>
This technique can be applied to any image coding / decoding method. That is, as long as it does not contradict the above-mentioned technology, the specifications of various processes related to image coding / decoding are arbitrary and are not limited to the above-mentioned examples.
また、以上においては、本技術を撮像装置に適用する場合について説明したが、本技術は、撮像装置に限らず任意の装置(電子機器)に適用することができる。例えば、他の装置において行われた高デジタルゲイン撮像により得られた撮像画像に対して画像処理を施す画像処理装置等にも本技術を適用することができる。 Further, although the case where the present technology is applied to the image pickup apparatus has been described above, the present technology can be applied not only to the image pickup apparatus but also to any apparatus (electronic device). For example, the present technology can be applied to an image processing device or the like that performs image processing on an captured image obtained by high digital gain imaging performed in another device.
また、本技術は、任意の装置またはシステムを構成する装置に搭載するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等(すなわち、装置の一部の構成)として実施することもできる。 In addition, the present technology includes any configuration or a module using a processor (for example, a video processor) as a system LSI (Large Scale Integration), a module using a plurality of processors, or the like (for example, video) mounted on an arbitrary device or a device constituting the system. It can also be implemented as a module), a unit using a plurality of modules (for example, a video unit), a set in which other functions are added to the unit (for example, a video set), or the like (that is, a partial configuration of a device).
さらに、本技術は、複数の装置により構成されるネットワークシステムにも適用することもできる。例えば、コンピュータ、AV(Audio Visual)機器、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対して、画像(動画像)に関するサービスを提供するクラウドサービスに適用することもできる。 Further, the present technology can also be applied to a network system composed of a plurality of devices. For example, it can be applied to cloud services that provide services related to images (moving images) to arbitrary terminals such as computers, AV (Audio Visual) devices, portable information processing terminals, and IoT (Internet of Things) devices. can.
なお、本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。 Systems, equipment, processing departments, etc. to which this technology is applied should be used in any field such as transportation, medical care, crime prevention, agriculture, livestock industry, mining, beauty, factories, home appliances, weather, nature monitoring, etc. Can be done. The use is also arbitrary.
例えば、本技術は、観賞用コンテンツ等の提供の用に供されるシステムやデバイスに適用することができる。また、例えば、本技術は、交通状況の監理や自動運転制御等、交通の用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、セキュリティの用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、機械等の自動制御の用に供されるシステムやデバイスに適用することができる。さらに、例えば、本技術は、農業や畜産業の用に供されるシステムやデバイスにも適用することができる。また、本技術は、例えば火山、森林、海洋等の自然の状態や野生生物等を監視するシステムやデバイスにも適用することができる。さらに、例えば、本技術は、スポーツの用に供されるシステムやデバイスにも適用することができる。 For example, the present technology can be applied to systems and devices used for providing ornamental contents and the like. Further, for example, the present technology can be applied to systems and devices used for traffic such as traffic condition supervision and automatic driving control. Further, for example, the present technology can be applied to systems and devices used for security purposes. Further, for example, the present technology can be applied to a system or device used for automatic control of a machine or the like. Further, for example, the present technology can be applied to systems and devices used for agriculture and livestock industry. The present technology can also be applied to systems and devices for monitoring natural conditions such as volcanoes, forests and oceans, and wildlife. Further, for example, the present technology can be applied to systems and devices used for sports.
<その他>
なお、本明細書において「フラグ」とは、複数の状態を識別するための情報であり、真(1)または偽(0)の2状態を識別する際に用いる情報だけでなく、3以上の状態を識別することが可能な情報も含まれる。したがって、この「フラグ」が取り得る値は、例えば1/0の2値であってもよいし、3値以上であってもよい。すなわち、この「フラグ」を構成するbit数は任意であり、1bitでも複数bitでもよい。また、識別情報(フラグも含む)は、その識別情報をビットストリームに含める形だけでなく、ある基準となる情報に対する識別情報の差分情報をビットストリームに含める形も想定されるため、本明細書においては、「フラグ」や「識別情報」は、その情報だけではなく、基準となる情報に対する差分情報も包含する。
<Others>
In the present specification, the "flag" is information for identifying a plurality of states, and is not only information used for identifying two states of true (1) or false (0), but also three or more states. It also contains information that can identify the state. Therefore, the value that this "flag" can take may be, for example, 2 values of 1/0 or 3 or more values. That is, the number of bits constituting this "flag" is arbitrary, and may be 1 bit or a plurality of bits. Further, the identification information (including the flag) is assumed to include not only the identification information in the bit stream but also the difference information of the identification information with respect to a certain reference information in the bit stream. In, the "flag" and "identification information" include not only the information but also the difference information with respect to the reference information.
また、符号化データ(ビットストリーム)に関する各種情報(メタデータ等)は、符号化データに関連づけられていれば、どのような形態で伝送または記録されるようにしてもよい。ここで、「関連付ける」という用語は、例えば、一方のデータを処理する際に他方のデータを利用し得る(リンクさせ得る)ようにすることを意味する。つまり、互いに関連付けられたデータは、1つのデータとしてまとめられてもよいし、それぞれ個別のデータとしてもよい。例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の伝送路上で伝送されるようにしてもよい。また、例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の記録媒体(または同一の記録媒体の別の記録エリア)に記録されるようにしてもよい。なお、この「関連付け」は、データ全体でなく、データの一部であってもよい。例えば、画像とその画像に対応する情報とが、複数フレーム、1フレーム、またはフレーム内の一部分などの任意の単位で互いに関連付けられるようにしてもよい。 Further, various information (metadata and the like) related to the coded data (bitstream) may be transmitted or recorded in any form as long as it is associated with the coded data. Here, the term "associate" means, for example, to make the other data available (linkable) when processing one data. That is, the data associated with each other may be combined as one data or may be individual data. For example, the information associated with the coded data (image) may be transmitted on a transmission path different from the coded data (image). Further, for example, the information associated with the coded data (image) may be recorded on a recording medium (or another recording area of the same recording medium) different from the coded data (image). good. It should be noted that this "association" may be a part of the data, not the entire data. For example, the image and the information corresponding to the image may be associated with each other in any unit such as a plurality of frames, one frame, or a part within the frame.
なお、本明細書において、「合成する」、「多重化する」、「付加する」、「一体化する」、「含める」、「格納する」、「入れ込む」、「差し込む」、「挿入する」等の用語は、例えば符号化データとメタデータとを1つのデータにまとめるといった、複数の物を1つにまとめることを意味し、上述の「関連付ける」の1つの方法を意味する。 In addition, in this specification, "synthesize", "multiplex", "add", "integrate", "include", "store", "insert", "insert", "insert". A term such as "" means combining a plurality of objects into one, for example, combining encoded data and metadata into one data, and means one method of "associating" described above.
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Further, the embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.
また、例えば、本技術は、装置またはシステムを構成するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、ユニットにさらにその他の機能を付加したセット等(すなわち、装置の一部の構成)として実施することもできる。 Further, for example, the present technology further applies to any configuration constituting a device or a system, for example, a processor as a system LSI (Large Scale Integration), a module using a plurality of processors, a unit using a plurality of modules, and a unit. It can also be implemented as a set or the like with other functions added (that is, a partial configuration of the device).
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 In the present specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether or not all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。 Further, for example, the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units). On the contrary, the configurations described above as a plurality of devices (or processing units) may be collectively configured as one device (or processing unit). Further, of course, a configuration other than the above may be added to the configuration of each device (or each processing unit). Further, if the configuration and operation of the entire system are substantially the same, a part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit). ..
また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 Further, for example, the present technology can have a cloud computing configuration in which one function is shared by a plurality of devices via a network and jointly processed.
また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。 Further, for example, the above-mentioned program can be executed in any device. In that case, the device may have necessary functions (functional blocks, etc.) so that necessary information can be obtained.
また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。 Further, for example, each step described in the above-mentioned flowchart can be executed by one device or can be shared and executed by a plurality of devices. Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices. In other words, a plurality of processes included in one step can be executed as processes of a plurality of steps. On the contrary, the processes described as a plurality of steps can be collectively executed as one step.
なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。 In the program executed by the computer, the processing of the steps for describing the program may be executed in chronological order in the order described in the present specification, or may be called in parallel or called. It may be executed individually at the required timing such as when. That is, as long as there is no contradiction, the processes of each step may be executed in an order different from the above-mentioned order. Further, the processing of the step for describing this program may be executed in parallel with the processing of another program, or may be executed in combination with the processing of another program.
なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。 It should be noted that the present techniques described above and below in the present specification can be independently implemented independently as long as there is no contradiction. Of course, any plurality of the present technologies can be used in combination. For example, some or all of the techniques described in any of the embodiments may be combined with some or all of the techniques described in other embodiments. In addition, a part or all of any of the above-mentioned techniques may be carried out in combination with other techniques not described above.
なお、本技術は以下のような構成も取ることができる。
(1) 合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する符号化部
を備える画像処理装置。
(2) 前記予測方式は、前記合焦に関するパラメータに基づいて、被写体に合焦しているか否かに応じて設定される
(1)に記載の画像処理装置。
(3) 前記被写体に合焦している場合、処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される
(2)に記載の画像処理装置。
(4) 前記被写体に合焦していない場合、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、前記処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される
(2)または(3)に記載の画像処理装置。
(5) 前記合焦に関するパラメータは、前記合焦のための位相差検出に用いられる画素値から導出される
(1)乃至(4)のいずれかに記載の画像処理装置。
(6) 前記合焦に関するパラメータは、前記符号化部が前記撮像画像データを符号化して生成した符号化データを復号して得られる撮像画像データの前記画素値を用いて行われる前記位相差検出の結果である
(5)に記載の画像処理装置。
(7) 前記合焦に関するパラメータは、前記撮像画像データの前記画素値を用いて行われる各予測方式による予測の結果である
(5)に記載の画像処理装置。
(8) 前記予測方式を設定する設定部をさらに備え、
前記符号化部は、前記設定部により設定された前記予測方式による予測を用いて前記撮像画像データを符号化する
(1)乃至(7)のいずれかに記載の画像処理装置。
(9) 前記設定部は、前記合焦に関するパラメータに基づいて、被写体に合焦しているか否かに応じて前記予測方式を設定する
(8)に記載の画像処理装置。
(10) 前記設定部は、前記被写体に合焦している場合、前記予測方式として、処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式を設定する
(9)に記載の画像処理装置。
(11) 前記設定部は、前記被写体に合焦していない場合、前記予測方式として、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、前記処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式を設定する
(9)または(10)に記載の画像処理装置。
(12) 前記設定部は、前記符号化部が前記撮像画像データを符号化して生成した符号化データを復号して得られる撮像画像データを用いて行われる前記合焦のための位相差検出の結果を前記合焦に関するパラメータとして用い、前記予測方式を設定する
(9)乃至(11)のいずれかに記載の画像処理装置。
(13) 前記設定部は、前記撮像画像データを用いて各予測方式による予測を行い、各予測の結果を前記合焦に関するパラメータとして用い、前記予測方式を設定する
(9)乃至(11)のいずれかに記載の画像処理装置。
(14) 前記符号化部は、前記設定部により設定された予測方式を示す予測方式情報を、前記撮像画像データを符号化して生成した符号化データに付加する
(13)に記載の画像処理装置。
(15) 前記符号化部は、
前記予測方式を用いて、前記撮像画像データの処理対象画素の予測を行い、前記処理対象画素の画素値の一部のビットと予測値との差分を導出する差分導出部と、
前記差分導出部により導出された前記差分をゴロム符号化するゴロム符号化部と、
前記ゴロム符号化部により前記差分がゴロム符号化されて生成された符号化データに適宜リファインメントを付加することにより、前記符号化データの符号量を調整する調整部と
を備える
(1)乃至(14)のいずれかに記載の画像処理装置。
(16) 前記符号化部により前記撮像画像データが符号化されて生成された符号化データを送信する送信部をさらに備える
(1)乃至(15)のいずれかに記載の画像処理装置。
(17) 前記符号化部により前記撮像画像データが符号化されて生成された符号化データを復号する復号部をさらに備える
(1)乃至(16)のいずれかに記載の画像処理装置。
(18) 前記復号部により前記符号化データが復号されて生成された撮像画像データを用いて、前記合焦のための位相差検出を行う位相差検出部をさらに備える
(17)に記載の画像処理装置。
(19) 前記位相差検出部による前記位相差検出の結果に基づいて、被写体に合焦させるように光学系を制御する制御部をさらに備える
(18)に記載の画像処理装置。
(20) 合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する
画像処理方法。
The present technology can also have the following configurations.
(1) An image processing device including a coding unit that encodes captured image data using prediction by a prediction method set based on parameters related to focusing.
(2) The image processing apparatus according to (1), wherein the prediction method is set according to whether or not the subject is in focus based on the parameters related to the in-focus.
(3) When the subject is in focus, a prediction method is set in which the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel is used as the prediction value (2). ). The image processing apparatus.
(4) When the subject is not in focus, the position of the photodiode that detects the pixel value is the same as that of the pixel to be processed, and the pixel of the same color as the pixel to be processed is the most of the pixel to be processed. The image processing apparatus according to (2) or (3), wherein a prediction method is set in which the pixel value of pixels located in the vicinity is used as the prediction value.
(5) The image processing apparatus according to any one of (1) to (4), wherein the parameters related to focusing are derived from pixel values used for phase difference detection for focusing.
(6) The parameter related to the focusing is the phase difference detection performed by using the pixel value of the captured image data obtained by decoding the coded data generated by the coding unit encoding the captured image data. The image processing apparatus according to (5), which is the result of the above.
(7) The image processing apparatus according to (5), wherein the parameter related to focusing is the result of prediction by each prediction method performed using the pixel value of the captured image data.
(8) Further provided with a setting unit for setting the prediction method.
The image processing apparatus according to any one of (1) to (7), wherein the coding unit encodes the captured image data by using the prediction by the prediction method set by the setting unit.
(9) The image processing apparatus according to (8), wherein the setting unit sets the prediction method according to whether or not the subject is in focus based on the parameters related to the in-focus.
(10) When the setting unit is in focus on the subject, as the prediction method, the setting unit predicts the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel. The image processing apparatus according to (9).
(11) When the setting unit is not in focus on the subject, the position of the photodiode that detects the pixel value is the same as the processing target pixel and the same color as the processing target pixel as the prediction method. The image processing apparatus according to (9) or (10), wherein a prediction method is set in which the pixel value of the pixel located closest to the processing target pixel among the pixels is used as the prediction value.
(12) The setting unit detects the phase difference for focusing by using the captured image data obtained by decoding the coded data generated by the coding unit encoding the captured image data. The image processing apparatus according to any one of (9) to (11), wherein the result is used as a parameter related to focusing and the prediction method is set.
(13) The setting unit sets the prediction method by using the captured image data to make a prediction by each prediction method and using the result of each prediction as a parameter related to the focusing. The image processing apparatus according to any one.
(14) The image processing apparatus according to (13), wherein the coding unit adds prediction method information indicating a prediction method set by the setting unit to the coded data generated by encoding the captured image data. ..
(15) The coding unit is
Using the prediction method, a difference derivation unit that predicts the processing target pixel of the captured image data and derives the difference between some bits of the pixel value of the processing target pixel and the predicted value, and
A Golomb coding unit that Golom-codes the difference derived by the difference deriving unit, and a Golomb coding unit.
(1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) The image processing apparatus according to any one of 14).
(16) The image processing apparatus according to any one of (1) to (15), further comprising a transmission unit that transmits the coded data generated by encoding the captured image data by the coding unit.
(17) The image processing apparatus according to any one of (1) to (16), further comprising a decoding unit that decodes the coded data generated by encoding the captured image data by the coding unit.
(18) The image according to (17), further comprising a phase difference detection unit that performs phase difference detection for focusing using the captured image data generated by decoding the coded data by the decoding unit. Processing device.
(19) The image processing apparatus according to (18), further comprising a control unit that controls an optical system so as to focus on a subject based on the result of the phase difference detection by the phase difference detection unit.
(20) An image processing method for encoding captured image data using prediction by a prediction method set based on parameters related to focusing.
(21) 合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号する復号部
を備える画像処理装置。
(22) 前記予測方式は、前記合焦に関するパラメータに基づいて、被写体に合焦しているか否かに応じて設定される
(21)に記載の画像処理装置。
(23) 前記被写体に合焦している場合、処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される
(22)に記載の画像処理装置。
(24) 前記被写体に合焦していない場合、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、前記処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される
(22)または(23)に記載の画像処理装置。
(25) 前記合焦に関するパラメータは、前記復号部が前記符号化データを復号して得られる撮像画像データを用いて行われる前記合焦のための位相差検出の結果である
(21)乃至(24)のいずれかに記載の画像処理装置。
(26) 前記合焦に関するパラメータは、前記符号化データに付加された、符号化の際に用いられた予測方式を示す予測方式情報である
(21)乃至(25)のいずれかに記載の画像処理装置。
(27) 前記予測方式を設定する設定部をさらに備え、
前記復号部は、前記設定部により設定された前記予測方式による予測を用いて前記符号化データを復号する
(21)乃至(26)のいずれかに記載の画像処理装置。
(28) 前記設定部は、前記合焦に関するパラメータに基づいて、被写体に合焦しているか否かに応じて前記予測方式を設定する
(27)に記載の画像処理装置。
(29) 前記設定部は、前記被写体に合焦している場合、前記予測方式として、処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式を設定する
(28)に記載の画像処理装置。
(30) 前記設定部は、前記被写体に合焦していない場合、前記予測方式として、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、前記処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式を設定する
(28)または(29)に記載の画像処理装置。
(31) 前記設定部は、前記復号部が前記符号化データを復号して得られる撮像画像データを用いて行われる前記合焦のための位相差検出の結果を前記合焦に関するパラメータとして用い、前記予測方式を設定する
(28)に記載の画像処理装置。
(32) 前記復号部は、
前記符号化部に付加されているリファインメントを除去することにより、前記符号化データの符号量を逆調整する逆調整部と、
前記逆調整部により符号量が逆調整された前記符号化データをゴロム復号するゴロム復号部と、
前記ゴロム復号部により前記符号化データがゴロム復号されて生成された、撮像画像データの画素値と予測値との差分を用いて、前記撮像画像データを生成する撮像画像データ生成部と
を備える
(21)乃至(31)のいずれかに記載の画像処理装置。
(33) 前記符号化データを受信する受信部をさらに備え、
前記復号部は、前記受信部により受信された前記符号化データを復号する
(21)乃至(32)のいずれかに記載の画像処理装置。
(34) 前記復号部により前記符号化データが復号されて生成された撮像画像データを用いて、前記合焦のための位相差検出を行う位相差検出部をさらに備える
(21)乃至(33)のいずれかに記載の画像処理装置。
(35) 前記位相差検出部は、さらに、撮像画像データを符号化して前記符号化データを生成する際に用いられた予測方式を示す予測方式情報に基づいて、前記位相差検出を行う
(34)に記載の画像処理装置。
(36) 前記予測方式情報に基づいて、前記位相差検出用の補助情報を生成する補助情報生成部をさらに備え、
前記位相差検出部は、前記復号部により前記符号化データが復号されて生成された撮像画像データと、前記補助情報生成部により生成された前記補助情報とに基づいて、前記位相差検出を行う
(35)に記載の画像処理装置。
(37) 前記位相差検出部は、さらに、撮像画像データの符号化および復号による誤差を示す誤差情報に基づいて、前記位相差検出を行う
(34)乃至(36)のいずれかに記載の画像処理装置。
(38) 前記誤差情報に基づいて、前記位相差検出の結果の信頼度を示す信頼度情報を生成する信頼度情報生成部をさらに備え、
前記位相差検出部は、前記復号部により前記符号化データが復号されて生成された撮像画像データと、前記信頼度情報生成部により生成された前記信頼度情報とに基づいて、前記位相差検出を行う
(37)に記載の画像処理装置。
(39) 前記位相差検出部による前記位相差検出の結果に基づいて、被写体に合焦させるように光学系を制御する制御部をさらに備える
(34)乃至(38)のいずれかに記載の画像処理装置。
(40) 合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号する
画像処理方法。
(21) An image processing apparatus including a decoding unit that decodes encoded data of captured image data by using prediction by a prediction method set based on parameters related to focusing.
(22) The image processing apparatus according to (21), wherein the prediction method is set according to whether or not the subject is in focus based on the parameters related to the in-focus.
(23) When the subject is in focus, a prediction method is set in which the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel is used as the prediction value (22). ). The image processing apparatus.
(24) When the subject is not in focus, the position of the photodiode that detects the pixel value is the same as that of the pixel to be processed, and the pixel of the same color as the pixel to be processed is the most of the pixel to be processed. The image processing apparatus according to (22) or (23), wherein a prediction method is set in which the pixel value of pixels located in the vicinity is used as the prediction value.
(25) The parameters related to the focusing are the results of the phase difference detection for the focusing performed by the decoding unit using the captured image data obtained by decoding the coded data (21) to (21). 24) The image processing apparatus according to any one of.
(26) The image according to any one of (21) to (25), wherein the parameter related to focusing is prediction method information indicating the prediction method used at the time of coding added to the coded data. Processing device.
(27) Further provided with a setting unit for setting the prediction method.
The image processing apparatus according to any one of (21) to (26), wherein the decoding unit decodes the coded data by using the prediction by the prediction method set by the setting unit.
(28) The image processing apparatus according to (27), wherein the setting unit sets the prediction method according to whether or not the subject is in focus based on the parameters related to the in-focus.
(29) When the setting unit is in focus on the subject, as the prediction method, the setting unit predicts the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel. The image processing apparatus according to (28).
(30) When the setting unit is not in focus on the subject, the position of the photodiode that detects the pixel value is the same as the processing target pixel and the same color as the processing target pixel as the prediction method. The image processing apparatus according to (28) or (29), which sets a prediction method in which the pixel value of the pixel located closest to the processing target pixel among the pixels is used as the prediction value.
(31) The setting unit uses the result of the phase difference detection for focusing performed by the decoding unit using the captured image data obtained by decoding the coded data as a parameter for focusing. The image processing apparatus according to (28), which sets the prediction method.
(32) The decoding unit is
A reverse adjustment unit that reversely adjusts the code amount of the coded data by removing the refinement added to the coding unit, and a reverse adjustment unit.
A Golomb decoding unit that Golom-decodes the coded data whose code amount is reverse-adjusted by the reverse adjustment unit, and a Golomb decoding unit.
It is provided with a captured image data generation unit that generates the captured image data by using the difference between the pixel value and the predicted value of the captured image data generated by the gorom decoding of the coded data by the gorom decoding unit. 21) The image processing apparatus according to any one of (31).
(33) Further, a receiving unit for receiving the coded data is provided.
The image processing apparatus according to any one of (21) to (32), wherein the decoding unit decodes the coded data received by the receiving unit.
(34) Further provided with a phase difference detection unit that performs phase difference detection for focusing using the captured image data generated by decoding the coded data by the decoding unit (21) to (33). The image processing apparatus according to any one of.
(35) The phase difference detection unit further performs the phase difference detection based on the prediction method information indicating the prediction method used when the captured image data is encoded to generate the coded data (34). ). The image processing apparatus.
(36) Further provided with an auxiliary information generation unit that generates auxiliary information for the phase difference detection based on the prediction method information.
The phase difference detection unit performs the phase difference detection based on the captured image data generated by decoding the coded data by the decoding unit and the auxiliary information generated by the auxiliary information generation unit. The image processing apparatus according to (35).
(37) The image according to any one of (34) to (36), wherein the phase difference detection unit further detects the phase difference based on error information indicating an error due to coding and decoding of captured image data. Processing device.
(38) Further provided with a reliability information generation unit that generates reliability information indicating the reliability of the result of the phase difference detection based on the error information.
The phase difference detection unit detects the phase difference based on the captured image data generated by decoding the coded data by the decoding unit and the reliability information generated by the reliability information generation unit. The image processing apparatus according to (37).
(39) The image according to any one of (34) to (38), further comprising a control unit that controls the optical system so as to focus on the subject based on the result of the phase difference detection by the phase difference detection unit. Processing equipment.
(40) An image processing method for decoding encoded data of captured image data by using prediction by a prediction method set based on parameters related to focusing.
100 画像処理装置, 101 符号化部, 102 復号部, 103 位相差検出部, 104 予測方式設定部, 121 DPCM処理部, 122 ゴロム符号化部, 123 圧縮率調整部, 131 圧縮率逆調整部, 132 ゴロム復号部, 133 逆DPCM処理部, 140 画素アレイ, 141 画素, 142 オンチップレンズ, 151 左光電変換素子, 152 右光電変換素子, 154 カラーフィルタ, 170 撮像装置, 171 レンズ, 172 イメージセンサ, 173 信号処理部, 174 出力部, 175 記憶部, 181 受光部, 182 ADC, 183 送信部, 191 受信部, 192 レンズ制御部, 193 画像処理部, 200 画像処理装置, 201 符号化部, 202 復号部, 221 予測方式設定部, 222 符号化部, 231 予測方式設定部, 232 復号部, 250 撮像装置, 251 レンズ, 252 イメージセンサ, 253 信号処理部, 254 出力部, 255 記憶部, 261 受光部, 262 ADC, 263 送信部, 271 受信部, 272 位相差検出部, 273 レンズ制御部, 274 画像処理部, 300 画像処理装置, 301 補助情報生成部, 302 位相差検出部, 303 レンズ制御部, 311 位相差検出領域統計処理部, 312 閾値処理部, 350 撮像装置, 351 レンズ, 352 イメージセンサ, 353 信号処理部, 354 出力部, 355 記憶部, 361 受光部, 362 ADC, 363 送信部, 371 受信部, 372 画像処理部, 400 画像処理装置, 401 信頼度情報生成部, 402 位相差検出部, 403 レンズ制御部, 411 積算部, 412 閾値処理部, 450 撮像装置, 451 レンズ, 452 イメージセンサ, 453 信号処理部, 461 受光部, 462 ADC, 463 送信部, 471 受信部, 472 画像処理部, 500 積層型イメージセンサ, 501乃至503 半導体基板, 520 回路基板, 531 受光部, 532 A/D変換部, 533 画像処理部, 534 DRAM, 535 画像処理部 100 Image processing device, 101 Coding unit, 102 Decoding unit, 103 Phase difference detection unit, 104 Prediction method setting unit, 121 DPCM processing unit, 122 Golom coding unit, 123 Compression rate adjustment unit, 131 Compression rate reverse adjustment unit, 132 Golom decoding unit, 133 reverse DPCM processing unit, 140 pixel array, 141 pixels, 142 on-chip lens, 151 left photoelectric conversion element, 152 right photoelectric conversion element, 154 color filter, 170 image pickup device, 171 lens, 172 image sensor, 173 Signal processing unit, 174 output unit, 175 storage unit, 181 light receiving unit, 182 ADC, 183 transmitter unit, 191 receiver unit, 192 lens control unit, 193 image processing unit, 200 image processing unit, 201 encoding unit, 202 decoding Unit, 221 Prediction method setting unit, 222 Coding unit, 231 Prediction method setting unit, 232 Decoding unit, 250 Imaging device, 251 lens, 252 image sensor, 253 signal processing unit, 254 output unit, 255 storage unit, 261 light receiving unit , 262 ADC, 263 transmitter, 271 receiver, 272 phase difference detector, 273 lens control unit, 274 image processing unit, 300 image processing device, 301 auxiliary information generation unit, 302 phase difference detection unit, 303 lens control unit, 311 Phase difference detection area statistical processing unit, 312 threshold processing unit, 350 image pickup device, 351 lens, 352 image sensor, 353 signal processing unit, 354 output unit, 355 storage unit, 361 light receiving unit, 362 ADC, 363 transmitter, 371 Receiver, 372 image processing unit, 400 image processing unit, 401 reliability information generation unit, 402 phase difference detection unit, 403 lens control unit, 411 integration unit, 412 threshold processing unit, 450 image pickup device, 451 lens, 452 image sensor. , 453 Signal processing unit, 461 Light receiving unit, 462 ADC, 463 transmitter, 471 receiver, 472 image processing unit, 500 stacked image sensor, 501 to 503 semiconductor substrate, 520 circuit board, 531 light receiving unit, 532 A / D conversion unit, 533 image processing unit, 534 DRAM, 535 Image processing unit
Claims (20)
を備える画像処理装置。 An image processing device including a coding unit that encodes captured image data using prediction by a prediction method set based on parameters related to focusing.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the prediction method is set according to whether or not the subject is in focus based on the parameters related to focusing.
請求項2に記載の画像処理装置。 The second aspect of claim 2, wherein when the subject is in focus, a prediction method is set in which the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel is set as the prediction value. Image processing equipment.
請求項2に記載の画像処理装置。 When the subject is not in focus, the position of the photodiode that detects the pixel value is the same as that of the pixel to be processed, and the position is closest to the pixel to be processed among the pixels of the same color as the pixel to be processed. The image processing apparatus according to claim 2, wherein a prediction method is set in which the pixel value of the pixel to be used is used as the prediction value.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the parameters related to focusing are derived from pixel values used for phase difference detection for focusing.
請求項5に記載の画像処理装置。 The parameter related to the focusing is the result of the phase difference detection performed by using the pixel value of the captured image data obtained by decoding the coded data generated by the coding unit encoding the captured image data. The image processing apparatus according to claim 5.
請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the parameter related to focusing is the result of prediction by each prediction method performed by using the pixel value of the captured image data.
前記符号化部は、前記設定部により設定された前記予測方式による予測を用いて前記撮像画像データを符号化する
請求項1に記載の画像処理装置。 Further provided with a setting unit for setting the prediction method,
The image processing apparatus according to claim 1, wherein the coding unit encodes the captured image data by using the prediction by the prediction method set by the setting unit.
請求項8に記載の画像処理装置。 The image processing apparatus according to claim 8, wherein the coding unit adds prediction method information indicating a prediction method set by the setting unit to the coded data generated by encoding the captured image data.
画像処理方法。 An image processing method that encodes captured image data using prediction by a prediction method set based on parameters related to focusing.
を備える画像処理装置。 An image processing device including a decoding unit that decodes the encoded data of the captured image data by using the prediction by the prediction method set based on the parameters related to focusing.
請求項11に記載の画像処理装置。 The image processing apparatus according to claim 11, wherein the prediction method is set according to whether or not the subject is in focus based on the parameters related to focusing.
請求項12に記載の画像処理装置。 The twelfth aspect of claim 12, wherein when the subject is in focus, a prediction method is set in which the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel is set as the prediction value. Image processing equipment.
請求項12に記載の画像処理装置。 When the subject is not in focus, the position of the photodiode that detects the pixel value is the same as that of the pixel to be processed, and the position is closest to the pixel to be processed among the pixels of the same color as the pixel to be processed. The image processing apparatus according to claim 12, wherein a prediction method is set in which the pixel value of the pixel to be used is used as the prediction value.
請求項11に記載の画像処理装置。 The image processing according to claim 11, wherein the parameter relating to the focusing is the result of the phase difference detection for the focusing performed by the decoding unit using the captured image data obtained by decoding the coded data. Device.
請求項11に記載の画像処理装置。 The image processing apparatus according to claim 11, wherein the parameter related to focusing is predictive method information indicating a predictive method used at the time of coding, which is added to the coded data.
前記復号部は、前記設定部により設定された前記予測方式による予測を用いて前記符号化データを復号する
請求項11に記載の画像処理装置。 Further provided with a setting unit for setting the prediction method,
The image processing apparatus according to claim 11, wherein the decoding unit decodes the coded data by using the prediction by the prediction method set by the setting unit.
前記復号部により前記符号化データが復号されて生成された撮像画像データと、前記補助情報生成部により生成された前記補助情報とに基づいて、前記位相差検出を行う位相差検出部と
をさらに備える請求項11に記載の画像処理装置。 Auxiliary information generation unit that generates auxiliary information for phase difference detection for focusing based on the prediction method information indicating the prediction method used when the captured image data is encoded to generate the coded data. When,
A phase difference detection unit that performs phase difference detection based on the captured image data generated by decoding the coded data by the decoding unit and the auxiliary information generated by the auxiliary information generation unit is further added. The image processing apparatus according to claim 11.
前記復号部により前記符号化データが復号されて生成された撮像画像データと、前記信頼度情報生成部により生成された前記信頼度情報とに基づいて、前記位相差検出を行う位相差検出部と
をさらに備える請求項11に記載の画像処理装置。 A reliability information generation unit that generates reliability information indicating the reliability of the result of the phase difference detection for focusing based on the error information indicating the error due to the coding and decoding of the captured image data.
A phase difference detection unit that performs phase difference detection based on the captured image data generated by decoding the coded data by the decoding unit and the reliability information generated by the reliability information generation unit. 11. The image processing apparatus according to claim 11.
画像処理方法。 An image processing method for decoding encoded data of captured image data by using prediction by a prediction method set based on parameters related to focusing.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018223023A JP2022028085A (en) | 2018-11-29 | 2018-11-29 | Image processing device and method |
PCT/JP2019/044822 WO2020110771A1 (en) | 2018-11-29 | 2019-11-15 | Image processing device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018223023A JP2022028085A (en) | 2018-11-29 | 2018-11-29 | Image processing device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022028085A true JP2022028085A (en) | 2022-02-15 |
Family
ID=70852923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018223023A Pending JP2022028085A (en) | 2018-11-29 | 2018-11-29 | Image processing device and method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022028085A (en) |
WO (1) | WO2020110771A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240340411A1 (en) * | 2021-08-24 | 2024-10-10 | Sony Semiconductor Solutions Corporation | Image processing device and method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000209590A (en) * | 1999-01-11 | 2000-07-28 | Canon Inc | Image encoder, image encoding method, storage medium and image pickup device |
JP4564856B2 (en) * | 2005-02-02 | 2010-10-20 | キヤノン株式会社 | Image encoding apparatus and imaging apparatus |
JP2013093745A (en) * | 2011-10-26 | 2013-05-16 | Olympus Corp | Image compression apparatus, imaging apparatus and image compression method |
JP6611559B2 (en) * | 2015-10-20 | 2019-11-27 | キヤノン株式会社 | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM |
-
2018
- 2018-11-29 JP JP2018223023A patent/JP2022028085A/en active Pending
-
2019
- 2019-11-15 WO PCT/JP2019/044822 patent/WO2020110771A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2020110771A1 (en) | 2020-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11695941B2 (en) | Image processing device and method | |
CN114598875B (en) | Apparatus and method for quantization/inverse quantization and encoding/decoding apparatus | |
CN109076226B (en) | Image processing apparatus and method | |
ES2966479T3 (en) | An encoder, a decoder and corresponding methods for intraprediction | |
US11272180B2 (en) | Image processing apparatus and method | |
US10924735B2 (en) | Image processing apparatus and image processing method | |
RU2653464C2 (en) | Image processing device and method of image processing | |
US11638003B2 (en) | Video coding and decoding methods and devices using a library picture bitstream | |
EP3606066A1 (en) | Image processing device and method | |
CN111355951B (en) | Video decoding method, device and decoding equipment | |
JP2020174400A (en) | Image decoding device and method | |
US20160227253A1 (en) | Decoding device, decoding method, encoding device and encoding method | |
BR112013013513B1 (en) | IMAGE PROCESSING DEVICE AND METHOD | |
US11895297B2 (en) | Prediction mode determining method and apparatus, encoding device, and decoding device | |
US20200162735A1 (en) | Image processing apparatus and method | |
US10893269B2 (en) | Image processing device and method | |
US20240297993A1 (en) | Prediction mode determining method and apparatus, encoding device, and decoding device | |
CN111901593B (en) | Image dividing method, device and equipment | |
WO2020110771A1 (en) | Image processing device and method | |
US11935212B2 (en) | Image processing apparatus and method | |
CN114424554B (en) | Method and apparatus for chroma QP offset table indication and derivation | |
KR102338669B1 (en) | Image processing apparatus and method, and recording medium | |
US20240340411A1 (en) | Image processing device and method |