JP2022028085A - Image processing device and method - Google Patents

Image processing device and method Download PDF

Info

Publication number
JP2022028085A
JP2022028085A JP2018223023A JP2018223023A JP2022028085A JP 2022028085 A JP2022028085 A JP 2022028085A JP 2018223023 A JP2018223023 A JP 2018223023A JP 2018223023 A JP2018223023 A JP 2018223023A JP 2022028085 A JP2022028085 A JP 2022028085A
Authority
JP
Japan
Prior art keywords
unit
prediction method
pixel
phase difference
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018223023A
Other languages
Japanese (ja)
Inventor
利昇 井原
Toshinori Ihara
武文 名雲
Takefumi Nagumo
誠 大道
Makoto Omichi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2018223023A priority Critical patent/JP2022028085A/en
Priority to PCT/JP2019/044822 priority patent/WO2020110771A1/en
Publication of JP2022028085A publication Critical patent/JP2022028085A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

To make it possible to suppress an increase in prediction error.SOLUTION: Captured image data are encoded using prediction by a prediction scheme which is set on the basis of a focusing-related parameter. Encoded data of the captured image data are decoded using prediction by a prediction scheme which is set on the basis of a focusing-related parameter. The present disclosure can be applied to, for example, an image processing device, an image encoding device, an image decoding device, an imaging element, an imaging device, or the like.SELECTED DRAWING: Figure 1

Description

本開示は、画像処理装置および方法に関し、特に、予測誤差の増大を抑制することができるようにした画像処理装置および方法に関する。 The present disclosure relates to image processing devices and methods, and more particularly to image processing devices and methods capable of suppressing an increase in prediction error.

従来、画素において互いに異なる射出瞳を出射した光束に対応した複数の信号を検出し、その検出した複数の信号から位相差を検出し、その検出した位相差に基づいて焦点距離を制御し、被写体に合焦させる方法が考えられた(例えば、特許文献1および特許文献2参照)。 Conventionally, a plurality of signals corresponding to light flux emitted from different exit pupils are detected in a pixel, a phase difference is detected from the detected multiple signals, and a focal length is controlled based on the detected phase difference to control a subject. A method of focusing on is considered (see, for example, Patent Document 1 and Patent Document 2).

特開2014-215551号公報Japanese Unexamined Patent Publication No. 2014-215551 特開2017-79407号公報JP-A-2017-79407

しかしながら、このような画素を有する撮像部を用いて被写体を撮像し、撮像画像データを得る場合、合焦(フォーカス)の度合いに応じて画素の空間的な相関が変化するおそれがあった。そのため、このような撮像部により得られた撮像画像データから単一の予測方法で画素値を予測し、その予測誤差を用いてその撮像画像データを符号化する場合、合焦の度合いによって、その予測誤差が増大するおそれがあった。 However, when an image pickup unit having such pixels is used to image a subject and obtain captured image data, there is a possibility that the spatial correlation of the pixels may change depending on the degree of focusing. Therefore, when the pixel value is predicted from the captured image data obtained by such an imaging unit by a single prediction method and the captured image data is encoded using the prediction error, the pixel value is determined depending on the degree of focusing. There was a risk that the prediction error would increase.

本開示は、このような状況に鑑みてなされたものであり、予測誤差の増大を抑制することができるようにするものである。 The present disclosure has been made in view of such a situation, and makes it possible to suppress an increase in prediction error.

本技術の一側面の画像処理装置は、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する符号化部を備える画像処理装置である。 The image processing device on one aspect of the present technology is an image processing device including a coding unit that encodes captured image data using prediction by a prediction method set based on parameters related to focusing.

本技術の一側面の画像処理方法は、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する画像処理方法である。 The image processing method of one aspect of the present technology is an image processing method for encoding captured image data by using prediction by a prediction method set based on parameters related to focusing.

本技術の他の側面の画像処理装置は、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号する復号部を備える画像処理装置である。 The image processing device of another aspect of the present technology is an image processing device including a decoding unit that decodes the encoded data of the captured image data by using the prediction by the prediction method set based on the parameters related to focusing.

本技術の他の側面の画像処理方法は、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号する画像処理方法である。 The image processing method of another aspect of the present technology is an image processing method for decoding the encoded data of the captured image data by using the prediction by the prediction method set based on the parameters related to focusing.

本技術の一側面の画像処理装置および方法においては、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データが符号化される。 In the image processing apparatus and method of one aspect of the present technology, the captured image data is encoded using the prediction by the prediction method set based on the parameters related to focusing.

本技術の他の側面の画像処理装置および方法においては、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データが復号される。 In the image processing apparatus and method of another aspect of the present technology, the encoded data of the captured image data is decoded by using the prediction by the prediction method set based on the parameters related to focusing.

本技術を適用した予測方式等の一覧を示す図である。It is a figure which shows the list of the prediction method, etc. to which this technique is applied. 方法1を実現する画像処理装置の主な構成例を示すブロック図である。It is a block diagram which shows the main configuration example of the image processing apparatus which realizes the method 1. 符号化部の主な構成例を示すブロック図である。It is a block diagram which shows the main configuration example of a coding part. 復号部の主な構成例を示すブロック図である。It is a block diagram which shows the main configuration example of a decoding part. 画素アレイの主な構成例を説明する図である。It is a figure explaining the main configuration example of a pixel array. 画素の主な構成例を説明する図である。It is a figure explaining the main composition example of a pixel. 予測方式の例を説明する図である。It is a figure explaining the example of the prediction method. 予測方式の他の例を説明する図である。It is a figure explaining another example of a prediction method. 画素アレイの他の構成例を説明する図である。It is a figure explaining another configuration example of a pixel array. 予測方式の例を説明する図である。It is a figure explaining the example of the prediction method. 予測値を導出する演算の例を説明する図である。It is a figure explaining the example of the operation which derives a predicted value. 予測方式の他の例を説明する図である。It is a figure explaining another example of a prediction method. 画像処理の流れの例を説明するフローチャートである。It is a flowchart explaining an example of the flow of image processing. 簡易符号化処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of the simple coding process. 簡易復号処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of the simple decoding process. 方法1を実現する撮像装置の主な構成例を示すブロック図である。It is a block diagram which shows the main configuration example of the image pickup apparatus which realizes the method 1. 撮像処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of the image pickup processing. 撮像処理の流れの例を説明する、図17に続くフローチャートである。It is a flowchart following FIG. 17 explaining an example of the flow of the image pickup processing. 方法2を実現する画像処理装置の主な構成例を示すブロック図である。It is a block diagram which shows the main configuration example of the image processing apparatus which realizes the method 2. ビットストリームの主な構成例を説明する図である。It is a figure explaining the main configuration example of a bit stream. 符号化部の主な構成例を示すブロック図である。It is a block diagram which shows the main configuration example of a coding part. 復号部の主な構成例を示すブロック図である。It is a block diagram which shows the main configuration example of a decoding part. 画像処理の流れの例を説明するフローチャートである。It is a flowchart explaining an example of the flow of image processing. 符号化処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a coding process. 復号処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of a decoding process. 方法2を実現する撮像装置の主な構成例を示すブロック図である。It is a block diagram which shows the main configuration example of the image pickup apparatus which realizes the method 2. 撮像処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of the image pickup processing. 撮像処理の流れの例を説明する、図27に続くフローチャートである。It is a flowchart following FIG. 27 which explains the example of the flow of the image pickup processing. 方法2-1を実現する画像処理装置の主な構成例を示すブロック図である。It is a block diagram which shows the main configuration example of the image processing apparatus which realizes method 2-1. 補助情報生成部の主な構成例を示すブロック図である。It is a block diagram which shows the main block diagram of the auxiliary information generation part. 画像処理の流れの例を説明するフローチャートである。It is a flowchart explaining an example of the flow of image processing. 補助情報生成処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of auxiliary information generation processing. 方法2-1を実現する撮像装置の主な構成例を示すブロック図である。It is a block diagram which shows the main configuration example of the image pickup apparatus which realizes method 2-1. 撮像処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of the image pickup processing. 撮像処理の流れの例を説明する、図34に続くフローチャートである。It is a flowchart following FIG. 34 explaining an example of the flow of the image pickup processing. 方法3を実現する画像処理装置の主な構成例を示すブロック図である。It is a block diagram which shows the main configuration example of the image processing apparatus which realizes the method 3. 誤差情報について説明する図である。It is a figure explaining the error information. 信頼度情報生成部の主な構成例を示すブロック図である。It is a block diagram which shows the main block diagram of the reliability information generation part. 誤差情報について説明する図である。It is a figure explaining the error information. 画像処理の流れの例を説明するフローチャートである。It is a flowchart explaining an example of the flow of image processing. 信頼度情報生成処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of the reliability information generation processing. 方法3を実現する撮像装置の主な構成例を示すブロック図である。It is a block diagram which shows the main configuration example of the image pickup apparatus which realizes the method 3. 撮像処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of the image pickup processing. 撮像処理の流れの例を説明する、図43に続くフローチャートである。It is a flowchart following FIG. 43 which explains the example of the flow of the image pickup processing. 積層型イメージセンサの主な構成例を示す図である。It is a figure which shows the main configuration example of a laminated image sensor. 積層型イメージセンサの主な構成例を示す図である。It is a figure which shows the main configuration example of a laminated image sensor. コンピュータの主な構成例を示すブロック図である。It is a block diagram which shows the main configuration example of a computer.

以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.位相差検出を行う画素を用いた予測
2.第1の実施の形態(方法#1詳細)
3.第2の実施の形態(方法#2詳細)
4.第3の実施の形態(方法#2-1詳細)
5.第4の実施の形態(方法#3詳細)
6.第5の実施の形態(積層型イメージセンサ)
7.付記
Hereinafter, embodiments for carrying out the present disclosure (hereinafter referred to as embodiments) will be described. The explanation will be given in the following order.
1. 1. Prediction using pixels that detect phase difference 2. First Embodiment (Details of Method # 1)
3. 3. Second embodiment (details of method # 2)
4. Third Embodiment (Details of Method # 2-1)
5. Fourth Embodiment (Details of Method # 3)
6. Fifth Embodiment (stacked image sensor)
7. Addendum

<1.位相差検出を行う画素を用いた予測>
<技術内容・技術用語をサポートする文献等>
本技術で開示される範囲は、実施の形態に記載されている内容だけではなく、出願当時において公知となっている以下の文献に記載されている内容も含まれる。
<1. Prediction using pixels that detect phase difference>
<References that support technical content and terminology>
The scope disclosed in the present technology includes not only the contents described in the embodiments but also the contents described in the following documents known at the time of filing.

特許文献3:US2011/0292247
特許文献4:US2012/0219231
特許文献5:特開2014-103543号公報
Patent Document 3: US2011 / 092247
Patent Document 4: US2012 / 0219231
Patent Document 5: Japanese Unexamined Patent Publication No. 2014-103543

つまり、上述の文献に記載されている内容もサポート要件を判断する際の根拠となる。 In other words, the content described in the above-mentioned literature is also a basis for determining support requirements.

<DPCM符号化>
従来、例えば特許文献1や特許文献2に記載のように、画素において互いに異なる射出瞳を出射した光束に対応した複数の信号を検出し、その検出した複数の信号から位相差を検出し、その検出した位相差に基づいて焦点距離を制御し、被写体に合焦させる方法が考えられた。
<DPCM coding>
Conventionally, as described in Patent Document 1 and Patent Document 2, for example, a plurality of signals corresponding to light fluxes emitted from different exit pupils in a pixel are detected, a phase difference is detected from the detected plurality of signals, and the phase difference is detected. A method of controlling the focal length based on the detected phase difference to focus on the subject has been considered.

また、例えば特許文献3乃至特許文献5に記載のように、インタフェースの使用帯域やメモリ容量の増大抑制等を目的として、撮像画像のデータ(撮像画像データとも称する)の伝送時や記録時において、その撮像画像データを、DPCM(Differential Pulse Code Modulation)を用いた符号化により圧縮する方法が考えられた。DPCM符号化においては、処理対象画素の画素値をその周辺に位置する画素(周辺画素とも称する)の画素値を用いて予測し、その予測値との差分(予測誤差)を符号化することにより符号化効率を向上させる。 Further, for example, as described in Patent Documents 3 to 5, at the time of transmission or recording of captured image data (also referred to as captured image data) for the purpose of suppressing an increase in the band used or memory capacity of the interface. A method of compressing the captured image data by coding using DPCM (Differential Pulse Code Modulation) has been considered. In DPCM coding, the pixel value of the pixel to be processed is predicted using the pixel value of the pixel (also referred to as peripheral pixel) located around the pixel value, and the difference (prediction error) from the predicted value is encoded. Improve coding efficiency.

しかしながら、上述のような位相差を検出することができる画素を有する撮像部を用いて被写体を撮像し、撮像画像データを得る場合、合焦(フォーカス)の度合いに応じて画素の空間的な相関が変化するおそれがあった。 However, when a subject is imaged using an image pickup unit having pixels capable of detecting the phase difference as described above and the captured image data is obtained, the spatial correlation of the pixels is determined according to the degree of focusing. Was in danger of changing.

そのため、このような撮像部により得られた撮像画像データを、単一の予測方法でDPCM符号化する場合、合焦の度合いによって、その予測誤差が増大するおそれがあった。つまり、合焦の度合いを考慮せずに、処理対象画素に対して所定の位置関係にある周辺画素の画素値を用いて処理対象画素の画素値の予測を行い、その予測誤差を用いて符号化を行う場合、合焦の度合いによって画素の空間的な相関が変化するため、その予測誤差が増大するおそれがあった。可変長符号化の場合、予測誤差が増大すると、符号化効率が低減するおそれがあった。また、固定長符号化の場合、予測誤差が増大すると、撮像画像データを符号化・復号して得られる復号画像の画質が低減するおそれがあった。 Therefore, when the captured image data obtained by such an imaging unit is DPCM coded by a single prediction method, the prediction error may increase depending on the degree of focusing. That is, the pixel value of the pixel to be processed is predicted using the pixel values of the peripheral pixels having a predetermined positional relationship with respect to the pixel to be processed without considering the degree of focusing, and the prediction error is used to predict the code. In the case of conversion, the spatial correlation of the pixels changes depending on the degree of focusing, so that the prediction error may increase. In the case of variable-length coding, if the prediction error increases, the coding efficiency may decrease. Further, in the case of fixed-length coding, if the prediction error increases, there is a possibility that the image quality of the decoded image obtained by encoding / decoding the captured image data may decrease.

<予測方式制御>
そこで、合焦の度合いに応じて予測方式を制御するようにする。
<Prediction method control>
Therefore, the prediction method is controlled according to the degree of focusing.

例えば、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化するようにする。例えば、画像処理装置において、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する符号化部を備えるようにする。 For example, the captured image data is encoded using the prediction by the prediction method set based on the parameters related to focusing. For example, the image processing apparatus is provided with a coding unit that encodes the captured image data by using the prediction by the prediction method set based on the parameters related to focusing.

このようにすることにより、合焦の度合いに応じた画素の空間的な相関の変化を抑制するように、撮像画像データを符号化することができる。したがって、予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号画像の画質の低減を抑制することができる。 By doing so, it is possible to encode the captured image data so as to suppress the change in the spatial correlation of the pixels according to the degree of focusing. Therefore, it is possible to suppress an increase in prediction error. As a result, in the case of variable-length coding, it is possible to suppress a decrease in coding efficiency. Further, in the case of fixed-length coding, it is possible to suppress a decrease in the image quality of the decoded image.

また、例えば、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号するようにする。例えば、画像処理装置において、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号する復号部を備えるようにする。 Further, for example, the encoded data of the captured image data is decoded by using the prediction by the prediction method set based on the parameters related to focusing. For example, the image processing apparatus is provided with a decoding unit that decodes the coded data of the captured image data by using the prediction by the prediction method set based on the parameters related to focusing.

このようにすることにより、合焦の度合いに応じた画素の空間的な相関の変化を抑制するように符号化された撮像画像データを正しく復号することができる。したがって、予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号画像の画質の低減を抑制することができる。 By doing so, it is possible to correctly decode the captured image data encoded so as to suppress the change in the spatial correlation of the pixels according to the degree of focusing. Therefore, it is possible to suppress an increase in prediction error. As a result, in the case of variable-length coding, it is possible to suppress a decrease in coding efficiency. Further, in the case of fixed-length coding, it is possible to suppress a decrease in the image quality of the decoded image.

なお、このような符号化や復号に用いられる予測方式は、例えば、合焦に関するパラメータに基づいて、被写体に合焦しているか否かに応じて設定されるようにしてもよい。このようにすることにより、合焦の度合いに応じた予測方式を選択することができる。 The prediction method used for such coding or decoding may be set according to whether or not the subject is in focus, for example, based on the parameters related to focusing. By doing so, it is possible to select a prediction method according to the degree of focusing.

例えば、被写体に合焦している場合、処理対象画素と同色の画素の中で処理対象画素の最も近傍に位置する画素の画素値を、処理対象画素の画素値の予測値とする予測方式が設定されるようにしてもよい。ここで、処理対象画素と同色の画素とは、処理対象画素と同種のカラーフィルタが設けられる画素を示す。また、ここで、同種のカラーフィルタとは、同一の(または略同様の)波長光を透過するカラーフィルタを示す。このようにすることにより、被写体に合焦している状態において、予測誤差の増大を抑制することができる。 For example, when the subject is in focus, a prediction method in which the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel is used as the predicted value of the processing target pixel. It may be set. Here, the pixel having the same color as the processing target pixel means a pixel provided with a color filter of the same type as the processing target pixel. Further, here, the same type of color filter refers to a color filter that transmits light having the same (or substantially similar) wavelength. By doing so, it is possible to suppress an increase in prediction error in a state where the subject is in focus.

また例えば、被写体に合焦していない場合、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、その処理対象画素と同色の画素の中で処理対象画素の最も近傍に位置する画素の画素値を、処理対象画素の画素値の予測値とする予測方式が設定されるようにしてもよい。ここで、画素値を検出するフォトダイオードの位置とは、そのフォトダイオードの画素内における位置を示す。つまり、「画素値を検出するフォトダイオードの位置が処理対象画素と同一の」周辺画素とは、処理対象画素の周辺画素の内、画素値を検出するフォトダイオードのその画素内の位置が処理対象画素と同一である画素を示す。「処理対象画素と同色の画素」や「同種のカラーフィルタ」は、上述の通りである。このようにすることにより、被写体に合焦していない状態において、予測誤差の増大を抑制することができる。 Further, for example, when the subject is not in focus, the position of the photodiode that detects the pixel value is the same as that of the pixel to be processed, and is the closest to the pixel to be processed among the pixels of the same color as the pixel to be processed. A prediction method may be set in which the pixel value of the positioned pixel is used as the predicted value of the pixel value of the pixel to be processed. Here, the position of the photodiode for detecting the pixel value indicates the position of the photodiode in the pixel. That is, the peripheral pixel "the position of the photodiode that detects the pixel value is the same as the pixel to be processed" is the position in the pixel of the photodiode that detects the pixel value among the peripheral pixels of the pixel to be processed. Indicates a pixel that is identical to a pixel. The "pixels of the same color as the pixel to be processed" and the "color filter of the same type" are as described above. By doing so, it is possible to suppress an increase in the prediction error when the subject is not in focus.

なお、被写体に合焦している場合および被写体に合焦していない場合のそれぞれにおいて、上述のように予測方式を設定することにより、合焦の度合いに関わらず(被写体に合焦している場合も合焦していない場合も)、予測誤差の増大を抑制することができる。 By setting the prediction method as described above in each of the case where the subject is in focus and the case where the subject is not in focus, the subject is in focus regardless of the degree of focus (the subject is in focus). In some cases and out of focus), the increase in prediction error can be suppressed.

また、例えば、上述の合焦に関するパラメータは、その合焦のための位相差検出に用いられる画素値から導出されるようにしてもよい。このようにすることにより、位相差検出を利用して、より容易に予測誤差の増大を抑制することができる。例えば、撮像部(撮像素子)の位相差検出用の画素構造を利用して、より容易に予測誤差の増大を抑制することができる。 Further, for example, the above-mentioned parameters related to focusing may be derived from the pixel values used for the phase difference detection for the focusing. By doing so, it is possible to more easily suppress the increase in the prediction error by utilizing the phase difference detection. For example, by utilizing the pixel structure for detecting the phase difference of the image pickup unit (imaging element), it is possible to more easily suppress the increase in the prediction error.

例えば、図1に示される表10の「方法1」のように、位相差検出結果に応じて予測方式を制御するようにしてもよい。つまり、例えば、撮像画像データを符号化して生成した符号化データを復号して得られる撮像画像データの画素値(すなわち、復号画像の画素値)を用いて行われる位相差検出の結果を、上述の合焦に関するパラメータとして用い、符号化や復号に適用される予測方式を設定するようにしてもよい。 For example, as in "Method 1" of Table 10 shown in FIG. 1, the prediction method may be controlled according to the phase difference detection result. That is, for example, the result of phase difference detection performed using the pixel value of the captured image data (that is, the pixel value of the decoded image) obtained by decoding the encoded data generated by encoding the captured image data is described above. It may be used as a parameter related to focusing, and a prediction method applied to coding or decoding may be set.

このようにすることにより、例えば、焦点距離制御のための位相差検出の結果を利用して、符号化および復号に適用される予測方式をより容易に求めることができる。つまり、この予測方式の設定に関する処理による符号化や復号の負荷の増大を抑制することができる。また、符号化において適用された予測方式を示す予測方式情報を復号側に伝送させる必要が無いため、符号化効率の低減を抑制することができる。さらに、焦点距離制御のための位相差検出の結果を利用することにより、より正確に合焦の度合いに応じて予測方式を設定することができる。すなわち、予測誤差の増大をより抑制することができる。 By doing so, for example, the prediction method applied to the coding and decoding can be more easily obtained by utilizing the result of the phase difference detection for the focal length control. That is, it is possible to suppress an increase in the load of coding and decoding due to the processing related to the setting of this prediction method. Further, since it is not necessary to transmit the prediction method information indicating the prediction method applied in the coding to the decoding side, it is possible to suppress the reduction of the coding efficiency. Further, by using the result of the phase difference detection for the focal length control, the prediction method can be set more accurately according to the degree of focusing. That is, it is possible to further suppress an increase in prediction error.

また、例えば、図1に示される表10の「方法2」のように、撮像画像に応じて予測方式を制御するようにしてもよい。つまり、例えば、撮像画像データの、合焦のための位相差検出に用いられる画素値を用いて行われる各予測方式による予測の結果を、上述の合焦に関するパラメータとして用い、符号化に適用される予測方式を設定するようにしてもよい。 Further, for example, as in the “method 2” of Table 10 shown in FIG. 1, the prediction method may be controlled according to the captured image. That is, for example, the result of prediction by each prediction method performed by using the pixel value used for the phase difference detection for focusing of the captured image data is used as the above-mentioned parameter related to focusing and applied to coding. The prediction method may be set.

このようにすることにより、例えば、撮像画像データから符号化に適用される予測方式を設定することができる。すなわち、復号画像のフィードバックを必要とせずに、より容易に符号化に適用される予測方式を設定することができる。つまり、この予測方式の設定に関する処理による符号化の負荷の増大を抑制することができる。 By doing so, for example, it is possible to set a prediction method applied to coding from captured image data. That is, it is possible to set a prediction method that is more easily applied to coding without requiring feedback of the decoded image. That is, it is possible to suppress an increase in the coding load due to the processing related to the setting of this prediction method.

また、その場合、例えば、そのように設定された予測方式を復号側に伝送するようにしてもよい。例えば、その符号化に適用された予測方式を示す予測方式情報を符号化データに付加して復号側に伝送するようにしてもよい。換言するに、その符号化データに付加された予測方式情報を、上述の合焦に関するパラメータとして用い、復号に適用される予測方式を設定するようにしてもよい。 Further, in that case, for example, the prediction method set as such may be transmitted to the decoding side. For example, the prediction method information indicating the prediction method applied to the coding may be added to the coded data and transmitted to the decoding side. In other words, the prediction method information added to the coded data may be used as the above-mentioned focusing parameter to set the prediction method applied to decoding.

このようにすることにより、復号に適用される予測方式の設定に必要な演算量の増大を抑制することができる。すなわち、より容易に復号に適用される予測方式を設定することができる。つまり、この予測方式の設定に関する処理による復号の負荷の増大を抑制することができる。 By doing so, it is possible to suppress an increase in the amount of calculation required for setting the prediction method applied to decoding. That is, it is possible to more easily set a prediction method applied to decoding. That is, it is possible to suppress an increase in the decoding load due to the processing related to the setting of this prediction method.

また、この「方法2」の場合、さらに、図1に示される表10の「方法2-1」のように、上述の予測方式情報(撮像画像データの符号化に適用された予測方式)に基づいて、(焦点距離制御のための)位相差の検出を行うようにしてもよい。例えば、その予測方式情報を補助情報として用い、復号画像の位相差検出を行うようにしてもよい。このようにすることにより、位相差検出処理をより容易に行うことができる。例えば、予測方式情報に基づいて、被写体に全く合焦していない場合、焦点距離制御の精度を粗くし、被写体に略合焦している場合、その精度を細かくすることにより、より効率よく焦点距離を制御することができる(焦点距離制御の負荷や処理時間を低減させることができる、または、より高精度に焦点距離を制御することができる)。 Further, in the case of this "method 2", as in the "method 2-1" of Table 10 shown in FIG. 1, the above-mentioned prediction method information (prediction method applied to the coding of the captured image data) is further applied. Based on this, phase difference detection (for focal length control) may be performed. For example, the prediction method information may be used as auxiliary information to detect the phase difference of the decoded image. By doing so, the phase difference detection process can be performed more easily. For example, based on the prediction method information, if the subject is not in focus at all, the focal length control accuracy is coarsened, and if the subject is substantially in focus, the accuracy is made finer to focus more efficiently. The distance can be controlled (the focal length control load and processing time can be reduced, or the focal length can be controlled with higher accuracy).

また、図1に示される表10の「方法3」のように、上述のような撮像画像データの符号化および復号による誤差を示す誤差情報に基づいて、(焦点距離制御のための)位相差の検出を行うようにしてもよい。例えば、撮像画像データを符号化し、その符号化データを復号することにより生じる誤差(その誤差を示す誤差情報)を、位相差検出結果の信頼度を示す信頼度情報として用い、復号画像の位相差検出を行うようにしてもよい。例えば、符号化・復号により生じる誤差が大きな画素値を用いて導出される位相差検出結果は、相対的に信頼度が低減する可能性が高い。したがって、この信頼度情報に基づいて、誤差が大きな部分の画素値は位相差検出に用いないように制御するようにしてもよい。このようにすることにより、より正確に焦点距離を制御することができる。 Further, as in "Method 3" of Table 10 shown in FIG. 1, the phase difference (for focal length control) is based on the error information indicating the error due to the coding and decoding of the captured image data as described above. May be detected. For example, the error generated by encoding the captured image data and decoding the encoded data (error information indicating the error) is used as reliability information indicating the reliability of the phase difference detection result, and the phase difference of the decoded image is used. Detection may be performed. For example, the phase difference detection result derived by using a pixel value having a large error caused by coding / decoding is likely to have a relatively low reliability. Therefore, based on this reliability information, the pixel value in the portion having a large error may be controlled so as not to be used for phase difference detection. By doing so, the focal length can be controlled more accurately.

なお、図1に示される表10の「方法3-1」のように、この「方法3」は、上述の「方法1」と組み合わせて用いることもできる。さらに、図1に示される表10の「方法3-2」のように、この「方法3」は、上述の「方法2」や「方法2-1」と組み合わせて用いることもできる。 As shown in "Method 3-1" of Table 10 shown in FIG. 1, this "method 3" can also be used in combination with the above-mentioned "method 1". Further, as shown in "Method 3-2" of Table 10 shown in FIG. 1, this "method 3" can also be used in combination with the above-mentioned "method 2" and "method 2-1".

<2.第1の実施の形態>
<画像処理装置>
次に、図1の各方法についてより具体的に説明する。本実施の形態においては、「方法1」について説明する。図2は、本技術を適用した画像処理装置の構成の一例を示すブロック図である。図2に示される画像処理装置100は、入力された撮像画像データを符号化して符号化データを生成し、さらに、その符号化データを復号して撮像画像データを生成し、出力する装置である。この画像処理装置100は、その撮像画像データの符号化・復号における予測方式の制御方法として「方法1」を適用する。図2に示されるように、この画像処理装置100は、符号化部101、復号部102、位相差検出部103、および予測方式設定部104を有する。
<2. First Embodiment>
<Image processing device>
Next, each method of FIG. 1 will be described more specifically. In this embodiment, "Method 1" will be described. FIG. 2 is a block diagram showing an example of the configuration of an image processing apparatus to which the present technology is applied. The image processing device 100 shown in FIG. 2 is a device that encodes the input captured image data to generate encoded data, further decodes the encoded data to generate captured image data, and outputs the encoded image data. .. The image processing apparatus 100 applies "method 1" as a control method of a prediction method in coding / decoding of captured image data. As shown in FIG. 2, the image processing apparatus 100 includes a coding unit 101, a decoding unit 102, a phase difference detection unit 103, and a prediction method setting unit 104.

符号化部101は、画像の符号化に関する処理を行う。例えば、符号化部101は、画像処理装置100に入力された撮像画像データを取得する。また、符号化部101は、その取得した撮像画像データを、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する。つまり、符号化部101は、予測方式設定部104により指定される予測方式を適用して符号化する。したがって、符号化部101は、符号化に適用する予測方式をより容易に設定することができる。つまり、符号化処理の負荷の増大を抑制することができる。 The coding unit 101 performs processing related to image coding. For example, the coding unit 101 acquires the captured image data input to the image processing device 100. Further, the coding unit 101 encodes the captured image data obtained by using the prediction by the prediction method set based on the parameters related to focusing. That is, the coding unit 101 encodes by applying the prediction method specified by the prediction method setting unit 104. Therefore, the coding unit 101 can more easily set the prediction method applied to the coding. That is, it is possible to suppress an increase in the load of the coding process.

詳細については後述するが、符号化部101は、所謂AVCやHEVC等の一般的な画像符号化よりも簡易な方法で、撮像画像データを符号化する。以下において、この符号化部101による符号化を簡易符号化とも称する。 Although the details will be described later, the coding unit 101 encodes the captured image data by a method simpler than general image coding such as so-called AVC or HEVC. Hereinafter, the coding by the coding unit 101 is also referred to as simple coding.

符号化部101は、その符号化データを、記録媒体または伝送媒体を介して、復号部102に供給する。例えば、符号化部101は、その符号化データを、半導体メモリやハードディスク等の記録媒体に記録する。また、例えば、符号化部101は、その符号化データを、バス等の伝送路を介して復号部102に送信する。 The coding unit 101 supplies the coded data to the decoding unit 102 via a recording medium or a transmission medium. For example, the coding unit 101 records the coded data on a recording medium such as a semiconductor memory or a hard disk. Further, for example, the coding unit 101 transmits the coded data to the decoding unit 102 via a transmission path such as a bus.

復号部102は、画像の復号に関する処理を行う。例えば、復号部102は、記録媒体または伝送媒体を介して符号化部101から供給される符号化データを取得する。例えば、復号部102は、半導体メモリやハードディスク等の記録媒体から、符号化部101により記録された符号化データを読み出す。また、例えば、復号部102は、符号化部101からバス等の伝送路を介して伝送されるその符号化データを受信する。また、復号部102は、その取得した符号化データを、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて復号する。つまり、復号部102は、予測方式設定部104により設定された予測方式を適用して復号を行う。したがって、復号部102は、符号化データに予測方式に関する情報が含まれていなくても、符号化の際に適用されたのと同一の予測方式を適用することができる。したがって符号化効率の低減を抑制することができる。 The decoding unit 102 performs processing related to image decoding. For example, the decoding unit 102 acquires the coded data supplied from the coding unit 101 via the recording medium or the transmission medium. For example, the decoding unit 102 reads out the coded data recorded by the coding unit 101 from a recording medium such as a semiconductor memory or a hard disk. Further, for example, the decoding unit 102 receives the coded data transmitted from the coding unit 101 via a transmission line such as a bus. Further, the decoding unit 102 decodes the acquired coded data by using the prediction by the prediction method set based on the parameters related to focusing. That is, the decoding unit 102 decodes by applying the prediction method set by the prediction method setting unit 104. Therefore, the decoding unit 102 can apply the same prediction method that was applied at the time of coding even if the coded data does not include information about the prediction method. Therefore, it is possible to suppress a decrease in coding efficiency.

詳細については後述するが、復号部102は、所謂AVCやHEVC等の一般的な画像復号よりも簡易な方法で、撮像画像データが符号化された符号化データを復号する。以下において、この復号部102による復号を簡易復号とも称する。 Although the details will be described later, the decoding unit 102 decodes the encoded data in which the captured image data is encoded by a method simpler than general image decoding such as so-called AVC or HEVC. Hereinafter, the decoding by the decoding unit 102 is also referred to as a simple decoding.

復号部102は、その生成した撮像画像データを、画像処理装置100の外部に出力する。また、復号部102は、その撮像画像データを、位相差検出部103に供給する。 The decoding unit 102 outputs the generated captured image data to the outside of the image processing device 100. Further, the decoding unit 102 supplies the captured image data to the phase difference detection unit 103.

位相差検出部103は、位相差の検出に関する処理を行う。例えば、位相差検出部103は、復号部102から供給される撮像画像データ(復号結果)を取得する。また、位相差検出部103は、取得した撮像画像データを用いて、(被写体への)合焦のための位相差の検出を行う。この撮像画像データは像面において位相差を検出可能な撮像素子により生成されたものであり、位相差検出部103は、この撮像画像データから位相差を検出することができる。さらに、位相差検出部103は、導出した位相差検出結果を予測方式設定部104に供給する。 The phase difference detection unit 103 performs processing related to detection of the phase difference. For example, the phase difference detection unit 103 acquires captured image data (decoding result) supplied from the decoding unit 102. Further, the phase difference detection unit 103 detects the phase difference for focusing (to the subject) by using the acquired image data. The captured image data is generated by an image pickup element capable of detecting the phase difference on the image plane, and the phase difference detection unit 103 can detect the phase difference from the captured image data. Further, the phase difference detection unit 103 supplies the derived phase difference detection result to the prediction method setting unit 104.

予測方式設定部104は、予測方式の設定に関する処理を行う。例えば、予測方式設定部104は、位相差検出部103より供給される位相差検出結果を取得する。また、予測方式設定部104は、符号化や復号に適用される予測方式を設定する。例えば、予測方式設定部104が、合焦に関するパラメータに基づいて、その予測方式を設定するようにしてもよい。例えば、予測方式設定部104が、取得した位相差検出結果を合焦に関するパラメータとし、そのパラメータに基づいて、その予測方式を設定するようにしてもよい。 The prediction method setting unit 104 performs processing related to the setting of the prediction method. For example, the prediction method setting unit 104 acquires the phase difference detection result supplied from the phase difference detection unit 103. Further, the prediction method setting unit 104 sets a prediction method applied to coding or decoding. For example, the prediction method setting unit 104 may set the prediction method based on the parameters related to focusing. For example, the prediction method setting unit 104 may set the acquired phase difference detection result as a parameter related to focusing, and set the prediction method based on the parameter.

例えば、予測方式設定部104が、そのパラメータに基づいて、被写体に合焦しているか否かに応じて、その予測方式を設定するようにしてもよい。このようにすることにより、予測方式設定部104は、合焦の度合いに応じた予測方式を設定することができる。 For example, the prediction method setting unit 104 may set the prediction method based on the parameter depending on whether or not the subject is in focus. By doing so, the prediction method setting unit 104 can set the prediction method according to the degree of focusing.

例えば、予測方式設定部104が、被写体に合焦している場合、その予測方式として、処理対象画素と同色の画素の中でその処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式を設定するようにしてもよい。このようにすることにより、予測方式設定部104は、被写体に合焦している状態において、予測誤差の増大を抑制することができる。 For example, when the prediction method setting unit 104 is in focus on the subject, as the prediction method, the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel is predicted. The prediction method may be set. By doing so, the prediction method setting unit 104 can suppress an increase in the prediction error in a state where the subject is in focus.

また、例えば、予測方式設定部104が、被写体に合焦していない場合、その予測方式として、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、処理対象画素と同色の画素の中でその処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式を設定するようにしてもよい。このようにすることにより、予測方式設定部104は、被写体に合焦していない状態において、予測誤差の増大を抑制することができる。 Further, for example, when the prediction method setting unit 104 is not in focus on the subject, the position of the photodiode that detects the pixel value is the same as the processing target pixel and the same color as the processing target pixel as the prediction method. A prediction method may be set in which the pixel value of the pixel located closest to the processing target pixel among the pixels of the above is used as the prediction value. By doing so, the prediction method setting unit 104 can suppress an increase in the prediction error in a state where the subject is not in focus.

なお、予測方式設定部104が、被写体に合焦している場合および被写体に合焦していない場合のそれぞれにおいて、上述のように予測方式を設定するようにしてもよい。このようにすることにより、予測方式設定部104は、合焦の度合いに関わらず(被写体に合焦している場合も合焦していない場合も)、予測誤差の増大を抑制することができる。 The prediction method setting unit 104 may set the prediction method as described above in each of the case where the subject is in focus and the case where the subject is not in focus. By doing so, the prediction method setting unit 104 can suppress an increase in the prediction error regardless of the degree of focusing (whether the subject is in focus or not). ..

さらに、例えば、予測方式設定部104が、合焦のための位相差検出の結果を上述の合焦に関するパラメータとして用い、予測方式を設定するようにしてもよい。つまり、予測方式設定部104が、位相差検出部103により行われた位相差の検出結果を上述の合焦に関するパラメータとして用い、符号化や復号に適用される予測方式を設定するようにしてもよい。このようにすることにより、予測方式設定部104は、例えば、焦点距離制御のための位相差検出の結果を利用して、符号化および復号に適用される予測方式をより容易に求めることができる。つまり、予測方式設定部104は、この予測方式の設定に関する処理による符号化や復号の負荷の増大を抑制することができる。また、予測方式設定部104は、符号化において適用された予測方式を示す予測方式情報を復号側に伝送させる必要が無いため、符号化効率の低減を抑制することができる。さらに、予測方式設定部104は、焦点距離制御のための位相差検出の結果を利用することにより、より正確に合焦の度合いに応じて予測方式を設定することができる。すなわち、予測方式設定部104は、予測誤差の増大をより抑制することができる。 Further, for example, the prediction method setting unit 104 may set the prediction method by using the result of the phase difference detection for focusing as the parameter related to the above-mentioned focusing. That is, even if the prediction method setting unit 104 uses the detection result of the phase difference performed by the phase difference detection unit 103 as the parameter related to the above-mentioned focusing, the prediction method applied to coding or decoding is set. good. By doing so, the prediction method setting unit 104 can more easily obtain a prediction method applied to coding and decoding by using, for example, the result of phase difference detection for focal length control. .. That is, the prediction method setting unit 104 can suppress an increase in the load of coding and decoding due to the processing related to the setting of the prediction method. Further, since the prediction method setting unit 104 does not need to transmit the prediction method information indicating the prediction method applied in the coding to the decoding side, it is possible to suppress the reduction of the coding efficiency. Further, the prediction method setting unit 104 can set the prediction method more accurately according to the degree of focusing by using the result of the phase difference detection for the focal length control. That is, the prediction method setting unit 104 can further suppress the increase in the prediction error.

さらに、予測方式設定部104は、設定した予測方式を符号化部101および復号部102に供給する。 Further, the prediction method setting unit 104 supplies the set prediction method to the coding unit 101 and the decoding unit 102.

以上に説明した各処理部(符号化部101乃至予測方式設定部104)は、1つの装置(例えば画像処理装置100)として構成されるようにしてもよいし、複数の装置として構成されるようにしてもよい。例えば、符号化部101と復号部102とが、互いに異なる装置として構成されるようにしてもよい。その場合、位相差検出部103および予測方式設定部104は、符号化部101を有する装置に設けられるようにしてもよいし、復号部102を有する装置に設けられるようにしてもよいし、符号化部101を有する装置、および、復号部102を有する装置とは異なる装置に設けられるようにしてもよい。また、位相差検出部103と予測方式設定部104とが互いに異なる装置に設けられるようにしてもよい。その場合、例えば、位相差検出部103が復号部102を有する装置に設けられるようにし、予測方式設定部104が符号化部101を有する装置に設けられるようにしてもよい。また、位相差検出部103または予測方式設定部104のいずれか一方が、符号化部101を有する装置および復号部102を有する装置とは異なる装置に設けられるようにしてもよい。さらに、符号化部101乃至予測方式設定部104が、それぞれ、互いに異なる装置として構成されるようにしてもよい。 Each processing unit (encoding unit 101 to prediction method setting unit 104) described above may be configured as one device (for example, an image processing device 100), or may be configured as a plurality of devices. You may do it. For example, the coding unit 101 and the decoding unit 102 may be configured as different devices from each other. In that case, the phase difference detection unit 103 and the prediction method setting unit 104 may be provided in the device having the coding unit 101, may be provided in the device having the decoding unit 102, or may be provided in the device. It may be provided in a device different from the device having the conversion unit 101 and the device having the decoding unit 102. Further, the phase difference detection unit 103 and the prediction method setting unit 104 may be provided in different devices. In that case, for example, the phase difference detection unit 103 may be provided in the device having the decoding unit 102, and the prediction method setting unit 104 may be provided in the device having the coding unit 101. Further, either the phase difference detection unit 103 or the prediction method setting unit 104 may be provided in a device different from the device having the coding unit 101 and the device having the decoding unit 102. Further, the coding unit 101 and the prediction method setting unit 104 may be configured as different devices from each other.

<符号化部>
図3は、図2の符号化部101の主な構成例を示すブロック図である。図3に示されるように、この場合の符号化部101は、DPCM(Differential Pulse Code Modulation)処理部121、ゴロム符号化部122、および圧縮率調整部123を有する。
<Code-coded part>
FIG. 3 is a block diagram showing a main configuration example of the coding unit 101 of FIG. As shown in FIG. 3, the coding unit 101 in this case includes a DPCM (Differential Pulse Code Modulation) processing unit 121, a Golomb coding unit 122, and a compression rate adjusting unit 123.

DPCM処理部121は、DPCMに関する処理を行う。例えば、DPCM処理部121は、画像処理装置100に入力される撮像画像データを取得する。また、DPCM処理部121は、予測方式設定部104により設定された予測方式を取得する。DPCM処理部121はそれらの情報を用いて、DPCM処理を行う。DPCM処理は、周辺画素の画素値を用いて処理対象画素の画素値の予測を行い(つまり、処理対象画素の画素値の予測値を導出し)、その予測値と処理対象画素の画素値との差分(予測誤差)を求める処理である。 The DPCM processing unit 121 performs processing related to DPCM. For example, the DPCM processing unit 121 acquires captured image data input to the image processing device 100. Further, the DPCM processing unit 121 acquires the prediction method set by the prediction method setting unit 104. The DPCM processing unit 121 performs DPCM processing using such information. In DPCM processing, the pixel value of the pixel to be processed is predicted using the pixel value of the peripheral pixel (that is, the predicted value of the pixel value of the pixel to be processed is derived), and the predicted value and the pixel value of the pixel to be processed are used. It is a process to obtain the difference (prediction error) of.

DPCM処理部121は、取得した撮像画像データに対して、このような処理を行い、予測誤差を導出する。例えば、DPCM処理部121は、撮像画像データの所定のサイズのブロック毎に、このようなDPCM処理を行う。その場合、DPCM処理部121は、そのブロックの先頭の画素の画素値は、PCM処理して出力し(つまりそのまま出力し)、それ以外の画素について上述のように予測誤差を求める。なお、PCM処理された画素値も、予測値0(初期値)との予測誤差と言えるので、以下においては、それらの処理結果を区別せずに予測誤差と称する。このように予測誤差(差分値)を導出することにより、情報量を低減させることができる。 The DPCM processing unit 121 performs such processing on the acquired captured image data to derive a prediction error. For example, the DPCM processing unit 121 performs such DPCM processing for each block of a predetermined size of captured image data. In that case, the DPCM processing unit 121 processes the pixel value of the first pixel of the block by PCM processing and outputs it (that is, outputs it as it is), and obtains a prediction error for the other pixels as described above. Since the pixel value processed by PCM can also be said to be a prediction error from the predicted value 0 (initial value), in the following, the processing results will be referred to as a prediction error without distinction. By deriving the prediction error (difference value) in this way, the amount of information can be reduced.

また、DPCM処理部121が、各画素値の(上位の)一部のビットのみに対して上述のようにDPCM処理するようにしてもよい。このようにすることにより、画素値を量子化することができる。例えば、DPCM処理部121が、ビット長10ビットの画素値に対して、上位5ビットをDPCM処理するようにしてもよい。このようにすることにより、DPCM処理部121は、さらに情報量を低減させることができる。 Further, the DPCM processing unit 121 may perform DPCM processing on only some (upper) bits of each pixel value as described above. By doing so, the pixel value can be quantized. For example, the DPCM processing unit 121 may perform DPCM processing on the upper 5 bits with respect to a pixel value having a bit length of 10 bits. By doing so, the DPCM processing unit 121 can further reduce the amount of information.

そして、このようなDPCM処理において、DPCM処理部121は、予測方式設定部104により設定された予測方式を適用する。つまり、DPCM処理部121は、予測方式設定部104により指定される周辺画素を用いて処理対象画素の予測値を導出する。このようにすることにより、DPCM処理部121は、合焦に関するパラメータに基づいて(例えば、被写体に合焦しているか否かに応じて)設定された周辺画素を用いて予測値を導出することができる。したがって、DPCM処理部121は、合焦の度合いに応じた予測方式により予測値を導出することができる。 Then, in such DPCM processing, the DPCM processing unit 121 applies the prediction method set by the prediction method setting unit 104. That is, the DPCM processing unit 121 derives the predicted value of the processing target pixel using the peripheral pixels designated by the prediction method setting unit 104. By doing so, the DPCM processing unit 121 derives a predicted value using peripheral pixels set based on the parameters related to focusing (for example, depending on whether or not the subject is in focus). Can be done. Therefore, the DPCM processing unit 121 can derive the predicted value by the prediction method according to the degree of focusing.

DPCM処理部121は、以上のように導出した予測値やDPCM処理される前の撮像画像データをゴロム符号化部122に供給する。 The DPCM processing unit 121 supplies the predicted values derived as described above and the captured image data before the DPCM processing to the Golomb coding unit 122.

ゴロム符号化部122は、ゴロム符号化に関する処理を行う。例えば、ゴロム符号化部122は、DPCM処理部121から供給される予測誤差や撮像画像データを取得する。ゴロム符号化部122は、その取得した予測誤差をゴロム符号(Golomb Coding)に符号化する。このような処理によりゴロム符号化部122は、一般的に情報量を低減させることができる。ゴロム符号化部122は、そのゴロム符号(符号化データ)と撮像画像データを圧縮率調整部123に供給する。 The Golomb coding unit 122 performs processing related to Golomb coding. For example, the Golomb coding unit 122 acquires the prediction error and the captured image data supplied from the DPCM processing unit 121. The Golomb coding unit 122 encodes the acquired prediction error into a Golomb Coding. By such processing, the Golomb coding unit 122 can generally reduce the amount of information. The Golomb coding unit 122 supplies the Golomb code (encoded data) and the captured image data to the compression rate adjusting unit 123.

圧縮率調整部123は、圧縮率の調整に関する処理を行う。例えば、圧縮率調整部123は、ゴロム符号化部122から供給されるゴロム符号や撮像画像データを取得する。圧縮率調整部123は、撮像画像データを用いてゴロム符号の符号量(すなわち圧縮率)を制御する。 The compression rate adjusting unit 123 performs processing related to the adjustment of the compression rate. For example, the compression rate adjusting unit 123 acquires the Golomb code and the captured image data supplied from the Golomb coding unit 122. The compression rate adjusting unit 123 controls the code amount (that is, the compression rate) of the Golomb code by using the captured image data.

圧縮率調整部123は、DPCM処理部121によりDPCM処理されなかった任意の数のビットの情報を撮像画像データから抽出し、それをリファインメントとして、取得したゴロム符号に付加することにより、符号量、すなわち圧縮率を調整する。例えば、圧縮率調整部123は、このようにリファインメントを付加することにより、各ブロックの符号量を固定長とする(つまり固定長符号化を実現する)ことができる。 The compression rate adjusting unit 123 extracts information of an arbitrary number of bits that have not been DPCM processed by the DPCM processing unit 121 from the captured image data, and adds it as a refinement to the acquired Golomb code to obtain a code amount. That is, the compression ratio is adjusted. For example, the compression rate adjusting unit 123 can make the code amount of each block a fixed length (that is, realize fixed length coding) by adding the refinement in this way.

圧縮率調整部123は、以上のようにリファインメントを付加したゴロム符号(符号量が調整されたゴロム符号)を符号化データとして符号化部101の外部に出力する。この符号化データは、例えば、記録媒体や伝送媒体を介して、復号部102に伝送される(図2)。 The compression ratio adjusting unit 123 outputs the Golomb code (Golomb code having the adjusted amount of code) to which the refinement is added as described above to the outside of the coding unit 101 as coding data. This coded data is transmitted to the decoding unit 102 via, for example, a recording medium or a transmission medium (FIG. 2).

以上のようにDPCM処理部121が、予測方式設定部104により設定された予測方式を適用してDPCM処理を行うので、符号化部101は、合焦の度合いに応じた画素の空間的な相関の変化を抑制するように、撮像画像データを簡易符号化することができる。したがって、符号化部101は、合焦の度合いに関わらず、予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化部101は、符号化効率の低減を抑制することができる。また、固定長符号化の場合、符号化部101は、復号画像の画質の低減を抑制することができる。 As described above, the DPCM processing unit 121 applies the prediction method set by the prediction method setting unit 104 to perform the DPCM processing, so that the coding unit 101 spatially correlates the pixels according to the degree of focusing. The captured image data can be simply coded so as to suppress the change in. Therefore, the coding unit 101 can suppress an increase in the prediction error regardless of the degree of focusing. As a result, in the case of variable-length coding, the coding unit 101 can suppress a decrease in coding efficiency. Further, in the case of fixed-length coding, the coding unit 101 can suppress a decrease in the image quality of the decoded image.

<復号部>
図4は、図2の復号部102の主な構成例を示すブロック図である。図4に示されるように、この場合の復号部102は、圧縮率逆調整部131、ゴロム復号部132、および逆DPCM(Differential Pulse Code Modulation)処理部133を有する。
<Decoding unit>
FIG. 4 is a block diagram showing a main configuration example of the decoding unit 102 of FIG. As shown in FIG. 4, the decoding unit 102 in this case includes a compression rate reverse adjustment unit 131, a Golomb decoding unit 132, and a reverse DPCM (Differential Pulse Code Modulation) processing unit 133.

圧縮率逆調整部131は、符号化部101の圧縮率調整部123が行った処理の逆処理を行う。例えば、圧縮率逆調整部131は、符号化部101から復号部102に供給される符号化データを取得する。また、圧縮率逆調整部131は、その符号化データから、圧縮率調整部123により付加されたリファインメントを除去する。換言するに圧縮率逆調整部131は、取得した符号化データから、ゴロム符号化部122により生成されたゴロム符号を抽出する。圧縮率逆調整部131は、そのゴロム符号をゴロム復号部132に供給する。 The compression rate reverse adjustment unit 131 performs the reverse processing of the processing performed by the compression rate adjustment unit 123 of the coding unit 101. For example, the compression rate reverse adjustment unit 131 acquires the coded data supplied from the coding unit 101 to the decoding unit 102. Further, the compression rate reverse adjustment unit 131 removes the refinement added by the compression rate adjustment unit 123 from the coded data. In other words, the compressibility reverse adjustment unit 131 extracts the Golomb code generated by the Golomb coding unit 122 from the acquired coded data. The compression rate reverse adjustment unit 131 supplies the Golomb code to the Golomb decoding unit 132.

ゴロム復号部132は、ゴロム符号の復号に関する処理を行う。例えば、ゴロム復号部132は、圧縮率逆調整部131から供給されるゴロム符号を取得する。また、ゴロム復号部132は、その取得したゴロム符号を、ゴロム符号化部122の符号化方法に対応する方法で復号(ゴロム復号とも称する)し、予測誤差を生成する。ゴロム復号部132は、生成した予測誤差を逆DPCM処理部133に供給する。 The Golomb decoding unit 132 performs a process related to decoding the Golomb code. For example, the Golomb decoding unit 132 acquires the Golomb code supplied from the compression rate reverse adjustment unit 131. Further, the Golomb decoding unit 132 decodes the acquired Golomb code by a method corresponding to the coding method of the Golomb coding unit 122 (also referred to as Golomb decoding) to generate a prediction error. The Golomb decoding unit 132 supplies the generated prediction error to the inverse DPCM processing unit 133.

逆DPCM処理部133は、DPCM処理部121が行ったDPCM処理の逆処理である逆DPCM処理に関する処理を行う。例えば、逆DPCM処理部133は、ゴロム復号部132から供給された予測誤差(差分値)を取得する。また、逆DPCM処理部133は、その取得した予測誤差に対して逆DPCM処理を行い、各画素データを復元する。 The reverse DPCM processing unit 133 performs processing related to the reverse DPCM processing, which is the reverse processing of the DPCM processing performed by the DPCM processing unit 121. For example, the inverse DPCM processing unit 133 acquires a prediction error (difference value) supplied from the Golomb decoding unit 132. Further, the reverse DPCM processing unit 133 performs reverse DPCM processing on the acquired prediction error and restores each pixel data.

その際、逆DPCM処理部133は、予測方式設定部104により設定された予測方式を適用する。つまり、逆DPCM処理部133は、予測方式設定部104により指定される周辺画素を用いて予測誤差から各画素データを復元する。このようにすることにより、逆DPCM処理部133は、合焦に関するパラメータに基づいて(例えば、被写体に合焦しているか否かに応じて)設定された周辺画素を用いて予測値を導出し、その予測値を用いて、予測誤差から画素データを復元することができる。したがって、逆DPCM処理部133は、合焦の度合いに応じた予測方式の予測値を用いて導出された予測誤差から、画素データを正しく復元することができる。 At that time, the reverse DPCM processing unit 133 applies the prediction method set by the prediction method setting unit 104. That is, the reverse DPCM processing unit 133 restores each pixel data from the prediction error by using the peripheral pixels designated by the prediction method setting unit 104. By doing so, the inverse DPCM processing unit 133 derives a predicted value using peripheral pixels set based on the parameters related to focusing (for example, depending on whether or not the subject is in focus). , The predicted value can be used to recover the pixel data from the prediction error. Therefore, the inverse DPCM processing unit 133 can correctly restore the pixel data from the prediction error derived by using the prediction value of the prediction method according to the degree of focusing.

逆DPCM処理部133は、以上のように導出した画素データを撮像画像データとして復号部102の外部に出力する。この撮像画像データは、例えば、画像処理装置100の外部に出力されたり、位相差検出部103に供給されたりする(図2)。 The reverse DPCM processing unit 133 outputs the pixel data derived as described above to the outside of the decoding unit 102 as captured image data. The captured image data is, for example, output to the outside of the image processing device 100 or supplied to the phase difference detection unit 103 (FIG. 2).

以上のように逆DPCM処理部133が、予測方式設定部104により設定された予測方式を適用して逆DPCM処理を行うので、復号部102は、合焦の度合いに応じた画素の空間的な相関の変化を抑制するように簡易符号化された撮像画像データを正しく簡易復号することができる。したがって、復号部102は、予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、復号部102は、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号部102は、復号画像の画質の低減を抑制することができる。 As described above, the reverse DPCM processing unit 133 applies the prediction method set by the prediction method setting unit 104 to perform the reverse DPCM processing, so that the decoding unit 102 spatially focuses the pixels according to the degree of focusing. The captured image data simply encoded so as to suppress the change in correlation can be correctly and simply decoded. Therefore, the decoding unit 102 can suppress an increase in the prediction error. As a result, in the case of variable-length coding, the decoding unit 102 can suppress a decrease in coding efficiency. Further, in the case of fixed-length coding, the decoding unit 102 can suppress a decrease in the image quality of the decoded image.

<撮像画像データ>
次に撮像画像データについて説明する。画像処理装置100に入力される撮像画像データは、位相差を検出可能な画素値により構成される。この撮像画像データは、例えば、図5に示される画素アレイ140を用いて生成される。この画素アレイ140の各画素141には、ベイヤ配列のカラーフィルタが配置される。例えば、画素アレイ140の四角形は、画素141を示している。図中白色で示される画素141-1は、赤(R)のカラーフィルタが配置された画素であり、図中薄いグレーで示される画素141-2は、緑(G)のカラーフィルタが配置された画素であり、図中濃いグレーで示される画素141-3は、青(B)のカラーフィルタが配置された画素である。各画素141内の円形は、オンチップレンズ142を示す。
<Captured image data>
Next, the captured image data will be described. The captured image data input to the image processing device 100 is composed of pixel values capable of detecting a phase difference. This captured image data is generated using, for example, the pixel array 140 shown in FIG. A Bayer array color filter is arranged in each pixel 141 of the pixel array 140. For example, the rectangle of the pixel array 140 indicates the pixel 141. The pixel 141-1 shown in white in the figure is a pixel in which a red (R) color filter is arranged, and the pixel 141-2 shown in light gray in the figure is a pixel in which a green (G) color filter is arranged. The pixels 141-3, which are shown in dark gray in the figure, are the pixels in which the blue (B) color filter is arranged. The circle in each pixel 141 indicates the on-chip lens 142.

各画素141には、図6のAに示されるように、左光電変換素子151および右光電変換素子152の2つの光電変換素子(例えばフォトダイオード等)が設けられている。左光電変換素子151は、画素141の図中左側に設けられ、右光電変換素子152は、画素141の図中右側に設けられている。 As shown in FIG. 6A, each pixel 141 is provided with two photoelectric conversion elements (for example, a photodiode) of the left photoelectric conversion element 151 and the right photoelectric conversion element 152. The left photoelectric conversion element 151 is provided on the left side of the figure of the pixel 141, and the right photoelectric conversion element 152 is provided on the right side of the figure of the pixel 141.

図6のBに示されるように、矢印156のように図中右側から斜め方向に入射した被写体からの光は、オンチップレンズ142およびカラーフィルタ154を介して主に左光電変換素子151により受光される(光電変換され、画素値として検出される)。これに対して、矢印157のように図中左側から斜め方向に入射した被写体からの光は、オンチップレンズ142およびカラーフィルタ154を介して主に右光電変換素子152により受光される(光電変換され、画素値として検出される)。 As shown in B of FIG. 6, the light from the subject obliquely incident from the right side in the figure as shown by the arrow 156 is received mainly by the left photoelectric conversion element 151 via the on-chip lens 142 and the color filter 154. (Photoelectrically converted and detected as a pixel value). On the other hand, the light from the subject obliquely incident from the left side in the figure as shown by the arrow 157 is received mainly by the right photoelectric conversion element 152 via the on-chip lens 142 and the color filter 154 (photoelectric conversion). Is detected as a pixel value).

つまり、左光電変換素子151と右光電変換素子152は、互いに異なる角度で入射された入射光を主に検出する。つまり、左光電変換素子151の画素値と右光電変換素子152の画素値との間に入射光の角度の偏りの違い(視差)が生じる。このような視差を利用して位相差(像ずれ量)を検出することができる。なお、左光電変換素子151の画素値と右光電変換素子152の画素値とを加算することにより、1画素分の画素値が得られる。画像処理装置100に入力される撮像画像データの各画素値は、このような左光電変換素子151の画素値と右光電変換素子152の画素値とにより構成される。 That is, the left photoelectric conversion element 151 and the right photoelectric conversion element 152 mainly detect incident light incident at different angles. That is, there is a difference (parallax) in the angle deviation of the incident light between the pixel value of the left photoelectric conversion element 151 and the pixel value of the right photoelectric conversion element 152. The phase difference (image shift amount) can be detected by using such parallax. By adding the pixel value of the left photoelectric conversion element 151 and the pixel value of the right photoelectric conversion element 152, the pixel value for one pixel can be obtained. Each pixel value of the captured image data input to the image processing device 100 is composed of such a pixel value of the left photoelectric conversion element 151 and a pixel value of the right photoelectric conversion element 152.

<予測方式>
<第1の予測方式>
次にDPCM処理部121によるDPCM処理において適用される予測方式について説明する。図7は、第1の予測方式について説明する図である。図7に示される画素141-1乃至画素141-8は、図5の画素アレイ140の、赤(R)のカラーフィルタが配置された画素141と緑(G)のカラーフィルタが配置された画素141の行の一部を示す。画素141-1、画素141-3、画素141-5、および画素141-7は、赤(R)のカラーフィルタが配置された画素141であり、画素141-2、画素141-4、画素141-6、および画素141-8は、緑(G)のカラーフィルタが配置された画素141である。
<Prediction method>
<First prediction method>
Next, the prediction method applied in the DPCM processing by the DPCM processing unit 121 will be described. FIG. 7 is a diagram illustrating the first prediction method. Pixels 141-1 to 141-8 shown in FIG. 7 are pixels of the pixel array 140 of FIG. 5 in which the red (R) color filter is arranged and the green (G) color filter is arranged. A part of the line 141 is shown. Pixels 141-1, pixels 141-3, pixels 141-5, and pixels 141-7 are pixels 141 in which a red (R) color filter is arranged, and pixels 141-2, 141-4, and 141. -6 and pixels 141-8 are pixels 141 in which a green (G) color filter is arranged.

上述のように各画素141には、左光電変換素子151と右光電変換素子152が設けられており、図7に示されるように撮像画像データは、それぞれの光電変換素子で検出された画素値を有する。RLは、赤(R)のカラーフィルタが配置された画素141の左光電変換素子151において検出された画素値を示し、RRは、赤(R)のカラーフィルタが配置された画素141の右光電変換素子152において検出された画素値を示す。同様に、GLは、緑(G)のカラーフィルタが配置された画素141の左光電変換素子151において検出された画素値を示し、GRは、緑(G)のカラーフィルタが配置された画素141の右光電変換素子152において検出された画素値を示す。 As described above, each pixel 141 is provided with a left photoelectric conversion element 151 and a right photoelectric conversion element 152, and as shown in FIG. 7, the captured image data is a pixel value detected by each photoelectric conversion element. Has. R L indicates the pixel value detected in the left photoelectric conversion element 151 of the pixel 141 in which the red (R) color filter is arranged, and R R is the pixel 141 in which the red (R) color filter is arranged. The pixel value detected in the right photoelectric conversion element 152 is shown. Similarly, G L indicates the pixel value detected in the left photoelectric conversion element 151 of the pixel 141 in which the green (G) color filter is arranged, and G R indicates the pixel value in which the green (G) color filter is arranged. The pixel value detected by the right photoelectric conversion element 152 of the pixel 141 is shown.

一般的に、予測値の予測精度は、その予測値とする画素値を検出する画素(予測画素)のフィルタの色(透過する波長域)が処理対象画素のフィルタの色とより近い程、高くなる。つまり、上述のようなRGBのカラーフィルタの場合、処理対象画素と同色のカラーフィルタを備える画素を予測画素とする場合の方が、処理対象画素と異なる色のカラーフィルタを備える画素を予測画素とする場合よりも、予測精度が最も高くなる。 In general, the prediction accuracy of a predicted value is higher as the filter color (transmitted wavelength range) of the pixel (predicted pixel) that detects the pixel value to be the predicted value is closer to the filter color of the pixel to be processed. Become. That is, in the case of the RGB color filter as described above, when the pixel having the same color filter as the processing target pixel is used as the predicted pixel, the pixel having the color filter having a color different from the processing target pixel is referred to as the predicted pixel. The prediction accuracy is the highest.

また、一般的に、予測値の予測精度は、その予測画素の位置が処理対象画素に近い程、高くなる。 Further, in general, the prediction accuracy of the predicted value becomes higher as the position of the predicted pixel is closer to the processing target pixel.

そこで、第1の予測方式では、これらの特徴に基づいて予測精度の向上を期待することができるように、処理対象画素と同色の画素(処理済みの画素)の中で処理対象画素の最も近傍に位置する画素(同色最近傍画素)の画素値を予測値とする。図7の例の場合、DPCM処理部121は、画素141-1の画素値RRをDPCM処理する場合、矢印161-1のように、画素141-1の画素値RLを予測値として参照する。また、DPCM処理部121は、画素141-3の画素値RLをDPCM処理する場合、矢印161-2のように、画素141-1の画素値RRを予測値として参照し、画素141-3の画素値RRをDPCM処理する場合、矢印161-3のように、画素141-3の画素値RLを予測値として参照する。同様に、DPCM処理部121は、画素141-5の画素値RLをDPCM処理する場合、矢印161-4のように、画素141-3の画素値RRを予測値として参照し、画素141-5の画素値RRをDPCM処理する場合、矢印161-5のように、画素141-5の画素値RLを予測値として参照する。同様に、DPCM処理部121は、画素141-7の画素値RLをDPCM処理する場合、矢印161-6のように、画素141-5の画素値RRを予測値として参照し、画素141-7の画素値RRをDPCM処理する場合、矢印161-7のように、画素141-7の画素値RLを予測値として参照する。 Therefore, in the first prediction method, the closest pixel to the processing target pixel among the pixels of the same color as the processing target pixel (processed pixel) can be expected to improve the prediction accuracy based on these characteristics. The pixel value of the pixel located at (the closest pixel of the same color) is used as the predicted value. In the case of the example of FIG. 7, when DPCM processing the pixel value R R of the pixel 141-1, the DPCM processing unit 121 refers to the pixel value R L of the pixel 141-1 as a predicted value as shown by the arrow 161-1. do. Further, when the pixel value R L of the pixel 141-3 is DPCM processed, the DPCM processing unit 121 refers to the pixel value R R of the pixel 141-1 as a predicted value as shown by the arrow 161-2, and the pixel 141- When the pixel value R R of 3 is subjected to DPCM processing, the pixel value R L of the pixel 141-3 is referred to as a predicted value as shown by the arrow 161-3. Similarly, when the pixel value R L of the pixel 141-5 is DPCM processed, the DPCM processing unit 121 refers to the pixel value R R of the pixel 141-3 as a predicted value as shown by the arrow 161-4, and the pixel 141 When the pixel value R R of −5 is DPCM processed, the pixel value R L of the pixel 141-5 is referred to as a predicted value as shown by arrows 161-5. Similarly, when the pixel value R L of the pixel 141-7 is DPCM processed, the DPCM processing unit 121 refers to the pixel value R R of the pixel 141-5 as a predicted value as shown by the arrow 161-6, and the pixel 141 When the pixel value R R of -7 is subjected to DPCM processing, the pixel value R L of the pixel 141-7 is referred to as a predicted value as shown by arrows 161-7.

また、DPCM処理部121は、画素141-2の画素値GRをDPCM処理する場合、矢印162-1のように、画素141-2の画素値GLを予測値として参照する。また、DPCM処理部121は、画素141-4の画素値GLをDPCM処理する場合、矢印162-2のように、画素141-2の画素値GRを予測値として参照し、画素141-4の画素値GRをDPCM処理する場合、矢印162-3のように、画素141-4の画素値GLを予測値として参照する。同様に、DPCM処理部121は、画素141-6の画素値GLをDPCM処理する場合、矢印162-4のように、画素141-4の画素値GRを予測値として参照し、画素141-6の画素値GRをDPCM処理する場合、矢印162-5のように、画素141-6の画素値GLを予測値として参照する。同様に、DPCM処理部121は、画素141-8の画素値GLをDPCM処理する場合、矢印162-6のように、画素141-6の画素値GRを予測値として参照し、画素141-8の画素値GRをDPCM処理する場合、矢印162-7のように、画素141-8の画素値GLを予測値として参照する。 Further, when the pixel value G R of the pixel 141-2 is DPCM processed, the DPCM processing unit 121 refers to the pixel value G L of the pixel 141-2 as a predicted value as shown by arrow 162-1. Further, when the pixel value G L of the pixel 141-4 is DPCM processed, the DPCM processing unit 121 refers to the pixel value G R of the pixel 141-2 as a predicted value as shown by the arrow 162-2, and the pixel 141- When the pixel value G R of 4 is subjected to DPCM processing, the pixel value G L of the pixel 141-4 is referred to as a predicted value as shown by the arrow 162-3. Similarly, when the pixel value G L of the pixel 141-6 is DPCM processed, the DPCM processing unit 121 refers to the pixel value G R of the pixel 141-4 as a predicted value as shown by the arrow 162-4, and the pixel 141 When the pixel value G R of -6 is subjected to DPCM processing, the pixel value G L of the pixels 141-6 is referred to as a predicted value as shown by the arrow 162-5. Similarly, when the pixel value G L of the pixel 141-8 is DPCM processed, the DPCM processing unit 121 refers to the pixel value G R of the pixel 141-6 as a predicted value as shown by the arrow 162-6, and the pixel 141 When the pixel value G R of −8 is DPCM processed, the pixel value G L of the pixel 141-8 is referred to as a predicted value as shown by the arrow 162-7.

<第2の予測方式>
図8は、第2の予測方式について説明する図である。図8に示される画素141-1乃至画素141-8は、図7と同様の画素を示す。画素値RL、画素値RR、画素値GL、および画素値GRも図7と同様である。
<Second prediction method>
FIG. 8 is a diagram illustrating a second prediction method. Pixels 141-1 to 141-8 shown in FIG. 8 indicate pixels similar to those in FIG. 7. The pixel value R L , the pixel value R R , the pixel value G L , and the pixel value G R are also the same as in FIG. 7.

上述のように、一般的に、予測値の予測精度は、予測画素のフィルタの色(透過する波長域)が処理対象画素のフィルタの色とより近い程、高くなる。 As described above, in general, the prediction accuracy of the predicted value becomes higher as the color of the filter of the predicted pixel (transmissive wavelength range) is closer to the color of the filter of the pixel to be processed.

また、上述のように、左光電変換素子151と右光電変換素子152とでは、その画素内の位置により、主に検出する光の入射方向が互いに異なる。したがって、一般的に、予測値の予測精度は、その予測値を検出する光電変換素子の予測画素内における位置が、処理対象の画素値を検出する光電変換素子の処理対象画素内における位置と近い程、高くなる。つまり、図8の例の場合、左光電変換素子151の画素値を処理対象とする場合、左光電変換素子151の画素値を予測値とする方が、右光電変換素子152の画素値を予測値とする場合よりも、予測精度が高くなる。逆に、右光電変換素子152の画素値を処理対象とする場合、右光電変換素子152の画素値を予測値とする方が、左光電変換素子151の画素値を予測値とする場合よりも、予測精度が高くなる。 Further, as described above, in the left photoelectric conversion element 151 and the right photoelectric conversion element 152, the incident direction of the light mainly detected differs from each other depending on the position in the pixel. Therefore, in general, the prediction accuracy of the predicted value is such that the position in the predicted pixel of the photoelectric conversion element that detects the predicted value is close to the position in the processing target pixel of the photoelectric conversion element that detects the pixel value to be processed. The higher it gets. That is, in the case of the example of FIG. 8, when the pixel value of the left photoelectric conversion element 151 is the processing target, it is better to use the pixel value of the left photoelectric conversion element 151 as the predicted value to predict the pixel value of the right photoelectric conversion element 152. The prediction accuracy is higher than when it is a value. On the contrary, when the pixel value of the right photoelectric conversion element 152 is targeted for processing, the pixel value of the right photoelectric conversion element 152 as the predicted value is better than the pixel value of the left photoelectric conversion element 151 as the predicted value. , The prediction accuracy is high.

そこで、第2の予測方式では、これらの特徴に基づいて予測精度の向上を期待することができるように、処理対象の画素値を検出するフォトダイオード(光電変換素子)の位置が処理対象画素と同一であり、かつ、処理対象画素と同色の画素の中で処理対象画素の最も近傍に位置する画素(同色同配置最近傍画素)の画素値を予測値とする。 Therefore, in the second prediction method, the position of the photodiode (photoelectric conversion element) that detects the pixel value to be processed is the pixel to be processed so that the prediction accuracy can be expected to be improved based on these characteristics. The pixel value of the pixel that is the same and is located closest to the pixel to be processed (the nearest pixel of the same color and the same arrangement) among the pixels of the same color as the pixel to be processed is used as the predicted value.

図8の例の場合、DPCM処理部121は、画素141-3の画素値RLをDPCM処理する場合、矢印163-1のように、画素141-1の画素値RLを予測値として参照し、画素141-3の画素値RRをDPCM処理する場合、矢印163-2のように、画素141-1の画素値RRを予測値として参照する。同様に、DPCM処理部121は、画素141-5の画素値RLをDPCM処理する場合、矢印163-3のように、画素141-3の画素値RLを予測値として参照し、画素141-5の画素値RRをDPCM処理する場合、矢印163-4のように、画素141-3の画素値RRを予測値として参照する。同様に、DPCM処理部121は、画素141-7の画素値RLをDPCM処理する場合、矢印163-5のように、画素141-5の画素値RLを予測値として参照し、画素141-7の画素値RRをDPCM処理する場合、矢印163-6のように、画素141-5の画素値RRを予測値として参照する。 In the case of the example of FIG. 8, when the DPCM processing unit 121 performs DPCM processing on the pixel value R L of the pixel 141-3, the pixel value R L of the pixel 141-1 is referred to as a predicted value as shown by the arrow 163-1. Then, when the pixel value R R of the pixel 141-3 is subjected to DPCM processing, the pixel value R R of the pixel 141-1 is referred to as a predicted value as shown by the arrow 163-2. Similarly, when the pixel value R L of the pixel 141-5 is DPCM processed, the DPCM processing unit 121 refers to the pixel value R L of the pixel 141-3 as a predicted value as shown by the arrow 163-3, and the pixel 141 When the pixel value R R of −5 is DPCM processed, the pixel value R R of the pixel 141-3 is referred to as a predicted value as shown by the arrow 163-4. Similarly, when the pixel value R L of the pixel 141-7 is DPCM processed, the DPCM processing unit 121 refers to the pixel value R L of the pixel 141-5 as a predicted value as shown by the arrow 163-5, and the pixel 141 When the pixel value R R of -7 is subjected to DPCM processing, the pixel value R R of the pixel 141-5 is referred to as a predicted value as shown by the arrow 163-6.

また、DPCM処理部121は、画素141-4の画素値GLをDPCM処理する場合、矢印164-1のように、画素141-2の画素値GLを予測値として参照し、画素141-4の画素値GRをDPCM処理する場合、矢印164-2のように、画素141-2の画素値GRを予測値として参照する。同様に、DPCM処理部121は、画素141-6の画素値GLをDPCM処理する場合、矢印164-3のように、画素141-4の画素値GLを予測値として参照し、画素141-6の画素値GRをDPCM処理する場合、矢印164-4のように、画素141-4の画素値GRを予測値として参照する。同様に、DPCM処理部121は、画素141-8の画素値GLをDPCM処理する場合、矢印164-5のように、画素141-6の画素値GLを予測値として参照し、画素141-8の画素値GRをDPCM処理する場合、矢印164-6のように、画素141-6の画素値GRを予測値として参照する。 Further, when the pixel value G L of the pixel 141-4 is DPCM processed, the DPCM processing unit 121 refers to the pixel value G L of the pixel 141-2 as a predicted value as shown by the arrow 164-1, and the pixel 141- When the pixel value G R of 4 is subjected to DPCM processing, the pixel value G R of the pixel 141-2 is referred to as a predicted value as shown by the arrow 164-2. Similarly, when the pixel value G L of the pixel 141-6 is DPCM processed, the DPCM processing unit 121 refers to the pixel value G L of the pixel 141-4 as a predicted value as shown by the arrow 164-3, and the pixel 141 When the pixel value G R of -6 is subjected to DPCM processing, the pixel value G R of the pixel 141-4 is referred to as a predicted value as shown by the arrow 164-4. Similarly, when the pixel value G L of the pixel 141-8 is DPCM processed, the DPCM processing unit 121 refers to the pixel value G L of the pixel 141-6 as a predicted value as shown by the arrow 164-5, and the pixel 141 When the pixel value G R of −8 is DPCM processed, the pixel value G R of the pixel 141-6 is referred to as a predicted value as shown by the arrow 164-6.

<予測精度の比較>
以上のような第1の予測方式と第2の予測方式とで予測精度を比較する。被写体に合焦している場合(被写体までの距離と合焦位置までの距離とが一致または近い場合)、左光電変換素子151の画素値と右光電変換素子152の画素値との差が小さく、視差による予測精度への影響は、被写体に合焦していない場合(被写体までの距離と合焦位置までの距離とが大きく離れている場合)よりも小さい。つまり、視差の影響よりも参照距離(処理対象画素と予測画素との距離)の影響の方が大きくなる。そのため、参照距離がより短くなる第1の予測方式の方が、第2の予測方式よりも予測精度が高くなる。
<Comparison of prediction accuracy>
The prediction accuracy is compared between the first prediction method and the second prediction method as described above. When the subject is in focus (when the distance to the subject and the distance to the in-focus position are the same or close to each other), the difference between the pixel value of the left photoelectric conversion element 151 and the pixel value of the right photoelectric conversion element 152 is small. The effect of the misalignment on the prediction accuracy is smaller than when the subject is not in focus (the distance to the subject and the distance to the in-focus position are far apart). That is, the influence of the reference distance (distance between the processing target pixel and the predicted pixel) is larger than the influence of the parallax. Therefore, the first prediction method having a shorter reference distance has higher prediction accuracy than the second prediction method.

これに対して、被写体に合焦していない場合、左光電変換素子151の画素値と右光電変換素子152の画素値との差が大きく、視差による予測精度への影響は、被写体に合焦している場合よりも大きくなる。つまり、視差の影響の方が参照距離の影響よりも大きくなる。画素内位置が同一の光電変換素子により検出される画素値を予測値とする第2の予測方式はこの視差による影響を受けないので、第2の予測方式の方が第1の予測方式よりも予測精度が高くなる。 On the other hand, when the subject is not in focus, the difference between the pixel value of the left photoelectric conversion element 151 and the pixel value of the right photoelectric conversion element 152 is large, and the influence of parallax on the prediction accuracy is focused on the subject. It will be larger than if it is. That is, the effect of parallax is greater than the effect of reference distance. Since the second prediction method using the pixel value detected by the photoelectric conversion elements having the same in-pixel position as the prediction value is not affected by this parallax, the second prediction method is better than the first prediction method. Prediction accuracy is high.

<予測方式の制御>
予測方式設定部104が、第1の予測方式および第2の予測方式を候補とし、位相検出結果に基づいて、これらの内のいずれかを、符号化・復号に適用する予測方式として設定するようにしてもよい。その場合、上述したような各予測方式の特徴に基づいて、予測方式設定部104が、被写体に合焦しているか否かに応じて予測方式を設定する(第1の予測方式を適用するか第2の予測方式を適用するかを選択する)ようにする。
<Control of prediction method>
The prediction method setting unit 104 selects the first prediction method and the second prediction method as candidates, and sets one of these as a prediction method to be applied to coding / decoding based on the phase detection result. You may do it. In that case, the prediction method setting unit 104 sets the prediction method according to whether or not the subject is in focus based on the characteristics of each prediction method as described above (whether the first prediction method is applied). Select whether to apply the second prediction method).

例えば、被写体に合焦している場合、予測方式設定部104が、その予測方式として、第1の予測方式を設定するようにしてもよい。つまり、この場合、処理対象画素と同色の画素の中でその処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される。DPCM処理部121がこのように設定された予測方式でDPCM処理を行うことにより、符号化部101は、被写体に合焦している状態において、予測誤差の増大を抑制することができる。 For example, when the subject is in focus, the prediction method setting unit 104 may set the first prediction method as the prediction method. That is, in this case, a prediction method is set in which the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel is used as the prediction value. By performing the DPCM processing by the prediction method set in this way by the DPCM processing unit 121, the coding unit 101 can suppress an increase in the prediction error in a state where the subject is in focus.

また、予測方式設定部104が、被写体に合焦していない場合、その予測方式として、第2の予測方式を設定するようにしてもよい。つまり、この場合、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、処理対象画素と同色の画素の中でその処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される。DPCM処理部121がこのように設定された予測方式でDPCM処理を行うことにより、符号化部101は、被写体に合焦していない状態において、予測誤差の増大を抑制することができる。 Further, when the prediction method setting unit 104 is not in focus on the subject, a second prediction method may be set as the prediction method. That is, in this case, the position of the photodiode that detects the pixel value is the same as that of the pixel to be processed, and the pixel value of the pixel located closest to the pixel to be processed among the pixels of the same color as the pixel to be processed is set. The prediction method used as the predicted value is set. By performing the DPCM processing by the prediction method set in this way by the DPCM processing unit 121, the coding unit 101 can suppress an increase in the prediction error in a state where the subject is not in focus.

さらに、予測方式設定部104が、被写体に合焦している場合および被写体に合焦していない場合のそれぞれにおいて、上述のように予測方式を設定するようにしてもよい。DPCM処理部121が、このように設定された予測方式でDPCM処理を行うことにより、符号化部101は、合焦の度合いに関わらず(被写体に合焦している場合も合焦していない場合も)、予測誤差の増大を抑制することができる。 Further, the prediction method setting unit 104 may set the prediction method as described above in each of the case where the subject is in focus and the case where the subject is not in focus. By performing the DPCM processing by the DPCM processing unit 121 by the prediction method set in this way, the coding unit 101 is not in focus regardless of the degree of focusing (even when the subject is in focus). In some cases), the increase in prediction error can be suppressed.

なお、以上においては、符号化部101(DPCM処理部121)の予測を例に説明したが、復号部102(逆DPCM処理部133)についても同様である。つまり、逆DPCM処理部133が、このように設定された予測方式で逆DPCM処理を行うことにより、復号部102は、被写体に合焦している状態において、被写体に合焦していない状態において、または、合焦の度合いに関わらず(被写体に合焦している場合も合焦していない場合も)、予測誤差の増大を抑制することができる。 In the above, the prediction of the coding unit 101 (DPCM processing unit 121) has been described as an example, but the same applies to the decoding unit 102 (reverse DPCM processing unit 133). That is, the reverse DPCM processing unit 133 performs the reverse DPCM processing by the prediction method set in this way, so that the decoding unit 102 is in the state of being in focus on the subject and in the state of not being in focus on the subject. Or, regardless of the degree of focusing (whether the subject is in focus or not), an increase in prediction error can be suppressed.

<画素アレイの他の構成例>
なお、撮像画像データは、位相差を検出できるものであればよく、上述の構成例に限定されない。例えば、撮像画像データが、図9に示されるような、1画素に4つの光電変換素子が配置される画素アレイにより生成されるようにしてもよい。
<Other configuration examples of pixel array>
The captured image data is not limited to the above-mentioned configuration example as long as it can detect the phase difference. For example, the captured image data may be generated by a pixel array in which four photoelectric conversion elements are arranged in one pixel as shown in FIG.

図9は、図7や図8と同様に、画素アレイ140の一部(赤(R)のカラーフィルタが配置された画素141と緑(G)のカラーフィルタが配置された画素141の行の一部)の構成例を示している。 FIG. 9 shows a row of pixels 141 in which a part of the pixel array 140 (a red (R) color filter is arranged and a pixel 141 in which a green (G) color filter is arranged), as in FIGS. 7 and 8. A configuration example of (part) is shown.

この場合、各画素141には、画素内の左上、右上、左下、および右下のそれぞれに光電変換素子が設けられており、図9に示されるように撮像画像データは、それぞれの光電変換素子で検出された画素値を有する。R00は、赤(R)のカラーフィルタが配置された画素141の画素内左上に配置された光電変換素子において検出された画素値を示し、R01は、赤(R)のカラーフィルタが配置された画素141の画素内右上に配置された光電変換素子において検出された画素値を示し、R10は、赤(R)のカラーフィルタが配置された画素141の画素内左下に配置された光電変換素子において検出された画素値を示し、R11は、赤(R)のカラーフィルタが配置された画素141の画素内右下に配置された光電変換素子において検出された画素値を示す。 In this case, each pixel 141 is provided with photoelectric conversion elements at the upper left, upper right, lower left, and lower right of the pixel, and as shown in FIG. 9, the captured image data is the respective photoelectric conversion elements. Has a pixel value detected in. R 00 indicates the pixel value detected by the photoelectric conversion element arranged in the upper left of the pixel 141 in which the red (R) color filter is arranged, and R 01 indicates the pixel value detected by the red (R) color filter. The pixel value detected by the photoelectric conversion element arranged in the upper right of the pixel 141 is shown, and R 10 is the photoelectric arranged in the lower left of the pixel 141 in which the red (R) color filter is arranged. The pixel value detected in the conversion element is shown, and R 11 shows the pixel value detected in the photoelectric conversion element arranged in the lower right of the pixel 141 in which the red (R) color filter is arranged.

同様に、G00は、緑(G)のカラーフィルタが配置された画素141の画素内左上に配置された光電変換素子において検出された画素値を示し、G01は、緑(G)のカラーフィルタが配置された画素141の画素内右上に配置された光電変換素子において検出された画素値を示し、G10は、緑(G)のカラーフィルタが配置された画素141の画素内左下に配置された光電変換素子において検出された画素値を示し、G11は、緑(G)のカラーフィルタが配置された画素141の画素内右下に配置された光電変換素子において検出された画素値を示す。 Similarly, G 00 indicates the pixel value detected by the photoelectric conversion element arranged in the upper left of the pixel 141 in which the green (G) color filter is arranged, and G 01 is the green (G) color. The pixel value detected by the photoelectric conversion element arranged in the upper right of the pixel 141 in which the filter is arranged is shown, and G 10 is arranged in the lower left of the pixel 141 in which the green (G) color filter is arranged. The pixel value detected in the photoelectric conversion element is shown, and G 11 indicates the pixel value detected in the photoelectric conversion element arranged in the lower right of the pixel 141 in which the green (G) color filter is arranged. show.

この場合、図9の上の段の画素値(画素値R00、画素値R01、画素値G00、画素値G01)は、図7や図8を参照して説明した場合と同様に予測値が設定され、DPCM処理される。これに対して図9の下の段の画素値(画素値R10、画素値R11、画素値G10、画素値G11)は、以下のように処理される。 In this case, the pixel values (pixel value R 00 , pixel value R 01 , pixel value G 00 , pixel value G 01 ) in the upper row of FIG. 9 are the same as those described with reference to FIGS. 7 and 8. Predicted values are set and DPCM processed. On the other hand, the pixel values (pixel value R 10 , pixel value R 11 , pixel value G 10 , pixel value G 11 ) in the lower row of FIG. 9 are processed as follows.

<第1の予測方式>
まず、第1の予測方式について図10を参照して説明する。図10のAに示されるように、DPCM処理部121は、画素141-3の画素値R10をDPCM処理する場合、画素141-1の画素値R01および画素値R11、並びに、画素141-3の画素値R00を参照し、それらの画素値を用いて、以下の式(1)のように、画素141-3の画素値R10の予測値(Prediction(R10))を導出する。
<First prediction method>
First, the first prediction method will be described with reference to FIG. As shown in A of FIG. 10, when the DPCM processing unit 121 performs DPCM processing on the pixel value R 10 of the pixel 141-3, the pixel value R 01 and the pixel value R 11 of the pixel 141-1 and the pixel 141 Refer to the pixel value R 00 of -3, and use those pixel values to derive the predicted value (Prediction (R 10 )) of the pixel value R 10 of the pixel 141-3 as shown in the following equation (1). do.

Prediction(R10) = P2(R11, R00, R10) ・・・(1) Prediction (R 10 ) = P2 (R 11 , R 00 , R 10 ) ・ ・ ・ (1)

なお、式(1)において、P2(a,b,c)は、例えば、図11に示されるように、処理対象の画素値Xの左(left)の画素値a、上(top)の画素値b、および右上(top-left)の画素値cを用いて、以下の式(2)のように導出される。 In the equation (1), P2 (a, b, c) is, for example, as shown in FIG. 11, the pixel value a on the left (left) and the pixel on the top (top) of the pixel value X to be processed. Using the value b and the upper right (top-left) pixel value c, it is derived as shown in the following equation (2).

P2(a,b,c) = Clip((a+b-c), min(a,b), max(a,b))
= Clip((R11+R00-R01), min(R11, R00), max(R11, R00))
・・・(2)
P2 (a, b, c) = Clip ((a + bc), min (a, b), max (a, b))
= Clip ((R 11 + R 00 -R 01 ), min (R 11 , R 00 ), max (R 11 , R 00 ))
... (2)

つまり、(R11+R00-R01)が、R11とR00の小さい方よりも小さい場合、予測値は、R11とR00の小さい方に設定される。また、(R11+R00-R01)が、R11とR00の大きい方よりも大きい場合、予測値は、R11とR00の大きい方に設定される。さらに、(R11+R00-R01)が、R11とR00の小さい方よりも大きく、かつ、R11とR00の大きい方よりも小さい場合、予測値は、(R11+R00-R01)に設定される。 That is, if (R 11 + R 00 -R 01 ) is smaller than the smaller of R 11 and R 00 , the predicted value is set to the smaller of R 11 and R 00 . If (R 11 + R 00 -R 01 ) is larger than the larger of R 11 and R 00 , the predicted value is set to the larger of R 11 and R 00 . Furthermore, if (R 11 + R 00 -R 01 ) is greater than the smaller of R 11 and R 00 and smaller than the larger of R 11 and R 00 , then the predicted value is (R 11 + R). 00 -R 01 ) is set.

同様に、DPCM処理部121は、図10のBに示されるように、画素141-3の画素値R11をDPCM処理する場合、画素141-3の画素値R00、画素値R10、および画素値R01を参照し、それらの画素値を用いて、以下の式(3)のように、画素141-3の画素値R11の予測値(Prediction(R11))を導出する。 Similarly, as shown in B of FIG. 10, when the DPCM processing unit 121 performs DPCM processing on the pixel value R 11 of the pixel 141-3, the pixel value R 00 , the pixel value R 10 and the pixel value R 10 of the pixel 141-3 are processed. With reference to the pixel value R 01 , the predicted value (Prediction (R 11 )) of the pixel value R 11 of the pixel 141-3 is derived by using those pixel values as in the following equation (3).

Prediction(R11) = P2(R10, R01, R00)
= Clip((R10+R01-R00), min(R10, R01), max(R10, R01))
・・・(3)
Prediction (R 11 ) = P2 (R 10 , R 01 , R 00 )
= Clip ((R 10 + R 01 -R 00 ), min (R 10 , R 01 ), max (R 10 , R 01 ))
... (3)

つまり、(R10+R01-R00)が、R10とR01の小さい方よりも小さい場合、予測値は、R10とR01の小さい方に設定される。また、(R10+R01-R00)が、R10とR01の大きい方よりも大きい場合、予測値は、R10とR01の大きい方に設定される。さらに、(R10+R01-R00)が、R10とR01の小さい方よりも大きく、かつ、R10とR01の大きい方よりも小さい場合、予測値は、(R10+R01-R00)に設定される。 That is, if (R 10 + R 01 -R 00 ) is smaller than the smaller of R 10 and R 01 , the predicted value is set to the smaller of R 10 and R 01 . Also, if (R 10 + R 01 -R 00 ) is larger than the larger of R 10 and R 01 , the predicted value is set to the larger of R 10 and R 01 . Furthermore, if (R 10 + R 01 -R 00 ) is greater than the smaller of R 10 and R 01 and smaller than the larger of R 10 and R 01 , then the predicted value is (R 10 + R). 01 -R 00 ) is set.

また、図10のCに示されるように、DPCM処理部121は、画素141-4の画素値G10をDPCM処理する場合、画素141-2の画素値G01および画素値G11、並びに、画素141-4の画素値G00を参照し、それらの画素値を用いて、以下の式(4)のように(つまり上述の式(1)の場合と同様に)、画素141-4の画素値G10の予測値(Prediction(G10))を導出する。 Further, as shown in C of FIG. 10, when the DPCM processing unit 121 performs DPCM processing on the pixel value G 10 of the pixel 141-4, the pixel value G 01 and the pixel value G 11 of the pixel 141-2, and the pixel value G 11 and the like. With reference to the pixel value G 00 of the pixel 141-4 and using those pixel values, as in the following equation (4) (that is, as in the case of the above equation (1)), the pixel 141-4 Derivation of the predicted value (Prediction (G 10 )) of the pixel value G 10 .

Prediction(G10) = P2(G11, G00, G10)
= Clip((G11+G00-G10), min(G11, G00), max(G11, G00))
・・・(4)
Prediction (G 10 ) = P2 (G 11 , G 00 , G 10 )
= Clip ((G 11 + G 00 -G 10 ), min (G 11 , G 00 ), max (G 11 , G 00 ))
... (4)

つまり、(G11+G00-G01)が、G11とG00の小さい方よりも小さい場合、予測値は、G11とG00の小さい方に設定される。また、(G11+G00-G01)が、G11とG00の大きい方よりも大きい場合、予測値は、G11とG00の大きい方に設定される。さらに、(G11+G00-G01)が、G11とG00の小さい方よりも大きく、かつ、G11とG00の大きい方よりも小さい場合、予測値は、(G11+G00-G01)に設定される。 That is, if (G 11 + G 00 -G 01 ) is smaller than the smaller of G 11 and G 00 , the predicted value is set to the smaller of G 11 and G 00 . Also, if (G 11 + G 00 -G 01 ) is larger than the larger of G 11 and G 00 , the predicted value is set to the larger of G 11 and G 00 . Furthermore, if (G 11 + G 00 -G 01 ) is greater than the smaller of G 11 and G 00 and smaller than the larger of G 11 and G 00 , then the predicted value is (G 11 + G). 00 -G 01 ) is set.

同様に、DPCM処理部121は、図10のDに示されるように、画素141-4の画素値G11をDPCM処理する場合、画素141-4の画素値G00、画素値G10、および画素値G01を参照し、それらの画素値を用いて、以下の式(5)のように(つまり上述の式(3)の場合と同様に)、画素141-4の画素値G11の予測値(Prediction(G11))を導出する。 Similarly, as shown in D of FIG. 10, when the pixel value G 11 of the pixel 141-4 is DPCM processed, the DPCM processing unit 121 has a pixel value G 00 , a pixel value G 10 and a pixel value G 10 of the pixel 141-4. With reference to the pixel value G 01 , using those pixel values, as in the following equation (5) (that is, as in the case of the above equation (3)), the pixel value G 11 of the pixel 141-4 Derivation of the predicted value (Prediction (G 11 )).

Prediction(G11) = P2(G10, G01, G00)
= Clip((G10+G01-G00), min(G10, G01), max(G10, G01))
・・・(5)
Prediction (G 11 ) = P2 (G 10 , G 01 , G 00 )
= Clip ((G 10 + G 01 -G 00 ), min (G 10 , G 01 ), max (G 10 , G 01 ))
... (5)

つまり、(G10+G01-G00)が、G10とG01の小さい方よりも小さい場合、予測値は、G10とG01の小さい方に設定される。また、(G10+G01-G00)が、G10とG01の大きい方よりも大きい場合、予測値は、G10とG01の大きい方に設定される。さらに、(G10+G01-G00)が、G10とG01の小さい方よりも大きく、かつ、G10とG01の大きい方よりも小さい場合、予測値は、(G10+G01-G00)に設定される。 That is, if (G 10 + G 01 -G 00 ) is smaller than the smaller of G 10 and G 01 , the predicted value is set to the smaller of G 10 and G 01 . Also, if (G 10 + G 01 -G 00 ) is larger than the larger of G 10 and G 01 , the predicted value is set to the larger of G 10 and G 01 . Furthermore, if (G 10 + G 01 -G 00 ) is greater than the smaller of G 10 and G 01 and smaller than the larger of G 10 and G 01 , then the predicted value is (G 10 + G). 01 -G 00 ) is set.

<第2の予測方式>
次に、第2の予測方式について図12を参照して説明する。図12のAに示されるように、DPCM処理部121は、画素141-3の画素値R10をDPCM処理する場合、画素141-1の画素値R00および画素値R10、並びに、画素141-3の画素値R00を参照し、それらの画素値を用いて、以下の式(6)のように、画素141-3の画素値R10の予測値(Prediction(R10))を導出する。なお、式(6)の場合も、P2(a,b,c)は、例えば、上述の式(2)のように導出される。
<Second prediction method>
Next, the second prediction method will be described with reference to FIG. As shown in A of FIG. 12, when the DPCM processing unit 121 performs DPCM processing on the pixel value R 10 of the pixel 141-3, the pixel value R 00 and the pixel value R 10 of the pixel 141-1 and the pixel 141 Refer to the pixel value R 00 of -3, and use those pixel values to derive the predicted value (Prediction (R 10 )) of the pixel value R 10 of the pixel 141-3 as shown in the following equation (6). do. Also in the case of the equation (6), P2 (a, b, c) is derived as in the above equation (2), for example.

Prediction(R10) = P2(R10, R00, R00)
= Clip((R10+R00-R00), min(R10, R00), max(R10, R00))
・・・(6)
Prediction (R 10 ) = P2 (R 10 , R 00 , R 00 )
= Clip ((R 10 + R 00 -R 00 ), min (R 10 , R 00 ), max (R 10 , R 00 ))
... (6)

つまり、(R10+R00-R00)が、R11とR00の小さい方よりも小さい場合、予測値は、R11とR00の小さい方に設定される。また、(R10+R00-R00)が、R11とR00の大きい方よりも大きい場合、予測値は、R11とR00の大きい方に設定される。さらに、(R10+R00-R00)が、R11とR00の小さい方よりも大きく、かつ、R11とR00の大きい方よりも小さい場合、予測値は、(R10+R00-R00)に設定される。 That is, if (R 10 + R 00 -R 00 ) is smaller than the smaller of R 11 and R 00 , the predicted value is set to the smaller of R 11 and R 00 . If (R 10 + R 00 -R 00 ) is larger than the larger of R 11 and R 00 , the predicted value is set to the larger of R 11 and R 00 . Furthermore, if (R 10 + R 00 -R 00 ) is greater than the smaller of R 11 and R 00 and smaller than the larger of R 11 and R 00 , then the predicted value is (R 10 + R). 00 -R 00 ) is set.

同様に、DPCM処理部121は、図12のBに示されるように、画素141-4の画素値R11をDPCM処理する場合、画素141-2の画素値R01、画素値R11、並びに、画素141ー4の画素値R01を参照し、それらの画素値を用いて、以下の式(7)のように、画素141-4の画素値R11の予測値(Prediction(R11))を導出する。なお、式(7)の場合も、P2(a,b,c)は、例えば、上述の式(2)のように導出される。 Similarly, as shown in B of FIG. 12, when the DPCM processing unit 121 performs DPCM processing on the pixel value R 11 of the pixel 141-4, the pixel value R 01 , the pixel value R 11 and the pixel value R 11 of the pixel 141-2 are processed. , Pixel value R 01 of pixel 141-4, and using those pixel values, as shown in the following equation (7), the predicted value of pixel value R 11 of pixel 141-4 (Prediction (R 11 )). ) Is derived. Also in the case of the equation (7), P2 (a, b, c) is derived as in the above equation (2), for example.

Prediction(R11) = P2(R11, R01, R01)
= Clip((R11+R01-R01), min(R11, R01), max(R11, R01))
・・・(7)
Prediction (R 11 ) = P2 (R 11 , R 01 , R 01 )
= Clip ((R 11 + R 01 -R 01 ), min (R 11 , R 01 ), max (R 11 , R 01 ))
... (7)

つまり、(R11+R01-R01)が、R11とR01の小さい方よりも小さい場合、予測値は、R11とR01の小さい方に設定される。また、(R11+R01-R01)が、R11とR01の大きい方よりも大きい場合、予測値は、R11とR01の大きい方に設定される。さらに、(R11+R01-R01)が、R11とR01の小さい方よりも大きく、かつ、R11とR01の大きい方よりも小さい場合、予測値は、(R11+R01-R01)に設定される。 That is, if (R 11 + R 01 -R 01 ) is smaller than the smaller of R 11 and R 01 , the predicted value is set to the smaller of R 11 and R 01 . Also, if (R 11 + R 01 -R 01 ) is larger than the larger of R 11 and R 01 , the predicted value is set to the larger of R 11 and R 01 . Furthermore, if (R 11 + R 01 -R 01 ) is greater than the smaller of R 11 and R 01 and smaller than the larger of R 11 and R 01 , then the predicted value is (R 11 + R). 01 -R 01 ) is set.

また、図12のCに示されるように、DPCM処理部121は、画素141-4の画素値G10をDPCM処理する場合、画素141-2の画素値G00および画素値G10、並びに、画素141-4の画素値G00を参照し、それらの画素値を用いて、以下の式(8)のように(つまり上述の式(6)の場合と同様に)、画素141-4の画素値G10の予測値(Prediction(G10))を導出する。 Further, as shown in C of FIG. 12, when the DPCM processing unit 121 performs DPCM processing on the pixel value G 10 of the pixel 141-4, the pixel value G 00 and the pixel value G 10 of the pixel 141-2, and the pixel value G 10 and so on. With reference to the pixel value G 00 of the pixel 141-4 and using those pixel values, as in the following equation (8) (that is, as in the case of the above equation (6)), the pixel 141-4 Derivation of the predicted value (Prediction (G 10 )) of the pixel value G 10 .

Prediction(G10) = P2(G10, G00, G00)
= Clip((G10+G00-G00), min(G10, G00), max(G10, G00))
・・・(8)
Prediction (G 10 ) = P2 (G 10 , G 00 , G 00 )
= Clip ((G 10 + G 00 -G 00 ), min (G 10 , G 00 ), max (G 10 , G 00 ))
... (8)

つまり、(G10+G00-G00)が、G10とG00の小さい方よりも小さい場合、予測値は、G10とG00の小さい方に設定される。また、(G10+G00-G00)が、G10とG00の大きい方よりも大きい場合、予測値は、G10とG00の大きい方に設定される。さらに、(G10+G00-G00)が、G10とG00の小さい方よりも大きく、かつ、G10とG00の大きい方よりも小さい場合、予測値は、(G10+G00-G00)に設定される。 That is, if (G 10 + G 00 -G 00 ) is smaller than the smaller of G 10 and G 00 , the predicted value is set to the smaller of G 10 and G 00 . Also, if (G 10 + G 00 -G 00 ) is larger than the larger of G 10 and G 00 , the predicted value is set to the larger of G 10 and G 00 . Furthermore, if (G 10 + G 00 -G 00 ) is greater than the smaller of G 10 and G 00 and smaller than the larger of G 10 and G 00 , then the predicted value is (G 10 + G). 00 -G 00 ) is set.

同様に、DPCM処理部121は、図12のDに示されるように、画素141-4の画素値G11をDPCM処理する場合、画素141-2の画素値G01および画素値G11、並びに、画素141-4の画素値G01を参照し、それらの画素値を用いて、以下の式(9)のように(つまり上述の式(7)の場合と同様に)、画素141-4の画素値G11の予測値(Prediction(G11))を導出する。 Similarly, as shown in D of FIG. 12, when the pixel value G 11 of the pixel 141-4 is DPCM processed, the DPCM processing unit 121 has the pixel value G 01 and the pixel value G 11 of the pixel 141-2, and the pixel value G 11. , Pixel 141-4 , and using those pixel values, as in the following equation (9) (that is, as in the case of the above equation (7)), pixel 141-4. Prediction (Prediction (G 11 )) of the pixel value G 11 of.

Prediction(G11) = P2(G11, G01, G01)
= Clip((G11+G01-G01), min(G11, G01), max(G11, G01))
・・・(9)
Prediction (G 11 ) = P2 (G 11 , G 01 , G 01 )
= Clip ((G 11 + G 01 -G 01 ), min (G 11 , G 01 ), max (G 11 , G 01 ))
... (9)

つまり、(G11+G01-G01)が、G11とG01の小さい方よりも小さい場合、予測値は、G11とG01の小さい方に設定される。また、(G11+G01-G01)が、G11とG01の大きい方よりも大きい場合、予測値は、G11とG01の大きい方に設定される。さらに、(G11+G01-G01)が、G11とG01の小さい方よりも大きく、かつ、G11とG01の大きい方よりも小さい場合、予測値は、(G11+G01-G01)に設定される。 That is, if (G 11 + G 01 -G 01 ) is smaller than the smaller of G 11 and G 01 , the predicted value is set to the smaller of G 11 and G 01 . Also, if (G 11 + G 01 -G 01 ) is larger than the larger of G 11 and G 01 , the predicted value is set to the larger of G 11 and G 01 . Furthermore, if (G 11 + G 01 -G 01 ) is larger than the smaller of G 11 and G 01 and smaller than the larger of G 11 and G 01 , the predicted value is (G 11 + G). 01 -G 01 ) is set.

<予測精度の比較>
この場合も、第1の予測方式および第2の予測方式のそれぞれの特徴は、上述した各画素の2つの光電変換素子が設けられる場合と同様である。
<Comparison of prediction accuracy>
In this case as well, the characteristics of the first prediction method and the second prediction method are the same as in the case where the two photoelectric conversion elements of each pixel described above are provided.

<予測方式の制御>
したがって、この場合も、予測方式設定部104は、第1の予測方式および第2の予測方式を候補とし、位相検出結果に基づいて、上述した各画素の2つの光電変換素子が設けられる場合と同様に、これらの内のいずれかを、符号化・復号に適用する予測方式として設定するようにしてもよい。このようにすることにより、上述した例と同様の効果を得ることができる。
<Control of prediction method>
Therefore, in this case as well, the prediction method setting unit 104 may use the first prediction method and the second prediction method as candidates, and may provide the two photoelectric conversion elements of each pixel described above based on the phase detection result. Similarly, any one of these may be set as a prediction method applied to coding / decoding. By doing so, the same effect as the above-mentioned example can be obtained.

なお、以上においては、予測値導出の演算例として式(2)を挙げたが、予測値の導出方法は任意であり、この例に限定されない。 In the above, the equation (2) is given as an example of the operation for deriving the predicted value, but the method for deriving the predicted value is arbitrary and is not limited to this example.

<画像処理の流れ>
次に、図2の画像処理装置100により実行される画像処理の流れの例を、図13のフローチャートを参照して説明する。
<Flow of image processing>
Next, an example of the flow of image processing executed by the image processing apparatus 100 of FIG. 2 will be described with reference to the flowchart of FIG.

画像処理が開始されると、予測方式設定部104は、図13のステップS101において、符号化・復号に適用する予測方式の設定を初期化する。 When the image processing is started, the prediction method setting unit 104 initializes the setting of the prediction method applied to the coding / decoding in step S101 of FIG.

ステップS102において、符号化部101は、予測方式設定部104により現在設定されている予測方式を用いて撮像画像データを簡易符号化し、撮像画像データの符号化データを生成する。 In step S102, the coding unit 101 simply encodes the captured image data using the prediction method currently set by the prediction method setting unit 104, and generates the encoded data of the captured image data.

ステップS103において、復号部102は、予測方式設定部104により現在設定されている予測方式を用いて、ステップS102において生成された符号化データを簡易復号し、撮像画像データを生成する。 In step S103, the decoding unit 102 simply decodes the coded data generated in step S102 using the prediction method currently set by the prediction method setting unit 104, and generates captured image data.

ステップS104において、位相差検出部103は、ステップS103において生成あされた撮像画像データを用いて、位相差を検出する。 In step S104, the phase difference detection unit 103 detects the phase difference using the captured image data generated in step S103.

ステップS105において、予測方式設定部104は、ステップS104において得られる位相差検出結果を合焦に関するパラメータとし、その位相差検出結果に基づいて、符号化・復号に適用する予測方式を設定する。 In step S105, the prediction method setting unit 104 uses the phase difference detection result obtained in step S104 as a parameter related to focusing, and sets a prediction method to be applied to coding / decoding based on the phase difference detection result.

例えば、予測方式設定部104は、被写体に合焦しているか否かに応じて、符号化・復号に適用する予測方式を、候補(例えば第1の予測方式および第2の予測方式)の中から選択する。例えば、予測方式設定部104は、位相検出結果に基づいて、被写体に合焦していると判定された場合、第1の予測方式を選択し、被写体に合焦していないと判定された場合、第2の予測方式を選択する。 For example, the prediction method setting unit 104 sets the prediction method to be applied to coding / decoding among the candidates (for example, the first prediction method and the second prediction method) depending on whether or not the subject is in focus. Select from. For example, when the prediction method setting unit 104 determines that the subject is in focus based on the phase detection result, the first prediction method is selected and it is determined that the subject is not in focus. , Select the second prediction method.

ステップS106において、符号化部101は、全フレームを処理したか否かを判定する。未処理のフレームが存在する、すなわち、撮像画像データの新たなフレームが画像処理装置100に入力されると判定された場合、処理はステップS102に戻り、それ以降の処理が繰り返される。 In step S106, the coding unit 101 determines whether or not all the frames have been processed. When it is determined that an unprocessed frame exists, that is, a new frame of captured image data is input to the image processing apparatus 100, the process returns to step S102, and the subsequent processes are repeated.

ステップS102乃至ステップS106の処理が各フレームについて実行され、ステップS106において、入力された撮像画像データの全フレームを処理したと判定された場合、画像処理が終了する。 When the processing of steps S102 to S106 is executed for each frame and it is determined in step S106 that all the frames of the input captured image data have been processed, the image processing ends.

<簡易符号化処理の流れ>
次に、図14のフローチャートを参照して、図13のステップS102において実行される簡易符号化処理の流れの例を説明する。
<Flow of simple coding process>
Next, an example of the flow of the simple coding process executed in step S102 of FIG. 13 will be described with reference to the flowchart of FIG.

簡易符号化処理が開始されると、DPCM処理部121は、ステップS121において、撮像画像データをDPCM処理し、撮像画像データと予測値との残差データ(予測誤差)を生成する。 When the simple coding process is started, the DPCM processing unit 121 performs DPCM processing on the captured image data in step S121 to generate residual data (prediction error) between the captured image data and the predicted value.

その際、DPCM処理部121は、予測方式設定部104により設定された予測方式(図13のステップS101またはステップS105において設定された予測方式)を用いて撮像画像データをDPCM処理する。例えば、DPCM処理部121は、被写体に合焦しているか否かに応じて設定された第1の予測方式または第2の予測方式により撮像画像データをDPCM処理する。 At that time, the DPCM processing unit 121 DPCM processes the captured image data using the prediction method set by the prediction method setting unit 104 (the prediction method set in step S101 or step S105 in FIG. 13). For example, the DPCM processing unit 121 DPCM processes the captured image data by the first prediction method or the second prediction method set according to whether or not the subject is in focus.

ステップS122において、ゴロム符号化部122は、ステップS121の処理により得られた残差データ(予測誤差)をゴロム符号化する。 In step S122, the Golomb coding unit 122 Golom-codes the residual data (prediction error) obtained by the process of step S121.

ステップS123において、圧縮率調整部123は、ステップS122の処理により得られたゴロム符号に対して、例えばデータを量子化したりデータを付加したりして、符号化データの圧縮率を調整する。 In step S123, the compression rate adjusting unit 123 adjusts the compression rate of the coded data by, for example, quantizing the data or adding the data to the Golomb code obtained by the process of step S122.

ステップS123の処理により、所定の圧縮率の符号化データが得られると、簡易符号化処理が終了し、処理は、図13に戻る。 When the coded data having a predetermined compression rate is obtained by the process of step S123, the simple coding process is completed, and the process returns to FIG.

<簡易復号処理の流れ>
次に、図15のフローチャートを参照して、図13のステップS103において実行される簡易復号処理の流れの例を説明する。
<Flow of simple decryption process>
Next, an example of the flow of the simple decoding process executed in step S103 of FIG. 13 will be described with reference to the flowchart of FIG.

簡易復号処理が開始されると、ステップS131において、圧縮率逆調整部131は、符号化データの圧縮率の逆調整(すなわち、図14のステップS123の処理の逆処理)を行うことにより、圧縮率を調整する前のゴロム符号を復元する。 When the simple decoding process is started, in step S131, the compression rate reverse adjustment unit 131 compresses by performing reverse adjustment of the compression rate of the coded data (that is, reverse processing of the process of step S123 in FIG. 14). Restore the Golomb code before adjusting the rate.

ステップS132において、ゴロム復号部132は、ステップS131の処理により得られた各ゴロム符号をゴロム復号し、残差データ(予測誤差)を復元する。 In step S132, the Golomb decoding unit 132 Golom-decodes each Golomb code obtained by the process of step S131, and restores the residual data (prediction error).

ステップS133において、逆DPCM処理部133は、ステップS132の処理により得られた残差データを用いて逆DPCM処理(すなわち、図14のステップS121の処理の逆処理)を行う。つまり、逆DPCM処理部133は、残差データ同士を加算する等して各画素値を復元し、撮像画像データを生成する。 In step S133, the reverse DPCM processing unit 133 performs reverse DPCM processing (that is, reverse processing of the processing in step S121 of FIG. 14) using the residual data obtained by the processing in step S132. That is, the reverse DPCM processing unit 133 restores each pixel value by adding residual data to each other and generates captured image data.

その際、逆DPCM処理部133は、予測方式設定部104により設定された予測方式(図13のステップS101またはステップS105において設定された予測方式)を用いて残差データを逆DPCM処理する。例えば、逆DPCM処理部133は、被写体に合焦しているか否かに応じて設定された第1の予測方式または第2の予測方式により残差データを逆DPCM処理する。 At that time, the reverse DPCM processing unit 133 performs reverse DPCM processing of the residual data using the prediction method set by the prediction method setting unit 104 (the prediction method set in step S101 or step S105 of FIG. 13). For example, the reverse DPCM processing unit 133 performs reverse DPCM processing of residual data by a first prediction method or a second prediction method set according to whether or not the subject is in focus.

ステップS133の処理により撮像画像データが得られると、簡易復号処理が終了し、処理は、図13に戻る。 When the captured image data is obtained by the process of step S133, the simple decoding process is completed, and the process returns to FIG.

以上のように各処理を実行することにより、符号化・復号における予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号画像の画質の低減を抑制することができる。 By executing each process as described above, it is possible to suppress an increase in prediction error in coding / decoding. As a result, in the case of variable-length coding, it is possible to suppress a decrease in coding efficiency. Further, in the case of fixed-length coding, it is possible to suppress a decrease in the image quality of the decoded image.

<撮像装置>
以上のような「方法1」の本技術は、任意の電子機器に適用することができる。例えば、撮像装置にも適用することができる。図16は、本技術を適用した撮像装置の主な構成例を示すブロック図である。図16に示される撮像装置170は、被写体を撮像し、撮像画像データを生成し、記録したり、出力したりする。
<Image pickup device>
The present technology of "Method 1" as described above can be applied to any electronic device. For example, it can be applied to an image pickup device. FIG. 16 is a block diagram showing a main configuration example of an image pickup apparatus to which the present technology is applied. The image pickup apparatus 170 shown in FIG. 16 captures a subject, generates captured image data, records it, and outputs it.

図16に示されるように、撮像装置170は、レンズ171、イメージセンサ172、信号処理部173、出力部174、および記憶部175を有する。 As shown in FIG. 16, the image pickup apparatus 170 includes a lens 171, an image sensor 172, a signal processing unit 173, an output unit 174, and a storage unit 175.

レンズ171は、後述する信号処理部173のレンズ制御部192により制御され、焦点距離を調整するための光学系である。絞り等を含むようにしてもよい。被写体からの光は、このレンズ171を介してイメージセンサ172に入射する。 The lens 171 is an optical system controlled by the lens control unit 192 of the signal processing unit 173, which will be described later, for adjusting the focal length. It may include an aperture or the like. The light from the subject is incident on the image sensor 172 through the lens 171.

イメージセンサ172は、レンズ171を介して入射する被写体からの光を受光し、撮像画像データを生成する。さらに、イメージセンサ172は、その撮像画像データを簡易符号化し、符号化データとして信号処理部173に供給する。 The image sensor 172 receives light from a subject incident on the lens 171 and generates captured image data. Further, the image sensor 172 simply encodes the captured image data and supplies the captured image data to the signal processing unit 173 as encoded data.

信号処理部173は、イメージセンサ172から供給される符号化データを復号し、撮像画像データを生成する。信号処理部173は、その撮像画像データを出力部174や記憶部175に供給する。また、信号処理部173は、その撮像画像データから位相差を検出し、その位相差検出結果に基づいてレンズ171を制御し、焦点距離の制御を行う。さらに、信号処理部173は、その位相差検出結果に基づいて、符号化・復号において適用される予測方式の制御を行う。 The signal processing unit 173 decodes the coded data supplied from the image sensor 172 and generates the captured image data. The signal processing unit 173 supplies the captured image data to the output unit 174 and the storage unit 175. Further, the signal processing unit 173 detects the phase difference from the captured image data, controls the lens 171 based on the phase difference detection result, and controls the focal length. Further, the signal processing unit 173 controls the prediction method applied in the coding / decoding based on the phase difference detection result.

出力部174は、信号処理部173から供給される撮像画像データを取得し、それを撮像装置170の外部に出力する。例えば、出力部174は、表示部(モニタ)を有し、撮像画像をその表示部に表示する。また、例えば、出力部174は、外部出力端子を有し、撮像画像データを、その外部出力端子を介して他の装置に供給する。 The output unit 174 acquires the captured image data supplied from the signal processing unit 173 and outputs it to the outside of the image pickup device 170. For example, the output unit 174 has a display unit (monitor) and displays the captured image on the display unit. Further, for example, the output unit 174 has an external output terminal, and supplies captured image data to another device via the external output terminal.

記憶部175は、信号処理部173から供給される撮像画像データを取得し、それを記憶する。例えば、記憶部175は、ハードディスクやフラッシュメモリ等の記憶媒体を有し、信号処理部173から供給された撮像画像データをその記憶媒体に記憶させる。 The storage unit 175 acquires the captured image data supplied from the signal processing unit 173 and stores it. For example, the storage unit 175 has a storage medium such as a hard disk or a flash memory, and stores the captured image data supplied from the signal processing unit 173 in the storage medium.

なお、記憶部175は、その記憶媒体に記憶された撮像画像データを適宜読み出し、出力部174等の他の処理部に供給することができる。また、その記憶媒体は、撮像装置170(記憶部175)に対して着脱可能なメディア(リムーバブルメディア)であってもよい。 The storage unit 175 can appropriately read the captured image data stored in the storage medium and supply it to another processing unit such as the output unit 174. Further, the storage medium may be a medium (removable media) that can be attached to and detached from the image pickup apparatus 170 (storage unit 175).

<イメージセンサ>
イメージセンサ172は、受光部181、ADC(Analog Digital Converter)182、符号化部101、および送信部183を有する。
<Image sensor>
The image sensor 172 includes a light receiving unit 181, an ADC (Analog Digital Converter) 182, a coding unit 101, and a transmitting unit 183.

受光部181は、例えば、図5や図6を参照して説明したような画素アレイ140を有し、被写体からの光を受光して光電変換し、各画素値を検出する。受光部181は、検出した各画素値をADC182に供給する。 The light receiving unit 181 has, for example, a pixel array 140 as described with reference to FIGS. 5 and 6, and receives light from a subject, performs photoelectric conversion, and detects each pixel value. The light receiving unit 181 supplies each detected pixel value to the ADC 182.

ADC182は、受光部181から供給される電気信号(画素値)をA/D変換し、デジタルデータの撮像画像データを生成する。この撮像画像データは、図7乃至図12を参照して説明したように、各画素が複数の画素値を有し、それらを用いて位相差を検出することができるデータ構造を有する。ADC182は、生成した撮像画像データを符号化部101に供給する。 The ADC 182 A / D-converts an electric signal (pixel value) supplied from the light receiving unit 181 to generate captured image data of digital data. As described with reference to FIGS. 7 to 12, the captured image data has a data structure in which each pixel has a plurality of pixel values and the phase difference can be detected using them. The ADC 182 supplies the generated captured image data to the coding unit 101.

符号化部101は、ADC182から供給される撮像画像データを取得する。また、符号化部101は、後述する信号処理部173の予測方式設定部104から供給される予測方式の設定に関する情報(予測方式設定部104が設定した予測方式を示す情報)を取得する。符号化部101は、画像処理装置100の場合と同様に、例えば図3に示されるような構成を有し、図14のフローチャートを参照して説明したような簡易符号化処理を行って撮像画像データを簡易符号化し、符号化データを生成する。その際、符号化部101は、予測方式設定部104から供給された情報に基づいて(つまり、予測方式設定部104により設定された予測方式を用いて)、その簡易符号化を行う。符号化部101は、生成した符号化データを送信部183に供給する。 The coding unit 101 acquires the captured image data supplied from the ADC 182. Further, the coding unit 101 acquires information regarding the setting of the prediction method supplied from the prediction method setting unit 104 of the signal processing unit 173 (information indicating the prediction method set by the prediction method setting unit 104). Similar to the case of the image processing apparatus 100, the coding unit 101 has a configuration as shown in FIG. 3, for example, and performs a simple coding process as described with reference to the flowchart of FIG. 14 to obtain an captured image. The data is simply encoded and the encoded data is generated. At that time, the coding unit 101 performs simple coding based on the information supplied from the prediction method setting unit 104 (that is, using the prediction method set by the prediction method setting unit 104). The coding unit 101 supplies the generated coded data to the transmission unit 183.

送信部183は、符号化部101から供給された符号化データを取得し、それを信号処理部173(の受信部191)に送信する。 The transmission unit 183 acquires the coded data supplied from the coding unit 101 and transmits it to the signal processing unit 173 (reception unit 191).

<信号処理部>
信号処理部173は、受信部191、復号部102、位相差検出部103、予測方式設定部104、レンズ制御部192、および画像処理部193を有する。
<Signal processing unit>
The signal processing unit 173 includes a receiving unit 191, a decoding unit 102, a phase difference detection unit 103, a prediction method setting unit 104, a lens control unit 192, and an image processing unit 193.

受信部191は、イメージセンサ172の送信部183から送信された符号化データを受信する。受信部191は、受信した符号化データを復号部102に供給する。 The receiving unit 191 receives the coded data transmitted from the transmitting unit 183 of the image sensor 172. The receiving unit 191 supplies the received coded data to the decoding unit 102.

復号部102は、受信部191から供給される符号化データを取得する。また、復号部102は、予測方式設定部104から供給される予測方式の設定に関する情報(予測方式設定部104が設定した予測方式を示す情報)を取得する。復号部102は、画像処理装置100の場合と同様に、例えば図4に示されるような構成を有し、図15のフローチャートを参照して説明したような簡易復号処理を行って符号化データを簡易復号し、撮像画像データを生成する。その際、復号部102は、予測方式設定部104から供給された情報に基づいて(予測方式設定部104により設定された予測方式、つまり、符号化部101が簡易符号化に適用した予測方式を用いて)、その簡易復号を行う。復号部102は、生成した撮像画像データを位相差検出部103および画像処理部193に供給する。 The decoding unit 102 acquires the coded data supplied from the receiving unit 191. Further, the decoding unit 102 acquires information regarding the setting of the prediction method supplied from the prediction method setting unit 104 (information indicating the prediction method set by the prediction method setting unit 104). Similar to the case of the image processing apparatus 100, the decoding unit 102 has a configuration as shown in FIG. 4, for example, and performs a simple decoding process as described with reference to the flowchart of FIG. 15 to obtain encoded data. Simple decoding is performed to generate captured image data. At that time, the decoding unit 102 uses the information supplied from the prediction method setting unit 104 (the prediction method set by the prediction method setting unit 104, that is, the prediction method applied by the coding unit 101 to the simple coding). Use) to perform a simple decryption. The decoding unit 102 supplies the generated captured image data to the phase difference detection unit 103 and the image processing unit 193.

位相差検出部103は、復号部102から供給される撮像画像データを取得する。位相差検出部103は、画像処理装置100の場合と同様に、復号部102から供給される撮像画像データ(復号結果)を用いて、(被写体への)合焦のための位相差の検出を行う。この撮像画像データは像面において位相差を検出可能な撮像素子により生成されたものであり、位相差検出部103は、この撮像画像データから位相差を検出することができる。さらに、位相差検出部103は、導出した位相差検出結果を予測方式設定部104およびレンズ制御部192に供給する。 The phase difference detection unit 103 acquires the captured image data supplied from the decoding unit 102. The phase difference detection unit 103 detects the phase difference for focusing (to the subject) by using the captured image data (decoding result) supplied from the decoding unit 102, as in the case of the image processing device 100. conduct. The captured image data is generated by an image pickup element capable of detecting the phase difference on the image plane, and the phase difference detection unit 103 can detect the phase difference from the captured image data. Further, the phase difference detection unit 103 supplies the derived phase difference detection result to the prediction method setting unit 104 and the lens control unit 192.

予測方式設定部104は、位相差検出部103から供給される位相差検出結果を取得する。予測方式設定部104は、画像処理装置100の場合と同様に、その取得した位相差検出結果に基づいて、符号化や復号に適用される予測方式を設定する。予測方式設定部104は、設定した予測方式を示す情報を符号化部101および復号部102に供給する。 The prediction method setting unit 104 acquires the phase difference detection result supplied from the phase difference detection unit 103. The prediction method setting unit 104 sets a prediction method applied to coding or decoding based on the acquired phase difference detection result, as in the case of the image processing device 100. The prediction method setting unit 104 supplies information indicating the set prediction method to the coding unit 101 and the decoding unit 102.

レンズ制御部192は、位相差検出部103から供給される位相差検出結果を取得する。レンズ制御部192は、その位相差検出結果に基づいて、被写体に合焦させるようにレンズ171を制御する制御信号を生成し、それをレンズ171に供給する。つまり、レンズ制御部192は、被写体に合焦させるようにレンズ171を制御する。 The lens control unit 192 acquires the phase difference detection result supplied from the phase difference detection unit 103. The lens control unit 192 generates a control signal for controlling the lens 171 so as to focus on the subject based on the phase difference detection result, and supplies the control signal to the lens 171. That is, the lens control unit 192 controls the lens 171 so as to focus on the subject.

画像処理部193は、復号部102から供給される撮像画像データを取得する。画像処理部193は、その撮像画像データに対する画像処理を行う。この画像処理の内容は任意である。画像処理部193は、画像処理後の撮像画像データを、出力部174および記憶部175の少なくともいずれか一方に供給する。もちろん、画像処理部193は、その画像処理をスキップすることもできる。その場合、画像処理部193は、取得した撮像画像データを出力部174および記憶部175の少なくともいずれか一方に供給する。 The image processing unit 193 acquires the captured image data supplied from the decoding unit 102. The image processing unit 193 performs image processing on the captured image data. The content of this image processing is arbitrary. The image processing unit 193 supplies the captured image data after image processing to at least one of the output unit 174 and the storage unit 175. Of course, the image processing unit 193 can also skip the image processing. In that case, the image processing unit 193 supplies the acquired captured image data to at least one of the output unit 174 and the storage unit 175.

以上のように、撮像装置170のイメージセンサ172と信号処理部173との間において、撮像画像データは、簡易符号化されて伝送される。そして、符号化部101は、予測方式設定部104により位相差検出結果に基づいて設定された予測方式(例えば被写体に合焦しているか否かに応じて選択された予測方式)を用いて、撮像画像データの簡易符号化を行う。同様に、復号部102は、予測方式設定部104により位相差検出結果に基づいて設定された予測方式(例えば被写体に合焦しているか否かに応じて選択された予測方式)を用いて、符号化データの簡易復号を行う。 As described above, the captured image data is simply encoded and transmitted between the image sensor 172 of the image pickup apparatus 170 and the signal processing unit 173. Then, the coding unit 101 uses a prediction method set by the prediction method setting unit 104 based on the phase difference detection result (for example, a prediction method selected depending on whether or not the subject is in focus). Simple encoding of captured image data is performed. Similarly, the decoding unit 102 uses a prediction method set by the prediction method setting unit 104 based on the phase difference detection result (for example, a prediction method selected depending on whether or not the subject is in focus). Performs simple decoding of coded data.

したがって、撮像装置170は、この簡易符号化・簡易復号における予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号画像の画質の低減を抑制することができる。 Therefore, the image pickup apparatus 170 can suppress an increase in prediction error in this simple coding / simple decoding. As a result, in the case of variable-length coding, it is possible to suppress a decrease in coding efficiency. Further, in the case of fixed-length coding, it is possible to suppress a decrease in the image quality of the decoded image.

また、焦点距離制御のための位相差検出の結果を利用して符号化および復号に適用される予測方式を求めるので、撮像装置170は、その予測方式の設定に関する処理による符号化や復号の負荷の増大を抑制することができる。また、符号化において適用された予測方式を示す予測方式情報を符号化部101から復号部102に伝送させる必要が無いため、撮像装置170は、符号化効率の低減を抑制することができる。さらに、撮像装置170は、焦点距離制御のための位相差検出の結果を利用することにより、より正確に合焦の度合いに応じて予測方式を設定することができる。すなわち、撮像装置170は、予測誤差の増大をより抑制することができる。 Further, since the prediction method applied to the coding and decoding is obtained by using the result of the phase difference detection for the focal length control, the image pickup apparatus 170 is loaded with coding and decoding by the processing related to the setting of the prediction method. Can be suppressed from increasing. Further, since it is not necessary to transmit the prediction method information indicating the prediction method applied in the coding from the coding unit 101 to the decoding unit 102, the image pickup apparatus 170 can suppress the reduction of the coding efficiency. Further, the image pickup apparatus 170 can more accurately set the prediction method according to the degree of focusing by using the result of the phase difference detection for the focal length control. That is, the image pickup apparatus 170 can further suppress the increase in the prediction error.

<撮像処理の流れ>
この撮像装置170が被写体を撮像するために実行する撮像処理の流れの例を、図17および図18のフローチャートを参照して説明する。
<Flow of imaging process>
An example of the flow of the image pickup process executed by the image pickup apparatus 170 to image the subject will be described with reference to the flowcharts of FIGS. 17 and 18.

撮像処理が開始されると、ステップS151において、レンズ171は、合焦位置を初期化する。ステップS152において、予測方式設定部104は、予測方式の設定を初期化する。 When the imaging process is started, in step S151, the lens 171 initializes the in-focus position. In step S152, the prediction method setting unit 104 initializes the prediction method setting.

ステップS153において、受光部181は、被写体を撮像し、被写体からの光を光電変換して電気信号として各画素値を得る。ステップS154において、ADC182は、その画素値をA/D変換してデジタルデータの撮像画像データを生成する。 In step S153, the light receiving unit 181 takes an image of the subject, photoelectrically converts the light from the subject, and obtains each pixel value as an electric signal. In step S154, the ADC 182 A / D-converts the pixel value to generate captured image data of digital data.

ステップS155において、符号化部101は、図14のフローチャートを参照して説明したように簡易符号化処理を実行し、ステップS152またはステップS164(図18)において設定された予測方式で撮像画像データを簡易符号化し、符号化データを生成する。 In step S155, the coding unit 101 executes a simple coding process as described with reference to the flowchart of FIG. 14, and obtains captured image data by the prediction method set in step S152 or step S164 (FIG. 18). Simple encoding is performed and encoded data is generated.

ステップS156において、送信部183は、ステップS155において生成された符号化データを送信する。図18のステップS161において、受信部191は、ステップS156において送信された符号化データを受信する。 In step S156, the transmission unit 183 transmits the coded data generated in step S155. In step S161 of FIG. 18, the receiving unit 191 receives the coded data transmitted in step S156.

ステップS162において、復号部102は、図15のフローチャートを参照して説明したように簡易復号処理を実行し、ステップS152またはステップS164において設定された予測方式(つまりステップS155において適用されたのと同一の予測方式)で符号化データを簡易復号し、撮像画像データを生成する。 In step S162, the decoding unit 102 executes the simple decoding process as described with reference to the flowchart of FIG. 15, and is the same as the prediction method set in step S152 or step S164 (that is, the same as applied in step S155). The coded data is simply decoded by the prediction method), and the captured image data is generated.

ステップS163において、位相差検出部103は、ステップS162において生成された撮像画像データを用いて位相差を検出する。ステップS164において、予測方式設定部104は、ステップS163において得られた位相差検出結果に基づいて、符号化・復号に適用される予測方式を設定する。 In step S163, the phase difference detection unit 103 detects the phase difference using the captured image data generated in step S162. In step S164, the prediction method setting unit 104 sets the prediction method applied to the coding / decoding based on the phase difference detection result obtained in step S163.

ステップS165において、レンズ制御部192は、位相差検出結果に基づいてレンズ171を制御し、合焦位置を更新する。ステップS166において、画像処理部193は、ステップS162において生成された撮像画像データに対する画像処理を行う。 In step S165, the lens control unit 192 controls the lens 171 based on the phase difference detection result, and updates the in-focus position. In step S166, the image processing unit 193 performs image processing on the captured image data generated in step S162.

ステップS167において、出力部174は、ステップS166の画像処理後の撮像画像データを、撮像装置170の外部に出力する。また、記憶部175は、その撮像画像データを記憶媒体に記憶する。 In step S167, the output unit 174 outputs the captured image data after the image processing in step S166 to the outside of the image pickup device 170. Further, the storage unit 175 stores the captured image data in the storage medium.

ステップS168において、撮像装置170は、撮像処理を終了するか否かを判定する。撮像を継続し、新たなフレーム画像を生成すると判定された場合、処理は、図17のステップS153に戻る。つまり、撮像装置170は、ステップS153乃至ステップS168の各処理をフレーム毎に実行する。例えばユーザ指示等に基づいて、ステップS168において、撮像処理を終了すると判定された場合、撮像処理が終了する。 In step S168, the image pickup apparatus 170 determines whether or not to end the image pickup process. If it is determined that the imaging is continued and a new frame image is generated, the process returns to step S153 in FIG. That is, the image pickup apparatus 170 executes each process of step S153 to step S168 for each frame. For example, if it is determined in step S168 that the imaging process is to be completed based on a user instruction or the like, the imaging process is terminated.

以上のように撮像処理を行うことにより、撮像装置170は、ステップS155の簡易符号化(図17)やステップS162の簡易復号(図18)における予測誤差の増大を抑制することができる。 By performing the image pickup process as described above, the image pickup apparatus 170 can suppress an increase in the prediction error in the simple coding in step S155 (FIG. 17) and the simple decoding in step S162 (FIG. 18).

<3.第2の実施の形態>
<画像処理装置>
本実施の形態においては、「方法2」について説明する。図19は、本技術を適用した画像処理装置の構成の一例を示すブロック図である。図19に示される画像処理装置200は、画像処理装置100と同様、入力された撮像画像データを符号化して符号化データを生成し、さらに、その符号化データを復号して撮像画像データを生成し、出力する装置である。ただし、この画像処理装置200は、その撮像画像データの符号化・復号における予測方式の制御方法として「方法2」を適用する。図19に示されるように、この画像処理装置200は、符号化部201および復号部102を有する。
<3. Second Embodiment>
<Image processing device>
In the present embodiment, "method 2" will be described. FIG. 19 is a block diagram showing an example of the configuration of an image processing apparatus to which the present technology is applied. Similar to the image processing device 100, the image processing device 200 shown in FIG. 19 encodes the input captured image data to generate coded data, and further decodes the coded data to generate captured image data. It is a device that outputs data. However, the image processing apparatus 200 applies "method 2" as a control method of a prediction method in coding / decoding of the captured image data. As shown in FIG. 19, the image processing device 200 has a coding unit 201 and a decoding unit 102.

符号化部201は、画像の符号化に関する処理を行う。例えば、符号化部201は、画像処理装置200に入力された撮像画像データを取得する。また、符号化部201は、符号化部101と同様、取得した撮像画像データを簡易符号化する。その際、符号化部201は、撮像画像データを、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて符号化する。ただし、符号化部201は、その撮像画像データに基づいて予測方式を設定し、自身で設定した予測方式を適用して簡易符号化を行う。例えば、符号化部201は、撮像画像データを用いて各予測方式による予測を行い、各予測の結果を合焦に関するパラメータとして用い、予測方式を設定する。 The coding unit 201 performs processing related to image coding. For example, the coding unit 201 acquires the captured image data input to the image processing device 200. Further, the coding unit 201 simply encodes the acquired captured image data in the same manner as the coding unit 101. At that time, the coding unit 201 encodes the captured image data by using the prediction by the prediction method set based on the parameters related to focusing. However, the coding unit 201 sets a prediction method based on the captured image data, and applies the prediction method set by itself to perform simple coding. For example, the coding unit 201 makes predictions by each prediction method using captured image data, and uses the result of each prediction as a parameter related to focusing to set the prediction method.

符号化部201は、符号化部101と同様、生成した符号化データを、記録媒体または伝送媒体を介して、復号部202に供給する。ただし、符号化部201は、設定した予測方式を示す予測方式情報を、撮像画像データを符号化して生成した符号化データに付加し、その予測方式情報を付加した符号化データを復号部202に供給する。つまり、この場合、予測方式情報が、符号化部201から復号部202に供給される。 Similar to the coding unit 101, the coding unit 201 supplies the generated coded data to the decoding unit 202 via the recording medium or the transmission medium. However, the coding unit 201 adds the prediction method information indicating the set prediction method to the coded data generated by encoding the captured image data, and the coded data to which the prediction method information is added is added to the decoding unit 202. Supply. That is, in this case, the prediction method information is supplied from the coding unit 201 to the decoding unit 202.

復号部202は、画像の復号に関する処理を行う。例えば、復号部202は、復号部102と同様、記録媒体または伝送媒体を介して符号化部201から供給される符号化データを取得する。また、復号部202は、復号部102と同様、その取得した符号化データを簡易復号する。その際、復号部202は、符号化データを、合焦に関するパラメータに基づいて設定された予測方式による予測を用いて復号する。ただし、復号部202は、その符号化データに付加された予測方式情報により示される、符号化の際に用いられた予測方式を適用して簡易復号を行う。復号部202は、その生成した撮像画像データを、画像処理装置100の外部に出力する。 The decoding unit 202 performs processing related to image decoding. For example, the decoding unit 202, like the decoding unit 102, acquires the coded data supplied from the coding unit 201 via the recording medium or the transmission medium. Further, the decoding unit 202, like the decoding unit 102, simply decodes the acquired coded data. At that time, the decoding unit 202 decodes the coded data by using the prediction by the prediction method set based on the parameters related to focusing. However, the decoding unit 202 performs simple decoding by applying the prediction method used at the time of coding, which is indicated by the prediction method information added to the coded data. The decoding unit 202 outputs the generated captured image data to the outside of the image processing device 100.

図20は、その符号化データの主な構成例を示す図である。図20に示される符号化データ210は、符号化部201により生成され、復号部202に供給される符号化データである。図20に示されるように、符号化データ210は、ヘッダ211、予測方式情報212、VLC(Variable Length Code)213、およびリファインメント214を含む。 FIG. 20 is a diagram showing a main configuration example of the coded data. The coded data 210 shown in FIG. 20 is coded data generated by the coding unit 201 and supplied to the decoding unit 202. As shown in FIG. 20, the coded data 210 includes a header 211, prediction method information 212, VLC (Variable Length Code) 213, and refinement 214.

ヘッダ211には、符号化データ210に関する各種ヘッダ情報が格納される。予測方式情報212は、符号化部201が設定した予測方式(符号化に適用された予測方式)を示す情報である。VLC213は、撮像画像データの符号化データ(例えばゴロム符号)により構成される。リファインメント214は、圧縮率調整用に付加されたビットデータである。 Various header information related to the coded data 210 is stored in the header 211. The prediction method information 212 is information indicating a prediction method (prediction method applied to coding) set by the coding unit 201. The VLC 213 is composed of coded data (for example, Golomb code) of captured image data. The refinement 214 is bit data added for adjusting the compression ratio.

このように、予測方式情報212は、撮像画像データの符号化データに付加されて符号化部201から復号部202に供給される。したがって、復号部202は、予測方式設定部から情報を受け取らずに(符号化データを取得するだけで)、符号化に適用されたのと同一の予測方式を復号に適用することができる。 In this way, the prediction method information 212 is added to the coded data of the captured image data and supplied from the coding unit 201 to the decoding unit 202. Therefore, the decoding unit 202 can apply the same prediction method applied to the coding to the decoding without receiving the information from the prediction method setting unit (only by acquiring the coded data).

以上に説明した符号化部201および復号部202は、1つの装置(例えば画像処理装置200)として構成されるようにしてもよいし、互いに異なる装置として構成されるようにしてもよい。 The coding unit 201 and the decoding unit 202 described above may be configured as one device (for example, an image processing device 200) or may be configured as different devices from each other.

<符号化部>
図21は、図19の符号化部201の主な構成例を示すブロック図である。図21に示されるように、この場合の符号化部201は、予測方式設定部221および符号化部222を有する。
<Code-coded part>
FIG. 21 is a block diagram showing a main configuration example of the coding unit 201 of FIG. As shown in FIG. 21, the coding unit 201 in this case has a prediction method setting unit 221 and a coding unit 222.

予測方式設定部221は、画像処理装置200に入力された撮像画像データを取得し、その撮像画像データに基づいて予測方式を設定する。この予測方式の設定方法は任意である。例えば、予測方式設定部221が、撮像画像データを用いて候補として用意される各予測方式による予測を行い、各予測の結果を合焦に関するパラメータとして用い、予測方式を設定するようにしてもよい。より具体的には、例えば、予測方式設定部221が、撮像画像データを、予測方式の各候補を適用して符号化し、それぞれの符号化効率を比較して、最も符号化効率の良い符号化方式を選択するようにしてもよい。予測方式設定部221は、設定した予測方式を符号化部222に通知する。 The prediction method setting unit 221 acquires the captured image data input to the image processing device 200, and sets the prediction method based on the captured image data. The setting method of this prediction method is arbitrary. For example, the prediction method setting unit 221 may perform prediction by each prediction method prepared as a candidate using captured image data, and use the result of each prediction as a parameter related to focusing to set the prediction method. .. More specifically, for example, the prediction method setting unit 221 encodes the captured image data by applying each candidate of the prediction method, compares the coding efficiencies of each, and encodes with the best coding efficiency. You may choose the method. The prediction method setting unit 221 notifies the coding unit 222 of the set prediction method.

符号化部222は、画像処理装置200に入力された撮像画像データを取得する。また、符号化部222は、その取得した撮像画像データを、予測方式設定部221から通知された予測方式を適用して簡易符号化する。また、符号化部222は、その適用した予測方式を示す予測方式情報を生成する。符号化部222は、生成した符号化データに、生成した予測方式情報を付加し、復号部202に供給する。 The coding unit 222 acquires the captured image data input to the image processing device 200. Further, the coding unit 222 simply encodes the acquired captured image data by applying the prediction method notified from the prediction method setting unit 221. In addition, the coding unit 222 generates prediction method information indicating the prediction method to which the prediction method is applied. The coding unit 222 adds the generated prediction method information to the generated coded data and supplies it to the decoding unit 202.

符号化部222は、符号化部101と同様の処理部であり、同様の処理を行う。つまり、符号化部222が、例えば、図3に示されるような構成を有し、図14のフローチャートを参照して説明したような簡易符号化処理を行うようにしてもよい。 The coding unit 222 is a processing unit similar to the coding unit 101, and performs the same processing. That is, the coding unit 222 may have a configuration as shown in FIG. 3, for example, and may perform a simple coding process as described with reference to the flowchart of FIG.

第1の実施の形態において説明したように、被写体に合焦している場合は、第1の予測方式の方が第2の予測方式よりも予測精度が高く、被写体に合焦していない場合は、第2の予測方式の方が第1の予測方式よりも予測精度が高い。予測方式設定部221は、全ての候補の予測結果を比較して、より符号化効率の良い予測方式を選択するので、このような合焦の度合いに応じた予測精度の変化にも対応することができる(合焦の度合いに依らず、より符号化効率の良い予測方式を選択することができる)。つまり、符号化部222(符号化部201)は、予測誤差の増大を抑制することができる。 As described in the first embodiment, when the subject is in focus, the first prediction method has higher prediction accuracy than the second prediction method, and the subject is not in focus. The second prediction method has higher prediction accuracy than the first prediction method. Since the prediction method setting unit 221 compares the prediction results of all the candidates and selects a prediction method having better coding efficiency, it can cope with such a change in prediction accuracy according to the degree of focusing. (It is possible to select a prediction method with better coding efficiency regardless of the degree of focusing). That is, the coding unit 222 (coding unit 201) can suppress an increase in the prediction error.

付言するに、予測方式設定部221は、第1の実施の形態の場合のように、復号された撮像画像データに基づく情報(復号された撮像画像データに基づいて設定された予測方式を示す情報)を必要とせずに、予測方式を設定することができる。 In addition, as in the case of the first embodiment, the prediction method setting unit 221 provides information based on the decoded image data (information indicating the prediction method set based on the decoded image data). ) Can be set without the need for a prediction method.

<復号部>
図22は、図19の復号部202の主な構成例を示すブロック図である。図22に示されるように、復号部202は、予測方式設定部231および復号部232を有する。
<Decoding unit>
FIG. 22 is a block diagram showing a main configuration example of the decoding unit 202 of FIG. As shown in FIG. 22, the decoding unit 202 has a prediction method setting unit 231 and a decoding unit 232.

予測方式設定部231は、符号化部201から供給される符号化データを取得する。この符号化データには予測方式情報が付加されている。予測方式設定部231は、取得した符号化データをパースし、予測方式情報を取得する。予測方式設定部231は、その予測方式情報により指定される予測方式(つまり、符号化において適用された予測方式)を復号部232に通知する。 The prediction method setting unit 231 acquires the coded data supplied from the coding unit 201. Prediction method information is added to this coded data. The prediction method setting unit 231 parses the acquired coded data and acquires the prediction method information. The prediction method setting unit 231 notifies the decoding unit 232 of the prediction method specified by the prediction method information (that is, the prediction method applied in the coding).

復号部232は、その通知を受け取り、予測方式設定部231から通知された予測方式を用いて、予測方式設定部231から供給される符号化データを簡易復号し、撮像画像データを生成する。このようにすることにより、復号部232は、符号化において適用された予測方式を復号に適用することができる。復号部232は、生成した撮像画像データを画像処理装置200の外部に出力する。 Upon receiving the notification, the decoding unit 232 simply decodes the coded data supplied from the prediction method setting unit 231 using the prediction method notified from the prediction method setting unit 231 to generate captured image data. By doing so, the decoding unit 232 can apply the prediction method applied in the coding to the decoding. The decoding unit 232 outputs the generated captured image data to the outside of the image processing device 200.

復号部232は、復号部102と同様の処理部であり、同様の処理を行う。つまり、復号部232が、例えば、図4に示されるような構成を有し、図15のフローチャートを参照して説明したような簡易復号処理を行うようにしてもよい。 The decoding unit 232 is a processing unit similar to the decoding unit 102, and performs the same processing. That is, the decoding unit 232 may have a configuration as shown in FIG. 4, for example, and may perform a simple decoding process as described with reference to the flowchart of FIG.

予測方式設定部231が、符号化部201から供給された予測方式情報に基づいて予測方式を設定するので、復号部232は、符号化に適用された予測方式で復号を行うことができる。したがって、復号部232(復号部202)は、合焦の度合いに応じた予測精度の変化にも対応することができ、予測誤差の増大を抑制することができる。 Since the prediction method setting unit 231 sets the prediction method based on the prediction method information supplied from the coding unit 201, the decoding unit 232 can perform decoding by the prediction method applied to the coding. Therefore, the decoding unit 232 (decoding unit 202) can cope with a change in the prediction accuracy according to the degree of focusing, and can suppress an increase in the prediction error.

<画像処理の流れ>
次に、図19の画像処理装置200により実行される画像処理の流れの例を、図23のフローチャートを参照して説明する。
<Flow of image processing>
Next, an example of the flow of image processing executed by the image processing apparatus 200 of FIG. 19 will be described with reference to the flowchart of FIG. 23.

画像処理が開始されると、符号化部201(の予測方式設定部221)および復号部202(の予測方式設定部231)は、図23のステップS201において、符号化・復号に適用する予測方式の設定を初期化する。 When the image processing is started, the coding unit 201 (prediction method setting unit 221) and the decoding unit 202 (prediction method setting unit 231) apply the prediction method to the coding / decoding in step S201 of FIG. Initialize the settings of.

ステップS202において、符号化部201は、符号化処理を実行し、撮像画像データに基づいて予測方式を設定し、その予測方式を用いて撮像画像データを簡易符号化し、撮像画像データの符号化データを生成する。 In step S202, the coding unit 201 executes a coding process, sets a prediction method based on the captured image data, simply encodes the captured image data using the prediction method, and encodes the captured image data. To generate.

ステップS203において、復号部202は、復号処理を実行し、予測方式情報に基づいて予測方式を設定し、その予測方式を用いて、ステップS202において生成された符号化データを簡易復号し、撮像画像データを生成する。 In step S203, the decoding unit 202 executes a decoding process, sets a prediction method based on the prediction method information, and simply decodes the coded data generated in step S202 using the prediction method, and captures an image. Generate data.

ステップS204において、符号化部201は、全フレームを処理したか否かを判定する。未処理のフレームが存在する、すなわち、撮像画像データの新たなフレームが画像処理装置200に入力されると判定された場合、処理はステップS202に戻り、それ以降の処理が繰り返される。 In step S204, the coding unit 201 determines whether or not all the frames have been processed. When it is determined that an unprocessed frame exists, that is, a new frame of captured image data is input to the image processing apparatus 200, the process returns to step S202, and the subsequent processes are repeated.

ステップS202乃至ステップS204の処理が各フレームについて実行され、ステップS204において、入力された撮像画像データの全フレームを処理したと判定された場合、画像処理が終了する。 When the processing of steps S202 to S204 is executed for each frame and it is determined in step S204 that all the frames of the input captured image data have been processed, the image processing ends.

<符号化処理の流れ>
次に、図24のフローチャートを参照して、図23のステップS202において実行される符号化処理の流れの例を説明する。
<Flow of coding process>
Next, an example of the flow of the coding process executed in step S202 of FIG. 23 will be described with reference to the flowchart of FIG. 24.

符号化処理が開始されると、予測方式設定部221は、ステップS211において、撮像画像データに基づいて予測方式を設定する。ステップS212において、符号化部222は、ステップS211において設定された予測方式で、撮像画像データを簡易符号化し、符号化データを生成する。この簡易符号化は、図14のフローチャートを参照して説明した簡易符号化処理と同様である。 When the coding process is started, the prediction method setting unit 221 sets the prediction method based on the captured image data in step S211. In step S212, the coding unit 222 simply encodes the captured image data by the prediction method set in step S211 and generates the coded data. This simple coding is the same as the simple coding process described with reference to the flowchart of FIG.

ステップS213において、符号化部222は、簡易符号化に適用した予測方式を示す予測方式情報を生成し、それをステップS212において生成した符号化データに付加する。ステップS213の処理が終了すると、符号化処理が終了し、処理は図23に戻る。 In step S213, the coding unit 222 generates prediction method information indicating the prediction method applied to the simple coding, and adds it to the coding data generated in step S212. When the process of step S213 is completed, the coding process is completed, and the process returns to FIG. 23.

<復号処理の流れ>
次に、図25のフローチャートを参照して、図23のステップS203において実行される復号処理の流れの例を説明する。
<Flow of decryption process>
Next, an example of the flow of the decoding process executed in step S203 of FIG. 23 will be described with reference to the flowchart of FIG.

復号処理が開始されると、予測方式設定部231は、ステップS221において、符号化データをパースし、予測方式情報を抽出する。ステップS222において、予測方式設定部231は、ステップS221において抽出した予測方式情報に基づいて予測方式を設定する。 When the decoding process is started, the prediction method setting unit 231 parses the coded data and extracts the prediction method information in step S221. In step S222, the prediction method setting unit 231 sets the prediction method based on the prediction method information extracted in step S221.

ステップS223において、復号部232は、ステップS222において設定された予測方式で、符号化データを簡易復号し、撮像画像データを生成する。この簡易復号は、図15のフローチャートを参照して説明した簡易復号処理と同様である。ステップS223の処理が終了すると、復号処理が終了し、処理は図23に戻る。 In step S223, the decoding unit 232 simply decodes the coded data by the prediction method set in step S222 and generates captured image data. This simple decoding is the same as the simple decoding process described with reference to the flowchart of FIG. When the process of step S223 is completed, the decoding process is completed, and the process returns to FIG. 23.

以上のように各処理を実行することにより、符号化・復号における予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号画像の画質の低減を抑制することができる。 By executing each process as described above, it is possible to suppress an increase in prediction error in coding / decoding. As a result, in the case of variable-length coding, it is possible to suppress a decrease in coding efficiency. Further, in the case of fixed-length coding, it is possible to suppress a decrease in the image quality of the decoded image.

<撮像装置>
以上のような「方法2」の本技術は、任意の電子機器に適用することができる。例えば、撮像装置にも適用することができる。図26は、本技術を適用した撮像装置の主な構成例を示すブロック図である。図26に示される撮像装置250は、撮像装置170と同様の装置である。
<Image pickup device>
The present technology of "method 2" as described above can be applied to any electronic device. For example, it can be applied to an image pickup device. FIG. 26 is a block diagram showing a main configuration example of an image pickup apparatus to which the present technology is applied. The image pickup device 250 shown in FIG. 26 is the same device as the image pickup device 170.

図26に示されるように、撮像装置250は、レンズ251、イメージセンサ252、信号処理部253、出力部254、および記憶部255を有する。 As shown in FIG. 26, the image pickup apparatus 250 includes a lens 251, an image sensor 252, a signal processing unit 253, an output unit 254, and a storage unit 255.

レンズ251は、レンズ171と同様の構成を有し、同様に機能する。イメージセンサ252は、イメージセンサ172と同様の処理部である。信号処理部253は、信号処理部173と同様の処理部である。出力部254は、出力部174と同様の処理部である。記憶部255は、記憶部175と同様の処理部である。 The lens 251 has the same configuration as the lens 171 and functions in the same manner. The image sensor 252 is a processing unit similar to the image sensor 172. The signal processing unit 253 is a processing unit similar to the signal processing unit 173. The output unit 254 is a processing unit similar to the output unit 174. The storage unit 255 is a processing unit similar to the storage unit 175.

ただし、イメージセンサ252において行われる簡易符号化に適用される予測方式は、イメージセンサ252において設定され、信号処理部253において行われる簡易復号に適用される予測方式は、イメージセンサ172から供給される予測方式情報に基づいて設定される。 However, the prediction method applied to the simple coding performed in the image sensor 252 is set in the image sensor 252, and the prediction method applied to the simple decoding performed in the signal processing unit 253 is supplied from the image sensor 172. It is set based on the prediction method information.

<イメージセンサ>
イメージセンサ252は、受光部261、ADC262、符号化部201、および送信部263を有する。
<Image sensor>
The image sensor 252 includes a light receiving unit 261 and an ADC 262, an encoding unit 201, and a transmitting unit 263.

受光部261は、受光部181と同様の処理部であり、同様の構成を有し、同様の処理を行う。ADC262は、ADC182と同様の処理部であり、同様の構成を有し、同様の処理を行う。送信部263は、送信部183と同様の処理部であり、同様の構成を有し、同様の処理を行う。 The light receiving unit 261 is a processing unit similar to the light receiving unit 181 and has the same configuration and performs the same processing. The ADC 262 is a processing unit similar to the ADC 182, has a similar configuration, and performs the same processing. The transmission unit 263 is a processing unit similar to the transmission unit 183, has a similar configuration, and performs the same processing.

符号化部201は、ADC262から供給される撮像画像データを取得する。また、符号化部201は、画像処理装置200の場合と同様に、例えば図21に示されるような構成を有し、図24のフローチャートを参照して説明したような符号化処理を行って、撮像画像データから予測方式を設定し、その予測方式を用いて撮像画像データを簡易符号化し、符号化データを生成する。符号化部201は、生成した符号化データを送信部263に供給する。 The coding unit 201 acquires the captured image data supplied from the ADC 262. Further, the coding unit 201 has a configuration as shown in FIG. 21, for example, as in the case of the image processing device 200, and performs coding processing as described with reference to the flowchart of FIG. 24. A prediction method is set from the captured image data, and the captured image data is simply encoded using the prediction method to generate encoded data. The coding unit 201 supplies the generated coded data to the transmission unit 263.

<信号処理部>
信号処理部253は、受信部271、復号部202、位相差検出部272、レンズ制御部273、および画像処理部274を有する。
<Signal processing unit>
The signal processing unit 253 includes a receiving unit 271, a decoding unit 202, a phase difference detection unit 272, a lens control unit 273, and an image processing unit 274.

受信部271は、受信部191と同様の処理部であり、同様の構成を有し、同様の処理を行う。位相差検出部272は、位相差検出部103と同様の処理部であり、同様の構成を有し、同様の処理を行う。レンズ制御部273は、レンズ制御部192と同様の処理部であり、同様の構成を有し、同様の処理を行う。画像処理部274は、画像処理部193と同様の処理部であり、同様の構成を有し、同様の処理を行う。 The receiving unit 271 is a processing unit similar to the receiving unit 191 and has the same configuration and performs the same processing. The phase difference detection unit 272 is a processing unit similar to the phase difference detection unit 103, has a similar configuration, and performs the same processing. The lens control unit 273 is a processing unit similar to the lens control unit 192, has a similar configuration, and performs the same processing. The image processing unit 274 is a processing unit similar to the image processing unit 193, has a similar configuration, and performs the same processing.

復号部202は、受信部271から供給される符号化データを取得する。復号部202は、画像処理装置200の場合と同様に、例えば図22に示されるような構成を有し、図25のフローチャートを参照して説明したような復号処理を行って、符号化データから予測方式情報を抽出し、その予測方式情報に基づいて予測方式を設定し、その予測方式を用いて符号化データを簡易復号し、撮像画像データを生成する。復号部202は、生成した撮像画像データを位相差検出部272および画像処理部274に供給する。 The decoding unit 202 acquires the coded data supplied from the receiving unit 271. Similar to the case of the image processing apparatus 200, the decoding unit 202 has a configuration as shown in FIG. 22, for example, and performs decoding processing as described with reference to the flowchart of FIG. 25 from the coded data. Prediction method information is extracted, a prediction method is set based on the prediction method information, coded data is simply decoded using the prediction method, and captured image data is generated. The decoding unit 202 supplies the generated captured image data to the phase difference detection unit 272 and the image processing unit 274.

以上のように、撮像装置250のイメージセンサ252と信号処理部253との間において、撮像画像データは、簡易符号化されて伝送される。そして、符号化部201および復号部202は、上述のように予測方式を設定し、その予測方式を用いて簡易符号化・簡易復号を行う。 As described above, the captured image data is simply encoded and transmitted between the image sensor 252 of the image pickup apparatus 250 and the signal processing unit 253. Then, the coding unit 201 and the decoding unit 202 set a prediction method as described above, and perform simple coding / simple decoding using the prediction method.

したがって、撮像装置250は、この簡易符号化・簡易復号における予測誤差の増大を抑制することができる。これにより、可変長符号化の場合、符号化効率の低減を抑制することができる。また、固定長符号化の場合、復号画像の画質の低減を抑制することができる。 Therefore, the image pickup apparatus 250 can suppress an increase in prediction error in this simple coding / simple decoding. As a result, in the case of variable-length coding, it is possible to suppress a decrease in coding efficiency. Further, in the case of fixed-length coding, it is possible to suppress a decrease in the image quality of the decoded image.

また、このようにすることにより、例えば、撮像画像データから符号化に適用される予測方式を設定することができる。すなわち、復号画像のフィードバックを必要とせずに、より容易に符号化に適用される予測方式を設定することができる。つまり、この予測方式の設定に関する処理による符号化の負荷の増大を抑制することができる。 Further, by doing so, for example, it is possible to set a prediction method applied to coding from captured image data. That is, it is possible to set a prediction method that is more easily applied to coding without requiring feedback of the decoded image. That is, it is possible to suppress an increase in the coding load due to the processing related to the setting of this prediction method.

<撮像処理の流れ>
この撮像装置250が被写体を撮像するために実行する撮像処理の流れの例を、図27および図28のフローチャートを参照して説明する。
<Flow of imaging process>
An example of the flow of the image pickup process executed by the image pickup apparatus 250 to image a subject will be described with reference to the flowcharts of FIGS. 27 and 28.

撮像処理が開始されると、ステップS241乃至ステップS244の各処理が、図17のステップS151乃至ステップS154の各処理と同様に実行される。 When the imaging process is started, each process of steps S241 to S244 is executed in the same manner as each process of steps S151 to S154 of FIG.

ステップS245において、符号化部201は、図24のフローチャートを参照して説明したように符号化処理を実行し、撮像画像データに基づいて予測方式を設定し、撮像画像データを簡易符号化する。 In step S245, the coding unit 201 executes the coding process as described with reference to the flowchart of FIG. 24, sets the prediction method based on the captured image data, and simply encodes the captured image data.

ステップS246において、送信部263は、ステップS245において生成された、予測方式情報が付加された符号化データを送信する。図28のステップS251において、受信部271は、ステップS246において送信された、予測方式情報が付加された符号化データを受信する。 In step S246, the transmission unit 263 transmits the coded data to which the prediction method information is added, which was generated in step S245. In step S251 of FIG. 28, the receiving unit 271 receives the coded data to which the prediction method information is added, which was transmitted in step S246.

ステップS252において、復号部202は、図25のフローチャートを参照して説明したように復号処理を実行し、符号化データより予測方式情報を抽出し、その予測方式情報に基づいて予測方式を設定し、その予測方式を用いて符号化データを簡易復号し、撮像画像データを生成する。 In step S252, the decoding unit 202 executes the decoding process as described with reference to the flowchart of FIG. 25, extracts the prediction method information from the coded data, and sets the prediction method based on the prediction method information. , The coded data is simply decoded using the prediction method, and the captured image data is generated.

ステップS253乃至ステップS256の各処理が、図18のステップS163、ステップS165乃至ステップS167の各処理と同様に実行される。 Each process of steps S253 to S256 is executed in the same manner as each process of step S163 and steps S165 to S167 of FIG.

ステップS257において、撮像装置250は、撮像処理を終了するか否かを判定する。撮像を継続し、新たなフレーム画像を生成すると判定された場合、処理は、図27のステップS243に戻る。つまり、撮像装置250は、ステップS243乃至ステップS257の各処理をフレーム毎に実行する。例えばユーザ指示等に基づいて、ステップS257において、撮像処理を終了すると判定された場合、撮像処理が終了する。 In step S257, the image pickup apparatus 250 determines whether or not to end the image pickup process. If it is determined that the imaging is continued and a new frame image is generated, the process returns to step S243 in FIG. 27. That is, the image pickup apparatus 250 executes each process of step S243 to step S257 for each frame. For example, if it is determined in step S257 to end the imaging process based on a user instruction or the like, the imaging process ends.

以上のように撮像処理を行うことにより、撮像装置250は、ステップS245の簡易符号化(図27)やステップS252の簡易復号(図28)における予測誤差の増大を抑制することができる。 By performing the image pickup process as described above, the image pickup apparatus 250 can suppress an increase in the prediction error in the simple coding in step S245 (FIG. 27) and the simple decoding in step S252 (FIG. 28).

<4.第3の実施の形態>
<画像処理装置>
本実施の形態においては、「方法2-1」について説明する。図29は、本技術を適用した画像処理装置の構成の一例を示すブロック図である。図29に示される画像処理装置300は、画像処理装置200と同様、入力された撮像画像データを符号化して符号化データを生成し、さらに、その符号化データを復号して撮像画像データを生成し、出力する装置である。そして画像処理装置300は、画像処理装置200と同様、その撮像画像データの符号化・復号における予測方式の制御方法として「方法2」を適用する。ただし、この画像処理装置300は、予測方式情報に基づいて、復号画像の位相差検出用の補助情報(位相差検出補助情報とも称する)を生成し、その位相差検出補助情報を用いて位相差検出を行う。図29に示されるように、この画像処理装置300は、画像処理装置200の構成に加えて、補助情報生成部301、位相差検出部302、およびレンズ制御部303を有する。
<4. Third Embodiment>
<Image processing device>
In this embodiment, "Method 2-1" will be described. FIG. 29 is a block diagram showing an example of the configuration of an image processing apparatus to which the present technology is applied. Similar to the image processing device 200, the image processing device 300 shown in FIG. 29 encodes the input captured image data to generate coded data, and further decodes the coded data to generate captured image data. It is a device that outputs data. Then, like the image processing device 200, the image processing device 300 applies "method 2" as a control method of a prediction method in coding / decoding of the captured image data. However, the image processing apparatus 300 generates auxiliary information for phase difference detection (also referred to as phase difference detection auxiliary information) of the decoded image based on the prediction method information, and the phase difference is detected using the phase difference detection auxiliary information. Perform detection. As shown in FIG. 29, the image processing device 300 has an auxiliary information generation unit 301, a phase difference detection unit 302, and a lens control unit 303 in addition to the configuration of the image processing device 200.

補助情報生成部301は、復号部202から予測方式情報(復号部202が符号化データから抽出した予測方式情報)を取得する。予測方式情報は、符号化・復号に適用された予測方式を示す。そして、この予測方式は上述のように合焦の度合いに応じて設定される。つまり、符号化・復号に適用された予測方式に基づいて、合焦の度合い(被写体に合焦している可能性)を容易に推定することができる。したがって、補助情報生成部301は、予測方式情報に基づいて、合焦の度合い(被写体に合焦している可能性)を示す位相差検出補助情報を生成し、それを位相差検出部302に供給する。 The auxiliary information generation unit 301 acquires the prediction method information (prediction method information extracted from the coded data by the decoding unit 202) from the decoding unit 202. The prediction method information indicates a prediction method applied to coding / decoding. Then, this prediction method is set according to the degree of focusing as described above. That is, the degree of focusing (possibility of focusing on the subject) can be easily estimated based on the prediction method applied to the coding / decoding. Therefore, the auxiliary information generation unit 301 generates phase difference detection auxiliary information indicating the degree of focusing (possibility of focusing on the subject) based on the prediction method information, and outputs the phase difference detection auxiliary information to the phase difference detection unit 302. Supply.

位相差検出部302は、位相差検出部103と同様の処理部であり、復号部202が生成した撮像画像データを用いて位相差を検出し、その位相差検出結果をレンズ制御部303に供給する。ただし、位相差検出部302は、合焦の度合い(被写体に合焦しているか否か)によって検出精度が低減しないようにその合焦の度合いに応じてパラメータを切り替えたり、検出精度が十分な場合は処理を簡略化したりする。位相差検出部302は、そのような制御を、補助情報生成部301から供給される位相差検出補助情報に基づいて行う。つまり、位相差検出部302は、予測方式情報(符号化・復号に適用された予測方式)から推定される合焦の度合いに応じて、位相差検出のパラメータを切り替えたり、処理を簡略化したりする。 The phase difference detection unit 302 is a processing unit similar to the phase difference detection unit 103, detects the phase difference using the captured image data generated by the decoding unit 202, and supplies the phase difference detection result to the lens control unit 303. do. However, the phase difference detection unit 302 switches parameters according to the degree of focusing so that the detection accuracy does not decrease depending on the degree of focusing (whether or not the subject is in focus), and the detection accuracy is sufficient. In some cases, the process is simplified. The phase difference detection unit 302 performs such control based on the phase difference detection auxiliary information supplied from the auxiliary information generation unit 301. That is, the phase difference detection unit 302 switches the phase difference detection parameter or simplifies the process according to the degree of focusing estimated from the prediction method information (prediction method applied to coding / decoding). do.

このようにすることにより、画像処理装置300は、合焦の度合いに依らず位相差検出の精度の低減を抑制することができる。また、検出精度が低減しないように位相差検出処理を簡略化し、その負荷の増大を抑制することができる。 By doing so, the image processing apparatus 300 can suppress a decrease in the accuracy of phase difference detection regardless of the degree of focusing. In addition, the phase difference detection process can be simplified so that the detection accuracy does not decrease, and the increase in the load can be suppressed.

レンズ制御部303は、レンズ制御部192と同様の処理部であり、位相差検出部302から供給される位相差検出結果に基づいて、図示せぬレンズを制御し、合焦位置を制御する。 The lens control unit 303 is a processing unit similar to the lens control unit 192, and controls a lens (not shown) based on the phase difference detection result supplied from the phase difference detection unit 302 to control the in-focus position.

<補助情報生成部>
図30は、図29の補助情報生成部301の主な構成例を示すブロック図である。図30に示されるように、補助情報生成部301は、位相差検出領域統計処理部311および閾値処理部312を有する。
<Auxiliary information generation unit>
FIG. 30 is a block diagram showing a main configuration example of the auxiliary information generation unit 301 of FIG. 29. As shown in FIG. 30, the auxiliary information generation unit 301 has a phase difference detection region statistical processing unit 311 and a threshold value processing unit 312.

予測方式情報は、符号化ブロック毎に生成される。位相差検出領域統計処理部311は、復号部202から供給される、その符号化ブロック単位の予測方式情報を取得する。また、位相差検出領域統計処理部311は、その予測方式情報を用いてフレーム全体の統計処理を行う。例えば、位相差検出領域統計処理部311は、フレーム全体での所定の予測方式の確率を導出する。例えば、位相差検出領域統計処理部311は、フレーム全体において、第2の予測方式が適用された確率(N%)を導出する。位相差検出領域統計処理部311は、その確率を示す情報(予測方式確率とも称する)を閾値処理部312に供給する。 Prediction method information is generated for each coded block. The phase difference detection area statistical processing unit 311 acquires the prediction method information for each coded block supplied from the decoding unit 202. Further, the phase difference detection area statistical processing unit 311 performs statistical processing of the entire frame using the prediction method information. For example, the phase difference detection area statistical processing unit 311 derives the probability of a predetermined prediction method for the entire frame. For example, the phase difference detection region statistical processing unit 311 derives the probability (N%) that the second prediction method is applied in the entire frame. The phase difference detection area statistical processing unit 311 supplies information indicating the probability (also referred to as a prediction method probability) to the threshold value processing unit 312.

閾値処理部312は、位相差検出領域統計処理部311から供給される予測方式確率を取得し、その予測方式確率に基づいて合焦の度合い(被写体に合焦しているか否か)を判定する。この判定の方法は任意である。例えば、閾値処理部312は、予測方式確率の値(N%)を閾値と比較し、その比較結果に基づいて合焦の度合い(被写体に合焦しているか否か)を判定する。例えば、閾値処理部312は、被写体に合焦していない場合に選択される第2の予測方式の確率Nが所定の閾値Th0より大きい場合、被写体に合焦していない(Out Focusの)可能性が大きいと判定する。また、例えば、第2の予測方式の確率Nが所定の閾値Th1(Th0 > Th1)より小さい場合、閾値処理部312は、被写体に合焦している(In Focusの)可能性が大きいと判定する。さらに、例えば、それ以外の場合、すなわち、第2の予測方式の確率Nが閾値Th0以下であり、かつ、閾値Th1以上である場合、閾値処理部312は、合焦の度合いは不明であると判定する。 The threshold value processing unit 312 acquires the prediction method probability supplied from the phase difference detection area statistical processing unit 311, and determines the degree of focusing (whether or not the subject is in focus) based on the prediction method probability. .. The method of this determination is arbitrary. For example, the threshold value processing unit 312 compares the value (N%) of the prediction method probability with the threshold value, and determines the degree of focusing (whether or not the subject is in focus) based on the comparison result. For example, the threshold processing unit 312 may not focus on the subject (out focus) when the probability N of the second prediction method selected when the subject is not in focus is larger than the predetermined threshold Th0. It is judged that the sex is large. Further, for example, when the probability N of the second prediction method is smaller than the predetermined threshold value Th1 (Th0> Th1), the threshold value processing unit 312 determines that there is a high possibility that the subject is in focus (In Focus). do. Further, for example, in other cases, that is, when the probability N of the second prediction method is the threshold value Th0 or less and the threshold value Th1 or more, the threshold value processing unit 312 states that the degree of focusing is unknown. judge.

なお、確率を導出する予測方式は任意であり、第2の予測方式に限定されない。例えば、第1の予測方式であってもよい。 The prediction method for deriving the probability is arbitrary and is not limited to the second prediction method. For example, it may be the first prediction method.

閾値処理部312は、以上のような判定の結果(つまり、判定した合焦の度合い)を示す位相差検出補助情報を生成し、それを位相差検出部302に供給する。 The threshold value processing unit 312 generates phase difference detection auxiliary information indicating the result of the determination as described above (that is, the determined degree of focusing), and supplies it to the phase difference detection unit 302.

<画像処理の流れ>
次に、図29の画像処理装置300により実行される画像処理の流れの例を、図31のフローチャートを参照して説明する。
<Flow of image processing>
Next, an example of the flow of image processing executed by the image processing apparatus 300 of FIG. 29 will be described with reference to the flowchart of FIG.

画像処理が開始されると、ステップS301において、レンズ制御部303は、図示せぬレンズを制御し、合焦位置を初期化する。 When the image processing is started, in step S301, the lens control unit 303 controls a lens (not shown) and initializes the in-focus position.

ステップS302乃至ステップS304の各処理は、図23のステップS201乃至ステップS203の各処理と同様に実行される。 Each process of steps S302 to S304 is executed in the same manner as each process of steps S201 to S203 of FIG.

ステップS305において、補助情報生成部301は、補助情報生成処理を実行し、ステップS304において符号化データから抽出された予測方式情報に基づいて、位相差検出補助情報を生成する。 In step S305, the auxiliary information generation unit 301 executes the auxiliary information generation process, and generates the phase difference detection auxiliary information based on the prediction method information extracted from the coded data in step S304.

ステップS306において、位相差検出部302は、ステップS304において生成された撮像画像データと、ステップS305において生成された位相差検出補助情報とに基づいて、位相差を検出する。 In step S306, the phase difference detection unit 302 detects the phase difference based on the captured image data generated in step S304 and the phase difference detection auxiliary information generated in step S305.

ステップS307において、レンズ制御部303は、ステップS306において生成される位相差検出結果に基づいて、図示せぬレンズを制御し、合焦位置を更新する。 In step S307, the lens control unit 303 controls a lens (not shown) based on the phase difference detection result generated in step S306, and updates the in-focus position.

ステップS308において、符号化部201は、全フレームを処理したか否かを判定する。未処理のフレームが存在する、すなわち、撮像画像データの新たなフレームが画像処理装置100に入力されると判定された場合、処理はステップS303に戻り、それ以降の処理が繰り返される。 In step S308, the coding unit 201 determines whether or not all frames have been processed. When it is determined that an unprocessed frame exists, that is, a new frame of captured image data is input to the image processing apparatus 100, the process returns to step S303, and the subsequent processes are repeated.

ステップS303乃至ステップS308の処理が各フレームについて実行され、ステップS308において、入力された撮像画像データの全フレームを処理したと判定された場合、画像処理が終了する。 When the processing of steps S303 to S308 is executed for each frame and it is determined in step S308 that all the frames of the input captured image data have been processed, the image processing ends.

<補助情報生成処理の流れ>
次に、図32のフローチャートを参照して、図31のステップS305において実行される補助情報生成処理の流れの例を説明する。
<Flow of auxiliary information generation process>
Next, an example of the flow of the auxiliary information generation process executed in step S305 of FIG. 31 will be described with reference to the flowchart of FIG. 32.

補助情報生成処理が開始されると、位相差検出領域統計処理部311は、ステップS321において、予測方式情報に基づいて、統計処理を行い、第2の予測方式が選択された確率を導出する。 When the auxiliary information generation process is started, the phase difference detection area statistical processing unit 311 performs statistical processing based on the prediction method information in step S321, and derives the probability that the second prediction method is selected.

ステップS322において、閾値処理部312は、ステップS321において導出された第2の予測方式の確率を閾値と比較し、合焦の度合い(被写体に合焦している可能性)を判定する。 In step S322, the threshold value processing unit 312 compares the probability of the second prediction method derived in step S321 with the threshold value, and determines the degree of focusing (possibility of focusing on the subject).

ステップS323において、閾値処理部312は、ステップS322において得られた判定結果を位相差検出補助情報として出力する。 In step S323, the threshold value processing unit 312 outputs the determination result obtained in step S322 as phase difference detection auxiliary information.

ステップS323の処理が終了すると、補助情報生成処理が終了し、処理は図31に戻る。 When the process of step S323 is completed, the auxiliary information generation process is completed, and the process returns to FIG. 31.

以上のように各処理を実行することにより、画像処理装置300は、合焦の度合いに依らず位相差検出の精度の低減を抑制することができる。また、検出精度が低減しないように位相差検出処理を簡略化し、その負荷の増大を抑制することができる。 By executing each process as described above, the image processing apparatus 300 can suppress a decrease in the accuracy of phase difference detection regardless of the degree of focusing. In addition, the phase difference detection process can be simplified so that the detection accuracy does not decrease, and the increase in the load can be suppressed.

<撮像装置>
以上のような「方法2-1」の本技術は、任意の電子機器に適用することができる。例えば、撮像装置にも適用することができる。図33は、本技術を適用した撮像装置の主な構成例を示すブロック図である。図33に示される撮像装置350は、撮像装置250と同様の装置である。
<Image pickup device>
The present technology of "Method 2-1" as described above can be applied to any electronic device. For example, it can be applied to an image pickup device. FIG. 33 is a block diagram showing a main configuration example of an image pickup apparatus to which the present technology is applied. The image pickup apparatus 350 shown in FIG. 33 is the same apparatus as the image pickup apparatus 250.

図33に示されるように、撮像装置350は、レンズ351、イメージセンサ352、信号処理部353、出力部354、および記憶部355を有する。 As shown in FIG. 33, the image pickup apparatus 350 includes a lens 351, an image sensor 352, a signal processing unit 353, an output unit 354, and a storage unit 355.

レンズ351は、レンズ251と同様の構成を有し、同様に機能する。イメージセンサ352は、イメージセンサ252と同様の処理部である。信号処理部353は、信号処理部353と同様の処理部である。出力部354は、出力部254と同様の処理部である。記憶部355は、記憶部255と同様の処理部である。 The lens 351 has the same configuration as the lens 251 and functions in the same manner. The image sensor 352 is a processing unit similar to the image sensor 252. The signal processing unit 353 is a processing unit similar to the signal processing unit 353. The output unit 354 is a processing unit similar to the output unit 254. The storage unit 355 is a processing unit similar to the storage unit 255.

ただし、信号処理部353において行われる位相差検出は、撮像画像データと、位相差検出補助情報とを用いて行われる。 However, the phase difference detection performed by the signal processing unit 353 is performed by using the captured image data and the phase difference detection auxiliary information.

<イメージセンサ>
イメージセンサ352は、受光部361、ADC362、符号化部201、および送信部363を有する。
<Image sensor>
The image sensor 352 has a light receiving unit 361, an ADC 362, an encoding unit 201, and a transmitting unit 363.

受光部361は、受光部261と同様の処理部であり、同様の構成を有し、同様の処理を行う。ADC362は、ADC262と同様の処理部であり、同様の構成を有し、同様の処理を行う。符号化部201は、画像処理装置300の場合と同様の処理を行う。送信部363は、送信部263と同様の処理部であり、同様の構成を有し、同様の処理を行う。 The light receiving unit 361 is a processing unit similar to the light receiving unit 261 and has the same configuration and performs the same processing. The ADC 362 is a processing unit similar to the ADC 262, has a similar configuration, and performs the same processing. The coding unit 201 performs the same processing as in the case of the image processing apparatus 300. The transmission unit 363 is a processing unit similar to the transmission unit 263, has a similar configuration, and performs the same processing.

<信号処理部>
信号処理部353は、受信部371、復号部202、補助情報生成部301、位相差検出部302、レンズ制御部303、および画像処理部372を有する。
<Signal processing unit>
The signal processing unit 353 includes a receiving unit 371, a decoding unit 202, an auxiliary information generation unit 301, a phase difference detection unit 302, a lens control unit 303, and an image processing unit 372.

受信部371は、受信部271と同様の処理部であり、同様の構成を有し、同様の処理を行う。画像処理部372は、画像処理部274と同様の処理部であり、同様の構成を有し、同様の処理を行う。 The receiving unit 371 is a processing unit similar to the receiving unit 271, has a similar configuration, and performs the same processing. The image processing unit 372 is a processing unit similar to the image processing unit 274, has a similar configuration, and performs the same processing.

復号部202は、受信部371から供給される符号化データを取得する。復号部202は、画像処理装置300の場合と同様に、例えば図22に示されるような構成を有し、図25のフローチャートを参照して説明したような復号処理を行う。例えば、復号部202は、符号化データから予測方式情報を抽出し、その予測方式情報に基づいて予測方式を設定し、その予測方式を用いて符号化データを簡易復号し、撮像画像データを生成する。復号部202は、生成した撮像画像データを位相差検出部302および画像処理部372に供給する。また、復号部202は、抽出した予測方式情報を補助情報生成部301に供給する。 The decoding unit 202 acquires the coded data supplied from the receiving unit 371. Similar to the case of the image processing apparatus 300, the decoding unit 202 has a configuration as shown in FIG. 22, for example, and performs decoding processing as described with reference to the flowchart of FIG. 25. For example, the decoding unit 202 extracts prediction method information from the coded data, sets a prediction method based on the prediction method information, simply decodes the coded data using the prediction method, and generates captured image data. do. The decoding unit 202 supplies the generated captured image data to the phase difference detection unit 302 and the image processing unit 372. Further, the decoding unit 202 supplies the extracted prediction method information to the auxiliary information generation unit 301.

補助情報生成部301は、画像処理装置300の場合と同様に、図30に示されるような構成を有し、図32のフローチャートを参照して説明したような補助情報生成処理を行う。例えば、補助情報生成部301は、復号部202から供給される予測方式情報を取得し、それに基づいて位相差検出補助情報を生成する。補助情報生成部301は、その位相差検出補助情報を位相差検出部302に供給する。 The auxiliary information generation unit 301 has a configuration as shown in FIG. 30 and performs auxiliary information generation processing as described with reference to the flowchart of FIG. 32, as in the case of the image processing device 300. For example, the auxiliary information generation unit 301 acquires the prediction method information supplied from the decoding unit 202, and generates the phase difference detection auxiliary information based on the prediction method information. The auxiliary information generation unit 301 supplies the phase difference detection auxiliary information to the phase difference detection unit 302.

位相差検出部302は、画像処理装置300の場合と同様の処理を行う。例えば、位相差検出部302は、復号部202から撮像画像データを取得し、補助情報生成部301から位相差検出補助情報を取得する。位相差検出部302は、それらの情報を用いて、位相差の検出を行う。位相差検出部302は、位相差検出結果をレンズ制御部303に供給する。 The phase difference detection unit 302 performs the same processing as in the case of the image processing device 300. For example, the phase difference detection unit 302 acquires captured image data from the decoding unit 202 and acquires phase difference detection auxiliary information from the auxiliary information generation unit 301. The phase difference detection unit 302 detects the phase difference by using the information. The phase difference detection unit 302 supplies the phase difference detection result to the lens control unit 303.

レンズ制御部303は、画像処理装置300の場合と同様の処理を行う。例えば、レンズ制御部303は、位相差検出部302から供給される位相差検出結果に基づいて、レンズ351を制御し、合焦位置を制御する。 The lens control unit 303 performs the same processing as in the case of the image processing device 300. For example, the lens control unit 303 controls the lens 351 and controls the in-focus position based on the phase difference detection result supplied from the phase difference detection unit 302.

このような構成とすることにより、撮像装置350は、画像処理装置300の場合と同様に、合焦の度合いに依らず位相差検出の精度の低減を抑制することができる。また、検出精度が低減しないように位相差検出処理を簡略化し、その負荷の増大を抑制することができる。 With such a configuration, the image pickup apparatus 350 can suppress a decrease in the accuracy of phase difference detection regardless of the degree of focusing, as in the case of the image processing apparatus 300. In addition, the phase difference detection process can be simplified so that the detection accuracy does not decrease, and the increase in the load can be suppressed.

<撮像処理の流れ>
この撮像装置350が被写体を撮像するために実行する撮像処理の流れの例を、図34および図35のフローチャートを参照して説明する。
<Flow of imaging process>
An example of the flow of the image pickup process executed by the image pickup apparatus 350 to image the subject will be described with reference to the flowcharts of FIGS. 34 and 35.

撮像処理が開始されると、図34のステップS341乃至ステップS346の各処理が、図27のステップS241乃至ステップS246の各処理と同様に実行され、処理は図35に進む。そして、図35のステップS351およびステップS352の各処理が、図28のステップS251およびステップS252の各処理と同様に実行される。 When the imaging process is started, each process of steps S341 to S346 of FIG. 34 is executed in the same manner as each process of steps S241 to S246 of FIG. 27, and the process proceeds to FIG. 35. Then, each process of step S351 and step S352 of FIG. 35 is executed in the same manner as each process of step S251 and step S252 of FIG. 28.

ステップS353において、補助情報生成部301は、図32のフローチャートを参照して説明したように補助情報生成処理を実行し、予測方式情報に基づいて位相差検出補助情報を生成する。 In step S353, the auxiliary information generation unit 301 executes the auxiliary information generation process as described with reference to the flowchart of FIG. 32, and generates the phase difference detection auxiliary information based on the prediction method information.

ステップS354において、位相差検出部302は、ステップS352において生成された撮像画像データと、ステップS353において生成された位相差検出補助情報とに基づいて、位相差を検出する。 In step S354, the phase difference detection unit 302 detects the phase difference based on the captured image data generated in step S352 and the phase difference detection auxiliary information generated in step S353.

ステップS355乃至ステップS357の各処理は、図28のステップS254乃至ステップS256の各処理と同様に実行される。 Each process of steps S355 to S357 is executed in the same manner as each process of steps S254 to S256 of FIG. 28.

ステップS358において、撮像装置350は、撮像処理を終了するか否かを判定する。撮像を継続し、新たなフレーム画像を生成すると判定された場合、処理は、図34のステップS343に戻る。つまり、撮像装置350は、ステップS343乃至ステップS358の各処理をフレーム毎に実行する。例えばユーザ指示等に基づいて、ステップS358において、撮像処理を終了すると判定された場合、撮像処理が終了する。 In step S358, the image pickup apparatus 350 determines whether or not to end the image pickup process. If it is determined that the imaging is continued and a new frame image is generated, the process returns to step S343 in FIG. That is, the image pickup apparatus 350 executes each process of step S343 to step S358 for each frame. For example, if it is determined in step S358 to end the image pickup process based on a user instruction or the like, the image pickup process ends.

以上のように撮像処理を行うことにより、撮像装置350は、ステップS345の簡易符号化(図34)やステップS352の簡易復号(図35)における予測誤差の増大を抑制することができる。また、撮像装置350は、合焦の度合いに依らず位相差検出の精度の低減を抑制することができる。また、検出精度が低減しないように位相差検出処理を簡略化し、その負荷の増大を抑制することができる。 By performing the image pickup process as described above, the image pickup apparatus 350 can suppress an increase in the prediction error in the simple coding in step S345 (FIG. 34) and the simple decoding in step S352 (FIG. 35). Further, the image pickup apparatus 350 can suppress a decrease in the accuracy of phase difference detection regardless of the degree of focusing. In addition, the phase difference detection process can be simplified so that the detection accuracy does not decrease, and the increase in the load can be suppressed.

<5.第4の実施の形態>
<画像処理装置>
本実施の形態においては、「方法3」について説明する。図36は、本技術を適用した画像処理装置の構成の一例を示すブロック図である。図36に示される画像処理装置400は、画像処理装置200と同様、入力された撮像画像データを符号化して符号化データを生成し、さらに、その符号化データを復号して撮像画像データを生成し、出力する装置である。そして画像処理装置400は、画像処理装置200と同様、その撮像画像データの符号化・復号における予測方式の制御方法として「方法2」を適用する。ただし、この画像処理装置400は、符号化・復号の誤差情報を導出し、その誤差情報に基づいて、復号画像の位相差検出結果の信頼度を表す位相差検出結果信頼度情報を生成し、その位相差検出結果信頼度情報を用いて位相差検出を行う。
<5. Fourth Embodiment>
<Image processing device>
In the present embodiment, "method 3" will be described. FIG. 36 is a block diagram showing an example of the configuration of an image processing apparatus to which the present technology is applied. Similar to the image processing device 200, the image processing device 400 shown in FIG. 36 encodes the input captured image data to generate coded data, and further decodes the coded data to generate captured image data. It is a device that outputs data. Then, like the image processing device 200, the image processing device 400 applies "method 2" as a control method of a prediction method in coding / decoding of the captured image data. However, the image processing apparatus 400 derives the coding / decoding error information, and based on the error information, generates the phase difference detection result reliability information indicating the reliability of the phase difference detection result of the decoded image. Phase difference detection is performed using the phase difference detection result reliability information.

図36に示されるように、この画像処理装置400は、画像処理装置200の構成に加えて、信頼度情報生成部401、位相差検出部402、およびレンズ制御部403を有する。 As shown in FIG. 36, the image processing device 400 has a reliability information generation unit 401, a phase difference detection unit 402, and a lens control unit 403 in addition to the configuration of the image processing device 200.

復号部202は、符号化データより予測方式情報を抽出し、その予測方式情報に基づいて予測方式を設定し、その予測方式を用いて符号化データを復号する。この場合、復号部202は、さらに誤差情報を導出する。 The decoding unit 202 extracts the prediction method information from the coded data, sets the prediction method based on the prediction method information, and decodes the coded data using the prediction method. In this case, the decoding unit 202 further derives the error information.

誤差情報は、符号化・復号により損失(ロス)するビット量を示す情報である。例えば、図37において、各四角はビットを示し、図中縦方向の位置はビット深度(bit depth)を示し、図中横方向の位置は画素位置(horizontal position)を示す。つまり、四角の図中縦方向の並び(列)が画素値のビット列を示す。 The error information is information indicating the amount of bits lost due to coding / decoding. For example, in FIG. 37, each square indicates a bit, a vertical position in the figure indicates a bit depth, and a horizontal position in the figure indicates a pixel position (horizontal position). That is, the vertical arrangement (column) in the figure of the square indicates the bit string of the pixel value.

簡易符号化・簡易復号は左の列(画素値)から順に処理される。上述したように、簡易符号化においては例えばビット列の一部がDPCM処理される。図37の例の場合、上位5ビットがDPCM処理される。ただし、最初に処理される一番左の画素値は、PCM処理され、そのまま出力される(0との差分値が予測誤差として出力される)。DPCM処理(またはPCM処理)により導出された予測誤差は、ゴロム符号化される。そして、適宜、リファインメントとして数ビットが付加される。図37の例の場合、各画素値において、1ビットまたは2ビットがリファインメントとして付加されている。つまり、符号化データは、以上のビットについての情報が含まれる。簡易復号においては、これらの逆処理が行われ、これらのビットの値が復元される。 Simple coding / decoding is processed in order from the left column (pixel value). As described above, in the simple coding, for example, a part of the bit string is DPCM processed. In the case of the example of FIG. 37, the upper 5 bits are DPCM processed. However, the leftmost pixel value processed first is PCM processed and output as it is (the difference value from 0 is output as a prediction error). The prediction error derived by DPCM processing (or PCM processing) is Golomb-coded. Then, several bits are added as refinement as appropriate. In the case of the example of FIG. 37, 1 bit or 2 bits are added as a refinement in each pixel value. That is, the coded data includes information about the above bits. In simple decoding, these reverse processes are performed and the values of these bits are restored.

換言するに、残りのビット(図37の例の場合、白色の四角で示される未符号化bit)は伝送されず、損失(ロス)する。図37の例の場合、各画素において3ビットまたは4ビットを損失している(bitloss)。 In other words, the remaining bits (in the case of the example of FIG. 37, the uncoded bits represented by the white squares) are not transmitted and are lost. In the case of the example of FIG. 37, 3 bits or 4 bits are lost in each pixel (bit loss).

誤差情報は、このビット量を示す情報であり、例えば、符号化ブロック毎に生成される。つまり、復号部202は、損失したビット量(bitloss)を、符号化ブロック毎に集計し(例えば、合計値または平均値等を算出し)、それを誤差情報として信頼度情報生成部401に供給する。なお、誤差情報を生成するデータ単位は任意である。例えば、画素単位の情報としてもよい。 The error information is information indicating this bit amount, and is generated for each coded block, for example. That is, the decoding unit 202 aggregates the lost bit amount (bitloss) for each coded block (for example, calculates the total value or the average value), and supplies it to the reliability information generation unit 401 as error information. do. The data unit for generating the error information is arbitrary. For example, it may be information on a pixel-by-pixel basis.

信頼度情報生成部401は、復号部202からその誤差情報を取得する。誤差情報の値が大きい程、簡易符号化・簡易復号によるビットの損失量が大きい。ビットの損失量が大きい程、撮像画像データにおける情報損失量が大きく、位相差検出の精度が低減する可能性が高い。つまり、誤差情報の値が大きい領域程、位相差検出結果の信頼度が低減する。 The reliability information generation unit 401 acquires the error information from the decoding unit 202. The larger the value of the error information, the larger the amount of bit loss due to simple coding / decoding. The larger the bit loss amount, the larger the amount of information loss in the captured image data, and the higher the possibility that the accuracy of phase difference detection will decrease. That is, the larger the value of the error information, the lower the reliability of the phase difference detection result.

そこで、信頼度情報生成部401は、取得した誤差情報に基づいて、位相差検出結果の信頼度を判定し、位相差検出結果の信頼度を示す位相差検出結果信頼度情報を生成し、それを位相差検出部402に供給する。なお、信頼度情報生成部401は、この位相差検出結果信頼度情報を、位相差検出の処理単位となる領域(位相差検出領域とも称する)毎に導出する。 Therefore, the reliability information generation unit 401 determines the reliability of the phase difference detection result based on the acquired error information, generates the phase difference detection result reliability information indicating the reliability of the phase difference detection result, and generates the phase difference detection result reliability information. Is supplied to the phase difference detection unit 402. The reliability information generation unit 401 derives the phase difference detection result reliability information for each region (also referred to as a phase difference detection region) that is a processing unit for phase difference detection.

位相差検出部402は、位相差検出部103と同様の処理部であり、復号部202が生成した撮像画像データを用いて位相差を検出し、その位相差検出結果をレンズ制御部403に供給する。ただし、位相差検出部402は、信頼度情報生成部401から供給される位相差検出結果信頼度情報を取得し、その位相差検出結果信頼度情報も考慮して位相差の検出を行う。つまり、位相差検出部402は、撮像画像データおよび位相差検出結果信頼度情報(つまり誤差情報)に基づいて位相差の検出を行う。 The phase difference detection unit 402 is a processing unit similar to the phase difference detection unit 103, detects the phase difference using the captured image data generated by the decoding unit 202, and supplies the phase difference detection result to the lens control unit 403. do. However, the phase difference detection unit 402 acquires the phase difference detection result reliability information supplied from the reliability information generation unit 401, and detects the phase difference in consideration of the phase difference detection result reliability information. That is, the phase difference detection unit 402 detects the phase difference based on the captured image data and the phase difference detection result reliability information (that is, error information).

例えば、位相差検出部402は、位相差検出結果信頼度情報において、信頼度が十分に低いと判定された位相差検出領域を、位相差検出の対象から除外する。換言するに、位相差検出部402は、位相差検出結果信頼度情報において、信頼度が十分に高いと判定された位相差検出領域の画素値を用いて位相差の検出を行う。 For example, the phase difference detection unit 402 excludes the phase difference detection region determined to have a sufficiently low reliability in the phase difference detection result reliability information from the target of the phase difference detection. In other words, the phase difference detection unit 402 detects the phase difference by using the pixel value of the phase difference detection region determined to have sufficiently high reliability in the phase difference detection result reliability information.

このようにすることにより、位相差検出部402は、位相差検出の精度の低減を抑制することができる(典型的には、より正確に位相差を検出することができる)。 By doing so, the phase difference detection unit 402 can suppress a decrease in the accuracy of the phase difference detection (typically, the phase difference can be detected more accurately).

<信頼度情報生成部>
図38は、図36の信頼度情報生成部401の主な構成例を示すブロック図である。図38に示されるように、信頼度情報生成部401は、積算部411および閾値処理部412を有する。
<Reliability information generation unit>
FIG. 38 is a block diagram showing a main configuration example of the reliability information generation unit 401 of FIG. As shown in FIG. 38, the reliability information generation unit 401 has an integration unit 411 and a threshold value processing unit 412.

積算部411は、復号部202から供給される誤差情報を取得し、その誤差情報を積算し、位相差検出領域毎の積算値を導出する。積算部411は、導出した位相差検出領域毎の積算値を閾値処理部412に供給する。 The integrating unit 411 acquires the error information supplied from the decoding unit 202, integrates the error information, and derives the integrated value for each phase difference detection region. The integration unit 411 supplies the derived integrated value for each phase difference detection region to the threshold value processing unit 412.

閾値処理部412は、積算部411から供給される積算値を取得し、その積算値と閾値とを比較することにより、その積算値に対応する位相差検出領域における位相差検出結果の信頼度を判定する。例えば、閾値処理部412は、各位相差検出領域について、位相差検出結果が十分に信頼できるか否かを判定する。閾値処理部412は、その判定結果を示す位相差検出結果信頼度情報を生成し、それを位相差検出部402に供給する。 The threshold value processing unit 412 acquires the integrated value supplied from the integrating unit 411 and compares the integrated value with the threshold value to determine the reliability of the phase difference detection result in the phase difference detection region corresponding to the integrated value. judge. For example, the threshold value processing unit 412 determines whether or not the phase difference detection result is sufficiently reliable for each phase difference detection region. The threshold value processing unit 412 generates phase difference detection result reliability information indicating the determination result, and supplies it to the phase difference detection unit 402.

位相差検出部402は、このような位相差検出結果信頼度情報に基づいて、例えば、図39に示されるように、位相差検出結果の信頼度が十分に低い位相差検出領域を特定し、その領域を位相差検出の対象から除外する。図39の例の場合、数字等が付された各四角は位相差検出領域を示す。そのうち「×」が付された四角が、位相差検出結果信頼度情報(つまり誤差情報)に基づいて、位相差検出結果の信頼度が十分に低いと判定された位相差検出領域を示す。位相差検出部402は、このような領域を対象から除外して、位相差検出を行う(つまり、その他の領域において位相差検出を行う)。 Based on such phase difference detection result reliability information, the phase difference detection unit 402 identifies, for example, a phase difference detection region in which the reliability of the phase difference detection result is sufficiently low, as shown in FIG. 39. The area is excluded from the target of phase difference detection. In the case of the example of FIG. 39, each square with a number or the like indicates a phase difference detection region. The square with "x" indicates the phase difference detection region in which the reliability of the phase difference detection result is determined to be sufficiently low based on the phase difference detection result reliability information (that is, error information). The phase difference detection unit 402 excludes such a region from the target and performs phase difference detection (that is, phase difference detection is performed in other regions).

なお、図39において、白い部分は、画素値がフラットな領域(フラット領域)であり、このような領域も位相差検出が困難であるので、位相差検出の対象から除外される。また、図中、濃いグレーで示される四角は、位相差検出結果が不正確であった位相差検出領域を示す。つまり、位相差検出部402は、上述のように位相差検出結果の信頼度が低い領域を対象から除外することにより、このような位相差検出結果が不正確となる領域を対象から除外することができる。したがって、位相差検出部402は、フラット領域を除外するのみの場合よりも正確な位相差検出を行うことができる。 In FIG. 39, the white portion is a region where the pixel value is flat (flat region), and such a region is also excluded from the target of phase difference detection because it is difficult to detect the phase difference. Further, in the figure, the squares shown in dark gray indicate the phase difference detection region where the phase difference detection result was inaccurate. That is, the phase difference detection unit 402 excludes the region where the reliability of the phase difference detection result is low from the target as described above, thereby excluding the region where the phase difference detection result is inaccurate from the target. Can be done. Therefore, the phase difference detection unit 402 can perform more accurate phase difference detection than the case where only the flat region is excluded.

<画像処理の流れ>
次に、図36の画像処理装置400により実行される画像処理の流れの例を、図40のフローチャートを参照して説明する。
<Flow of image processing>
Next, an example of the flow of image processing executed by the image processing apparatus 400 of FIG. 36 will be described with reference to the flowchart of FIG. 40.

画像処理が開始されると、ステップS401乃至ステップS404の各処理が、ステップS301乃至ステップS304の各処理と同様に実行される。 When the image processing is started, the processing of steps S401 to S404 is executed in the same manner as the processing of steps S301 to S304.

ステップS405において、復号部202は、ステップS404において生成した撮像画像データに基づいて損失したビット量を算出し、誤差情報を生成する。 In step S405, the decoding unit 202 calculates the amount of lost bits based on the captured image data generated in step S404, and generates error information.

ステップS406において、信頼度情報生成部401は、信頼度情報生成処理を実行し、ステップS405において導出された誤差情報に基づいて位相差検出結果信頼度情報を生成する。 In step S406, the reliability information generation unit 401 executes the reliability information generation process and generates the phase difference detection result reliability information based on the error information derived in step S405.

ステップS407において、位相差検出部302は、ステップS404において生成された撮像画像データと、ステップS406において生成された位相差検出結果信頼度情報とに基づいて、位相差を検出する。 In step S407, the phase difference detection unit 302 detects the phase difference based on the captured image data generated in step S404 and the phase difference detection result reliability information generated in step S406.

ステップS408において、レンズ制御部403は、ステップS407において生成される位相差検出結果に基づいて、図示せぬレンズを制御し、合焦位置を更新する。 In step S408, the lens control unit 403 controls a lens (not shown) based on the phase difference detection result generated in step S407, and updates the in-focus position.

ステップS409において、符号化部201は、全フレームを処理したか否かを判定する。未処理のフレームが存在する、すなわち、撮像画像データの新たなフレームが画像処理装置100に入力されると判定された場合、処理はステップS403に戻り、それ以降の処理が繰り返される。 In step S409, the coding unit 201 determines whether or not all the frames have been processed. When it is determined that an unprocessed frame exists, that is, a new frame of captured image data is input to the image processing apparatus 100, the process returns to step S403, and the subsequent processes are repeated.

ステップS403乃至ステップS409の処理が各フレームについて実行され、ステップS409において、入力された撮像画像データの全フレームを処理したと判定された場合、画像処理が終了する。 When the processing of steps S403 to S409 is executed for each frame and it is determined in step S409 that all the frames of the input captured image data have been processed, the image processing ends.

<信頼度情報生成処理の流れ>
次に、図41のフローチャートを参照して、図40のステップS406において実行される信頼度情報生成処理の流れの例を説明する。
<Flow of reliability information generation process>
Next, an example of the flow of the reliability information generation process executed in step S406 of FIG. 40 will be described with reference to the flowchart of FIG. 41.

信頼度情報生成処理が開始されると、積算部411は、ステップS421において、ステップS405において導出された誤差情報を位相差検出領域毎に積算し、位相差検出領域毎の積算値を導出する。 When the reliability information generation process is started, the integration unit 411 integrates the error information derived in step S405 in each phase difference detection region in step S421, and derives the integrated value for each phase difference detection region.

ステップS422において、閾値処理部412は、ステップS421において導出された各位相差検出領域の誤差情報の積算値を閾値と比較し、その領域を位相差検出の対象から除外するか否かを判定する。 In step S422, the threshold value processing unit 412 compares the integrated value of the error information of each phase difference detection region derived in step S421 with the threshold value, and determines whether or not to exclude that region from the target of phase difference detection.

ステップS423において、閾値処理部412は、ステップS422において求めた判定結果を示す位相差検出結果信頼度情報を生成し、それを出力する(つまり、位相差検出部402に供給する)。ステップS423の処理が終了すると、信頼度情報生成処理が終了し、処理は図40に戻る。 In step S423, the threshold value processing unit 412 generates phase difference detection result reliability information indicating the determination result obtained in step S422 and outputs it (that is, supplies it to the phase difference detection unit 402). When the process of step S423 is completed, the reliability information generation process is completed, and the process returns to FIG. 40.

以上のように各処理を実行することにより、画像処理装置400は、位相差検出の精度の低減を抑制することができる(典型的には、より正確に位相差を検出することができる)。 By executing each process as described above, the image processing apparatus 400 can suppress a decrease in the accuracy of the phase difference detection (typically, the phase difference can be detected more accurately).

<撮像装置>
以上のような「方法3」の本技術は、任意の電子機器に適用することができる。例えば、撮像装置にも適用することができる。図42は、本技術を適用した撮像装置の主な構成例を示すブロック図である。図42に示される撮像装置450は、撮像装置250と同様の装置である。
<Image pickup device>
The present technology of "Method 3" as described above can be applied to any electronic device. For example, it can be applied to an image pickup device. FIG. 42 is a block diagram showing a main configuration example of an image pickup apparatus to which the present technology is applied. The image pickup apparatus 450 shown in FIG. 42 is the same apparatus as the image pickup apparatus 250.

図42に示されるように、撮像装置450は、レンズ451、イメージセンサ452、信号処理部453、出力部454、および記憶部455を有する。 As shown in FIG. 42, the image pickup apparatus 450 includes a lens 451, an image sensor 452, a signal processing unit 453, an output unit 454, and a storage unit 455.

レンズ351は、レンズ251と同様の構成を有し、同様に機能する。イメージセンサ352は、イメージセンサ252と同様の処理部である。信号処理部353は、信号処理部353と同様の処理部である。出力部354は、出力部254と同様の処理部である。記憶部355は、記憶部255と同様の処理部である。 The lens 351 has the same configuration as the lens 251 and functions in the same manner. The image sensor 352 is a processing unit similar to the image sensor 252. The signal processing unit 353 is a processing unit similar to the signal processing unit 353. The output unit 354 is a processing unit similar to the output unit 254. The storage unit 355 is a processing unit similar to the storage unit 255.

ただし、信号処理部353において行われる位相差検出は、撮像画像データと、位相差検出補助情報とを用いて行われる。 However, the phase difference detection performed by the signal processing unit 353 is performed by using the captured image data and the phase difference detection auxiliary information.

<イメージセンサ>
イメージセンサ452は、受光部461、ADC462、符号化部201、および送信部463を有する。
<Image sensor>
The image sensor 452 has a light receiving unit 461, an ADC 462, an encoding unit 201, and a transmitting unit 463.

受光部461は、受光部361と同様の処理部であり、同様の構成を有し、同様の処理を行う。ADC462は、ADC362と同様の処理部であり、同様の構成を有し、同様の処理を行う。符号化部201は、画像処理装置400の場合と同様の処理を行う。送信部463は、送信部363と同様の処理部であり、同様の構成を有し、同様の処理を行う。 The light receiving unit 461 is a processing unit similar to the light receiving unit 361, has a similar configuration, and performs the same processing. The ADC 462 is a processing unit similar to the ADC 362, has a similar configuration, and performs the same processing. The coding unit 201 performs the same processing as in the case of the image processing apparatus 400. The transmission unit 463 is a processing unit similar to the transmission unit 363, has a similar configuration, and performs the same processing.

<信号処理部>
信号処理部453は、受信部471、復号部202、信頼度情報生成部401、位相差検出部402、レンズ制御部403、および画像処理部472を有する。
<Signal processing unit>
The signal processing unit 453 includes a receiving unit 471, a decoding unit 202, a reliability information generation unit 401, a phase difference detection unit 402, a lens control unit 403, and an image processing unit 472.

受信部471は、受信部371と同様の処理部であり、同様の構成を有し、同様の処理を行う。画像処理部472は、画像処理部372と同様の処理部であり、同様の構成を有し、同様の処理を行う。レンズ制御部403は、レンズ制御部303と同様の処理部であり、同様の構成を有し、同様の処理を行う。 The receiving unit 471 is a processing unit similar to the receiving unit 371, has a similar configuration, and performs the same processing. The image processing unit 472 is a processing unit similar to the image processing unit 372, has a similar configuration, and performs the same processing. The lens control unit 403 is a processing unit similar to the lens control unit 303, has a similar configuration, and performs the same processing.

復号部202は、受信部471から供給される符号化データを取得する。復号部202は、画像処理装置400の場合と同様に、例えば図22に示されるような構成を有し、図25のフローチャートを参照して説明したような復号処理を行う。例えば、復号部202は、符号化データから予測方式情報を抽出し、その予測方式情報に基づいて予測方式を設定し、その予測方式を用いて符号化データを簡易復号し、撮像画像データを生成する。復号部202は、生成した撮像画像データを位相差検出部402および画像処理部472に供給する。また、復号部202は、生成した撮像画像データに基づいて誤差情報を導出する。復号部202は、その誤差情報を信頼度情報生成部401に供給する。 The decoding unit 202 acquires the coded data supplied from the receiving unit 471. Similar to the case of the image processing apparatus 400, the decoding unit 202 has a configuration as shown in FIG. 22, for example, and performs decoding processing as described with reference to the flowchart of FIG. 25. For example, the decoding unit 202 extracts prediction method information from the coded data, sets a prediction method based on the prediction method information, simply decodes the coded data using the prediction method, and generates captured image data. do. The decoding unit 202 supplies the generated captured image data to the phase difference detection unit 402 and the image processing unit 472. Further, the decoding unit 202 derives error information based on the generated captured image data. The decoding unit 202 supplies the error information to the reliability information generation unit 401.

信頼度情報生成部401は、画像処理装置400の場合と同様に、図38に示されるような構成を有し、図41のフローチャートを参照して説明したような信頼度情報生成処理を行う。例えば、信頼度情報生成部401は、復号部202から供給される誤差情報を取得し、その積算値を位相差検出領域毎に導出し、その積算値に基づいて位相差検出結果の信頼度を判定し、位相差検出結果信頼度情報を生成する。信頼度情報生成部401は、その位相差検出結果信頼度情報を位相差検出部402に供給する。 Similar to the case of the image processing apparatus 400, the reliability information generation unit 401 has a configuration as shown in FIG. 38, and performs reliability information generation processing as described with reference to the flowchart of FIG. 41. For example, the reliability information generation unit 401 acquires the error information supplied from the decoding unit 202, derives the integrated value for each phase difference detection region, and determines the reliability of the phase difference detection result based on the integrated value. Judgment is made and phase difference detection result reliability information is generated. The reliability information generation unit 401 supplies the phase difference detection result reliability information to the phase difference detection unit 402.

位相差検出部402は、画像処理装置400の場合と同様の処理を行う。例えば、位相差検出部402は、復号部202から撮像画像データを取得し、信頼度情報生成部401から位相差検出結果信頼度情報を取得する。位相差検出部402は、それらの情報を用いて、位相差の検出を行う。位相差検出部402は、位相差検出結果をレンズ制御部403に供給する。 The phase difference detection unit 402 performs the same processing as in the case of the image processing device 400. For example, the phase difference detection unit 402 acquires captured image data from the decoding unit 202, and acquires phase difference detection result reliability information from the reliability information generation unit 401. The phase difference detection unit 402 detects the phase difference by using the information. The phase difference detection unit 402 supplies the phase difference detection result to the lens control unit 403.

このような構成とすることにより、撮像装置450は、画像処理装置400の場合と同様に、位相差検出の精度の低減を抑制することができる(典型的には、より正確に位相差を検出することができる)。 With such a configuration, the image pickup apparatus 450 can suppress a decrease in the accuracy of the phase difference detection as in the case of the image processing apparatus 400 (typically, the phase difference is detected more accurately). can do).

<撮像処理の流れ>
この撮像装置450が被写体を撮像するために実行する撮像処理の流れの例を、図43および図44のフローチャートを参照して説明する。
<Flow of imaging process>
An example of the flow of the image pickup process executed by the image pickup apparatus 450 to image a subject will be described with reference to the flowcharts of FIGS. 43 and 44.

撮像処理が開始されると、図43のステップS441乃至ステップS446の各処理が、図34のステップS341乃至ステップS346の各処理と同様に実行され、処理は図44に進む。そして、図44のステップS451およびステップS452の各処理が、図35のステップS351およびステップS352の各処理と同様に実行される。 When the imaging process is started, each process of steps S441 to S446 in FIG. 43 is executed in the same manner as each process of steps S341 to S346 of FIG. 34, and the process proceeds to FIG. 44. Then, each process of step S451 and step S452 of FIG. 44 is executed in the same manner as each process of step S351 and step S352 of FIG. 35.

ステップS453において、復号部202は、ステップS452において生成した撮像画像データに基づいて誤差情報を導出する。 In step S453, the decoding unit 202 derives error information based on the captured image data generated in step S452.

ステップS454において、信頼度情報生成部401は、図41のフローチャートを参照して説明したように信頼度情報生成処理を実行し、誤差情報に基づいて位相差検出結果信頼度情報を生成する。 In step S454, the reliability information generation unit 401 executes the reliability information generation process as described with reference to the flowchart of FIG. 41, and generates the phase difference detection result reliability information based on the error information.

ステップS455において、位相差検出部402は、ステップS452において生成された撮像画像データと、ステップS454において生成された位相差検出結果信頼度情報とに基づいて、位相差を検出する。 In step S455, the phase difference detection unit 402 detects the phase difference based on the captured image data generated in step S452 and the phase difference detection result reliability information generated in step S454.

ステップS456乃至ステップS458の各処理は、図35のステップS355乃至ステップS357の各処理と同様に実行される。 Each process of steps S456 to S458 is executed in the same manner as each process of steps S355 to S357 of FIG. 35.

ステップS459において、撮像装置450は、撮像処理を終了するか否かを判定する。撮像を継続し、新たなフレーム画像を生成すると判定された場合、処理は、図43のステップS443に戻る。つまり、撮像装置450は、ステップS443乃至ステップS459の各処理をフレーム毎に実行する。例えばユーザ指示等に基づいて、ステップS459において、撮像処理を終了すると判定された場合、撮像処理が終了する。 In step S459, the image pickup apparatus 450 determines whether or not to end the image pickup process. If it is determined that the imaging is continued and a new frame image is generated, the process returns to step S443 in FIG. 43. That is, the image pickup apparatus 450 executes each process of steps S443 to S459 for each frame. For example, if it is determined in step S459 that the imaging process is to be completed based on a user instruction or the like, the imaging process is terminated.

以上のように撮像処理を行うことにより、撮像装置450は、ステップS445の簡易符号化(図43)やステップS452の簡易復号(図44)における予測誤差の増大を抑制することができる。また、撮像装置450は、位相差検出の精度の低減を抑制することができる(典型的には、より正確に位相差を検出することができる)。 By performing the image pickup process as described above, the image pickup apparatus 450 can suppress an increase in prediction error in the simple coding in step S445 (FIG. 43) and the simple decoding in step S452 (FIG. 44). Further, the image pickup apparatus 450 can suppress a decrease in the accuracy of the phase difference detection (typically, the phase difference can be detected more accurately).

<その他>
なお、上述した「方法3」において、簡易符号化・簡易復号の方法は任意である。この「方法3」は、上述のように「方法2」に適用することもできるし、「方法1」に適用することもできる。また、それら以外の簡易符号化・簡易復号の方法に適用することもできる。
<Others>
In the above-mentioned "method 3", the simple coding / simple decoding method is arbitrary. This "method 3" can be applied to "method 2" as described above, or can be applied to "method 1". It can also be applied to other simple coding / decoding methods.

さらに、この「方法3」は、上述の「方法2-1」と併用することもできる。つまり、位相差検出部が、撮像画像データ、位相差検出補助情報、および位相差検出結果信頼度情報に基づいて位相差を検出するようにしてもよい。 Furthermore, this "method 3" can also be used in combination with the above-mentioned "method 2-1". That is, the phase difference detection unit may detect the phase difference based on the captured image data, the phase difference detection auxiliary information, and the phase difference detection result reliability information.

<6.第5の実施の形態>
<適用例:撮像素子>
以上においては、各実施の形態において説明した本技術を撮像装置に適用する例を説明したが、本技術は任意のデバイスに適用することができる。例えば、本技術は、撮像素子にも適用することができる。図45は、本技術を適用した撮像素子である積層型イメージセンサの主な構成例を示すブロック図である。図45に示される積層型イメージセンサ500は、被写体を撮像し、撮像画像のデジタルデータ(画像データ)を得て、その画像データを出力するイメージセンサ(撮像素子)である。
<6. Fifth Embodiment>
<Application example: Image sensor>
In the above, an example of applying the present technology described in each embodiment to an image pickup apparatus has been described, but the present technology can be applied to any device. For example, this technique can also be applied to an image pickup device. FIG. 45 is a block diagram showing a main configuration example of a stacked image sensor, which is an image pickup device to which the present technology is applied. The stacked image sensor 500 shown in FIG. 45 is an image sensor (image sensor) that captures a subject, obtains digital data (image data) of the captured image, and outputs the image data.

図45に示されるように、積層型イメージセンサ500は、半導体基板501乃至半導体基板503の3枚の半導体基板を有する。これらの半導体基板は、互いに重畳された状態で封止され、モジュール化(一体化)されている。つまり、これらの半導体基板は、多層構造(積層構造)を形成する。半導体基板501乃至半導体基板503には、それぞれ、電子回路が形成されており、各半導体基板に形成される回路は、ビア(VIA)等により互いに接続されている。各半導体基板(に形成される回路)間の経路をバスとも称する。例えば、半導体基板501の回路と半導体基板502の回路は、バス511を介してデータ等の授受を行うことができる。また、半導体基板502の回路と半導体基板503の回路は、バス512を介してデータ等の授受を行うことができる。 As shown in FIG. 45, the laminated image sensor 500 has three semiconductor substrates, a semiconductor substrate 501 to a semiconductor substrate 503. These semiconductor substrates are sealed in a state of being superimposed on each other and modularized (integrated). That is, these semiconductor substrates form a multilayer structure (laminated structure). Electronic circuits are formed on the semiconductor substrates 501 to 503, respectively, and the circuits formed on the semiconductor substrates are connected to each other by vias (VIA) or the like. The path between each semiconductor substrate (circuit formed in) is also referred to as a bus. For example, the circuit of the semiconductor substrate 501 and the circuit of the semiconductor substrate 502 can exchange data and the like via the bus 511. Further, the circuit of the semiconductor substrate 502 and the circuit of the semiconductor substrate 503 can exchange data and the like via the bus 512.

また、半導体基板502に形成される回路には、積層型イメージセンサ500のインタフェース513が形成される。つまり、半導体基板502に形成される回路は、このインタフェース513を介して、積層型イメージセンサ500の外部の回路(例えば回路基板520に形成される回路)とデータ等の授受を行うことができる。このインタフェース513は、所定の通信規格に準拠した通信方式により通信が行われるインタフェースである。この通信規格は任意である。例えば、MIPI(Mobile Industry Processor Interface)であってもよいし、SLVS-EC(Scalable Low Voltage Signaling Embedded Clock)であってもよいし、その他の規格であってもよい。なお、インタフェース513の具体的な構成は任意である。例えば、入出力の制御を行う構成だけでなく、バスやケーブル等の伝送路もインタフェース513に含まれるものとしてもよい。 Further, the interface 513 of the laminated image sensor 500 is formed in the circuit formed on the semiconductor substrate 502. That is, the circuit formed on the semiconductor substrate 502 can exchange data and the like with an external circuit of the laminated image sensor 500 (for example, a circuit formed on the circuit board 520) via the interface 513. The interface 513 is an interface in which communication is performed by a communication method conforming to a predetermined communication standard. This communication standard is optional. For example, MIPI (Mobile Industry Processor Interface) may be used, SLVS-EC (Scalable Low Voltage Signaling Embedded Clock) may be used, or other standards may be used. The specific configuration of the interface 513 is arbitrary. For example, the interface 513 may include not only a configuration for controlling input / output but also a transmission line such as a bus or a cable.

このように、モジュール内部において半導体基板の多層構造を形成することにより、積層型イメージセンサ500は、半導体基板のサイズを増大させずに、より大規模な回路の実装を実現することができる。すなわち、積層型イメージセンサ500は、コストの増大を抑制しながら、より大規模な回路を実装することができる。 By forming the multilayer structure of the semiconductor substrate inside the module in this way, the laminated image sensor 500 can realize the mounting of a larger-scale circuit without increasing the size of the semiconductor substrate. That is, the stacked image sensor 500 can mount a larger-scale circuit while suppressing an increase in cost.

各半導体基板に形成される回路構成の例を図46に示す。図46においては説明の便宜上、半導体基板501乃至半導体基板503が平面上に並べて配置されているが、実際には、図45に示されるように互いに重畳されている。 FIG. 46 shows an example of the circuit configuration formed on each semiconductor substrate. In FIG. 46, for convenience of explanation, the semiconductor substrates 501 to 503 are arranged side by side on a plane, but in reality, they are superimposed on each other as shown in FIG. 45.

一番上の半導体基板501には、受光部531およびA/D変換部532等が形成される。受光部531は、例えばフォトダイオード等の光電変換素子を有する単位画素を複数有し、各単位画素において入射光を光電変換し、入射光に相当する電荷を電気信号(画素信号)としてA/D変換部532に出力する。 A light receiving unit 531 and an A / D conversion unit 532 are formed on the top semiconductor substrate 501. The light receiving unit 531 has a plurality of unit pixels having a photoelectric conversion element such as a photodiode, and the incident light is photoelectrically converted in each unit pixel, and the charge corresponding to the incident light is used as an electric signal (pixel signal) for A / D. It is output to the conversion unit 532.

A/D変換部532は、受光部531から供給される各画素信号をA/D変換し、デジタルデータの画素データを生成する。A/D変換部532は、このように生成した各単位画素の画素データの集合を画像データとしてバス511を介して半導体基板502に供給する。 The A / D conversion unit 532 A / D-converts each pixel signal supplied from the light receiving unit 531 to generate pixel data of digital data. The A / D conversion unit 532 supplies the set of pixel data of each unit pixel thus generated to the semiconductor substrate 502 as image data via the bus 511.

中段の半導体基板502には、画像処理等を行う論理回路である画像処理部533が形成される。画像処理部533は、半導体基板501からバス511を介して供給される画像データを取得すると、その画像データに対して、所定の画像処理を行う。この画像処理の内容は任意である。例えば、欠陥画素補正、オートフォーカス用の位相差検出、画素加算、デジタルゲイン、ノイズリダクション等がこの画像処理に含まれていてもよい。もちろん、これら以外の処理が含まれていてもよい。 An image processing unit 533, which is a logic circuit for performing image processing and the like, is formed on the semiconductor substrate 502 in the middle stage. When the image processing unit 533 acquires the image data supplied from the semiconductor substrate 501 via the bus 511, the image processing unit 533 performs predetermined image processing on the image data. The content of this image processing is arbitrary. For example, defect pixel correction, phase difference detection for autofocus, pixel addition, digital gain, noise reduction, and the like may be included in this image processing. Of course, processing other than these may be included.

一番下の半導体基板503には、DRAM(Dynamic Random Access Memory)534が形成される。このDRAM534は、バス512を介して半導体基板502(画像処理部533)から供給されるデータ等を記憶することができる。また、DRAM534は、半導体基板502(画像処理部533)等からの要求に応じて、記憶しているデータ等を読み出し、バス512を介して半導体基板502に供給することができる。つまり、画像処理部533は、画像処理中の画像データを一時的に保持させる等、このDRAM534を用いて画像処理を行うことができる。例えば、高速のフレームレートで撮像し、その各フレームの撮像画像をDRAM534に記憶させ、それを低速のフレームレートで読み出して出力することにより、所謂スローモーション撮像を実現することができる。 A DRAM (Dynamic Random Access Memory) 534 is formed on the bottom semiconductor substrate 503. The DRAM 534 can store data and the like supplied from the semiconductor substrate 502 (image processing unit 533) via the bus 512. Further, the DRAM 534 can read out the stored data or the like in response to a request from the semiconductor substrate 502 (image processing unit 533) or the like and supply the stored data or the like to the semiconductor substrate 502 via the bus 512. That is, the image processing unit 533 can perform image processing using this DRAM 534, such as temporarily holding the image data being processed. For example, so-called slow motion imaging can be realized by imaging at a high frame rate, storing the captured image of each frame in DRAM 534, and reading and outputting it at a low frame rate.

このようなDRAM534の利用において、画像処理部533は、画像データを符号化(圧縮)し、生成した符号化データをDRAM534に記憶させたり、DRAM534から符号化データを読み出して復号し、画像データ(復号画像データ)を生成したりする。例えば、画像処理部533は、符号化部533Aおよび復号部533Bを有する。符号化部533Aは、画像データを符号化し、生成した符号化データをDRAM534に供給し、記憶させる。復号部533Bは、DRAM534から読み出された符号化データを復号し、画像データ(復号画像データ)を生成する。このように画像データを符号化データ(圧縮したデータ)としてDRAM534に記憶させるようにすることにより、DRAM534に記憶させるデータ量を低減させることができる。したがって、DRAM534の記憶領域や、バス512の帯域の利用効率を向上させることができる。したがって、DRAM534の容量やバス512の帯域幅の増大を抑制することができ、製造コストの増大を抑制することができる。 In such use of the DRAM 534, the image processing unit 533 encodes (compresses) the image data, stores the generated coded data in the DRAM 534, or reads the coded data from the DRAM 534 and decodes the image data ( Decoded image data) is generated. For example, the image processing unit 533 has a coding unit 533A and a decoding unit 533B. The coding unit 533A encodes the image data, supplies the generated coded data to the DRAM 534, and stores the coded data. The decoding unit 533B decodes the coded data read from the DRAM 534 and generates image data (decoded image data). By storing the image data in the DRAM 534 as encoded data (compressed data) in this way, the amount of data stored in the DRAM 534 can be reduced. Therefore, it is possible to improve the utilization efficiency of the storage area of the DRAM 534 and the band of the bus 512. Therefore, it is possible to suppress an increase in the capacity of the DRAM 534 and the bandwidth of the bus 512, and it is possible to suppress an increase in the manufacturing cost.

この符号化部533Aとして、上述した符号化部101や符号化部201を適用するようにしてもよい。また、復号部533Bとして、上述した復号部102や復号部202を適用するようにしてもよい。このようにすることにより、DRAM534へのデータの書き込みやDRAM534からのデータの読み出しにおいて、第1の実施の形態や第2の実施の形態等において上述した効果を得ることができる。 As the coding unit 533A, the above-mentioned coding unit 101 or coding unit 201 may be applied. Further, the decoding unit 102 and the decoding unit 202 described above may be applied as the decoding unit 533B. By doing so, in writing data to DRAM 534 and reading data from DRAM 534, the above-mentioned effects can be obtained in the first embodiment, the second embodiment, and the like.

また、画像処理部533に、補助情報生成部301乃至レンズ制御部303を設け、図29を参照して説明したような構成を形成するようにしてもよい。このようにすることにより、DRAM534とのデータの授受における符号化・復号に基づいて、第3の実施の形態等において上述した効果を得ることができる。 Further, the image processing unit 533 may be provided with the auxiliary information generation unit 301 to the lens control unit 303 to form the configuration as described with reference to FIG. 29. By doing so, the above-mentioned effect can be obtained in the third embodiment or the like based on the coding / decoding in the exchange of data with the DRAM 534.

さらに、画像処理部533に、信頼度情報生成部401乃至レンズ制御部403を設け、図36を参照して説明したような構成を形成するようにしてもよい。このようにすることにより、DRAM534とのデータの授受における符号化・復号に基づいて、第4の実施の形態等において上述した効果を得ることができる。 Further, the image processing unit 533 may be provided with the reliability information generation unit 401 to the lens control unit 403 to form the configuration as described with reference to FIG. 36. By doing so, the above-mentioned effect can be obtained in the fourth embodiment or the like based on the coding / decoding in the exchange of data with the DRAM 534.

また、回路基板520には、画像処理等を行う論理回路である画像処理部535が形成される。画像処理部535は、積層型イメージセンサ500の半導体基板502(画像処理部533)からインタフェース513を介して供給される画像データを取得すると、その画像データに対して、所定の画像処理を行う。この画像処理の内容は任意である。 Further, an image processing unit 535, which is a logic circuit for performing image processing and the like, is formed on the circuit board 520. When the image processing unit 535 acquires the image data supplied from the semiconductor substrate 502 (image processing unit 533) of the laminated image sensor 500 via the interface 513, the image processing unit 535 performs predetermined image processing on the image data. The content of this image processing is arbitrary.

つまり、画像処理部533は、インタフェース513を介してデータ等を画像処理部535に供給する(積層型イメージセンサ500の外部に出力する)ことができる。このような出力の際に、画像処理部533は、画像データを符号化(圧縮)して、符号化データとして出力する。例えば、画像処理部533が符号化部533Cを有し、画像処理部535が復号部535Aを有する。符号化部533Cは、画像データを符号化し、その符号化データを、インタフェース513を介して出力する。復号部535Aは、そのインタフェース513を介して供給される符号化データを復号し、画像データ(復号画像データ)を生成する。画像処理部535は、生成した復号画像データに対して画像処理を行う。 That is, the image processing unit 533 can supply data or the like to the image processing unit 535 (output to the outside of the stacked image sensor 500) via the interface 513. At the time of such output, the image processing unit 533 encodes (compresses) the image data and outputs it as encoded data. For example, the image processing unit 533 has a coding unit 533C, and the image processing unit 535 has a decoding unit 535A. The coding unit 533C encodes the image data and outputs the coded data via the interface 513. The decoding unit 535A decodes the coded data supplied via the interface 513 and generates image data (decoded image data). The image processing unit 535 performs image processing on the generated decoded image data.

このように、符号化データ(圧縮したデータ)を、インタフェース513を介して伝送するようにすることにより、伝送するデータ量を低減させることができる。したがって、インタフェース513の帯域の利用効率を向上させることができる。つまり、インタフェース513の帯域幅の増大を抑制することができ、製造コストの増大を抑制することができる。 By transmitting the coded data (compressed data) via the interface 513 in this way, the amount of data to be transmitted can be reduced. Therefore, it is possible to improve the utilization efficiency of the band of the interface 513. That is, the increase in the bandwidth of the interface 513 can be suppressed, and the increase in the manufacturing cost can be suppressed.

この符号化部533Cとして、上述した符号化部101や符号化部201を適用するようにしてもよい。また、復号部535Aとして、上述した復号部102や復号部202を適用するようにしてもよい。このようにすることにより、積層型イメージセンサ500の外部へのデータ出力において、第1の実施の形態や第2の実施の形態等において上述した効果を得ることができる。 As the coding unit 533C, the above-mentioned coding unit 101 or coding unit 201 may be applied. Further, the decoding unit 102 and the decoding unit 202 described above may be applied as the decoding unit 535A. By doing so, it is possible to obtain the above-mentioned effects in the first embodiment, the second embodiment, and the like in the data output to the outside of the stacked image sensor 500.

また、画像処理部533に、補助情報生成部301乃至レンズ制御部303を設け、図29を参照して説明したような構成を形成するようにしてもよい。このようにすることにより、積層型イメージセンサ500の外部へのデータ出力における符号化・復号に基づいて、第3の実施の形態等において上述した効果を得ることができる。 Further, the image processing unit 533 may be provided with the auxiliary information generation unit 301 to the lens control unit 303 to form the configuration as described with reference to FIG. 29. By doing so, the above-mentioned effect can be obtained in the third embodiment or the like based on the coding / decoding in the data output to the outside of the stacked image sensor 500.

さらに、画像処理部533に、信頼度情報生成部401乃至レンズ制御部403を設け、図36を参照して説明したような構成を形成するようにしてもよい。このようにすることにより、積層型イメージセンサ500の外部へのデータ出力における符号化・復号に基づいて、第4の実施の形態等において上述した効果を得ることができる。 Further, the image processing unit 533 may be provided with the reliability information generation unit 401 to the lens control unit 403 to form the configuration as described with reference to FIG. 36. By doing so, the above-mentioned effect can be obtained in the fourth embodiment or the like based on the coding / decoding in the data output to the outside of the stacked image sensor 500.

<7.付記>
<コンピュータ>
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
<7. Addendum>
<Computer>
The series of processes described above can be executed by hardware or software. When a series of processes are executed by software, the programs constituting the software are installed in the computer. Here, the computer includes a computer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.

図47は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 47 is a block diagram showing an example of hardware configuration of a computer that executes the above-mentioned series of processes programmatically.

図47に示されるコンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904を介して相互に接続されている。 In the computer 900 shown in FIG. 47, the CPU (Central Processing Unit) 901, the ROM (Read Only Memory) 902, and the RAM (Random Access Memory) 903 are connected to each other via the bus 904.

バス904にはまた、入出力インタフェース910も接続されている。入出力インタフェース910には、入力部911、出力部912、記憶部913、通信部914、およびドライブ915が接続されている。 An input / output interface 910 is also connected to the bus 904. An input unit 911, an output unit 912, a storage unit 913, a communication unit 914, and a drive 915 are connected to the input / output interface 910.

入力部911は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部912は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部913は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部914は、例えば、ネットワークインタフェースよりなる。ドライブ915は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア921を駆動する。 The input unit 911 includes, for example, a keyboard, a mouse, a microphone, a touch panel, an input terminal, and the like. The output unit 912 includes, for example, a display, a speaker, an output terminal, and the like. The storage unit 913 is composed of, for example, a hard disk, a RAM disk, a non-volatile memory, or the like. The communication unit 914 is composed of, for example, a network interface. The drive 915 drives a removable medium 921 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部913に記憶されているプログラムを、入出力インタフェース910およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。 In the computer configured as described above, the CPU 901 loads the program stored in the storage unit 913 into the RAM 903 via the input / output interface 910 and the bus 904 and executes the above-mentioned series. Is processed. The RAM 903 also appropriately stores data and the like necessary for the CPU 901 to execute various processes.

コンピュータ(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア921に記録して適用することができる。その場合、プログラムは、リムーバブルメディア921をドライブ915に装着することにより、入出力インタフェース910を介して、記憶部913にインストールすることができる。 The program executed by the computer (CPU901) can be recorded and applied to the removable media 921 as a package media or the like, for example. In that case, the program can be installed in the storage unit 913 via the input / output interface 910 by mounting the removable media 921 in the drive 915.

また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部914で受信し、記憶部913にインストールすることができる。 The program can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasting. In that case, the program can be received by the communication unit 914 and installed in the storage unit 913.

その他、このプログラムは、ROM902や記憶部913に、あらかじめインストールしておくこともできる。 In addition, this program can be pre-installed in the ROM 902 or the storage unit 913.

<本技術の適用対象>
本技術は、任意の画像符号化・復号方式に適用することができる。つまり、上述した本技術と矛盾しない限り、画像符号化・復号に関する各種処理の仕様は任意であり、上述した例に限定されない。
<Applicable target of this technology>
This technique can be applied to any image coding / decoding method. That is, as long as it does not contradict the above-mentioned technology, the specifications of various processes related to image coding / decoding are arbitrary and are not limited to the above-mentioned examples.

また、以上においては、本技術を撮像装置に適用する場合について説明したが、本技術は、撮像装置に限らず任意の装置(電子機器)に適用することができる。例えば、他の装置において行われた高デジタルゲイン撮像により得られた撮像画像に対して画像処理を施す画像処理装置等にも本技術を適用することができる。 Further, although the case where the present technology is applied to the image pickup apparatus has been described above, the present technology can be applied not only to the image pickup apparatus but also to any apparatus (electronic device). For example, the present technology can be applied to an image processing device or the like that performs image processing on an captured image obtained by high digital gain imaging performed in another device.

また、本技術は、任意の装置またはシステムを構成する装置に搭載するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等(すなわち、装置の一部の構成)として実施することもできる。 In addition, the present technology includes any configuration or a module using a processor (for example, a video processor) as a system LSI (Large Scale Integration), a module using a plurality of processors, or the like (for example, video) mounted on an arbitrary device or a device constituting the system. It can also be implemented as a module), a unit using a plurality of modules (for example, a video unit), a set in which other functions are added to the unit (for example, a video set), or the like (that is, a partial configuration of a device).

さらに、本技術は、複数の装置により構成されるネットワークシステムにも適用することもできる。例えば、コンピュータ、AV(Audio Visual)機器、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対して、画像(動画像)に関するサービスを提供するクラウドサービスに適用することもできる。 Further, the present technology can also be applied to a network system composed of a plurality of devices. For example, it can be applied to cloud services that provide services related to images (moving images) to arbitrary terminals such as computers, AV (Audio Visual) devices, portable information processing terminals, and IoT (Internet of Things) devices. can.

なお、本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。 Systems, equipment, processing departments, etc. to which this technology is applied should be used in any field such as transportation, medical care, crime prevention, agriculture, livestock industry, mining, beauty, factories, home appliances, weather, nature monitoring, etc. Can be done. The use is also arbitrary.

例えば、本技術は、観賞用コンテンツ等の提供の用に供されるシステムやデバイスに適用することができる。また、例えば、本技術は、交通状況の監理や自動運転制御等、交通の用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、セキュリティの用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、機械等の自動制御の用に供されるシステムやデバイスに適用することができる。さらに、例えば、本技術は、農業や畜産業の用に供されるシステムやデバイスにも適用することができる。また、本技術は、例えば火山、森林、海洋等の自然の状態や野生生物等を監視するシステムやデバイスにも適用することができる。さらに、例えば、本技術は、スポーツの用に供されるシステムやデバイスにも適用することができる。 For example, the present technology can be applied to systems and devices used for providing ornamental contents and the like. Further, for example, the present technology can be applied to systems and devices used for traffic such as traffic condition supervision and automatic driving control. Further, for example, the present technology can be applied to systems and devices used for security purposes. Further, for example, the present technology can be applied to a system or device used for automatic control of a machine or the like. Further, for example, the present technology can be applied to systems and devices used for agriculture and livestock industry. The present technology can also be applied to systems and devices for monitoring natural conditions such as volcanoes, forests and oceans, and wildlife. Further, for example, the present technology can be applied to systems and devices used for sports.

<その他>
なお、本明細書において「フラグ」とは、複数の状態を識別するための情報であり、真(1)または偽(0)の2状態を識別する際に用いる情報だけでなく、3以上の状態を識別することが可能な情報も含まれる。したがって、この「フラグ」が取り得る値は、例えば1/0の2値であってもよいし、3値以上であってもよい。すなわち、この「フラグ」を構成するbit数は任意であり、1bitでも複数bitでもよい。また、識別情報(フラグも含む)は、その識別情報をビットストリームに含める形だけでなく、ある基準となる情報に対する識別情報の差分情報をビットストリームに含める形も想定されるため、本明細書においては、「フラグ」や「識別情報」は、その情報だけではなく、基準となる情報に対する差分情報も包含する。
<Others>
In the present specification, the "flag" is information for identifying a plurality of states, and is not only information used for identifying two states of true (1) or false (0), but also three or more states. It also contains information that can identify the state. Therefore, the value that this "flag" can take may be, for example, 2 values of 1/0 or 3 or more values. That is, the number of bits constituting this "flag" is arbitrary, and may be 1 bit or a plurality of bits. Further, the identification information (including the flag) is assumed to include not only the identification information in the bit stream but also the difference information of the identification information with respect to a certain reference information in the bit stream. In, the "flag" and "identification information" include not only the information but also the difference information with respect to the reference information.

また、符号化データ(ビットストリーム)に関する各種情報(メタデータ等)は、符号化データに関連づけられていれば、どのような形態で伝送または記録されるようにしてもよい。ここで、「関連付ける」という用語は、例えば、一方のデータを処理する際に他方のデータを利用し得る(リンクさせ得る)ようにすることを意味する。つまり、互いに関連付けられたデータは、1つのデータとしてまとめられてもよいし、それぞれ個別のデータとしてもよい。例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の伝送路上で伝送されるようにしてもよい。また、例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の記録媒体(または同一の記録媒体の別の記録エリア)に記録されるようにしてもよい。なお、この「関連付け」は、データ全体でなく、データの一部であってもよい。例えば、画像とその画像に対応する情報とが、複数フレーム、1フレーム、またはフレーム内の一部分などの任意の単位で互いに関連付けられるようにしてもよい。 Further, various information (metadata and the like) related to the coded data (bitstream) may be transmitted or recorded in any form as long as it is associated with the coded data. Here, the term "associate" means, for example, to make the other data available (linkable) when processing one data. That is, the data associated with each other may be combined as one data or may be individual data. For example, the information associated with the coded data (image) may be transmitted on a transmission path different from the coded data (image). Further, for example, the information associated with the coded data (image) may be recorded on a recording medium (or another recording area of the same recording medium) different from the coded data (image). good. It should be noted that this "association" may be a part of the data, not the entire data. For example, the image and the information corresponding to the image may be associated with each other in any unit such as a plurality of frames, one frame, or a part within the frame.

なお、本明細書において、「合成する」、「多重化する」、「付加する」、「一体化する」、「含める」、「格納する」、「入れ込む」、「差し込む」、「挿入する」等の用語は、例えば符号化データとメタデータとを1つのデータにまとめるといった、複数の物を1つにまとめることを意味し、上述の「関連付ける」の1つの方法を意味する。 In addition, in this specification, "synthesize", "multiplex", "add", "integrate", "include", "store", "insert", "insert", "insert". A term such as "" means combining a plurality of objects into one, for example, combining encoded data and metadata into one data, and means one method of "associating" described above.

また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Further, the embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.

また、例えば、本技術は、装置またはシステムを構成するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、ユニットにさらにその他の機能を付加したセット等(すなわち、装置の一部の構成)として実施することもできる。 Further, for example, the present technology further applies to any configuration constituting a device or a system, for example, a processor as a system LSI (Large Scale Integration), a module using a plurality of processors, a unit using a plurality of modules, and a unit. It can also be implemented as a set or the like with other functions added (that is, a partial configuration of the device).

なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 In the present specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether or not all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..

また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。 Further, for example, the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units). On the contrary, the configurations described above as a plurality of devices (or processing units) may be collectively configured as one device (or processing unit). Further, of course, a configuration other than the above may be added to the configuration of each device (or each processing unit). Further, if the configuration and operation of the entire system are substantially the same, a part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit). ..

また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 Further, for example, the present technology can have a cloud computing configuration in which one function is shared by a plurality of devices via a network and jointly processed.

また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。 Further, for example, the above-mentioned program can be executed in any device. In that case, the device may have necessary functions (functional blocks, etc.) so that necessary information can be obtained.

また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。 Further, for example, each step described in the above-mentioned flowchart can be executed by one device or can be shared and executed by a plurality of devices. Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices. In other words, a plurality of processes included in one step can be executed as processes of a plurality of steps. On the contrary, the processes described as a plurality of steps can be collectively executed as one step.

なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。 In the program executed by the computer, the processing of the steps for describing the program may be executed in chronological order in the order described in the present specification, or may be called in parallel or called. It may be executed individually at the required timing such as when. That is, as long as there is no contradiction, the processes of each step may be executed in an order different from the above-mentioned order. Further, the processing of the step for describing this program may be executed in parallel with the processing of another program, or may be executed in combination with the processing of another program.

なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。 It should be noted that the present techniques described above and below in the present specification can be independently implemented independently as long as there is no contradiction. Of course, any plurality of the present technologies can be used in combination. For example, some or all of the techniques described in any of the embodiments may be combined with some or all of the techniques described in other embodiments. In addition, a part or all of any of the above-mentioned techniques may be carried out in combination with other techniques not described above.

なお、本技術は以下のような構成も取ることができる。
(1) 合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する符号化部
を備える画像処理装置。
(2) 前記予測方式は、前記合焦に関するパラメータに基づいて、被写体に合焦しているか否かに応じて設定される
(1)に記載の画像処理装置。
(3) 前記被写体に合焦している場合、処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される
(2)に記載の画像処理装置。
(4) 前記被写体に合焦していない場合、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、前記処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される
(2)または(3)に記載の画像処理装置。
(5) 前記合焦に関するパラメータは、前記合焦のための位相差検出に用いられる画素値から導出される
(1)乃至(4)のいずれかに記載の画像処理装置。
(6) 前記合焦に関するパラメータは、前記符号化部が前記撮像画像データを符号化して生成した符号化データを復号して得られる撮像画像データの前記画素値を用いて行われる前記位相差検出の結果である
(5)に記載の画像処理装置。
(7) 前記合焦に関するパラメータは、前記撮像画像データの前記画素値を用いて行われる各予測方式による予測の結果である
(5)に記載の画像処理装置。
(8) 前記予測方式を設定する設定部をさらに備え、
前記符号化部は、前記設定部により設定された前記予測方式による予測を用いて前記撮像画像データを符号化する
(1)乃至(7)のいずれかに記載の画像処理装置。
(9) 前記設定部は、前記合焦に関するパラメータに基づいて、被写体に合焦しているか否かに応じて前記予測方式を設定する
(8)に記載の画像処理装置。
(10) 前記設定部は、前記被写体に合焦している場合、前記予測方式として、処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式を設定する
(9)に記載の画像処理装置。
(11) 前記設定部は、前記被写体に合焦していない場合、前記予測方式として、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、前記処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式を設定する
(9)または(10)に記載の画像処理装置。
(12) 前記設定部は、前記符号化部が前記撮像画像データを符号化して生成した符号化データを復号して得られる撮像画像データを用いて行われる前記合焦のための位相差検出の結果を前記合焦に関するパラメータとして用い、前記予測方式を設定する
(9)乃至(11)のいずれかに記載の画像処理装置。
(13) 前記設定部は、前記撮像画像データを用いて各予測方式による予測を行い、各予測の結果を前記合焦に関するパラメータとして用い、前記予測方式を設定する
(9)乃至(11)のいずれかに記載の画像処理装置。
(14) 前記符号化部は、前記設定部により設定された予測方式を示す予測方式情報を、前記撮像画像データを符号化して生成した符号化データに付加する
(13)に記載の画像処理装置。
(15) 前記符号化部は、
前記予測方式を用いて、前記撮像画像データの処理対象画素の予測を行い、前記処理対象画素の画素値の一部のビットと予測値との差分を導出する差分導出部と、
前記差分導出部により導出された前記差分をゴロム符号化するゴロム符号化部と、
前記ゴロム符号化部により前記差分がゴロム符号化されて生成された符号化データに適宜リファインメントを付加することにより、前記符号化データの符号量を調整する調整部と
を備える
(1)乃至(14)のいずれかに記載の画像処理装置。
(16) 前記符号化部により前記撮像画像データが符号化されて生成された符号化データを送信する送信部をさらに備える
(1)乃至(15)のいずれかに記載の画像処理装置。
(17) 前記符号化部により前記撮像画像データが符号化されて生成された符号化データを復号する復号部をさらに備える
(1)乃至(16)のいずれかに記載の画像処理装置。
(18) 前記復号部により前記符号化データが復号されて生成された撮像画像データを用いて、前記合焦のための位相差検出を行う位相差検出部をさらに備える
(17)に記載の画像処理装置。
(19) 前記位相差検出部による前記位相差検出の結果に基づいて、被写体に合焦させるように光学系を制御する制御部をさらに備える
(18)に記載の画像処理装置。
(20) 合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する
画像処理方法。
The present technology can also have the following configurations.
(1) An image processing device including a coding unit that encodes captured image data using prediction by a prediction method set based on parameters related to focusing.
(2) The image processing apparatus according to (1), wherein the prediction method is set according to whether or not the subject is in focus based on the parameters related to the in-focus.
(3) When the subject is in focus, a prediction method is set in which the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel is used as the prediction value (2). ). The image processing apparatus.
(4) When the subject is not in focus, the position of the photodiode that detects the pixel value is the same as that of the pixel to be processed, and the pixel of the same color as the pixel to be processed is the most of the pixel to be processed. The image processing apparatus according to (2) or (3), wherein a prediction method is set in which the pixel value of pixels located in the vicinity is used as the prediction value.
(5) The image processing apparatus according to any one of (1) to (4), wherein the parameters related to focusing are derived from pixel values used for phase difference detection for focusing.
(6) The parameter related to the focusing is the phase difference detection performed by using the pixel value of the captured image data obtained by decoding the coded data generated by the coding unit encoding the captured image data. The image processing apparatus according to (5), which is the result of the above.
(7) The image processing apparatus according to (5), wherein the parameter related to focusing is the result of prediction by each prediction method performed using the pixel value of the captured image data.
(8) Further provided with a setting unit for setting the prediction method.
The image processing apparatus according to any one of (1) to (7), wherein the coding unit encodes the captured image data by using the prediction by the prediction method set by the setting unit.
(9) The image processing apparatus according to (8), wherein the setting unit sets the prediction method according to whether or not the subject is in focus based on the parameters related to the in-focus.
(10) When the setting unit is in focus on the subject, as the prediction method, the setting unit predicts the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel. The image processing apparatus according to (9).
(11) When the setting unit is not in focus on the subject, the position of the photodiode that detects the pixel value is the same as the processing target pixel and the same color as the processing target pixel as the prediction method. The image processing apparatus according to (9) or (10), wherein a prediction method is set in which the pixel value of the pixel located closest to the processing target pixel among the pixels is used as the prediction value.
(12) The setting unit detects the phase difference for focusing by using the captured image data obtained by decoding the coded data generated by the coding unit encoding the captured image data. The image processing apparatus according to any one of (9) to (11), wherein the result is used as a parameter related to focusing and the prediction method is set.
(13) The setting unit sets the prediction method by using the captured image data to make a prediction by each prediction method and using the result of each prediction as a parameter related to the focusing. The image processing apparatus according to any one.
(14) The image processing apparatus according to (13), wherein the coding unit adds prediction method information indicating a prediction method set by the setting unit to the coded data generated by encoding the captured image data. ..
(15) The coding unit is
Using the prediction method, a difference derivation unit that predicts the processing target pixel of the captured image data and derives the difference between some bits of the pixel value of the processing target pixel and the predicted value, and
A Golomb coding unit that Golom-codes the difference derived by the difference deriving unit, and a Golomb coding unit.
(1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) to (1) The image processing apparatus according to any one of 14).
(16) The image processing apparatus according to any one of (1) to (15), further comprising a transmission unit that transmits the coded data generated by encoding the captured image data by the coding unit.
(17) The image processing apparatus according to any one of (1) to (16), further comprising a decoding unit that decodes the coded data generated by encoding the captured image data by the coding unit.
(18) The image according to (17), further comprising a phase difference detection unit that performs phase difference detection for focusing using the captured image data generated by decoding the coded data by the decoding unit. Processing device.
(19) The image processing apparatus according to (18), further comprising a control unit that controls an optical system so as to focus on a subject based on the result of the phase difference detection by the phase difference detection unit.
(20) An image processing method for encoding captured image data using prediction by a prediction method set based on parameters related to focusing.

(21) 合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号する復号部
を備える画像処理装置。
(22) 前記予測方式は、前記合焦に関するパラメータに基づいて、被写体に合焦しているか否かに応じて設定される
(21)に記載の画像処理装置。
(23) 前記被写体に合焦している場合、処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される
(22)に記載の画像処理装置。
(24) 前記被写体に合焦していない場合、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、前記処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される
(22)または(23)に記載の画像処理装置。
(25) 前記合焦に関するパラメータは、前記復号部が前記符号化データを復号して得られる撮像画像データを用いて行われる前記合焦のための位相差検出の結果である
(21)乃至(24)のいずれかに記載の画像処理装置。
(26) 前記合焦に関するパラメータは、前記符号化データに付加された、符号化の際に用いられた予測方式を示す予測方式情報である
(21)乃至(25)のいずれかに記載の画像処理装置。
(27) 前記予測方式を設定する設定部をさらに備え、
前記復号部は、前記設定部により設定された前記予測方式による予測を用いて前記符号化データを復号する
(21)乃至(26)のいずれかに記載の画像処理装置。
(28) 前記設定部は、前記合焦に関するパラメータに基づいて、被写体に合焦しているか否かに応じて前記予測方式を設定する
(27)に記載の画像処理装置。
(29) 前記設定部は、前記被写体に合焦している場合、前記予測方式として、処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式を設定する
(28)に記載の画像処理装置。
(30) 前記設定部は、前記被写体に合焦していない場合、前記予測方式として、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、前記処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式を設定する
(28)または(29)に記載の画像処理装置。
(31) 前記設定部は、前記復号部が前記符号化データを復号して得られる撮像画像データを用いて行われる前記合焦のための位相差検出の結果を前記合焦に関するパラメータとして用い、前記予測方式を設定する
(28)に記載の画像処理装置。
(32) 前記復号部は、
前記符号化部に付加されているリファインメントを除去することにより、前記符号化データの符号量を逆調整する逆調整部と、
前記逆調整部により符号量が逆調整された前記符号化データをゴロム復号するゴロム復号部と、
前記ゴロム復号部により前記符号化データがゴロム復号されて生成された、撮像画像データの画素値と予測値との差分を用いて、前記撮像画像データを生成する撮像画像データ生成部と
を備える
(21)乃至(31)のいずれかに記載の画像処理装置。
(33) 前記符号化データを受信する受信部をさらに備え、
前記復号部は、前記受信部により受信された前記符号化データを復号する
(21)乃至(32)のいずれかに記載の画像処理装置。
(34) 前記復号部により前記符号化データが復号されて生成された撮像画像データを用いて、前記合焦のための位相差検出を行う位相差検出部をさらに備える
(21)乃至(33)のいずれかに記載の画像処理装置。
(35) 前記位相差検出部は、さらに、撮像画像データを符号化して前記符号化データを生成する際に用いられた予測方式を示す予測方式情報に基づいて、前記位相差検出を行う
(34)に記載の画像処理装置。
(36) 前記予測方式情報に基づいて、前記位相差検出用の補助情報を生成する補助情報生成部をさらに備え、
前記位相差検出部は、前記復号部により前記符号化データが復号されて生成された撮像画像データと、前記補助情報生成部により生成された前記補助情報とに基づいて、前記位相差検出を行う
(35)に記載の画像処理装置。
(37) 前記位相差検出部は、さらに、撮像画像データの符号化および復号による誤差を示す誤差情報に基づいて、前記位相差検出を行う
(34)乃至(36)のいずれかに記載の画像処理装置。
(38) 前記誤差情報に基づいて、前記位相差検出の結果の信頼度を示す信頼度情報を生成する信頼度情報生成部をさらに備え、
前記位相差検出部は、前記復号部により前記符号化データが復号されて生成された撮像画像データと、前記信頼度情報生成部により生成された前記信頼度情報とに基づいて、前記位相差検出を行う
(37)に記載の画像処理装置。
(39) 前記位相差検出部による前記位相差検出の結果に基づいて、被写体に合焦させるように光学系を制御する制御部をさらに備える
(34)乃至(38)のいずれかに記載の画像処理装置。
(40) 合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号する
画像処理方法。
(21) An image processing apparatus including a decoding unit that decodes encoded data of captured image data by using prediction by a prediction method set based on parameters related to focusing.
(22) The image processing apparatus according to (21), wherein the prediction method is set according to whether or not the subject is in focus based on the parameters related to the in-focus.
(23) When the subject is in focus, a prediction method is set in which the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel is used as the prediction value (22). ). The image processing apparatus.
(24) When the subject is not in focus, the position of the photodiode that detects the pixel value is the same as that of the pixel to be processed, and the pixel of the same color as the pixel to be processed is the most of the pixel to be processed. The image processing apparatus according to (22) or (23), wherein a prediction method is set in which the pixel value of pixels located in the vicinity is used as the prediction value.
(25) The parameters related to the focusing are the results of the phase difference detection for the focusing performed by the decoding unit using the captured image data obtained by decoding the coded data (21) to (21). 24) The image processing apparatus according to any one of.
(26) The image according to any one of (21) to (25), wherein the parameter related to focusing is prediction method information indicating the prediction method used at the time of coding added to the coded data. Processing device.
(27) Further provided with a setting unit for setting the prediction method.
The image processing apparatus according to any one of (21) to (26), wherein the decoding unit decodes the coded data by using the prediction by the prediction method set by the setting unit.
(28) The image processing apparatus according to (27), wherein the setting unit sets the prediction method according to whether or not the subject is in focus based on the parameters related to the in-focus.
(29) When the setting unit is in focus on the subject, as the prediction method, the setting unit predicts the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel. The image processing apparatus according to (28).
(30) When the setting unit is not in focus on the subject, the position of the photodiode that detects the pixel value is the same as the processing target pixel and the same color as the processing target pixel as the prediction method. The image processing apparatus according to (28) or (29), which sets a prediction method in which the pixel value of the pixel located closest to the processing target pixel among the pixels is used as the prediction value.
(31) The setting unit uses the result of the phase difference detection for focusing performed by the decoding unit using the captured image data obtained by decoding the coded data as a parameter for focusing. The image processing apparatus according to (28), which sets the prediction method.
(32) The decoding unit is
A reverse adjustment unit that reversely adjusts the code amount of the coded data by removing the refinement added to the coding unit, and a reverse adjustment unit.
A Golomb decoding unit that Golom-decodes the coded data whose code amount is reverse-adjusted by the reverse adjustment unit, and a Golomb decoding unit.
It is provided with a captured image data generation unit that generates the captured image data by using the difference between the pixel value and the predicted value of the captured image data generated by the gorom decoding of the coded data by the gorom decoding unit. 21) The image processing apparatus according to any one of (31).
(33) Further, a receiving unit for receiving the coded data is provided.
The image processing apparatus according to any one of (21) to (32), wherein the decoding unit decodes the coded data received by the receiving unit.
(34) Further provided with a phase difference detection unit that performs phase difference detection for focusing using the captured image data generated by decoding the coded data by the decoding unit (21) to (33). The image processing apparatus according to any one of.
(35) The phase difference detection unit further performs the phase difference detection based on the prediction method information indicating the prediction method used when the captured image data is encoded to generate the coded data (34). ). The image processing apparatus.
(36) Further provided with an auxiliary information generation unit that generates auxiliary information for the phase difference detection based on the prediction method information.
The phase difference detection unit performs the phase difference detection based on the captured image data generated by decoding the coded data by the decoding unit and the auxiliary information generated by the auxiliary information generation unit. The image processing apparatus according to (35).
(37) The image according to any one of (34) to (36), wherein the phase difference detection unit further detects the phase difference based on error information indicating an error due to coding and decoding of captured image data. Processing device.
(38) Further provided with a reliability information generation unit that generates reliability information indicating the reliability of the result of the phase difference detection based on the error information.
The phase difference detection unit detects the phase difference based on the captured image data generated by decoding the coded data by the decoding unit and the reliability information generated by the reliability information generation unit. The image processing apparatus according to (37).
(39) The image according to any one of (34) to (38), further comprising a control unit that controls the optical system so as to focus on the subject based on the result of the phase difference detection by the phase difference detection unit. Processing equipment.
(40) An image processing method for decoding encoded data of captured image data by using prediction by a prediction method set based on parameters related to focusing.

100 画像処理装置, 101 符号化部, 102 復号部, 103 位相差検出部, 104 予測方式設定部, 121 DPCM処理部, 122 ゴロム符号化部, 123 圧縮率調整部, 131 圧縮率逆調整部, 132 ゴロム復号部, 133 逆DPCM処理部, 140 画素アレイ, 141 画素, 142 オンチップレンズ, 151 左光電変換素子, 152 右光電変換素子, 154 カラーフィルタ, 170 撮像装置, 171 レンズ, 172 イメージセンサ, 173 信号処理部, 174 出力部, 175 記憶部, 181 受光部, 182 ADC, 183 送信部, 191 受信部, 192 レンズ制御部, 193 画像処理部, 200 画像処理装置, 201 符号化部, 202 復号部, 221 予測方式設定部, 222 符号化部, 231 予測方式設定部, 232 復号部, 250 撮像装置, 251 レンズ, 252 イメージセンサ, 253 信号処理部, 254 出力部, 255 記憶部, 261 受光部, 262 ADC, 263 送信部, 271 受信部, 272 位相差検出部, 273 レンズ制御部, 274 画像処理部, 300 画像処理装置, 301 補助情報生成部, 302 位相差検出部, 303 レンズ制御部, 311 位相差検出領域統計処理部, 312 閾値処理部, 350 撮像装置, 351 レンズ, 352 イメージセンサ, 353 信号処理部, 354 出力部, 355 記憶部, 361 受光部, 362 ADC, 363 送信部, 371 受信部, 372 画像処理部, 400 画像処理装置, 401 信頼度情報生成部, 402 位相差検出部, 403 レンズ制御部, 411 積算部, 412 閾値処理部, 450 撮像装置, 451 レンズ, 452 イメージセンサ, 453 信号処理部, 461 受光部, 462 ADC, 463 送信部, 471 受信部, 472 画像処理部, 500 積層型イメージセンサ, 501乃至503 半導体基板, 520 回路基板, 531 受光部, 532 A/D変換部, 533 画像処理部, 534 DRAM, 535 画像処理部 100 Image processing device, 101 Coding unit, 102 Decoding unit, 103 Phase difference detection unit, 104 Prediction method setting unit, 121 DPCM processing unit, 122 Golom coding unit, 123 Compression rate adjustment unit, 131 Compression rate reverse adjustment unit, 132 Golom decoding unit, 133 reverse DPCM processing unit, 140 pixel array, 141 pixels, 142 on-chip lens, 151 left photoelectric conversion element, 152 right photoelectric conversion element, 154 color filter, 170 image pickup device, 171 lens, 172 image sensor, 173 Signal processing unit, 174 output unit, 175 storage unit, 181 light receiving unit, 182 ADC, 183 transmitter unit, 191 receiver unit, 192 lens control unit, 193 image processing unit, 200 image processing unit, 201 encoding unit, 202 decoding Unit, 221 Prediction method setting unit, 222 Coding unit, 231 Prediction method setting unit, 232 Decoding unit, 250 Imaging device, 251 lens, 252 image sensor, 253 signal processing unit, 254 output unit, 255 storage unit, 261 light receiving unit , 262 ADC, 263 transmitter, 271 receiver, 272 phase difference detector, 273 lens control unit, 274 image processing unit, 300 image processing device, 301 auxiliary information generation unit, 302 phase difference detection unit, 303 lens control unit, 311 Phase difference detection area statistical processing unit, 312 threshold processing unit, 350 image pickup device, 351 lens, 352 image sensor, 353 signal processing unit, 354 output unit, 355 storage unit, 361 light receiving unit, 362 ADC, 363 transmitter, 371 Receiver, 372 image processing unit, 400 image processing unit, 401 reliability information generation unit, 402 phase difference detection unit, 403 lens control unit, 411 integration unit, 412 threshold processing unit, 450 image pickup device, 451 lens, 452 image sensor. , 453 Signal processing unit, 461 Light receiving unit, 462 ADC, 463 transmitter, 471 receiver, 472 image processing unit, 500 stacked image sensor, 501 to 503 semiconductor substrate, 520 circuit board, 531 light receiving unit, 532 A / D conversion unit, 533 image processing unit, 534 DRAM, 535 Image processing unit

Claims (20)

合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する符号化部
を備える画像処理装置。
An image processing device including a coding unit that encodes captured image data using prediction by a prediction method set based on parameters related to focusing.
前記予測方式は、前記合焦に関するパラメータに基づいて、被写体に合焦しているか否かに応じて設定される
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the prediction method is set according to whether or not the subject is in focus based on the parameters related to focusing.
前記被写体に合焦している場合、処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される
請求項2に記載の画像処理装置。
The second aspect of claim 2, wherein when the subject is in focus, a prediction method is set in which the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel is set as the prediction value. Image processing equipment.
前記被写体に合焦していない場合、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、前記処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される
請求項2に記載の画像処理装置。
When the subject is not in focus, the position of the photodiode that detects the pixel value is the same as that of the pixel to be processed, and the position is closest to the pixel to be processed among the pixels of the same color as the pixel to be processed. The image processing apparatus according to claim 2, wherein a prediction method is set in which the pixel value of the pixel to be used is used as the prediction value.
前記合焦に関するパラメータは、前記合焦のための位相差検出に用いられる画素値から導出される
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the parameters related to focusing are derived from pixel values used for phase difference detection for focusing.
前記合焦に関するパラメータは、前記符号化部が前記撮像画像データを符号化して生成した符号化データを復号して得られる撮像画像データの前記画素値を用いて行われる前記位相差検出の結果である
請求項5に記載の画像処理装置。
The parameter related to the focusing is the result of the phase difference detection performed by using the pixel value of the captured image data obtained by decoding the coded data generated by the coding unit encoding the captured image data. The image processing apparatus according to claim 5.
前記合焦に関するパラメータは、前記撮像画像データの前記画素値を用いて行われる各予測方式による予測の結果である
請求項5に記載の画像処理装置。
The image processing apparatus according to claim 5, wherein the parameter related to focusing is the result of prediction by each prediction method performed by using the pixel value of the captured image data.
前記予測方式を設定する設定部をさらに備え、
前記符号化部は、前記設定部により設定された前記予測方式による予測を用いて前記撮像画像データを符号化する
請求項1に記載の画像処理装置。
Further provided with a setting unit for setting the prediction method,
The image processing apparatus according to claim 1, wherein the coding unit encodes the captured image data by using the prediction by the prediction method set by the setting unit.
前記符号化部は、前記設定部により設定された予測方式を示す予測方式情報を、前記撮像画像データを符号化して生成した符号化データに付加する
請求項8に記載の画像処理装置。
The image processing apparatus according to claim 8, wherein the coding unit adds prediction method information indicating a prediction method set by the setting unit to the coded data generated by encoding the captured image data.
合焦に関するパラメータに基づいて設定された予測方式による予測を用いて撮像画像データを符号化する
画像処理方法。
An image processing method that encodes captured image data using prediction by a prediction method set based on parameters related to focusing.
合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号する復号部
を備える画像処理装置。
An image processing device including a decoding unit that decodes the encoded data of the captured image data by using the prediction by the prediction method set based on the parameters related to focusing.
前記予測方式は、前記合焦に関するパラメータに基づいて、被写体に合焦しているか否かに応じて設定される
請求項11に記載の画像処理装置。
The image processing apparatus according to claim 11, wherein the prediction method is set according to whether or not the subject is in focus based on the parameters related to focusing.
前記被写体に合焦している場合、処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される
請求項12に記載の画像処理装置。
The twelfth aspect of claim 12, wherein when the subject is in focus, a prediction method is set in which the pixel value of the pixel located closest to the processing target pixel among the pixels of the same color as the processing target pixel is set as the prediction value. Image processing equipment.
前記被写体に合焦していない場合、画素値を検出するフォトダイオードの位置が処理対象画素と同一であり、かつ、前記処理対象画素と同色の画素の中で前記処理対象画素の最も近傍に位置する画素の画素値を予測値とする予測方式が設定される
請求項12に記載の画像処理装置。
When the subject is not in focus, the position of the photodiode that detects the pixel value is the same as that of the pixel to be processed, and the position is closest to the pixel to be processed among the pixels of the same color as the pixel to be processed. The image processing apparatus according to claim 12, wherein a prediction method is set in which the pixel value of the pixel to be used is used as the prediction value.
前記合焦に関するパラメータは、前記復号部が前記符号化データを復号して得られる撮像画像データを用いて行われる前記合焦のための位相差検出の結果である
請求項11に記載の画像処理装置。
The image processing according to claim 11, wherein the parameter relating to the focusing is the result of the phase difference detection for the focusing performed by the decoding unit using the captured image data obtained by decoding the coded data. Device.
前記合焦に関するパラメータは、前記符号化データに付加された、符号化の際に用いられた予測方式を示す予測方式情報である
請求項11に記載の画像処理装置。
The image processing apparatus according to claim 11, wherein the parameter related to focusing is predictive method information indicating a predictive method used at the time of coding, which is added to the coded data.
前記予測方式を設定する設定部をさらに備え、
前記復号部は、前記設定部により設定された前記予測方式による予測を用いて前記符号化データを復号する
請求項11に記載の画像処理装置。
Further provided with a setting unit for setting the prediction method,
The image processing apparatus according to claim 11, wherein the decoding unit decodes the coded data by using the prediction by the prediction method set by the setting unit.
撮像画像データを符号化して前記符号化データを生成する際に用いられた予測方式を示す予測方式情報に基づいて、前記合焦のための位相差検出用の補助情報を生成する補助情報生成部と、
前記復号部により前記符号化データが復号されて生成された撮像画像データと、前記補助情報生成部により生成された前記補助情報とに基づいて、前記位相差検出を行う位相差検出部と
をさらに備える請求項11に記載の画像処理装置。
Auxiliary information generation unit that generates auxiliary information for phase difference detection for focusing based on the prediction method information indicating the prediction method used when the captured image data is encoded to generate the coded data. When,
A phase difference detection unit that performs phase difference detection based on the captured image data generated by decoding the coded data by the decoding unit and the auxiliary information generated by the auxiliary information generation unit is further added. The image processing apparatus according to claim 11.
撮像画像データの符号化および復号による誤差を示す誤差情報に基づいて、前記合焦のための位相差検出の結果の信頼度を示す信頼度情報を生成する信頼度情報生成部と、
前記復号部により前記符号化データが復号されて生成された撮像画像データと、前記信頼度情報生成部により生成された前記信頼度情報とに基づいて、前記位相差検出を行う位相差検出部と
をさらに備える請求項11に記載の画像処理装置。
A reliability information generation unit that generates reliability information indicating the reliability of the result of the phase difference detection for focusing based on the error information indicating the error due to the coding and decoding of the captured image data.
A phase difference detection unit that performs phase difference detection based on the captured image data generated by decoding the coded data by the decoding unit and the reliability information generated by the reliability information generation unit. 11. The image processing apparatus according to claim 11.
合焦に関するパラメータに基づいて設定された予測方式による予測を用いて、撮像画像データの符号化データを復号する
画像処理方法。
An image processing method for decoding encoded data of captured image data by using prediction by a prediction method set based on parameters related to focusing.
JP2018223023A 2018-11-29 2018-11-29 Image processing device and method Pending JP2022028085A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018223023A JP2022028085A (en) 2018-11-29 2018-11-29 Image processing device and method
PCT/JP2019/044822 WO2020110771A1 (en) 2018-11-29 2019-11-15 Image processing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018223023A JP2022028085A (en) 2018-11-29 2018-11-29 Image processing device and method

Publications (1)

Publication Number Publication Date
JP2022028085A true JP2022028085A (en) 2022-02-15

Family

ID=70852923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018223023A Pending JP2022028085A (en) 2018-11-29 2018-11-29 Image processing device and method

Country Status (2)

Country Link
JP (1) JP2022028085A (en)
WO (1) WO2020110771A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240340411A1 (en) * 2021-08-24 2024-10-10 Sony Semiconductor Solutions Corporation Image processing device and method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209590A (en) * 1999-01-11 2000-07-28 Canon Inc Image encoder, image encoding method, storage medium and image pickup device
JP4564856B2 (en) * 2005-02-02 2010-10-20 キヤノン株式会社 Image encoding apparatus and imaging apparatus
JP2013093745A (en) * 2011-10-26 2013-05-16 Olympus Corp Image compression apparatus, imaging apparatus and image compression method
JP6611559B2 (en) * 2015-10-20 2019-11-27 キヤノン株式会社 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Also Published As

Publication number Publication date
WO2020110771A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
US11695941B2 (en) Image processing device and method
CN114598875B (en) Apparatus and method for quantization/inverse quantization and encoding/decoding apparatus
CN109076226B (en) Image processing apparatus and method
ES2966479T3 (en) An encoder, a decoder and corresponding methods for intraprediction
US11272180B2 (en) Image processing apparatus and method
US10924735B2 (en) Image processing apparatus and image processing method
RU2653464C2 (en) Image processing device and method of image processing
US11638003B2 (en) Video coding and decoding methods and devices using a library picture bitstream
EP3606066A1 (en) Image processing device and method
CN111355951B (en) Video decoding method, device and decoding equipment
JP2020174400A (en) Image decoding device and method
US20160227253A1 (en) Decoding device, decoding method, encoding device and encoding method
BR112013013513B1 (en) IMAGE PROCESSING DEVICE AND METHOD
US11895297B2 (en) Prediction mode determining method and apparatus, encoding device, and decoding device
US20200162735A1 (en) Image processing apparatus and method
US10893269B2 (en) Image processing device and method
US20240297993A1 (en) Prediction mode determining method and apparatus, encoding device, and decoding device
CN111901593B (en) Image dividing method, device and equipment
WO2020110771A1 (en) Image processing device and method
US11935212B2 (en) Image processing apparatus and method
CN114424554B (en) Method and apparatus for chroma QP offset table indication and derivation
KR102338669B1 (en) Image processing apparatus and method, and recording medium
US20240340411A1 (en) Image processing device and method