JP6463900B2 - 画像符号化装置及びその制御方法 - Google Patents

画像符号化装置及びその制御方法 Download PDF

Info

Publication number
JP6463900B2
JP6463900B2 JP2014085885A JP2014085885A JP6463900B2 JP 6463900 B2 JP6463900 B2 JP 6463900B2 JP 2014085885 A JP2014085885 A JP 2014085885A JP 2014085885 A JP2014085885 A JP 2014085885A JP 6463900 B2 JP6463900 B2 JP 6463900B2
Authority
JP
Japan
Prior art keywords
image
component
light field
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014085885A
Other languages
English (en)
Other versions
JP2015207831A5 (ja
JP2015207831A (ja
Inventor
正輝 北郷
正輝 北郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014085885A priority Critical patent/JP6463900B2/ja
Priority to US15/126,326 priority patent/US10122988B2/en
Priority to PCT/JP2015/060689 priority patent/WO2015159745A1/en
Priority to EP15780416.2A priority patent/EP3132609B1/en
Publication of JP2015207831A publication Critical patent/JP2015207831A/ja
Publication of JP2015207831A5 publication Critical patent/JP2015207831A5/ja
Application granted granted Critical
Publication of JP6463900B2 publication Critical patent/JP6463900B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/41Bandwidth or redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/64Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor
    • H04N1/648Transmitting or storing the primary (additive or subtractive) colour signals; Compression thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/635Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Description

本発明は、プレノプティックカメラ(Plenoptic Camera)で撮像された画像データの符号化技術に関する。
プレノプティックカメラ(Plenoptic Camera)は、光線の位置と角度情報を表すライトフィールドデータ(多視点画像群)を取得する。ライトフィールドデータを用いることで、撮像後に合焦位置を調整したり、視点位置を変更したり、被写体までの距離を取得できる。このような技術はコンピュテーショナル・フォトグラフィー(Computational Photography)として知られている。プレノプティックカメラで撮像されたライトフィールドデータ(多視点画像群)を符号化、復号する手法としては、特定の視点をJPEG符号化し、残りの視点をLZ符号化する手法が開示されている(特許文献1)。
特許第4969474号公報
プレノプティックカメラで撮像されたライトフィールドデータは、少ないデータ量で保持しておくことが望ましい。またリフォーカス処理(撮像後に合焦位置を調整する)、デプス推定処理、ステレオ立体視、裸眼立体視など、ユーザからの多様な処理要求に対応するため、データを効率的に保持しておくことが望ましい。従来方法では、ライトフィールドデータからリフォーカス画像やデプスマップを事前に生成しておき、ユーザからの処理要求に応じて生成データを出力する。しかし事前にデータ生成することから、保持しておくデータ量が増大してしまう。また別の方法では、ライトフィールドデータを符号化しておき、ユーザからの処理要求に応じてライトフィールドデータを復号してデータ生成する。しかしユーザからの処理要求毎に、ライトフィールドデータを復号してデータ生成を行うため、処理負荷が増大してしまう。つまりユーザからの多様な処理要求に迅速に対応できるライトフィールドデータの符号化方法が求められる。
本発明は、ライトフィールドデータをこれまで以上に効率的に記憶管理する符号化技術を提供するものである。また、ユーザからの多様な処理要求に迅速に対応できる符号化データを生成する技術を提供する。
この課題を解決するため、例えば本発明の画像符号化装置は以下の構成を備える。すなわち、
ライトフィールド撮像手段で撮像したN個(Nは2以上の整数)の視点画像を符号化する画像符号化装置であって、
前記N個の視点画像内の、所定の焦点位置に基づき決定された互いに対応するN個の対応画素の値の平均値を算出し、当該平均値を画素の値として有する、前記所定の焦点位置に合焦した画像を生成する第1の生成手段と、
前記N個の視点画像における対応画素の値を前記第1の生成手段で生成された画素の値から導出するための、N−1種類の差分値を生成する第2の生成手段と、
前記第1の生成手段で生成された画像、並びに、前記第2の生成手段で生成したN−1種類の差分値で構成される差分情報を符号化する符号化手段とを有する。
本発明によれば、ライトフィールドデータを、より効率的に記憶管理することが可能になる。
画像符号化装置の構成の一例を示す図。 第1の実施形態の画像復号装置の構成の一例を示す図。 画像復号装置の構成の一例を示す図。 情報処理部のハードウェア構成を示す図。 カメラの撮像部の構成の一例を示す図。 プレノプティックカメラによる光線の分離方法を示す図。 第1の実施形態のライトフィールドデータの一例を示す図。 第1の実施形態で行われる符号化処理の一例を示すフローチャート。 ライトフィールドデータからリフォーカス画像の生成方法を示す図。 ライトフィールドデータをウェーブレット変換する方法を示す図。 第1の実施形態で行われる復号処理の一例を示すフローチャート。 第1の実施形態で行われる復号処理の一例を示すフローチャート。 第2の実施形態で行われる符号化処理の一例を示すフローチャート。 第2の実施形態のライトフィールドRAWデータの一例を示す図。 第2の実施形態の画像復号装置の構成の一例を示す図。 第2の実施形態で行われる復号処理の一例を示すフローチャート。 第3の実施形態のライトフィールドデータの一例を示す図。 ライトフィールドデータをウェーブレット変換する方法を示す図。 ライトフィールドデータからリフォーカス画像の生成方法を示す図。 第4の実施形態のライトフィールドRAWデータの一例を示す図。 実施形態における符号化データファイルのデータ構造を示す図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の一つである。
[第1の実施形態]
第1の実施形態は、プレノプティックカメラにより取得されたライトフィールドデータを符号化する画像符号化装置、並びに、ユーザリクエストに応じて圧縮ライトフィールドデータの部分データを復号し、画像データを出力する画像復号装置に適用される。以下、本第1の実施形態における画像符号化装置について説明する。
詳細は以下から明らかになるが、本第1の実施形態では、ライトフィールド撮像手段から得られたライトフィールドデータ(各視点の画像であって、以下では視点画像という)を効率よく符号化するため、N個(Nは2以上の整数)の視点画像内の互いに対応する画素(以下、対応画素という)の値の平均値を求め、その平均値の画素で構成される、或る所定の焦点位置に合焦した1枚の画像を生成する。そして、その合焦した画像の画素値から、元の各視点画像の画素値を導出するためのN−1種類の差分値を算出する。平均値と、N−1個の計N種類のデータがあるので、元のN個の視点画像の各画素値が復元できることになる。そして、合焦画像、並びに、差分値で構成される差分情報を符号化する。この結果、もし、ユーザが望む画像が、符号化時に合焦させた合成画像である場合には、その差分情報は復号する必要はなく、合焦画像の符号化データのみを復号すれば良いことになる。ここで、合焦画像の画素を生成し、かつ、元の各視点画像を復元するための差分情報を生成するのに都合の良い変換として、発明者はHaar(ハール)ウェーブレット変換に着目した。通常、ハールウェーブレット変換は、画像そのものについて変換するものであるが、この技術を各視点画像の対応画素を変換対象としたわけである。なお、各視点画像に復元するために、各視点画像の平均値の画素値と、差分情報を生成できる変換であれば、特にHaarウェーブレット変換にこだわるものではない。本実施形態では、更に、ユーザからの要望によっては、各視点画像からステレオ画像を生成したいなどの要望にも応えるため、必要最小限の復号処理でそれを実現するための符号化データを生成することもその特徴とする。本第1の実施形態では、ライトフィールドデータの視点数は2×2の例とするが、もちろん、この数によって本発明が限定されるものではない。では、本第1の実施形態を説明する。
図1は、第1の実施形態の画像符号化装置をカメラに適用した場合の構成の一例を示す図である。カメラ100は、操作部101と、撮像部102と、情報処理部109と、記憶部107と、I/Oインターフェース108とを有している。
カメラ100はプレノプティックカメラであり、プレノプティックカメラによって取得された画像は、1枚の画像中に多視点の情報を含んでいる。本実施形態では、プレノプティックカメラによって取得されたRAWデータをライトフィールドRAWデータと呼び、ライトフィールドRAWデータをデモザイク処理して現像したデータをライトフィールドデータと呼ぶ。
図5(a)はカメラ100の外観を示す図である。図5(a)に示すように、カメラ100はライトフィールド撮像部102を備えている。図5(b)は撮像部102の内部構成を示す図である。ライトフィールド撮像部102は、ズームレンズ501、フォーカスレンズ502、503、開口絞り(以下、単に絞りと呼ぶ)504、シャッター505を有している。また光学ローパスフィルタ506、iRカットフィルタ507、カラーフィルタ508、撮像素子509およびA/D変換部510を有している。ユーザは絞り504を調整することにより、撮像部102に入射される入射光量を調節できる。撮像素子509は、CMOSやCCDなどの受光素子である。撮像素子509で被写体の光量を検知すると、検知された光量がA/D変換部510によってデジタル値に変換され、デジタルデータとして情報処理部109へと出力される。
さらに撮像部102は、複数の微小な凸レンズがアレイ状に並んだマイクロレンズアレイ511を有している。マイクロレンズアレイ511は、撮像レンズ501〜503を1枚のレンズであると仮想的にみなした時、その仮想レンズの像平面に配置されている。マイクロレンズアレイ511をこの仮想レンズの像平面に配置することで、撮像素子509に入力される光線の入射方向を分離できる。なお、1個のマイクロレンズは、撮像素子509内のm×n個の光受光素子に対応する。
図6(a)および(b)は、マイクロレンズアレイ511によって仮想レンズ601(撮像レンズ501乃至503で構成される)から入射される光線を分離する様子を示した図である。仮想レンズ601の上半分から入射された光線と、仮想レンズ601の下半分から入射された光線が、それぞれ撮像素子509の別の画素領域に照射される。この各画素領域の情報を選択的に抜き出すことで、ライトフィールドデータから多視点の情報を抽出できる。
図4は情報処理部109の内部構成を示す図である。情報処理部109は、CPU401、RAM402、ROM403を有し、各構成部はシステムバス404により相互に接続されている。
CPU401はカメラ100内の各部を統括的に制御するプロセッサである。RAM402は、CPU401の主メモリ、ワークエリア等として機能する。ROM403は、後述する図8のフローチャートに示されるプログラムを格納している。情報処理部109は、ROM403に格納されたプログラムを、CPU401がプログラムコードとして読み込み実行することで、図1に示す各構成部としての役割を実現する。なお情報処理部109の構成は、上記に示すもの以外に、図1に示す各構成部の役割を果たす専用の処理回路などを備えたものであっても良い。
操作部101は、カメラ本体に備えられたボタンやダイヤル、タッチパネルなどの入力装置であり、ユーザが操作して、撮影の開始、停止および撮影条件の設定などの命令を行える。本実施形態においては、撮像後に合焦位置を調整するリフォーカスモードをユーザが設定可能である。
記憶部107は、撮像部102により取得されたライトフィールドRAWデータ、および、ライトフィールドデータを保存することができる、メモリカードなどの不揮発性の記憶媒体である。
I/Oインターフェース108はユニバーサルシリアルバス(USB)によって実装されたシリアルバス接続を利用でき、対応するUSBコネクタを有する。もちろん、光ファイバーによるLAN接続や、無線接続などを利用しても良い。
表示部405は、撮影画像や文字の表示を行う。表示部405には一般的に液晶ディスプレイが用いられる。またタッチパネル機能を有していても良く、その場合はタッチパネルを用いたユーザ指示を操作部101の入力として扱うことも可能である。
図7を用いてプレノプティックカメラで取得されるライトフィールドデータについて説明する。プレノプティックカメラでは、図7(a)に示すようにメインレンズを複数に分割したときの各分割領域を通る光線情報が抽出できる。メインレンズは撮像レンズ501〜503を1枚のレンズであると仮想的にみなしたときの仮想レンズ601である。本実施形態においては、そのメインレンズを水平2分割×垂直2分割(以下、2×2分割と呼ぶ)に多視点分割した光線情報を抽出する場合について説明する。
図7(b)に示すように、メインレンズの領域aを通過した光線はセンサ上の画素群701aに入射し、メインレンズの領域bを通過した光線はセンサ上の画素群701bに入射する。つまり、画素群701aからの出力はレンズ領域aに対応する視点の情報を含み、画素群701bからの出力はレンズ領域bに対応する視点の情報を含む。本実施形態においては、センサは、図7(b)に示すように2×2個のセンサを単位とする、ベイヤパターンのRGB配列で構成されている。つまり、RGB各色が2×2分割の4個のセンサに分割されている。また、実施形態では、各センサが検出した信号を14ビットにA/D変換されるものとする。つまり、各画素の1色成分が14ビットで表現されている。もちろん、この分割形態に限られるものではなく、また、1色成分当たりのダイナミックレンジ圧縮により10ビット、または、12ビットなど他のビット数で表現しても良い。このようにプレノプティックカメラによって取得されたRAWデータをライトフィールドRAWデータと呼ぶ。
図7(b)で示されるライトフィールドRAWデータを、デモザイク処理して現像したデータをライトフィールドデータと呼ぶ。
例えば、図7(b)におけるカラーフィルタ508を通過したG0,R0,B0,G1それぞれの素子“a”のデータを、a(G0)、a(R0)a(B0)、a(G1)と表したとき、その集合は図7(c)のように表現できる。図7(c)は、1カラーフィルタ=1素子の関係を持つ、通常の撮像素子のベイヤ配列と同じであるので、これをデモザイク処理することで、1画素当たりRGBの3つの成分(実施形態では各成分とも8ビットとする)で構成される画像“a”を生成できる。
同様に、カラーフィルタ508を通過したG0,R0,B0,G1それぞれの素子“b”のデータを、b(G0)、b(R0)、b(B0)、b(G1)と表したとき、その集合は図7(d)となり、これをデモザイク処理して画像“b”を生成できる。また、カラーフィルタ508を通過したG0,R0,B0,G1それぞれの素子“c”のデータを、c(G0)、c(R0)、c(B0)、c(G1)と表したとき、その集合は図7(e)となり、これをデモザイク処理して画像“c”を生成できる。そして、カラーフィルタ508を通過したG0,R0,B0,G1それぞれの素子“d”のデータを、d(G0)、d(R0)、d(B0)、d(G1)と表したとき、その集合は図7(e)となり、これをデモザイク処理して画像“d”を生成できる。
上記のようにして、ライトフィールドRAWデータをデモザイク処理することで、1画素当たり3成分で構成される4つの画像a、b、c、d(視点a,b,c、dの画像と言い換えることもできる)で構成されるライトフィールドデータが生成されることになる。なお、ここで生成されるライトフィールドデータには、もはやベイヤ配列ではなくなっていて、画像a,b,c,dの各画素と、図7(b)の右側に示すa,b,c、dは直接には関係が無くなっていることに注意されたい。
さて、上記を踏まえ、本実施形態に示す情報処理部109の符号化処理の詳細を以下に説明する。図8は、プレノプティックカメラにより取得されたライトフィールドデータを符号化する場合に、カメラ100内で行われる処理を示したフローチャートである。
まず取得部103は、撮像部102から出力されたライトフィールドRAWデータを取得し、画像処理部104にライトフィールドRAWデータを出力する(ステップS801)。
次に画像処理部104は、ライトフィールドRAWデータを、デモザイク処理してライトフィールドデータ(4枚)を生成し、生成したライトフィールドデータをLF(Light Field)符号化部105に出力する(ステップS802)。
次にLF符号化部105は、ライトフィールドデータの符号化処理を行う。まずライトフィールドデータから視点間の冗長性を削減するため、視点間(視点a、b、c、d)の画素の対応関係を決定する。対応関係はリフォーカス画像の合焦位置を指定することで決定される(ステップS803)。
操作部101が、撮影後に合焦位置を調整するリフォーカスモードに設定されているとき、撮像後にユーザから最適な合焦位置が入力される。例えば、表示部405の液晶ディスプレイに表示される画像に対して、ユーザが合焦位置をタッチパネル機能により指定することで操作部101の入力とする。もちろん合焦位置の指定は、複数の合焦位置の画像を提示し、ユーザが選択するなど他の方法を用いても構わない。また、リフォーカスモードに設定されていない場合には、デフォルトの合焦位置(実施形態では、後述する視差0の)が指定されているものとして処理を行う。
ここで、リフォーカス画像とは、ライトフィールドデータの視点間(視点a、b、c、d)の対応画素を合成して、指定の位置に合焦した画像を示す。図9を用いて、ライトフィールドデータにおける視点間の対応画素の決定方法について説明する。図9では、オブジェクト901が奥に、オブジェクト902が手前に配置されている例を示している。以下、オブジェクト901に焦点を合わせて撮像したとして説明する。
まず合焦位置を変更せず、ライトフィールドデータからリフォーカス画像を生成するときの対応画素について、図9(a)を用いて説明する。即ちステップS803で合焦位置の変更指示がない場合を示す。
図9(a)の右側には、ライトフィールドデータを構成する4つの視点の画像a乃至dの同じ位置の画素を2×2に配列した様を示している。同図における符号903aは、デモザイク処理後の画像a内の或る画素を示しており、3つの成分を有する。つまり、図9(a)の右側の図は、図7(b)の右側と混同しないように注意されたい。
図9(a)における2×2分割した画素903a、903b、903c、903dの4画素が互いに対応する画素(対応画素)とし、その4画素の色値(ここではR,G、B)を平均してリフォーカス画像の1画素とする。視点a、b、c、dの全画素で同様の対応関係を用いて4画素の色値の平均を計算し、画素を配列することでリフォーカス画像が生成される。本実施形態では、図9(a)の対応画素を「視差0の対応画素」と呼び、リフォーカス画像を「視差0のリフォーカス画像」と呼ぶ。即ちステップS803で合焦位置の変更指示がないときは、デフォルトとして「視差0の対応画素」を設定することになる。操作部101が、リフォーカスモードに設定されていないなど、合焦位置の変更を行わない場合も「視差0の対応画素」を設定する。
次に合焦位置を変更してオブジェクト902に焦点を合わせたリフォーカス画像を生成するときについて図9(b)を用いて説明する。これは、ステップS803で合焦位置の変更指示がある場合を示す。
この場合、各ライトフィールドデータは互いに視差を持つことになる。この視差を求める手法の一例としては、次のようものである。
まず、各視点の画像毎に、コントラストの大小を表す2値画像を生成する。そしてユーザが指定した位置に対応する被写体の2値画素が、2視点の2値画像のどの部分に位置するのかを判定するためのマッチング処理を行う。例えば、視点a、視点bの画像の場合、それらは互いに水平方向に視差があるものと見なせるので、水平方向の視差を求める。かかる処理を、視点a、b、c、dの画像に対しても行うことになる。
今、例えば、図9(b)に示すように画像a内の画素904a、画像b内の画素904b、画像c内の画素904c、画像d内の904dの4画素が対応画素となったと仮定する。この場合、4画素の色値を平均してリフォーカス画像の1画素とする。視点a、b、c、dの全画素で同様の対応関係を用いて4画素の色値の平均を計算し、画素を配列することでリフォーカス画像が生成される。
上記の処理は、各視点(視点a、b、c、d)の画素群を指定の視差量分シフトして対応画素とすることを示している。視差0の対応点903a、903b、903c、903dを基準として考える。画素904aは画素903aの右下に、画素904bは画素903bの左下に、画素904cは画素903cの右上に、画素904dは画素903dの左上に、それぞれ1画素シフトしている。本実施形態では、図9(b)の対応画素を「視差1の対応画素」と呼び、リフォーカス画像を「視差1のリフォーカス画像」と呼ぶ。
またオブジェクト902より奥に焦点を合わせたリフォーカス画像を生成するときは、各視点の画素群のシフト方向が逆方向となる。即ちステップS803で合焦位置が変更されるとき、焦点位置に応じた視差量をシフトした「視差Nの対応画素」(Nは整数)を設定する(ステップS804)。
実施形態では、上記の処理で設定された対応画素に対して、視点間の冗長性を削減するため、視点間ウェーブレット変換を行う(ステップS805)。視点間ウェーブレット変換とは、ライトフィールドデータにおける視点間の対応画素をウェーブレット変換することを示す。図9(a)を用いて説明すると、対応画素903a、903b、903c、903dに対してウェーブレット変換を行う。ここでは以下の式(1)(2)で示されるHaarウェーブレット変換(ハールウェーブレット変換)を用いる。
L(低周波成分)=(Xa+Xb)/2 …(1)
H(高周波成分)=(Xa―Xb)/2 …(2)
上記において、Xa,Xbは1次元方向に隣接する2つの画素を示している。実施形態では、上記式(1)、(2)を2×2個の2次元に配列させた対応画素903a乃至903dに拡張することになるので、水平方向、垂直方向にそれぞれについてHaarウェーブレット変換を行う。
図10(a)、(b)を用いて、視点間Haarウェーブレット変換を説明する。図10(a)は、対応する4画素を隣接する2×2に再配置した例を示している。視差0のリフォーカス画像の場合は、図10(a)は図9(a)と同じになる。視差1のリフォーカス画像の場合、図10(a)の2×2の画素a、b、c、dは、図9(b)の画素904a乃至904dに対応することになる点に注意されたい。さて、図10(a)の配列における、実施形態の視点間Haarウェーブレット変換は、以下の式で示される。
R成分 =(a+b+c+d)/4 …(3)
d1成分=((a+c)―(b+d))/4 …(4)
d2成分=((a+b)−(c+d))/4 …(5)
d3成分=((a+d)−(b+c))/4 …(6)
上記において「R成分」は、色成分の「R」ではなく、リフォーカス画像の画素(3つの色成分の平均値で構成される)を意味する。2次元のウェーブレット変換によって、4つの成分が生成されるので、便宜的に「成分」と表現していることに注意されたい。
視点間ウェーブレット変換後の分解成分は図10(b)で示される。画素値a、b、c、dがR成分(平均成分)、d1成分(差分成分)、d2成分(差分成分)、d3成分(差分成分)に分解される。このときR成分は、「視差Nのリフォーカス画像」となり、図9(a)の例では「視差0のリフォーカス画像」となる。
本実施形態では視点数は4視点であり、平均成分の成分数は1となり、差分成分の成分数は3となり、合計の成分数は4となる。すなわち視点数と合計の成分数は4で一致する。またd1成分は水平視差を表し、d2成分は垂直視差を表している。図9(b)など視差を有する対応画素の視点間ウェーブレット変換も同様の処理で行われる。
ライトフィールドデータの符号データを、上記の特徴を利用して部分的に復号することで、リフォーカス処理、デプス推定処理、ステレオ立体視、裸眼立体視など、ユーザからの多様な処理要求に効果的に対応できる。復号処理の詳細は後述する。
次に視点間ウェーブレット変換後の分解成分に対して画面内のウェーブレット変換を行う。この場合のウェーブレット変換は、Haarウェーブレットでなくても構わず、JPEG2000等で採用されているウェーブレット変換で良い。即ちR成分、d1成分、d2成分、d3成分の各成分に対してウェーブレット変換を行う。図10を用いて説明すると、図10(b)は視点間ウェーブレット変換後の分解成分を示しており、図10(c)は分解成分毎に配置し直したものである。分解成分毎(R成分、d1成分、d2成分、d3成分)に水平方向、垂直方向にウェーブレット変換を行うことで、図10(d)に示すように、各分解成分がウェーブレット係数(LL成分、HL成分、LH成分、HH成分)に分解される(ステップS806)。
次に図10(d)に示されるウェーブレット係数(LL成分、HL成分、LH成分、HH成分)を量子化し、エントロピー符号化する(ステップS807)。ここでは分解成分毎の変換にウェーブレット変換を用いたが、DCT変換など他の空間周波数変換を用いても構わない。
ステップSS806、および、ステップS807に関しては、JPEG2000など標準符号化技術を用いても構わない。JPEG2000を用いるときは、図10(c)に示されるように分解成分単位(R成分、d1成分、d2成分、d3成分)をJPEG2000の入力とする。本実施形態では、エントロピー符号化されたライトフィールドデータを圧縮ライトフィールドデータを呼ぶ。
LF符号化部105は、圧縮ライトフィールドデータを出力部106に出力する(ステップ808)。
出力部106は、圧縮ライトフィールドデータを記憶部107に出力し、保存する。保存された圧縮ライトフィールドデータは、I/Oインターフェース108を介して、カメラ外のデバイスに符号化データファイルとして出力される。
図21は、出力部106が出力する符号化データファイル2100のデータ構造図である。図示に示すように、このファイルには、復号処理に必要なデータ(リフォーカス画像の水平、垂直画素数、色成分のビット数など)が格納される。その中には、図示の矢印2101,2102,2103で示す符号化データLL(R)、LL(d1)、LL(d2)の格納位置のアドレスも含まれる。このアドレスは、該当する符号化データから復号処理を介することを可能にするためであるが、その理由は、後述する画像復号装置の説明にて明らかにする。なお、ファイルヘッダが固定長である場合には、符号化データLL(R)はファイルヘッダの直後に位置することが約束されるので、符号化データLL(R)の先頭アドレス2101をファイルヘッダに格納する必要はない。
以下、実施形態に示す画像復号装置について説明する。図2は、第1の実施形態の画像復号装置の構成の一例を示す図である。
画像復号装置200は、I/Oインターフェース201と、操作部202と、記憶部203と、情報処理部210と、表示部209とを有している。ここで、画像復号装置200は、コンピュータ、または、プレノプティックカメラである。本実施形態では、画像復号装置200をコンピュータとして説明する。
I/Oインターフェース201は、I/Oインターフェース108と同様にUSBコネクタを有する。デバイス200はI/Oインターフェース201を介して、カメラ100のI/Oインターフェース108から出力されるライトフィールドデータの符号化データファイル(図21参照)を取得する。
記録部203は、I/Oインターフェース201から取得された符号化データファイルを保存することができる、メモリカードなどの不揮発性の記憶媒体である。操作部202は、コンピュータに備えられたキーボード、マウスなどの入力装置であり、ユーザが操作して、リフォーカス処理を行う、ステレオ立体視を行う、裸眼立体視を行う、デプス推定を行うなどの命令を行える。表示部209は、撮影画像や文字の表示を行う。通常の液晶ディスプレイの他に、ステレオ立体ディスプレイ、裸眼立体ディスプレイが用いられる。情報処理部210の内部構成は、図4に示す情報処理部109と同様であり、情報処理部210内のROMには図11のフローチャートに示されるプログラムが格納されている。以下、本実施形態に示す情報処理部210の処理について説明する。
図11は、圧縮ライトフィールドデータを復号する場合に、画像復号装置200内で行われる処理を示したフローチャートである。
まず取得部204は、操作部202からユーザのリクエストを取得する。ユーザのリクエストとは、ライトフィールドデータからリフォーカス処理を行う、ステレオ立体視する、裸眼立体視する、デプス推定を行うなどの処理が挙げられる。もちろんライトフィールドデータを用いる画像処理であれば、被写界深度制御を行うなど他のリクエストであっても構わない。ユーザのリクエストは、符号選択部205に送出される(ステップS1101)。
次に取得部204は、記憶部203から出力された符号化データファイルを取得し、符号選択部205に圧縮ライトフィールドデータを出力する(ステップS1102)。本実施形態では、圧縮ライトフィールドデータにおけるR成分が「視差0のリフォーカス画像」である場合ついて説明する。
符号選択部205は、ユーザのリクエストに基づいて、符号化ライトフィールドから復号する部分符号データを選択する(ステップS1103)。この選択する際に利用するのは、図21に示したアドレス2101乃至2103となる。
ライトフィールド復号部206は、選択された部分符号化データを復号する(ステップS1104)。そして、ユーザの指示に従い、画像処理部207による画像処理を行うべきか否かを判定し(ステップS1105)、必要な場合には画像処理部207にて画像処理を行う(ステップS1106)。そして、出力部208が復号結果もしくは復号結果に対する画像処理後の画像を、表示部209に出力又は記憶部203に記憶する処理を行う(ステップS1107)。
以下、ユーザのリクエストに対する部分符号データの選択処理(ステップS1103)を、図10(c)を用いて説明する。ユーザのリクエストに対して以下の処理1〜6のいずれかを選択することになる。
処理1:ユーザからのリクエストが、合焦位置の変更を行わないリフォーカス処理であった場合:
この場合、R成分の符号データを復号対象の部分符号化データとして選択する。他の成分d1、d2、d3の符号化データは非復号対象となる。
処理2:ユーザからのリクエストが、合焦位置の変更を行うリフォーカス処理であった場合:
R成分、d1成分、d2成分、d3成分の各符号データを復号対象の部分符号データとして選択する。
処理3::ユーザからのリクエストがステレオ立体視である場合:
この場合、水平方向の異なる2視点位置の2枚の画像を生成しなければならない。換言すれば、垂直方向の視差は無視して良い。そのため、R成分、d1成分の符号データを復号対象の部分符号データとして選択する。
処理4:ユーザからのリクエストが、裸眼立体視である場合:
この場合、R成分、d1成分、d2成分、d3成分の符号データを部分符号データとして選択する。また視点が水平方向のみの場合、R成分、d1成分の符号データを部分符号データとして選択する。
処理5:ユーザからのリクエストがデプス推定であり、水平方向の視差を推定する場合:
この場合、R成分、d1成分の符号データを復号対象の部分符号データとして選択する。
処理6:ユーザからのリクエストがデプス推定であり、垂直方向の視差を推定する場合:
この場合、R成分、d2成分の符号データを復号対象の部分符号データとして選択する。また、垂直方向の視差推定は、身長推定など垂直方向の視差量が有効な場合に用いる。
上記の処理により選択した符号化ライトフィールドデータの部分符号データは、LF(Light Field)復号部206に供給されることになる。
LF復号部206は、圧縮ライトフィールドデータの部分符号データを復号する(ステップ1104)。1次元方向のHaarウェーブレット逆変換では、以下の式で表される。
a=L+H …(7)
b=L―H …(8)
上式(7)、(8)は1次元に対するものである。実施形態では、2次元における4画素の視点間ウェーブレット逆変換であるので、その変換式は、上式(7)、(8)の代わりに、次式(9)乃至(13)となる。
a=R成分+d1成分+d2成分+d3成分 …(9)
b=R成分−d1成分+d2成分−d3成分 …(10)
c=R成分+d1成分−d2成分−d3成分 …(11)
d=R成分−d1成分−d2成分+d3成分 …(12)
上記の結果、ライトフィールドデータ(4視点の画像)が復元されることになる。ここで、ユーザのリクエストに対する圧縮ライトフィールドデータに対する、LF復号部206による部分復号処理と出力部208の出力よりについて、図10(c)を用いて説明する。
処理1:ユーザからのクエストが、合焦位置の変更を行わないリフォーカス処理であった場合:
この場合、R成分が符号データのみが復号対象の部分符号データとして選択される。よって、LF復号部206はR成分の符号化データのみを復号することになる。復号結果は、数式(3)に示すように「視差0のリフォーカス画像」でもあるので、出力部208はLF復号部206の復号結果をそのまま出力することになる。
処理2:ユーザからのリクエストが合焦位置の変更を伴うリフォーカス処理であった場合:
R成分、d1成分、d2成分、d3成分の全部分符号データが復号対象として選択される。従って、LF復号部206は、R成分、d1成分、d2成分、d3成分を復号する。LF復号部206は、更に、復号したR成分、d1成分、d2成分、d3成分の対応画素に対して、式(9)乃至(12)の視点間ウェーブレット逆変換を行うことで、視点a、b、c、dの4つの画像(ライトフィールドデータ)を生成する。画像処理部207は、その視点a,b,c,dの画像から、ユーザが指定した合焦位置のリフォーカス画像を生成する。出力部208は画像処理部207が生成したリフォーカス画像を出力することになる。なお、リフォーカス画像の生成法は、ステップS804で説明したのと同様である。
処理3:ユーザからのリクエストがステレオ立体視である場合:
このとき、復号対象として選択されるのはR成分、d1成分の部分符号データとなり、d2成分、d3成分の部分符号化データは復号対象とはならない。よって、d2、d3の成分の値が0であるものとみなして、視点間ウェーブレット逆変換を行えば良い。視点a、b、c、dの画像が生成される。このとき、視点a、cの画像は互いに同一となり、視点b、dの画像は互いに同一となる。つまり、現実には、LF復号部206は、式(9)、(10)による視点a,bの画像のみを生成すれば良く、式(11)、(12)は演算しなくてよい。なお、視点c、dの画像を生成して出力しても構わない。
図7(a)を用いて説明すると、視点a、cの画像は、仮想レンズ601の領域aと領域cを合わせた領域を通過した光線により生成した画像となる。また視点b、dの画像は、仮想レンズ601の領域bと領域dを合わせた領域を通過した光線により生成した画像となる。即ち生成した画像a、bは、撮像時の画像a、bとは異なり、光量が多くノイズの少ないステレオ立体視に適した画像となる。出力部208は、生成した立体視画像(視点a,cの画像)を出力することになる。
処理4:ユーザからのリクエストが裸眼立体視である場合:
R成分、d1成分、d2成分、d3成分の全部分符号データが復号対象として選択される。従って、LF復号部206は、これら全部分符号化データを復号する。また、LF復号部206は、更に、式(9)乃至(12)の演算を行い、視点a,b,c,dの画像を得る。
画像処理部207は、生成された視点a、b、c、dの画像から裸眼立体ディスプレイの視点数に応じた視点を自由視点画像合成する。例えば垂直方向に8視点、水平方向に8視点の64視点の裸眼立体ディスプレイの場合、視点a、b、c、dの画像を選択し、視点a、b、c、dの間の60視点を自由視点画像合成で生成し、垂直方向に8視点、水平方向に8視点の64視点の画像データを出力する。また視点が水平方向のみの場合、生成された視点a、b、c、dの画像から裸眼立体ディスプレイの視点数に応じた視点を自由視点画像合成する。例えば水平方向に8視点の裸眼立体ディスプレイの場合、視点a、bの画像を選択し、視点a、bの間の6視点を自由視点画像合成で生成し、水平方向に8視点の画像データを出力する。ここでは、自由視点画像合成の方法については説明を割愛する。出力部208は、上記のようにして生成された画像を出力することになる。
処理5:ユーザからのリクエストがデプス推定であり、水平方向の視差を推定する場合:
R成分、d1成分の符号データが復号対象の部分符号データとして選択される。つまり、復号処理は、処理3と同じで良い。一方、画像処理部207は、復号して得られた水平軸の視差がある2つの画像のステレオマッチング処理によりデプスマップを生成し、出力部208は、それを出力する。もちろん、視点c、dからデプスマップを生成しても同じことである。
処理6:ユーザからのリクエストがデプス推定であり、垂直方向の視差を推定する場合:
R成分、d2成分の部分符号データが復号対象として選択される。よって、LF復号部206は、R成分、d2成分の復号処理を行う。このときd1成分、d3成分の値を0にセットする。R成分、d1成分、d2成分、d3成分の対応画素に対して、視点間ウェーブレット逆変換を行うことで、視点a、b、c、dの画像が取得される。このときの視点a、bの画像は同一となり、視点c、dの画像は同一となる。図7(a)を用いて説明すると、視点a、bの画像は、仮想レンズ601の領域aと領域bを合わせた領域を通過した光線により生成した画像となる。また視点c、dの画像は、仮想レンズ601の領域cと領域dを合わせた領域を通過した光線により生成した画像となる。即ち生成した画像a、cは、撮像時の画像a、cとは異なり、光量が多くノイズの少ない垂直方向の視差推定に適した画像となる。
画像処理部207は、復号して得られた垂直軸に視差がある2つの画像に対してステレオマッチングによりデプスマップを生成し、出力部208はそれを出力する。もちろん視点b、dを選択しても構わない。ここでは、ステレオマッチングの方法については説明を割愛する。
上述の画像復号装置の例では、画像復号装置200内の記憶部203に圧縮ライトフィールドデータが記録されている場合について説明した。画像復号装置の次の例として、サーバ上に圧縮ライトフィールドデータが記録されている場合について説明する。ユーザデバイスからのリクエストを入力して、圧縮ライトフィールドデータを復号し、生成した画像データをユーザデバイスに出力する例である。
図3は、第1の実施形態の画像復号装置の構成の一例を示す図である。ユーザデバイスであるコンピュータ300は、操作部301と、I/Oインターフェース302と、記憶部303と、情報処理部310と、表示部311とを有している。一方、サーバ312は、I/Oインターフェース313と、記憶部314と、情報処理部322とを有している。ここで、I/Oインターフェース302、313は、LANで接続されている。コンピュータ300はI/Oインターフェース302を介して、サーバ312のI/Oインターフェース313から出力される符号化データを取得する。サーバ312は、I/Oインターフェース313を介してコンピュータ300のI/Oインターフェース302から出力されるユーザのリクエストを取得する。
記録部303、314は、圧縮ライトフィールドデータを保存することができる、メモリカードなどの不揮発性の記憶媒体である。操作部301は、コンピュータに備えられたキーボード、マウスなどの入力装置であり、ユーザが操作して、リフォーカス処理を行う、ステレオ立体視を行う、裸眼立体視を行う、デプス推定を行うなどの命令を行える。表示部311は、撮影画像や文字の表示を行う。通常の液晶ディスプレイの他に、ステレオ立体ディスプレイ、裸眼立体ディスプレイが用いられる。情報処理部310、322の内部構成は、図4に示す情報処理部109と同様であり、情報処理部310、322内のROMには図12のフローチャートに示されるプログラムが格納されている。
以下、本実施形態に示す情報処理部310、322の処理について説明する。以下は、ユーザがコンピュータ300を操作して、サーバ312の記憶部312に記憶されたデータベース中の圧縮ライトフィールドデータの1つを選択しているものとして説明する。
図12は、圧縮ライトフィールドデータを復号する場合に、コンピュータ300、および、サーバ312内で行われる処理を示したフローチャートである。情報処理部310,322のいずれが行うかを明確にするため、図示では、該当する処理を囲む波線に、参照符号310,322を付した。
まず取得部315は、ユーザのリクエストを取得する。ユーザのリクエストとは、ライトフィールドデータからのリフォーカス処理を行う、ステレオ立体視する、裸眼立体視する、デプス推定を行うなどの処理が挙げられる。ユーザのリクエストは、操作部301から入力され、I/Oインターフェース302、313を介して取得部315が取得する。ユーザのリクエストは、符号選択部316に送出される(ステップS1201)。
次に取得部315は、記憶部314から出力された圧縮ライトフィールドデータを取得し、符号選択部316に圧縮ライトフィールドデータを出力する(ステップS1202)。
符号選択部316は、ユーザのリクエストに基づいて、圧縮ライトフィールドデータから復号する部分符号データを選択する(ステップS1203)。この選択処理は先に説明した符号選択部205における選択処理1乃至6と同様である。従って、ここでの詳述は省略する。
次に復号判定部317は、サーバ312で圧縮ライトフィールドデータを復号するか、圧縮ライトフィールドデータの部分符号データを出力するかを判定する(ステップS1204)。そして、復号判定部317は、サーバ312にて復号すると判定した場合には、選択した部分符号化データをLF復号部318に出力し、復号させる。一方、復号しないと判定した場合には、復号判定部317は、選択した部分符号化データを出力部321に向けて出力する。出力部321は画像符号化部320又は復号判定部317から与えらえたデータを、ユーザのコンピュータ300に送信する。
ここで、復号判定部317の判定は、ユーザのコンピュータ300からのリクエストが以下のi乃至iiiのいずれかの場合、圧縮ライトフィールドデータをLF(Light Field)復号部318に出力する。LF復号部318は圧縮ライトフィールドデータの部分符号データを復号する(ステップS1205)。
i).リクエストが合焦位置の変更を行うリフォーカス画像の場合
この場合、復号する部分符号化データは、全部分符号化データが選択され、LF復号部318で復号される。
ii).リクエストがデプス推定であり、水平方向の視差を推定する場合
この場合、復号する部分符号化データは、R成分、d1成分の部分符号化データが選択され、LF復号部318で復号される。
iii).リクエストがデプス推定であり、垂直方向の視差を推定する場合
この場合、復号する部分符号化データは、R成分、d2成分の部分符号化データが選択され、LF復号部318で復号される。
またユーザのコンピュータ300からのリクエストが以下iv乃至viの場合、圧縮ライトフィールドデータの部分符号データを出力部321に出力する。
iv).リクエストが合焦位置の変更を行わないリフォーカス処理である場合
この場合、R成分の符号データが出力部321に出力される。
v).リクエストがステレオ立体視である場合
R成分、d1成分の符号データが部分符号データとして選択され、出力部321に出力する。
vi).リクエストが裸眼立体視である場合
R成分、d1成分、d2成分、d3成分の符号データが部分符号データとして選択され、出力部321に出力される。なお、視点が水平方向のみの場合には、R成分、d1成分の符号データが部分符号データが選択され、出力部321に出力される。
さて、LF復号部318は入力した部分符号化データを復号し、ライトフィールドデータを生成し、それを画像処理部319に出力する。
画像処理部319は、与えられたライトフィールドデータに対して画像処理を行う(ステップS1206)。この処理内容は次の通りである。
i).リクエストが合焦位置の変更を行うリフォーカス処理である場合:
画像処理部319は、復号して得られた視点a、b、c、dの4つの画像(ライトフィールドデータ)から、ユーザが指定した合焦位置のリフォーカス画像を生成する。すなわち、視差Nのリフォーカス画像を生成する。
ii).リクエストがデプス推定であり、水平方向の視差を推定する場合:
LF画像復号部318は水平軸に沿って視差がある2つの画像を生成することになるので、画像処理部319はステレオマッチング処理によりデプスマップを生成し、そのデプスマップデータを画像データとして出力する。
iii).リクエストがデプス推定であり、垂直方向の視差を推定する場合:
LF画像復号部318は垂直軸に沿って視差がある2つの画像を生成することになるので、画像処理部319はステレオマッチング処理によりデプスマップを生成し、そのデプスマップデータを画像データとして出力する。
上記のようにして生成された画像データは、画像符号化部320に送出される。画像符号化部320は、生成された画像データを符号化する(ステップS1207)。ここで符号化処理は、従来のJPEG、JPEG2000、PNGなどの符号化処理で構わない。そして、最後に符号化された画像データを出力部321に出力する。
上記の処理によりサーバ312は、復号判定部317から直接出力された符号化ライトフィールドデータ、又は、画像符号化部320からの符号化画像データのいずれかを、ユーザのコンピュータ300に送信することになる(ステップS1208)。
従来手法では、符号化したライトフィールドデータ、または、生成した画像データを伝送していた。本実施形態の方法では、リフォーカス処理、ステレオ立体視、裸眼立体視、デプス推定処理などユーザのリクエストに対して符号化したライトフィールドデータの部分データ、または、生成した画像データを伝送すれば良く。データ伝送の面では、部分データの伝送により高速に伝送が可能である。また画像生成の面では、部分復号からの画像処理により、少ない演算量で画像生成が行える。
次に、ユーザのコンピュータ300における処理を説明する。取得部304は、サーバ312の出力部321から送信されてきた圧縮ライトフィールドデータの部分符号データ、または、符号化した画像データを取得する。出力部321から出力されたデータは、I/Oインターフェース313、302を介して取得部304が取得することになる(ステップS1209)。
次に取得部304は、圧縮ライトフィールドデータの部分符号データ、または、符号化した画像データを復号選択部305に出力する。
復号選択部305は、コンピュータ300で圧縮ライトフィールドデータを復号するか、画像データを復号するかを判定し、その判定結果に基づき、受信した符号化データを画像復号部306、LF復号部307のいずれかに出力する(ステップS1210)。
これまでの説明から明らかなように、ユーザから要求が以下のi乃至iiiのいずれかの場合は、受信した符号化画像データは、それ単独で完結した画像であるので、画像復号部306に出力する。
i).合焦位置の変更を行うリフォーカス処理のリクエストに対する応答の場合:
この場合、画像復号部306は復号して得られた画像を「視差Nのリフォーカス画像」として出力部309に出力する(ステップS1211)。ここで復号処理は、従来のJPEG、JPEG2000、PNGなどの復号処理と同じである。
ii).デプス推定であり、水平郷校の視差を推定するリクエストに対する応答の場合:
この場合、画像復号部306は復号して得られた画像が、「デプスマップ」であるものとして出力部309に出力する。
iii).デプス推定であり、垂直方向の視差を推定するリクエストに対する応答の場合:
この場合、画像復号部306は復号して得られた画像が、「デプスマップ」であるものとして出力部309に出力する。
一方、ユーザからのリクエストが以下のiv乃至viの場合、復号選択部305は、受信した符号化画像データがライトフィールドデータの部分符号化データであるものとし、それをLF復号部307に出力し、復号を行わせる(ステップS1212)。
iv).合焦位置の変更を行わないリフォーカス画像のリクエストに対する応答の場合:
この場合、受信した符号データはR成分の部分符号データとなる。LF復号部307は「視差0のリフォーカス画像」を復号することになる。
v).ステレオ立体視のリクエストに対する応答の場合:
受信した符号化データはR成分、d1成分の部分符号データである。それゆえ、d2、d3は0であるものとみなしし、視点a、b、c、dの画像を生成する。
vi).裸眼立体視のリクエストに対する応答の場合:
この場合、受信した符号化データは、R成分、d1成分、d2成分、d3成分の符号データである。よって、LF復号部307はこれら全てを復号し、視点a、b、c、dの画像データを生成する。
画像処理部308は、LF復号部307で復号されたライトフィールドデータに対して、画像処理を行う(ステップ1213)。ここでの画像処理は、次の通りである。
・合焦位置の変更を行わないリフォーカス処理の要求に対する応答の場合:
生成された「視差0のリフォーカス画像」を出力部309に出力する。
・ステレオ立体視のリクエストに対する応答の場合:
生成された視点a、b、c、dの画像から視点a、bの画像を選択してステレオ画像として出力部309に出力する。もちろん視点c、dを選択しても構わない。
・裸眼立体視のリクエストに対する応答の場合:
生成された視点a、b、c、dの画像データから裸眼立体ディスプレイの視点数に応じた視点を自由視点画像合成する。自由視点画像合成に係る処理は既に説明したのと同じで良いので、ここでの説明は省略する。
出力部309は、上記のようにして生成されや画像データを記録部303、または、表示部311に出力する(ステップ1214)。
上述の符号化処理、復号処理により本実施形態によれば、リフォーカス画像、ステレオ立体視、裸眼立体視、デプス推定などの画像処理を、少ないデータ量、かつ、少ない演算量で実現することが可能となる。
[第2の実施形態]
第1の実施形態では、プレノプティックカメラにより取得されたライトフィールドRAWデータを、デモザイク処理してライトフィールドデータを生成し、それを符号化する画像符号化装置を説明した。また、ユーザリクエストに応じて圧縮ライトフィールドデータの部分データを復号し、画像データを出力する画像復号装置について説明した。
第2の実施形態では、プレノプティックカメラにより取得されたライトフィールドRAWデータを符号化する画像符号化装置、ユーザリクエストに応じて圧縮ライトフィールドRAWデータの部分データを復号する画像復号装置について説明する。
本第2実施形態でも、画像符号化装置は図1に示すカメラ100に搭載され、その構成は同じである。よって情報処理部109の内部構成も第1の実施形態と同様であり、情報処理部109内のROMに格納されているプログラムが異なるものである。すなわち、本第2の実施形態における符号化処理は、図8に代えて、図13に示すフローチャートのようになる。以下、本第2の実施形態における情報処理部109の処理内容を図13のフローチャートに従って説明する。同図は、プレノプティックカメラにより取得されたライトフィールドRAWデータの符号化処理を示している。
まず取得部103は、撮像部102から出力されたライトフィールドRAWデータを取得し、画像処理部104にその取得したライトフィールドRAWデータを出力する(ステップ1301)。
次に画像処理部104は、ライトフィールドRAWデータを色成分毎に分割して、LF(Light Field)符号化部105にライトフィールドRAWデータを出力する(ステップ1302)。
図7(b)に示すように撮像素子はベイヤパターンのRGB配列で構成されている。RGB各色が2×2分割の4画素に分割されており、各画素14ビットで表現されている。もちろん、ダイナミックレンジ圧縮により10ビット、または、12ビットなど他のビットで表現しても良い。
ここで、本第2の実施形態における、ライトフィールドRAWデータの分割方法を図14を参照して説明する。色成分の分割では、R0成分、G0成分、G1成分、B0成分毎に配列して、各成分毎の画像データを構築する。すなわち、図14(a)乃至(d)に示すように、色成分毎(R0成分、G0成分、G1成分、B0成分)に2×2分割の多視点画像を生成する。
画像処理部104は、色成分毎(R0成分、G0成分、G1成分、B0成分)に分割されたライトフィールドRAWデータをLF符号化部105に出力する。
LF符号化部105では、色成分毎(R0成分、G0成分、G1成分、B0成分)のライトフィールドRAWデータにおける2×2個のデータ、例えば、図14(a)のG0成分の画素1401a、1401b、1401c、1401dが、図10(a)の2×2の画素a、b、c、dの対応画素する画素と見なし、Haarウェーブレット変換を経て符号化する。なお、第1の実施形態における図10(a)における画素a,b,c,dそれぞれは、3つの色成分が含まれていたが、本第の2実施形態における図10(a)の画素a、b、c、dは1色成分のみを有することになる点に注意されたい。色成分は、R0、G0,G1,B0に既に分かれているからであり、それぞれの成分ごとに符号化することになる。
色成分毎の処理は第1の実施形態と共通のため、ステップ1303〜1308の説明は割愛する。出力部106は、圧縮ライトフィールドRAWデータを記憶部107に出力し、保存する。保存された圧縮ライトフィールドRAWデータは、I/Oインターフェース108を介して、カメラ外のデバイスに出力される。
以下、本第2の実施形態に示す画像復号装置について説明する。図15は、第2の実施形態の画像復号装置の構成の一例を示す図である。
画像復号装置1500は、I/Oインターフェース1501と、操作部1502と、記憶部1503と、情報処理部1510と、表示部1508を有している。ここで画像復号装置1500と、I/Oインターフェース1501と、操作部1502と、記憶部1503と、表示部1508は、図2で示される第1の実施形態と共通するので、ここでの説明は省略する。
以下、本第2の実施形態に示す情報処理部1510の処理について説明する。図16は、圧縮ライトフィールドRAWデータを復号する場合に、画像復号装置1500内で行われる処理を示したフローチャートである。
まず取得部1504は、操作部1502からユーザのリクエストを取得する。ユーザのリクエストとは、ライトフィールドRAWデータからリフォーカス処理を行う、ステレオ立体視する、裸眼立体視するなどの処理が挙げられる。ユーザリクエストは、符号選択部1505に送出される(ステップ1601)。
次に取得部1504は、記憶部1503から出力された圧縮ライトフィールドRAWデータを取得し、符号選択部1505に圧縮ライトフィールドRAWデータを出力する(ステップ1602)。本第2の実施形態では、圧縮ライトフィールドRAWデータの色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分が「視差0のリフォーカス画像」である場合について説明する。
符号選択部1505は、ユーザのリクエストに基づいて、圧縮ライトフィールドRAWデータから復号する部分データを選択する(ステップ1603)。以下、ユーザのリクエストの種類と、選択する部分符号データの関係を、図10(c)を用いて説明する。
i).リクエストがリフォーカス処理であり、かつ、合焦位置の変更を行わない場合:
色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分(リフォーカス成分)の符号データを部分符号データとして選択する。
ii).リクエストがリフォーカス処理であり、かつ、合焦位置の変更を行う場合:
色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分、d1成分、d2成分、d3成分の符号データを部分符号データとして選択する。
iii).リクエストがステレオ立体視である場合
色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分、d1成分の符号データを部分符号データとして選択する。
iv).リクエストが裸眼立体視である場合
色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分、d1成分、d2成分、d3成分の符号データを部分符号データとして選択する。また視点が水平方向のみの場合、R成分、d1成分の符号データを部分符号データとして選択する。
上記の処理により選択した圧縮ライトフィールドRAWデータの部分符号データを、LF(Light Field)復号部1506に出力する。LF復号部1506は、圧縮ライトフィールドRAWデータの部分符号データを復号する(ステップ1604)。
以下、ユーザのリクエストに対するステップ1604の処理を説明する。
i).リクエストが、合焦位置の変更を行わないリフォーカス処理であった場合:
色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分の符号データが部分符号データとして選択される。色成分毎のR成分を復号することで、「視差0のリフォーカス画像」のRAWデータが生成される。出力部1507に「視差0のリフォーカス画像」のRAWデータを出力する。
ii).リクエストが、合焦位置の変更を行うリフォーカス処理であった場合:
色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分、d1成分、d2成分、d3成分の符号データが部分符号データとして選択される。色成分毎のR成分、d1成分、d2成分、d3成分を復号し、視点間ウェーブレット逆変換を行うことで、視点a、b、c、dのRAWデータが生成される。そして、出力部1507に視点a、b、c、dのRAWデータを出力する。
iii).リクエストがステレオ立体視である場合
色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分、d1成分の符号データが部分符号データとして選択される。色成分毎のR成分、d1成分を復号する。また、d2成分、d3成分の値を0にセットする。色成分毎のR成分、d1成分、d2成分、d3成分の対応画素に対して、視点間ウェーブレット逆変換を行うことで、視点a、b、c、dのRAWデータが生成される。このとき、視点a、cの画像は同一となる。また、視点b、dの画像も同一となる。図7(a)を用いて説明すると、視点a、cの画像は、仮想レンズ601の領域aと領域cを合わせた領域を通過した光線により生成した画像となる。また視点b、dの画像は、仮想レンズ601の領域bと領域dを合わせた領域を通過した光線により生成した画像となる。即ち生成した画像a、bは、撮像時の画像a、bとは異なり、光量が多くノイズの少ないステレオ立体視に適した画像となる。出力部1507に視点a、bのRAWデータを出力する。もちろん視点c、dのRAWデータでも構わない。
iv).リクエストが裸眼立体視である場合
色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分、d1成分、d2成分、d3成分の符号データが部分符号データとして選択される。色成分毎のR成分、d1成分、d2成分、d3成分を復号し、視点間ウェーブレット逆変換を行うことで、視点a、b、c、dのRAWデータが生成される。出力部1507に視点a、b、c、dのRAWデータを出力する。また視点が水平方向のみの場合、R成分、d1成分の符号データが部分符号データとして選択される。この場合の復号処理は、上記のiiiの処理と同様のため、ここでの説明は割愛する。そして、出力部1507に視点a、bのRAWデータを出力する。もちろん、視点c、dのRAWデータでも構わない。
圧縮ライトフィールドRAWデータを復号してから画像処理を行う従来の手法と比較して、本実施形態では、圧縮ライトフィールドRAWデータの部分復号により、ユーザのリクエストに適した画像を少ない演算量で生成できる。
出力部1507は、ステップ1604で出力されたRAWデータを記録部1503、または、表示部1508に出力する(ステップ1605)。
上述のライトフィールドRAWデータ(垂直2分割×水平2分割)の符号化処理、復号処理により、リフォーカス画像、ステレオ立体視、裸眼立体視などの画像処理を、少ないデータ量、かつ、少ない演算量で実現することが可能となる。
[第3の実施形態]
第1の実施形態では、プレノプティックカメラの光線情報の分割数が、垂直2分割×水平2分割の場合のライトフィールドデータの画像符号化装置、画像復号装置について説明した。第3の実施形態では、プレノプティックカメラの光線情報の分割数が、垂直1分割×水平2分割のときのライトフィールドデータの画像符号化装置、画像復号装置について説明する。
以下、本第3の実施形態に示す画像符号化装置について説明する。符号化装置の構成は図1と同じである。ただし、本第3の実施形態におけるプレノプティックカメラでは、図17(a)に示すようにメインレンズ601を複数に分割したときの各分割領域a,bを通る光線情報が抽出する点で第1、第2の実施形態と異なる。ここでも、メインレンズ601は撮像レンズ501〜503を1枚のレンズであると仮想的にみなしたときの仮想レンズ601である。
図17(b)に示すように、メインレンズ601の領域aを通過した光線はセンサ上の画素群1701aに入射し、メインレンズの領域bを通過した光線はセンサ上の画素群1701bに入射する。つまり、画素群1701aからの出力はレンズ領域aに対応する視点の情報を含み、画素群1701bからの出力はレンズ領域bに対応する視点の情報を含む。本実施形態においては、センサはベイヤパターンのRGB配列で構成されている。RGB各色が1×2分割の2画素に分割されており、各画素14ビットで表現されている。もちろん、ダイナミックレンジ圧縮により10ビット、または、12ビットなど他のビットで表現してもよい。
本第3の実施形態でも、図17(b)で示されるライトフィールドRAWデータを、デモザイク処理して現像したデータをライトフィールドデータと呼ぶ。
例えば、図17(b)におけるカラーフィルタ508を通過したG0,R0,B0,G1それぞれの素子“a”のデータを、a(G0)、a(R0)、a(B0)、a(G1)と表したとき、その集合は図17(c)のように表現できる。図17(c)は、1カラーフィルタ=1素子の関係を持つ、通常の撮像素子のベイヤ配列と同じであるので、これをデモザイク処理することで、1画素当たりRGBの3つの成分(実施形態では各成分とも8ビットとする)で構成される画像“a”を生成できる。
同様に、 図17(b)におけるカラーフィルタ508を通過したG0,R0,B0,G1それぞれの素子“b”のデータを、b(G0)、b(R0)、b(B0)、b(G1)と表したとき、その集合は図17(d)のように表現でき、これをデモザイク処理することで、1画素当たりRGBの3つの成分で構成される画像“b”を生成できる。
上記の結果、視点a,bの2つの画像で構成されるライトフィールドデータを得ることができる。
本第3の実施形態における情報処理部109の処理内容は、光線情報の分割数が垂直1分割×水平2分割(1×2分割)となる以外は、第1の実施形態で説明した図8と同じである。以下、図8に従って第3の実施形態における符号化処理手順を説明する。
まず取得部103は、撮像部102から出力されたライトフィールドRAWデータを取得し、画像処理部104にライトフィールドRAWデータを出力する(ステップS801)。
次に画像処理部104は、ライトフィールドRAWデータを、デモザイク処理してライトフィールドデータ(視点a、bの2つの画像)を生成し、LF(Light Field)符号化部105にライトフィールドデータを出力する(ステップS802)。
次にLF符号化部105は、ライトフィールドデータの符号化処理を行う。まずライトフィールドデータから視点間の冗長性を削減するため、視点a、bの画素の対応関係を決定する。対応関係はリフォーカス画像の合焦位置を指定することで決定される(ステップS803)。
操作部101が、撮影後に合焦位置を調整するリフォーカスモードに設定されている場合は、撮像後にユーザから最適な合焦位置が入力される。例えば、表示部405の液晶ディスプレイに表示される画像に対して、ユーザが合焦位置をタッチパネル機能により指定することで操作部101の入力とする。もちろん合焦位置の指定は、複数の合焦位置の画像を提示し、ユーザが選択するなど他の方法を用いても構わない。
リフォーカス画像とは、ライトフィールドデータの視点間(視点a、b)の対応画素を合成して、指定の合焦位置となるように生成した画像を示す。図19を用いて、ライトフィールドデータにおける視点間の対応画素の決定方法について説明する。図19では、オブジェクト1901が奥に、オブジェクト1902が手前に配置されている。以下、オブジェクト1901に焦点を合わせて撮像したとして説明する。
まず合焦位置を変更せず、ライトフィールドデータからリフォーカス画像を生成するときの対応画素について、図19(a)を用いて説明する。即ちステップS803で合焦位置の変更指示がない場合を示す。
1×2分割した画素1903a、1903bの2画素を対応画素とし、2画素の色値を平均してリフォーカス画像の1画素とする。視点a、bの全画素で同様の対応関係を用いて2画素の色値の平均を計算し、画素を配列することでリフォーカス画像が生成される。本実施形態では、図19(a)の対応画素を「視差0の対応画素」と呼び、リフォーカス画像を「視差0のリフォーカス画像」と呼ぶ。即ちステップ803で合焦位置の変更指示がないとき、「視差0の対応画素」を設定することになる。操作部101が、リフォーカスモードに設定されていないなど、合焦位置の変更を行わない場合も「視差0の対応画素」を設定する。
次に合焦位置を変更してオブジェクト1902に焦点を合わせたリフォーカス画像を生成するときについて図19(b)を用いて説明する。ステップS803で合焦位置の変更指示がある場合を示す。
画素1904a、1904bの2画素を対応画素とし、2画素の色値を平均してリフォーカス画像の1画素とする。視点a、bの全画素で同様の対応関係を用いて2画素の色値の平均を計算し、画素を配列することでリフォーカス画像が生成される。
上記の処理は、各視点(視点a、b)の画素群を指定の視差量分シフトして対応画素とすることを示している。視差0の対応点1903a、1903bを基準として考える。画素1904aは画素1903aの右に、画素1904bは画素1903bの左に、それぞれ1画素シフトしている。本実施形態では、図19(b)の対応画素を「視差1の対応画素」と呼び、リフォーカス画像を「視差1のリフォーカス画像」と呼ぶ。
またオブジェクト1902より奥に焦点を合わせたリフォーカス画像を生成するときは、各視点の画素群のシフト方向が逆方向となる。即ちステップS803で合焦位置が変更されるとき、焦点位置に応じた視差量をシフトした「視差Nの対応画素」(Nは整数)を設定する(ステップS804)。
上記の処理で設定された対応画素に対して、視点間の冗長性を削減するため、視点間ウェーブレット変換を行う(ステップS805)。視点間ウェーブレット変換とは、ライトフィールドデータにおける視点間の対応画素をウェーブレット変換することを示す。図19(a)を用いて説明すると、対応画素1903a、1903bに対してウェーブレット変換を行う。ここでは数式1、数式2で示されるHaarウェーブレット変換(ハールウェーブレット変換)を用いる。
対応画素である2画素(垂直1画素×水平2画素)に対して、水平方向にウェーブレット変換を行う。図18(a)、(b)を用いて視点間ウェーブレット変換を説明する。対応する2画素の画素値をa、bとするとき、ライトフィールドデータは図18(a)で示される。対応する2画素のウェーブレット変換は以下の式で示される。
R成分 =(a+b)/2 (数式13)
d成分 =(a―b)/2 (数式14)
ここで、R成分はリフォーカス成分であり、色のRではない点に注意されたい。
視点間ウェーブレット変換後の分解成分は図18(b)で示される。画素値a、bがR成分(平均成分)、d成分(差分成分)に分解される。このときR成分は、「視差Nのリフォーカス画像」となり、図19(a)の例では「視差0のリフォーカス画像」となる。本実施形態では視点数は2視点であり、平均成分、差分成分の成分数は共に1であり、合計の成分数は2となる。すなわち視点数と合計の成分数は2で一致する。図19(b)など視差を有する対応画素の視点間ウェーブレット変換も同様の処理で行われる。
次に視点間ウェーブレット変換後の分解成分に対して画面内のウェーブレット変換を行う。即ちR成分、d成分の各成分に対してウェーブレット変換を行う。図18を用いて説明すると、図18(b)は視点間ウェーブレット変換後の分解成分を示しており、図18(c)は分解成分毎に配置し直したものである。分解成分毎(R成分、d成分)に水平方向、垂直方向にウェーブレット変換を行うことで、図18(d)に示すように、各分解成分がウェーブレット係数(LL成分、HL成分、LH成分、HH成分)に分解される(ステップS806)。
次に図18(d)に示されるウェーブレット係数(LL成分、HL成分、LH成分、HH成分)を量子化し、エントロピー符号化する(ステップS807)。ステップS806、および、ステップS807に関しては、JPEG2000など標準符号化技術を用いても構わない。JPEG2000を用いるときは、図18(c)に示されるように分解成分単位(R成分、d成分)をJPEG2000の入力とする。本実施形態では、エントロピー符号化されたライトフィールドデータを圧縮ライトフィールドデータを呼ぶ。
LF符号化部105は、圧縮ライトフィールドデータを出力部106に出力する(ステップ808)。出力部106は、圧縮ライトフィールドデータを記憶部107に出力し、保存する。保存された圧縮ライトフィールドデータは、I/Oインターフェース108を介して、カメラ外のデバイスに出力される。なお、出力される圧縮ライトフィールドデータのファイル構造は第1の実施形態と同様、図21のようになる。
次に、本第3の実施形態における画像復号装置について説明する。本第3の実施形態における画像符号化装置の構成は、光線情報の分割数が垂直1分割×水平2分割(1×2分割)となる以外は、第1の実施形態と同じでり、図2の構造を有するものである。まら、復号処理も図11のフローチャートに従う。
以下、本第3の実施形態に示す情報処理部210の処理について説明する。
まず取得部204は、操作部202からユーザのリクエストを取得する。ユーザのリクエストとは、ライトフィールドデータからリフォーカス処理を行う、ステレオ立体視する、裸眼立体視する、デプス推定を行うなどの処理が挙げられる。もちろんライトフィールドデータを用いる画像処理であれば、被写界深度制御を行うなど他のリクエストであっても構わない。ユーザのリクエストは、符号選択部205に送出される(ステップ1101)。
次に取得部204は、記憶部203から出力された圧縮ライトフィールドデータを取得し、符号選択部205に圧縮ライトフィールドデータを出力する(ステップ1102)。本実施形態では、圧縮ライトフィールドデータにおけるR成分が「視差0のリフォーカス画像」である場合ついて説明する。
符号選択部205は、ユーザのリクエストに基づいて、圧縮ライトフィールドから復号する部分符号データを選択する(ステップ1103)。ユーザによるリクエストと選択される部分符号化データとの対応関係は次の通りである。
i).リクエストが、合焦位置の変更を行わないリフォーカスの場合:
R成分の符号データを部分符号データとして選択する。つまり、d成分の符号化データは選択しない。
ii).リクエストが、合焦位置の変更を行うリフォーカスの場合、又は、
iii),リクエストがステレオ立体視である場合、又は、
iv).リクエストが裸眼立体視である場合、又は、
v).リクエストがデプス推定である場合、
R成分、d成分の符号データを部分符号データとして選択する。
上記の処理により選択した圧縮ライトフィールドデータの部分符号データが、LF(Light Field)復号部206に供給される。
LF復号部206は、圧縮ライトフィールドデータの部分符号データを復号する(ステップS1104)。Haarウェーブレット逆変換は式(7)、(8)で示される。また、対応する2画素の視点間ウェーブレット逆変換は以下の式で示される。
a=R成分+d成分 …(15)
b=R成分−d成分 …(16)
以下、ユーザのリクエストに応じた、LF復号部206による圧縮ライトフィールドデータの部分復号処理(ステップS1104)について、図18(c)を用いて説明する。
i).リクエストが、合焦位置の変更を行わないリフォーカス処理の場合:
R成分の符号データが部分符号データとして選択される。R成分を復号することで、数式(13)に示すように「視差0のリフォーカス画像」が生成される。
ii).リクエストが、合焦位置の変更を行うリフォーカスの場合、又は、
iii).リクエストがステレオ立体視である場合、又は、
iv).リクエストが裸眼立体視である場合、又は
v).リクエストがデプス推定である場足:
R成分、d成分の符号データが部分符号データとして選択される。R成分、d成分を復号し、R成分、d成分の対応画素に対して、視点間ウェーブレット逆変換を行うことで、視点a、bの画像が生成される。
次に、ユーザからのリクエストに基づいて、生成された画像データに対して画像処理を行うか、画像データを出力するかを判断する(ステップ1105)。このとき、ユーザからのリクエストが以下のi,iiのいずれかの場合、復号したライトフィールドデータ(画像データ)を出力部208に出力する。
i).リクエストが、合焦位置の変更を行わないリフォーカスの場合:
生成された「視差0のリフォーカス画像」を出力する。
ii).リクエストがステレオ立体視である場合:
生成された視点a、bの画像をステレオ画像として出力する。
また、ユーザからのリクエストが以下の場合、復号したライトフィールドデータに対して画像処理を行う(ステップS1106)。
i).リクエストが、合焦位置の変更を行うリフォーカスの場合:
生成された視点a、bの画像から「視差Nのリフォーカス画像」(Nは整数)を生成し、「視差Nのリフォーカス画像」を出力する。
ii).リクエストが裸眼立体視である場合:
生成された視点a、bの画像から裸眼立体ディスプレイの視点数に応じた視点を自由視点画像合成する。例えば水平方向に8視点の裸眼立体ディスプレイの場合、視点a、bの画像を選択し、視点a、bの間の6視点を自由視点画像合成で生成し、水平方向に8視点の画像データを出力する。ここでは、自由視点画像合成の方法については説明を割愛する。
iii).リクエストがデプス推定である場合
生成された視点a、bの画像をステレオ画像としてステレオマッチングによりデプスマップを生成し。それを画像データとして出力する。ここでは、ステレオマッチングの方法については説明を割愛する。
出力部208は、上記のようにして生成されや画像データを記録部203、または、表示部209に出力する(ステップ1107)。
上述のライトフィールドデータ(垂直1分割×水平2分割)の符号化処理、復号処理により、リフォーカス画像、ステレオ立体視、裸眼立体視、デプス推定などの画像処理を、少ないデータ量、かつ、少ない演算量で実現することが可能となる。
[第4の実施形態」
第2の実施形態では、プレノプティックカメラの光線情報の分割数が、垂直2分割×水平2分割のときのライトフィールドRAWデータの画像符号化装置、画像復号装置について説明した。
第4の実施形態では、プレノプティックカメラの光線情報の分割数が、垂直1分割×水平2分割のときのライトフィールドRAWデータの画像符号化装置、画像復号装置について説明する。かかる点を除き、装置構成は第1の実施形態と同じである。
以下、本第4の実施形態における画像符号化装置の情報処理部109の処理を、図13のフローチャート(対応するプログラムはROMに格納されている)に従って説明する。 まず取得部103は、撮像部102から出力されたライトフィールドRAWデータを取得し、画像処理部104にライトフィールドRAWデータを出力する(ステップ1301)。
次に画像処理部104は、ライトフィールドRAWデータを色成分毎に分割して、LF(Light Field)符号化部105にライトフィールドRAWデータを出力する(ステップ1302)。
図17(b)に示すように撮像素子はベイヤパターンのRGB配列で構成されている。RGB各色が1×2分割の2画素に分割されており、各画素14ビットで表現されている。もちろん、ダイナミックレンジ圧縮により10ビット、または、12ビットなど他のビットで表現しても良い。
図20(a)乃至(d)を用いて、ライトフィールドRAWデータの分割方法について説明する。色成分の分割では、同図のように、R0成分、G0成分、G1成分、B0成分毎に配列して、各成分毎の画像データを構築する。すなわち、色成分毎(R0成分、G0成分、G1成分、B0成分)に1×2分割の多視点画像が生成される。
画像処理部104は、色成分毎(R0成分、G0成分、G1成分、B0成分)に分割されたライトフィールドRAWデータをLF符号化部105に出力する。
LF符号化部105では、色成分毎(R0成分、G0成分、G1成分、B0成分)のライトフィールドRAWデータを、第3の実施形態のライトフィールドデータと同様に扱うことで、符号化処理が行える。すなわち、図20(a)の場合はG0成分の水平方向に隣接する2画素2001a、2001bに対してHaarウェーブレット変換し、R成分(リフォーカス成分)とd成分を得て、符号化処理を実行する。他の色成分R0,B0、G1についても同様である(ステップS1305乃至1307)。
出力部106は、圧縮符号化ライトフィールドRAWデータを記憶部107に出力し、保存する(ステップS1308)。保存された圧縮ライトフィールドRAWデータは、I/Oインターフェース108を介して、カメラ外のデバイスに出力される。
次に、第4の実施形態における画像復号装置について説明する。本復号装置の構成は図15に示されるように、第2の実施形態と同じであるので、その説明は省略する。以下、本第4の実施形態に示す画像復号装置における情報処理部1510の処理を、図16のフローチャートに従って説明する。
まず取得部1504は、操作部1502からユーザのリクエストを取得する。ユーザのリクエストとは、ライトフィールドRAWデータからリフォーカス処理を行う、ステレオ立体視する、裸眼立体視するなどの処理が挙げられる。ユーザリクエストは、符号選択部1505に送出される(ステップ1601)。
次に取得部1504は、記憶部1503から出力された圧縮ライトフィールドRAWデータを取得し、符号選択部1505に圧縮ライトフィールドRAWデータを出力する(ステップ1602)。本実施形態では、圧縮ライトフィールドRAWデータの色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分(リフォーカス成分)が「視差0のリフォーカス画像」であるものとして説明する。
符号選択部1505は、ユーザのリクエストに基づいて、圧縮ライトフィールドRAWデータから復号対象の部分符号化データを選択する(ステップ1603)。以下、ユーザのリクエストに対する部分符号データの選択処理を説明する。
i).リクエストが、合焦位置の変更を行わないときリフォーカス処理である場合:
色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分の符号データを部分符号データとして選択する。
ii).リクエストが合焦位置の変更を行うリフォーカス処理の場合、又は、
iii).リクエストがステレオ立体視である場合、又は、
iv).リクエストが裸眼立体視である場合:
色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分、d成分の符号データを部分符号データとして選択する。
上記の処理により選択した圧縮ライトフィールドRAWデータの部分符号データが、LF(Light Field)復号部1506に出力される。
LF復号部1506は、圧縮ライトフィールドRAWデータの部分符号データを復号する(ステップS1604)。以下に、ユーザのリクエストに基づくこの復号処理内容を示す。
i).リクエストが、合焦位置の変更を行わないリフォーカス処理の場合:
色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分の符号データが部分符号データとして選択される。色成分毎のR成分を復号することで、「視差0のリフォーカス画像」のRAWデータが生成される。出力部1507に「視差0のリフォーカス画像」のRAWデータを出力する。
ii).リクエストが、合焦位置の変更を行うリフォーカス処理の場合、又は、
iii).リクエストがステレオ立体視である場合、又は、
iv).リクエストが裸眼立体視である場合:
色成分毎(R0成分、G0成分、G1成分、B0成分)のR成分、d成分の符号データが部分符号データとして選択される。色成分毎のR成分、d成分を復号し、視点間ウェーブレット逆変換を行うことで、視点a、bのRAWデータが生成される。出力部1507に視点a、bのRAWデータを出力する。
圧縮ライトフィールドRAWデータを復号してから画像処理を行う従来の手法と比較して、本第4の実施形態では、圧縮ライトフィールドRAWデータの部分復号により、ユーザのリクエストに応じて、不必要な処理は省く、少ない演算量で画像を生成できる。
出力部1507は、上記i乃至ivで出力されたRAWデータを記録部1503、または、表示部1508に出力する(ステップS1605)。
上述のライトフィールドRAWデータ(垂直1分割×水平2分割)の符号化処理、復号処理により、リフォーカス画像、ステレオ立体視、裸眼立体視、デプス推定などの画像処理を、少ないデータ量、かつ、少ない演算量で実現することが可能となる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100…画像符号化装置、101…操作部、102…撮像部、103…取得部、104…画像処理部、105…ライトフィールド(LF)符号化部、106…出力部、107…記憶部

Claims (10)

  1. ライトフィールド撮像手段で撮像したN個(Nは2以上の整数)の視点画像を符号化する画像符号化装置であって、
    前記N個の視点画像内の、所定の焦点位置に基づき決定された互いに対応するN個の対応画素の値の平均値を算出し、当該平均値を画素の値として有する、前記所定の焦点位置に合焦した画像を生成する第1の生成手段と、
    前記N個の視点画像における対応画素の値を前記第1の生成手段で生成された画素の値から導出するための、N−1種類の差分値を生成する第2の生成手段と、
    前記第1の生成手段で生成された画像、並びに、前記第2の生成手段で生成したN−1種類の差分値で構成される差分情報を符号化する符号化手段と
    を有することを特徴とする画像符号化装置。
  2. 前記第1、第2の生成手段は、Haarウェーブレット変換を用いて生成することを特徴とする請求項1に記載の画像符号化装置。
  3. 前記第1の生成手段は、ユーザから指定された合焦位置に基づき、前記N個の視点画像内における前記対応画素となる画素の位置を決定する手段を含むことを特徴とする請求項1又は2に記載の画像符号化装置。
  4. 前記符号化手段は、前記第1の生成手段で生成された画像から生成した符号化データ、前記第2の生成手段で生成したN−1種類の差分情報から生成したN−1個の符号化データそれぞれの格納位置を示す表す情報を、ファイルヘッダに格納したファイルを生成することを特徴とする請求項1乃至3のいずれか1項に記載の画像符号化装置。
  5. 前記ライトフィールド撮像手段で撮像した、デモザイク処理する前の、ライトフィールドRAWデータを入力する入力手段と、
    該入力手段で入力したライトフィールドRAWデータから、各視点の画像を生成するデモザイク手段と
    を更に有することを特徴とする請求項1乃至4のいずれか1項に記載の画像符号化装置。
  6. 前記ライトフィールド撮像手段で撮像した、デモザイク処理を行う前の、ライトフィールドRAWデータを入力する入力手段と、
    前記ライトフィールド撮像手段が有するカラーフィルタごとのセンサがベイヤ配列である場合には、各カラーフィルタごとに、それぞれのセンサが検出した値を画素の値とする画像を生成する画像生成手段を更に有し、
    前記第1の生成手段、前記第2の生成手段は、前記画像生成手段で生成した各カラーフィルタそれぞれの画像を処理の対象とすることを特徴とする請求項1乃至4のいずれか1項に記載の画像符号化装置。
  7. 前記符号化手段は、前記第1の生成手段が生成した画像、並びに、前記第2の生成手段が生成したN−1個の差分情報それぞれを、空間周波数変換してエントロピー符号化することを特徴とする請求項1乃至6のいずれか1項に記載の画像符号化装置。
  8. コンピュータが読み込み実行することで、前記コンピュータに、請求項1乃至7のいずれか1項に記載の画像符号化装置の各手段として機能させるためのプログラム。
  9. 請求項8に記載のプログラムを格納したコンピュータが読み取り可能な記憶媒体。
  10. ライトフィールド撮像手段で撮像したN個(Nは2以上の整数)の視点画像を符号化する画像符号化装置の制御方法であって、
    第1の生成手段が、前記N個の視点画像内の、所定の焦点位置に基づき決定された互いに対応するN個の対応画素の値の平均値を算出し、当該平均値を画素の値として有する、前記所定の焦点位置に合焦した画像を生成する第1の生成工程と、
    第2の生成手段が、前記N個の視点画像における対応画素の値を前記第1の生成工程で生成された画素の値から導出するための、N−1種類の差分値を生成する第2の生成工程と、
    符号化手段が、前記第1の生成工程で生成された画像、並びに、前記第2の生成工程で生成したN−1種類の差分値で構成される差分情報を符号化する符号化工程と
    を有することを特徴とする画像符号化装置の制御方法。
JP2014085885A 2014-04-17 2014-04-17 画像符号化装置及びその制御方法 Active JP6463900B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014085885A JP6463900B2 (ja) 2014-04-17 2014-04-17 画像符号化装置及びその制御方法
US15/126,326 US10122988B2 (en) 2014-04-17 2015-03-31 Image encoding apparatus, image decoding apparatus, methods of controlling the same, and storage medium
PCT/JP2015/060689 WO2015159745A1 (en) 2014-04-17 2015-03-31 Image encoding apparatus, image decoding apparatus, methods of controlling the same, and storage medium
EP15780416.2A EP3132609B1 (en) 2014-04-17 2015-03-31 Image encoding apparatus, image decoding apparatus, methods of controlling the same, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014085885A JP6463900B2 (ja) 2014-04-17 2014-04-17 画像符号化装置及びその制御方法

Publications (3)

Publication Number Publication Date
JP2015207831A JP2015207831A (ja) 2015-11-19
JP2015207831A5 JP2015207831A5 (ja) 2017-06-01
JP6463900B2 true JP6463900B2 (ja) 2019-02-06

Family

ID=54323956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014085885A Active JP6463900B2 (ja) 2014-04-17 2014-04-17 画像符号化装置及びその制御方法

Country Status (4)

Country Link
US (1) US10122988B2 (ja)
EP (1) EP3132609B1 (ja)
JP (1) JP6463900B2 (ja)
WO (1) WO2015159745A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6626257B2 (ja) 2015-03-03 2019-12-25 キヤノン株式会社 画像表示装置、撮像装置、画像表示方法、プログラム、記憶媒体
AU2017250112B2 (en) 2016-04-12 2020-09-17 Quidient, Llc Quotidian scene reconstruction engine
JP7014175B2 (ja) * 2016-11-08 2022-02-15 ソニーグループ株式会社 画像処理装置、画像処理方法、及び、プログラム
JP7041494B2 (ja) * 2017-11-06 2022-03-24 キヤノン株式会社 画像処理装置および画像処理方法
JP7079080B2 (ja) * 2017-11-06 2022-06-01 キヤノン株式会社 画像処理装置および画像処理方法
JP7181759B2 (ja) * 2017-11-06 2022-12-01 キヤノン株式会社 画像処理装置および画像処理方法
WO2019213450A1 (en) 2018-05-02 2019-11-07 Quidient, Llc A codec for processing scenes of almost unlimited detail

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6757429B2 (en) * 2001-02-21 2004-06-29 Boly Media Communications Inc. Method of compressing digital images
JP4451181B2 (ja) 2004-03-26 2010-04-14 オリンパス株式会社 画像圧縮方法及び画像圧縮装置
KR100732961B1 (ko) * 2005-04-01 2007-06-27 경희대학교 산학협력단 다시점 영상의 스케일러블 부호화, 복호화 방법 및 장치
BRPI0717639A2 (pt) * 2006-10-30 2013-11-12 Nippon Telegraph & Telephone Método de geração de informações de referência preditas, métodos de codificação de decodificação de vídeo, aparelhos destinados aos mesmos, programas destinados aos mesmos, e mídias de armazenamento que armazenam os programas
CN100585453C (zh) 2007-02-09 2010-01-27 奥林巴斯映像株式会社 解码方法及解码装置
JP2012231377A (ja) * 2011-04-27 2012-11-22 Olympus Corp 撮像装置及び画像生成方法
JP5984493B2 (ja) * 2011-06-24 2016-09-06 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置およびプログラム
JP2013050531A (ja) * 2011-08-30 2013-03-14 Olympus Corp 撮像装置及びフォーカス制御方法
JP6064040B2 (ja) * 2012-05-09 2017-01-18 ライトロ, インコーポレイテッドLytro, Inc. ライトフィールドの取り込み及び操作を改善するための光学系の最適化
MX341203B (es) * 2012-05-14 2016-08-11 Rossato Luca Descomposicion de datos residuales durante la codificacion, decodificacion y reconstruccion de señal en jerarquia escalonada.

Also Published As

Publication number Publication date
EP3132609B1 (en) 2024-05-08
WO2015159745A1 (en) 2015-10-22
JP2015207831A (ja) 2015-11-19
EP3132609A1 (en) 2017-02-22
EP3132609A4 (en) 2018-05-16
US10122988B2 (en) 2018-11-06
US20170085858A1 (en) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6463900B2 (ja) 画像符号化装置及びその制御方法
JP6021541B2 (ja) 画像処理装置及び方法
JP5887267B2 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
US9749601B2 (en) Imaging device, image display method, and storage medium for displaying reconstruction image
US9076267B2 (en) Image coding device, integrated circuit thereof, and image coding method
US9269163B2 (en) Method and apparatus for compressing or decompressing light field images
US20160255333A1 (en) Generating Images from Light Fields Utilizing Virtual Viewpoints
JP5749595B2 (ja) 画像伝送方法、画像伝送装置、画像受信装置及び画像受信プログラム
JP5942195B2 (ja) 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
CN105190688A (zh) 用于查看图像的方法和装置
JP5883153B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP7105062B2 (ja) 画像処理装置、コンテンツ処理装置、コンテンツ処理システム、および画像処理方法
WO2019065536A1 (ja) 再構成方法および再構成装置
US20170148151A1 (en) Apparatus and method for measuring quality of holographic image
JP6128748B2 (ja) 画像処理装置及び方法
JP2015171097A (ja) 画像処理装置及びその制御方法
JP2013128260A (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP4815004B2 (ja) 多視点画像符号化装置
JP6626257B2 (ja) 画像表示装置、撮像装置、画像表示方法、プログラム、記憶媒体
JP7389565B2 (ja) 符号化装置、復号装置、及びプログラム
JP2013150071A (ja) 符号化装置、符号化方法、プログラム及び記憶媒体
JP6502640B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2013175821A (ja) 画像処理装置、画像処理方法およびプログラム
JP5744642B2 (ja) 画像処理装置および画像処理方法、プログラム。
JP2012018621A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170411

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190107

R151 Written notification of patent or utility model registration

Ref document number: 6463900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151