JP2017130953A - Encoding device, imaging device, encoding method and program - Google Patents
Encoding device, imaging device, encoding method and program Download PDFInfo
- Publication number
- JP2017130953A JP2017130953A JP2017039887A JP2017039887A JP2017130953A JP 2017130953 A JP2017130953 A JP 2017130953A JP 2017039887 A JP2017039887 A JP 2017039887A JP 2017039887 A JP2017039887 A JP 2017039887A JP 2017130953 A JP2017130953 A JP 2017130953A
- Authority
- JP
- Japan
- Prior art keywords
- image
- encoding
- viewpoint
- images
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、複数の視点から撮影された画像を符号化する技術に関する。 The present invention relates to a technique for encoding images taken from a plurality of viewpoints.
従来、被写体を複数の視点から撮影した多視点画像を用いて、任意のフォーカス距離、被写界深度、視点における画像を生成する方法がある。そして、撮影された多視点画像を圧縮符号化(以下、符号化)することで、データ容量を削減することができる。このように符号化されたデータは、記録媒体に記録したり、ネットワークを介してサーバに転送することができる。 Conventionally, there is a method of generating an image at an arbitrary focus distance, depth of field, and viewpoint using a multi-viewpoint image obtained by photographing a subject from a plurality of viewpoints. The data capacity can be reduced by compressing and encoding the captured multi-viewpoint image (hereinafter referred to as encoding). Data encoded in this way can be recorded on a recording medium or transferred to a server via a network.
撮影された多視点画像を符号化する際に、視点間予測符号化(以下、視点間予測)を用いる方法が提案されている(特許文献1)。撮影された各多視点画像が近接した視点の画像である場合、これらの画像間には相関関係がある。視点間予測は、この画像間の相関関係を利用している。特許文献1では、複数のカメラを用いて被写体を複数の視点から撮影し、多視点画像を取得する。そして、複数の視点のうちいずれかを基準視点と設定する。
A method of using inter-view prediction encoding (hereinafter referred to as inter-view prediction) when encoding a captured multi-view image has been proposed (Patent Document 1). When each captured multi-viewpoint image is an image of a close viewpoint, there is a correlation between these images. Inter-viewpoint prediction uses the correlation between images. In
基準視点として設定された視点から撮影して得られた画像を符号化する場合、基準視点と同一視点で過去の時刻に撮影された画像(以下、同一視点画像)を参照画像として用いる。一方、基準視点以外の視点で撮影して得られた画像を符号化する場合、同一視点画像、及び、基準視点寄りの隣接視点で撮影された画像(以下、隣接視点画像)を参照画像として用いる。 When encoding an image obtained by photographing from a viewpoint set as a reference viewpoint, an image photographed at a past time at the same viewpoint as the reference viewpoint (hereinafter, the same viewpoint image) is used as a reference image. On the other hand, when encoding an image obtained by photographing from a viewpoint other than the reference viewpoint, the same viewpoint image and an image photographed at an adjacent viewpoint close to the reference viewpoint (hereinafter referred to as an adjacent viewpoint image) are used as reference images. .
上述の特許文献1において、視点間予測は、同一視点画像、及び、隣接視点画像を参照画像の候補として用いている。そのため、参照画像が同一視点画像もしくは隣接画像であっても、撮影条件が異なっている場合には、視点間予測における予測誤差が大きくなり、符号化効率が低下する。また、黒つぶれ、あるいは、白とびしているような画像が基準視点になっている場合には、上記同様、符号化効率が低下するという課題がある。
In the above-mentioned
本発明は、かかる課題を解決し、視点間予測を用いた符号化を効率的に行うことができる技術を提供することを目的とする。 An object of the present invention is to solve this problem and provide a technique capable of efficiently performing coding using inter-view prediction.
上記の課題を解決するために、本発明の符号化装置は下記の構成を有する。すなわち、複数の視点から撮像された多視点画像を符号化する符号化装置であって、前記複数の視点ごとに設定された撮影パラメータを用いて前記複数の視点ごとに撮像された複数の画像を含む前記多視点画像を取得する取得手段と、前記複数の画像の内の符号化対象画像を符号化する場合に、前記複数の画像の内の、前記撮影パラメータが前記符号化対象画像における前記撮影パラメータに基づく所定の範囲内の画像であり、かつ、前記所定の範囲内の画像の内の、前記符号化対象画像を撮像した視点との視差が最も小さい画像を参照画像として用いて、前記符号化対象画像を符号化する符号化手段とを有する。 In order to solve the above problems, the encoding apparatus of the present invention has the following configuration. That is, an encoding device that encodes a multi-viewpoint image captured from a plurality of viewpoints, wherein a plurality of images captured for each of the plurality of viewpoints using a shooting parameter set for each of the plurality of viewpoints. The acquisition means for acquiring the multi-viewpoint image, and when encoding the encoding target image of the plurality of images, the shooting parameter of the plurality of images is the shooting of the encoding target image. Using the image within a predetermined range based on the parameters and having the smallest parallax with the viewpoint where the encoding target image is imaged among the images within the predetermined range as the reference image, the code Encoding means for encoding the encoding target image.
本発明により、視点間予測を用いた符号化の効率を向上させることができる。 According to the present invention, the efficiency of encoding using inter-view prediction can be improved.
<実施形態1>
本実施形態では、被写体を複数の視点から撮影した多視点画像を符号化する符号化部を有する撮像装置について説明する。そして、本実施形態においては、デジタルカメラやデジタルカムコーダなどの撮像装置が有する撮像素子から読み出された画像、及び、ネットワークを介して受信した画像を符号化対象とする。尚、本発明はこれに限定されず、符号化部を撮像装置とは別の装置に備えても構わない。すなわち、本発明は、複数の撮像素子を有する撮像装置と、符号化を行う画像符号化装置に分けても構わない。
<
In the present embodiment, an imaging apparatus having an encoding unit that encodes a multi-viewpoint image obtained by capturing a subject from a plurality of viewpoints will be described. In the present embodiment, an image read from an imaging element included in an imaging apparatus such as a digital camera or a digital camcorder, and an image received via a network are set as encoding targets. In addition, this invention is not limited to this, You may provide an encoding part in an apparatus different from an imaging device. That is, the present invention may be divided into an imaging apparatus having a plurality of imaging elements and an image encoding apparatus that performs encoding.
図1は、複数の撮像素子を備えた多眼方式による撮像装置を示す図である。 FIG. 1 is a diagram illustrating an image pickup apparatus based on a multi-view system including a plurality of image pickup elements.
図1において、撮像装置101は、光学素子部102、撮像部103、CPU104、画像処理部105、符号化部106、バス107、メモリ108、記憶媒体109、通信部110を有する。
In FIG. 1, the
光学素子部102は、被写体にフォーカスを合わせる、シャッターを開く・閉じる、絞り値を調節するなどの撮像系の制御を行う。光学素子部102は、被写体の光情報をセンサ(撮像素子)で受光し、受光した信号を撮像部103に転送を行う。図2は、光学素子部102の構成例を示す図である。光学素子部102は、9個の撮像素子201〜209から構成され、正方格子上に均等に配置されている。尚、図2では一例として9個の撮像素子を正方格子上に配置しているが、本発明において撮像素子の数や配置はこれに限定されるものではない。
The
撮像部103は、光学素子部102から転送された光信号(アナログデータ)をA/D変換し、複数の画像(デジタルデータ)を取得する。
The
CPU104は、中央処理装置(CPU)であり、以下に述べる各部を統括的に制御する。
The
画像処理部105は、バス107を介して撮像部103から受け取った画像に対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種画像処理を行う。
The
符号化部106は、画像を符号化する。
The
バス107は、各種データの転送経路となるバスである。例えば、撮像部103によって取得されたデジタルデータはこのバス107を介して所定の処理部に送られる。
メモリ108は、RAMであり、CPU104の主メモリ、ワークエリア等として機能する。
The
A
記憶媒体109は、符号化部106で符号化された画像(以下、符号化画像)を記憶する取り外し可能な記憶媒体である。記憶媒体には、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリなどがある。
The
通信部110は、記憶媒体109に記憶された符号化画像をコンピュータやプリンタ、または、データ蓄積サーバなどに送信する。また、通信部110は、外部機器から符号化画像やプログラムを受信する際の、USBや無線などのインターフェースである。
The
次に、撮像装置101が多視点で撮影した画像を符号化し、サーバに転送する方法を説明する。
Next, a method for encoding an image captured by the
CPU104は、予めユーザが設定した露光時間、フォーカス位置、絞り値などの撮影を光学素子部102へ送信する。CPU104は、ユーザの操作や外部からの撮影開始指示を受けると、光学素子部102に受光指示を送信し、撮像部103に画像取得指示を送信する。光学素子部102は、受信した撮影条件のパラメータ(以下、撮影パラメータ)と受光指示に基づき撮影系の制御を行う。
The
光学素子部102は、指定されたフレームレートで被写体の光情報を各撮像素子201〜209で受光し、受光した信号を撮像部103に転送する。
The
撮像部103は、受信した複数枚の信号をA/D変換し、取得した画像を、バス107を介してメモリ108に送信する。
The imaging unit 103 A / D converts a plurality of received signals, and transmits the acquired image to the
上述したCPU104、光学素子部102、撮像部103及び各撮像素子201〜209による一連の撮像処理は、撮像装置101がCPU104から撮影終了指示を受信するまで継続される。例えば、光学素子部102が、図2に示すように9個の撮像素子201〜209から構成されている場合は、光学素子部102は各撮像素子201〜209夫々に撮影パラメータの設定を行う。光学素子部102の各撮像素子201〜209は、被写体からの光情報をそれぞれ受光した後、受光した9視点の受光信号を撮像部103に送信する。さらに、各撮像素子201〜209は、指定されたフレームレートで光情報の受光を継続し、受光信号を撮像部103に送信し続ける。このような多眼方式の撮像装置により、同一の被写体を複数の視点位置から撮像したカラー画像群を得ることができる。
A series of imaging processes by the
そして、CPU104は、光学素子部102の受光、及び、撮像部103の画像送信完了を確認後、画像処理部105に画像処理開始の指示を送信する。
Then, the
画像処理部105は、CPU104から画像処理開始の指示を受信すると、バス107を介してメモリ108に保持された画像を読みだす。そして、画像処理部105は、現像処理、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種画像処理を施す。画像処理部105により画像処理を施された画像は、再びバス107を介してメモリ108に送信され記憶保持される。
When the
さらに、CPU104は、符号化部106に符号化処理開始指示を送信する。符号化部106は、CPUから符号化処理開始指示を受信すると、バス107を介してメモリ108から画像処理済みの画像を読みだし、所定の方式で符号化する処理を行う。尚、本実施形態の画像符号化装置は、入力された複数の視点からの映像を符号化部106においてH.264 MVC方式で符号化するが、本発明はこれに限定されない。すなわち、MPEG等に代表される差分符号化方式に基づく符号化方法であれば構わない。尚、符号化部106の詳細については後述する。そして、符号化部106は、符号化された画像(符号化画像)をバス107を介して記憶媒体109へ送信する。
Further, the
記憶媒体109は、符号化部106から受信した符号化画像を記憶保持する。
The
CPU104が通信部110に通信開始指示を送信すると、通信部110は、バス107を介して記憶媒体109に記憶された符号化画像を読みだし、撮像装置101に接続されたサーバ等の外部機器や記憶メディアへ送信する。ここでは、通信部110は、記憶媒体109から符号化画像を読みだして送信したが、本発明はこれに限定されるものではない。例えば、符号化部106が符号化された符号化画像をメモリ108に記憶保持し、通信部110はメモリ108から符号化画像を読みだして送信しても構わない。
When the
受信先であるサーバ(不図示)は、受信した符号化画像を復号して画像を再構成する。再構成された複数の画像は、異なる視点と露光時間で撮影されたものである。このためサーバは、これらの復号された各画像に夫々注目部分の階調と位置の調整を行い、HDR(High Dynamic Range)合成を施す。HDR合成では、露光(または露出)を変えて取得した複数の画像を任意の比率で合成してトーンマッピングをかけ、ダイナミックレンジを縮小して白飛びや黒つぶれの少ないHDR画像を作成する。本実施形態において、符号化画像を復号した再構成画像に対してHDR合成を施すが、本発明は再構成画像の処理方法に限定されるものではない。 A server (not shown) that is a reception destination decodes the received encoded image and reconstructs the image. The reconstructed images are taken at different viewpoints and exposure times. For this reason, the server adjusts the gradation and position of the portion of interest on each of these decoded images, and performs HDR (High Dynamic Range) composition. In HDR synthesis, a plurality of images obtained by changing exposure (or exposure) are synthesized at an arbitrary ratio, tone mapping is performed, and the dynamic range is reduced to create an HDR image with less whiteout or blackout. In the present embodiment, HDR synthesis is performed on the reconstructed image obtained by decoding the encoded image, but the present invention is not limited to the processing method of the reconstructed image.
尚、本発明における撮像装置101は、上記の構成要素と、さらに他の要素を含んでも構わない。
Note that the
以下、符号化部106の構成を、図3を用いて詳細に説明する。
Hereinafter, the configuration of the
符号化部106は、予測部301、変換量子化部302、可変長符号化部303、逆変換逆量子化部304、デブロッキングフィルタ部305、参照画像メモリ306を有する。
The
予測部301は、入力された画像を予測符号化する予測部である。予測部301の詳細は後述する。
The
変換量子化部302は、予測部301によって予測符号化された画像に対し、直交変換及び量子化を行う変換量子化部である。
The
可変長符号化部303は、変換量子化部302によって量子化された画像の変換係数を可変長符号化して、ビットストリームを出力する可変長符号化部である。可変長符号化部303は、予測部301から出力される動きベクトルまたは視差ベクトルを含む、種々の符号化パラメータも可変長符号化する。さらに、可変長符号化部303は、可変長符号化されたビットストリームを出力し、バス107を介して記憶媒体109へ送信する。
The variable
逆変換逆量子化部304は、変換量子化部302によって量子化された画像の変換係数を逆量子化し、逆変換を行う逆変換・逆量子化部である。
The inverse transform
デブロッキングフィルタ部305は、逆変換逆量子化部304によって逆変換された画像に対してブロック歪除去を行うデブロッキングフィルタである。
The
参照画像メモリ306は、デブロッキングフィルタ部305から出力された画像を後続する画像の予測符号化で参照画像として用いる可能性があるために保持する。尚、本実施形態において、参照画像メモリ306は符号化部106の内部に専用のメモリとして設けられているが、本発明はこれに限定されない。例えば、図1のメモリ108上にフレームメモリ領域を割り当ててもよい。
The
以下、予測部301の構成を、図4を用いて詳細に説明する。
Hereinafter, the configuration of the
予測部301は、イントラ符号化部401、フレーム間符号化部402、予測モード選択部403を有する。本実施形態において、画像は、メモリ108から1枚ずつイントラ符号化部401及びフレーム間符号化部402に入力される。
The
イントラ符号化部401は、メモリ108から出力された画像を画像内の画素信号を用いて予測を行うイントラ予測符号化(以下、イントラ予測)を施し、予測誤差を出力する。
The
一方、フレーム間符号化部402は、メモリ108から入力された画像を、参照画像メモリ306に保持された参照画像を用いてフレーム間予測符号化(以下、フレーム間予測)を行う。尚、フレーム間予測には、同一視点画像を参照画像として用いる符号化(以下、同一視点予測)と、隣接視点画像などのように異なる視点で撮影された画像を参照画像として用いる視点間予測がある。よって、フレーム間符号化部402は、入力された画像に対して同一視点予測または視点間予測を行う。そして、フレーム間符号化部402は、動きベクトル、または、視差ベクトル、及び、予測誤差を出力する。
On the other hand, the
予測モード選択部403は、イントラ符号化部401によってイントラ予測された画像、または、フレーム間符号化部402によってフレーム間予測された画像のいずれか一方を選択し、選択した画像の予測誤差と予測モードを出力する。尚、入力された画像に対しイントラ予測を行うかフレーム間予測を行うかを事前に設定してある場合には、選択は不要である。
The prediction
フレーム間符号化部402は、撮影パラメータ取得部405、参照画像選択部406、ベクトル探索部407を有する。
The
撮影パラメータ取得部405は、各撮像素子201〜209における露光時間、フォーカス位置、絞り値などの撮影パラメータをメモリ108から取得する。撮影パラメータ取得部405は、各撮像素子201〜209の位置情報と対応させて撮影パラメータを記憶保持する。撮影パラメータ取得部405は、視点間予測を行う場合、メモリ108から取得した撮影パラメータを参照画像選択部406に出力する。
The shooting
参照画像選択部406は、撮影パラメータ取得部405から受信した撮影パラメータを用いて、参照画像リストに追加する画像を選択する。参照画像リストは、符号化対象の画像(以下、符号化対象画像)に対してベクトル探索をする際の参照画像として用いる画像群である。そして、参照画像選択部406は、作成した参照画像リストをベクトル探索部407に送信する。
The reference
ベクトル探索部407は、参照画像選択部406から受信した参照画像リストに基づき、参照画像メモリ306から参照画像の候補(以下、参照画像候補)となる再構成画像を読み出す。そして、ベクトル探索部407は、入力された符号化対象画像と参照画像候補を用いて、ベクトル探索を行い、フレーム間予測に用いる参照画像を選択する。そして、ベクトル探索部407は、視差ベクトル、または、動きベクトル、及び、予測誤差を予測モード選択部403へ出力する。
Based on the reference image list received from the reference
本実施形態では、撮影パラメータ取得部405が各撮像装置201〜209の撮影パラメータを記憶・保持する。しかし、本発明においては、参照画像を決定するために、この撮影パラメータの記憶保持を参照画像選択部406で行っても構わない。
In the present embodiment, the shooting
次に、参照画像選択部406において、符号化対象画像を撮影した撮像素子の撮影パラメータを用いて参照画像リストに追加する画像を選択する方法を図5のフローチャートを用いて説明する。図5のフローチャートでは、符号化対象画像を撮影した撮像素子と撮影パラメータが近く、さらに、当該撮像素子との視差が小さい撮像素子で撮影した画像を選択する。ここでは、基準視点に対応する撮像素子を撮像素子205とし、符号化対象画像が撮像素子202によって撮影されたとして説明する。尚、本実施形態はこれに限定されるものではない。
Next, a method for selecting an image to be added to the reference image list using the imaging parameters of the imaging element that has captured the encoding target image in the reference
ステップS501では、符号化対象画像が基準視点で撮影された画像(以下、基準視点画像)であるか否かを判定する。ステップS501において符号化対象画像が基準視点画像である場合は、視点間予測をしないので、判定処理を終了する。一方、符号化対象画像が基準視点画像ではない場合は、ステップS502の処理を行う。本実施形態において、基準視点は撮像素子205であり、撮像素子202によって撮影された画像は基準視点画像ではない。このため、次にステップS502へ進む。
In step S501, it is determined whether or not the encoding target image is an image captured from a reference viewpoint (hereinafter referred to as a reference viewpoint image). If the encoding target image is a reference viewpoint image in step S501, the inter-viewpoint prediction is not performed, and thus the determination process ends. On the other hand, when the encoding target image is not the reference viewpoint image, the process of step S502 is performed. In the present embodiment, the reference viewpoint is the
ステップS502では、符号化対象画像を撮影した撮像素子202の撮影パラメータを撮影パラメータ取得部405から取得する。撮影パラメータは、露光時間、フォーカス位置、絞り値、レンズの明るさ(F値)、センサの感度値など、撮影時に用いられるパラメータのことである。本発明において、各撮像素子の撮影パラメータを用いて参照画像リストに追加する画像を選択するが、前述した撮影パラメータのうち、少なくとも一項目を用いればよい。ここでは、説明を簡単にするため、撮影パラメータは露光時間であるとする。
In step S <b> 502, the imaging
次に、ステップS503は、符号化対象画像の撮像素子202と、予め定めた視差の閾値の範囲内にある撮像素子を選択する。本実施形態における視差は、本発明では、符号化対象画像を撮影した撮像素子と各撮像素子間の距離に基づくパラメータであるとする。例えば、撮像間の距離が短い順に視差をレベル1、レベル2、レベル3のようにレベルをつけてもよい。尚、本発明においてはこれに限定されることはなく、視差は撮像素子間の距離そのものであってもよい。また、符号化対象画像を撮影した撮像素子と当該撮像素子以外の各撮像素子の被写体に対する視点の違いを角度で表したものを視差としてもよい。さらに、本実施形態においては、CPU104が、予めユーザまたは外部インターフェースにより設定された各撮像素子201〜209の視差を符号化部106内の参照画像選択部406に設定する。尚、本発明においてはこれに限らず、例えば視差の出力元が光学素子102であっても撮像部103であっても構わない。
In step S503, the
さらに、ステップS503は、抽出された撮像素子のIDを取得し、選択された各撮像素子で撮影された画像を参照画像リストへ追加する画像の候補(以下、リスト候補)とする。すなわち、選択された撮像素子がN個ある場合、リスト候補はN個存在する。そして、これらN個のリスト候補をまとめてリスト候補群とする。N個のリスト候補群の各画像ごとに適当な順番で後述の処理を行い、最終的に参照画像リストを作成する。 Further, in step S503, the ID of the extracted image sensor is acquired, and the image captured by each selected image sensor is set as a candidate image (hereinafter, list candidate) to be added to the reference image list. That is, when there are N selected image sensors, there are N list candidates. Then, these N list candidates are combined into a list candidate group. The processing described later is performed in an appropriate order for each image of the N list candidate groups, and a reference image list is finally created.
ステップS504からS508で、露光時間が所定の条件を満たし、視差が最小の撮像素子で撮影した画像を予測符号化の参照画像として選択する。参照画像は、このように選択される参照画像に限定されるものではなく、露光時間と視差の組み合わせから適切に選択することが可能である。例えば、視差が視差閾値を満たさなくても、露光時間が同一又は最も近いものを参照画像として選択してもよい。これは、露光時間が同一又は最も近い視点画像が少ない場合に有効である。まず、ステップS504は、ステップS503で抽出した全N個(N≧1)の撮像素子のうちn番目(1≦n≦N)に処理する撮像素子の露光時間と視差を取得する。nは判定処理を行った回数(以下、判定回数)を表す。さらに、n番目の撮像素子の露光時間を露光時間Tn、n番目の撮像素子と符号化対象の撮像素子202との視差を視差Pnとする。
In steps S504 to S508, an image taken with an imaging device that satisfies a predetermined condition for the exposure time and has the smallest parallax is selected as a reference image for predictive coding. The reference image is not limited to the reference image selected in this way, and can be appropriately selected from a combination of exposure time and parallax. For example, even if the parallax does not satisfy the parallax threshold, those with the same or closest exposure time may be selected as the reference image. This is effective when there are few viewpoint images with the same or closest exposure time. First, in step S504, the exposure time and the parallax of the image sensor to be processed n-th (1 ≦ n ≦ N) among all N (N ≧ 1) image sensors extracted in step S503 are acquired. n represents the number of times the determination process has been performed (hereinafter referred to as the number of determinations). Furthermore, the exposure time of the n-th image sensor is exposure time Tn, and the parallax between the n-th image sensor and the
ステップS505は、取得した露光時間Tnが露光時間の閾値範囲内にあるか否かを判定する。露光時間の閾値は予め定められたものであり、露光時間の下限の閾値を下限露光時間Th1、露光時間の上限閾値を上限露光時間Th2とする。上限露光時間Th2は、下限露光時間Th1と同じ、もしくは、大きい値が設定されなければならない。また、下限露光時間Th1と上限露光閾値とTh2は、符号化対象画像の撮像に用いられた露光時間、又は露光時間に基づいて決めた時間である。ステップS505においては、露光時間Tnが2つの露光時間の閾値である下限露光時間Th1と上限露光時間Th2の範囲にあるか否かを判定する。露光時間Tnが閾値の範囲内である場合は、ステップS506へ進み、視差Pnの判定を行う。一方、露光時間Tnが閾値の範囲外である場合は、n番目の撮像素子で撮影された画像を参照画像リストには追加しない。そして、ステップS508へ進み、次の撮像素子(n+1番目の撮像素子)で撮影された画像が参照画像リストへ追加するか否かの判定を行う。 In step S505, it is determined whether or not the acquired exposure time Tn is within the threshold range of the exposure time. The threshold value of the exposure time is predetermined, and the lower limit threshold value of the exposure time is set as the lower limit exposure time Th1, and the upper limit threshold value of the exposure time is set as the upper limit exposure time Th2. The upper limit exposure time Th2 must be set to a value that is the same as or greater than the lower limit exposure time Th1. The lower limit exposure time Th1, the upper limit exposure threshold value, and Th2 are exposure times used for capturing an encoding target image, or times determined based on the exposure time. In step S505, it is determined whether or not the exposure time Tn is within the range between the lower limit exposure time Th1 and the upper limit exposure time Th2, which are threshold values of the two exposure times. If the exposure time Tn is within the threshold range, the process proceeds to step S506, and the parallax Pn is determined. On the other hand, when the exposure time Tn is outside the threshold range, the image captured by the nth image sensor is not added to the reference image list. Then, the process proceeds to step S508, and it is determined whether or not an image captured by the next image sensor (n + 1-th image sensor) is added to the reference image list.
ステップS506は、各リスト候補に対応する撮像素子の視差が閾値より小さいか否かを判定する。具体的には、n番目の撮像素子と符号化対象の撮像素子202との視差Pnを視差の閾値である最小視差Pminと比較し、視差Pnが最小視差minより小さいか否かを判定する。尚、判定回数1(n=1)のときの最小視差Pminは、初期値として予め定めた閾値である視差初期値Phとする。視差Pnが最小視差Pminより小さいである場合は、ステップS507へ進む。一方、視差Pnが最小視差Pmin以上である場合は、n番目の撮像素子で撮影された画像は参照画像リストには追加しない。そして、ステップS508へ進み、次の撮像素子で撮影された画像が参照画像リストへ追加するか否かの判定を行う。ステップS507は、n番目の撮像素子で撮影された画像を参照画像リストとして保持し、n番目の撮像素子と符号化対象の撮像素子202との視差Pnを視差の閾値である最小視差Pminとして書き換える。
In step S506, it is determined whether or not the parallax of the image sensor corresponding to each list candidate is smaller than a threshold value. Specifically, the parallax Pn between the n-th imaging element and the
ステップS508は、参照画像選択部406における参照画像リストに追加する画像の選択処理の終了判定を行う。具体的には、判定回数nがNより小さい場合は、ステップS509を経由し、最適な参照画像リストを作成するために、ステップS504へ戻って判定処理を繰り返す。一方、判定回数nがNと等価である場合は、符号化対象画像の符号化における参照画像の選択処理を全てのリスト候補群に対して終えたとして、判定処理を終了する。
In step S <b> 508, the reference
また、ステップS507において、参照画像リストに既にリスト候補が存在していた場合は、先に記憶保持していたリスト候補を破棄し、より視差が小さいリスト候補を参照画像リストに保持する。 If a list candidate already exists in the reference image list in step S507, the list candidate previously stored and retained is discarded, and a list candidate having a smaller parallax is retained in the reference image list.
本実施形態では、符号化対象画像を撮影した撮像素子と撮影パラメータが近く、さらに、当該撮像素子との視差が小さい撮像素子で撮影した画像を参照画像リストに追加する手順を、図5のフローチャートを用いて説明したが、本発明はこれに限定されるものではない。例えば、参照画像を複数選択して、これらを用いて予測符号化する場合は、図5のフローチャートに従って選択される画像に加えて、撮影パラメータに関係なく最も視差の小さい画像も、参照画像リストに追加してもよい。 In the present embodiment, the flowchart of FIG. 5 shows a procedure for adding an image captured by an image sensor that captures an encoding target image close to the image capturing parameter and has a small parallax with the image sensor to the reference image list. However, the present invention is not limited to this. For example, when a plurality of reference images are selected and predictive coding is performed using these, in addition to the images selected according to the flowchart of FIG. May be added.
また、本実施形態では撮影パラメータとして露光時間を用いたが、本発明はこれに限定されるものではない。例えば、露光時間T、絞り値I、レンズの明るさF、センサの感度Sを用いて、式(1)のように撮影パラメータを表す値Cを算出してもよい。 In this embodiment, the exposure time is used as the shooting parameter, but the present invention is not limited to this. For example, using the exposure time T, the aperture value I, the lens brightness F, and the sensor sensitivity S, a value C that represents a shooting parameter may be calculated as in Expression (1).
C=a1×T+a2×I+a3×F+a4×S −(1)
ただし、式(1)のa1、a2、a3、及び、a4は、予め定められた定数である。
C = a1 * T + a2 * I + a3 * F + a4 * S- (1)
However, a1, a2, a3, and a4 of Formula (1) are predetermined constants.
以上の構成と動作により、特に参照画像選択部406における処理により、撮像素子毎に露光時間を変えて複数の視点から撮影された画像群を視点間予測する場合に、参照画像の候補を絞り込むことができる。従って、視差ベクトルの計算量を削減することができる。
With the above configuration and operation, the reference
尚、本実施形態では参照画像選択部406における処理のステップS503で、符号化対象画像の撮像素子202と予め定めた視差の閾値の範囲内にある撮像素子を選択し、リスト候補群とした。しかし、本発明においてはステップS503を省略しても構わない。つまり、リスト候補群を選ばず、同一時刻における符号化対象画像以外の全ての画像について参照画像リストを作成するための処理を行ってもよい。ステップS503における処理は、符号化対象画像の撮像素子202と遠く離れた撮像素子によって撮影された画像の処理を省略するために設けたものである。これによって、視差の閾値の範囲外にある画像については、ステップS505〜ステップS509の処理を行う必要がない。すなわち、符号化対象画像以外の全ての画像について処理する場合と比較して、計算量を削減することができる。
In this embodiment, in step S503 of the process in the reference
また、本実施形態において、全ての撮像素子の中からリスト候補群を選び、更に参照画像リストを作成したが、本発明はこれに限定されるものではない。すなわち、リスト候補群や参照画像リストは必ずしも必要ではなく、全ての撮像素子のIDリストから、参照画像として使用しないものを外していくようにしても良い。 In the present embodiment, a list candidate group is selected from all the image sensors and a reference image list is created. However, the present invention is not limited to this. That is, the list candidate group and the reference image list are not necessarily required, and those that are not used as reference images may be removed from the ID lists of all the image pickup devices.
以下、具体的に参照画像リストに追加する画像の選択方法を説明する。 Hereinafter, a method for selecting an image to be added to the reference image list will be specifically described.
ここでは例として、光学素子部102の撮像素子の数を6個とする。さらに、露光時間の閾値の下限露光時間Th1と上限露光時間Th2をともに符号化対象画像を撮影した撮像素子の露光時間と等しい値とし、初期の視差の閾値である視差初期値Phを5(初期の最小視差Pmin=視差初期値Ph=5とする。尚、下限露光時間Th1と上限露光時間Th2を同じ値を設定するのは、説明を簡単するためであり、本発明はこれに限定されるものではない。
Here, as an example, the number of image sensors in the
また、6個の撮像素子のIDとして#1〜#6を割り当てる。また、各撮像素子#1〜#6に設定された露光時間を表1に示す。
Also, # 1 to # 6 are assigned as IDs of six image sensors. Table 1 shows exposure times set for the
図6は、各撮像素子#1〜#6を用いて撮影された画像を撮影時刻毎に並べ、フレーム間符号化部402によるフレーム間予測をする際の画像の参照関係を示した図である。本実施形態では、図6において、撮像素子♯1で撮影された画像を基準視点画像とする。また、符号化部106は、各撮像素子#1〜#6から出力される画像を、撮像素子#1、#2、#3、#4、#5、#6に対応する画像の順番で符号化する。尚、本発明はこれに限定されるものではない。例えば、撮像素子#3から出力される画像を基準視点画像としてもよいし、各撮像素子#1〜#6に対応する画像を上記と異なる順番で符号化してもよい。
FIG. 6 is a diagram illustrating an image reference relationship when images captured using the
まず、図6の時刻t1に撮像素子#4で撮影された画像B41を例に挙げ、図4の参照画像選択部406が画像リストを作成する処理方法を図5、図6、及び、表1を用いて説明する。
First, taking as an example the image B41 imaged by the image sensor # 4 at time t1 in FIG. 6, the reference
ステップS501において、参照画像選択部406は、符号化対象画像である画像B41が基準視点画像であるか否かを判定する。画像B41は基準視点画像ではないため、ステップS502へ進む。
In step S501, the reference
ステップS502において、参照画像選択部406は、撮影パラメータ取得部405からB41を撮影した撮像素子#4の撮影パラメータを取得する。表1に示すように、撮像素子#4の露光時間は1/125である。
In step S <b> 502, the reference
ステップS503において、参照画像選択部406は、視差が視差初期値Phを5より小さい撮像素子で撮影された画像をリスト候補とする。画像B41の符号化におけるリスト候補は、予め符号化済みの画像から選択する。また、時刻t1では、各撮像素子#1〜#6のうち撮像素子#4の視差と近い撮像素子で同一時刻の時刻t1に撮影された画像がリスト候補と成り得る。つまり、画像B41の符号化におけるリスト候補群は、画像I11、画像P21、及び、画像P31から成る。そのため、リスト補群に対応する撮像素子の各IDは、#1、#2、及び、#3となる。つまり、リスト候補群にリストされる画像に対応する撮像素子の数Nは3(N=3)である。ここでは、説明を簡単にするため、ステップS504〜S507では、撮像素子のIDを昇順(#1、#2、#3の順序)に判定処理を進める。
In step S <b> 503, the reference
ステップS504では、1番目の撮像素子#1の露光時間と視差を取得する。表1及び図6より、撮像素子#1の露光時間は1/125、視差は3である。
In step S504, the exposure time and the parallax of the first
ステップS505は、撮像素子#1の露光時間1/125が露光時間の閾値の範囲内であるか否かを判定する。露光時間の閾値の下限露光時間Th1と上限露光時間Th2は、ともに符号化対象画像を撮影した撮像素子#4の露光時間1/125と等しい値である。よって、撮像素子#1の露光時間1/125は閾値の範囲内にあるため、ステップS506へ進む。
In step S505, it is determined whether or not the
ステップS506では、撮像素子#1の視差は3が最小視差Pminより小さいか否かを判定する。このときの最小視差Pminは視差初期値Phと等しい値であるため、最小視差Pminは5である。よって、ステップS507へ進む。
In step S506, it is determined whether or not the parallax of the
ステップS507では、画像I11を参照画像リストに追加し、視差の閾値である最小視差Pminを視差初期値Ph=5から光学素子#1の視差の値3に変更する(Pmin=3に書き換える)。そして、ステップS508へ進む。 In step S507, the image I11 is added to the reference image list, and the minimum parallax Pmin, which is the parallax threshold, is changed from the parallax initial value Ph = 5 to the parallax value 3 of the optical element # 1 (rewritten to Pmin = 3). Then, the process proceeds to step S508.
ステップS508では、符号化対象である画像の符号化における参照画像の選択処理を全てのリスト候補群に対して終えたか否かを判定する。この時点で判定回数1(n=1)なのでn<N(N=3)である。よって、全てのリスト候補群に対して処理を終えていないと判定する。そして、ステップS509を経由してステップS504へ戻り、次のリスト候補である撮像素子#2で撮影された画像P21について判定処理を繰り返す。しかし、ステップS504では、撮像素子#2の露光時間が閾値範囲内にないため、画像P21は参照画像リストに追加しない。同様の理由で、撮像素子#3で撮影された画像P31も参照画像リストに追加しない。 In step S508, it is determined whether reference image selection processing in encoding of the image to be encoded has been completed for all list candidate groups. Since the number of determinations is 1 (n = 1) at this time, n <N (N = 3). Therefore, it is determined that processing has not been completed for all list candidate groups. Then, the process returns to step S504 via step S509, and the determination process is repeated for the image P21 photographed by the image sensor # 2 that is the next list candidate. However, in step S504, since the exposure time of the image sensor # 2 is not within the threshold range, the image P21 is not added to the reference image list. For the same reason, the image P31 captured by the image sensor # 3 is not added to the reference image list.
つまり、図6の時刻t1に撮像素子#4で撮影された画像B41のフレーム間予測において、参照画像リストには画像I11が保持される。そして、ベクトル探索部407は、当該画像I11を用いてベクトル探索を行う。
That is, the image I11 is held in the reference image list in the inter-frame prediction of the image B41 captured by the image sensor # 4 at time t1 in FIG. Then, the
尚、本発明はこれに限定されるものではなく、複数の画像を参照画像リストに保持する場合は、画像I11に加えて、例えば視差が最も小さい画像である画像P31も参照画像リストに加えてもよい。 Note that the present invention is not limited to this, and in the case where a plurality of images are held in the reference image list, in addition to the image I11, for example, the image P31 that is the image with the smallest parallax is also added to the reference image list. Also good.
次に、もう1つの事例として、図6の時刻t4に撮像素子#6で撮影された画像B64の参照画像リストを作成する処理方法を図5、図6、及び、表1を用いて説明する。 Next, as another example, a processing method for creating a reference image list of an image B64 photographed by the image sensor # 6 at time t4 in FIG. 6 will be described with reference to FIGS. .
ステップS502では、画像B64を撮影した撮像素子#6の露光時間1/2000を取得する。
In step S502, the
ステップS503では、リスト候補群にリストされる撮像素子を選択する。リスト候補群として選択された画像は、画像B64と同時刻に撮影された画像のうち、視差閾値を満たす画像B24、画像B34、画像B44、画像B54の4つとなる(撮像素子数N=4)。 In step S503, an image sensor listed in the list candidate group is selected. The images selected as the list candidate group are four images B24, B34, B44, and B54 that satisfy the parallax threshold among the images shot at the same time as the image B64 (the number of imaging elements N = 4). .
そして、各リスト候補群に対応する各撮像素子#2、#3、#4、#5に対してステップS504〜S507の判定処理を夫々行う。 Then, the determination processes in steps S504 to S507 are performed on each of the image sensors # 2, # 3, # 4, and # 5 corresponding to each list candidate group.
その結果、参照画像リストには、#3で撮影された画像B34を保持する。これは、画像B34がステップS505における露光時間の閾値を満たすためである。 As a result, the reference image list holds the image B34 taken at # 3. This is because the image B34 satisfies the exposure time threshold value in step S505.
尚、本発明はこれに限定されるものではない。すなわち、同一時刻、つまり、B64を撮影した時刻t4に撮影された画像のうち最も視差の小さい画像B54を参照画像リストに加えてもよい。また、同一視点、つまりB64を撮影した撮像素子#6により異なる時刻に撮影された画像B63及び画像B65も参照画像リストに加えてもよい。 Note that the present invention is not limited to this. That is, the image B54 having the smallest parallax among the images taken at the same time, that is, the time t4 when B64 was taken may be added to the reference image list. In addition, the image B63 and the image B65 captured at different times by the imaging element # 6 that captured B64 may be added to the reference image list.
<実施形態2>
実施形態1では、参照画像選択部406において、符号化対象画像を撮影した撮像素子の撮影パラメータを用いて参照画像を選択する方法を図5のフローチャートを用いて説明した。本実施形態では、参照画像選択部406において、図7に示すフローチャートを用いて参照画像を選択するその他の方法を説明する。
<Embodiment 2>
In the first embodiment, the method of selecting the reference image using the imaging parameter of the imaging element that has captured the encoding target image in the reference
本実施形態における撮像装置は、図1、図2、図3、及び、図4に示した実施形態1と同じ構成であるため、記述を省略する。 The imaging apparatus according to the present embodiment has the same configuration as that of the first embodiment illustrated in FIGS. 1, 2, 3, and 4, and thus description thereof is omitted.
以下、符号化対象画像を撮影した撮像素子の撮影パラメータを用いて参照画像を選択する方法を図7のフローチャートを用いて説明する。ただし、図7における、ステップS701、ステップS702、ステップS703、ステップS706、ステップS708は、図5におけるステップS501、ステップS502、ステップS503、ステップS505、ステップS509に夫々対応する。このため、詳細の説明は省略する。 Hereinafter, a method of selecting a reference image using the imaging parameters of the image sensor that has captured the encoding target image will be described with reference to the flowchart of FIG. However, step S701, step S702, step S703, step S706, and step S708 in FIG. 7 correspond to step S501, step S502, step S503, step S505, and step S509 in FIG. 5, respectively. Therefore, detailed description is omitted.
ステップS701〜ステップS703は、図5におけるステップS501〜ステップS503と同様の動作を実行する。 Steps S701 to S703 execute the same operations as steps S501 to S503 in FIG.
ステップS704は、ステップS703で選択した全N個(N≧1)の撮像素子の視差を取得する。さらに、ステップS704は取得した視差の小さい順に、N個の撮像素子に処理順序を設定する。 In step S704, parallaxes of all N (N ≧ 1) image sensors selected in step S703 are acquired. In step S704, the processing order is set for the N imaging elements in the order of the acquired parallax.
ステップS705は、ステップS704で設定した処理順序に基づいて、n番目(1≦n≦N)に処理する撮像素子の露光時間と視差を取得する。また、n番目の撮像素子の露光時間を露光時間Tn、符号化対象画像を撮影した撮像素子との距離に基づく視差を視差Pnとする。 In step S705, based on the processing order set in step S704, the exposure time and the parallax of the image sensor to be processed nth (1 ≦ n ≦ N) are acquired. Also, let the exposure time of the n-th image sensor be the exposure time Tn, and the parallax based on the distance from the image sensor that captured the encoding target image be the parallax Pn.
ステップS706は、ステップS705で取得した露光時間Tnが露光時間の閾値範囲内にあるか否かを判定する。露光時間の閾値は、下限露光時間Th1、上限露光時間Th2とする。ステップS706においては、露光時間Tnが2つの露光時間の閾値である下限露光時間Th1と上限露光時間Th2の範囲にあるか否かを判定する。露光時間Tnが閾値の範囲内である場合は、ステップS707へ進む。一方、露光時間Tnが閾値の範囲外である場合は、n番目の撮像素子で撮影された画像を参照画像リストには追加しない。そして、ステップS708へ進み、次の撮像素子(n+1番目の撮像素子)で撮影された画像が参照画像リストへ追加するか否かの判定を行う。 In step S706, it is determined whether or not the exposure time Tn acquired in step S705 is within the exposure time threshold range. The threshold values for the exposure time are the lower limit exposure time Th1 and the upper limit exposure time Th2. In step S706, it is determined whether or not the exposure time Tn is within the range between the lower limit exposure time Th1 and the upper limit exposure time Th2, which are the threshold values of the two exposure times. If the exposure time Tn is within the threshold range, the process proceeds to step S707. On the other hand, when the exposure time Tn is outside the threshold range, the image captured by the nth image sensor is not added to the reference image list. Then, the process proceeds to step S708, and it is determined whether or not an image captured by the next image sensor (n + 1-th image sensor) is added to the reference image list.
ステップS707は、n番目の撮像素子で撮影された画像を参照画像リストとして保持し、参照画像選択部406における参照画像の選択処理の判定を終了する。
In step S707, the image captured by the n-th image sensor is held as a reference image list, and the determination of the reference image selection process in the reference
本実施形態では、ステップS704により、視差の小さい順に処理順序を設定し、当該処理順序に基づいて撮影パラメータを比較した。これにより、リスト候補群全てに対して撮影パラメータが閾値を満たすか否かを判定する必要はない。また、本実施形態では、符号化対象画像を撮影した撮像素子と撮影パラメータが近く、さらに、当該撮像素子との視差が小さい撮像素子で撮影した画像を参照画像リストに追加する手順を、図7のフローチャートを用いて説明した。しかし、本発明はこれに限定されるものではない。例えば、参照画像を複数選択して、これらを用いて予測符号化する場合は、図7のフローチャートに従って選択される画像に加えて、撮影パラメータに関係なく最も視差の小さい画像も、参照画像リストに追加してもよい。 In the present embodiment, in step S704, the processing order is set in ascending order of parallax, and the imaging parameters are compared based on the processing order. Thus, it is not necessary to determine whether or not the shooting parameters satisfy the threshold for all the list candidate groups. Further, in the present embodiment, a procedure for adding an image captured by an image sensor that has close imaging parameters to the image sensor that captured the encoding target image and that has a small parallax with the image sensor to the reference image list is illustrated in FIG. This has been described with reference to the flowchart of FIG. However, the present invention is not limited to this. For example, when a plurality of reference images are selected and predictive coding is performed using these, in addition to the images selected according to the flowchart of FIG. May be added.
<実施形態3>
実施形態1及び2において本発明を実行する撮像装置について説明した。しかしながら本発明は撮像装置に限らず、画像処理部及び符号化部を有する画像処理装置においても実行可能である。また画像処理部及び符号化部を有さなくても、これらの処理部が行う処理をコンピュータプログラムでもって実行しても良い。
<Embodiment 3>
In the first and second embodiments, the imaging apparatus that executes the present invention has been described. However, the present invention is not limited to the imaging apparatus, and can be executed in an image processing apparatus having an image processing unit and an encoding unit. Even if the image processing unit and the encoding unit are not provided, the processing performed by these processing units may be executed by a computer program.
図8は、上記各実施形態を適用可能なコンピュータのハードウェアの構成例を示すブロック図である。 FIG. 8 is a block diagram illustrating a configuration example of computer hardware to which the above-described embodiments can be applied.
CPU801は、RAM802やROM803に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、上述した各処理を実行する。即ち、CPU801は、図1示した画像処理部及び符号化部として機能することになる。
The
RAM802は、外部記憶装置806からロードされたコンピュータプログラムやデータ、I/F(インターフェース)807を介して外部から取得したデータなどを一時的に記憶するためのエリアを有する。更に、RAM802は、CPU801が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM802は、例えば、フレームメモリとして割り当てたり、その他の各種のエリアを適宜提供したりすることができる。
The
ROM803には、本コンピュータの設定データや、ブートプログラムなどが格納されている。操作部804は、キーボードやマウスなどにより構成されており、本コンピュータのユーザが操作することで、各種の指示をCPU801に対して入力することができる。
The
外部記憶装置806は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置806には、OS(オペレーティングシステム)や、各部の機能をCPU801に実現させるためのコンピュータプログラムが保存されている。更には、外部記憶装置806には、処理対象としての各画像データが保存されていても良い。
The external storage device 806 is a mass information storage device represented by a hard disk drive device. The external storage device 806 stores an OS (Operating System) and computer programs for causing the
外部記憶装置806に保存されているコンピュータプログラムやデータは、CPU801による制御に従って適宜、RAM802にロードされ、CPU801による処理対象となる。I/F807には、LANやインターネット等のネットワーク、投影装置や表示装置などの他の機器を接続することができ、本コンピュータはこのI/F807を介して様々な情報を取得したり、送出したりすることができる。808は上述の各部を繋ぐバスである。
Computer programs and data stored in the external storage device 806 are appropriately loaded into the
上述の構成からなる作動は前述のフローチャートで説明した作動をCPU801が中心となってその制御を行う。
The operation having the above-described configuration is controlled by the
<その他の実施形態>
本発明の目的は、前述した機能を実現するコンピュータプログラムのコードを記録した記憶媒体を、システムに供給し、そのシステムがコンピュータプログラムのコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたコンピュータプログラムのコード自体が前述した実施形態の機能を実現し、そのコンピュータプログラムのコードを記憶した記憶媒体は本発明を構成する。また、そのプログラムのコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した機能が実現される場合も含まれる。
<Other embodiments>
The object of the present invention can also be achieved by supplying a storage medium storing a computer program code for realizing the above-described functions to the system, and the system reading and executing the computer program code. In this case, the computer program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the computer program code constitutes the present invention. In addition, the operating system (OS) running on the computer performs part or all of the actual processing based on the code instruction of the program, and the above-described functions are realized by the processing. .
さらに、以下の形態で実現しても構わない。すなわち、記憶媒体から読み出されたコンピュータプログラムコードを、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込む。そして、そのコンピュータプログラムのコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行って、前述した機能が実現される場合も含まれる。 Furthermore, you may implement | achieve with the following forms. That is, the computer program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Then, based on the instruction of the code of the computer program, the above-described functions are realized by the CPU or the like provided in the function expansion card or function expansion unit performing part or all of the actual processing.
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するコンピュータプログラムのコードが格納されることになる。 When the present invention is applied to the above storage medium, the computer program code corresponding to the flowchart described above is stored in the storage medium.
Claims (8)
前記複数の視点ごとに設定された撮影パラメータを用いて前記複数の視点ごとに撮像された複数の画像を含む前記多視点画像を取得する取得手段と、
前記複数の画像の内の符号化対象画像を符号化する場合に、前記複数の画像の内の、前記撮影パラメータが前記符号化対象画像における前記撮影パラメータに基づく所定の範囲内の画像であり、かつ、前記所定の範囲内の画像の内の、前記符号化対象画像を撮像した視点との視差が最も小さい画像を参照画像として用いて、前記符号化対象画像を符号化する符号化手段と
を有することを特徴とする符号化装置。 An encoding device that encodes a multi-viewpoint image captured from a plurality of viewpoints,
An acquisition unit configured to acquire the multi-viewpoint image including a plurality of images captured for each of the plurality of viewpoints using imaging parameters set for the plurality of viewpoints;
When encoding the encoding target image of the plurality of images, the shooting parameter of the plurality of images is an image within a predetermined range based on the shooting parameter in the encoding target image, And encoding means for encoding the encoding target image using, as a reference image, an image having the smallest parallax with respect to a viewpoint where the encoding target image is imaged, among the images within the predetermined range. An encoding apparatus comprising:
ことを特徴とする請求項1記載の符号化装置。 The encoding apparatus according to claim 1, wherein the parallax is based on a distance between the plurality of viewpoints.
ことを特徴とする請求項1又は2に記載の符号化装置。 The encoding apparatus according to claim 1, wherein the imaging parameter is at least one of an exposure time, a focus position, an aperture value, a lens brightness, and a sensor sensitivity value.
前記多視点画像は、前記複数の撮像素子を用いて前記被写体に対して前記複数の視点から撮像された画像である
ことを特徴とする請求項1乃至3のいずれか1項に記載の符号化装置。 The imaging device that captures the multi-viewpoint image includes a plurality of imaging elements,
The encoding according to any one of claims 1 to 3, wherein the multi-viewpoint image is an image captured from the plurality of viewpoints with respect to the subject using the plurality of imaging elements. apparatus.
ことを特徴とする請求項1乃至4のいずれか1項に記載の符号化装置。 The encoding apparatus according to any one of claims 1 to 4, wherein the encoding unit performs inter-frame predictive encoding on the encoding target image using the reference image.
前記多視点画像を撮像する複数の撮像手段と
を有することを特徴とする撮像装置。 The encoding device according to any one of claims 1 to 5,
An imaging apparatus comprising: a plurality of imaging units that capture the multi-viewpoint images.
前記複数の視点ごとに設定された撮影パラメータを用いて前記複数の視点ごとに撮像された複数の画像を含む前記多視点画像を取得する取得工程と、
前記複数の画像の内の符号化対象画像を符号化する場合に、前記複数の画像の内の、前記撮影パラメータが前記符号化対象画像における前記撮影パラメータに基づく所定の範囲内の画像であり、かつ、前記所定の範囲内の画像の内の、前記符号化対象画像を撮像した視点との視差が最も小さい画像を参照画像として用いて、前記符号化対象画像を符号化する符号化工程と
を有することを特徴とする符号化方法。 An encoding method for encoding a multi-viewpoint image captured from a plurality of viewpoints,
An acquisition step of acquiring the multi-viewpoint image including a plurality of images captured for each of the plurality of viewpoints using imaging parameters set for the plurality of viewpoints;
When encoding the encoding target image of the plurality of images, the shooting parameter of the plurality of images is an image within a predetermined range based on the shooting parameter in the encoding target image, And an encoding step of encoding the encoding target image using, as a reference image, an image having the smallest parallax with respect to a viewpoint where the encoding target image is captured among images within the predetermined range. An encoding method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017039887A JP6338724B2 (en) | 2017-03-02 | 2017-03-02 | Encoding device, imaging device, encoding method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017039887A JP6338724B2 (en) | 2017-03-02 | 2017-03-02 | Encoding device, imaging device, encoding method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012133630A Division JP2013258577A (en) | 2012-06-13 | 2012-06-13 | Imaging device, imaging method and program, image encoding device, and image encoding method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017130953A true JP2017130953A (en) | 2017-07-27 |
JP6338724B2 JP6338724B2 (en) | 2018-06-06 |
Family
ID=59395040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017039887A Active JP6338724B2 (en) | 2017-03-02 | 2017-03-02 | Encoding device, imaging device, encoding method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6338724B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021507593A (en) * | 2017-12-15 | 2021-02-22 | オランジュ | Methods and Devices for Encoding and Decoding Multiview Video Sequences Representing Omnidirectional Video |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006115336A (en) * | 2004-10-15 | 2006-04-27 | Canon Inc | Moving image encoder and control method thereof |
JP2008252682A (en) * | 2007-03-30 | 2008-10-16 | Sanyo Electric Co Ltd | Image display device and imaging device equipped with the image display device |
US20090251531A1 (en) * | 2008-04-04 | 2009-10-08 | Texas Instruments Incorporated | Coding scheme for digital video signals and an image architecture using the same |
JP2011193352A (en) * | 2010-03-16 | 2011-09-29 | Sharp Corp | Multi-view image encoding apparatus |
US20120050474A1 (en) * | 2009-01-19 | 2012-03-01 | Sharp Laboratories Of America, Inc. | Stereoscopic dynamic range image sequence |
WO2012035371A1 (en) * | 2010-09-14 | 2012-03-22 | Nokia Corporation | A multi frame image processing apparatus |
WO2012042895A1 (en) * | 2010-09-30 | 2012-04-05 | パナソニック株式会社 | Three-dimensional video encoding apparatus, three-dimensional video capturing apparatus, and three-dimensional video encoding method |
-
2017
- 2017-03-02 JP JP2017039887A patent/JP6338724B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006115336A (en) * | 2004-10-15 | 2006-04-27 | Canon Inc | Moving image encoder and control method thereof |
JP2008252682A (en) * | 2007-03-30 | 2008-10-16 | Sanyo Electric Co Ltd | Image display device and imaging device equipped with the image display device |
US20090251531A1 (en) * | 2008-04-04 | 2009-10-08 | Texas Instruments Incorporated | Coding scheme for digital video signals and an image architecture using the same |
US20120050474A1 (en) * | 2009-01-19 | 2012-03-01 | Sharp Laboratories Of America, Inc. | Stereoscopic dynamic range image sequence |
JP2011193352A (en) * | 2010-03-16 | 2011-09-29 | Sharp Corp | Multi-view image encoding apparatus |
WO2012035371A1 (en) * | 2010-09-14 | 2012-03-22 | Nokia Corporation | A multi frame image processing apparatus |
WO2012042895A1 (en) * | 2010-09-30 | 2012-04-05 | パナソニック株式会社 | Three-dimensional video encoding apparatus, three-dimensional video capturing apparatus, and three-dimensional video encoding method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021507593A (en) * | 2017-12-15 | 2021-02-22 | オランジュ | Methods and Devices for Encoding and Decoding Multiview Video Sequences Representing Omnidirectional Video |
JP7279047B2 (en) | 2017-12-15 | 2023-05-22 | オランジュ | Method and device for encoding and decoding multiview video sequences representing omnidirectional video |
Also Published As
Publication number | Publication date |
---|---|
JP6338724B2 (en) | 2018-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5400062B2 (en) | Video encoding and decoding method and apparatus using parametric filtering | |
JP4799438B2 (en) | Image recording apparatus, image recording method, image encoding apparatus, and program | |
JP4999854B2 (en) | Image encoding method and decoding method, apparatus thereof, program thereof, and storage medium storing program | |
US8983217B2 (en) | Stereo image encoding apparatus, its method, and image pickup apparatus having stereo image encoding apparatus | |
WO2015139605A1 (en) | Method for low-latency illumination compensation process and depth lookup table based coding | |
JP6707334B2 (en) | Method and apparatus for real-time encoding | |
JP2013258577A (en) | Imaging device, imaging method and program, image encoding device, and image encoding method and program | |
JP6000670B2 (en) | Image processing apparatus and image processing method | |
JP6338724B2 (en) | Encoding device, imaging device, encoding method, and program | |
WO2011074189A1 (en) | Image encoding method and image encoding device | |
JP2009164865A (en) | Video coding method, video decoding method, video coding apparatus, video decoding apparatus, programs therefor and computer-readable recording medium | |
JP2017098601A (en) | Encoding device, imaging device, encoding method, and program | |
JP6875802B2 (en) | Image coding device and its control method, imaging device and program | |
JP6386466B2 (en) | Video encoding apparatus and method, and video decoding apparatus and method | |
JP4851563B2 (en) | Video encoding method, video decoding method, video encoding program, video decoding program, and computer-readable recording medium on which these programs are recorded | |
JP2013150071A (en) | Encoder, encoding method, program and storage medium | |
WO2012172634A1 (en) | Image encoding device, image decoding device, method, and program | |
KR20150137081A (en) | Method for encoding a plurality of input images and storage medium and device for storing program | |
JP2018191136A (en) | Encoding device, encoding method and program | |
KR20090130712A (en) | Method for image prediction of multi-view video codec and computer readable recording medium therefor | |
WO2015098827A1 (en) | Video coding method, video decoding method, video coding device, video decoding device, video coding program, and video decoding program | |
JP6581469B2 (en) | Image encoding apparatus, control method therefor, program, and storage medium | |
JP5974692B2 (en) | Moving picture decoding apparatus and program | |
JP2019097030A (en) | Image coding apparatus, imaging apparatus, image coding method, and program | |
JP2018033082A (en) | Image encoder, image encoding method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180410 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180508 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6338724 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |