JP2017130953A - Encoding device, imaging device, encoding method and program - Google Patents

Encoding device, imaging device, encoding method and program Download PDF

Info

Publication number
JP2017130953A
JP2017130953A JP2017039887A JP2017039887A JP2017130953A JP 2017130953 A JP2017130953 A JP 2017130953A JP 2017039887 A JP2017039887 A JP 2017039887A JP 2017039887 A JP2017039887 A JP 2017039887A JP 2017130953 A JP2017130953 A JP 2017130953A
Authority
JP
Japan
Prior art keywords
image
encoding
viewpoint
images
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017039887A
Other languages
Japanese (ja)
Other versions
JP6338724B2 (en
Inventor
藤野 玲子
Reiko Fujino
玲子 藤野
内藤 聡
Satoshi Naito
聡 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017039887A priority Critical patent/JP6338724B2/en
Publication of JP2017130953A publication Critical patent/JP2017130953A/en
Application granted granted Critical
Publication of JP6338724B2 publication Critical patent/JP6338724B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve a problem in which: when encoding a multi-viewpoint image obtained by photographing a subject from a plurality of viewpoints, a prediction error in inter-viewpoint prediction increases, which reduces encoding efficiency.SOLUTION: Acquisition means acquires a multi-viewpoint image including plural images obtained by photographing a subject from a plurality of viewpoints by using photographing parameters set for respective viewpoints. In the case of encoding an encoding target image out of the images, encoding means encodes the encoding target image by using as a reference viewpoint an image within a predetermined range whose parameters are based on the photographing parameters in the encoding target image, out of the images, and whose parallax from a view point of having imaging the encoding target image is the smallest, out of the images within the predetermined range.SELECTED DRAWING: Figure 1

Description

本発明は、複数の視点から撮影された画像を符号化する技術に関する。   The present invention relates to a technique for encoding images taken from a plurality of viewpoints.

従来、被写体を複数の視点から撮影した多視点画像を用いて、任意のフォーカス距離、被写界深度、視点における画像を生成する方法がある。そして、撮影された多視点画像を圧縮符号化(以下、符号化)することで、データ容量を削減することができる。このように符号化されたデータは、記録媒体に記録したり、ネットワークを介してサーバに転送することができる。   Conventionally, there is a method of generating an image at an arbitrary focus distance, depth of field, and viewpoint using a multi-viewpoint image obtained by photographing a subject from a plurality of viewpoints. The data capacity can be reduced by compressing and encoding the captured multi-viewpoint image (hereinafter referred to as encoding). Data encoded in this way can be recorded on a recording medium or transferred to a server via a network.

撮影された多視点画像を符号化する際に、視点間予測符号化(以下、視点間予測)を用いる方法が提案されている(特許文献1)。撮影された各多視点画像が近接した視点の画像である場合、これらの画像間には相関関係がある。視点間予測は、この画像間の相関関係を利用している。特許文献1では、複数のカメラを用いて被写体を複数の視点から撮影し、多視点画像を取得する。そして、複数の視点のうちいずれかを基準視点と設定する。   A method of using inter-view prediction encoding (hereinafter referred to as inter-view prediction) when encoding a captured multi-view image has been proposed (Patent Document 1). When each captured multi-viewpoint image is an image of a close viewpoint, there is a correlation between these images. Inter-viewpoint prediction uses the correlation between images. In Patent Document 1, a subject is photographed from a plurality of viewpoints using a plurality of cameras, and a multi-viewpoint image is acquired. Then, one of the plurality of viewpoints is set as the reference viewpoint.

基準視点として設定された視点から撮影して得られた画像を符号化する場合、基準視点と同一視点で過去の時刻に撮影された画像(以下、同一視点画像)を参照画像として用いる。一方、基準視点以外の視点で撮影して得られた画像を符号化する場合、同一視点画像、及び、基準視点寄りの隣接視点で撮影された画像(以下、隣接視点画像)を参照画像として用いる。   When encoding an image obtained by photographing from a viewpoint set as a reference viewpoint, an image photographed at a past time at the same viewpoint as the reference viewpoint (hereinafter, the same viewpoint image) is used as a reference image. On the other hand, when encoding an image obtained by photographing from a viewpoint other than the reference viewpoint, the same viewpoint image and an image photographed at an adjacent viewpoint close to the reference viewpoint (hereinafter referred to as an adjacent viewpoint image) are used as reference images. .

特開平9−0261653JP 9-0261653 A

上述の特許文献1において、視点間予測は、同一視点画像、及び、隣接視点画像を参照画像の候補として用いている。そのため、参照画像が同一視点画像もしくは隣接画像であっても、撮影条件が異なっている場合には、視点間予測における予測誤差が大きくなり、符号化効率が低下する。また、黒つぶれ、あるいは、白とびしているような画像が基準視点になっている場合には、上記同様、符号化効率が低下するという課題がある。   In the above-mentioned Patent Document 1, inter-viewpoint prediction uses the same viewpoint image and the adjacent viewpoint image as reference image candidates. Therefore, even if the reference image is the same viewpoint image or an adjacent image, if the shooting conditions are different, the prediction error in the inter-viewpoint prediction becomes large, and the encoding efficiency decreases. In addition, when an image that is blacked out or overexposed is the reference viewpoint, there is a problem that the encoding efficiency is reduced as described above.

本発明は、かかる課題を解決し、視点間予測を用いた符号化を効率的に行うことができる技術を提供することを目的とする。   An object of the present invention is to solve this problem and provide a technique capable of efficiently performing coding using inter-view prediction.

上記の課題を解決するために、本発明の符号化装置は下記の構成を有する。すなわち、複数の視点から撮像された多視点画像を符号化する符号化装置であって、前記複数の視点ごとに設定された撮影パラメータを用いて前記複数の視点ごとに撮像された複数の画像を含む前記多視点画像を取得する取得手段と、前記複数の画像の内の符号化対象画像を符号化する場合に、前記複数の画像の内の、前記撮影パラメータが前記符号化対象画像における前記撮影パラメータに基づく所定の範囲内の画像であり、かつ、前記所定の範囲内の画像の内の、前記符号化対象画像を撮像した視点との視差が最も小さい画像を参照画像として用いて、前記符号化対象画像を符号化する符号化手段とを有する。   In order to solve the above problems, the encoding apparatus of the present invention has the following configuration. That is, an encoding device that encodes a multi-viewpoint image captured from a plurality of viewpoints, wherein a plurality of images captured for each of the plurality of viewpoints using a shooting parameter set for each of the plurality of viewpoints. The acquisition means for acquiring the multi-viewpoint image, and when encoding the encoding target image of the plurality of images, the shooting parameter of the plurality of images is the shooting of the encoding target image. Using the image within a predetermined range based on the parameters and having the smallest parallax with the viewpoint where the encoding target image is imaged among the images within the predetermined range as the reference image, the code Encoding means for encoding the encoding target image.

本発明により、視点間予測を用いた符号化の効率を向上させることができる。   According to the present invention, the efficiency of encoding using inter-view prediction can be improved.

実施形態1の撮像装置の構成を説明する図2A and 2B illustrate a configuration of an imaging apparatus according to a first embodiment. 実施形態1の光学素子部を構成する撮像素子の配置を説明する図FIG. 3 is a diagram illustrating the arrangement of image pickup elements that constitute the optical element unit according to the first embodiment. 実施形態1の符号化部の構成を説明する図The figure explaining the structure of the encoding part of Embodiment 1. 実施形態1の予測部の構成を説明する図The figure explaining the structure of the estimation part of Embodiment 1. 実施形態1の参照画像選択のためのフローチャートを説明する図The figure explaining the flowchart for the reference image selection of Embodiment 1. 実施形態1の撮影された画像の参照関係を説明する図FIG. 4 is a diagram for explaining a reference relationship of captured images according to the first embodiment. 実施形態2の参照画像選択のためのフローチャートを説明する図FIG. 10 is a diagram for explaining a flowchart for selecting a reference image according to the second embodiment. 実施形態1及び実施形態2を適用可能なコンピュータのハードウェアの構成例を示すブロック図FIG. 2 is a block diagram illustrating a configuration example of computer hardware to which the first and second embodiments can be applied.

<実施形態1>
本実施形態では、被写体を複数の視点から撮影した多視点画像を符号化する符号化部を有する撮像装置について説明する。そして、本実施形態においては、デジタルカメラやデジタルカムコーダなどの撮像装置が有する撮像素子から読み出された画像、及び、ネットワークを介して受信した画像を符号化対象とする。尚、本発明はこれに限定されず、符号化部を撮像装置とは別の装置に備えても構わない。すなわち、本発明は、複数の撮像素子を有する撮像装置と、符号化を行う画像符号化装置に分けても構わない。
<Embodiment 1>
In the present embodiment, an imaging apparatus having an encoding unit that encodes a multi-viewpoint image obtained by capturing a subject from a plurality of viewpoints will be described. In the present embodiment, an image read from an imaging element included in an imaging apparatus such as a digital camera or a digital camcorder, and an image received via a network are set as encoding targets. In addition, this invention is not limited to this, You may provide an encoding part in an apparatus different from an imaging device. That is, the present invention may be divided into an imaging apparatus having a plurality of imaging elements and an image encoding apparatus that performs encoding.

図1は、複数の撮像素子を備えた多眼方式による撮像装置を示す図である。   FIG. 1 is a diagram illustrating an image pickup apparatus based on a multi-view system including a plurality of image pickup elements.

図1において、撮像装置101は、光学素子部102、撮像部103、CPU104、画像処理部105、符号化部106、バス107、メモリ108、記憶媒体109、通信部110を有する。   In FIG. 1, the imaging apparatus 101 includes an optical element unit 102, an imaging unit 103, a CPU 104, an image processing unit 105, an encoding unit 106, a bus 107, a memory 108, a storage medium 109, and a communication unit 110.

光学素子部102は、被写体にフォーカスを合わせる、シャッターを開く・閉じる、絞り値を調節するなどの撮像系の制御を行う。光学素子部102は、被写体の光情報をセンサ(撮像素子)で受光し、受光した信号を撮像部103に転送を行う。図2は、光学素子部102の構成例を示す図である。光学素子部102は、9個の撮像素子201〜209から構成され、正方格子上に均等に配置されている。尚、図2では一例として9個の撮像素子を正方格子上に配置しているが、本発明において撮像素子の数や配置はこれに限定されるものではない。   The optical element unit 102 controls the imaging system such as focusing on a subject, opening / closing a shutter, and adjusting an aperture value. The optical element unit 102 receives light information of a subject by a sensor (imaging element) and transfers the received signal to the imaging unit 103. FIG. 2 is a diagram illustrating a configuration example of the optical element unit 102. The optical element unit 102 includes nine image pickup elements 201 to 209 and is equally arranged on a square lattice. In FIG. 2, nine image sensors are arranged on a square lattice as an example, but the number and arrangement of image sensors are not limited to this in the present invention.

撮像部103は、光学素子部102から転送された光信号(アナログデータ)をA/D変換し、複数の画像(デジタルデータ)を取得する。   The imaging unit 103 performs A / D conversion on the optical signal (analog data) transferred from the optical element unit 102 to acquire a plurality of images (digital data).

CPU104は、中央処理装置(CPU)であり、以下に述べる各部を統括的に制御する。   The CPU 104 is a central processing unit (CPU) and comprehensively controls each unit described below.

画像処理部105は、バス107を介して撮像部103から受け取った画像に対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種画像処理を行う。   The image processing unit 105 performs various image processing such as white balance processing, gamma processing, and noise reduction processing on the image received from the imaging unit 103 via the bus 107.

符号化部106は、画像を符号化する。   The encoding unit 106 encodes an image.

バス107は、各種データの転送経路となるバスである。例えば、撮像部103によって取得されたデジタルデータはこのバス107を介して所定の処理部に送られる。
メモリ108は、RAMであり、CPU104の主メモリ、ワークエリア等として機能する。
The bus 107 is a bus serving as a transfer path for various data. For example, digital data acquired by the imaging unit 103 is sent to a predetermined processing unit via the bus 107.
A memory 108 is a RAM and functions as a main memory, a work area, and the like of the CPU 104.

記憶媒体109は、符号化部106で符号化された画像(以下、符号化画像)を記憶する取り外し可能な記憶媒体である。記憶媒体には、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリなどがある。   The storage medium 109 is a removable storage medium that stores an image encoded by the encoding unit 106 (hereinafter referred to as an encoded image). Examples of the storage medium include a hard disk, a memory card, a CF card, an SD card, and a USB memory.

通信部110は、記憶媒体109に記憶された符号化画像をコンピュータやプリンタ、または、データ蓄積サーバなどに送信する。また、通信部110は、外部機器から符号化画像やプログラムを受信する際の、USBや無線などのインターフェースである。   The communication unit 110 transmits the encoded image stored in the storage medium 109 to a computer, a printer, a data storage server, or the like. The communication unit 110 is an interface such as USB or wireless when receiving an encoded image or a program from an external device.

次に、撮像装置101が多視点で撮影した画像を符号化し、サーバに転送する方法を説明する。   Next, a method for encoding an image captured by the imaging apparatus 101 from multiple viewpoints and transferring the image to the server will be described.

CPU104は、予めユーザが設定した露光時間、フォーカス位置、絞り値などの撮影を光学素子部102へ送信する。CPU104は、ユーザの操作や外部からの撮影開始指示を受けると、光学素子部102に受光指示を送信し、撮像部103に画像取得指示を送信する。光学素子部102は、受信した撮影条件のパラメータ(以下、撮影パラメータ)と受光指示に基づき撮影系の制御を行う。   The CPU 104 transmits photographing such as an exposure time, a focus position, and an aperture value set in advance by the user to the optical element unit 102. When the CPU 104 receives a user operation or an external shooting start instruction, the CPU 104 transmits a light reception instruction to the optical element unit 102 and transmits an image acquisition instruction to the imaging unit 103. The optical element unit 102 controls the imaging system based on the received imaging condition parameters (hereinafter referred to as imaging parameters) and a light reception instruction.

光学素子部102は、指定されたフレームレートで被写体の光情報を各撮像素子201〜209で受光し、受光した信号を撮像部103に転送する。   The optical element unit 102 receives the light information of the subject at each of the imaging elements 201 to 209 at a designated frame rate, and transfers the received signal to the imaging unit 103.

撮像部103は、受信した複数枚の信号をA/D変換し、取得した画像を、バス107を介してメモリ108に送信する。   The imaging unit 103 A / D converts a plurality of received signals, and transmits the acquired image to the memory 108 via the bus 107.

上述したCPU104、光学素子部102、撮像部103及び各撮像素子201〜209による一連の撮像処理は、撮像装置101がCPU104から撮影終了指示を受信するまで継続される。例えば、光学素子部102が、図2に示すように9個の撮像素子201〜209から構成されている場合は、光学素子部102は各撮像素子201〜209夫々に撮影パラメータの設定を行う。光学素子部102の各撮像素子201〜209は、被写体からの光情報をそれぞれ受光した後、受光した9視点の受光信号を撮像部103に送信する。さらに、各撮像素子201〜209は、指定されたフレームレートで光情報の受光を継続し、受光信号を撮像部103に送信し続ける。このような多眼方式の撮像装置により、同一の被写体を複数の視点位置から撮像したカラー画像群を得ることができる。   A series of imaging processes by the CPU 104, the optical element unit 102, the imaging unit 103, and the imaging elements 201 to 209 described above are continued until the imaging apparatus 101 receives an imaging end instruction from the CPU 104. For example, when the optical element unit 102 includes nine imaging elements 201 to 209 as illustrated in FIG. 2, the optical element unit 102 sets shooting parameters for each of the imaging elements 201 to 209. Each of the image sensors 201 to 209 of the optical element unit 102 receives light information from the subject, and then transmits received light signals of nine viewpoints to the image capturing unit 103. Further, each of the imaging elements 201 to 209 continues to receive light information at a designated frame rate and continues to transmit a light reception signal to the imaging unit 103. With such a multi-eye imaging device, it is possible to obtain a color image group obtained by imaging the same subject from a plurality of viewpoint positions.

そして、CPU104は、光学素子部102の受光、及び、撮像部103の画像送信完了を確認後、画像処理部105に画像処理開始の指示を送信する。   Then, the CPU 104 transmits an image processing start instruction to the image processing unit 105 after confirming that the optical element unit 102 receives light and the imaging unit 103 completes image transmission.

画像処理部105は、CPU104から画像処理開始の指示を受信すると、バス107を介してメモリ108に保持された画像を読みだす。そして、画像処理部105は、現像処理、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種画像処理を施す。画像処理部105により画像処理を施された画像は、再びバス107を介してメモリ108に送信され記憶保持される。   When the image processing unit 105 receives an instruction to start image processing from the CPU 104, the image processing unit 105 reads an image held in the memory 108 via the bus 107. The image processing unit 105 performs various types of image processing such as development processing, white balance processing, gamma processing, and noise reduction processing. The image subjected to the image processing by the image processing unit 105 is transmitted again to the memory 108 via the bus 107 and stored.

さらに、CPU104は、符号化部106に符号化処理開始指示を送信する。符号化部106は、CPUから符号化処理開始指示を受信すると、バス107を介してメモリ108から画像処理済みの画像を読みだし、所定の方式で符号化する処理を行う。尚、本実施形態の画像符号化装置は、入力された複数の視点からの映像を符号化部106においてH.264 MVC方式で符号化するが、本発明はこれに限定されない。すなわち、MPEG等に代表される差分符号化方式に基づく符号化方法であれば構わない。尚、符号化部106の詳細については後述する。そして、符号化部106は、符号化された画像(符号化画像)をバス107を介して記憶媒体109へ送信する。   Further, the CPU 104 transmits an encoding process start instruction to the encoding unit 106. When receiving an encoding process start instruction from the CPU, the encoding unit 106 reads an image-processed image from the memory 108 via the bus 107 and performs an encoding process using a predetermined method. Note that the image encoding apparatus according to the present embodiment uses the encoding unit 106 to input H.264 video from a plurality of viewpoints. However, the present invention is not limited to this. That is, any encoding method based on a differential encoding method typified by MPEG or the like may be used. Details of the encoding unit 106 will be described later. Then, the encoding unit 106 transmits the encoded image (encoded image) to the storage medium 109 via the bus 107.

記憶媒体109は、符号化部106から受信した符号化画像を記憶保持する。   The storage medium 109 stores and holds the encoded image received from the encoding unit 106.

CPU104が通信部110に通信開始指示を送信すると、通信部110は、バス107を介して記憶媒体109に記憶された符号化画像を読みだし、撮像装置101に接続されたサーバ等の外部機器や記憶メディアへ送信する。ここでは、通信部110は、記憶媒体109から符号化画像を読みだして送信したが、本発明はこれに限定されるものではない。例えば、符号化部106が符号化された符号化画像をメモリ108に記憶保持し、通信部110はメモリ108から符号化画像を読みだして送信しても構わない。   When the CPU 104 transmits a communication start instruction to the communication unit 110, the communication unit 110 reads the encoded image stored in the storage medium 109 via the bus 107, an external device such as a server connected to the imaging device 101, Send to storage media. Here, the communication unit 110 reads and transmits the encoded image from the storage medium 109, but the present invention is not limited to this. For example, the encoded image encoded by the encoding unit 106 may be stored and held in the memory 108, and the communication unit 110 may read the encoded image from the memory 108 and transmit it.

受信先であるサーバ(不図示)は、受信した符号化画像を復号して画像を再構成する。再構成された複数の画像は、異なる視点と露光時間で撮影されたものである。このためサーバは、これらの復号された各画像に夫々注目部分の階調と位置の調整を行い、HDR(High Dynamic Range)合成を施す。HDR合成では、露光(または露出)を変えて取得した複数の画像を任意の比率で合成してトーンマッピングをかけ、ダイナミックレンジを縮小して白飛びや黒つぶれの少ないHDR画像を作成する。本実施形態において、符号化画像を復号した再構成画像に対してHDR合成を施すが、本発明は再構成画像の処理方法に限定されるものではない。   A server (not shown) that is a reception destination decodes the received encoded image and reconstructs the image. The reconstructed images are taken at different viewpoints and exposure times. For this reason, the server adjusts the gradation and position of the portion of interest on each of these decoded images, and performs HDR (High Dynamic Range) composition. In HDR synthesis, a plurality of images obtained by changing exposure (or exposure) are synthesized at an arbitrary ratio, tone mapping is performed, and the dynamic range is reduced to create an HDR image with less whiteout or blackout. In the present embodiment, HDR synthesis is performed on the reconstructed image obtained by decoding the encoded image, but the present invention is not limited to the processing method of the reconstructed image.

尚、本発明における撮像装置101は、上記の構成要素と、さらに他の要素を含んでも構わない。   Note that the imaging apparatus 101 according to the present invention may include the above-described components and further other elements.

以下、符号化部106の構成を、図3を用いて詳細に説明する。   Hereinafter, the configuration of the encoding unit 106 will be described in detail with reference to FIG.

符号化部106は、予測部301、変換量子化部302、可変長符号化部303、逆変換逆量子化部304、デブロッキングフィルタ部305、参照画像メモリ306を有する。   The encoding unit 106 includes a prediction unit 301, a transform quantization unit 302, a variable length encoding unit 303, an inverse transform inverse quantization unit 304, a deblocking filter unit 305, and a reference image memory 306.

予測部301は、入力された画像を予測符号化する予測部である。予測部301の詳細は後述する。   The prediction unit 301 is a prediction unit that predictively encodes an input image. Details of the prediction unit 301 will be described later.

変換量子化部302は、予測部301によって予測符号化された画像に対し、直交変換及び量子化を行う変換量子化部である。   The transform quantization unit 302 is a transform quantization unit that performs orthogonal transform and quantization on the image that is predictively encoded by the prediction unit 301.

可変長符号化部303は、変換量子化部302によって量子化された画像の変換係数を可変長符号化して、ビットストリームを出力する可変長符号化部である。可変長符号化部303は、予測部301から出力される動きベクトルまたは視差ベクトルを含む、種々の符号化パラメータも可変長符号化する。さらに、可変長符号化部303は、可変長符号化されたビットストリームを出力し、バス107を介して記憶媒体109へ送信する。   The variable length coding unit 303 is a variable length coding unit that performs variable length coding on the transform coefficient of the image quantized by the transform quantization unit 302 and outputs a bit stream. The variable length coding unit 303 also performs variable length coding on various coding parameters including a motion vector or a disparity vector output from the prediction unit 301. Further, the variable length coding unit 303 outputs a variable length coded bit stream, and transmits the bit stream to the storage medium 109 via the bus 107.

逆変換逆量子化部304は、変換量子化部302によって量子化された画像の変換係数を逆量子化し、逆変換を行う逆変換・逆量子化部である。   The inverse transform inverse quantization unit 304 is an inverse transform / inverse quantization unit that performs inverse transform by inversely quantizing the transform coefficient of the image quantized by the transform quantizing unit 302.

デブロッキングフィルタ部305は、逆変換逆量子化部304によって逆変換された画像に対してブロック歪除去を行うデブロッキングフィルタである。   The deblocking filter unit 305 is a deblocking filter that removes block distortion from the image inversely transformed by the inverse transform inverse quantization unit 304.

参照画像メモリ306は、デブロッキングフィルタ部305から出力された画像を後続する画像の予測符号化で参照画像として用いる可能性があるために保持する。尚、本実施形態において、参照画像メモリ306は符号化部106の内部に専用のメモリとして設けられているが、本発明はこれに限定されない。例えば、図1のメモリ108上にフレームメモリ領域を割り当ててもよい。   The reference image memory 306 holds an image output from the deblocking filter unit 305 because it may be used as a reference image in predictive coding of subsequent images. In the present embodiment, the reference image memory 306 is provided as a dedicated memory inside the encoding unit 106, but the present invention is not limited to this. For example, a frame memory area may be allocated on the memory 108 in FIG.

以下、予測部301の構成を、図4を用いて詳細に説明する。   Hereinafter, the configuration of the prediction unit 301 will be described in detail with reference to FIG.

予測部301は、イントラ符号化部401、フレーム間符号化部402、予測モード選択部403を有する。本実施形態において、画像は、メモリ108から1枚ずつイントラ符号化部401及びフレーム間符号化部402に入力される。   The prediction unit 301 includes an intra encoding unit 401, an interframe encoding unit 402, and a prediction mode selection unit 403. In the present embodiment, an image is input from the memory 108 to the intra encoding unit 401 and the interframe encoding unit 402 one by one.

イントラ符号化部401は、メモリ108から出力された画像を画像内の画素信号を用いて予測を行うイントラ予測符号化(以下、イントラ予測)を施し、予測誤差を出力する。   The intra coding unit 401 performs intra prediction coding (hereinafter referred to as intra prediction) for performing prediction on an image output from the memory 108 using a pixel signal in the image, and outputs a prediction error.

一方、フレーム間符号化部402は、メモリ108から入力された画像を、参照画像メモリ306に保持された参照画像を用いてフレーム間予測符号化(以下、フレーム間予測)を行う。尚、フレーム間予測には、同一視点画像を参照画像として用いる符号化(以下、同一視点予測)と、隣接視点画像などのように異なる視点で撮影された画像を参照画像として用いる視点間予測がある。よって、フレーム間符号化部402は、入力された画像に対して同一視点予測または視点間予測を行う。そして、フレーム間符号化部402は、動きベクトル、または、視差ベクトル、及び、予測誤差を出力する。   On the other hand, the inter-frame coding unit 402 performs inter-frame prediction coding (hereinafter, inter-frame prediction) on the image input from the memory 108 using the reference image held in the reference image memory 306. Note that inter-frame prediction includes encoding using the same viewpoint image as a reference image (hereinafter referred to as the same viewpoint prediction) and inter-view prediction using an image captured at a different viewpoint such as an adjacent viewpoint image as a reference image. is there. Therefore, the inter-frame coding unit 402 performs the same viewpoint prediction or the inter-view prediction on the input image. Then, the inter-frame coding unit 402 outputs a motion vector or a disparity vector and a prediction error.

予測モード選択部403は、イントラ符号化部401によってイントラ予測された画像、または、フレーム間符号化部402によってフレーム間予測された画像のいずれか一方を選択し、選択した画像の予測誤差と予測モードを出力する。尚、入力された画像に対しイントラ予測を行うかフレーム間予測を行うかを事前に設定してある場合には、選択は不要である。   The prediction mode selection unit 403 selects one of the image intra-predicted by the intra-coding unit 401 or the image predicted by the inter-frame coding unit 402, and predicts the prediction error and the prediction of the selected image. Outputs the mode. Note that if it is set in advance whether intra prediction or inter-frame prediction is performed on the input image, selection is not necessary.

フレーム間符号化部402は、撮影パラメータ取得部405、参照画像選択部406、ベクトル探索部407を有する。   The interframe coding unit 402 includes a shooting parameter acquisition unit 405, a reference image selection unit 406, and a vector search unit 407.

撮影パラメータ取得部405は、各撮像素子201〜209における露光時間、フォーカス位置、絞り値などの撮影パラメータをメモリ108から取得する。撮影パラメータ取得部405は、各撮像素子201〜209の位置情報と対応させて撮影パラメータを記憶保持する。撮影パラメータ取得部405は、視点間予測を行う場合、メモリ108から取得した撮影パラメータを参照画像選択部406に出力する。   The shooting parameter acquisition unit 405 acquires shooting parameters such as an exposure time, a focus position, and an aperture value in each of the image sensors 201 to 209 from the memory 108. The shooting parameter acquisition unit 405 stores and holds shooting parameters in association with the position information of the image sensors 201 to 209. The imaging parameter acquisition unit 405 outputs the imaging parameters acquired from the memory 108 to the reference image selection unit 406 when performing inter-viewpoint prediction.

参照画像選択部406は、撮影パラメータ取得部405から受信した撮影パラメータを用いて、参照画像リストに追加する画像を選択する。参照画像リストは、符号化対象の画像(以下、符号化対象画像)に対してベクトル探索をする際の参照画像として用いる画像群である。そして、参照画像選択部406は、作成した参照画像リストをベクトル探索部407に送信する。   The reference image selection unit 406 uses the shooting parameters received from the shooting parameter acquisition unit 405 to select an image to be added to the reference image list. The reference image list is an image group used as a reference image when performing a vector search on an image to be encoded (hereinafter referred to as an encoding target image). Then, the reference image selection unit 406 transmits the created reference image list to the vector search unit 407.

ベクトル探索部407は、参照画像選択部406から受信した参照画像リストに基づき、参照画像メモリ306から参照画像の候補(以下、参照画像候補)となる再構成画像を読み出す。そして、ベクトル探索部407は、入力された符号化対象画像と参照画像候補を用いて、ベクトル探索を行い、フレーム間予測に用いる参照画像を選択する。そして、ベクトル探索部407は、視差ベクトル、または、動きベクトル、及び、予測誤差を予測モード選択部403へ出力する。   Based on the reference image list received from the reference image selection unit 406, the vector search unit 407 reads a reconstructed image that becomes a reference image candidate (hereinafter referred to as a reference image candidate) from the reference image memory 306. Then, the vector search unit 407 performs a vector search using the input encoding target image and the reference image candidate, and selects a reference image used for inter-frame prediction. Then, the vector search unit 407 outputs the disparity vector, the motion vector, and the prediction error to the prediction mode selection unit 403.

本実施形態では、撮影パラメータ取得部405が各撮像装置201〜209の撮影パラメータを記憶・保持する。しかし、本発明においては、参照画像を決定するために、この撮影パラメータの記憶保持を参照画像選択部406で行っても構わない。   In the present embodiment, the shooting parameter acquisition unit 405 stores and holds the shooting parameters of the imaging devices 201 to 209. However, in the present invention, the reference image selection unit 406 may store the shooting parameters in order to determine the reference image.

次に、参照画像選択部406において、符号化対象画像を撮影した撮像素子の撮影パラメータを用いて参照画像リストに追加する画像を選択する方法を図5のフローチャートを用いて説明する。図5のフローチャートでは、符号化対象画像を撮影した撮像素子と撮影パラメータが近く、さらに、当該撮像素子との視差が小さい撮像素子で撮影した画像を選択する。ここでは、基準視点に対応する撮像素子を撮像素子205とし、符号化対象画像が撮像素子202によって撮影されたとして説明する。尚、本実施形態はこれに限定されるものではない。   Next, a method for selecting an image to be added to the reference image list using the imaging parameters of the imaging element that has captured the encoding target image in the reference image selection unit 406 will be described with reference to the flowchart of FIG. In the flowchart of FIG. 5, an image captured by an image sensor that has close imaging parameters to the image sensor that captured the encoding target image and has a small parallax with the image sensor is selected. Here, it is assumed that the image sensor corresponding to the reference viewpoint is the image sensor 205 and the encoding target image is captured by the image sensor 202. Note that the present embodiment is not limited to this.

ステップS501では、符号化対象画像が基準視点で撮影された画像(以下、基準視点画像)であるか否かを判定する。ステップS501において符号化対象画像が基準視点画像である場合は、視点間予測をしないので、判定処理を終了する。一方、符号化対象画像が基準視点画像ではない場合は、ステップS502の処理を行う。本実施形態において、基準視点は撮像素子205であり、撮像素子202によって撮影された画像は基準視点画像ではない。このため、次にステップS502へ進む。   In step S501, it is determined whether or not the encoding target image is an image captured from a reference viewpoint (hereinafter referred to as a reference viewpoint image). If the encoding target image is a reference viewpoint image in step S501, the inter-viewpoint prediction is not performed, and thus the determination process ends. On the other hand, when the encoding target image is not the reference viewpoint image, the process of step S502 is performed. In the present embodiment, the reference viewpoint is the image sensor 205, and the image captured by the image sensor 202 is not a reference viewpoint image. Therefore, the process proceeds to step S502.

ステップS502では、符号化対象画像を撮影した撮像素子202の撮影パラメータを撮影パラメータ取得部405から取得する。撮影パラメータは、露光時間、フォーカス位置、絞り値、レンズの明るさ(F値)、センサの感度値など、撮影時に用いられるパラメータのことである。本発明において、各撮像素子の撮影パラメータを用いて参照画像リストに追加する画像を選択するが、前述した撮影パラメータのうち、少なくとも一項目を用いればよい。ここでは、説明を簡単にするため、撮影パラメータは露光時間であるとする。   In step S <b> 502, the imaging parameter acquisition unit 405 acquires the imaging parameters of the image sensor 202 that has captured the encoding target image. The shooting parameters are parameters used at the time of shooting, such as exposure time, focus position, aperture value, lens brightness (F value), and sensor sensitivity value. In the present invention, an image to be added to the reference image list is selected using the shooting parameters of each image sensor, but at least one item of the above-described shooting parameters may be used. Here, in order to simplify the description, it is assumed that the shooting parameter is the exposure time.

次に、ステップS503は、符号化対象画像の撮像素子202と、予め定めた視差の閾値の範囲内にある撮像素子を選択する。本実施形態における視差は、本発明では、符号化対象画像を撮影した撮像素子と各撮像素子間の距離に基づくパラメータであるとする。例えば、撮像間の距離が短い順に視差をレベル1、レベル2、レベル3のようにレベルをつけてもよい。尚、本発明においてはこれに限定されることはなく、視差は撮像素子間の距離そのものであってもよい。また、符号化対象画像を撮影した撮像素子と当該撮像素子以外の各撮像素子の被写体に対する視点の違いを角度で表したものを視差としてもよい。さらに、本実施形態においては、CPU104が、予めユーザまたは外部インターフェースにより設定された各撮像素子201〜209の視差を符号化部106内の参照画像選択部406に設定する。尚、本発明においてはこれに限らず、例えば視差の出力元が光学素子102であっても撮像部103であっても構わない。   In step S503, the image sensor 202 of the encoding target image and an image sensor that falls within a predetermined parallax threshold range are selected. In the present invention, the parallax in the present embodiment is a parameter based on the distance between the image sensor that has captured the encoding target image and each image sensor. For example, parallax levels such as level 1, level 2, and level 3 may be given in order of increasing distance between images. Note that the present invention is not limited to this, and the parallax may be the distance between the image pickup devices. In addition, the parallax may be an angle indicating the difference between the viewpoints of the imaging element that captured the encoding target image and the subject of each imaging element other than the imaging element. Further, in the present embodiment, the CPU 104 sets the parallax of each of the image sensors 201 to 209 set in advance by the user or the external interface in the reference image selection unit 406 in the encoding unit 106. In the present invention, the present invention is not limited to this. For example, the output source of the parallax may be the optical element 102 or the imaging unit 103.

さらに、ステップS503は、抽出された撮像素子のIDを取得し、選択された各撮像素子で撮影された画像を参照画像リストへ追加する画像の候補(以下、リスト候補)とする。すなわち、選択された撮像素子がN個ある場合、リスト候補はN個存在する。そして、これらN個のリスト候補をまとめてリスト候補群とする。N個のリスト候補群の各画像ごとに適当な順番で後述の処理を行い、最終的に参照画像リストを作成する。   Further, in step S503, the ID of the extracted image sensor is acquired, and the image captured by each selected image sensor is set as a candidate image (hereinafter, list candidate) to be added to the reference image list. That is, when there are N selected image sensors, there are N list candidates. Then, these N list candidates are combined into a list candidate group. The processing described later is performed in an appropriate order for each image of the N list candidate groups, and a reference image list is finally created.

ステップS504からS508で、露光時間が所定の条件を満たし、視差が最小の撮像素子で撮影した画像を予測符号化の参照画像として選択する。参照画像は、このように選択される参照画像に限定されるものではなく、露光時間と視差の組み合わせから適切に選択することが可能である。例えば、視差が視差閾値を満たさなくても、露光時間が同一又は最も近いものを参照画像として選択してもよい。これは、露光時間が同一又は最も近い視点画像が少ない場合に有効である。まず、ステップS504は、ステップS503で抽出した全N個(N≧1)の撮像素子のうちn番目(1≦n≦N)に処理する撮像素子の露光時間と視差を取得する。nは判定処理を行った回数(以下、判定回数)を表す。さらに、n番目の撮像素子の露光時間を露光時間Tn、n番目の撮像素子と符号化対象の撮像素子202との視差を視差Pnとする。   In steps S504 to S508, an image taken with an imaging device that satisfies a predetermined condition for the exposure time and has the smallest parallax is selected as a reference image for predictive coding. The reference image is not limited to the reference image selected in this way, and can be appropriately selected from a combination of exposure time and parallax. For example, even if the parallax does not satisfy the parallax threshold, those with the same or closest exposure time may be selected as the reference image. This is effective when there are few viewpoint images with the same or closest exposure time. First, in step S504, the exposure time and the parallax of the image sensor to be processed n-th (1 ≦ n ≦ N) among all N (N ≧ 1) image sensors extracted in step S503 are acquired. n represents the number of times the determination process has been performed (hereinafter referred to as the number of determinations). Furthermore, the exposure time of the n-th image sensor is exposure time Tn, and the parallax between the n-th image sensor and the image sensor 202 to be encoded is parallax Pn.

ステップS505は、取得した露光時間Tnが露光時間の閾値範囲内にあるか否かを判定する。露光時間の閾値は予め定められたものであり、露光時間の下限の閾値を下限露光時間Th1、露光時間の上限閾値を上限露光時間Th2とする。上限露光時間Th2は、下限露光時間Th1と同じ、もしくは、大きい値が設定されなければならない。また、下限露光時間Th1と上限露光閾値とTh2は、符号化対象画像の撮像に用いられた露光時間、又は露光時間に基づいて決めた時間である。ステップS505においては、露光時間Tnが2つの露光時間の閾値である下限露光時間Th1と上限露光時間Th2の範囲にあるか否かを判定する。露光時間Tnが閾値の範囲内である場合は、ステップS506へ進み、視差Pnの判定を行う。一方、露光時間Tnが閾値の範囲外である場合は、n番目の撮像素子で撮影された画像を参照画像リストには追加しない。そして、ステップS508へ進み、次の撮像素子(n+1番目の撮像素子)で撮影された画像が参照画像リストへ追加するか否かの判定を行う。   In step S505, it is determined whether or not the acquired exposure time Tn is within the threshold range of the exposure time. The threshold value of the exposure time is predetermined, and the lower limit threshold value of the exposure time is set as the lower limit exposure time Th1, and the upper limit threshold value of the exposure time is set as the upper limit exposure time Th2. The upper limit exposure time Th2 must be set to a value that is the same as or greater than the lower limit exposure time Th1. The lower limit exposure time Th1, the upper limit exposure threshold value, and Th2 are exposure times used for capturing an encoding target image, or times determined based on the exposure time. In step S505, it is determined whether or not the exposure time Tn is within the range between the lower limit exposure time Th1 and the upper limit exposure time Th2, which are threshold values of the two exposure times. If the exposure time Tn is within the threshold range, the process proceeds to step S506, and the parallax Pn is determined. On the other hand, when the exposure time Tn is outside the threshold range, the image captured by the nth image sensor is not added to the reference image list. Then, the process proceeds to step S508, and it is determined whether or not an image captured by the next image sensor (n + 1-th image sensor) is added to the reference image list.

ステップS506は、各リスト候補に対応する撮像素子の視差が閾値より小さいか否かを判定する。具体的には、n番目の撮像素子と符号化対象の撮像素子202との視差Pnを視差の閾値である最小視差Pminと比較し、視差Pnが最小視差minより小さいか否かを判定する。尚、判定回数1(n=1)のときの最小視差Pminは、初期値として予め定めた閾値である視差初期値Phとする。視差Pnが最小視差Pminより小さいである場合は、ステップS507へ進む。一方、視差Pnが最小視差Pmin以上である場合は、n番目の撮像素子で撮影された画像は参照画像リストには追加しない。そして、ステップS508へ進み、次の撮像素子で撮影された画像が参照画像リストへ追加するか否かの判定を行う。ステップS507は、n番目の撮像素子で撮影された画像を参照画像リストとして保持し、n番目の撮像素子と符号化対象の撮像素子202との視差Pnを視差の閾値である最小視差Pminとして書き換える。   In step S506, it is determined whether or not the parallax of the image sensor corresponding to each list candidate is smaller than a threshold value. Specifically, the parallax Pn between the n-th imaging element and the imaging element 202 to be encoded is compared with the minimum parallax Pmin that is a parallax threshold, and it is determined whether or not the parallax Pn is smaller than the minimum parallax min. Note that the minimum parallax Pmin when the number of determinations is 1 (n = 1) is a parallax initial value Ph that is a threshold value determined in advance as an initial value. If the parallax Pn is smaller than the minimum parallax Pmin, the process proceeds to step S507. On the other hand, when the parallax Pn is equal to or greater than the minimum parallax Pmin, the image captured by the nth image sensor is not added to the reference image list. Then, the process proceeds to step S508, and it is determined whether or not an image captured by the next image sensor is added to the reference image list. In step S507, the image captured by the n-th image sensor is held as a reference image list, and the parallax Pn between the n-th image sensor and the image sensor 202 to be encoded is rewritten as the minimum parallax Pmin that is a parallax threshold. .

ステップS508は、参照画像選択部406における参照画像リストに追加する画像の選択処理の終了判定を行う。具体的には、判定回数nがNより小さい場合は、ステップS509を経由し、最適な参照画像リストを作成するために、ステップS504へ戻って判定処理を繰り返す。一方、判定回数nがNと等価である場合は、符号化対象画像の符号化における参照画像の選択処理を全てのリスト候補群に対して終えたとして、判定処理を終了する。   In step S <b> 508, the reference image selection unit 406 determines whether to finish selecting the image to be added to the reference image list. Specifically, when the number of determinations n is smaller than N, the process returns to step S504 to repeat the determination process via step S509 in order to create an optimal reference image list. On the other hand, when the number of determinations n is equivalent to N, it is determined that the reference image selection processing in encoding of the encoding target image has been completed for all list candidate groups, and the determination processing ends.

また、ステップS507において、参照画像リストに既にリスト候補が存在していた場合は、先に記憶保持していたリスト候補を破棄し、より視差が小さいリスト候補を参照画像リストに保持する。   If a list candidate already exists in the reference image list in step S507, the list candidate previously stored and retained is discarded, and a list candidate having a smaller parallax is retained in the reference image list.

本実施形態では、符号化対象画像を撮影した撮像素子と撮影パラメータが近く、さらに、当該撮像素子との視差が小さい撮像素子で撮影した画像を参照画像リストに追加する手順を、図5のフローチャートを用いて説明したが、本発明はこれに限定されるものではない。例えば、参照画像を複数選択して、これらを用いて予測符号化する場合は、図5のフローチャートに従って選択される画像に加えて、撮影パラメータに関係なく最も視差の小さい画像も、参照画像リストに追加してもよい。   In the present embodiment, the flowchart of FIG. 5 shows a procedure for adding an image captured by an image sensor that captures an encoding target image close to the image capturing parameter and has a small parallax with the image sensor to the reference image list. However, the present invention is not limited to this. For example, when a plurality of reference images are selected and predictive coding is performed using these, in addition to the images selected according to the flowchart of FIG. May be added.

また、本実施形態では撮影パラメータとして露光時間を用いたが、本発明はこれに限定されるものではない。例えば、露光時間T、絞り値I、レンズの明るさF、センサの感度Sを用いて、式(1)のように撮影パラメータを表す値Cを算出してもよい。   In this embodiment, the exposure time is used as the shooting parameter, but the present invention is not limited to this. For example, using the exposure time T, the aperture value I, the lens brightness F, and the sensor sensitivity S, a value C that represents a shooting parameter may be calculated as in Expression (1).

C=a1×T+a2×I+a3×F+a4×S −(1)
ただし、式(1)のa1、a2、a3、及び、a4は、予め定められた定数である。
C = a1 * T + a2 * I + a3 * F + a4 * S- (1)
However, a1, a2, a3, and a4 of Formula (1) are predetermined constants.

以上の構成と動作により、特に参照画像選択部406における処理により、撮像素子毎に露光時間を変えて複数の視点から撮影された画像群を視点間予測する場合に、参照画像の候補を絞り込むことができる。従って、視差ベクトルの計算量を削減することができる。   With the above configuration and operation, the reference image selection unit 406 narrows down the reference image candidates when inter-viewpoint prediction is performed on images captured from a plurality of viewpoints with different exposure times for each image sensor. Can do. Therefore, it is possible to reduce the calculation amount of the disparity vector.

尚、本実施形態では参照画像選択部406における処理のステップS503で、符号化対象画像の撮像素子202と予め定めた視差の閾値の範囲内にある撮像素子を選択し、リスト候補群とした。しかし、本発明においてはステップS503を省略しても構わない。つまり、リスト候補群を選ばず、同一時刻における符号化対象画像以外の全ての画像について参照画像リストを作成するための処理を行ってもよい。ステップS503における処理は、符号化対象画像の撮像素子202と遠く離れた撮像素子によって撮影された画像の処理を省略するために設けたものである。これによって、視差の閾値の範囲外にある画像については、ステップS505〜ステップS509の処理を行う必要がない。すなわち、符号化対象画像以外の全ての画像について処理する場合と比較して、計算量を削減することができる。   In this embodiment, in step S503 of the process in the reference image selection unit 406, the image sensor 202 of the image to be encoded and an image sensor that falls within a predetermined parallax threshold range are selected and set as a list candidate group. However, in the present invention, step S503 may be omitted. That is, a process for creating a reference image list for all images other than the encoding target image at the same time may be performed without selecting a list candidate group. The processing in step S503 is provided in order to omit processing of an image shot by an imaging device far from the imaging device 202 of the encoding target image. Accordingly, it is not necessary to perform the processing in steps S505 to S509 for an image that is outside the range of the parallax threshold. That is, the amount of calculation can be reduced as compared with the case where all the images other than the encoding target image are processed.

また、本実施形態において、全ての撮像素子の中からリスト候補群を選び、更に参照画像リストを作成したが、本発明はこれに限定されるものではない。すなわち、リスト候補群や参照画像リストは必ずしも必要ではなく、全ての撮像素子のIDリストから、参照画像として使用しないものを外していくようにしても良い。   In the present embodiment, a list candidate group is selected from all the image sensors and a reference image list is created. However, the present invention is not limited to this. That is, the list candidate group and the reference image list are not necessarily required, and those that are not used as reference images may be removed from the ID lists of all the image pickup devices.

以下、具体的に参照画像リストに追加する画像の選択方法を説明する。   Hereinafter, a method for selecting an image to be added to the reference image list will be specifically described.

ここでは例として、光学素子部102の撮像素子の数を6個とする。さらに、露光時間の閾値の下限露光時間Th1と上限露光時間Th2をともに符号化対象画像を撮影した撮像素子の露光時間と等しい値とし、初期の視差の閾値である視差初期値Phを5(初期の最小視差Pmin=視差初期値Ph=5とする。尚、下限露光時間Th1と上限露光時間Th2を同じ値を設定するのは、説明を簡単するためであり、本発明はこれに限定されるものではない。   Here, as an example, the number of image sensors in the optical element unit 102 is six. Further, the lower limit exposure time Th1 and the upper limit exposure time Th2 of the exposure time threshold are both equal to the exposure time of the imaging device that has captured the encoding target image, and the initial parallax value Ph that is the initial parallax threshold is 5 (initial The minimum parallax Pmin = the initial parallax value Ph = 5 Note that the same value is set for the lower limit exposure time Th1 and the upper limit exposure time Th2 in order to simplify the explanation, and the present invention is limited to this. It is not a thing.

また、6個の撮像素子のIDとして#1〜#6を割り当てる。また、各撮像素子#1〜#6に設定された露光時間を表1に示す。   Also, # 1 to # 6 are assigned as IDs of six image sensors. Table 1 shows exposure times set for the image sensors # 1 to # 6.

Figure 2017130953

図6は、各撮像素子#1〜#6を用いて撮影された画像を撮影時刻毎に並べ、フレーム間符号化部402によるフレーム間予測をする際の画像の参照関係を示した図である。本実施形態では、図6において、撮像素子♯1で撮影された画像を基準視点画像とする。また、符号化部106は、各撮像素子#1〜#6から出力される画像を、撮像素子#1、#2、#3、#4、#5、#6に対応する画像の順番で符号化する。尚、本発明はこれに限定されるものではない。例えば、撮像素子#3から出力される画像を基準視点画像としてもよいし、各撮像素子#1〜#6に対応する画像を上記と異なる順番で符号化してもよい。
Figure 2017130953

FIG. 6 is a diagram illustrating an image reference relationship when images captured using the image sensors # 1 to # 6 are arranged at each imaging time and interframe encoding is performed by the interframe encoding unit 402. . In the present embodiment, in FIG. 6, an image captured by the image sensor # 1 is set as a reference viewpoint image. The encoding unit 106 encodes the images output from the image sensors # 1 to # 6 in the order of the images corresponding to the image sensors # 1, # 2, # 3, # 4, # 5, and # 6. Turn into. Note that the present invention is not limited to this. For example, an image output from the image sensor # 3 may be used as a reference viewpoint image, and images corresponding to the image sensors # 1 to # 6 may be encoded in an order different from the above.

まず、図6の時刻t1に撮像素子#4で撮影された画像B41を例に挙げ、図4の参照画像選択部406が画像リストを作成する処理方法を図5、図6、及び、表1を用いて説明する。   First, taking as an example the image B41 imaged by the image sensor # 4 at time t1 in FIG. 6, the reference image selection unit 406 in FIG. 4 shows a processing method for creating an image list in FIGS. Will be described.

ステップS501において、参照画像選択部406は、符号化対象画像である画像B41が基準視点画像であるか否かを判定する。画像B41は基準視点画像ではないため、ステップS502へ進む。   In step S501, the reference image selection unit 406 determines whether the image B41 that is the encoding target image is a reference viewpoint image. Since the image B41 is not the reference viewpoint image, the process proceeds to step S502.

ステップS502において、参照画像選択部406は、撮影パラメータ取得部405からB41を撮影した撮像素子#4の撮影パラメータを取得する。表1に示すように、撮像素子#4の露光時間は1/125である。   In step S <b> 502, the reference image selection unit 406 acquires the imaging parameter of the image sensor # 4 that has captured B <b> 41 from the imaging parameter acquisition unit 405. As shown in Table 1, the exposure time of the image sensor # 4 is 1/125.

ステップS503において、参照画像選択部406は、視差が視差初期値Phを5より小さい撮像素子で撮影された画像をリスト候補とする。画像B41の符号化におけるリスト候補は、予め符号化済みの画像から選択する。また、時刻t1では、各撮像素子#1〜#6のうち撮像素子#4の視差と近い撮像素子で同一時刻の時刻t1に撮影された画像がリスト候補と成り得る。つまり、画像B41の符号化におけるリスト候補群は、画像I11、画像P21、及び、画像P31から成る。そのため、リスト補群に対応する撮像素子の各IDは、#1、#2、及び、#3となる。つまり、リスト候補群にリストされる画像に対応する撮像素子の数Nは3(N=3)である。ここでは、説明を簡単にするため、ステップS504〜S507では、撮像素子のIDを昇順(#1、#2、#3の順序)に判定処理を進める。   In step S <b> 503, the reference image selection unit 406 sets an image captured by an imaging device having a parallax initial value Ph smaller than 5 as a list candidate. List candidates for encoding the image B41 are selected from previously encoded images. Further, at time t1, an image photographed at time t1 at the same time with an image sensor close to the parallax of image sensor # 4 among image sensors # 1 to # 6 can be a list candidate. That is, the list candidate group in the encoding of the image B41 includes the image I11, the image P21, and the image P31. For this reason, the IDs of the image sensors corresponding to the list complement group are # 1, # 2, and # 3. That is, the number N of image sensors corresponding to the images listed in the list candidate group is 3 (N = 3). Here, in order to simplify the description, in steps S504 to S507, the process of determining the IDs of the image sensors is performed in ascending order (the order of # 1, # 2, and # 3).

ステップS504では、1番目の撮像素子#1の露光時間と視差を取得する。表1及び図6より、撮像素子#1の露光時間は1/125、視差は3である。   In step S504, the exposure time and the parallax of the first image sensor # 1 are acquired. From Table 1 and FIG. 6, the exposure time of the image sensor # 1 is 1/125, and the parallax is 3.

ステップS505は、撮像素子#1の露光時間1/125が露光時間の閾値の範囲内であるか否かを判定する。露光時間の閾値の下限露光時間Th1と上限露光時間Th2は、ともに符号化対象画像を撮影した撮像素子#4の露光時間1/125と等しい値である。よって、撮像素子#1の露光時間1/125は閾値の範囲内にあるため、ステップS506へ進む。   In step S505, it is determined whether or not the exposure time 1/125 of the image sensor # 1 is within the threshold value of the exposure time. Both the lower limit exposure time Th1 and the upper limit exposure time Th2 of the threshold of the exposure time are values equal to the exposure time 1/125 of the image sensor # 4 that captured the encoding target image. Therefore, since the exposure time 1/125 of the image sensor # 1 is within the threshold range, the process proceeds to step S506.

ステップS506では、撮像素子#1の視差は3が最小視差Pminより小さいか否かを判定する。このときの最小視差Pminは視差初期値Phと等しい値であるため、最小視差Pminは5である。よって、ステップS507へ進む。   In step S506, it is determined whether or not the parallax of the image sensor # 1 is smaller than the minimum parallax Pmin. Since the minimum parallax Pmin at this time is equal to the initial parallax value Ph, the minimum parallax Pmin is 5. Therefore, the process proceeds to step S507.

ステップS507では、画像I11を参照画像リストに追加し、視差の閾値である最小視差Pminを視差初期値Ph=5から光学素子#1の視差の値3に変更する(Pmin=3に書き換える)。そして、ステップS508へ進む。   In step S507, the image I11 is added to the reference image list, and the minimum parallax Pmin, which is the parallax threshold, is changed from the parallax initial value Ph = 5 to the parallax value 3 of the optical element # 1 (rewritten to Pmin = 3). Then, the process proceeds to step S508.

ステップS508では、符号化対象である画像の符号化における参照画像の選択処理を全てのリスト候補群に対して終えたか否かを判定する。この時点で判定回数1(n=1)なのでn<N(N=3)である。よって、全てのリスト候補群に対して処理を終えていないと判定する。そして、ステップS509を経由してステップS504へ戻り、次のリスト候補である撮像素子#2で撮影された画像P21について判定処理を繰り返す。しかし、ステップS504では、撮像素子#2の露光時間が閾値範囲内にないため、画像P21は参照画像リストに追加しない。同様の理由で、撮像素子#3で撮影された画像P31も参照画像リストに追加しない。   In step S508, it is determined whether reference image selection processing in encoding of the image to be encoded has been completed for all list candidate groups. Since the number of determinations is 1 (n = 1) at this time, n <N (N = 3). Therefore, it is determined that processing has not been completed for all list candidate groups. Then, the process returns to step S504 via step S509, and the determination process is repeated for the image P21 photographed by the image sensor # 2 that is the next list candidate. However, in step S504, since the exposure time of the image sensor # 2 is not within the threshold range, the image P21 is not added to the reference image list. For the same reason, the image P31 captured by the image sensor # 3 is not added to the reference image list.

つまり、図6の時刻t1に撮像素子#4で撮影された画像B41のフレーム間予測において、参照画像リストには画像I11が保持される。そして、ベクトル探索部407は、当該画像I11を用いてベクトル探索を行う。   That is, the image I11 is held in the reference image list in the inter-frame prediction of the image B41 captured by the image sensor # 4 at time t1 in FIG. Then, the vector search unit 407 performs a vector search using the image I11.

尚、本発明はこれに限定されるものではなく、複数の画像を参照画像リストに保持する場合は、画像I11に加えて、例えば視差が最も小さい画像である画像P31も参照画像リストに加えてもよい。   Note that the present invention is not limited to this, and in the case where a plurality of images are held in the reference image list, in addition to the image I11, for example, the image P31 that is the image with the smallest parallax is also added to the reference image list. Also good.

次に、もう1つの事例として、図6の時刻t4に撮像素子#6で撮影された画像B64の参照画像リストを作成する処理方法を図5、図6、及び、表1を用いて説明する。   Next, as another example, a processing method for creating a reference image list of an image B64 photographed by the image sensor # 6 at time t4 in FIG. 6 will be described with reference to FIGS. .

ステップS502では、画像B64を撮影した撮像素子#6の露光時間1/2000を取得する。   In step S502, the exposure time 1/2000 of the image sensor # 6 that captured the image B64 is acquired.

ステップS503では、リスト候補群にリストされる撮像素子を選択する。リスト候補群として選択された画像は、画像B64と同時刻に撮影された画像のうち、視差閾値を満たす画像B24、画像B34、画像B44、画像B54の4つとなる(撮像素子数N=4)。   In step S503, an image sensor listed in the list candidate group is selected. The images selected as the list candidate group are four images B24, B34, B44, and B54 that satisfy the parallax threshold among the images shot at the same time as the image B64 (the number of imaging elements N = 4). .

そして、各リスト候補群に対応する各撮像素子#2、#3、#4、#5に対してステップS504〜S507の判定処理を夫々行う。   Then, the determination processes in steps S504 to S507 are performed on each of the image sensors # 2, # 3, # 4, and # 5 corresponding to each list candidate group.

その結果、参照画像リストには、#3で撮影された画像B34を保持する。これは、画像B34がステップS505における露光時間の閾値を満たすためである。   As a result, the reference image list holds the image B34 taken at # 3. This is because the image B34 satisfies the exposure time threshold value in step S505.

尚、本発明はこれに限定されるものではない。すなわち、同一時刻、つまり、B64を撮影した時刻t4に撮影された画像のうち最も視差の小さい画像B54を参照画像リストに加えてもよい。また、同一視点、つまりB64を撮影した撮像素子#6により異なる時刻に撮影された画像B63及び画像B65も参照画像リストに加えてもよい。   Note that the present invention is not limited to this. That is, the image B54 having the smallest parallax among the images taken at the same time, that is, the time t4 when B64 was taken may be added to the reference image list. In addition, the image B63 and the image B65 captured at different times by the imaging element # 6 that captured B64 may be added to the reference image list.

<実施形態2>
実施形態1では、参照画像選択部406において、符号化対象画像を撮影した撮像素子の撮影パラメータを用いて参照画像を選択する方法を図5のフローチャートを用いて説明した。本実施形態では、参照画像選択部406において、図7に示すフローチャートを用いて参照画像を選択するその他の方法を説明する。
<Embodiment 2>
In the first embodiment, the method of selecting the reference image using the imaging parameter of the imaging element that has captured the encoding target image in the reference image selection unit 406 has been described with reference to the flowchart of FIG. In the present embodiment, another method for selecting a reference image in the reference image selection unit 406 will be described using the flowchart shown in FIG.

本実施形態における撮像装置は、図1、図2、図3、及び、図4に示した実施形態1と同じ構成であるため、記述を省略する。   The imaging apparatus according to the present embodiment has the same configuration as that of the first embodiment illustrated in FIGS. 1, 2, 3, and 4, and thus description thereof is omitted.

以下、符号化対象画像を撮影した撮像素子の撮影パラメータを用いて参照画像を選択する方法を図7のフローチャートを用いて説明する。ただし、図7における、ステップS701、ステップS702、ステップS703、ステップS706、ステップS708は、図5におけるステップS501、ステップS502、ステップS503、ステップS505、ステップS509に夫々対応する。このため、詳細の説明は省略する。   Hereinafter, a method of selecting a reference image using the imaging parameters of the image sensor that has captured the encoding target image will be described with reference to the flowchart of FIG. However, step S701, step S702, step S703, step S706, and step S708 in FIG. 7 correspond to step S501, step S502, step S503, step S505, and step S509 in FIG. 5, respectively. Therefore, detailed description is omitted.

ステップS701〜ステップS703は、図5におけるステップS501〜ステップS503と同様の動作を実行する。   Steps S701 to S703 execute the same operations as steps S501 to S503 in FIG.

ステップS704は、ステップS703で選択した全N個(N≧1)の撮像素子の視差を取得する。さらに、ステップS704は取得した視差の小さい順に、N個の撮像素子に処理順序を設定する。   In step S704, parallaxes of all N (N ≧ 1) image sensors selected in step S703 are acquired. In step S704, the processing order is set for the N imaging elements in the order of the acquired parallax.

ステップS705は、ステップS704で設定した処理順序に基づいて、n番目(1≦n≦N)に処理する撮像素子の露光時間と視差を取得する。また、n番目の撮像素子の露光時間を露光時間Tn、符号化対象画像を撮影した撮像素子との距離に基づく視差を視差Pnとする。   In step S705, based on the processing order set in step S704, the exposure time and the parallax of the image sensor to be processed nth (1 ≦ n ≦ N) are acquired. Also, let the exposure time of the n-th image sensor be the exposure time Tn, and the parallax based on the distance from the image sensor that captured the encoding target image be the parallax Pn.

ステップS706は、ステップS705で取得した露光時間Tnが露光時間の閾値範囲内にあるか否かを判定する。露光時間の閾値は、下限露光時間Th1、上限露光時間Th2とする。ステップS706においては、露光時間Tnが2つの露光時間の閾値である下限露光時間Th1と上限露光時間Th2の範囲にあるか否かを判定する。露光時間Tnが閾値の範囲内である場合は、ステップS707へ進む。一方、露光時間Tnが閾値の範囲外である場合は、n番目の撮像素子で撮影された画像を参照画像リストには追加しない。そして、ステップS708へ進み、次の撮像素子(n+1番目の撮像素子)で撮影された画像が参照画像リストへ追加するか否かの判定を行う。   In step S706, it is determined whether or not the exposure time Tn acquired in step S705 is within the exposure time threshold range. The threshold values for the exposure time are the lower limit exposure time Th1 and the upper limit exposure time Th2. In step S706, it is determined whether or not the exposure time Tn is within the range between the lower limit exposure time Th1 and the upper limit exposure time Th2, which are the threshold values of the two exposure times. If the exposure time Tn is within the threshold range, the process proceeds to step S707. On the other hand, when the exposure time Tn is outside the threshold range, the image captured by the nth image sensor is not added to the reference image list. Then, the process proceeds to step S708, and it is determined whether or not an image captured by the next image sensor (n + 1-th image sensor) is added to the reference image list.

ステップS707は、n番目の撮像素子で撮影された画像を参照画像リストとして保持し、参照画像選択部406における参照画像の選択処理の判定を終了する。   In step S707, the image captured by the n-th image sensor is held as a reference image list, and the determination of the reference image selection process in the reference image selection unit 406 is ended.

本実施形態では、ステップS704により、視差の小さい順に処理順序を設定し、当該処理順序に基づいて撮影パラメータを比較した。これにより、リスト候補群全てに対して撮影パラメータが閾値を満たすか否かを判定する必要はない。また、本実施形態では、符号化対象画像を撮影した撮像素子と撮影パラメータが近く、さらに、当該撮像素子との視差が小さい撮像素子で撮影した画像を参照画像リストに追加する手順を、図7のフローチャートを用いて説明した。しかし、本発明はこれに限定されるものではない。例えば、参照画像を複数選択して、これらを用いて予測符号化する場合は、図7のフローチャートに従って選択される画像に加えて、撮影パラメータに関係なく最も視差の小さい画像も、参照画像リストに追加してもよい。   In the present embodiment, in step S704, the processing order is set in ascending order of parallax, and the imaging parameters are compared based on the processing order. Thus, it is not necessary to determine whether or not the shooting parameters satisfy the threshold for all the list candidate groups. Further, in the present embodiment, a procedure for adding an image captured by an image sensor that has close imaging parameters to the image sensor that captured the encoding target image and that has a small parallax with the image sensor to the reference image list is illustrated in FIG. This has been described with reference to the flowchart of FIG. However, the present invention is not limited to this. For example, when a plurality of reference images are selected and predictive coding is performed using these, in addition to the images selected according to the flowchart of FIG. May be added.

<実施形態3>
実施形態1及び2において本発明を実行する撮像装置について説明した。しかしながら本発明は撮像装置に限らず、画像処理部及び符号化部を有する画像処理装置においても実行可能である。また画像処理部及び符号化部を有さなくても、これらの処理部が行う処理をコンピュータプログラムでもって実行しても良い。
<Embodiment 3>
In the first and second embodiments, the imaging apparatus that executes the present invention has been described. However, the present invention is not limited to the imaging apparatus, and can be executed in an image processing apparatus having an image processing unit and an encoding unit. Even if the image processing unit and the encoding unit are not provided, the processing performed by these processing units may be executed by a computer program.

図8は、上記各実施形態を適用可能なコンピュータのハードウェアの構成例を示すブロック図である。   FIG. 8 is a block diagram illustrating a configuration example of computer hardware to which the above-described embodiments can be applied.

CPU801は、RAM802やROM803に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、上述した各処理を実行する。即ち、CPU801は、図1示した画像処理部及び符号化部として機能することになる。   The CPU 801 controls the entire computer using computer programs and data stored in the RAM 802 and the ROM 803, and executes each process described above. That is, the CPU 801 functions as the image processing unit and the encoding unit illustrated in FIG.

RAM802は、外部記憶装置806からロードされたコンピュータプログラムやデータ、I/F(インターフェース)807を介して外部から取得したデータなどを一時的に記憶するためのエリアを有する。更に、RAM802は、CPU801が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM802は、例えば、フレームメモリとして割り当てたり、その他の各種のエリアを適宜提供したりすることができる。   The RAM 802 has an area for temporarily storing computer programs and data loaded from the external storage device 806, data acquired from the outside via an I / F (interface) 807, and the like. Further, the RAM 802 has a work area used when the CPU 801 executes various processes. That is, the RAM 802 can be allocated as a frame memory, for example, or can provide other various areas as appropriate.

ROM803には、本コンピュータの設定データや、ブートプログラムなどが格納されている。操作部804は、キーボードやマウスなどにより構成されており、本コンピュータのユーザが操作することで、各種の指示をCPU801に対して入力することができる。   The ROM 803 stores setting data of the computer, a boot program, and the like. The operation unit 804 is configured by a keyboard, a mouse, and the like, and can input various instructions to the CPU 801 by the user of the computer.

外部記憶装置806は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置806には、OS(オペレーティングシステム)や、各部の機能をCPU801に実現させるためのコンピュータプログラムが保存されている。更には、外部記憶装置806には、処理対象としての各画像データが保存されていても良い。   The external storage device 806 is a mass information storage device represented by a hard disk drive device. The external storage device 806 stores an OS (Operating System) and computer programs for causing the CPU 801 to realize the functions of each unit. Furthermore, each image data as a processing target may be stored in the external storage device 806.

外部記憶装置806に保存されているコンピュータプログラムやデータは、CPU801による制御に従って適宜、RAM802にロードされ、CPU801による処理対象となる。I/F807には、LANやインターネット等のネットワーク、投影装置や表示装置などの他の機器を接続することができ、本コンピュータはこのI/F807を介して様々な情報を取得したり、送出したりすることができる。808は上述の各部を繋ぐバスである。   Computer programs and data stored in the external storage device 806 are appropriately loaded into the RAM 802 under the control of the CPU 801 and are processed by the CPU 801. The I / F 807 can be connected to a network such as a LAN or the Internet, and other devices such as a projection device and a display device. The computer can acquire and send various information via the I / F 807. Can be. A bus 808 connects the above-described units.

上述の構成からなる作動は前述のフローチャートで説明した作動をCPU801が中心となってその制御を行う。   The operation having the above-described configuration is controlled by the CPU 801 centering on the operation described in the above flowchart.

<その他の実施形態>
本発明の目的は、前述した機能を実現するコンピュータプログラムのコードを記録した記憶媒体を、システムに供給し、そのシステムがコンピュータプログラムのコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたコンピュータプログラムのコード自体が前述した実施形態の機能を実現し、そのコンピュータプログラムのコードを記憶した記憶媒体は本発明を構成する。また、そのプログラムのコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した機能が実現される場合も含まれる。
<Other embodiments>
The object of the present invention can also be achieved by supplying a storage medium storing a computer program code for realizing the above-described functions to the system, and the system reading and executing the computer program code. In this case, the computer program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the computer program code constitutes the present invention. In addition, the operating system (OS) running on the computer performs part or all of the actual processing based on the code instruction of the program, and the above-described functions are realized by the processing. .

さらに、以下の形態で実現しても構わない。すなわち、記憶媒体から読み出されたコンピュータプログラムコードを、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込む。そして、そのコンピュータプログラムのコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行って、前述した機能が実現される場合も含まれる。   Furthermore, you may implement | achieve with the following forms. That is, the computer program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Then, based on the instruction of the code of the computer program, the above-described functions are realized by the CPU or the like provided in the function expansion card or function expansion unit performing part or all of the actual processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するコンピュータプログラムのコードが格納されることになる。   When the present invention is applied to the above storage medium, the computer program code corresponding to the flowchart described above is stored in the storage medium.

Claims (8)

複数の視点から撮像された多視点画像を符号化する符号化装置であって、
前記複数の視点ごとに設定された撮影パラメータを用いて前記複数の視点ごとに撮像された複数の画像を含む前記多視点画像を取得する取得手段と、
前記複数の画像の内の符号化対象画像を符号化する場合に、前記複数の画像の内の、前記撮影パラメータが前記符号化対象画像における前記撮影パラメータに基づく所定の範囲内の画像であり、かつ、前記所定の範囲内の画像の内の、前記符号化対象画像を撮像した視点との視差が最も小さい画像を参照画像として用いて、前記符号化対象画像を符号化する符号化手段と
を有することを特徴とする符号化装置。
An encoding device that encodes a multi-viewpoint image captured from a plurality of viewpoints,
An acquisition unit configured to acquire the multi-viewpoint image including a plurality of images captured for each of the plurality of viewpoints using imaging parameters set for the plurality of viewpoints;
When encoding the encoding target image of the plurality of images, the shooting parameter of the plurality of images is an image within a predetermined range based on the shooting parameter in the encoding target image, And encoding means for encoding the encoding target image using, as a reference image, an image having the smallest parallax with respect to a viewpoint where the encoding target image is imaged, among the images within the predetermined range. An encoding apparatus comprising:
前記視差は、前記複数の視点間の距離に基づく
ことを特徴とする請求項1記載の符号化装置。
The encoding apparatus according to claim 1, wherein the parallax is based on a distance between the plurality of viewpoints.
前記撮影パラメータは、露光時間、フォーカス位置、絞り値、レンズの明るさ、及び、センサの感度値の内の少なくともいずれかである
ことを特徴とする請求項1又は2に記載の符号化装置。
The encoding apparatus according to claim 1, wherein the imaging parameter is at least one of an exposure time, a focus position, an aperture value, a lens brightness, and a sensor sensitivity value.
前記多視点画像を撮像する撮像装置は、複数の撮像素子を有し、
前記多視点画像は、前記複数の撮像素子を用いて前記被写体に対して前記複数の視点から撮像された画像である
ことを特徴とする請求項1乃至3のいずれか1項に記載の符号化装置。
The imaging device that captures the multi-viewpoint image includes a plurality of imaging elements,
The encoding according to any one of claims 1 to 3, wherein the multi-viewpoint image is an image captured from the plurality of viewpoints with respect to the subject using the plurality of imaging elements. apparatus.
前記符号化手段は、前記参照画像を用いて、前記符号化対象画像にフレーム間予測符号化を施す
ことを特徴とする請求項1乃至4のいずれか1項に記載の符号化装置。
The encoding apparatus according to any one of claims 1 to 4, wherein the encoding unit performs inter-frame predictive encoding on the encoding target image using the reference image.
請求項1乃至5のいずれか1項に記載の符号化装置と、
前記多視点画像を撮像する複数の撮像手段と
を有することを特徴とする撮像装置。
The encoding device according to any one of claims 1 to 5,
An imaging apparatus comprising: a plurality of imaging units that capture the multi-viewpoint images.
複数の視点から撮像された多視点画像を符号化する符号化方法であって、
前記複数の視点ごとに設定された撮影パラメータを用いて前記複数の視点ごとに撮像された複数の画像を含む前記多視点画像を取得する取得工程と、
前記複数の画像の内の符号化対象画像を符号化する場合に、前記複数の画像の内の、前記撮影パラメータが前記符号化対象画像における前記撮影パラメータに基づく所定の範囲内の画像であり、かつ、前記所定の範囲内の画像の内の、前記符号化対象画像を撮像した視点との視差が最も小さい画像を参照画像として用いて、前記符号化対象画像を符号化する符号化工程と
を有することを特徴とする符号化方法。
An encoding method for encoding a multi-viewpoint image captured from a plurality of viewpoints,
An acquisition step of acquiring the multi-viewpoint image including a plurality of images captured for each of the plurality of viewpoints using imaging parameters set for the plurality of viewpoints;
When encoding the encoding target image of the plurality of images, the shooting parameter of the plurality of images is an image within a predetermined range based on the shooting parameter in the encoding target image, And an encoding step of encoding the encoding target image using, as a reference image, an image having the smallest parallax with respect to a viewpoint where the encoding target image is captured among images within the predetermined range. An encoding method comprising:
コンピュータを、請求項1乃至5のいずれか1項に記載の符号化装置の各手段として機能させることを特徴とするプログラム。   A program for causing a computer to function as each unit of the encoding device according to any one of claims 1 to 5.
JP2017039887A 2017-03-02 2017-03-02 Encoding device, imaging device, encoding method, and program Active JP6338724B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017039887A JP6338724B2 (en) 2017-03-02 2017-03-02 Encoding device, imaging device, encoding method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017039887A JP6338724B2 (en) 2017-03-02 2017-03-02 Encoding device, imaging device, encoding method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012133630A Division JP2013258577A (en) 2012-06-13 2012-06-13 Imaging device, imaging method and program, image encoding device, and image encoding method and program

Publications (2)

Publication Number Publication Date
JP2017130953A true JP2017130953A (en) 2017-07-27
JP6338724B2 JP6338724B2 (en) 2018-06-06

Family

ID=59395040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017039887A Active JP6338724B2 (en) 2017-03-02 2017-03-02 Encoding device, imaging device, encoding method, and program

Country Status (1)

Country Link
JP (1) JP6338724B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021507593A (en) * 2017-12-15 2021-02-22 オランジュ Methods and Devices for Encoding and Decoding Multiview Video Sequences Representing Omnidirectional Video

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115336A (en) * 2004-10-15 2006-04-27 Canon Inc Moving image encoder and control method thereof
JP2008252682A (en) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd Image display device and imaging device equipped with the image display device
US20090251531A1 (en) * 2008-04-04 2009-10-08 Texas Instruments Incorporated Coding scheme for digital video signals and an image architecture using the same
JP2011193352A (en) * 2010-03-16 2011-09-29 Sharp Corp Multi-view image encoding apparatus
US20120050474A1 (en) * 2009-01-19 2012-03-01 Sharp Laboratories Of America, Inc. Stereoscopic dynamic range image sequence
WO2012035371A1 (en) * 2010-09-14 2012-03-22 Nokia Corporation A multi frame image processing apparatus
WO2012042895A1 (en) * 2010-09-30 2012-04-05 パナソニック株式会社 Three-dimensional video encoding apparatus, three-dimensional video capturing apparatus, and three-dimensional video encoding method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115336A (en) * 2004-10-15 2006-04-27 Canon Inc Moving image encoder and control method thereof
JP2008252682A (en) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd Image display device and imaging device equipped with the image display device
US20090251531A1 (en) * 2008-04-04 2009-10-08 Texas Instruments Incorporated Coding scheme for digital video signals and an image architecture using the same
US20120050474A1 (en) * 2009-01-19 2012-03-01 Sharp Laboratories Of America, Inc. Stereoscopic dynamic range image sequence
JP2011193352A (en) * 2010-03-16 2011-09-29 Sharp Corp Multi-view image encoding apparatus
WO2012035371A1 (en) * 2010-09-14 2012-03-22 Nokia Corporation A multi frame image processing apparatus
WO2012042895A1 (en) * 2010-09-30 2012-04-05 パナソニック株式会社 Three-dimensional video encoding apparatus, three-dimensional video capturing apparatus, and three-dimensional video encoding method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021507593A (en) * 2017-12-15 2021-02-22 オランジュ Methods and Devices for Encoding and Decoding Multiview Video Sequences Representing Omnidirectional Video
JP7279047B2 (en) 2017-12-15 2023-05-22 オランジュ Method and device for encoding and decoding multiview video sequences representing omnidirectional video

Also Published As

Publication number Publication date
JP6338724B2 (en) 2018-06-06

Similar Documents

Publication Publication Date Title
JP5400062B2 (en) Video encoding and decoding method and apparatus using parametric filtering
JP4799438B2 (en) Image recording apparatus, image recording method, image encoding apparatus, and program
JP4999854B2 (en) Image encoding method and decoding method, apparatus thereof, program thereof, and storage medium storing program
US8983217B2 (en) Stereo image encoding apparatus, its method, and image pickup apparatus having stereo image encoding apparatus
WO2015139605A1 (en) Method for low-latency illumination compensation process and depth lookup table based coding
JP6707334B2 (en) Method and apparatus for real-time encoding
JP2013258577A (en) Imaging device, imaging method and program, image encoding device, and image encoding method and program
JP6000670B2 (en) Image processing apparatus and image processing method
JP6338724B2 (en) Encoding device, imaging device, encoding method, and program
WO2011074189A1 (en) Image encoding method and image encoding device
JP2009164865A (en) Video coding method, video decoding method, video coding apparatus, video decoding apparatus, programs therefor and computer-readable recording medium
JP2017098601A (en) Encoding device, imaging device, encoding method, and program
JP6875802B2 (en) Image coding device and its control method, imaging device and program
JP6386466B2 (en) Video encoding apparatus and method, and video decoding apparatus and method
JP4851563B2 (en) Video encoding method, video decoding method, video encoding program, video decoding program, and computer-readable recording medium on which these programs are recorded
JP2013150071A (en) Encoder, encoding method, program and storage medium
WO2012172634A1 (en) Image encoding device, image decoding device, method, and program
KR20150137081A (en) Method for encoding a plurality of input images and storage medium and device for storing program
JP2018191136A (en) Encoding device, encoding method and program
KR20090130712A (en) Method for image prediction of multi-view video codec and computer readable recording medium therefor
WO2015098827A1 (en) Video coding method, video decoding method, video coding device, video decoding device, video coding program, and video decoding program
JP6581469B2 (en) Image encoding apparatus, control method therefor, program, and storage medium
JP5974692B2 (en) Moving picture decoding apparatus and program
JP2019097030A (en) Image coding apparatus, imaging apparatus, image coding method, and program
JP2018033082A (en) Image encoder, image encoding method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180508

R151 Written notification of patent or utility model registration

Ref document number: 6338724

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151